WO2005025235A1 - 画像処理方法、および画像処理装置、並びにコンピュータ・プログラム - Google Patents

画像処理方法、および画像処理装置、並びにコンピュータ・プログラム Download PDF

Info

Publication number
WO2005025235A1
WO2005025235A1 PCT/JP2004/011477 JP2004011477W WO2005025235A1 WO 2005025235 A1 WO2005025235 A1 WO 2005025235A1 JP 2004011477 W JP2004011477 W JP 2004011477W WO 2005025235 A1 WO2005025235 A1 WO 2005025235A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
pixel
flash
value
image data
Prior art date
Application number
PCT/JP2004/011477
Other languages
English (en)
French (fr)
Inventor
Rui Yamada
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to EP04771464A priority Critical patent/EP1662806B1/en
Priority to CN2004800253349A priority patent/CN1846447B/zh
Priority to AT04771464T priority patent/ATE515890T1/de
Priority to US10/570,302 priority patent/US7903896B2/en
Publication of WO2005025235A1 publication Critical patent/WO2005025235A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/73Colour balance circuits, e.g. white balance circuits or colour temperature control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/88Camera processing pipelines; Components thereof for processing colour signals for colour balance, e.g. white-balance circuits or colour temperature control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/75Circuitry for compensating brightness variation in the scene by influencing optical camera components

Definitions

  • Image processing method image processing apparatus, and computer program
  • the present invention relates to an image processing method, an image processing apparatus, and a computer program. More specifically, it enables image adjustment that eliminates unnaturalness due to the difference in color temperature between ambient light and flash light using a plurality of images, and images between a plurality of images applied to image adjustment.
  • the present invention relates to an image processing method, an image processing apparatus, and a computer program that enable efficient high-speed correction processing even when blurring occurs.
  • a flash (electrical flash, strobe) is used as an auxiliary light source at the time of camera shooting.
  • flash photography is often performed.
  • Fill-in light (a technique that weakens shadows when the shadows of a person are too tight, etc.)
  • backlight compensation a technique that prevents the faces from blackening when shooting a person with the sun behind)
  • Various photos such as catch lights (a technique that shoots the eyes beautifully by putting "light spots" in the eyes of the eyes and shoots the eyes beautifully) or daytime synchro (daylights and techniques used as an auxiliary ray in the daytime and evening) You can take pictures.
  • catch lights a technique that shoots the eyes beautifully by putting "light spots" in the eyes of the eyes and shoots the eyes beautifully
  • daytime synchro daylights and techniques used as an auxiliary ray in the daytime and evening
  • (WB) Adjustment is performed. For example, when shooting in a light component environment where the color temperature of the light emitted to the subject such as natural light, illumination light, flash (strobe), etc. is high and blue (B) light is strong, reduce the sensitivity to blue light. When shooting in a light component environment where the color temperature of the light irradiated to the subject is low and the color temperature of the light irradiated to the subject is low, the sensitivity to red (R) light is relatively high.
  • White balance adjustment is performed by suppressing the sensitivity to light and relatively increasing the sensitivity to blue (B) light.
  • an adjustment process is generally performed in which adjustment parameters are set according to the light source used at the time of shooting. For example, when flash photography is performed, white balance adjustment is performed according to a parameter according to the light component of the applied flash light.
  • Patent Document 1 Japanese Patent Application Laid-Open No. 8-51632 acquires an image captured without emitting a flash and a captured image captured by emitting a flash, divides the two captured images into blocks, and A configuration is shown in which comparison of luminance values is performed for each block, and different white balance adjustment is performed for each block on an image captured by emitting a flash based on the comparison result of the luminance values.
  • White balance adjustment is performed by either white balance adjustment matched to flash light, or white balance adjustment adjusted to the middle of flash light and external light, or white balance adjustment adjusted to external light, for each block. Select and execute. However, in such a configuration, it is necessary to perform processing in units of blocks, and there is a problem of causing block distortion and a problem that correct processing can not be performed when the object moves.
  • Patent Document 2 Japanese Patent Application Laid-Open No. 2000-308068 discloses the following processing configuration. That is, first, the aperture is opened to shorten the exposure time, and then the flash is emitted for shooting, and then shooting is performed without emitting the flash under the originally intended exposure conditions.
  • the former is the first image
  • the latter is the second image.
  • pixels of a predetermined level or more are registered as a main subject area, and the other areas are registered as a background area.
  • the first image is adjusted to the flash to adjust the white balance
  • the second image to the outside light to adjust the white balance
  • the main subject area of the first image and the background area of the second image are combined to make a final recording. It is the composition made into an image.
  • the white balance adjustment of the subject that is hit by both the external light and the flash light can not be performed correctly.
  • Patent Document 3 Japanese Patent Application Laid-Open No. 2000-307940 discloses a configuration in which an image blur detection unit is added in addition to the configuration of the above-mentioned Patent Document 2.
  • an image blur detection unit is added in addition to the configuration of the above-mentioned Patent Document 2.
  • Patent Document 4 Japanese Patent Application Laid-Open No. 8-340542 divides the brightness value of the corresponding pixel of the image photographed by emitting the flash and the image taken without flash emission, and It discloses a configuration in which white balance adjustment is performed on an image captured by emitting a flash based on the contribution ratio of the
  • the white balance parameter for the flash light and the external light is simply set based on the contribution ratio of the flash to the image captured by mixing the reflected light from the flash light and the external light. Interpolate to generate the final image.
  • the component due to the flash light and the component due to the external light should be processed independently, and the image captured by mixing the flash light and the reflected light from the external light Only processing can not produce an optimal result image.
  • Patent Document 1 Japanese Patent Application Laid-Open No. 8-51632
  • Patent Document 2 Japanese Patent Application Laid-Open No. 2000-308068
  • Patent Document 3 Japanese Patent Application Laid-Open No. 2000-307940
  • Patent Document 4 JP-A-8-340542
  • a first aspect of the present invention is
  • the image difference d (x, y) is defined by converting a pixel value vector of each pixel (x, y) of the first image data to A (x, y). y), where B (x, y) is a pixel value vector of the corresponding pixel (x, y) of the second image data,
  • the image ratio d (x, y) is
  • e is a vector calculated as a fixed value.
  • the first image data is a white balance adjusted image subjected to pixel value adjustment based on a photographed image without flash light and a photographed image with flash light.
  • the second image data is a flash emission image I
  • the specific area is an area with movement in which movement of the subject is detected.
  • the pixel value vector of each pixel (x, y) of the white balance adjusted image R is R (x, y)
  • the pixel value vector of the corresponding pixel (X, y) of the flash emission image I is I (X, y)
  • the image ratio d (x, y) is
  • the estimated value calculation step is performed based on an image difference or an image ratio determined in an adjacent area of the specific area in the specific area of the image data.
  • the initial value setting step is an image difference or an image set to an image difference or an image ratio set pixel in the vicinity of the initial value setting target pixel.
  • the method is characterized in that it is a step of setting an initial value of the initial value setting target pixel based on the ratio.
  • the initial value setting step applies a mask image to determine initial value setting target pixels and image difference or image ratio set pixels. It is characterized by including a step.
  • the correction image generation step is an image difference in the specific area calculated in the estimated value calculation step.
  • the process of adding the estimated value of the image difference in the specific area calculated in the estimated value calculating step to the second image data in the specific area in the process applying the image ratio It is characterized in that it is executed as a step of multiplying the estimated value of the image ratio in the specific area calculated in the estimated value calculating step.
  • the first image data is a white balance adjusted image subjected to pixel value adjustment based on a photographed image without flash emission and a photographed image with flash emission.
  • the second image data is a flash emission image I
  • the specific area is an area with movement in which movement of the subject is detected
  • the estimated value calculation step is performed on the flash emission image I in the motion area.
  • It is characterized in that it is carried out as a step of multiplying the estimated value of the image ratio.
  • the estimated value calculation step is performed based on an image difference or an image ratio determined in an adjacent area of the specific area in the specific area of the image data.
  • An initial value setting step of setting an initial value of an image difference or an image ratio of a specific area, weight setting based on the second image data is performed on the initial value set in the initial value setting step.
  • the initial value setting step is an image difference or an image set in an image difference or an image ratio set pixel in the vicinity of the initial value setting target pixel.
  • Set the initial value of the initial value setting target pixel based on the ratio It is characterized in that it is a fixed step.
  • the initial value setting step applies a mask image to determine initial value setting target pixels and image difference or image ratio set pixels. It is characterized by including a step.
  • the first image data is a white balance adjusted image subjected to pixel value adjustment based on a photographed image without flash light and a photographed image with flash light.
  • the second image data is a flash-illuminated photographed image I
  • the specific area is an area with movement in which movement of the subject is detected.
  • the filtering process step has the following conversion equation:
  • d (x, y, ch) and I (x, y, ch) indicate the image of each channel [ch] of pixel position ( ⁇ , y)
  • d '(x, y, ch) is the updated value of difference image d of channel [ch] at pixel position ( ⁇ , y), i, j is the value of pixel position (X, y)
  • the reference pixel position to be applied to calculate the updated value d of d where k is an arbitrary natural number, x k ⁇ i ⁇ x + k, y_k ⁇ j ⁇ y + k, w (x) is According to the pixel value of the pixels constituting the image data of the photographed image I with flash emission
  • the weighting function w (x) in the conversion equation is represented by the following equation:
  • reference pixel positions i, j to be applied to calculate an updated value d ′ of the value d of the pixel position (x, y) in the conversion formula is
  • k is an arbitrary natural number, it is characterized in that it is a value of any one of x_k ⁇ i ⁇ x + k, y_k ⁇ j ⁇ y + k fe, k «, 1, 2 and 3 .
  • High-resolution image data I with flash based on captured image with flash firing
  • the non-flash low resolution image data I and the non-flash low resolution image data I are identical to each other.
  • the non-flash low resolution image data I is the first image data, the flash
  • the low resolution image data I is used as the second image data to calculate the estimated value.
  • the corrected image generation step based on corresponding pixel values of the pixel value adjusted image, the flash high resolution image data I, and the flash resolution image data I.
  • Estimated value calculation means for calculating an estimated value based on the image difference or the image ratio in a specific area of image data
  • Corrected image generation means for generating a corrected image of the specific area based on the image difference or the estimated value of the image ratio in the specific area calculated in the estimated value calculation step, and the second image data;
  • the estimated value calculation means is configured to, in a specific area of image data, based on an image difference or an image ratio determined in an adjacent area of the specific area. It includes an initial value setting unit that sets an initial value of an image difference or an image ratio of a specific area, and a smoothing processing unit that performs smoothing processing based on a smoothing filter on the initial value set by the initial value setting unit. It is characterized by
  • the estimated value calculation unit is configured to, in a specific area of image data, based on an image difference or an image ratio determined in an adjacent area of the specific area.
  • An initial value setting unit that sets an initial value of an image difference or an image ratio of a specific area, and a filter that is weighted based on the second image data is applied to the initial value set by the initial value setting unit.
  • a filter processing unit that executes a pixel value conversion process according to a pixel value conversion formula corresponding to the filtering process to correct an image difference or an image ratio value of the specific area.
  • a computer program that performs image processing, Calculating an image difference or an image ratio based on corresponding pixel values of the first image data and the second image data having different pixel values;
  • a pixel value adjusted image R including processing and motion partial pixel value correction processing is generated, and in the correction image generation step, the pixel value adjusted image R, the high resolution image data I with flash, and the resolution image data with flash High resolution based on the corresponding pixel value with I
  • the computer 'program of the present invention is, for example, a storage medium or communication medium, such as a CD, which is provided in a computer readable form to various programs' general purpose computer capable of executing code' system. It is a computer program that can be provided by a storage medium such as FD or MO, or a communication medium such as a network. By providing such a program in a computer readable form, processing according to the program is realized on the computer system.
  • a system is a logical set configuration of a plurality of devices, and the devices of each configuration are not limited to those in the same casing.
  • the correction process of the pixel value of the specific area such as the movement area, the pixel value of the non-motion area, for example, the image data subjected to white balance adjustment, the movement area and the like
  • the flash-illuminated image data of the specific area it is possible to efficiently generate an image that can be smoothly connected with the white-balanced image data, and it is possible to generate an image in the motion-varying area. It is possible to generate an image that reflects the texture information of flash-flashed image data.
  • the pixel value correction processing in the motion area there is a difference between the image data subjected to white balance adjustment and the image data with flash emission, and the motion of the initial value of the ratio
  • smoothing is performed by the smoothing filter to calculate the estimated value of the image difference or image ratio in the moving area, and the pixel value correction of the moving area is performed using the estimated value. Small amount of processing, high speed processing is realized.
  • the pixel value correction reflecting the imager is performed, and the blur of the edge portion and the color bleeding are eliminated even in the moving area, and the texture of the photographed image I with flash light is reflected.
  • the present invention after performing white balance adjustment applying a low resolution image and pixel value correction of a portion with motion, high on the basis of the correspondence between corrected image data and low resolution image data. It becomes possible to generate a resolution-corrected image, which enables high-speed processing with a small amount of memory, and finally to obtain a high-resolution corrected image.
  • FIG. 1 is a block diagram showing a configuration of an imaging device according to the present embodiment.
  • the imaging apparatus according to the present embodiment includes a lens 101, an aperture 102, a solid-state imaging device 103, a correlated double sampling circuit 104, an A / D converter 105, a DSP block 106, and a timing generator 107.
  • CDO codec
  • the input device 114 refers to operation buttons such as a recording button on the camera body.
  • the DSP block 106 is a block having a signal processing processor and an image RAM, and the signal processing processor can perform image processing pre-programmed on image data stored in the image RAM. ing.
  • the DSP block is simply called DSP below.
  • Incident light that has passed through the optical system and reached the solid-state imaging device 103 first reaches each light-receiving element on the imaging surface, is converted into an electrical signal by photoelectric conversion in the light-receiving element, and is correlated double sampling circuit 104 The noise is removed by the A / D converter 105. After being converted into signals, they are temporarily stored in the image memory in the digital signal processor (DSP) 106. If necessary, the flash light emitting device 116 can be made to emit light via the flash control device 115 at the time of photographing.
  • DSP digital signal processor
  • the timing generator 107 controls the signal processing system so as to maintain image capturing at a constant frame rate.
  • a stream of pixels is also sent to the digital signal processor (DSP) 106 at a constant rate, and after appropriate image processing is performed there, the image data is sent to the D / A converter 108 or codec (CODEC) 111. Or sent to both.
  • the D / A converter 108 converts the image data sent from the digital signal processor (DSP) 106 into an analog signal
  • the video encoder 109 converts it into a video signal
  • the video signal can be monitored by the video monitor 110.
  • the video monitor 110 plays the role of a camera finder.
  • a codec (CODEC) 111 performs encoding on image data sent from a digital signal processing unit (DSP) 106, and encoded image data is recorded in a memory 112.
  • the memory 112 may be a recording device using a semiconductor, a magnetic recording medium, a magneto-optical recording medium, an optical recording medium, or the like.
  • the force S in the present embodiment is the image processing in the digital signal processing unit (DSP) 106 in which the present invention is realized. .
  • DSP digital signal processing unit
  • the image processing unit of this embodiment is actually realized by the digital signal processing unit (DSP) 106. Therefore, in the configuration of the present embodiment, the operation of the image processing unit is carried out in the digital signal processing unit (DSP) 106 with respect to the stream of the input image signal with the operation unit described in the predetermined program code. It is realized by executing sequentially. In the following description, the order in which each process in the program is executed is described with a flowchart. In addition to the program form described in this embodiment, the present invention may be implemented by mounting a hardware circuit that realizes processing equivalent to the functions described below.
  • FIG. 2 is a flow chart for explaining the procedure of white balance (WB) adjustment processing to be executed on the stream of the input image signal in the digital signal processing unit (DSP) 106.
  • WB white balance
  • step S101 imaging is performed without flash emission using an aperture and shutter speed set in advance, and in step S102, this captured image without flash emission is stored in the memory as image data I.
  • step S103 flash light emission is performed using the aperture and shutter speed set in advance as in step S101, and photographing is performed.
  • step S104 the photographed image with flash light is stored in the memory as image data I. .
  • step S105 the aperture and shutter set in advance are the same as in step S101.
  • the picture is taken again using the speed, without flash, and the picture without flash is stored in the memory as image data I in step S106.
  • the photographing in steps S101, S103, and S105 is performed as continuous photographing, for example, continuous photographing at intervals of about 1/100 second.
  • the white balance (WB) adjustment process is performed using a plurality of images obtained from each photographing step, and one white balance (WB) adjusted image data is generated.
  • image data I, I, I stored in the memory in steps S 102, S 104, S 106.
  • 1 2 is an image for which image stabilization has been performed. That is, when shooting three images I, I, I
  • the camera shakes store them in memory after correcting them. That is, if the photographed image is a camera shake occurrence image, the camera shake correction is performed between steps S101 and S102, between steps S103 and S104, and between steps S105 and S106. Store the corrected image in memory. Therefore, the image data I, I, I stored in the memory become an image as if taken continuously with the camera fixed on a tripod.
  • a conventionally known process can be applied. For example, a method of detecting a shift using a calo-speed sensor and shifting the lens, or capturing an image with a resolution larger than the target resolution, using an imaging device, and a shift that does not occur, as appropriate Methods widely used conventionally are applied, such as a method of reading out and a method of correcting camera shake only by image processing without using a sensor.
  • step S107 it is detected whether or not the image blur caused by the movement of the subject itself has occurred while the three images of steps S101, S103, and S105 have been captured.
  • the process of detecting whether or not the image blur caused by the movement of the subject itself has occurred is performed by comparing two images from three images. For example, using the image I and the image I to detect a moving part
  • the difference is taken for each pixel of image I and image I, and a certain threshold or more
  • Step S108 there is a method of registering as a portion where there is a movement. If it is determined that the image blurring caused by the movement of the subject itself is not a force (Step S108: No), the process proceeds to Step S112. If a motion is detected (step S108: Yes), the process proceeds to step S109.
  • step S109 it is determined whether or not correction processing for performing appropriate white balance (WB) adjustment can be performed on the moving part detected in step S107.
  • the processing is performed based on the ratio of the number of pixels registered as a moving part in step SI 07 to the number of pixels in the entire image. For example, if the ratio [ratioA] of the number of pixels registered as a moving part to the number of pixels of the entire image is equal to or greater than a predetermined threshold [Threshold], it is determined that correction is not possible. If it is less than, it is judged that correction is possible.
  • step S109 If it is determined in step S109 that the correction is not possible, the process proceeds to step S113, and if it is determined that the correction is possible, the process proceeds to step S110.
  • step S113 with respect to photographed image data I with flash light emission,
  • the parameter value used for white balance adjustment is set based on the parameter set according to the ambient light component, the parameter set according to the flash light component, or the intermediate component between the ambient light and the flash light.
  • this white balance adjustment method is a method that has been conventionally performed, and the detailed description thereof is omitted.
  • the parameters to be applied are parameters represented by a 3 ⁇ 3 matrix, which is a matrix to be applied to the conversion of the color component that constitutes the color of each pixel. 3 A matrix in which non-diagonal components are set to 0 is applied to row 3 ⁇ .
  • step S 110 and step S 112 white balance (WB) adjustment processing based on a plurality of image data in step S 110 and step S 112 will be described.
  • the processing in step S 110 and step SI 12 is the same processing. The details of this process will be described with reference to FIG.
  • step S201 flash light is present, and the component of shot image data I and flash light are absent.
  • step S202 a white rose is added to the image F according to the color temperature of the flash light. (WB) adjustment. That is, the white balance (WB) adjustment is performed based on the parameter set in accordance with the flash light in accordance with the difference image data F. Furthermore, if the flash light is too bright or too bright, the level is adjusted so that the brightness of the image is optimal, and a corrected image F 'is generated.
  • WB white balance
  • step S 203 the flashlight-free captured image data I is converted to ambient light.
  • the white balance (WB) adjustment is performed based on the parameters set according to the outside light and the photographed image data I without flash light to generate a corrected image I ′.
  • Japanese Patent Application Laid-Open No. 2001-78202 an image I captured with flash light and an image I captured without flash
  • the spectral distribution of the object color component data and the ambient light is determined as illumination component data.
  • step S 204 a white balance (WB) adjusted image R is generated by adding the difference image F ′ and the corrected image I ′.
  • the white balance (WB) adjusted image R with respect to the non-moving part becomes the white balance (WB) adjusted independently of the component due to the flash light and the component due to the external light.
  • FIG. 4 is a view for explaining the principle of generating a white balance (WB) adjusted image R based on two images, which is executed according to the flow of FIG. That is, the white balance (WB) adjusted image R based on the flashless light-captured image data I and the flash-lighted captured image data I
  • FIG. 4 (a) shows a pixel at a coordinate position (x, y) of the photographed image data I with flash light
  • the vector V3 has (ir, ig, ib) as the values of (R, G, B).
  • the vector V3 is a pixel value acquired based on the irradiation light including both the ambient light component and the flash light component.
  • this vector V3 is based on the pixel values at the same coordinates (X, y) acquired by photographing only the external light component, ie, the pixel values of the photographed image data I without flash light. It corresponds to the addition value of the vector V2 and the vector V2 composed of the pixel value components of the image obtained when shooting under the virtual light only condition without external light.
  • the white balance adjustment is performed according to the parameter set based on the external light component and the pixel value corresponding to the vector VI based on the pixel value of the photographed image data I without flash light.
  • the correction pixel value is obtained, and a vector VI 'consisting of the correction pixel value is obtained.
  • An image constituted by the pixel value indicated by the vector VI' is obtained as a result of the white balance adjustment in step S203 of FIG. Corresponds to the corrected image I ′. That is, the process of FIG. 4 (c) corresponds to step S203 in the flow of FIG.
  • FIG. 4 (d) shows the pixel value indicated by vector V2 ′ corresponding to corrected image F ′ shown in FIG. 4 (b) and the vector corresponding to corrected image I ′ shown in FIG. 4 (c) Calculate the pixel value indicated by VI ',
  • the white balance adjustment pixel values at certain coordinates (X, y) are the pixel values indicated by the vector V2 ′ corresponding to the corrected image F ′ shown in FIG. 4B and the correction shown in FIG. Obtained by adding the pixel value indicated by the vector VI 'corresponding to the image I'
  • an image captured with only the external light component and an image captured with only the flash light component for an image including both the external light component and the flash light component are taken with only the ambient light component.
  • white balance adjustment is performed according to the parameters set based on the ambient light component, and the image captured with only the flash light component is corrected, or the white balance is set according to the parameters set based on the flash light component Adjustment is performed, and these corrected pixel values are added again to obtain a final white balance adjusted image R.
  • white balance adjustment is performed on the two light components independently with parameters adapted to the respective light components, and appropriate white balance adjustment is performed. In other words, it is possible to generate an adjusted image as if the external light and the flash light had the same color and the same power.
  • step S112 the white balance adjustment image R power is set as a final output image, and the processing ends.
  • step S110 when the white balance adjustment processing based on a plurality of images described above is performed in step S110, it is determined that there is an image blur caused by the movement of the subject itself, and it is determined that the image blur can be corrected.
  • pixel value correction processing is performed in step S111 for the image area of the image blur caused by the movement of the subject itself, that is, the moving partial area. That is, exception processing is performed on the pixel value of the moving part detected in step S107, and the white balance adjustment image R is corrected.
  • the correction process is performed, for example, using the pixel value of the photographed image data I with flash emission corresponding to the portion where the motion is detected as the white balance.
  • the color of an object appearing in an image is that light is reflected by the object and incident on an imaging device to be imaged.
  • an imaging device For example, when an object is red on an image under a white light source, the object often reflects visible light of a frequency corresponding to red and absorbs light of a frequency corresponding to other colors. have. In other words, it can be said that an object has an inherent reflectance for light of each frequency.
  • the light reflectance for each of the RGB color components of the object is (o, o, o)
  • the light of a certain color temperature is (1, 1, 1)
  • k is a scalar value representing the light intensity.
  • the light source 1 (1 + 1 + 1
  • Light source 2 (1, 1, 1), and these two lights are reflected to an object (o, o, o)
  • the pixel values (i, i, i) of the captured image of the camera are
  • k is the intensity of the light source 1 and k is a scalar value representing the intensity of the light source 2.
  • Equation 2 Equation 2
  • Equation (3) can be transformed.
  • 'I an intensity scalar ratio of light emitted from the light source 1 and the light source 2 in the portion of the subject imaged in the pixel of interest.
  • the color of the ambient light (1, 1, 1) is the auto white that has been used conventionally
  • the pixel (i, i, i) is an external light component ⁇ *' r g b ⁇ r r
  • the pixel value correction in step S111 is performed on the moving part detected in step S107 in the flow described with reference to FIG. 2 in accordance with the above-described process.
  • specific processing examples will be described.
  • step S107 it is detected whether or not the image blur caused by the movement of the subject itself has occurred while the three images of steps S101, S103, and S105 are captured.
  • the process of detecting whether or not the image blur caused by the movement of the subject itself has occurred is based on three images.
  • a ball 200 is continuously taken while (a) an image without flash light I, (b) an image with flash light I, and (c) an image without flash light I. Is rolling
  • FIG. 6 is a flow chart showing a specific processing procedure of pixel value correction processing of a moving part
  • FIG. 7 shows a pixel region including the moving part to be corrected. That is, it is a portion of area 210 in FIG.
  • pixels are Define as inner pixel 250. Further, in the image area determined to be moving, pixels other than the inner peripheral pixel 250 are set as a non-inner peripheral pixel 252 with movement.
  • the pixel adjacent to the image area determined to be moving (the pixel at the position included in the surrounding eight pixels) Define as In addition, in the portion determined not to move, the pixels other than the outer peripheral pixel 251 of the moving portion are set as the non-moving non-peripheral pixel 253.
  • the target is correct white balance (WB) adjustment, and It is assumed that the image subjected to the motion correction has a pixel configuration in which the pixel values of the motion portion and non-motion portion change smoothly.
  • WB white balance
  • the value of the light intensity scalar ratio k ′ is determined for the motion-appearing peripheral pixel 251.
  • Step 6 of step 6 is processing.
  • step S301 the light intensity / scalar ratio k 'is obtained for the motion partial outer circumferential pixel 251.
  • the value of the light intensity scalar ratio k ′ corresponding to the pixel included in the moving part is unknown.
  • the value of the light intensity scalar ratio k ′ corresponding to the pixel included in the moving part is interpolated from the value of k ′ calculated corresponding to the moving outer peripheral pixel 251.
  • This is a process to which a force radial basis function (RBF) is applied as an example of the interpolation method.
  • RBF force radial basis function
  • the sampling point is on a two-dimensional space.
  • the light intensity scalar ratio k ′ can be determined at any position.
  • This processing is the RBF construction processing based on the light intensity scalar ratio k ′ (k ′ at the moving edge partial peripheral pixel 251) of the sample point in step S302 in FIG.
  • the pixel value (i, i, i) at each pixel position of the photographed image data I with flash is determined.
  • the rate, ( ⁇ ', ⁇ ', '') is determined.
  • the pixel value of the subject when only the ambient light component is irradiated (1 * o ', 1 * o', 1 l r r lg g lb
  • the procedure of the correction of the pixel value of the motion part is summarized as the following af processing.
  • a. First, as the data corresponding to the pixels of the non-moving part adjacent to the moving part, the light irradiated from only the first light source in the part of the subject imaged in that pixel and the first light source Calculate the light intensity scalar ratio of the two light sources of the light emitted from the external light only.
  • the pixel value of each pixel of the portion with motion in the image corresponding to the captured image under the illumination environment of only the first light source is taken as the first pixel value.
  • the pixel of each pixel of the moving part in the image corresponding to the photographed image in the ambient light irradiation environment not including the first light source Calculate the value as the second pixel value.
  • the white balance (WB) adjustment pixel value for the pixel included in the moving part is overwritten on the image data R generated in step S110 of FIG. 2, and the first corrected image data R ′ is obtained. That is, only the pixel value of the motion area caused by the motion of the subject in the captured image is reset in step S111, and overwrites the white balance adjusted image R generated in step S110, and the first corrected image data R '.
  • the pixel values reset in the above-described movement area are calculated.
  • the boundary between the pixel in the non-moving part of the original image R and the reset pixel in the moving part may not be connected smoothly.
  • the cause may be that the color of the external light could not be measured correctly, or a white spot occurred in the photographed image I with flash.
  • step S304 first, the pixel value of a pixel a254 (see FIG. 7) of the motion corrected portion inner circumferential pixel 250 of the first corrected image R ′ and the adjacent pixel of the pixel a 254 (included in the eight pixels)
  • the ratio ( ⁇ , ⁇ , ⁇ ) of each color component corresponding to each pixel at each position of all the pixels 250 with motion is calculated as pixel-corresponding color component ratio data, and Corresponding color rgb
  • step S305 an RBF based on color component ratio data is constructed using all of the moving-portion inner circumferential pixels 250 as sample points.
  • step S306 color component ratio data (a, a, a) corresponding to each pixel of the moving part is calculated based on the RBF based on the constructed color component ratio data for each pixel of the moving part.
  • New pixel value is calculated by multiplying the pixel value of each pixel set in the rgb first corrected image R ′ by the color component ratio of the corresponding pixel ⁇ (a, a, a) Move this pixel value, rgb
  • step S306 In the first corrected image R ′ obtained by performing the processing up to step S 303 in FIG. 6, when the boundary between the motion partial image and the non-motion partial image is smoothly connected, the step is performed.
  • the processing of step S306 may be omitted.
  • step SI 11 in FIG. 6 when the image blur based on the movement of the subject itself is detected from the continuous captured images, the process according to the flow shown in FIG. 6 is executed, and the second correction generated by the process described above is performed.
  • the image R "or the first corrected image R ' is taken as the final output image.
  • step S107 in FIG. 2 becomes unnecessary. Further, since the determination in step S108 is also always No, it is not necessary to perform the determination process in step S108, so steps S105 and 106 for creating and storing data used for the determination in step S108 are also unnecessary.
  • the non-flash captured image I captured in step S105 is an unnecessary image, and in this case, the flash image
  • flash is used herein as a lighting device that emits light when the subject is dark, it may also be called a strobe, and is not limited to a flash in general.
  • the present invention is applied to a lighting device that emits light when the subject is dark.
  • a captured image under a single illumination light environment is acquired or Create and perform white balance adjustment according to the parameters set based on the color component (color temperature) of each irradiation light, and combine them for the images under each single irradiation light environment
  • a proper white balance adjustment process in which the difference in color temperature between the flash and the outside light is reduced.
  • FIG. 8 is a block diagram showing a functional configuration of a digital signal processing unit (DSP) (corresponding to DSP 106 in FIG. 1) that executes a process according to the present embodiment.
  • DSP digital signal processing unit
  • DSP digital signal processing unit
  • step S101 to step 106 of FIG. 2 the captured flashless image I, the flash-on image I, and the flash-free image I are frame memories 301, 302, and 303, respectively.
  • a digital signal processor (DS) is used as a frame memory for image storage.
  • DS digital signal processor
  • the memory configured in FIG. 1 may be applied, or the bus-connected memory (memory 112 in FIG. 1) may be applied.
  • step S107 The motion detection process of step S107 is performed by the motion detection unit 309. This is based on the non-flash image I and the non-flash image I as described above with reference to FIG.
  • the white balance adjustment process based on the plurality of image data in step S112 is the process described above with reference to FIG. 3 and FIG.
  • the difference image data F I-I is obtained at 04 (Fig. 3, S201) o
  • a white balance adjustment process is performed on F according to the parameters set based on the component of the flash light by the white balance adjustment unit 307 (FIG. 3, S202). Furthermore, the white balance adjustment processing for the image without flash I according to the parameter set based on the estimated value of the external light component estimated by the external light component estimation unit 306 is compared to the white balance adjustment unit
  • step 305 (Fig. 3, S203).
  • the pixel values of the two images acquired by these two white balance adjustment processes are added in the pixel value addition unit 308 (FIG. 3, S 204).
  • the image data having the pixel value added in the pixel value adding part 308 which performs processing in the moving part correction pixel value calculating part 310 is white balance.
  • the adjusted image is output via the output switching unit 312.
  • the output destination is a D / A converter 108 (see FIG. 1) that performs digital-to-analog conversion, and a codec 111 that performs code input processing.
  • the motion portion correction pixel value calculation unit 310 corrects (converts) the pixel value of the motion portion described above with reference to FIGS. 6 and 7, and the motion portion is determined by the correction pixel value.
  • An image having pixel value data which has been replaced is output via the output switching unit 312.
  • the white balance adjustment unit 311 executes the process of step S113 in the process flow of FIG. That is, although it is determined that the motion area is detected by the motion detection unit 309 but correction is impossible, for example, the ratio of the motion area to the entire image is high, the image with flash I is input and determined in advance. Perform white balance adjustment according to the parameters
  • FIG. 8 Although the configuration shown in FIG. 8 is shown to distinguish each processing unit in order to explain the functions, the actual processing is performed according to a program that executes processing according to each processing flow described above. , Is executable by the processor in the DSP.
  • FIG. 9 shows a white balance adjustment processing flow based on a plurality of image data of the present embodiment, which corresponds to the flow of FIG. 3 in the above-described embodiment.
  • step 401 flash light is present, and the component of the shot image data I and flash light are not shot.
  • the difference image F I-I is used to irradiate only the flash light without any external light.
  • step 402 white balance (WB) adjustment adjusted to the color temperature of ambient light is performed on the image F to generate a corrected image F ′. That is, white balance (WB) adjustment is performed based on the parameters set in accordance with the color temperature of the ambient light and the difference image data F to generate a corrected image F ′.
  • a specific example of this WB processing is a flash light at the same position as the pixel (r, g, b) of the difference image F.
  • the R and B components of the pixels of the difference image F are flashed using the pixels (r, g, b) of the captured image I.
  • r ′ and r, b ′ and b are compared to obtain the following values.
  • step 403 the difference image F ′ and the flashless light-captured image I are synthesized.
  • the first white balance adjusted image R is generated.
  • the first white balance adjusted image R is an image in which the color temperatures of the external light and the flash light match.
  • step 404 white balance adjustment is further performed on the first white balance adjusted image R to generate a second white balance adjusted image R.
  • the value set by the user may be used, or the final second white balance adjusted image R becomes a natural color tone by using a known auto white balance technique. Even good conversion, so.
  • the processing according to this embodiment makes it possible to perform white balance adjustment with more respect for the components of outside light. Specifically, when the outside light is reddish due to the sunset, that is, the R component is large, it is possible to make adjustments according to the external light, such as adjusting the whole with a reddish tint.
  • FIG. 10 shows a digital signal processor (DSP) that executes processing according to the present embodiment (see FIG. (Corresponding to SP 106).
  • DSP digital signal processor
  • the digital signal processing unit (DSP shown in FIG. 10 is compared with the flowchart shown in FIG. 9).
  • step S101 to S106 of FIG. 2 the non-flash image I captured, flash
  • the image with image I and the image without flash I are frame memories 401, 402, 40 respectively.
  • the difference image calculation unit 404 Based on the non-flash image I and the flash image I, the difference image calculation unit 404
  • the white balance adjustment unit 405 executes white balance adjustment processing according to the parameters set based on the ambient light component (FIG. 9, S 402). Furthermore, the pixel values of the corrected image F ′ obtained by this white balance adjustment processing and the image without flash I are added to the pixel values.
  • the first white balance adjustment image R is generated by adding in the calculation unit 406 (FIG. 9, S 403)
  • the white balance adjustment unit 407 performs white balance adjustment on the first white balance adjustment image R to generate a second white balance adjustment image R.
  • the second white balance adjustment image R is subjected to the white balance adjustment without executing the processing in the moving part correction pixel value calculation unit 409.
  • the output destination is a D / A converter 108 (see FIG. 1) that performs digital-to-analog conversion, a codec 111 that performs code processing, and the like.
  • the image I without flash and the image I without flash are used.
  • the motion portion correction pixel value calculation unit 409 corrects (converts) the pixel value of the motion portion described above with reference to FIGS. 6 and 7, and the motion portion is determined by the correction pixel value.
  • the image having the pixel value data which has been replaced is output through the output switching unit 411.
  • the white balance adjustment unit 410 executes the process of step S113 in the process flow of FIG. That is, although the motion detection unit 408 detects a motion area, the motion area When it is determined that correction is not possible, for example, the ratio of the area to the entire image is high, the image with flash I is input, and white balance adjustment is performed according to predetermined parameters.
  • each processing unit is shown separately to explain the function.
  • DSP is executed according to a program that executes processing in accordance with each processing flow described above. Is executable by the processor in
  • Example 2 of the present invention an image processing method for executing an optimal white balance adjustment process for photographing under an environment in which external light and flash light are mixed, and an image processing method
  • a process in step S111 in the flow of FIG. 2 that is, a configuration adopting a method different from the method of the first embodiment as the pixel value correction processing method of the moving part will be described.
  • the method allows, for example, high speed processing of high resolution images.
  • the configuration capable of eliminating the difference in color temperature between the flash light and the outside light has been described.
  • the outline of the configuration is as follows. First, the component of only the flash light is extracted from the difference image between the image taken by emitting the flash and the image taken without emitting the flash, and then the difference image and the flash are extracted. By independently performing color conversion on an image taken without light emission and recombining, the difference in color temperature between external light and flash light is eliminated.
  • step S111 shown in FIG. 1 that is, the pixel value correction process of the moving part in the white balance adjusted image R follows the process flow shown in FIG. Executed.
  • the required memory size may be large, and the calculation cost may be high.
  • the higher the resolution of the image to be corrected the greater the required memory size and computational cost.
  • Example 2 solves the problems as described above, and eliminates the unnaturalness caused by the difference between the color temperature of the external light and the flash light in the photographing performed by emitting the flash.
  • processing can be performed optimally and efficiently without breakage, and processing can be performed efficiently and quickly even if the resolution of the target image is high. Is a possible configuration example.
  • the image processing apparatus of the second embodiment has the same configuration as the configuration described above with reference to FIG. 1 in the first embodiment. It is characterized by the processing in the digital signal processor (DSP) 106. Details of the image processing according to the second embodiment will be described below.
  • DSP digital signal processor
  • the image processing is realized in the DSP 106 so that the operation unit sequentially executes the operation described in the predetermined program code on the stream of the input image signal.
  • the order in which each process in the program is executed will be described in a flowchart.
  • the present invention may be implemented by mounting a hardware circuit that implements processing equivalent to the functions described below. .
  • the basic process of the procedure of the white balance (WB) correction process in the present embodiment is performed according to the flowchart shown in FIG. 2 described in the above-described first embodiment. That is, three images are continuously taken in the order of no flash, yes, no flash, and white balance adjustment is performed based on these images.
  • the pixel value correction process of the moving part in step S111 shown in FIG. 2 can be performed more efficiently at high speed.
  • appropriate pixel value correction processing can be performed at high speed.
  • step S110 When the white balance adjustment processing based on a plurality of images described above is performed in step S110 shown in FIG. 2, it is determined that there is an image blur caused by the movement of the subject itself, and the image blur is In the white balance adjusted image R generated in step SI 10, it is determined in step S111 that the image area of the image blur due to the movement of the subject itself, that is, the moving partial area, is corrected.
  • Execute pixel value correction processing That is, the exception processing is performed on the pixel value of the moving part detected in step S107, and the white balance adjustment image R is corrected.
  • the correction process is performed, for example, using a white balun with the pixel value of the photographed image data I with flash emission corresponding to the portion where the motion is detected as an input.
  • the pixel value of the portion where motion has not been detected is determined with reference to the pixel value of the portion where there is no motion in the image adjustment image R, and the final image is synthesized.
  • FIG. 11 is a schematic view showing an example of data acquired as a result of the motion detection process executed in step S107 of FIG.
  • the portion determined to be moving in step S 107 of the flow shown in FIG. 2 is referred to as a motional partial pixel region 550, and the portion determined to not be moving is referred to as a motionless partial pixel region 551. Call.
  • step S104 the image I captured with flash light and stored in the memory
  • Direct color conversion is applied to 2 to obtain the final white balance adjustment image R.
  • step S 111 shown in FIG. 1 that is, the pixel value correction process of the moving part in the white balance adjustment image R is interpolated using the radiation base function according to the process flow shown in FIG. Executed as processing.
  • the pixel value correction processing of the moving part in the white balance adjusted image R is executed by a sequence different from that of the first embodiment. Pixel value correction of the moving part according to the second embodiment The processing sequence will be described with reference to the flowchart shown in FIG.
  • FIG. 12 is a flowchart showing details of the process of step S111 shown in FIG. 2, that is, the pixel value correction process of the moving part in the white balance adjusted image R. The process of each step will be described.
  • step S501 the image is photographed with flash light in step S110 shown in FIG. 2, that is, the white balance adjusted image generated according to the process flow of FIG. 3, and in steps S103 and S104 shown in FIG. Shown below using the image I stored in step S110 shown in FIG. 2, that is, the white balance adjusted image generated according to the process flow of FIG. 3, and in steps S103 and S104 shown in FIG. Shown below using the image I stored in step S110 shown in FIG. 2, that is, the white balance adjusted image generated according to the process flow of FIG. 3, and in steps S103 and S104 shown in FIG. Shown below using the image I stored in
  • d (x, y), R (x, y) and I (x, y) are all the color of the image at the pixel position (x, y)
  • the above equation is implemented as a vector calculation.
  • Equation 21 the image difference d between the white balance adjusted image R and each pixel value of the photographed image I with flash light is determined.
  • the image ratio d may be calculated and applied.
  • Equation 22 e is a vector in which each element is set to a sufficiently small fixed value, for example, floor value.
  • the symbol ⁇ / "in (Equation 22) is an operation that divides each element of Betatonole and makes the result each element of a vector.
  • E is the element of I (x, y) is 0
  • the motion partial pixel region 550 may appear as a motion image
  • the image difference or image ratio d (x, x) calculated by the above equation (Equation 21) or (Equation 22) can be obtained. If y) is applied as it is, optimum color tone can not be realized.
  • the final correction pixel value for the motional partial pixel region 550 that is, the image difference or image obtained by determining the final white balance adjusted image R in the region of the motionless partial pixel region 551.
  • the interpolation filtering process for example, according to the transition state of the pixel value actually observed in the pixel area 550 part and the pixel value around the area 550 as described below, the area 550 peripheral force, the pixel value gradually It can be realized by a method such as interpolating the signal and further performing low-pass transmission filtering processing.
  • the interpolation filtering process of the present invention is not limited to this.
  • the color can be finally determined.
  • FIG. 13 is a partial pixel area with motion 550 using equation (21) described above, that is, the equation for calculating the image difference d of each pixel value of the white balance adjusted image length and the captured image I with flash light.
  • FIG. 13 (a) shows the pixel value transition of the white balance adjusted image R 560 in the non-motion partial pixel region 551 and the motion partial pixel region 550 and the photographed image I 561 with flash light.
  • FIG. 13 (b) shows the value 562 of the image difference d of the portion near the motion partial pixel region 550 in the non-motion partial pixel region 551. That is, (Equation 21) described above, That is, the image of each pixel value of the white balance adjusted image R and the flash image with light I
  • the difference d value 562 is shown.
  • the dotted line shown in the non-motion partial pixel area 551 shown in FIG. 13 (b) is the image difference d in the motion partial pixel area 550 obtained by smoothly interpolating the value 562 of the image difference d.
  • the estimated value 563 is shown. The calculation processing method of the estimated value 563 of the image difference d will be described later.
  • FIG. 13 (c) is a partial pixel region with motion shown in FIG. 13 (b) with respect to the value of the photographed image with flash light I 561 in the partial pixel region with motion shown in FIG. 13 (a).
  • FIG. 16 is a diagram showing the result of adding the estimated image difference d563 in the dotted line as a final white balance adjusted image R564 in the motion partial pixel region 550.
  • a white balance adjustment image R564 shown by a dotted line in the motion partial pixel region 550 of FIG. 13 (c) and a white balance adjustment image R560 in the no motion partial pixel region 551 are final white balance adjustment images R.
  • Is output as The final output image is an image smoothly connected to the white balance adjusted image R564 shown by a dotted line in the motional partial pixel region 550 shown in FIG. 13C and the white balance adjusted image R560 in the non-motion partial pixel region 551.
  • This output image holds the texture of the photographed image I 561 with flash light in the moving partial pixel region 550.
  • the white balance adjusted image R of the partial pixel area 550 with motion can be calculated.
  • step S502 As preprocessing for interpolation, an initial value of an image difference or an image ratio d (x, y) at each pixel of the motion partial pixel area 550 is obtained.
  • d (x, y) a method for obtaining the image difference d (x, y) is described, the same method is applied to obtain the image ratio d (x, y).
  • the average of the image differences d (x, y) of pixels adjacent to the pixel of interest, where M (x, y) 1, is calculated.
  • This average value is set as an initial value of the image difference d (x, y) at the position (X, y) of the pixel of interest.
  • the image difference between the pixels 581 adjacent to the motionless partial pixel region 551 in the motional partial pixel region 550 d The initial value of (x, y) is set as an average value of the pixels 582, 583 and 584 of the non-motion partial pixel area 551 adjacent to the pixel 581.
  • initial values for pixels adjacent to the non-motion partial pixel region 551 are determined in a similar manner.
  • the value of the mask image M (x, y) is changed to 1 for the pixel for which the initial value is newly set.
  • all (eight neighbors or four neighbors) adjacent to the pixel with M (x, y) 1
  • set M (x, y) 1 for the pixel for which the initial value is newly set.
  • step S 503 in the flow shown in FIG. 12 is executed.
  • a smoothing filter is applied to only the pixels of the motion partial pixel region 550 in the image difference d.
  • a smoothing filter a moving average filter that averages pixel values included in the vicinity of a square of n ⁇ n may be used.
  • the smoothing filter checks how each color component of the image difference d (x, y) changes in each pixel, and the image difference d (x , y) The maximum value of the change of each color component (pixel value change maximum value) is stored in the memory.
  • step S 504 whether the maximum value (maximum pixel value change value) of change of each color component of the image difference d (x, y) stored in the smoothing process of step S 502 is larger than a predetermined threshold value If it is smaller, the process advances to step S506 to complete the smoothing process.
  • step S 505 it has been determined whether the smoothing filter has been applied to the pixels of the motion partial pixel area 550 of the image difference d so far whether it is greater than a predetermined threshold or not. If yes, go to step S506. If it is smaller, the process returns to step 503, applies smoothing filter again, and executes smoothing processing of the motion partial pixel area 550 again.
  • the smoothing filter is applied to the pixels of the motion partial pixel area 550 of the image difference d if the number of times the smoothing filter is applied to the pixels of the motion partial pixel area 550 of the image difference d is larger than a predetermined threshold, the image difference d is changed even if repeated. Since the maximum number of executions of predetermined smoothing processing is determined in advance as a threshold, when this threshold is reached, the smoothing processing is terminated at that point, and the process proceeds to the next step.
  • step S506 the image difference d in the motion partial pixel region 550 obtained in the above-described smoothing processing is determined as the estimated image difference d563. That is, it is determined as the estimated image difference d563 in the motion partial pixel region 550 shown in FIG. 13 (b).
  • step S 507 the final white balance of the motion-partial pixel region 550 is calculated using the image difference d calculated by the above-described processing and the flash-captured image I.
  • the final white balance adjusted image R of the motion partial pixel region 550 of (c) shown in FIG. 13 is generated.
  • the result obtained by adding the estimated image difference d 563 at 0 is set as the final white balance adjusted image R 564 in the motion partial pixel area 550.
  • step S507 the pixel area with motion is generated.
  • the final output image R can be generated by the processing described above.
  • the motion portion correction pixel value calculation unit in this embodiment is the motion portion correction pixel value calculation unit 310 in FIG. 8 described in the first embodiment or the motion portion correction pixel value calculation unit 409 in FIG. It is set corresponding to
  • the motion part correction pixel value calculation unit 710 includes an image difference (image ratio) calculation unit 711, a pixel area image difference with motion (image ratio) d initial value calculation unit 712, A smoothing processing unit 713 and a motion part final correction pixel value calculation unit 714 are included.
  • the image difference (image ratio) calculation unit 711 inputs each image data of the non-motion partial pixel area white balance adjustment image R 701 and the photographed image I with flash light, and the above-mentioned equation (equation 21)
  • Movement-Pixel Region Image Image Difference (Image Ratio) d Initial Value Calculation Unit 712 sets an initial value of the image difference (image ratio) d in the motion-presence pixel region.
  • the image difference (image ratio) d of the adjacent pixels in the non-motion pixel area is An average value is set as an initial value, and processing for determining an initial value of the image difference (image ratio) d is sequentially performed toward the inside of the moving pixel region.
  • the smoothing processing unit 713 is based on the initial value of the motional pixel area image differential (image ratio) d set in the motional pixel area image difference (image ratio) d initial value calculation unit 712. For example, smoothing processing using a smoothing filter or the like is performed to determine an estimated value d of the image difference (image ratio) in the pixel area with motion. That is, it is determined as the estimated image difference d563 in the motion partial pixel area 550 shown in FIG. 13 (b).
  • the motion part final correction pixel value calculation unit 714 receives the estimated value d of the smoothed image difference (image ratio) in the smoothing processing unit 713 and the photographed image I with flash light, and has motion
  • the final white balance adjusted image R of the partial pixel area 550 is generated. That is, the final white balance adjusted image R of the motional partial pixel region 550 shown in FIG. 13C is generated.
  • the final white balance adjusted image in the motion partial pixel region 550 is the result of adding the estimated image difference d 563 in the motion partial pixel region 550 shown in FIG. Set as and output.
  • step S507 the pixel area with motion 5
  • the pixel value correction process of the present embodiment it is possible to perform appropriate color conversion of a motion partial pixel area by a simple process to which a smoothing filter is applied.
  • the present embodiment has described an example of executing the white balance adjustment processing, the method described here is not only used to solve general data processing problems but also white balance adjustment processing. You can do it.
  • certain data is determined (data 560 in FIG. 13), and in the other regions (550 in FIG. 13).
  • the processing of the present invention is effective when it is desired to determine data.
  • Reference data 561 is given. At this time, it is possible to create interpolation data (interpolation data 564 in FIG. 13) having the same features as the features (texture in the image) of the reference data 561.
  • This data processing is applicable not only to the white balance adjustment processing of the image data in the above-described embodiment, but also to general data processing. That is, the present invention is not limited to the problem of white balance adjustment.
  • Example 3 of the present invention an image processing method for executing the optimum white balance adjustment processing for photographing under an environment in which external light and flash light are mixed, and image processing
  • a process in step S111 in the flow of FIG. 2 that is, a configuration adopting a method different from the methods of the first and second embodiments as the pixel value correction processing method of the moving part will be described.
  • the moving part of the subject is detected from the difference between the two images without flash emission, and the ratio of the flash light reflection component to the external light reflection component is calculated for the pixels included in the moving part.
  • the configuration has been described in which the interpolation processing is performed using radial basis functions from data in pixels other than the part.
  • the configuration has been described in which the pixel value correction of the moving part is performed by the simplified processing using the smoothing filter.
  • the weights are determined dynamically according to the image data of the photographed image I with flash light.
  • a set filter is set, and the set filter is used to perform pixel value correction of a pixel with motion.
  • the image processing apparatus of the third embodiment has the same configuration as the configuration described above with reference to FIG. 1, and the setting of the filter according to the image data of the photographed image I with flash light in the third embodiment
  • the pixel value correction process to which the filter is applied is executed in the digital signal processing unit (DSP) 106.
  • DSP digital signal processing unit
  • the image processing is realized in the DSP 106 so that the operation unit sequentially executes the operation described in the predetermined program code on the stream of the input image signal.
  • the order in which each process in the program is executed will be described in a flowchart.
  • the present invention may be configured by mounting a hardware circuit that realizes processing equivalent to the functions described below, in addition to the program and mode as described in the present embodiment.
  • the basic sequence of the procedure of the white balance (WB) correction processing in the present embodiment is processing according to the flowchart shown in FIG. 2, as in the above-described first embodiment and second embodiment. That is, three images are continuously taken in the order of no flash, with and without flash, and white balance adjustment is performed based on these images.
  • the pixel value correction process of the moving part in step S111 shown in FIG. 2 can be executed efficiently and with high accuracy.
  • white balance adjustment processing based on a plurality of images described above is performed in step S110 shown in FIG. 2, it is determined that there is an image blur caused by the movement of the subject itself, and it is determined that the image blur can be corrected.
  • pixel value correction processing is performed in step S111 for the image area of the image blur caused by the movement of the subject itself, that is, the moving partial area. That is, exceptional processing is performed on the pixel value of the moving part detected in step S107, and the white balance adjusted image R is corrected.
  • the correction process may be performed on the white balance adjusted image R with the pixel value of the flash image corresponding to the part where the movement is detected and the pixel value of the image data I as input.
  • the pixel value of the portion where motion is detected is determined with reference to the pixel value of the Synthesize an image.
  • data acquired as a result of the motion detection process executed in step S107 of FIG. 2 is data corresponding to the schematic diagram shown in FIG.
  • the part determined to be moving in step S 107 of the flow shown in FIG. 2 is a partial pixel area with movement 550 and the part determined to not be moving is a partial area without movement part 551. .
  • step S104 the image I captured with flash light and stored in the memory
  • Direct color conversion is applied to 2 to obtain the final white balance adjustment image R.
  • step S111 shown in FIG. 1 that is, the pixel value correction process of the moving part in the white balance adjustment image R is interpolated using the radiation base function according to the process flow shown in FIG. Executed as processing. Further, in the second embodiment, the correction process using the smoothing filter is performed according to the process flow shown in FIG.
  • the pixel value correction process of the moving part in the white balance adjustment image R is executed by a sequence different from that of the first embodiment and the second embodiment.
  • the sequence of the pixel value correction process of the moving part according to the third embodiment will be described with reference to the flowchart shown in FIG.
  • FIG. 16 is a flowchart showing a detailed sequence in the case where the process of step S111 shown in FIG. 2, that is, the pixel value correction process of the moving part in the white balance adjusted image R is performed according to the third embodiment. .
  • the process of each step will be described.
  • step S601 shooting is performed with flash light in step SI 10 shown in FIG. 2, that is, the white balance adjusted image R generated according to the process flow of FIG. 3, and in steps S103 and S104 shown in FIG. , Using the image I stored in memory, shown below
  • d (x, y), R (x, y) and I (x, y) are all the color of the image at the pixel position (x, y)
  • the above equation is implemented as a vector calculation.
  • the image ratio d may be calculated and applied.
  • Equation 32 e is a vector in which a sufficiently small fixed value is set to each element, for example, floor value.
  • the symbol ⁇ / ′ in (Equation 32) is an operation that divides each element of Betatonole and makes the result each element of a vector.
  • E is the element of I (X, y) is 0
  • the symbol ⁇ * ′ ′ is an operation that multiplies each element of the vector and sets the result as each element of the vector.
  • the motion partial pixel region 550 may appear as a motion image
  • the image difference or image ratio d (x, d) calculated by the above equation (Equation 31) or (Equation 32) If y) is applied as it is, optimum color tone can not be realized. Therefore, in the present embodiment, the final correction pixel value for the motion partial pixel region 550, that is, the image difference or image obtained by determining the final white balance adjusted image R in the non-motion partial pixel region 551. Calculated by interpolation using the ratio d (x, y). Using the image difference or image ratio d (x, y) thus estimated, the pixel value correction of the moving part 550 is performed.
  • the tint is set to the final white
  • FIG. 18 is a partial pixel area with motion 550 using equation (31) described above, that is, the equation for calculating the image difference d of each pixel value of the white balance adjusted image R and the captured image I with flash light.
  • FIG. 18 in order to make the description easy to understand, the processing is described assuming that the data are arranged in one dimension, but in reality, the processing is performed in a two-dimensional plane.
  • the horizontal axis indicates the pixel position
  • the vertical axis indicates the pixel value (luminance or R, G, B values).
  • FIG. 18 (a) shows the pixel value transition of the white balance adjusted image R 860 in the non-motion partial pixel region 551 and the motion partial pixel region 550 and the photographed image I 861 with flash light.
  • FIG. 18 (b) shows the value 862 of the image difference d of the portion close to the motion-appearing partial pixel region 550 in the motion-free partial pixel region 551. That is, each pixel of the white balance adjusted image R calculated by applying the above (Equation 31) and the photographed image I with flash light
  • a binary image difference d value 862 is shown.
  • the dotted line shown in the motional pixel area 550 shown in FIG. 18 (b) is the image difference d value 862a and the image difference d value 862b of the motionless partial pixel area 551 close to the motional partial pixel area 550.
  • the image difference d in the motional partial pixel region 550 obtained by smoothly interpolating the values 862a and 862b of the image difference component d of the motionless partial pixel region 551 based on the value estimated based on Is shown.
  • An estimated value 863 of the image difference d in the motion partial pixel region 550 is (1) Initial image difference d setting step,
  • FIG. 18 (c) shows the motion partial pixel region 550 shown in FIG. 18 (b) with respect to the value of the photographed image I 861 with flash light in the motion partial pixel region 550 shown in FIG. 18 (a).
  • FIG. 18 is a diagram showing the result of adding the estimated image difference d863 as a final white balance adjusted image R864 in the motion partial pixel region 550 in a dotted line.
  • a final white balance adjustment image R of the white balance adjustment image R864 shown by a dotted line in the movement partial pixel region 550 of FIG. 18 (c) and a white balance adjustment image R860 in the no movement partial pixel region 551 is shown.
  • Is output as The final output image is an image smoothly connected to the white balance adjusted image R864 indicated by a dotted line in the motional partial pixel region 550 shown in FIG. 18C and the white balance adjusted image R860 in the non-motion partial pixel region 551. Further, this output image holds the texture of the photographed image I 861 with flash light in the moving partial pixel region 550.
  • the estimated value 863 of the image difference d in the motion partial pixel region 550 is
  • step S602 After execution of step S601 in the flow shown in FIG. 17, in step S602, the initial value of the image difference or image ratio d (x, y) at each pixel of the motion partial pixel region 550 is determined.
  • the same method is applied to the case of determining the force image ratio d (x, y), which describes the method of determining the image difference d (x, y).
  • This average value is set as an initial value of the image difference d (x, y) at the position (X, y) of the pixel of interest.
  • the image difference between the pixels 821 adjacent to the motionless partial pixel region 551 in the motional partial pixel region 550 d The initial value of (x, y) is set as an average value of the pixels 822, 823, 824 of the non-motion partial pixel area 551 adjacent to the pixel 821.
  • initial values of pixels adjacent to the non-motion partial pixel region 551 are determined in the same manner.
  • the value of the mask image M (x, y) is changed to 1 for the pixel for which the initial value is newly set.
  • M (x, y) 1 for the pixel for which the initial value is newly set.
  • the initial value of (x, y) is determined. This process is the process of step S602 in the flow shown in FIG.
  • step S603 the correction process d ′ of the initial image difference d is calculated by filtering with only the pixels of the motion partial pixel region 550 in the image difference d.
  • the filter applied to the filtering process for calculating the correction value d ′ of the initial image difference d is the same as the smooth filter applied in the second embodiment except for the photographed image I with flash light.
  • calculation is performed to obtain an updated pixel value by filtering processing equivalent to one pixel value correction processing of the value of the image difference d (x, y) at the pixel position (x, y) in the motion partial pixel region 550
  • the following formula is applied.
  • Yannel means each channel in the case of a color image, specifically, red, green and blue (RGB) channels.
  • d ′ (x, y, ch) is the new pixel value of the difference image d of the channel [ch] at the pixel position ( x , y), that is, the updated pixel value.
  • i and j in the above equation (Equation 33) indicate the positions of reference pixels applied to calculate the updated value d ′ of the pixel difference value d at the pixel position (X, y).
  • the range of values of i, j is X ⁇ k ⁇ i ⁇ x + k, y_k ⁇ j ⁇ y + k.
  • k is a natural number, and k is set to a relatively small value of about 1 to 3.
  • the reference pixel applied to calculate the updated value d ′ of the pixel difference value d at the pixel position (X, y) is only the adjacent pixel at the pixel position (X, y)
  • the reference pixel applied to calculate the updated value d ′ of the pixel difference value d at the pixel position (x, y) is the left and right of the periphery of the pixel position (X, y) and It is set as an area including three pixels in each of the upper and lower directions.
  • the value of k applies a predetermined value.
  • the function w (x) is a weighting function, and, for example,
  • Equation 34 ⁇ is a parameter, and uses a preset value.
  • the value update of the image difference d (x, y) of the pixel position (X, y) in the motional partial pixel region 550 to which the above equation (equation 33) is applied is updated.
  • the process that is, the filtering process is repeatedly performed until a predetermined condition (the condition defined in step S604 or S605) is satisfied. That is, the updated pixel value d ′ (x, y, ch) calculated by applying the above equation (Equation 33) is subjected to the following funo-lettering process to obtain d (x, y in Equation 33). , ch), and the process of calculating a new updated pixel value d ′ (x, y, ch) is repeatedly executed.
  • the pixel value update (filtering process) is repeatedly executed to obtain the value of the image difference d (x, y) at the pixel position (x, y) in the moving partial pixel region 550.
  • the image difference d (x, y) at the pixel position (X, y) in the partial pixel region 550 is changed by changing the value of the image difference d (x, y) in the non-motion partial pixel region 551 by correction.
  • the value of y) is corrected, and the value of the image difference d (x, y) at the pixel position (X, y) of the moving partial pixel area 550 is flashed and the image of the photographed image I 861 is smoothed according to the texture and edges.
  • step S 604 in the flow of FIG. 17 the change amount of each color component (each channel) of the value of the image difference d (x, y) is obtained by the pixel value update (filtering process) by the above equation (Equation 33). A comparison of the maximum value with a predetermined threshold is performed.
  • step S604 That is, in step S604,
  • step S606 a process of determining an image difference (image ratio) d estimation value for the motion partial pixel area 550 is executed.
  • step S604
  • step S605 it is determined whether or not the number of execution times of the pixel value update process (filtering process) executed by applying the above equation (Equation 33) in step S603 is greater than a predetermined threshold number,
  • step S603 the process of correcting the image difference d (x, y) at the pixel position (X, y) of the moving portion partial pixel area 550 according to the above equation (equation 33) (filtering Repeat the process).
  • step S604 it is determined that the pixel value change amount maximum value> the threshold is not satisfied, or it is determined in step S605 that the number of pixel value update processing (filtering processing) execution times> the threshold number is satisfied.
  • the correction process (filtering process) of the image difference d (x, y) at the pixel position (x, y) of the pixel area 550 is completed, and the process proceeds to step S 606 and the image difference (image ratio) with respect to the motion partial pixel area 550. Execute a process of determining an estimated value of d.
  • step S606 the image difference d in the motion partial pixel area 550 determined in the above-described filtering process is determined as the estimated image difference d.
  • the image difference d (x, y) at the pixel position (X, y) of the motion partial pixel region 550 calculated by this processing step is estimated in the motion partial pixel region 550 shown in FIG. This corresponds to the image difference d8 63.
  • step S 607 the image difference d of the pixel position (X, y) of the motion partial pixel region 550 calculated by the filtering processing to which the above-described expression (Expression 33) is applied d Values of (x, y) (image difference d863 shown in FIG. 18 (b)) and a photographed image I with flash light (FIG. 18 (a)
  • the pixel value of the white balance adjusted image R in the motional partial pixel region 550 is calculated.
  • the result is a white balance adjusted image R864 indicated by a dotted line in the motion partial pixel region 550 of FIG. 18 (c).
  • the final corrected image that is, the white balance adjusted image R is a connected image of the white balance adjusted image R 860 in the non-motion partial pixel region 551 and the white balance adjusted image R 864 indicated by a dotted line in the motion partial pixel region 550.
  • the final white balance adjusted image R is a partial pixel area with motion.
  • a white balance adjustment image R 864 shown by a dotted line 550 and a white balance adjustment image R 860 in the non-motion partial pixel area 551 are smoothly connected to each other. Further, this output image is a picture of the captured image I 861 with flash light in the partial pixel area 550 with motion.
  • step S 607 the filtering process to which the image ratio d is applied is performed.
  • a white balance adjusted image R at 550 is generated. That is,
  • the pixel value of the white balance adjusted image R in the motional partial pixel region 550 is calculated.
  • the image ratio d is used instead of the image difference d shown in FIG. 18 (b), and the dotted line shown in the non-motion partial pixel area 551 shown in FIG. 18 (b) has the image ratio d.
  • An estimated value of the image ratio d in the motion partial pixel region 550 is calculated by smoothly interpolating the values in the motion partial pixel region 550, and then the image ratio d is calculated using the motion partial pixel region 550.
  • the flash image with flash light in the image I 861 is multiplied by the pixel and the motional partial pixel area is multiplied
  • a white balance adjusted image R of 550 can be calculated.
  • the motion portion correction pixel value calculation unit in this embodiment is the motion portion correction pixel value calculation unit 310 in FIG. 8 described in the first embodiment or the motion portion correction pixel value calculation unit 409 in FIG. It is set corresponding to
  • the motion part correction pixel value calculation unit 910 is an image difference (image ratio) calculation unit 911, a pixel area image difference with motion (image ratio) d initial value calculation unit 912, a filter processing unit 913, and a motion part final correction pixel value.
  • a calculation unit 914 is included.
  • An image difference (image ratio) calculation unit 911 is a non-motion partial pixel area white balance adjustment image R 901 and a flash image captured image I storage frame memory 902 stored in the flash
  • Initial Value Calculation Unit 912 sets an initial value of the image difference (image ratio) d in the motion-presence pixel region. Refer to Figure 16 above for this process. As described above, first, an average value of the image difference (image ratio) d of the adjacent pixels of the non-motion pixel area is set as an initial value. The process is performed to set the initial value of the image difference (image ratio) d toward the inside of the moving pixel area in order.
  • the filter processing unit 913 sets the initial value of the motional pixel region image difference (image ratio) d set in the motional pixel region image difference (image ratio) d initial value calculation unit 91 2 to the above-mentioned equation (4) Perform the filtering process to update according to equation 33).
  • This filtering process is a filtering process using a filter generated based on the flashlight-captured image I,
  • the filter processing unit 913 determines whether or not the maximum change in pixel value due to one filtering process is smaller than a predetermined threshold, or the filtering process is performed. On the condition that the number of times exceeds the predetermined threshold number of times, the filtering process to which the equation (33) is applied is ended, and the estimated value d of the image difference (image ratio) in the pixel area with motion is determined. That is, it is determined as the estimated image difference d863 in the motion partial pixel region 550 shown in FIG. 18 (b).
  • the motion part final correction pixel value calculation unit 914 calculates an estimated value d of the image difference (image ratio) subjected to the filtering process in the filter processing unit 913, and the image I storage frame memory 902.
  • the edge portion may In the present embodiment, it is determined in consideration of the pixel value of the second image, that is, the photographed image I with flash light.
  • the method described here is not limited to white balance adjustment processing, and for example, an image for changing pixel values of a part of an image.
  • the present invention can be applied when it is desired to make changes in processing to resemble other image features. That is, the pixel value conversion equation using coefficients determined using the features of the second image is set according to Equation 33, and the pixel value of a part of the first image is changed by performing the filtering process. This makes it possible to generate an image having the features of the second image while maintaining the color tone of the first image.
  • all the three images have the same resolution.
  • processing is performed on an image having a resolution of, for example, a few million pixels, in order to execute these processing, three image data are stored, and therefore various A large amount of memory is required to store various processed image data, and as the number of pixels increases, the amount of calculation to be performed becomes enormous.
  • FIG. 1 the apparatus configuration shown in FIG.
  • a CCD Charge Coupled Device
  • a general digital camera has a function of reading out a low resolution image from the solid-state image sensor 103 at high speed, for example, every half a second during shooting, and displaying it on the display attached to the camera as needed. There is.
  • the present embodiment is a configuration example that can eliminate the difference in color temperature between the external light and the flash light efficiently and at high speed by using the low resolution image picked up in this way.
  • a block diagram showing the configuration of the image processing apparatus and the imaging apparatus of the present embodiment is a diagram.
  • FIG. 20 is a flow chart for explaining the processing procedure of this embodiment. Each step of the flowchart shown in FIG. 20 will be described.
  • step S 701 shooting is performed without flash emission using the aperture and shutter speed set in advance in step S 701, and in step S 702, a low resolution image I based on the image captured in step S 701 is stored in the memory.
  • the low resolution image I is solid
  • a method For example, there is a method of simply decimating pixels, or a method of taking an average of a plurality of adjacent pixels as one new pixel.
  • a typical digital power camera has a function to display an image captured by the solid-state image sensor 103 at the time of shooting on a low-resolution display at a speed of, for example, 30 frames per second. It is possible to apply the method as it is.
  • a memory without flash emission low-resolution image I based on the image captured in step S701 is stored in memory
  • step S703 the flash is emitted and then an image is captured.
  • step S704 a high resolution image with flash emission based on the image captured in step S703 I And 2 images with flash and low resolution image I are stored in memory.
  • Flash on high resolution image I is an image with the resolution you want to finally obtain as output, no flash
  • step S705 the flash is photographed without emitting light again, and in step S706, the low-resolution flashless image I based on the image photographed in step S705 is stored in the memory. Where no flash flash low resolution image I flash
  • the image is obtained in the same way as described above.
  • the processing target image data in the processing up to S 707 -S 713 is a low resolution image
  • White balance adjustment image R is generated. Note that, for the moving part, processing to which the Radial Basis Function (radial basis function) described in the first embodiment described above is applied, or processing based on smoothing processing to which the smoothing filter described in the second embodiment is applied, or A white balance adjusted image R in which corrected pixel values are calculated is generated by the process of applying a filter to which a weight based on a flash-captured image described in the third embodiment is set.
  • step S714 the white balanced adjusted image R generated based on the low resolution image, the low resolution image I with flash emission, and the high resolution with flash emission.
  • x 'and y' are not necessarily integers.
  • an image interpolation method that is generally used widely, such as the nearest neighbor method, bilinear method, bicubic method, and so on.
  • High-resolution white balance adjusted image R is generated. That is, the low resolution image
  • the flash is lit and the low resolution image I is converted to the white balance adjusted image R
  • Conversion information in case of conversion is acquired, and conversion processing of each pixel value of the high resolution image, that is, the high resolution image I with flash emission is executed based on this conversion information to obtain high resolution.
  • the image data to be processed in the processing of steps S 707 to S 713 is a low resolution image, that is, a low resolution image I without flash, and a flash
  • the processing of this embodiment can be executed even on a model or apparatus having a relatively low processor processing capacity and a small memory capacity, and the finally obtained image data has a high resolution. It becomes possible to output as white balance adjustment image data.
  • the present invention has been described above in detail with reference to the specific embodiments. However, it is obvious that those skilled in the art can make modifications and substitutions to the embodiment without departing from the scope of the present invention. That is, the present invention has been disclosed in the form of exemplification, and should not be construed as limiting. In order to determine the scope of the present invention, the claims should be referred to.
  • the light source that emits light when the subject is dark is the force described using the term “flash”.
  • flash may be called a strobe, and is not limited to a flash in general.
  • the present invention is applied to a lighting device that emits light when the subject is dark.
  • the series of processes described in the specification can be executed by hardware, software, or a combined configuration of both.
  • the program recording the processing sequence is installed in memory in a computer built into dedicated hardware and executed, or the program is executed on a general-purpose computer that can execute various types of processing. It is possible to install and run.
  • a program is a hard disk or ROM (Read Only) as a recording medium.
  • Memory can be recorded in advance.
  • the program may be temporarily stored on a removable recording medium such as a flexible disc, a compact disc read only memory (CD), a magneto optical disc (MO) disc, a digital versatile disc (DVD), a magnetic disc, or a semiconductor memory.
  • a removable recording medium such as a flexible disc, a compact disc read only memory (CD), a magneto optical disc (MO) disc, a digital versatile disc (DVD), a magnetic disc, or a semiconductor memory.
  • CD compact disc read only memory
  • MO magneto optical disc
  • DVD digital versatile disc
  • magnetic disc or a semiconductor memory.
  • semiconductor memory Alternatively, it can be permanently stored (recorded).
  • Such removable recording media can be provided as a package software.
  • the program is installed on the computer from the removable recording medium as described above, and is wirelessly transferred from the download site to the computer, or LAN (Local). It can be transferred by wire to a computer via a network such as Area Network) and the Internet, and the computer can receive the program transferred in this way and install it on a recording medium such as a built-in hard disk.
  • LAN Local Area Network
  • a system is a logical set configuration of a plurality of devices, and the devices of each configuration are not limited to those in the same casing.
  • correction processing of pixel values of a specific area such as a moving area is performed using pixel values of a non-moving area, for example, an image subjected to white balance adjustment.
  • pixel values of a non-moving area for example, an image subjected to white balance adjustment.
  • the pixel value correction processing in the motion area there is a difference between the image data subjected to white balance adjustment and the image data with flash emission, and the motion of the initial value of the ratio
  • smoothing is performed by the smoothing filter to calculate the estimated value of the image difference or image ratio in the moving area, and the pixel value correction of the moving area is performed using the estimated value.
  • the pixel value correction process described as the third embodiment of the present invention it is possible to perform appropriate color conversion of the motion partial pixel area by the process to which the filter is applied.
  • the corrected pixel value in the partial pixel area is the texture of the photographed image I with flash light.
  • the present invention after performing white balance adjustment applying a low resolution image and pixel value correction of a portion with motion, high on the basis of the correspondence between corrected image data and low resolution image data. It is possible to generate resolution corrected images, enable high-speed processing with a small amount of memory, and finally obtain high-resolution corrected images, making it possible to use digital cameras with limited memory. It is optimal.
  • FIG. 1 is a view showing the configuration of an image processing apparatus of the present invention.
  • FIG. 2 is a flow chart for explaining the procedure of the image processing method of the present invention.
  • FIG. 3 is a flow chart for explaining the procedure of white balance adjustment processing based on a plurality of image data in the image processing method of the present invention.
  • FIG. 4 is a view for explaining the principle of white balance adjustment processing based on a plurality of image data in the image processing method of the present invention.
  • FIG. 5 is a diagram for explaining a process of detecting a moving part based on a plurality of image data in the image processing of the present invention.
  • FIG. 6 is a flowchart illustrating pixel value adjustment processing of a moving part in image processing of the present invention.
  • FIG. 7 is a diagram for explaining pixel value adjustment processing of a moving part in image processing of the present invention.
  • FIG. 8 is a view for explaining a mechanism for executing pixel value adjustment processing based on a plurality of image data in the image processing of the present invention.
  • FIG. 9 is a flowchart for explaining the procedure of white balance adjustment processing based on a plurality of image data in the image processing method of the present invention.
  • FIG. 10 A pixel value adjustment process based on a plurality of image data in the image processing of the present invention is implemented. It is a figure explaining the mechanism to go.
  • FIG. 15 is a diagram for describing the configuration and process of a motion portion correction pixel value calculation unit according to a second embodiment of the present invention.
  • FIG. 16 is a diagram for explaining pixel value adjustment processing of a moving part and an initial value setting method of the image difference d in the third embodiment of the present invention.
  • FIG. 19 is a diagram for describing the configuration and process of a motion portion correction pixel value calculation unit according to a third embodiment of the present invention.

Abstract

 撮影画像データの動きのある領域の画素値の補正を効率的に実行することを可能とする。動きあり領域などの特定領域の画素値の補正処理において、ホワイトバランス調整のなされた画像データと、フラッシュ発光あり画像データとの差分あるいは比率の初期値を設定し、平滑化フィルタ、またはフラッシュ発光あり画像データに基づいて重みを設定した変換式に従って初期値の変換を行って、動きあり領域における画像差分または画像比率の推定値を算出し、該推定値を適用して動きあり領域の画素値補正を実行する。また、低解像度画像を適用したホワイトバランス調整や動きあり部分の画素値補正後、補正画像と低解像度画像データとの対応に基づいて、高解像度補正画像を生成する

Description

明 細 書
画像処理方法、および画像処理装置、並びにコンピュータ 'プログラム 技術分野
[0001] 本発明は、画像処理方法、および画像処理装置、並びにコンピュータ 'プログラム に関する。さらに詳細には、複数の画像を用いて外光とフラッシュ光の色温度の違い に起因する不自然さを解消する画像調整を可能とするとともに、画像調整に適用した 複数の画像間での像ぶれが生じた場合においても、効率的な高速補正処理を可能 とした画像処理方法、および画像処理装置、並びにコンピュータ 'プログラムに関す る。
背景技術
[0002] フラッシュ(electrical flash, strobe)は、カメラ撮影時に補助光源として用いられ る。近年 DSC (Digital Still Camera)が急速に普及している力 DSCにおいても 、しばしば、フラッシュ撮影が行われる。フラッシュを使うことにより、フィルインライト( 人物の顔に影がきつく出過ぎるときなどに影を弱める技法)、逆光補正 (太陽を背に した人物を撮る場合などに顔が黒くつぶれるのを防ぐ技法)、キャッチライト(眼の瞳 にきらりと光る「光の点」を入れ、瞳を美しく撮影する技法)、あるいは日中シンクロ(デ イライトシンクロ、昼間や夕方に補助光線として使うテクニック)等、様々な写真撮影を 行うことができる。一方で、フラッシュ撮影を行うと、色バランスが崩れたり、白飛びが 生じたりする場合がある。本発明は、このようなフラッシュ撮影で生じる良くない現象を 補正可能な適切な手段を提供することを 1つの目的とする。
[0003] 一般的に、デジタルカメラでは、白い被写体が白く撮影されるようにホワイトバランス
(WB)調整が行われる。例えば自然光、照明光、フラッシュ (ストロボ)等の被写体に 対して照射される光の色温度が高くブルー(B)の光が強い光成分環境で撮影する 場合は、ブルーの光に対する感度を抑制し、レッド (R)の光に対する感度を相対的 に高くし、逆に被写体に対して照射される光の色温度が低くレッド (R)の光が強い光 成分環境で撮影する場合は、レッドの光に対する感度を抑制し、ブルー(B)の光に 対する感度を相対的に高くするなどのホワイトバランス調整が行われる。 [0004] ホワイトバランス調整は、通常、撮影時に用いる光源に応じた調整パラメータを設定 した調整処理が実行される。例えばフラッシュ撮影を行う場合は、適用するフラッシュ 光の持つ光成分に応じたパラメータに従ってホワイトバランス調整が行われる。
[0005] しかし、フラッシュ光以外の外光がある状態で、フラッシュ撮影を行うと、フラッシュ光 、外光の 2種類の光が被写体に照射されてその反射光がカメラの撮像素子に到達し 、撮影が行われることになる。このような撮影が行われる場合、ホワイトバランス調整を フラッシュ光に合わせて実施すると、フラッシュ光が多く当たっている被写体部分は 自然な色に調整されるが、フラッシュ光が届かず外光のみの反射光として撮影される 領域、例えば背景画像領域などは、フラッシュ光の光成分に合わせたパラメータ設定 に従ったホワイトバランス調整を行ってしまうと、適切なホワイトバランス調整が実行さ れず不自然な色を持つ領域として出力されることになる。
[0006] 逆に、背景部分にあわせたホワイトバランス調整、すなわち外光のみによって撮影 されたものとして、撮影画像全体のホワイトバランス調整を実行するとフラッシュ光の 多くあたった部分が不自然な色に調整されることになる。
[0007] このような問題に対処するための構成がいくつか提案されている。例えば特許文献 1 (特開平 8— 51632号公報)は、フラッシュを発光せず撮影した画像と、フラッシュを 発光させた撮影画像を取得し、この撮影された 2つの画像をブロックに分割し、各ブ ロック毎に輝度値の比較を行レ、、輝度値の比較結果に基づいて、フラッシュを発光し て撮影した画像について各ブロック毎に異なるホワイトバランス調整を行う構成を示し ている。
[0008] ホワイトバランス調整は、各ブロック毎にフラッシュ光に合わせたホワイトバランス調 整、またはフラッシュ光と外光の中間にあわせたホワイトバランス調整、または外光に あわせたホワイトバランス調整のいづれ力、を選択して実行する。しかし、このような構 成では、処理をブロック単位で行うことが必要となり、ブロック歪みを生ずる問題や被 写体が動いた場合などには正しい処理ができない問題などがある。
[0009] また、特許文献 2 (特開 2000—308068号公報)には、以下の処理構成を開示して いる。すなわち、まず絞りを開放し露出時間を短くした上でフラッシュを発光させて撮 影し、その後、本来意図した露光条件でフラッシュを発光せずに撮影を行う。ここで、 前者を第 1画像、後者を第 2画像とする。さらに第 1画像において所定のレベル以上 の画素を主要被写体領域、それ以外を背景領域として登録する。その後、第 1画像 をフラッシュに合わせてホワイトバランス調整、第 2画像を外光に合わせてホワイトバラ ンス調整し、第 1画像の主要被写体領域と第 2画像の背景領域を組み合わせて最終 的な記録画像とする構成である。
[0010] しかし、本構成では、外光とフラッシュ光の両方が当たった被写体のホワイトバラン ス調整は正しく行うことができない。
[0011] また、特許文献 3 (特開 2000—307940号公報)は、上述の特許文献 2の構成に加 えて、像ぶれ検出手段を付加した構成を開示している。ぶれがあると判断された場合 は、前述の第 1画像をそのまま記録画像とし、第 1画像と第 2画像の組み合わせ処理 を実行しない構成としている。従ってぶれが検出された場合は、フラッシュ光と外光の 色温度の違いに起因する不自然さが解消されないことになる。
[0012] さらに、特許文献 4 (特開平 8-340542号公報)は、フラッシュを発光させて撮影し た画像と、フラッシュ発光なしで撮影した画像の対応画素の輝度値を割り算し、フラッ シュ光の寄与率を求め、この寄与率に基づき、フラッシュを発光させて撮影した画像 に対してホワイトバランス調整を行う構成を開示している。
[0013] しかし、本構成では、フラッシュ光、外光からの反射光が混合され撮像された画像 に対し、フラッシュの寄与率に基づきフラッシュ光と外光用のホワイトバランスパラメ一 タを、単純に補間し、最終的な画像を生成する。しかし、物理的な光の反射モデルを 考慮した場合、フラッシュ光による成分と外光による成分は独立に処理されるべきで あり、フラッシュ光、外光からの反射光が混合され撮像された画像を処理するだけで は、最適な結果画像を生成することは出来ない。
特許文献 1 :特開平 8 - 51632号公報
特許文献 2:特開 2000 - 308068号公報
特許文献 3:特開 2000 - 307940号公報
特許文献 4:特開平 8— 340542号公報
発明の開示
発明が解決しょうとする課題 [0014] 本発明は、上述の従来技術の問題点に鑑みてなされたものであり、外光とフラッシ ュ光が混在する環境下で撮影した画像の最適なホワイトバランス調整を可能とし、ま た像ぶれが検出された場合も破綻することなく効率的にかつ高速に最適なホワイトバ ランス調整等の画素値補正を行うことができる画像処理方法、および画像処理装置、 並びにコンピュータ 'プログラムを提供することを目的とする。
課題を解決するための手段
[0015] 本発明の第 1の側面は、
画像処理方法であって、
異なる画素値を持つ第 1画像データと第 2画像データの対応画素値に基づいて画 像差分または画像比率を算出するステップと、
画像データの特定領域において、前記画像差分または画像比率に基づく推定値 を算出する推定値算出ステップと、
前記推定値算出ステップにおいて算出した前記特定領域における画像差分または 画像比率の推定値と、前記第 2画像データとに基づレ、て前記特定領域の補正画像 を生成する補正画像生成ステップと、
を有することを特徴とする画像処理方法にある。
[0016] さらに、本発明の画像処理方法の一実施態様において、前記画像差分 d (x, y)は 、前記第 1画像データの各画素 (x, y)の画素値ベクトルを A (x, y)、前記第 2画像デ ータの対応画素(x, y)の画素値ベクトルを B (x, y)としたとき、
d (x, y) =A (x, y) -B (x, y)
として算出されるベクトルであり、
前記画像比率 d (x, y)は、
d (x, y) =A (x, y) / (B (x, y) + e)
ただし、 eは、固定値、として算出されるベクトルであることを特徴とする。
[0017] さらに、本発明の画像処理方法の一実施態様において、前記第 1画像データは、 フラッシュ発光なし撮影画像とフラッシュ発光あり撮影画像とに基づいて画素値調整 の施されたホワイトバランス調整画像 Rであり、前記第 2画像データは、フラッシュ発 光画像 Iであり、前記特定領域は、被写体の動きが検出された動きあり領域であり、 前記画像差分 d (x, y)は、
前記ホワイトバランス調整画像 Rの各画素(x, y)の画素値べクトノレを R (x, y)、前記 フラッシュ発光画像 Iの対応画素(X, y)の画素値ベクトルを I (X, y)としたとき、
2 2
d (x, y) =R (x, y) -I (x, y)
2
として算出されるベクトルであり、
前記画像比率 d (x, y)は、
d (x, y) =R (x, y) / (I (x, y) + e)
2
ただし、 eは、固定値、
として算出されるベクトルであり、
前記補正画像生成ステップは、前記推定値算出ステップにおいて算出した前記動 きあり領域における画像差分または画像比率の推定値と、前記フラッシュ発光画像 I
2 とに基づいて前記動きあり領域の補正画像を生成するステップであることを特徴とす る。
[0018] さらに、本発明の画像処理方法の一実施態様において、前記推定値算出ステップ は、画像データの特定領域において、該特定領域の隣接領域において決定された 画像差分または画像比率に基づいて、特定領域の画像差分または画像比率の初期 値を設定する初期値設定ステップと、前記初期値設定ステップにおレ、て設定した初 期値に対して平滑フィルタに基づく平滑処理を実行する平滑処理実行ステップと、を 含むことを特徴とする。
[0019] さらに、本発明の画像処理方法の一実施態様において、前記初期値設定ステップ は、初期値設定対象画素の近傍にある画像差分または画像比率設定済み画素に設 定された画像差分または画像比率に基づいて、初期値設定対象画素の初期値を設 定するステップであることを特徴とする。
[0020] さらに、本発明の画像処理方法の一実施態様において、前記初期値設定ステップ は、初期値設定対象画素および、画像差分または画像比率設定済み画素の判別の ために、マスク画像を適用するステップを含むことを特徴とする。
[0021] さらに、本発明の画像処理方法の一実施態様において、前記補正画像生成ステツ プは、前記推定値算出ステップにおいて算出した前記特定領域における画像差分ま たは画像比率の推定値と、前記第 2画像データとに基づいて前記特定領域の補正 画像を生成するステップであり、画像差分を適用した処理においては、前記特定領 域における前記第 2画像データに対して、前記推定値算出ステップにおいて算出し た前記特定領域における画像差分の推定値を加算するステップとして実行し、画像 比率を適用した処理においては、前記特定領域における前記第 2画像データに対し て、前記推定値算出ステップにおいて算出した前記特定領域における画像比率の 推定値を乗算するステップとして実行することを特徴とする。
[0022] さらに、本発明の画像処理方法の一実施態様において、前記第 1画像データは、 フラッシュ発光なし撮影画像とフラッシュ発光あり撮影画像とに基づいて画素値調整 の施されたホワイトバランス調整画像 Rであり、前記第 2画像データは、フラッシュ発 光画像 Iであり、前記特定領域は、被写体の動きが検出された動きあり領域であり、
2
前記補正画像生成ステップは、画像差分を適用した処理においては、前記動きあり 領域における前記フラッシュ発光画像 Iに対して、前記推定値算出ステップにおいて
2
算出した前記特定領域における画像差分の推定値を加算するステップとして実行し 、画像比率を適用した処理においては、前記動きあり領域における前記フラッシュ発 光画像 Iに対して、前記推定値算出ステップにおいて算出した前記特定領域におけ
2
る画像比率の推定値を乗算するステップとして実行することを特徴とする。
[0023] さらに、本発明の画像処理方法の一実施態様において、前記推定値算出ステップ は、画像データの特定領域において、該特定領域の隣接領域において決定された 画像差分または画像比率に基づいて、特定領域の画像差分または画像比率の初期 値を設定する初期値設定ステップと、前記初期値設定ステップにおレ、て設定した初 期値に対して、前記第 2画像データに基づく重み設定のなされたフィルタを適用した フィルタリング処理に相当する画素値変換式に従った画素値変換処理を実行して前 記特定領域の画像差分または画像比率の値を補正するフィルタリング処理ステップ と、を含むことを特徴とする。
[0024] さらに、本発明の画像処理方法の一実施態様において、前記初期値設定ステップ は、初期値設定対象画素の近傍にある画像差分または画像比率設定済み画素に設 定された画像差分または画像比率に基づいて、初期値設定対象画素の初期値を設 定するステップであることを特徴とする。
[0025] さらに、本発明の画像処理方法の一実施態様において、前記初期値設定ステップ は、初期値設定対象画素および、画像差分または画像比率設定済み画素の判別の ために、マスク画像を適用するステップを含むことを特徴とする。
[0026] さらに、本発明の画像処理方法の一実施態様において、前記第 1画像データは、 フラッシュ発光なし撮影画像とフラッシュ発光あり撮影画像とに基づいて画素値調整 の施されたホワイトバランス調整画像 Rであり、前記第 2画像データは、フラッシュ発 光あり撮影画像 Iであり、前記特定領域は、被写体の動きが検出された動きあり領域
2
であり、前記フィルタリング処理ステップは、前記フラッシュ発光あり撮影画像 Iの画
2 像データを構成する画素の画素値に応じて重みを設定した関数を含む変換式を適 用した画素値変換処理を実行するステップであることを特徴とする。
[0027] さらに、本発明の画像処理方法の一実施態様において、前記フィルタリング処理ス テツプは、下記変換式、
[数 3] ' cA) = ¾7^^ 7^ ^ {w(l" 'c/z)2("c ("'c/ }
ただし、 d (x, y, ch)、 I (x, y, ch)は、画素位置(χ, y)の各チャンネル [ch]の画
2
像差分または画像比率 dに対応する値、ならびに、フラッシュ光あり撮影画像 Iの画
2 素値、 d' (x, y, ch)は、画素位置(χ, y)におけるチャンネル [ch]の差分画像 dの更 新値、 i, jは、画素位置 (X, y)の値 dの更新値 d'を算出するために適用する参照画素 位置であり、 kを任意の自然数としたとき、 x-k≤i≤x + k、y_k≤j≤y + k、w (x)は、 前記フラッシュ発光あり撮影画像 Iの画像データを構成する画素の画素値に応じた
2
重みを設定する重み付け関数である、上記変換式を適用した画素値変換処理を実 行するステップであることを特徴とする。
[0028] さらに、本発明の画像処理方法の一実施態様において、前記変換式における重み 付け関数 w (x)は、下記式、
Figure imgf000010_0001
によって示される関数であることを特徴とする。
[0029] さらに、本発明の画像処理方法の一実施態様において、前記変換式における画素 位置 (x, y)の値 dの更新値 d'を算出するために適用する参照画素位置 i, jは、 kを任 意の自然数としたとき、 x_k≤i≤x + k、y_k≤j≤y + k fe 、k«、 1, 2、 3のレヽず れかの値であることを特徴とする。
[0030] さらに、本発明の画像処理方法の一実施態様において、
フラッシュ発光なし撮影画像に基づくフラッシュなし低解像度画像データ I をメモリ
1L に格納するステップと、
フラッシュ発光あり撮影画像に基づくフラッシュあり高解像度画像データ I 、および
2H フラッシュあり解像度画像データ I をメモリに格納するステップと、
2L
フラッシュ発光なし撮影画像に基づくフラッシュなし低解像度画像データ I をメモリ
3L に格納するステップと、
前記フラッシュなし低解像度画像データ I とフラッシュなし低解像度画像データ I
1L 3L とに基づいて動きあり領域を検出するステップとをさらに含み、
前記フラッシュなし低解像度画像データ I を前記第 1画像データ、前記フラッシュ
1L
あり低解像度画像データ I を前記第 2画像データとして前記推定値を算出してホヮ
2L
イトバランス調整処理および動き部分画素値補正処理を含む画素値調整画像 Rを生 成し、
前記補正画像生成ステップにおいては、前記画素値調整画像 と、フラッシュあり 高解像度画像データ I と、フラッシュあり解像度画像データ I との対応画素値に基
2H 2L
づいて、高解像度最終補正画像 R を生成することを特徴とする。
H
[0031] さらに、本発明の画像処理方法の一実施態様において、前記補正画像生成ステツ プは、フラッシュあり解像度画像データ I に対する前記画素値調整画像 Rの対応画
2L
素の画素値変換情報を取得するステップと、前記画素値変換情報に基づいて、フラ ッシュあり高解像度画像データ I の画素値変換を実行するステップと、を有すること
2H
を特徴とする。
[0032] さらに、本発明の第 2の側面は、
画像処理装置であって、
異なる画素値を持つ第 1画像データと第 2画像データの対応画素値に基づいて画 像差分または画像比率を算出する手段と、
画像データの特定領域において、前記画像差分または画像比率に基づく推定値 を算出する推定値算出手段と、
前記推定値算出ステップにおいて算出した前記特定領域における画像差分または 画像比率の推定値と、前記第 2画像データとに基づいて前記特定領域の補正画像 を生成する補正画像生成手段と、
を有することを特徴とする画像処理装置にある。
[0033] さらに、本発明の画像処理装置の一実施態様において、前記推定値算出手段は、 画像データの特定領域において、該特定領域の隣接領域において決定された画像 差分または画像比率に基づいて、特定領域の画像差分または画像比率の初期値を 設定する初期値設定部と、前記初期値設定部において設定した初期値に対して平 滑フィルタに基づく平滑処理を実行する平滑処理部とを含むことを特徴とする。
[0034] さらに、本発明の画像処理装置の一実施態様において、前記推定値算出手段は、 画像データの特定領域において、該特定領域の隣接領域において決定された画像 差分または画像比率に基づいて、特定領域の画像差分または画像比率の初期値を 設定する初期値設定部と、前記初期値設定部において設定した初期値に対して、前 記第 2画像データに基づく重み設定のなされたフィルタを適用したフィルタリング処理 に相当する画素値変換式に従った画素値変換処理を実行して前記特定領域の画像 差分または画像比率の値を補正するフィルタ処理部とを含むことを特徴とする。
[0035] さらに、本発明の第 3の側面は、
画像処理を実行するコンピュータ 'プログラムであって、 異なる画素値を持つ第 1画像データと第 2画像データの対応画素値に基づいて画 像差分または画像比率を算出するステップと、
画像データの特定領域において、前記画像差分または画像比率に基づく推定値 を算出する推定値算出ステップと、
前記推定値算出ステップにおいて算出した前記特定領域における画像差分または 画像比率の推定値と、前記第 2画像データとに基づいて前記特定領域の補正画像 を生成する補正画像生成ステップと、
を有することを特徴とするコンピュータ 'プログラムにある。
[0036] さらに、本発明のコンピュータ 'プログラムの一実施態様において、フラッシュ発光な し撮影画像に基づくフラッシュなし低解像度画像データ I をメモリに格納するステツ
1L
プと、フラッシュ発光あり撮影画像に基づくフラッシュあり高解像度画像データ I 、お
2H よびフラッシュあり解像度画像データ I をメモリに格納するステップと、フラッシュ発光
2L
なし撮影画像に基づくフラッシュなし低解像度画像データ I をメモリに格納するステ
3L
ップと、前記フラッシュなし低解像度画像データ I とフラッシュなし低解像度画像デ
1L
ータ I とに基づいて動きあり領域を検出するステップとをさらに含み、前記フラッシュ
3L
なし低解像度画像データ I を前記第 1画像データ、前記フラッシュあり低解像度画
1L
像データ I を前記第 2画像データとして前記推定値を算出してホワイトバランス調整
2L
処理および動き部分画素値補正処理を含む画素値調整画像 Rを生成し、前記補正 画像生成ステップにおいては、前記画素値調整画像 Rと、フラッシュあり高解像度画 像データ I と、フラッシュあり解像度画像データ I との対応画素値に基づいて、高解
2H 2L
像度最終補正画像 R を生成することを特徴とする。
H
[0037] なお、本発明のコンピュータ 'プログラムは、例えば、様々なプログラム 'コードを実 行可能な汎用コンピュータ 'システムに対して、コンピュータ可読な形式で提供する 記憶媒体、通信媒体、例えば、 CDや FD、 MOなどの記憶媒体、あるいは、ネットヮ ークなどの通信媒体によって提供可能なコンピュータ 'プログラムである。このようなプ ログラムをコンピュータ可読な形式で提供することにより、コンピュータ 'システム上で プログラムに応じた処理が実現される。
[0038] 本発明のさらに他の目的、特徴や利点は、後述する本発明の実施例や添付する図 面に基づぐより詳細な説明によって明らかになるであろう。なお、本明細書において システムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内に あるものには限らない。
発明の効果
[0039] 本発明の構成によれば、例えば動きあり領域などの特定領域の画素値の補正処理 を、動きなし領域の画素値、たとえばホワイトバランス調整のなされた画像データと、 動きあり領域などの特定領域のフラッシュ発光あり画像データとに基づいて、効率的 に実行可能であり、ホワイトバランス調整のなされた画像データと滑らかに接続された 画像を生成することが可能となるとともに、動きあり領域におけるフラッシュ発光あり画 像データのテクスチャ情報を反映した画像を生成することができる。
[0040] 本発明の構成によれば、動きあり領域における画素値補正処理において、ホワイト バランス調整のなされた画像データと、フラッシュ発光あり画像データとの差分あるレ、 は比率の初期値を動きあり領域に設定した後、平滑化フィルタによって平滑化し、動 きあり領域における画像差分または画像比率の推定値を算出し、該推定値によって 動きあり領域の画素値補正を実行する構成としたので、計算量の少なレ、高速処理が 実現される。
[0041] さらに、本発明の構成によれば、動きあり部分画素領域における補正をフラッシュ 光あり撮影画像 Iの画素値を考慮して決定された係数を用いた画素値変換式に従つ
2
たフィルタリング処理を行なう構成としたので、フラッシュ光あり撮影画像 Iのテクスチ
2 ャを反映した画素値補正が行なわれることとなり、動きあり領域においてもエッジ部の ぼやけ、色のにじみなどが解消され、フラッシュ光あり撮影画像 Iのテクスチャを反映
2
した画像を生成することが可能となる。
[0042] さらに、本発明によれば、低解像度画像を適用したホワイトバランス調整や動きあり 部分の画素値補正を実行した後、補正画像データと低解像度画像データとの対応 関係に基づいて、高解像度補正画像を生成することが可能となり、少ないメモリ量で 、高速な処理が可能となり、最終的に高解像度の補正画像を取得することが可能と なる。
発明を実施するための最良の形態 [0043] 以下、図面を参照しながら、本発明の画像処理方法、および画像処理装置の複数 の実施例について説明する。
実施例 1
[0044] まず、外光とフラッシュ光が混在する環境下における撮影の最適なホワイトバランス 調整処理を実行する画像処理方法、および画像処理装置の実施例 1につレ、て説明 する。
[0045] 図 1は、本実施例に係る撮像装置の構成を示すブロック図である。図 1に示すように 、本実施例に係る撮像装置は、レンズ 101、絞り 102、固体撮像素子 103、相関 2重 サンプリング回路 104、 A/Dコンバータ 105、 DSPブロック 106、タイミングジエネレ ータ 107、 D/Aコンバータ 108、ビデオエンコーダ 109、ビデオモニタ 110、コーデ ック(CODEC) 111、メモリ 112、 CPU113、入力デバイス 114、フラッシュ制御装置 115、フラッシュ発光装置 116から構成される。
[0046] ここで、入力デバイス 114はカメラ本体にある録画ボタンなどの操作ボタン類をさす 。また、 DSPブロック 106は信号処理用プロセッサと画像用 RAMを持つブロックで、 信号処理用プロセッサが画像用 RAMに格納された画像データに対してあらかじめ プログラムされた画像処理をおこなうことができるようになつている。以下 DSPブロック を単に DSPと呼ぶ。
[0047] 本実施例の全体的な動作を以下に説明する。
光学系を通過して固体撮像素子 103に到達した入射光は、まず撮像面上の各受 光素子に到達し、受光素子での光電変換によって電気信号に変換され、相関 2重サ ンプリング回路 104によってノイズ除去され、 A/Dコンバータ 105によってデジタ。 信号に変換された後、デジタル信号処理部(DSP) 106中の画像メモリに一時格納さ れる。なお、必要があれば、撮影の際に、フラッシュ制御装置 115を介して、フラッシ ュ発光装置 116を発光させることができる。
[0048] 撮像中の状態においては、一定のフレームレートによる画像取り込みを維持するよ うにタイミングジェネレータ 107が信号処理系を制御する。デジタル信号処理部(DS P) 106へも一定のレートで画素のストリームが送られ、そこで適切な画像処理がおこ なわれた後、画像データは D/Aコンバータ 108もしくはコーデック(CODEC) 111 あるいはその両方に送られる。 D/Aコンバータ 108はデジタル信号処理部(DSP) 1 06から送られる画像データをアナログ信号に変換し、それをビデオエンコーダ 109が ビデオ信号に変換し、そのビデオ信号をビデオモニタ 110でモニタできるようになつ ていて、このビデオモニタ 110は本実施例においてカメラのファインダの役割を担つ ている。また、コーデック(CODEC) 111はデジタル信号処理部(DSP) 106から送ら れる画像データに対する符号化をおこなレ、、符号化された画像データはメモリ 112に 記録される。ここで、メモリ 112は半導体、磁気記録媒体、光磁気記録媒体、光記録 媒体などを用いた記録装置などであってよい。
[0049] 以上が本実施例のデジタルビデオカメラのシステム全体の説明である力 S、本実施例 中で本発明が実現されているのは、デジタル信号処理部(DSP) 106における画像 処理である。以下その画像処理の部分を詳細に説明する。
[0050] 前述のように、本実施例の画像処理部は実際には、デジタル信号処理部(DSP) 1 06で実現されている。したがって本実施例の構成においては、画像処理部の動作は 、デジタル信号処理部(DSP) 106内部において、入力された画像信号のストリーム に対して演算ユニットが所定のプログラムコードに記述された演算を順次実行するよ うにして実現されている。以降の説明では、そのプログラム中の各処理が実行される 順序をフローチャートで説明する。し力しながら、本発明は本実施例で説明するよう なプログラムという形態以外にも、以降で説明する機能と同等の処理を実現するハー ドウエア回路を実装して構成してもよレ、。
[0051] 図 2はデジタル信号処理部(DSP) 106内部において、入力された画像信号のスト リームに対して実行するホワイトバランス (WB)調整処理の手順を説明するフローチ ヤートである。
[0052] ステップ S101では、事前に設定された絞り、シャッタースピードを用いて、フラッシ ュ発光なしで撮影し、ステップ S102でこのフラッシュ発光なし撮影画像を画像データ Iとしてメモリに格納する。ステップ S103では、ステップ S101と同様に事前に設定さ れた絞り、シャッタースピードを用いて、フラッシュ発光を行って撮影し、ステップ S10 4でこのフラッシュ発光あり撮影画像を画像データ Iとしてメモリに格納する。
2
[0053] 次にステップ S105では、ステップ S101と同様に事前に設定された絞り、シャッター スピードを用いて、フラッシュ発光なしで、再度撮影し、ステップ S 106でこのフラッシ ュ発光なし撮影画像を画像データ Iとしてメモリに格納する。
3
[0054] なお、ステップ S101 , S103, S105の撮影は、連続した撮影、例えば約 1/100秒 間隔の連続撮影として実行される。それぞれの撮影ステップから得られた複数の画 像を用いて、ホワイトバランス(WB)の調整処理を行レ、、 1つのホワイトバランス(WB) の調整された画像データを生成する。
[0055] また、ステップ S102、 S104、 S106においてメモリに格納される画像データ I、 I、 I
1 2 は手ぶれ補正が行われた画像とする。すなわち、 3枚の画像 I、 I、 Iの撮影時に手
3 1 2 3
ぶれがおきている場合には、それらをあら力、じめ補正してからメモリに格納する。すな わち、撮影画像が手ぶれの発生画像である場合には、ステップ S101と S102の間、 ステップ S103と S104の間、およびステップ S105と S106の間におレヽて、手ぶれの 補正を実行し補正後の画像をメモリに格納する。したがってメモリに格納される画像 データ I、 I、 Iは三脚にカメラを固定した状態で連続撮影したかのような画像となる。
1 2 3
[0056] なお手ぶれの補正処理は、従来から知られた処理が適用可能である。例えば、カロ 速度センサを用いてずれを検出し、レンズをずらす方法、または目的の解像度より大 きレ、解像度の画像を撮像素子を用いて撮影してずれが生じなレ、ように適切な部分を 読み出す方法、さらにはセンサを用いず画像処理だけで手ぶれを補正する方法など 、従来から広く用いられている方法が適用される。
[0057] 次にステップ S107において、ステップ S101、 S103、 S105の 3枚の画像の撮影の 間に、被写体自体の動きに起因する像ぶれがあつたか否かを検出する。この被写体 自体の動きに起因する像ぶれがあつたか否かの検出処理は、 3枚の画像から 2つの 画像を比較して行われる。たとえば、画像 Iと画像 Iを用いて、動き部分を検出するこ
1 3
とができる。一例として、画像 Iと画像 Iの各画素に関して差分をとり、ある閾値以上
1 3
である場合は、動きがあった部分として登録するという方法がある。被写体自体の動 きに起因する像ぶれがな力 たと判定した場合 (ステップ S108 : No)は、ステップ S1 12に進む。動きが検出された場合 (ステップ S108 :Yes)は、ステップ S109に進む。
[0058] ステップ S109において、ステップ S107で検出された動き部分に関して、適切なホ ワイトバランス (WB)調整を行うための補正処理が可能かどうか判定を行う。この判定 処理はたとえば、ステップ SI 07において動き部分として登録された画素数の画像全 体の画素数に対する比率に基づいて行う方法が適用される。例えば、動き部分とし て登録された画素数の画像全体の画素数に対する比率 [ratioA]が、予め定めたあ る一定の閾値 [Threshold]以上である場合には補正が不可能と判定し、閾値未満 である場合には補正可能と判定する。
[0059] ステップ S109で、補正不可能であると判定された場合、ステップ S113に進み、補 正可能であると判定された場合は、ステップ S110に進む。
[0060] ステップ S113においては、フラッシュ発光ありの撮影画像データ Iに対して、ホワイ
2
トバランス (WB)調整を行い、出力画像 Rを生成し、処理を終了する。ホワイトバラン ス調整に使用するパラメータ値としては、外光成分にあわせて設定されたパラメータ 、フラッシュ光成分にあわせて設定されたパラメータ、または、外光とフラッシュ光の中 間成分に基づいて設定されるパラメータのいずれかであり、これらのパラメータを設 定したホワイトバランス (WB)調整を実行する。なお、このホワイトバランス調整法は、 従来から行われている方法であり、その詳細説明は省略する。なお、適用するパラメ ータは、 3 X 3行列によって示されるパラメータであり、各画素の色を構成する色成分 の変換に適用する行列である。 3 3行歹は、対角成分以外を 0として設定した行列 が適用される。
[0061] 次に、ステップ S110およびステップ S112における複数画像データに基づくホワイ トバランス(WB)調整処理にっレ、て説明する。ステップ S 110およびステップ SI 12に おける処理は同一の処理である。この処理の詳細について、図 3を参照して説明す る。
[0062] ステップ S201おいて、フラッシュ光あり撮影画像データ Iの成分とフラッシュ光なし
2
撮影画像 Iの画素の各色の成分の差をとり、差分画像 F = I -Iを生成してメモリに格
1 2 1 納する。フラッシュ光なしの撮影を行ったステップ S101とフラッシュ光ありの撮影を行 つたステップ S103の間に、被写体が動力、な力 たとすれば、差分画像 F = I -Iは、
2 1 外光がまったく無い状態でフラッシュ光のみを照射しフラッシュ光のみが被写体に反 射して、カメラの固体撮像素子に入射し撮像される画像と等価なものとなる。次にステ ップ S202において、画像 Fに対して、フラッシュ光の色温度にあわせたホワイトバラ ンス (WB)調整を実行する。すなわち、差分画像データ Fをフラッシュ光に合わせて 設定したパラメータに基づいてホワイトバランス (WB)調整を実行する。さらにフラッシ ュ光が明るすぎるまたは喑すぎる場合に、画像の明るさが最適になるようにレベル調 整し、補正画像 F'を生成する。
[0063] 次にステップ S203において、フラッシュ光なし撮影画像データ Iに対して、外光に
1
合わせたホワイトバランス (WB)調整を実行する。すなわち、フラッシュ光なし撮影画 像データ Iを外光に合わせて設定したパラメータに基づいてホワイトバランス (WB) 調整を実行し、補正画像 I 'を生成する。
1
[0064] これは、従来から広く知られているホワイトバランス (WB)調整によって実行される。
例えば、特開 2001—78202に述べられている技術を適用可能である。特開 2001— 78202では、フラッシュ発光ありで撮影した画像 Iとフラッシュなしで撮影した画像 I
2 1 の差分画像 Fと既知のフラッシュの分光特性から、物体色成分データおよび外光の 分光分布を照明成分データとして求める。この照明成分データを用いて、画像 Iのホ
1 ワイトバランス (WB)調整を実行する。
[0065] 次にステップ S204において、差分画像 F'と補正画像 I 'を加算することによりホワイ トバランス (WB)調整画像 Rを生成する。以上のステップにより、動きが無い部分に関 してホワイトバランス (WB)調整画像 Rは、フラッシュ光による成分、外光による成分が 独立にホワイトバランス (WB)調整されたものとなる。
[0066] 図 4は、図 3のフローに従って実行する 2つの画像に基づくホワイトバランス(WB)調 整画像 Rの生成原理を説明する図である。すなわち、フラッシュ光なし撮影画像デー タ Iとフラッシュ光あり撮影画像データ Iとに基づくホワイトバランス (WB)調整画像 R
1 2
の生成原理を説明する図である。
[0067] 図 4 (a)は、フラッシュ光あり撮影画像データ Iのある座標位置 (x, y)における画素
2
を RGB空間上でベクトル V3として示した図である。ベクトル V3は、 (R, G, B)の値と して、 (ir, ig, ib)を持つ。このベクトル V3は、外光成分とフラッシュ光成分両者を含 む照射光に基づレ、て取得された画素値である。
[0068] 従って、このベクトル V3は、外光成分のみの撮影によって取得された同じ座標 (X, y)における画素値、すなわち、フラッシュ光なし撮影画像データ Iの画素値に基づく ベクトル VIと、外光のないフラッシュ光のみの仮想条件で撮影した場合に取得される 画像の画素値成分からなるベクトル V2の加算値に相当する。
[0069] 従って、ベクトル V3からベクトル VIの示す画素値を減算することで、ベクトル V2の 画素値、すなわち、外光のないフラッシュ光のみの仮想条件で撮影した場合に取得 される画像の画素値が取得される。この結果を示すのが、図 4 (b)のベクトル V2であ る。ベクトル V2によって示されるフラッシュ光のみの照射条件の画素値をフラッシュ光 成分に基づいて設定されたパラメータに従って、ホワイトバランス調整を実行して、補 正画素値を求め、補正画素値からなるベクトル V2'が求められる。このベクトル V2'の 示す画素値によって構成される画像が、図 3のステップ S202におけるホワイトバラン ス調整の結果として得られる補正画像 F'に相当する。すなわち、図 4 (a) , (b)の処理 は、図 3のフローにおけるステップ S201、 202に相当する。
[0070] 図 4 (c)は、フラッシュ光なし撮影画像データ Iの画素値に基づくベクトル VIに対応 する画素値を外光成分に基づいて設定されたパラメータに従って、ホワイトバランス の調整を実行して、補正画素値を求め、補正画素値からなるベクトル VI'を求める処 理であり、このベクトル VI'の示す画素値によって構成される画像が図 3のステップ S 203におけるホワイトバランス調整の結果として得られる補正画像 I 'に相当する。す なわち、図 4 (c)の処理は、図 3のフローにおけるステップ S203に相当する。
[0071] 図 4 (d)は、図 4 (b)に示される補正画像 F'に相当するベクトル V2'の示す画素値と 、図 4 (c)に示される補正画像 I 'に相当するベクトル VI'の示す画素値とをカ卩算し、
1
最終的なホワイトバランス調整画素値を持つホワイトバランス調整画像データ Rを生 成する処理を示している。すなわち、ある座標(X, y)におけるホワイトバランス調整画 素値は図 4 (b)に示される補正画像 F'に相当するベクトル V2'の示す画素値と、図 4 ( c)に示される補正画像 I 'に相当するベクトル VI'の示す画素値とを加算した結果得
1
られる画素値である。すなわち、図 4 (d)の処理は、図 3のフローにおけるステップ S2 04に相当する。
[0072] このように、本実施例におけるホワイトバランス調整処理は、外光成分とフラッシュ光 成分の両者が含まれる画像について外光成分のみで撮影された画像とフラッシュ光 成分のみで撮影された画像の 2つの画像に分離し、外光成分のみで撮影された画 像については外光成分に基づいて設定されたパラメータに従ってホワイトバランスの 調整を実行し、フラッシュ光成分のみで撮影された画像にっレ、てはフラッシュ光成分 に基づいて設定されたパラメータに従ってホワイトバランスの調整を実行し、再度これ らの補正画素値を加算して最終的なホワイトバランス調整画像 Rを求める構成である 。このように、 2つの光成分に対して独立にそれぞれの光成分に適合したパラメータ でホワイトバランス調整を行うことになり、適正なホワイトバランス調整が実行される。 すなわち、あた力も外光とフラッシュ光が同一色である状況の下で撮影されたような 調整画像の生成が可能となる。
[0073] 図 2のフローに戻りステップの説明を続ける。ステップ S 112で上述した複数画像に 基づくホワイトバランス調整処理が行われると、そのホワイトバランス調整画像 R力 最 終的な出力画像として設定され、処理が終了する。
[0074] 一方、ステップ S110で上述した複数画像に基づくホワイトバランス調整処理が行わ れる場合は、被写体自体の動きに起因する像ぶれがあると判定され、その像ぶれに ついての補正が可能と判定された場合であり、ステップ S110で生成したホワイトバラ ンス調整画像 R中、被写体自体の動きに起因する像ぶれの画像領域、すなわち動き 部分領域については、ステップ S111において画素値補正処理を実行する。すなわ ち、ステップ S107で検出した動き部分の画素値に対して例外処理を行レ、、ホワイト バランス調整画像 Rを修正する。修正処理は、例えば、動きが検出された部分に対 応するフラッシュ発光あり撮影画像データ Iの画素値を入力として、ホワイトバランス
2
調整画像 Rにおける動きが無かった部分の画素値を参照して、動きが検出された部 分の画素値を決定し、最終的な画像を合成する方法がある。
[0075] この合成手法について説明する。画像にあらわれる物体の色は、光がその物体に 反射し撮像素子に入射し撮像されたものである。たとえば、白色光源下で、ある物体 が画像上で赤色である場合、その物体は、赤色に相当する周波数の可視光をよく反 射し、それ以外の色に相当する周波数の光は吸収する特性を持っている。つまり、物 体には、各周波数の光に関して固有の反射率を持っていると言える。いま、物体の各 RGB色成分に関する光の反射率を (o , o , o )として、ある色温度の光を (1 , 1 , 1 )
r g b r g b であらわす。光 (1 , 1 , 1 )が物体 (ο, ο , ο )に反射した光がカメラによって撮像され r g b r g b る時、撮像された画像を構成する画素の値 (i, i, i )は、以下に示す式 (式 1)で表現 すること力 Sできる。
[0076] (i, i , i ) = (k*l *o, k*l *o , k*l *o )
r g b r r g g b b
····· (式 1)
[0077] 上記式において、 kは光の強さを表すスカラー値である。
いま、例えば外光とフラッシュ光のように 2つの照射光として、光源 1(1
lr, 1 , 1 ),と lg lb
、光源 2(1 , 1 , 1 )があり、これらの 2つの光が、ある物体(o, o , o )に反射した光
2r 2g 2b r g b
をカメラで撮像する場合、カメラの撮影画像の画素値 (i , i , i )は、以下に示す式(
r g b
式 2)で表現することができる。
(i, i , i ) = ((k *1 +k *1 ) *o , (k *1 +k *1 ) * o , (k * 1 +k *1 ) r g b 1 lr 2 2r r 1 lg 2 2g 1 lb 2 2b
*o )
b
……(式 2)
ここで、 kは光源 1の強さ、 kは光源 2の強さを表すスカラー値である。
1 2
[0078] いま o, = k *o、 o,=k *o、 o, = k *oとおくと上記式(式 2)は、以下に示す
r 1 r g 1 g b l b
式 (式 3)のように変換できる。
(i, i, i ) = ((l +k,*l ) *o,, (1 +k,*l ) *o,, (1 +k,*l ) *o,) r g b lr 2r r lg 2g g lb 2b b
(式 3)
[0079] ここで k' = k /kであり、 k'は、 2つの光源の光強度スカラー比である。すなわち、 k
2 1
'は、注目する画素に撮像された被写体の部分における、光源 1と光源 2から照射さ れる光の強度スカラー比である。
[0080] ここで外光とフラッシュ光の 2種類の光が物体に反射されて撮像された画像 I上で
2 のある画素値 (i, i , i )に関して考える。上記式 (式 3)における光源 1を外光、光源 2 r g b
光とする。外光の色 (1 , 1 , 1 )は、従来から行われているオートホワイト
lr lg lb
バランス調整で用いられる方法により計測することができる。またフラッシュ光の色 α
2r
, 1 , 1 )は、フラッシュ装置に固有のものであるので、既知でありあら力、じめ設定する
2g 2b
ことが可能である。さらに k'が既知である場合、画素 (i , i , i )は、外光成分 α *ο ' r g b 丄 r r
, 1 *o ', l *o,)、フラッシュ光成分(k'*l *o,, k,*l *ο ', k,*l *ο ')に lg lb b 2r r 2g g 2b b 分解することができる。外光成分、フラッシュ光成分それぞれを分離して独立に WB 処理し、足し合わせ画像を再構成すると、外光とフラッシュ光の色温度の違いによる 画像の不自然さを解消することができる。
[0081] 図 2を参照して説明したフロー中の、ステップ S107において検出された動き部分に 対して、ステップ S111の画素値補正を上述した処理に従って実行する。以下、具体 的な処理例について説明する。
[0082] 前述したように、ステップ S107では、ステップ S101、 S103、 S105の 3枚の画像の 撮影の間に、被写体自体の動きに起因する像ぶれがあつたか否力、を検出する。この 被写体自体の動きに起因する像ぶれがあつたか否かの検出処理は、 3枚の画像から
2つの画像を比較して行われる。
[0083] たとえば、図 5に示すように、 (a)フラッシュ光なし画像 Iと、(b)フラッシュ光あり画像 Iと、(c)フラッシュ光なし画像 Iを連続撮影している間にボール 200が転がっている
2 3
場合、(a)の画像 Iと(c)の画像 Iの差分画像 (d) I -Iを取得し、被写体自体の動き
1 3 3 1
に起因する像ぶれの発生領域 210を検出する。
[0084] 図 6、および図 7を参照して、動き部分の画素値補正処理の具体的処理手順につ いて説明する。図 6は動き部分の画素値補正処理の具体的処理手順を示すフロー チャートであり、図 7は、補正対象となる動き部分を含む画素領域を示している。すな わち、図 5における領域 210の部分である。
[0085] 図 7に示すように、動いていると判定された画像領域中、動いていないと判定された 画像領域の隣接画素(周囲 8画素に含まれる位置の画素)を、動きあり部分の内周画 素 250と定義する。また、動いていると判定された画像領域中、内周画素 250以外の 画素を動きあり非内周画素 252とする。
[0086] また、動いていないと判定された画像領域において、動いていると判定された画像 領域の隣接位置の画素 (周囲 8画素に含まれる位置の画素)を、動きあり部分の外周 画素 251と定義する。また、動いていないと判定された部分において、動きあり部分 の外周画素 251以外の画素を動きなし非外周画素 253とする。
[0087] 動きあり部分の画素に関して、光源 1 (外光)の強さ(スカラー値) kと、光源 2 (フラッ
1
シュ光)の強さ(スカラー値) kの比率、すなわち、光強度スカラー比 k' =k /kの値
2 2 1 は未知である。ここで目標とする正しくホワイトバランス (WB)調整が行われ、かつ動 き部分の補正がなされた画像は、動きあり部分と、動きなし部分の画素値が滑らかに 変化する画素構成を持つと仮定する。
[0088] この仮定の下、動きあり部分外周画素 251に関して光強度スカラー比 k'の値を求め る。これらの動きあり部分外周画素 251画素に関しては、前述の式 (式 3)における外 光成分 (1 * o '
lr r, 1 * o ', 1 * o ')は、フラッシュなし撮影画像データ Iにおける対
lg g lb b 1
応する画素の値と等しいので、光強度スカラー比 k' = k /kの値は、フラッシュあり
2 1
撮影画像データ Iの画素値 (i
2 r, i
g, i )ならびに式 (式 3)に基づいて、求めることがで b
きる。この動きあり部分外周画素 251についての、光源 1 (外光)の強さ(スカラー値) k と、光源 2 (フラッシュ光)の強さ(スカラー値) kの比率: k' = k /kの算出処理が図
1 2 2 1
6のステップ S301の処理である。
[0089] このステップ S301の処理により、動きあり部分外周画素 251に関しては、光強度ス カラー比 k'が求まる。しかし、動きあり部分に含まれる画素に対応する光強度スカラ 一比 k'の値は不明である。これらの動きあり部分に含まれる画素に対応する光強度ス カラー比 k'の値を、動きあり部分外周画素 251に対応して算出した k'の値から補間 する。補間方法の一例として挙げられるの力 放射基底関数 (RBF : Radial Basis Function)を適用した処理である。
[0090] 放射基底関数 (RBF)を用いたデータの補間に関する参考文献として、たとえば、 J . C. Carr, et al, Reconstruction and Representation oi 3D Objects with Radial Basis Function, " ACM SIGGRAPH 2001 , Los Angele s, CA, pp67_76, 12—17 August 2001 が挙げられる。
[0091] Radial Basis Function (放射基底関数)とは, 中心点から距離が離れるにつれ て,値が単調に減少ほたは増カロ)し,その等高線が超球(2次元の場合, 円または楕 円)になる関数のことをいう。高さのわかっているサンプノレ地点を通過し、かつ、できる だけ滑らかになるような関数を構成することによって未知の地点の高さの値をも見積 もるという問題を解決するためには、既知のサンプノレ地点を中心とする RBFを重ね合 わせればよレ、、とレ、うことが分かっている。
[0092] 具体的には、サンプノレ点が 2次元空間上にある場合には、サンプノレ点を、
[数 5]
Figure imgf000024_0001
とする。 c.x, はそれぞれ、サンプル点 iにおける x座標値、 y座標値を表す)、それ ぞれの地点での高さを {hi} (l≤i≤n)としたとき、求めたい関数
[数 6]
は、 RBFを用いて以下の式(式 4)のようにあらわされる。
[数 7] n
/( ) = P(x) + d^{x一 Cj )
ゾ =ι
. . . . (式 4) ここで、
[数 8]
p(x) = p0 +plx + p2y
である。
なお基底関数
[数 9]
Figure imgf000025_0001
の例としては、
[数 10]
Figure imgf000025_0002
などがある。
しかし上記式 (式 4)のみでは {d } (l≤i≤n), {ゎ i (0≤i≤2)を特定することができ なレ、。そこで、以下の式 (式 5)を満たす {d}(l≤i≤n), {p}(0≤i≤2)を求める。
i i
[数 11]
Figure imgf000025_0003
• · · · (式 5
したがって、下式、
[数 12]
Figure imgf000025_0004
ならびに式(式 5)力、ら(未知数の数 n+ 3、式の数 n + 3) {d} (l≤i≤n), {p } (0≤i ≤ 2)を求めることができる。 [0096] 動きあり部分外周画素 251における光強度スカラ
[数 13]
Figure imgf000026_0001
を構築すれば、任意の位置における光強度スカラー比 k'を求めることができる。
[0097] この処理が図 6におけるステップ S302のサンプル点の光強度スカラー比 k' (動きあ り部分外周画素 251における k')に基づく RBF構築処理である。
[0098] この RBF構築処理により、動いていると判定された部分のフラッシュあり撮影画像 データ I上での各画素に対応する光源 1(外光)の強さ(スカラー値) kと、光源 2 (フラ
2 1 ッシュ光)の強さ(スカラー値) kの比率、すなわち、動きあり部分に含まれる画素各々
2
に対応する光強度スカラー比 k':k'=k /kを推定する。推定された各画素対応の
2 1
光強度スカラー比 k'を用いて、画像 Iの動きあり領域部分を外光成分とフラッシュ成
2
分に分解し、それぞれの光の色温度にあわせて個々にホワイトバランス (WB)調整処 理を実行する。
[0099] 即ち、動きあり部分の各画素位置において、光強度スカラー比 k'が求まるので、こ の k'と、フラッシュあり撮影画像データ Iの各画素位置における画素値 (i, i, i )、お
2 r g b よび既知である光源 1(外光)の光成分 (1 , 1 , 1 )と光源 2 (フラッシュ光)の光成分
lr lg lb
(1 , 1 , 1 )を、上述の式 (式 3)に代入し、光源 1(外光)にのみ基づく被写体の反射
2r 2g 2b
率、(ο', ο ', ο ')が求まる。
r g b
[0100] さらに、外光成分のみが照射された場合の被写体の画素値: (1 *o ', 1 *o ', 1 lr r lg g lb
*o ')と、フラッシュ光成分のみが照射された場合の被写体の画素値:(k'*l *o ' b 2r r
, k'*l *o k'*l *o,)と求め、それぞれに対して、先に図 3、図 4を参照して説
2g g 2b b
明したそれぞれの光成分に応じた独立したパラメータの設定による 2つのホワイトバラ ンス調整を実行し、それらの調整データを再合成する処理により、最終的なホワイト バランス調整画素値を算出する。
[0101] 動きあり部分の画素値の補正の手順をまとめると以下の a f処理となる。 a.まず、動きあり部分に隣接する動きなし部分の画素に対応するデータとして、そ の画素に撮像された被写体の部分における、前記第 1光源のみから照射される光と 、前記第 1光源なしで外光のみから照射される光の 2種類の光源の光強度スカラー 比を算出する。
b.放射基底関数(RBF : Radial Basis Function)を適用して、動きあり部分の 各画素対応の光強度スカラー比を算出する。
c動きあり部分の各画素対応の光強度スカラー比に基づいて、第 1光源のみの照 射環境下での撮影画像に相当する画像における動きあり部分の各画素の画素値を 第 1画素値として算出する。
[0102] d.動きあり部分の各画素対応の光強度スカラー比に基づいて、第 1光源を含まな い外光照射環境での撮影画像に相当する画像における動きあり部分の各画素の画 素値を第 2画素値として算出する。
e.第 1画素値に基づいて画素値調整処理 (ホワイトバランス調整)を実行し、第 2画 素値に基づレ、て画素値調整処理 (ホワイトバランス調整)を実行する。
f.生成した 2つの調整画素値を加算する。
[0103] このように動き部分に含まれる画素についてのホワイトバランス (WB)調整画素値を 図 2のステップ S110において生成した画像データ Rに上書きし、第 1補正画像デー タ R'を求める。すなわち、撮影画像に被写体の動きに起因する動き領域についての 画素値のみが、ステップ S111において再設定されて、ステップ S110において生成 したホワイトバランス調整画像 Rに上書きを行い、第 1補正画像データ R'を求める。
[0104] なお、先に、図 3の処理フローにおいて説明したように、フラッシュ光のレベル補正( S202)を行った場合は、動き部分の画素値算出の際にも同等のレベル補正を行つ た後に、外光成分とフラッシュ光成分に基づくホワイトバランス調整画素値の足し合 わせを行う。
[0105] このようにして動き部分の画素値が再設定され、画像 Rの動き部分領域に相当する 画素を書き換える。この処理が、図 6におけるステップ S303の処理である。
[0106] し力、し、上述の動きあり領域において再設定した画素値を、ステップ S110において 生成済みのホワイトバランス調整画像 Rに上書きして求めた第 1補正画像 R'において 、元々の画像 Rの動きなし部分の画素と、動きあり部分の再設定画素の境界が滑らか につながらない場合がある。原因としては、外光の色を正しく測定できなかった場合 や、フラッシュあり撮影画像 Iで白抜けが起こっている場合などが考えられる。そこで
2
、そのような場合に対応するために、境界部分を滑らかに設定する、さらなる色変換 処理を実行する。
[0107] 具体的には、図 6のステップ S304— 306の処理を行う。ステップ S304において、ま ず、第 1補正画像 R'の動きあり部分内周画素 250のうちのある画素 a254 (図 7参照) についての画素値と、画素 a254の隣接画素(周囲 8画素に含まれる位置の画素)の うち動きあり部分外周画素(図 7における画素 255)の第 1補正画像 R'における値の 平均値とについての各色成分の比(ひ , , a )を求める。この比を画素 a254に対 r g b
応する色成分比データとして保存する。
[0108] 同様に、動きあり部分内周画素 250のすベての位置の各画素に対応する各色成分 の比(α, α , ひ )を画素対応色成分比データとして算出し、各画素に対応する色 r g b
成分比データとして保存する。
[0109] 次に、ステップ S305において、動きあり部分内周画素 250のすベてをサンプル点 として用いて色成分比データに基づく RBFを構築する。最後に、ステップ S306にお いて、動きあり部分の各画素に関して、構築した色成分比データに基づく RBFに基 づいて、動きあり部分の各画素に対応する色成分比データ(a , a , a )を求め、 r g b 第 1補正画像 R'において設定されている各画素の画素値に対応画素の色成分比デ →( a , a , a )を乗算することにより、新たな画素値を算出し、この画素値を動き r g b
あり部分の画素とした第 2の色変換を実行する。この第 2の色変換処理を実行して得 られた第 2補正画像 R〃を出力画像とする。この処理が図 6のステップ S306の処理で ある。
[0110] なお、図 6におけるステップ S303までの処理を行って得られる第 1補正画像 R'にお いて、動きあり部分画像と動きなし部分画像の境界が滑らかにつながつている場合に は、ステップ S304力、らステップ S306の処理は省略して良い。
[0111] 以上の説明では、サンプノレ点で与えられた値をほかの点において補間する方法に 関して、 RBFを用いる方法を述べたが、これに限らず別の方法で補間してもよい。以 上の処理が、図 2のステップ SI 11の具体的な処理例である。このように、連続撮影画 像から、被写体自身の動きに基づく像ぶれが検出された場合には、図 6に示すフロ 一に従った処理が実行され、前述した処理によって生成される第 2補正画像 R"また は第 1補正画像 R'が最終出力画像とされる。
[0112] なお、予め被写体自身の動きがないことが分かっている場合は、図 2のステップ S1 07力、ら 111の処理は不要となる。また、ステップ S108の判定も常に Noであるので、 ステップ S108の判定処理を行う必要はなぐ従ってステップ S108の判定のために 使うデータを作成し格納するステップ S105、 106も不用である。
[0113] このように、予め被写体自身の動きがないことが分かっている場合は、ステップ S10 5で撮影するフラッシュなし撮影画像 Iは不用な画像であり、この場合には、フラッシ
3
ュなし撮影画像 Iとフラッシュあり撮影画像 Iの 2枚の画像のみを撮影すればよい。
1 2
[0114] なお、ここでは、被写体が暗い場合に発光する照明装置としてフラッシュという用語 を用いて説明したが、このほかに、ストロボと呼ばれることもあり、フラッシュに限定され るわけではなぐ一般的に被写体が暗い場合に発光する照明装置において本発明 は適用される。
[0115] 以上、説明したように、本実施例においてはフラッシュと外光等、複数の異なる光照 射の下に撮影される画像について、単一の照射光環境下での撮影画像を取得また は生成し、それぞれの単一の照射光環境下の画像について、それぞれの照射光の 色成分 (色温度)に基づいて設定されるパラメータに従ったホワイトバランス調整を実 行し、それらを合成することにより、フラッシュと外光との色温度の差を軽減させた適 格なホワイトバランス調整処理を実現することができる。
[0116] 図 8は、本実施例に従った処理を実行するデジタル信号処理部(DSP) (図 1の DS P106に相当)の機能構成を示すブロック図である。
[0117] 図 2に示すフローチャートと対比しながら、図 8に示すデジタル信号処理部(DSP) における処理について説明する。
[0118] 図 2のステップ S101— 106において、撮影されたフラッシュなし画像 I、フラッシュ あり画像 I、およびフラッシュなし画像 Iは、それぞれフレームメモリ 301 , 302, 303
2 3
に格納される。なお、画像格納用のフレームメモリとしてはデジタル信号処理部(DS P)内に構成したメモリを適用してもバス接続されたメモリ(図 1のメモリ 112)を適用し てもよい。
[0119] ステップ S107の動き検出処理は、動き検出部 309において実行される。これは、 先に図 5を参照して説明したようにフラッシュなし画像 Iと、フラッシュなし画像 Iに基
1 3 づく差分データによる検出処理として実行する。
[0120] ステップ S112の複数画像データに基づくホワイトバランス調整処理は、先に図 3、 図 4を参照して説明した処理である。
[0121] まず、フラッシュなし画像 Iと、フラッシュあり画像 Iに基づいて、差分画像算出部 3
1 2
04において差分画像データ F = I -Iを求める(図 3, S201) o次に、差分画像デー
2 1
タ F = I -I、すなわちフラッシュ光のみの照射条件で撮影した画像に相当する画像
2 1
Fに対して、ホワイトバランス調整部 307でフラッシュ光の成分に基づレ、て設定される パラメータに従ったホワイトバランス調整処理を実行する(図 3, S202)。さらに、外光 成分推定部 306で推定した外光成分の推定値に基づいて設定されるパラメータに従 つたホワイトバランス調整処理をフラッシュなし画像 Iに対してホワイトバランス調整部
1
305で実行する(図 3, S203)。
[0122] さらに、これらの 2つのホワイトバランス調整処理によって取得した 2つの画像の画 素値を画素値加算部 308において加算する(図 3, S204)。
[0123] 撮影画像に動き部分が含まれない場合は、動き部分補正画素値算出部 310にお いて処理を実行することなぐ画素値加算部 308において加算した画素値を持つ画 像データがホワイトバランス調整画像として出力切り替え部 312を介して出力される。 出力先はデジタルアナログ変換を実行する D/A変換器 108 (図 1参照)や、符号ィ匕 処理を実行するコーデック 111などである。
[0124] 一方、動き検出部 309においてフラッシュなし画像 Iと、フラッシュなし画像 Iに基
1 3 づく差分データによる動き検出の結果、被写体自身の動き領域が検出された場合は
、さらに、動き部分補正画素値算出部 310において、先に図 6、図 7を参照して説明 した動きあり部分の画素値の補正(変換)がなされ、動きあり部分が、補正画素値によ つて置き換えられた画素値データを持つ画像が出力切り替え部 312を介して出力さ れる。 [0125] ホワイトバランス調整部 311は、図 2の処理フローにおけるステップ S113の処理を 実行する。すなわち、動き検出部 309において動き領域が検出されたものの、動き領 域の画像全体に占める割合が高いなど、補正不可能と判断された場合に、フラッシ ュあり画像 Iを入力し、予め定めたパラメータに従ったホワイトバランス調整を実行し
2
、これを出力切り替え部 312を介して出力する。
[0126] なお、図 8に示す構成は、機能を説明するために各処理部を区別して示してあるが 、実際の処理としては、上述した各処理フローに従った処理を実行するプログラムに 従って、 DSP内のプロセッサによって実行可能である。
[0127] 上述したホワイトバランス調整処理では、図 3、図 4を参照して説明したように、外光 成分、フラッシュ光成分各々についての単一照射光画像データを求め、これらの画 像データについて、外光成分、フラッシュ光成分に基づいて設定されるパラメータに 従ったホワイトバランス調整処理を実行する構成例を説明した。
[0128] 次に、フラッシュ光のみの照射光条件に相当する差分画像データ F = I — Iに対し
2 1 て、外光成分に基づいて設定されるパラメータに従ったホワイトバランス調整処理を 実行する構成例について説明する。
[0129] 図 9に、先の実施例における図 3のフローに相当する本実施例の複数画像データ に基づくホワイトバランス調整処理フローを示す。
[0130] ステップ 401おいて、フラッシュ光あり撮影画像データ Iの成分とフラッシュ光なし撮
2
影画像 Iの画素の各色の成分の差をとり、差分画像 F = I -Iを生成してメモリに格納
1 2 1
する。差分画像 F = I — Iは、外光がまったく無い状態でフラッシュ光のみを照射しフ
2 1
ラッシュ光のみが被写体に反射して、カメラの固体撮像素子に入射し撮像される画像 と等価なものとなる。次にステップ 402において、画像 Fに対して、外光の色温度にあ わせたホワイトバランス (WB)調整を実行し、補正画像 F'を生成する。すなわち、差 分画像データ Fを外光の色温度に合わせて設定したパラメータに基づいてホワイトバ ランス (WB)調整を実行して、補正画像 F'を生成する。
[0131] この際、差分画像 Fとフラッシュ光なし撮影画像 Iの各画素を直接比較することによ
1
り、フラッシュ光が外光の色に合うようにホワイトバランス調整処理を行う。この WB処 理の具体的な例としては、差分画像 Fの画素 (r , g , b )と同じ位置のフラッシュ光な し撮影画像 Iの画素(r, g, b)を用いて、差分画像 Fの画素の R、 Bの成分を、フラッ
1 i i i
シュ光なし撮影画像 Iの画素の G信号のレベルに合わせて、以下の(式 6) (式 7)を
1
用レ、た画素値変換を実行する。
r'=r * (g/g) …(式 6)
f f i f
b'=b * (g/g) …(式 7)
f f i f
[0132] 次に、 r 'と r、 b 'と bを比較して次の値を得る。
f i f i
a=r/r,=(r*g) (r *g)
r i f i f f i
…(式 8)
a =b/b'=(b *g)/(b *g)
b i f i f f i
…(式 9)
[0133] 上記(式 8)ならびに(式 9)を用いて求めた aと aを全画素に関して平均することによ
r b
り WBパラメータを求める。求めたパラメータを画像 Fの各画素の R成分、 B成分に掛 け合わせることによりホワイトバランス調整が行われる。この処理により、画像 Fは、あ た力も外光と同じ色のフラッシュが発光されて撮影されたかのような画像に変換され 画像 F'として保存される。
[0134] さらに、ステップ 403において、差分画像 F'とフラッシュ光なし撮影画像 Iを合成し
1
第 1ホワイトバランス調整画像 Rを生成する。第 1ホワイトバランス調整画像 Rは、外 光とフラッシュ光の色温度が一致した画像となる。
[0135] 最後にステップ 404において、第 1ホワイトバランス調整画像 Rに対してさらに、ホ ワイトバランス調整を行い、第 2ホワイトバランス調整画像 Rを生成する。
2
[0136] ステップ 404における WBのパラメータに関しては、ユーザーが設定した値を用いて も良いし、公知のオートホワイトバランス技術を用いて、最終的な第 2ホワイトバランス 調整画像 Rが自然な色合いになるように変換しても良レ、。
2
[0137] この実施例に従った処理により、外光の成分をより尊重したホワイトバランス調整が 可能になる。具体的には、外光が夕焼け当により赤みがかった、すなわち R成分の多 い場合には、全体を赤みがかった色合いで調整するなど、外光に応じた調整が可能 となる。
[0138] 図 10は、本実施例に従った処理を実行するデジタル信号処理部(DSP) (図 1の D SP106に相当)の機能構成を示すブロック図である。
[0139] 図 9に示すフローチャートと対比しながら、図 10に示すデジタル信号処理部(DSP
)における処理について説明する。
[0140] 図 2のステップ S101— S106において、撮影されたフラッシュなし画像 I、フラッシ
1 ュあり画像 I、およびフラッシュなし画像 Iは、それぞれフレームメモリ 401 , 402, 40
2 3
3に格納される。
[0141] フラッシュなし画像 Iと、フラッシュあり画像 Iに基づいて、差分画像算出部 404に
1 2
おいて差分画像データ F = I -Iを求める(図 9, S401)。次に、差分画像データ F =
2 1
I -I、すなわちフラッシュ光のみの照射条件で撮影した画像に相当する画像 Fに対
2 1
して、ホワイトバランス調整部 405で外光成分に基づいて設定されるパラメータに従 つたホワイトバランス調整処理を実行する(図 9, S402)。さらに、このホワイトバランス 調整処理によって取得した補正画像 F'とフラッシュなし画像 Iとの画素値を画素値加
1
算部 406において加算し、第 1ホワイトバランス調整画像 Rを生成する(図 9, S403)
1
。さらに、ホワイトバランス調整部 407において、第 1ホワイトバランス調整画像 Rに対 してホワイトバランス調整を行い、第 2ホワイトバランス調整画像 Rを生成する。
2
[0142] 撮影画像に動き部分が含まれない場合は、動き部分補正画素値算出部 409にお いて処理を実行することなぐ第 2ホワイトバランス調整画像 Rをホワイトバランス調整
2
画像として出力切り替え部 411を介して出力する。出力先はデジタルアナログ変換を 実行する D/A変換器 108 (図 1参照)や、符号ィ匕処理を実行するコーデック 111な どである。
[0143] —方、動き検出部 408においてフラッシュなし画像 Iと、フラッシュなし画像 Iに基
1 3 づく差分データによる動き検出の結果、被写体自身の動き領域が検出された場合は
、さらに、動き部分補正画素値算出部 409において、先に図 6、図 7を参照して説明 した動きあり部分の画素値の補正(変換)がなされ、動きあり部分が、補正画素値によ つて置き換えられた画素値データを持つ画像を出力切り替え部 411を介して出力す る。
[0144] ホワイトバランス調整部 410は、図 2の処理フローにおけるステップ S113の処理を 実行する。すなわち、動き検出部 408において動き領域が検出されたものの、動き領 域の画像全体に占める割合が高いなど、補正不可能と判断された場合に、フラッシ ュあり画像 Iを入力し、予め定めたパラメータに従ったホワイトバランス調整を実行し
2
、これを出力切り替え部 411を介して出力する。
[0145] なお、図 10に示す構成は、機能を説明するために各処理部を区別して示してある 力 実際の処理としては、上述した各処理フローに従った処理を実行するプログラム に従って、 DSP内のプロセッサによって実行可能である。
[0146] 本実施例に従えば、外光の成分をより尊重したホワイトバランス調整が可能になる。
実施例 2
[0147] 次に、本発明の実施例 2として、上述したと同様、外光とフラッシュ光が混在する環 境下における撮影の最適なホワイトバランス調整処理を実行する画像処理方法、お よび画像処理装置において、図 2のフローにおけるステップ S111の処理、すなわち 、動き部分の画素値補正処理方法として実施例 1の手法と異なる手法を採用した構 成について説明する。本方法は、例えば高解像度画像の高速処理を可能とするもの である。
[0148] 上述した実施例 1においては、フラッシュ光と外光との色温度の差を解消することの 出来る構成を説明した。その構成の概要は、まず、フラッシュを発光して撮影した画 像と、フラッシュを発光しないで撮影した画像との差分画像から、フラッシュ光のみ成 分を抽出し、その後、この差分画像とフラッシュを発光しないで撮影した画像に対し て、独立に色変換を施し再合成することにより、外光とフラッシュ光との色温度の差を 解消するものである。
[0149] この構成によれば、複数枚の画像を連射する必要があるが、その間に被写体など の動きがあった場合にも対応することができる。すなわち、フラッシュ発光なし、あり、 なしの順序で 3枚の画像を連射し、 2枚のフラッシュ発光なし画像の差分から、被写 体の動き部分を検出し、動き部分に含まれる画素に関して、フラッシュ光反射成分の 外光反射成分に対する比率を、動き部分以外の画素におけるデータから、放射基底 関数を用いて、補間処理を行うものである。
[0150] すなわち、実施例 1では、図 1に示すステップ S111の処理、すなわち、ホワイトバラ ンス調整画像 Rにおける動き部分の画素値補正処理を図 6に示す処理フローに従つ て実行した。
[0151] しかし、上述した動き部分の補償方法は、必要なメモリサイズが大きくなり、計算コス トが高くなる場合がある。特に補正対象となる画像の解像度が高ければ高いほど、必 要なメモリサイズ、計算コストの増大を招くとレ、う問題がある。
[0152] 実施例 2は、以上のような問題点を解決するものであり、フラッシュを発光して行わ れる撮影において、外光とフラッシュ光の色温度の違いに起因する不自然さを解消 することが出来、さらに像ぶれが検出された場合においても、破綻することなく最適に かつ効率よく処理を行うことができ、対象画像の解像度が高い場合にも、効率よく高 速に処理を行うことが可能な構成例である。
[0153] 実施例 2の画像処理装置は、先に実施例 1において図 1を参照して説明した構成と 同様の構成を有する。デジタル信号処理部(DSP) 106における処理に特徴を有す る。以下、本実施例 2に係る画像処理の詳細について説明する。
[0154] 画像処理は、 DSP106内部において、入力された画像信号のストリームに対して演 算ユニットが所定のプログラムコードに記述された演算を順次実行するようにして実 現される。以降の説明では、そのプログラム中の各処理が実行される順序をフローチ ヤートで説明する。し力しながら、本発明は本実施例で説明するようなプログラムとレ、 う形態以外にも、以降で説明する機能と同等の処理を実現するハードウェア回路を 実装して構成してもよい。
[0155] 本実施例におけるホワイトバランス (WB)補正処理の手順の基本処理は、上述した 実施例 1において説明した図 2に示すフローチャートに従って実行される。すなわち 、フラッシュ発光なし、あり、なしの順序で 3枚の画像を連続撮影し、これらの画像に 基づレ、てホワイトバランス調整を行う。
[0156] 本実施例においては、図 2に示すステップ S111の動き部分の画素値補正処理をよ り効率的に高速化して実行可能としたものである。特に高解像度画像データの処理 に際して、少なレ、メモリ容量を持つ装置であっても高速に適切な画素値補正処理が 可能となる。
[0157] 図 2に示すステップ S110で上述した複数画像に基づくホワイトバランス調整処理が 行われる場合は、被写体自体の動きに起因する像ぶれがあると判定され、その像ぶ れについての補正が可能と判定された場合であり、ステップ SI 10で生成したホワイト バランス調整画像 R中、被写体自体の動きに起因する像ぶれの画像領域、すなわち 動き部分領域については、ステップ S111において画素値補正処理を実行する。す なわち、ステップ S107で検出した動き部分の画素値に対して例外処理を行レ、、ホヮ イトバランス調整画像 Rを修正する。修正処理は、例えば、動きが検出された部分に 対応するフラッシュ発光あり撮影画像データ Iの画素値を入力として、ホワイトバラン
2
ス調整画像 Rにおける動きが無かった部分の画素値を参照して、動きが検出された 部分の画素値を決定し、最終的な画像を合成する。
[0158] 本実施例に従った画素値補正処理の詳細について、以下説明する。
[0159] 図 11に、図 2のステップ S107において実行される動き検出処理の結果として取得 されるデータの一例を表す模式図を示す。
[0160] 図 11において、図 2に示すフローのステップ S107において動いていると判定され た部分を動きあり部分画素領域 550、動いていないと判定された部分を、動きなし部 分画素領域 551と呼ぶ。
[0161] なお、先に図 3を参照して説明したステップ S204で得られた画像、すなわちホワイ トバランス調整画像 Rの動きなし部分画素領域 551の構成画素は、図 2に示すステツ プ S103、 S104において、フラッシュ光ありで撮影し、メモリに格納した画像 Iに対し
2 てフラッシュ光と外光の色の違いが軽減されるように正しく色変換が施されたものであ ると言える。一方、ホワイトバランス調整画像 Rの動きあり部分画素領域 550の構成画 素については、被写体の動きが画素値に影響を及ぼしているので、正しく色変換が なされてレ、ない可能性が高レ、と言える。
[0162] そこで、動きあり部分画素領域 550の画素に関しては、フラッシュ光あり撮影画像 I
2 に直接色変換を施し、最終的なホワイトバランス調整画像 Rを求める処理を行う。
[0163] 実施例 1では、図 1に示すステップ S111の処理、すなわち、ホワイトバランス調整画 像 Rにおける動き部分の画素値補正処理を図 6に示す処理フローに従って、放射基 底関数を用いた補間処理として実行した。
[0164] 本実施例では、実施例 1とは異なるシーケンスでホワイトバランス調整画像 Rにおけ る動き部分の画素値補正処理を実行する。本実施例 2に係る動き部分の画素値補正 処理のシーケンスについて、図 12に示すフローチャートを参照して説明する。
[0165] 図 12は、図 2に示すステップ S111の処理、すなわち、ホワイトバランス調整画像 R における動き部分の画素値補正処理の詳細を示すフローチャートである。各ステップ の処理について説明する。
[0166] まずステップ S501において、図 2に示すステップ S110、すなわち、図 3の処理フロ 一に従って生成したホワイトバランス調整画像 と、図 2に示すステップ S103、 S104 において、フラッシュ光ありで撮影し、メモリに格納した画像 Iを用いて、以下に示す
2
式 (式 21)に基づき、画像差分 dを求める。
d(x, y)=R(x, y)-I (x, y)
2
…(式 21)
[0167] ここで、 d (x, y), R (x, y) , I (x, y)はすべて、画素位置(x, y)における画像の色
2
に対応したベクトノレであり、上記式はベクトル計算として実行される。
[0168] 上記式 (式 21)においては、ホワイトバランス調整画像 Rと、フラッシュ光あり撮影画 像 Iの各画素値の画像差分 dを求めているが、ホワイトバランス調整画像 Rと、フラッ
2
シュ光あり撮影画像 Iの各画素値の差分の変わりにホワイトバランス調整画像 Rと、フ
2
ラッシュ光あり撮影画像 Iの各画素値の比率、すなわち下記式 (式 22)のように、画
2
像比率 dを算出して適用してもよい。
d(x, y)=R(x, y)/(l (x, y)+e)
2
…(式 22)
[0169] 上記式 (式 22)において、 eは十分に小さな固定の値を各要素に設定したベクトル、 例えば floor valueである。 (式 22)の記号〃/"は、ベタトノレの各要素をそれぞれ除 算し、その結果をベクトルの各要素とする演算である。 eは、 I (x, y)の要素が 0にな
2
つた場合に、 d(x, y)を計算できなくなるのを防ぐ目的で使われる。
[0170] いま、ホワイトバランス調整画像 と、フラッシュ光あり撮影画像 Iの画像差分または
2
画像比率 d(x, y)が画像全体に渡って正しく求まれば、フラッシュ光あり撮影画像 I
2 を基準として、最終的なホワイトバランス調整画像 Rを算出できる。すなわち、 R(x, y )=d(x, y)+I (x, y)あるいは、 R(x, y) = (I (x, y)+e) *d(x, y)として算出する
2 2
こと力 sできる。ここで、記号〃*"は、ベクトルの各要素を乗算し、結果をベクトルの各要 素とする演算である。
[0171] しかし、動きあり部分画素領域 550に関しては、動き画像として現れている可能性 があるので、上記式 (式 21)または(式 22)によって算出される画像差分または画像 比率 d (x, y)をそのまま適用すると、最適な色味を実現することができない。
[0172] そこで、本実施例においては、動きあり部分画素領域 550に関しての最終補正画 素値、すなわち最終的なホワイトバランス調整画像 Rを動きなし部分画素領域 551の 領域において求めた画像差分または画像比率 d (x, y)を用いて滑らかに補間するこ とにより算出する。または画像比率 d (x, y)を用いた補間フィルタリング処理を使い滑 らかに補間算出することにより算出する。補間フィルタリング処理には、以下に記載す るような、例えば、画素領域 550部分で実際に観測される画素値の遷移状況や領域 550周辺の画素値に従い、領域 550周辺力、ら徐々に画素値を補間して行き、さらに 低域透過フィルタリング処理を行う、というような方法によって、実現することができる。 なお、本発明の補間フィルタリング処理は、これに限定されるものではない。
[0173] 本手法によれば、動きあり部分画素領域 550においても、動きあり部分画素領域 5 50のフラッシュ光あり撮影画像 Iのテクスチャを保持しつつ、色味を、最終的なホワイ
2
トバランス調整画像 Rと同じにしたような画像を生成することが出来る。
[0174] 図 13は、上述の(式 21)、すなわち、ホワイトバランス調整画像尺と、フラッシュ光あり 撮影画像 Iの各画素値の画像差分 dの算出式を用いて、動きあり部分画素領域 550
2
に関しての最終補正画素値を求める補間処理を説明する図である。
[0175] 図 13においては、説明を分かりやすくするため、データが 1次元上に並んでいるも のとして、その処理を説明するが、実際は、 2次元平面において処理が実行される。 図 13 (a) (c)とも、横軸が画素位置を示し、縦軸が画素値 (輝度または R, G, B値) を示している。
[0176] 図 13 (a)は、動きなし部分画素領域 551および、動きあり部分画素領域 550におけ るホワイトバランス調整画像 R560と、フラッシュ光あり撮影画像 I 561の画素値推移
2
を示している。
[0177] 図 13 (b)は、動きなし部分画素領域 551において、動きあり部分画素領域 550に 近接する部分の画像差分 dの値 562を示している。すなわち、上述の(式 21)、すな わち、ホワイトバランス調整画像 Rと、フラッシュ光あり撮影画像 Iの各画素値の画像
2
差分 dの値 562を示している。
[0178] さらに、図 13 (b)に示す動きなし部分画素領域 551に示す点線は、画像差分 dの 値 562を滑らかに補間することにより得られる動きあり部分画素領域 550における画 像差分 dの推測値 563を示している。この画像差分 dの推測値 563の算出処理手法 については後述する。
[0179] さらに図 13 (c)は、図 13 (a)に示す動きあり部分画素領域 550におけるフラッシュ 光あり撮影画像 I 561の値に対して、図 13 (b)に示す動きあり部分画素領域 550に
2
おける推定された画像差分 d563を加算した結果を、動きあり部分画素領域 550に おける最終的なホワイトバランス調整画像 R564として点線で示した図である。
[0180] この図 13 (c)の動きあり部分画素領域 550に点線で示すホワイトバランス調整画像 R564と、動きなし部分画素領域 551におけるホワイトバランス調整画像 R560とが最 終的なホワイトバランス調整画像 Rとして出力される。最終出力画像は、図 13 (c)に 示す動きあり部分画素領域 550に点線で示すホワイトバランス調整画像 R564と動き なし部分画素領域 551におけるホワイトバランス調整画像 R560と滑らかに接続され た画像となる。この出力画像は、動きあり部分画素領域 550におけるフラッシュ光あり 撮影画像 I 561のテクスチャを保持したものとなる。
2
[0181] なお、 d (x, y)として、上述の式(式 21)による画像差分 dではなぐ上述の式(式 22 )を用いた画像比率 dを適用した場合も、上述の方法と同様の補正方法が実行可能 である。すなわち、図 13 (b)に示す画像差分 dの代わりに画像比率 dを用い、図 13 (b )に示す動きなし部分画素領域 551に示す点線と同様、画像比率 dの値を、動きあり 部分画素領域 550において滑らかに補間することにより動きあり部分画素領域 550 における画像比率 dの推測値を算出し、そののち、画像比率 dを、動きあり部分画素 領域 550におけるフラッシュ光あり撮影画像 I 561の画素に掛け合わせることにより、
2
動きあり部分画素領域 550のホワイトバランス調整画像 Rを算出することが出来る。
[0182] 次に、ホワイトバランス調整画像 Rと、フラッシュ光あり撮影画像 Iの各画素値の画
2
像差分または画像比率 dを適用した補間方法の詳細について述べる。
[0183] 図 12に示すフローにおけるステップ S501の実行の後、ステップ S502において、 補間の前処理として、動きあり部分画素領域 550の各画素における画像差分または 画像比率 d(x, y)の初期値を求める。なお、以下の説明では、画像差分 d(x, y)を求 める方法について説明するが、画像比率 d(x, y)を求める場合も同様の手法が適用 される。
[0184] 最初に、各画素 2値のマスク画像 Mを用意し、動きなし部分画素領域 551の画素( x, y)については、 M(x, y)=lとし、動きあり部分画素領域 550については M (x, y )=0とする。
[0185] 画像の各画素を調べ、いま M(x, y) =0の画素、すなわち動きあり部分画素領域 5 50の画素のうち、 M(x, y)=lである画素、すなわち、動きなし部分画素領域 551に 隣接する(8近傍または 4近傍)画素に注目する。
[0186] そして、注目した画素に隣接した M(x, y)=lである画素の画像差分 d(x, y)の平 均を算出する。この平均値を、注目する画素の位置 (X, y)における画像差分 d(x, y )の初期値として設定する。
[0187] 具体的処理について、図 14を参照して説明する。例えば図 14に示すような動きあ り部分画素領域 550と動きなし部分画素領域 551を持つ画像の場合、動きあり部分 画素領域 550中、動きなし部分画素領域 551に隣接する画素 581の画像差分 d(x, y)の初期値は、画素 581に隣接する動きなし部分画素領域 551の画素 582, 583, 584の平均値として設定される。
[0188] 動きあり部分画素領域 550に含まれる画素中、動きなし部分画素領域 551に隣接 する画素についての初期値が、同様の手法で決定される。次に、初期値が新たに設 定された画素に関してマスク画像 M(x, y)の値を 1に変更する。その後再び、 M(x, y) =0の画素、すなわち動きあり部分画素領域 550に含まれる画素中、 M(x, y)=l である画素に隣接する(8近傍または 4近傍)すべての画素の初期値を設定した後、 新たに初期値が設定された画素に関して M(x, y) =1とする。すなわち、図 14に示 す動きあり部分画素領域 550の周辺部から中央部に向けて、順に動きあり部分画素 領域 550の画像差分 d(x, y)の初期値を決定していく。この処理を、すべての画素が M(x, y) =1になるまで、繰り返し行う。
[0189] この処理により、動きあり部分画素領域 550に含まれるすべての画素の画像差分 d (x, y)の初期値が決定する。この処理が、図 12に示すフローにおけるステップ S502 の処理である。
[0190] 上述の処理により、動きあり部分画素領域 550における画像差分 d (x, y)の初期値 が求まった後、図 12に示すフローにおけるステップ S503の処理を実行する。
[0191] ステップ S503では、画像差分 dの中で動きあり部分画素領域 550の画素のみに対 して、平滑化フィルタを施す。平滑化フィルタとしては、 n X nの正方形の近傍に含ま れる画素値を平均する移動平均フィルタなどを用いればよい。この平滑化処理により 、動きなし部分画素領域 551の画像差分 dの値は固定されたまま、動きあり部分画素 領域 550の画像差分 dの値のみが滑らかにつながるような効果を得ることが出来る。
[0192] なお、このステップ S503で実行する平滑化処理において、平滑化フィルタによって 、各画素において画像差分 d (x, y)の各色成分がどのように変化したかチェックし、 画像差分 d (x, y)の各色成分の変化の最大値 (画素値変化最大値)をメモリに保存 する。
[0193] 次にステップ S504において、ステップ S502の平滑化処理において保存した画像 差分 d (x, y)の各色成分の変化の最大値 (画素値変化最大値)が、あらかじめ定め た閾値より大きいかどうかを判定し、小さかった場合はステップ S506に進み、平滑化 処理を完了する。
[0194] テツプ S502の平滑化処理にぉレ、て保存した画像差分 d (X, y)の各色成分の変化 の最大値(画素値変化最大値)力 あらかじめ定めた閾値より大きい場合は、まだ、 動きあり部分画素領域 550の画像差分 dが滑らかに補間されていないと判断し、ステ ップ S505に進む。
[0195] ステップ S505では、これまで、平滑化フィルタを画像差分 dの動きあり部分画素領 域 550の画素に施した回数力 あら力、じめ定めた閾値より大きいかどうかを判定し、 大きかった場合は、ステップ S506に進む。小さかった場合は、ステップ 503に戻り、 再び、平滑化フィルタを施し、動きあり部分画素領域 550の平滑化処理を再度、実行 する。
[0196] なお、平滑化フィルタを画像差分 dの動きあり部分画素領域 550の画素に施した回 数が、あらかじめ定めた閾値より大きい場合は、繰り返し実行しても画像差分 dの変 化が得られないため、所定の平滑処理の最大実行回数を予め閾値として定め、この 閾値に達した場合は、その時点で平滑化処理は終了させて、次のステップに進む。
[0197] ステップ S506では、上述の平滑化処理において求めた動きあり部分画素領域 55 0における画像差分 dを、推定された画像差分 d563として決定する。すなわち図 13 ( b)に示す動きあり部分画素領域 550における推定された画像差分 d563として決定 する。
[0198] 次に、ステップ S507においては、上述の処理により算出された画像差分 dとフラッ シュあり撮影画像 Iを用いて、動きあり部分画素領域 550の最終的なホワイトバランス
2
調整画像 Rを生成する。
[0199] すなわち、図 13に示す(c)の動きあり部分画素領域 550の最終的なホワイトバラン ス調整画像 Rを生成する。図 13 (a)に示す動きあり部分画素領域 550におけるフラッ シュ光あり撮影画像 I 561の値に対して、図 13 (b)に示す動きあり部分画素領域 55
2
0における推定された画像差分 d563を加算した結果を、動きあり部分画素領域 550 における最終的なホワイトバランス調整画像 R564として設定する。
[0200] 上述した処理例は、前述した式 (式 21)に従って求めたホワイトバランス調整画像 R と、フラッシュ光あり撮影画像 Iの各画素値の画像差分 dを用いた例であるが、前述し
2
た式 (式 22)に従って求めたホワイトバランス調整画像尺と、フラッシュ光あり撮影画像 Iの各画素値の画像比率 dを用いた場合は、ステップ S507では、動きあり画素領域
2
550における画像比率 dとフラッシュ光あり撮影画像 Iの各画素の要素同士を乗算し
2
、最終的なホワイトバランス調整画像 Rを生成する。
[0201] 上述した処理によって、最終的な出力画像 Rを生成することが出来る。
[0202] 図 15を参照して、本実施例における動き部分補正画素値算出部の構成について 説明する。
[0203] 本実施例における動き部分補正画素値算出部は、先の実施例 1において説明した 図 8における動き部分補正画素値算出部 310、あるいは、図 10における動き部分補 正画素値算出部 409に対応して設定される。
[0204] 図 15の構成について説明する。動き部分補正画素値算出部 710は、画像差分 (画 像比率)算出部 711、動きあり画素領域画像差分 (画像比率) d初期値算出部 712、 平滑化処理部 713、および動き部分最終補正画素値算出部 714を有する。
[0205] 画像差分 (画像比率)算出部 711は、動きなし部分画素領域ホワイトバランス調整 画像 R701と、フラッシュ光あり撮影画像 Iの各画像データを入力し、前述の式 (式 21
2
)または、式 (式 22)に従って、動きなし部分画素領域における画像差分 dまたは、画 像比率 dを算出する。これは、図 13 (a)に示す dに相当する。
[0206] 動きあり画素領域画像差分 (画像比率) d初期値算出部 712は、動きあり画素領域 における画像差分(画像比率) dの初期値を設定する。この処理は、先に図 14を参照 して説明したように、まず、動きあり画素領域における動きなし画素領域に隣接する 部分において、動きなし画素領域の隣接画素の画像差分 (画像比率) dの平均値を 初期値として設定し、順に動きあり画素領域の内側にむかって画像差分 (画像比率) dの初期値を決定する処理を実行する。
[0207] 平滑化処理部 713は、動きあり画素領域画像差分 (画像比率) d初期値算出部 712 におレ、て設定された動きあり画素領域画像差分 (画像比率) dの初期値に基づレ、て、 例えば平滑フィルタ等を適用した平滑化処理を実行し、動きあり画素領域における 画像差分 (画像比率)の推定値 dを決定する。すなわち図 13 (b)に示す動きあり部分 画素領域 550における推定された画像差分 d563として決定する。
[0208] 動き部分最終補正画素値算出部 714は、平滑化処理部 713における平滑化され た画像差分 (画像比率)の推定値 dと、フラッシュ光あり撮影画像 Iを入力し、動きあり
2
部分画素領域 550の最終的なホワイトバランス調整画像 Rを生成する。すなわち、図 13 (c)の動きあり部分画素領域 550の最終的なホワイトバランス調整画像 Rを生成す る。
[0209] 図 13 (a)に示す動きあり部分画素領域 550におけるフラッシュ光あり撮影画像 I 56
2
1の値に対して、図 13 (b)に示す動きあり部分画素領域 550における推定された画 像差分 d563を加算した結果を、動きあり部分画素領域 550における最終的なホワイ トバランス調整画像 R564として設定し出力する。
[0210] 式 (式 22)に従って求めたホワイトバランス調整画像 Rと、フラッシュ光あり撮影画像 I
の各画素値の画像比率 dを用いた場合は、ステップ S507では、動きあり画素領域 5
2
50における画像比率 dとフラッシュ光あり撮影画像 Iの各画素の要素同士を乗算し、 最終的なホワイトバランス調整画像 Rを生成して出力する。
[0211] 上述したように、本実施例の画素値補正処理によれば、平滑化フィルタを適用した 簡単な処理により、動きあり部分画素領域の適切な色変換を行うことが出来る。
[0212] なお、本実施例では、ホワイトバランス調整処理として実行する例について説明した が、ここで説明した手法は、ホワイトバランス調整処理のみならず一般的なデータ処 理の問題を解くのに用レ、ることが出来る。
[0213] すなわち、図 13に示すように、あるデータがある領域(図 13の領域 551)において、 確定(図 13中のデータ 560)しており、それ以外の領域(図 13の 550)において、デ ータを確定させたい場合について、本発明の処理が有効である。
[0214] 図 13に示す領域 550で示される領域と、それに隣接するデータ領域 551において
、参照データ 561が与えられているとする。このとき、参照データ 561の特徴(画像で 言えばテクスチャ)と同じ特徴を有する補間データ(図 13の補間データ 564)を作成 できる。
[0215] このデータ処理は上述した実施例における画像テータのホワイトバランス調整処理 のみならず、一般的なデータ処理においても適用可能である。即ち、本発明は、ホヮ イトバランス調整の問題に限定されるものではない。
実施例 3
[0216] 次に、本発明の実施例 3として、上述したと同様、外光とフラッシュ光が混在する環 境下における撮影の最適なホワイトバランス調整処理を実行する画像処理方法、お よび画像処理装置において、図 2のフローにおけるステップ S111の処理、すなわち 、動き部分の画素値補正処理方法として実施例 1および実施例 2の手法と異なる手 法を採用した構成について説明する。
[0217] 実施例 1では、 2枚のフラッシュ発光なし画像の差分から、被写体の動き部分を検 出し、動き部分に含まれる画素に関して、フラッシュ光反射成分の外光反射成分に 対する比率を、動き部分以外の画素におけるデータから、放射基底関数を用いて、 補間処理を行う構成について説明した。また実施例 2では、平滑化フィルタを用いて 簡易化した処理により、動き部分の画素値補正を行なう構成を説明した。
[0218] 本実施例 3は、フラッシュ光あり撮影画像 Iの画像データに応じて動的に重みを決 定したフィルタを設定し、設定したフィルタ用いて動きあり画素の画素値補正を行なう 構成例である。
[0219] 実施例 3の画像処理装置は、先に図 1を参照して説明した構成と同様の構成を有し 、実施例 3におけるフラッシュ光あり撮影画像 Iの画像データに応じたフィルタの設定
2
処理
およびフィルタを適用した画素値補正処理は、デジタル信号処理部(DSP) 106にお いて実行される。以下、本実施例 3に係る画像処理の詳細について説明する。
[0220] 画像処理は、 DSP106内部において、入力された画像信号のストリームに対して演 算ユニットが所定のプログラムコードに記述された演算を順次実行するようにして実 現される。以降の説明では、そのプログラム中の各処理が実行される順序をフローチ ヤートで説明する。し力 ながら、本発明は本実施例で説明するようなプログラムとレ、 う形態以外にも、以降で説明する機能と同等の処理を実現するハードウェア回路を 実装して構成してもよい。
[0221] 本実施例におけるホワイトバランス (WB)補正処理の手順の基本的なシーケンスは 、上述した実施例 1、実施例 2と同様、図 2に示すフローチャートに従った処理である 。すなわち、フラッシュ発光なし、あり、なしの順序で 3枚の画像を連続撮影し、これら の画像に基づいてホワイトバランス調整を行う。
[0222] 本実施例においては、図 2に示すステップ S111の動き部分の画素値補正処理を 効率的にかつ高精度に実行可能としたものである。図 2に示すステップ S110で上述 した複数画像に基づくホワイトバランス調整処理が行われる場合は、被写体自体の 動きに起因する像ぶれがあると判定され、その像ぶれについての補正が可能と判定 された場合であり、ステップ S110で生成したホワイトバランス調整画像 R中、被写体 自体の動きに起因する像ぶれの画像領域、すなわち動き部分領域については、ステ ップ S111において画素値補正処理を実行する。すなわち、ステップ S107で検出し た動き部分の画素値に対して例外処理を行い、ホワイトバランス調整画像 Rを修正す る。修正処理は、例えば、動きが検出された部分に対応するフラッシュ発光あり撮影 画像データ Iの画素値を入力として、ホワイトバランス調整画像 Rにおける動きが無か
2
つた部分の画素値を参照して、動きが検出された部分の画素値を決定し、最終的な 画像を合成する。
[0223] 本実施例に従った画素値補正処理の詳細について、以下説明する。
[0224] 先の実施例においても説明したように、図 2のステップ S107において実行される動 き検出処理の結果として取得されるデータは、図 16に示す模式図に相当するデータ となる。
[0225] 図 16において、図 2に示すフローのステップ S107において動いていると判定され た部分が動きあり部分画素領域 550、動いていないと判定された部分が動きなし部 分画素領域 551である。
[0226] なお、先に図 3を参照して説明したステップ S204で得られた画像、すなわちホワイ トバランス調整画像 Rの動きなし部分画素領域 551の構成画素は、図 2に示すステツ プ S103、 S104において、フラッシュ光ありで撮影し、メモリに格納した画像 Iに対し
2 てフラッシュ光と外光の色の違いが軽減されるように正しく色変換が施されたものであ ると言える。一方、ホワイトバランス調整画像 Rの動きあり部分画素領域 550の構成画 素については、被写体の動きが画素値に影響を及ぼしているので、正しく色変換が なされてレ、ない可能性が高レ、と言える。
[0227] そこで、動きあり部分画素領域 550の画素に関しては、フラッシュ光あり撮影画像 I
2 に直接色変換を施し、最終的なホワイトバランス調整画像 Rを求める処理を行う。
[0228] 実施例 1では、図 1に示すステップ S111の処理、すなわち、ホワイトバランス調整画 像 Rにおける動き部分の画素値補正処理を図 6に示す処理フローに従って、放射基 底関数を用いた補間処理として実行した。また、実施例 2では、図 12に示す処理フロ 一に従って平滑フィルタを用いた補正処理を実行した。
[0229] 本実施例では、実施例 1、実施例 2とは異なるシーケンスでホワイトバランス調整画 像 Rにおける動き部分の画素値補正処理を実行する。本実施例 3に係る動き部分の 画素値補正処理のシーケンスについて、図 16に示すフローチャートを参照して説明 する。
[0230] 図 16は、図 2に示すステップ S111の処理、すなわち、ホワイトバランス調整画像 R における動き部分の画素値補正処理を本実施例 3に従って実行する場合の詳細シ 一ケンスを示すフローチャートである。各ステップの処理について説明する。 [0231] まずステップ S601において、図 2に示すステップ SI 10、すなわち、図 3の処理フロ 一に従って生成したホワイトバランス調整画像 Rと、図 2に示すステップ S103、 S104 において、フラッシュ光ありで撮影し、メモリに格納した画像 Iを用いて、以下に示す
2
式 (式 31)に基づき、画像差分 dを求める。
d(x, y)=R(x, y)-I (x, y)
2
…(式 31)
[0232] ここで、 d (x, y), R (x, y) , I (x, y)はすべて、画素位置(x, y)における画像の色
2
に対応したベクトノレであり、上記式はベクトル計算として実行される。
[0233] 上記式 (式 31)においては、ホワイトバランス調整画像 Rと、フラッシュ光あり撮影画 像 Iの各画素値の画像差分 dを求めているが、ホワイトバランス調整画像 Rと、フラッ
2
シュ光あり撮影画像 Iの各画素値の差分の変わりにホワイトバランス調整画像 と、フ
2
ラッシュ光あり撮影画像 Iの各画素値の比率、すなわち下記式 (式 32)のように、画
2
像比率 dを算出して適用してもよい。
d(x, y)=R(x, y)/(l (x, y)+e)
2
…(式 32)
[0234] 上記式(式 32)において、 eは十分に小さな固定の値を各要素に設定したベクトル、 例えば floor valueである。 (式 32)の記号〃/"は、ベタトノレの各要素をそれぞれ除 算し、その結果をベクトルの各要素とする演算である。 eは、 I (X, y)の要素が 0にな
2
つた場合に、 d(x, y)を計算できなくなるのを防ぐ目的で使われる。
[0235] いま、ホワイトバランス調整画像 Rと、フラッシュ光あり撮影画像 Iの画像差分または
2
画像比率 d(x, y)が画像全体に渡って正しく求まれば、フラッシュ光あり撮影画像 I
2 を基準として、最終的なホワイトバランス調整画像 Rを算出できる。すなわち、 R(x, y )=d(x, y)+I (x, y)あるいは、 R(x, y) = (I (x, y)+e) *d(x, y)として算出する
2 2
こと力 sできる。ここで、記号〃*"は、ベクトルの各要素を乗算し、結果をベクトルの各要 素とする演算である。
[0236] しかし、動きあり部分画素領域 550に関しては、動き画像として現れている可能性 があるので、上記式 (式 31)または(式 32)によって算出される画像差分または画像 比率 d(x, y)をそのまま適用すると、最適な色味を実現することができない。 [0237] そこで、本実施例においては、動きあり部分画素領域 550に関しての最終補正画 素値、すなわち最終的なホワイトバランス調整画像 Rを動きなし部分画素領域 551の 領域において求めた画像差分または画像比率 d (x, y)を用いて補間することにより 算出する。こうして推定された画像差分または画像比率 d (x, y)を用いて動きあり部 分 550の画素値補正を行なう。
[0238] 本手法によれば、動きあり部分画素領域 550においても、動きあり部分画素領域 5 50のフラッシュ光あり撮影画像 Iのテクスチャを保持しつつ、色味を、最終的なホワイ
2
トバランス調整画像 Rと同じにしたような画像を生成することが出来る。
[0239] 図 18は、上述の(式 31)、すなわち、ホワイトバランス調整画像 Rと、フラッシュ光あり 撮影画像 Iの各画素値の画像差分 dの算出式を用いて、動きあり部分画素領域 550
2
に関しての最終補正画素値を求める補間処理を説明する図である。
[0240] 図 18においては、説明を分かりやすくするため、データが 1次元上に並んでいるも のとして、その処理を説明するが、実際は、 2次元平面において処理が実行される。 図 18 (a)—(c)とも、横軸が画素位置を示し、縦軸が画素値 (輝度または R, G, B値) を示している。
[0241] 図 18 (a)は、動きなし部分画素領域 551および、動きあり部分画素領域 550におけ るホワイトバランス調整画像 R860と、フラッシュ光あり撮影画像 I 861の画素値推移
2
を示している。
[0242] 図 18 (b)は、動きなし部分画素領域 551において、動きあり部分画素領域 550に 近接する部分の画像差分 dの値 862を示している。すなわち、上述の(式 31)を適用 して算出されるホワイトバランス調整画像 Rと、フラッシュ光あり撮影画像 Iの各画素
2 値の画像差分 dの値 862を示してレ、る。
[0243] さらに、図 18 (b)に示す動きあり画素領域 550に示す点線は、動きあり部分画素領 域 550に近接する動きなし部分画素領域 551の画像差分 d値 862aおよび画像差分 d値 862bに基づいて推測された値、すなわち、動きなし部分画素領域 551の画像差 分 dの値 862a, 862bを滑らかに補間することにより得られる動きあり部分画素領域 5 50における画像差分 dの推測値 863を示している。
[0244] 動きあり部分画素領域 550における画像差分 dの推測値 863は、 (1)初期画像差分 dの設定ステップ、
(2)フラッシュ光あり撮影画像 Iの画像データに応じて動的に重みを決定したフィル
2
タを適用した初期画像差分 dの補正ステップ、
これら(1)と(2)のステップを実行することによって決定される推測値である。この動 きあり部分画素領域 550における画像差分 dの推測値 863の算出処理手法につい ては後述する。
[0245] 図 18 (c)は、図 18 (a)に示す動きあり部分画素領域 550におけるフラッシュ光あり 撮影画像 I 861の値に対して、図 18 (b)に示す動きあり部分画素領域 550における
2
推定された画像差分 d863を加算した結果を、動きあり部分画素領域 550における 最終的なホワイトバランス調整画像 R864として点線で示した図である。
[0246] この図 18 (c)の動きあり部分画素領域 550に点線で示すホワイトバランス調整画像 R864と、動きなし部分画素領域 551におけるホワイトバランス調整画像 R860とが最 終的なホワイトバランス調整画像 Rとして出力される。最終出力画像は、図 18 (c)に 示す動きあり部分画素領域 550に点線で示すホワイトバランス調整画像 R864と動き なし部分画素領域 551におけるホワイトバランス調整画像 R860と滑らかに接続され た画像となる。さらに、この出力画像は、動きあり部分画素領域 550におけるフラッシ ュ光あり撮影画像 I 861のテクスチャを保持したものとなる。
2
[0247] なお、 d (x, y)として、上述の式(式 31)による画像差分 dではなぐ上述の式(式 32 )を用いた画像比率 dを適用した場合も、上述の方法と同様の補正方法が実行可能 である。すなわち、図 18 (b)に示す画像差分 dの代わりに画像比率 dを用い、図 18 (b )に示す動きなし部分画素領域 551に示す点線と同様、画像比率 dの値を、動きあり 部分画素領域 550において滑らかに補間することにより動きあり部分画素領域 550 における画像比率 dの推測値を算出し、そののち、画像比率 dを、動きあり部分画素 領域 550におけるフラッシュ光あり撮影画像 I 861の画素に掛け合わせる、すなわち
2
加算処理ではなく乗算処理を行なうことにより、動きあり部分画素領域 550のホワイト バランス調整画像 Rを算出することが出来る。
[0248] 次に、ホワイトバランス調整画像 Rと、フラッシュ光あり撮影画像 Iの各画素値の画
2
像差分または画像比率 dを適用した補間方法の詳細について述べる。 [0249] 上述したように、動きあり部分画素領域 550における画像差分 dの推測値 863は、
(1)初期画像差分 dの設定ステップ、
(2)フラッシュ光あり撮影画像 Iの画像データに応じて動的に重みを決定したフィル
2
タを適用した初期画像差分 dの補正ステップ、
これら(1)と(2)のステップを実行することによって決定される。
まず、(1)動きあり部分画素領域 550における画像差分 dの初期値の設定処理に ついて説明する。
[0250] 図 17に示すフローにおけるステップ S601の実行の後、ステップ S602において、 動きあり部分画素領域 550の各画素における画像差分または画像比率 d (x, y)の初 期値を求める。なお、以下の説明では、画像差分 d (x, y)を求める方法について説 明する力 画像比率 d (x, y)を求める場合も同様の手法が適用される。
[0251] 最初に、各画素 2値のマスク画像 Mを用意し、動きなし部分画素領域 551の画素( X, y)については、 M (x, y) = lとし、動きあり部分画素領域 550については M (x, y ) = 0とする。
[0252] 画像の各画素を調べ、いま M (x, y) = 0の画素、すなわち動きあり部分画素領域 5 50の画素のうち、 M (x, y) = 1である画素に隣接する画素、すなわち、動きなし部分 画素領域 551に隣接する(8近傍または 4近傍)画素に注目する。
[0253] そして、注目した画素に隣接した M (x, y) = 1である画素の画像差分 d (x, y)の平 均を算出する。この平均値を、注目する画素の位置 (X, y)における画像差分 d (x, y )の初期値として設定する。
[0254] 具体的処理について、図 16を参照して説明する。例えば図 16に示すような動きあ り部分画素領域 550と動きなし部分画素領域 551を持つ画像の場合、動きあり部分 画素領域 550中、動きなし部分画素領域 551に隣接する画素 821の画像差分 d (x, y)の初期値は、画素 821に隣接する動きなし部分画素領域 551の画素 822, 823, 824の平均値として設定される。
[0255] 動きあり部分画素領域 550に含まれる画素中、動きなし部分画素領域 551に隣接 する画素についての初期値が、同様の手法で決定される。次に、初期値が新たに設 定された画素に関してマスク画像 M (x, y)の値を 1に変更する。その後再び、 M (x, y) =0の画素、すなわち動きあり部分画素領域 550に含まれる画素中、 M (x, y) = l である画素に隣接する(8近傍または 4近傍)すべての画素の初期値を設定した後、 新たに初期値が設定された画素に関して M (x, y) = 1とする。すなわち、図 16に示 す動きあり部分画素領域 550の周辺部から中央部に向けて、順に動きあり部分画素 領域 550の画像差分 d (x, y)の初期値を決定していく。この処理を、すべての画素が M (x, y) = 1になるまで、繰り返し行う。
[0256] この処理により、動きあり部分画素領域 550に含まれるすべての画素の画像差分 d
(x, y)の初期値が決定する。この処理が、図 17に示すフローにおけるステップ S602 の処理である。
[0257] 上述の処理により、動きあり部分画素領域 550における画像差分 d (x, y)の初期値 が求まった後、図 16に示すフローにおけるステップ S603— S606の処理を実行する 。この処理が、前述した
(2)フラッシュ光あり撮影画像 Iの画像データに応じて動的に重みを決定したフィル
2
タを適用した初期画像差分 dの補正ステップ、
の処理である。
[0258] ステップ S603では、画像差分 dの中で動きあり部分画素領域 550の画素のみに対 してフィルタによるフィルタリング処理によって初期画像差分 dの補正値 d'を算出する
[0259] 本実施例において、初期画像差分 dの補正値 d'を算出するフィルタリング処理に適 用するフィルタは、実施例 2で適用した平滑フィルタではなぐフラッシュ光あり撮影画 像 Iの
2 画像データに応じて動的に重みを決定したフィルタである。
[0260] 例えば、動きあり部分画素領域 550における画素位置 (x, y)の画像差分 d (x, y) の値を 1回の画素値補正処理に相当するフィルタリング処理によって更新画素値を 求める算出式として、以下の式を適用する。
[数 14] ' c )=^^ ^^ {w(l" " ', c ('.
. · . . (式 3 3 )
[0261] 上記式(式 33)におレ、て、 d (X. V, ch)、 I (x, y, ch)は、画素位置(x, y)の各チヤ
2
ンネル [ch]の差分画像 dならびに、フラッシュ光あり撮影画像 Iの画素値である。チ
2
ヤンネルとは、カラー画像である場合の各チャンネル、具体的には、赤、緑、青 (RGB )各チャンネルを意味する。また、 d' (x, y, ch)は、画素位置 (x, y)におけるチャンネ ル [ch]の差分画像 dの新しレ、画素値、すなわち更新画素値である。
[0262] また、上記式(式 33)の i, jは、画素位置 (X, y)の画素差分値 dの更新値 d'を算出 するために適用する参照画素の位置を示している。 i, jの値の範囲は、 X— k≤i≤x + k、 y_k≤j≤y + kである。ここで、 kは自然数であり、 kとして 1から 3程度の比較的小 さな値を設定する。
[0263] k= lとした場合は、画素位置 (X, y)の画素差分値 dの更新値 d'を算出するために 適用する参照画素が、画素位置 (X, y)の隣接画素のみとなり、 k= 3とした場合は、 画素位置 (x, y)の画素差分値 dの更新値 d'を算出するために適用する参照画素が 、画素位置 (X, y)の周囲の左右および上下各方向の 3画素を含む領域として設定さ れることになる。 kの値は予め定めた値を適用する。
[0264] 上記式 (式 33)において、関数 w (x)は、重み付け関数であり、例えば、下記式 (式
34)によって示される関数が適用される。
[数 15]
Figure imgf000053_0001
(式 3 4 )
[0265] 上記式(式 34)において、 σはパラメータであり、あらかじめ設定された値を用いる。
[0266] 動きあり部分画素領域 550における画素位置 (X, y)の画像差分 d (x, y)の値を、 上記式 (式 34)示す重み付け関数 w (x)を用いて、上記式 (式 33)によって算出する。
[0267] なお、図 17のフローに示すように、上記式 (式 33)を適用した動きあり部分画素領 域 550における画素位置 (X, y)の画像差分 d (x, y)の値更新処理、すなわち、フィ ルタリング処理は、所定条件 (ステップ S604または S605で規定する条件)を満足す るまで、繰り返し実行する。すなわち、上記式 (式 33)を適用した算出した更新画素 値 d' (x, y, ch)を、次のフイノレタリング処理 ίこおレヽて、式(式 33)の d (x, y, ch)のィ直 として設定し、新たな更新画素値 d' (x, y, ch)を算出する処理を繰り返し実行する。
[0268] 上記式 (式 33)による画素値更新 (フィルタリング処理)を繰り返し実行して、動きあ り部分画素領域 550における画素位置 (x, y)の画像差分 d (x, y)の値を補正するこ とで、動きなし部分画素領域 551の画像差分 d (x, y)の値を変更することなぐ動きあ り部分画素領域 550の画素位置 (X, y)の画像差分 d (x, y)の値が補正され、動きあ り部分画素領域 550の画素位置 (X, y)の画像差分 d (x, y)の値がフラッシュ光あり 撮影画像 I 861のテクスチャ、エッジに従って平滑化されるような効果を得ることが出
2
来る。
[0269] このフィルタリング処理において、動きあり部分画素領域 550の画素位置(X, y)の 画像差分 d (x, y)の値の各色成分 (各チャンネル)がどのように変化したかチェックし 、その最大値を保存する。 [0270] 図 17のフローにおけるステップ S604では、上記式(式 33)による画素値更新(フィ ルタリング処理)によって、画像差分 d (x, y)の値の各色成分 (各チャンネル)の変化 量の最大値と、あら力じめ定めた閾値との比較を実行する。すなわち、 1回あたりのフ ィルタリング処理 (式 33による画素値更新処理)によって得られた更新値 d'と更新前 の画素値 dとの差分 dし dが、あらかじめ定めた閾値より小さい場合は、フィルタリング 処理 (式 33による画素値更新処理)を繰り返し実行しても画素値の変更量が小さぐ 処理を継続する効果が小さいと判断して式 33による画素値更新処理を終了してステ ップ S606に進む。
[0271] すなわち、ステップ S604において、
画素値変化量最大値 >閾値
が成立しないと判定した場合は、ステップ S606に進み、動きあり部分画素領域 55 0に対する画像差分 (画像比率) d推定値を決定する処理を実行する。
[0272] ステップ S604において、
画素値変化量最大値 >閾値
が成立すると判定した場合は、まだ、動きあり部分画素領域 550の画素位置 (X, y) の画像差分 d (x, y)が滑らかに補正されていないと判断し、ステップ S605に進む。
[0273] ステップ S605では、ステップ S603において上記式(式 33)を適用して実行した画 素値更新処理 (フィルタリング処理)の実行回数力 あらかじめ定めた閾値回数より大 きいかどうかを判定し、
画素値更新処理 (フィルタリング処理)実行回数 >閾値回数
が成立する場合は、ステップ S606に進む。
[0274] 画素値更新処理 (フィルタリング処理)実行回数 >閾値回数
が成立しない場合は、ステップ S603に戻り、上記式 (式 33)に従った、動きあり部 分画素領域 550の画素位置 (X, y)の画像差分 d (x, y)の補正処理(フィルタリング 処理)を繰り返し実行する。
[0275] ステップ S604において、画素値変化量最大値 >閾値が成立しないと判定されるか 、あるいは、ステップ S605において、画素値更新処理(フィルタリング処理)実行回 数 >閾値回数が成立すると判定された場合、上記式 (式 33)に従った、動きあり部分 画素領域 550の画素位置(x, y)の画像差分 d (x, y)の補正処理(フィルタリング処 理)を完了し、ステップ S606に進み、動きあり部分画素領域 550に対する画像差分( 画像比率) dの推定値を決定する処理を実行する。
[0276] ステップ S606では、上述のフィルタリング処理において求めた動きあり部分画素領 域 550における画像差分 dを、推定された画像差分 dとして決定する。この処理ステツ プによって算出された動きあり部分画素領域 550の画素位置 (X, y)の画像差分 d (x , y)が、図 18 (b)に示す動きあり部分画素領域 550における推定された画像差分 d8 63に相当する。
[0277] 次に、ステップ S607におレ、て、上述の式(式 33)を適用したフィルタリング処理によ り算出された動きあり部分画素領域 550の画素位置 (X, y)の画像差分 d (x, y)の値 (図 18 (b)に示す画像差分 d863)と、フラッシュ光あり撮影画像 I (図 18 (a)に示すフ
2
ラッシュ光あり撮影画像 I 861)との加算処理を実行して動きあり部分画素領域 550
2
におけるホワイトバランス調整画像 Rを生成する。すなわち、
R = I + d
2
により動きあり部分画素領域 550におけるホワイトバランス調整画像 Rの画素値を算 出する。
[0278] この結果が、図 18 (c)の動きあり部分画素領域 550に点線で示すホワイトバランス 調整画像 R864である。最終的な補正画像、すなわちホワイトバランス調整画像 Rは 、動きなし部分画素領域 551におけるホワイトバランス調整画像 R860と、動きあり部 分画素領域 550に点線で示すホワイトバランス調整画像 R864の連結画像である。
[0279] 最終ホワイトバランス調整画像 Rは、図 18 (c)に示すように、動きあり部分画素領域
550に点線で示すホワイトバランス調整画像 R864と動きなし部分画素領域 551にお けるホワイトバランス調整画像 R860と滑らかに接続された画像となる。さらに、この出 力画像は、動きあり部分画素領域 550におけるフラッシュ光あり撮影画像 I 861のテ
2 タスチヤを保持したものとなる。
[0280] なお、前述したように、上述の式(式 31)による画像差分 dではなぐ上述の式(式 3 2)を用いた画像比率 dを適用した場合も、上述の方法と同様の補正方法が実行可能 であり、この場合は、ステップ S607において、画像比率 dを適用したフィルタリング処 理により算出された動きあり部分画素領域 550の画素位置 (x, y)の画像比率 d (x, y )の値と、フラッシュ光あり撮影画像 Iとの
2 乗算処理を実行して動きあり部分画素領域
550におけるホワイトバランス調整画像 Rを生成する。すなわち、
R=I X d
2
により動きあり部分画素領域 550におけるホワイトバランス調整画像 Rの画素値を算 出する。
[0281] すなわち、図 18 (b)に示す画像差分 dの代わりに画像比率 dを用レ、、図 18 (b)に示 す動きなし部分画素領域 551に示す点線と同様、画像比率 dの値を、動きあり部分 画素領域 550において滑らかに補間することにより動きあり部分画素領域 550にお ける画像比率 dの推測値を算出し、そののち、画像比率 dを、動きあり部分画素領域 5 50におけるフラッシュ光あり撮影画像 I 861の画素に乗算して動きあり部分画素領域
2
550のホワイトバランス調整画像 Rを算出することが出来る。
[0282] 次に、図 19を参照して、本実施例における動き部分補正画素値算出部の構成に ついて説明する。
[0283] 本実施例における動き部分補正画素値算出部は、先の実施例 1において説明した 図 8における動き部分補正画素値算出部 310、あるいは、図 10における動き部分補 正画素値算出部 409に対応して設定される。
[0284] 図 19の構成について説明する。動き部分補正画素値算出部 910は、画像差分 (画 像比率)算出部 911、動きあり画素領域画像差分 (画像比率) d初期値算出部 912、 フィルタ処理部 913、および動き部分最終補正画素値算出部 914を有する。
[0285] 画像差分 (画像比率)算出部 911は、動きなし部分画素領域ホワイトバランス調整 画像 R901と、フラッシュ光あり撮影画像 I格納フレームメモリ 902に格納されたフラッ
2
シュ光あり撮影画像 Iの各画像データを入力し、前述の式 (式 31)または、式 (式 32)
2
に従って、動きなし部分画素領域における画像差分 dまたは、画像比率 dを算出する 。これは、図 18 (b)に示す動きなし部分画素領域 551における画像差分 d862に相 当する。
[0286] 動きあり画素領域画像差分 (画像比率) d初期値算出部 912は、動きあり画素領域 における画像差分(画像比率) dの初期値を設定する。この処理は、先に図 16を参照 して説明したように、まず、動きあり画素領域における動きなし画素領域に隣接する 部分にぉレ、て、動きなし画素領域の隣接画素の画像差分(画像比率) dの平均値を 初期値として設定し、順に動きあり画素領域の内側にむかって画像差分 (画像比率) dの初期値を決定する処理を実行する。
[0287] フィルタ処理部 913は、動きあり画素領域画像差分 (画像比率) d初期値算出部 91 2において設定された動きあり画素領域画像差分 (画像比率) dの初期値を、前述の 式(式 33)に従って更新するフィルタリング処理を実行する。このフィルタリング処理 はフラッシュ光あり撮影画像 Iに基づいて生成したフィルタによるフィルタ処理、すな
2
わち、前述の式(式 33)に従って更新するフィルタリング処理である。
[0288] フィルタ処理部 913は、図 17に示すフローを参照して説明したように、 1回のフィル タリング処理による画素値の最大変化が予め定めた閾値より小さレ、か、またはフィノレ タリング処理回数力 予め定めた閾値回数より多くなつたことを条件として、式 (式 33) を適用したフィルタリング処理を終了して動きあり画素領域における画像差分(画像 比率)の推定値 dを決定する。すなわち図 18 (b)に示す動きあり部分画素領域 550 における推定された画像差分 d863として決定する。
[0289] 動き部分最終補正画素値算出部 914は、フィルタ処理部 913においてフィルタリン グ処理のなされた画像差分(画像比率)の推定値 dと、画像 I格納フレームメモリ 902
2
力 フラッシュ光あり撮影画像 Iを入力し、動きあり部分画素領域 550の最終的なホ
2
ワイトバランス調整画像 Rを生成する。すなわち、図 18 (c)の動きあり部分画素領域 5 50の最終的なホワイトバランス調整画像 Rを生成する。
[0290] 図 18 (a)に示す動きあり部分画素領域 550におけるフラッシュ光あり撮影画像 I 86
2
1の値に対して、図 18 (b)に示す動きあり部分画素領域 550における推定された画 像差分 d863を加算した結果を、図 18 (c)に示す動きあり部分画素領域 550におけ る最終的なホワイトバランス調整画像 R864として設定し出力する。
[0291] なお、式 (式 32)に従って求めたホワイトバランス調整画像 Rと、フラッシュ光あり撮 影画像 Iの各画素値の画像比率 dを用いた場合は、動きあり画素領域 550における
2
画像比率 dとフラッシュ光あり撮影画像 Iの各画素の要素同士を乗算し、最終的なホ
2
ワイトバランス調整画像 Rを生成して出力する。 [0292] 上述したように、本実施例の画素値補正処理によれば、フィルタを適用した処理に より、動きあり部分画素領域の適切な色変換を行うことが可能となり、動きあり部分画 素領域における補正画素値は、フラッシュ光あり撮影画像 Iのテクスチャを保持した
2
画素値となり、より自然な画像を生成することが可能となる。
[0293] 第 2実施例で適用した平滑フィルタを用いた処理を実行した場合には、オリジナル 画像の画像差分または画像比率に対応した画素値補正が行いにくぐ画像の種類 によっては、エッジ部のぼやけ、色のにじみなどが発生する場合がある力 本実施例 では、第 2の画像、すなわち、フラッシュ光あり撮影画像 Iの画素値を考慮して決定さ
2
れた係数を用いた画素値変換式を式 33に従って設定して、フィルタリング処理を行 なう構成としたので、フラッシュ光あり撮影画像 Iのテクスチャを反映した画素値補正
2
が行なわれることとなり、動きあり領域においてもエッジ部のぼやけ、色のにじみなど が解消され、フラッシュ光あり撮影画像 Iのテクスチャを反映した画像を生成すること
2
が可能となる。
[0294] なお、本実施例では、ホワイトバランス調整処理として実行する例について説明した 力 ここで説明した手法は、ホワイトバランス調整処理以外にも、例えばある画像の一 部分の画素値を変更する画像処理において、別の画像の特徴に似せて変更をした い場合に、本発明は適用できる。つまり、第 2の画像の特徴を用いて決定された係数 を用いた画素値変換式を式 33に従って設定して、フィルタリング処理を行なうことに より、第 1の画像の一部分の画素値を変更することで第 1の画像の色味を保持しつつ 第 2の画像の特徴を持つ画像を生成することが可能となる。
実施例 4
[0295] 上述した実施例 1一実施例 3では、 3枚の画像、すなわちフラッシュなし画像、フラッ シュあり画像、フラッシュなし画像の 3枚の画像を連写して 1つの出力画像を生成する 構成である。上記実施例では、それらの 3枚の画像はすべて同じ解像であると仮定し ている。しかし、例えば数百万画素の解像度を持つ画像を対象とした処理を実行す ることを想定すると、これらの処理を実行するためには、 3枚の画像データを格納する ため、さらには、様々な処理画像データを格納する大容量のメモリが必要となり、画 素数の増大に伴い、実行すべき計算量が膨大になる。 [0296] 図 1に示す装置構成において、固体撮像素子 103として例えば CCD (Charge C oupled Device)を用いた場合、数百万画素の画像を、高速で連写することは難し レ、。ここで、一般的なデジタルカメラにおいては、撮影時に、例えば 30分の 1秒ごとに 、解像度の低い画像を固体撮像素子 103から高速に読み出し、カメラ付属のデイス プレイに随時表示する機能を備えている。
[0297] 本実施例は、このようにして撮像した低解像度の画像を用いることにより、効率よく 高速に、外光とフラッシュ光との色温度の違いを解消することが出来る構成例である
[0298] 本実施例の画像処理装置および撮像装置の構成を示すブロックダイアグラムは図
1と同様であり、その説明は前述と同様であるので、ここでは省略する。
[0299] 図 20は、本実施例の処理手順を説明するフローチャートである。図 20に示すフロ 一チャートの各ステップについて説明する。
[0300] まず、ステップ S701において事前に設定された絞り、シャッタースピードを用いて、 フラッシュ発光なしで撮影し、ステップ S702において、ステップ S701で撮影した画 像に基づく低解像度画像 I をメモリに格納する。ここで、低解像度画像 I は、固体
1L 1L 撮像素子 103 (図 1参照)の本来の撮影画像の解像度より低い解像度の画像である。 撮像された高解像度画像から低解像度である画像 I を生成する方法は、さまざまな
1L
方法が考えられる。例えば、単純に画素を間引く方法、近接する複数の画素の平均 をとつて、ひとつの新しい画素とする方法などがある。前述の通り一般的なデジタル力 メラでは、撮影時に固体撮像素子 103で撮像される画像を、低解像度のディスプレイ に例えば毎秒 30フレームなどの速さで表示する機能が付いており、このときに使わ れる方法をそのまま適用することが可能である。
[0301] ステップ S701で撮影した画像に基づくフラッシュ発光なし低解像度画像 I をメモリ
1L に格納する場合、低解像度画像データの格納処理として実行することになり、メモリ 格納データ量が少ないため、データのメモリ格納処理時間が短縮される。このため、 高速に次のステップに移ることが出来る。
[0302] 次に、ステップ S703においてフラッシュを発光した上で画像を撮影し、ステップ S7 04おいて、ステップ S703で撮影した画像に基づくフラッシュ発光あり高解像度画像 I と、フラッシュ発光あり低解像度画像 I との 2画像をメモリに格納する。ここで、フラ
2H 2L
ッシュ発光あり低解像度画像 I は、フラッシュ発光なし低解像度画像 I と同じ解像
2L 1L
度の低解像度の画像で、前述した方法と同じ方法で求める。フラッシュ発光あり高解 像度画像 I は最終的に出力として得たい解像度を持つ画像で、フラッシュ発光なし
2H
低解像度画像 I やフラッシュ発光あり低解像度画像 I より高解像度の画像である。
1L 2L
[0303] 次に、ステップ S705において、再度フラッシュを発光せずに撮影し、ステップ S706 におレ、て、ステップ S705で撮影した画像に基づくフラッシュ発光なし低解像度画像 I をメモリに格納する。ここで、フラッシュ発光なし低解像度画像 I は、フラッシュ発光
3L 3L
なし低解像度画像 I や、フラッシュ発光あり低解像度画像 I と同じ解像度の低解像
1L 2L
度の画像で、前述した方法と同じ方法で求める。
[0304] 次のステップ S707— S713までの処理は、前記の実施例において説明した図 2の フローチャートのステップ S107 S113と全く同じ処理であるので説明は省略する。
[0305] ただし、 S707— S713までの処理における処理対象画像データは、低解像度画像
、すなわち、フラッシュ発光なし低解像度画像 I と、フラッシュ発光あり低解像度画像
1L
I と、フラッシュ発光なし低解像度画像 I である。これらの低解像度画像に基づいて
2L 3L
ホワイトバランス調整画像 Rを生成する。なお、動き部分については、前述した実施 例 1で説明した Radial Basis Function (放射基底関数)を適用した処理、あるい は実施例 2で説明した平滑フィルタを適用した平滑化処理に基づく処理、あるいは実 施例 3で説明したフラッシュあり撮影画像に基づく重みを設定したフィルタを適用した 処理などにより、補正された画素値が算出されたホワイトバランス調整画像 Rを生成 する。
[0306] 最後にステップ S714において、低解像度画像に基づいて生成したホワイトバラン ス調整画像 Rと、フラッシュ発光あり低解像度画像 I と、フラッシュ発光あり高解像度
2L
画像 I とに基づいて、高解像度の最終画像 R を生成する。
2H H
[0307] まず、フラッシュ発光あり高解像度画像 I の各画素 I (x, y)に対して、それに対
2H 2H
応するフラッシュ発光あり低解像度画像 I と、ホワイトバランス調整画像 Rの位置 (χ'
2L
, y')における、画素位置 I (χ', y')、 R (x', y')の画素値を求める。
2L
[0308] なお、 x'と y'は、整数になるとは限らない。 (χ', y')における画素値を求める方法と しては、 Nearest Neighbor法、 bilinear法、 bicubic法など、一般に広く用いられ てレ、る画像補間手法を用レ、る。
[0309] 次に、低解像度画像に基づいて生成したホワイトバランス調整画像 Rの画素 R (x', y')の画素値に対するフラッシュ発光あり低解像度画像 I の対応画素 I (x'
2L 2L ,y' )の 画素値の比を求める。
[0310] この低解像度画像データに基づく画素値比:
R (x',y,):I (x', y' )に対応させて、
2L
高解像度画像データに基づく画素値比:
R (X, y) : 1 (x, y)を設定する。
H 2H
ここで、フラッシュ発光あり高解像度画像 I の各画素値は既知であるので、画素 I
2H 2H
(x, y)と、低解像度画像データに基づく画素値比: R (x', y' ) : 1 (χ' , y' )とを乗算す
2L
ることにより、高解像度の最終画像 R の画素 R (x
H H ,y)を算出する。
[0311] これを、すべてのフラッシュ発光あり高解像度画像 I の画素に関して計算し、最終
2H
的な高解像度ホワイトバランス調整画像 R を生成する。すなわち、低解像度の画像
H
上において、フラッシュ発光あり低解像度画像 I をホワイトバランス調整画像 Rに変
2L
換する場合の変換情報を取得し、この変換情報に基づいて、高解像度画像、すなわ ち、フラッシュ発光あり高解像度画像 I の各画素値の変換処理を実行して、高解像
2H
度ホワイトバランス調整画像 R を生成する。
H
[0312] この処理方法によれば、ステップ S707— S713までの処理における処理対象画像 データは、低解像度画像、すなわち、フラッシュ発光なし低解像度画像 I と、フラッシ
1L ュ発光あり低解像度画像 I と、フラッシュ発光なし低解像度画像 I であり、低解像度
2L 3L
画像に基づくホワイトバランス調整画像 Rの生成処理として実行されることになり、画 素数が少なく計算量が少なくて済み、高速な処理が可能となる。動き部分の補正処 理においても、前述した実施例 1で説明した Radial Basis Function (放射基底関 数)を適用した処理、あるいは実施例 2で説明した平滑フィルタを適用した平滑化処 理に基づく処理、あるいは実施例 3で説明したフラッシュあり撮影画像に基づく重み を設定したフィルタを適用した処理、いずれの処理においても高速処理が可能となる [0313] また、 2つのフラッシュ光なしの撮影画像データは、いずれも低解像度画像データ のみをメモリに格納すればよいので、メモリ容量の少ない装置、機種においても適用 可能となる。
[0314] このように、本実施例の処理は、プロセッサの処理能力が比較的低ぐまたメモリ容 量の小さな機種、装置においても実行可能であり、最終的に得られる画像データを 高解像度のホワイトバランス調整画像データとして出力することが可能となる。
[0315] 以上、特定の実施例を参照しながら、本発明につレ、て詳解してきた。し力 ながら、 本発明の要旨を逸脱しない範囲で当業者が該実施例の修正や代用を成し得ること は自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的 に解釈されるべきではない。本発明の要旨を判断するためには、特許請求の範囲の 欄を参酌すべきである。なお、上述した実施例では、被写体が暗い場合に発光する 照明装置としてフラッシュという用語を用いて説明した力 このほかに、ストロボと呼ば れることもあり、フラッシュに限定されるわけではなぐ一般的に被写体が暗い場合に 発光する照明装置において本発明は適用される。
[0316] また、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、 あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理 を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに 組み込まれたコンピュータ内のメモリにインストールして実行させるカ あるいは、各 種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させること が可能である。
[0317] 例えば、プログラムは記録媒体としてのハードディスクや ROM (Read Only
Memory)に予め記録しておくことができる。あるいは、プログラムはフレキシブルデイス ク、 CD— R〇M(Compact Disc Read Only Memory), MO(Magneto optical)ディスク, DVD(Digital Versatile Disc),磁気ディスク、半導体メモリなどのリムーバブル記録媒 体に、一時的あるいは永続的に格納(記録)しておくことができる。このようなリムーバ ブル記録媒体は、レ、わゆるパッケージソフトウェアとして提供することができる。
[0318] なお、プログラムは、上述したようなリムーバブル記録媒体からコンピュータにインス トールする他、ダウンロードサイトから、コンピュータに無線転送したり、 LAN(Local Area Network),インターネットといったネットワークを介して、コンピュータに有線で転 送し、コンピュータでは、そのようにして転送されてくるプログラムを受信し、内蔵する ハードディスク等の記録媒体にインストールすることができる。
[0319] なお、明細書に記載された各種の処理は、記載に従って時系列に実行されるのみ ならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個 別に実行されてもよい。また、本明細書においてシステムとは、複数の装置の論理的 集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
産業上の利用可能性
[0320] 以上、説明したように、本発明の構成によれば、例えば動きあり領域などの特定領 域の画素値の補正処理を、動きなし領域の画素値、たとえばホワイトバランス調整の なされた画像データと、動きあり領域などの特定領域のフラッシュ発光あり画像デー タとに基づいて、効率的に実行可能であり、ホワイトバランス調整のなされた画像デ ータと滑らかに接続された画像を生成することが可能となるとともに、動きあり領域に おけるフラッシュ発光あり画像データのテクスチャ情報を反映した画像を生成すること ができ、動きのある画像を撮影するデジタルカメラなどに適用できる。
[0321] 本発明の構成によれば、動きあり領域における画素値補正処理において、ホワイト バランス調整のなされた画像データと、フラッシュ発光あり画像データとの差分あるレ、 は比率の初期値を動きあり領域に設定した後、平滑化フィルタによって平滑化し、動 きあり領域における画像差分または画像比率の推定値を算出し、該推定値によって 動きあり領域の画素値補正を実行する構成としたので、計算量の少なレ、高速処理が 実現され、動きのある画像を撮影するデジタルカメラなどに適用できる。
[0322] さらに、本発明の第 3実施例として説明した画素値補正処理によれば、フィルタを適 用した処理により、動きあり部分画素領域の適切な色変換を行うことが可能となり、動 きあり部分画素領域における補正画素値は、フラッシュ光あり撮影画像 Iのテクスチ
2
ャを保持した画素値となり、より自然な画像を生成することが可能となる。平滑フィルタ を用いた処理を実行した場合には、オリジナル画像の画像差分または画像比率に対 応した画素値補正が行いにくぐ画像の種類によっては、エッジ部のぼやけ、色のに じみなどが発生する場合があるが、第 3実施例として説明した画素値補正処理によれ ば、フラッシュ光あり撮影画像 Iの画素値を考慮して決定された係数を用いた画素値
2
変換式に従ったフィルタリング処理を行なう構成としたので、フラッシュ光あり撮影画 像 Iのテクスチャを反映した画素値補正が行なわれることとなり、動きあり領域におい
2
てもエッジ部のぼやけ、色のにじみなどが解消され、フラッシュ光あり撮影画像 Iのテ
2 タスチヤを反映した画像を生成することが可能となる。
[0323] さらに、本発明によれば、低解像度画像を適用したホワイトバランス調整や動きあり 部分の画素値補正を実行した後、補正画像データと低解像度画像データとの対応 関係に基づいて、高解像度補正画像を生成することが可能となり、少ないメモリ量で 、高速な処理が可能となり、最終的に高解像度の補正画像を取得することが可能と なり、メモリ量の制限されたデジタルカメラなどに最適である。
図面の簡単な説明
[0324] [図 1]本発明の画像処理装置の構成を示す図である。
[図 2]本発明の画像処理方法の手順を説明するフローチャートである。
[図 3]本発明の画像処理方法における複数の画像データに基づくホワイトバランス調 整処理の手順を説明するフローチャートである。
[図 4]本発明の画像処理方法における複数の画像データに基づくホワイトバランス調 整処理の原理を説明する図である。
[図 5]本発明の画像処理における複数の画像データに基づく動き部分の検出処理に ついて説明する図である。
[図 6]本発明の画像処理における動き部分の画素値調整処理について説明するフロ 一図である。
[図 7]本発明の画像処理における動き部分の画素値調整処理について説明する図 である。
[図 8]本発明の画像処理における複数の画像データに基づく画素値調整処理を実行 する機構を説明する図である。
[図 9]本発明の画像処理方法における複数の画像データに基づくホワイトバランス調 整処理の手順を説明するフローチャートである。
[図 10]本発明の画像処理における複数の画像データに基づく画素値調整処理を実 行する機構を説明する図である。
園 11]本発明の画像処理における動き部分の画素値調整処理について説明する図 である。
園 12]本発明の第 2実施例における動き部分の画素値調整処理について説明する フロー図である。
園 13]本発明の第 2実施例における動き部分の画素値調整処理について説明する 図である。
園 14]本発明の第 2実施例における動き部分の画素値調整処理において実行する 画像差分 dの初期値設定方法について説明する図である。
園 15]本発明の第 2実施例における動き部分補正画素値算出部の構成および処理 について説明する図である。
[図 16]本発明の第 3実施例における動き部分の画素値調整処理、画像差分 dの初期 値設定方法について説明する図である。
園 17]本発明の第 3実施例における動き部分の画素値調整処理について説明する フロー図である。
園 18]本発明の第 3実施例における動き部分の画素値調整処理について説明する 図である。
園 19]本発明の第 3実施例における動き部分補正画素値算出部の構成および処理 について説明する図である。
園 20]本発明の第 4実施例における処理について説明するフロー図である。
符号の説明
101 レンズ
102 絞り
103 固体撮像素子
104 相関 2重サンプリング回路
105 A/Dコンバータ
106 DSPブロック
107 タイミングジェネレータ 108 D/Aコンバータ
109 ビデオエンコーダ
110 ビデオモニタ
111 コーデック(CODEC)
112 メモリ
113 CPU
114 入力デバイス
115 フラッシュ制御装置
116 フラッシュ発光装置
200 ボール
210 像ぶれの発生領域
250 動きあり部分内周画素
251 動きあり部分外周画素
252 動きあり部分非内周画素
253 動きあり部分非外周画素
254 画素 a
255 aの隣接画素
301, 302, 303 フレームメモリ
304 差分画像算出部
305 ホワイトバランス調整部
306 外光成分推定部
307 ホワイトバランス調整部
308 画素値加算部
309 動き検出部
310 動き部分補正画素値算出部
311 ホワイトバランス調整部
312 出力切り替え部
401 , 402, 403 フレームメモリ 404 差分画像算出部
405 ホワイトバランス調整部
406 画素値加算部
407 ホワイトバランス調整部
408 動き検出部
409 動き部分補正画素値算出部
410 ホワイトバランス調整部
411 出力切り替え部
550 動きあり部分画素領域
551 動きなし部分画素領域
560 ホワイトバランス調整画像 R
561 フラッシュあり画像 I
2
564 ホワイトバランス調整画像 R
581 動きあり部分画素領域の画素
582— 584 動きなし部分画素領域の画素
701 動きなし部分画素領域ホワイトバランス調整画像 R
702 画像 I格納メモリ
2
710 動き部分補正画素値算出部
711 画像差分 (画像比率) d算出部
712 動きあり画素領域画像差分 (画像比率) d初期値設定部
713 平滑化処理部
714 動き部分最終補正画素値算出部
821 動きあり部分画素領域の画素
822-824 動きなし部分画素領域の画素
860 ホワイトバランス調整画像 R
861 フラッシュ光あり撮影画像 I
2
862 動きあり部分画素領域近接部分の画像差分 d
863 動きあり部分画素領域画像差分 d推測値 864 ホワイトバランス調整画像 R
901 動きなし部分画素領域ホワイトバランス調整画像 R
902 画像 I格納メモリ
2
910 動き部分補正画素値算出部
911 画像差分 (画像比率) d算出部
912 動きあり画素領域画像差分 (画像比率) d初期値設定部
913 フィルタ処理部
914 動き部分最終補正画素値算出部

Claims

請求の範囲
[1] 画像処理方法であって、
異なる画素値を持つ第 1画像データと第 2画像データの対応画素値に基づいて画 像差分または画像比率を算出するステップと、
画像データの特定領域において、前記画像差分または画像比率に基づく推定値 を算出する推定値算出ステップと、
前記推定値算出ステップにおいて算出した前記特定領域における画像差分または 画像比率の推定値と、前記第 2画像データとに基づレ、て前記特定領域の補正画像 を生成する補正画像生成ステップと、
を有することを特徴とする画像処理方法。
[2] 前記画像差分 d(x, y)は、
前記第 1画像データの各画素 (x, y)の画素値ベクトルを A (x, y)、前記第 2画像デ ータの対応画素(X, y)の画素値ベクトルを B(x, y)としたとき、
d(x, y)=A(x, y)-B(x, y)
として算出されるベクトルであり、
前記画像比率 d(x, y)は、
d(x, y)=A(x, y)/(B(x, y)+e)
ただし、 eは、固定値、
として算出されるベクトルであることを特徴とする請求項 1に記載の画像処理方法。
[3] 前記第 1画像データは、フラッシュ発光なし撮影画像とフラッシュ発光あり撮影画像 とに基づいて画素値調整の施されたホワイトバランス調整画像 Rであり、前記第 2画 像データは、フラッシュ発光画像 Iであり、前記特定領域は、被写体の動きが検出さ
2
れた動きあり領域であり、
前記画像差分 d(x, y)は、
前記ホワイトバランス調整画像 Rの各画素(X, y)の画素値べクトノレを R(x, y)、前記 フラッシュ発光画像 Iの対応画素(X, y)の画素値ベクトルを I (X, y)としたとき、
2 2
d(x, y)=R(x, y)-I (x, y)
2
として算出されるベクトルであり、 前記画像比率 d (x, y)は、
d (x, y) =R (x, y) / (l (x, y) + e)
2
ただし、 eは、固定値、
として算出されるベクトルであり、
前記補正画像生成ステップは、
前記推定値算出ステップにおいて算出した前記動きあり領域における画像差分ま たは画像比率の推定値と、前記フラッシュ発光画像 Iとに基づいて前記動きあり領域
2
の補正画像を生成するステップであることを特徴とする請求項 1に記載の画像処理方 法。
[4] 前記推定値算出ステップは、
画像データの特定領域において、該特定領域の隣接領域において決定された画 像差分または画像比率に基づいて、特定領域の画像差分または画像比率の初期値 を設定する初期値設定ステップと、
前記初期値設定ステップにおいて設定した初期値に対して平滑フィルタに基づく 平滑処理を実行する平滑処理実行ステップと、
を含むことを特徴とする請求項 1に記載の画像処理方法。
[5] 前記初期値設定ステップは、
初期値設定対象画素の近傍にある画像差分または画像比率設定済み画素に設定 された画像差分または画像比率に基づいて、初期値設定対象画素の初期値を設定 するステップであることを特徴とする請求項 4に記載の画像処理方法。
[6] 前記初期値設定ステップは、
初期値設定対象画素および、画像差分または画像比率設定済み画素の判別のた めに、マスク画像を適用するステップを含むことを特徴とする請求項 5に記載の画像 処理方法。
[7] 前記補正画像生成ステップは、
前記推定値算出ステップにおいて算出した前記特定領域における画像差分または 画像比率の推定値と、前記第 2画像データとに基づいて前記特定領域の補正画像 を生成するステップであり、 画像差分を適用した処理においては、
前記特定領域における前記第 2画像データに対して、前記推定値算出ステップに おいて算出した前記特定領域における画像差分の推定値を加算するステップとして 実行し、
画像比率を適用した処理においては、
前記特定領域における前記第 2画像データに対して、前記推定値算出ステップに おいて算出した前記特定領域における画像比率の推定値を乗算するステップとして 実行することを特徴とする請求項 1に記載の画像処理方法。
[8] 前記第 1画像データは、フラッシュ発光なし撮影画像とフラッシュ発光あり撮影画像 とに基づいて画素値調整の施されたホワイトバランス調整画像 Rであり、前記第 2画 像データは、フラッシュ発光画像 Iであり、前記特定領域は、被写体の動きが検出さ
2
れた動きあり領域であり、
前記補正画像生成ステップは、
画像差分を適用した処理においては、
前記動きあり領域における前記フラッシュ発光画像 Iに対して、前記推定値算出ス
2
テツプにおいて算出した前記特定領域における画像差分の推定値を加算するステツ プとして実行し、
画像比率を適用した処理においては、
前記動きあり領域における前記フラッシュ発光画像 Iに対して、前記推定値算出ス
2
テツプにおいて算出した前記特定領域における画像比率の推定値を乗算するステツ プとして実行することを特徴とする請求項 1に記載の画像処理方法。
[9] 前記推定値算出ステップは、
画像データの特定領域において、該特定領域の隣接領域において決定された画 像差分または画像比率に基づいて、特定領域の画像差分または画像比率の初期値 を設定する初期値設定ステップと、
前記初期値設定ステップにおいて設定した初期値に対して、前記第 2画像データ に基づく重み設定のなされたフィルタを適用したフィルタリング処理に相当する画素 値変換式に従った画素値変換処理を実行して前記特定領域の画像差分または画像 比率の値を補正するフィルタリング処理ステップと、
を含むことを特徴とする請求項 1に記載の画像処理方法。
[10] 前記初期値設定ステップは、
初期値設定対象画素の近傍にある画像差分または画像比率設定済み画素に設定 された画像差分または画像比率に基づいて、初期値設定対象画素の初期値を設定 するステップであることを特徴とする請求項 9に記載の画像処理方法。
[11] 前記初期値設定ステップは、
初期値設定対象画素および、画像差分または画像比率設定済み画素の判別のた めに、マスク画像を適用するステップを含むことを特徴とする請求項 10に記載の画像 処理方法。
[12] 前記第 1画像データは、フラッシュ発光なし撮影画像とフラッシュ発光あり撮影画像 とに基づいて画素値調整の施されたホワイトバランス調整画像 Rであり、前記第 2画 像データは、フラッシュ発光あり撮影画像 Iであり、前記特定領域は、被写体の動き
2
が検出された動きあり領域であり、
前記フィルタリング処理ステップは、
前記フラッシュ発光あり撮影画像 Iの画像データを構成する画素の画素値に応じて
2
重みを設定した関数を含む変換式を適用した画素値変換処理を実行するステップで あることを特徴とする請求項 9に記載の画像処理方法。
[13] 前記フィルタリング処理ステップは、下記変換式、
[数 1]
μ2 ., , 2 /2( ^
ただし、 d (x, y, ch)、 I (x, y, ch)は、画素位置(x, y)の各チャンネル [ch]の画
2
像差分または画像比率 dに対応する値、ならびに、フラッシュ光あり撮影画像 Iの画
2 素値、 d' (x, y, ch)は、画素位置(χ, y)におけるチャンネル [ch]の差分画像 dの更 新値、 i, jは、画素位置 (X, y)の値 dの更新値 d'を算出するために適用する参照画素 位置であり、 kを任意の自然数としたとき、 x-k≤i≤x + k、y_k≤j≤y + k、w (x)は、 前記フラッシュ発光あり撮影画像 Iの画像データを構成する画素の画素値に応じた
2
重みを設定する重み付け関数である、
上記変換式を適用した画素値変換処理を実行するステップであることを特徴とする 請求項 12に記載の画像処理方法。
前記変換式における重み付け関数 w (x)は、下記式、
[数 2]
Figure imgf000073_0001
によって示される関数であることを特徴とする請求項 13に記載の画像処理方法。
[15] 前記変換式における画素位置 (x, y)の値 dの更新値 d'を算出するために適用する 参照画素位置 i, jは、 kを任意の自然数としたとき、 x-k≤i≤x + k, y_k≤j≤y + kで あり、 kは、 1, 2、 3のいずれかの値であることを特徴とする請求項 13に記載の画像処 理方法。
[16] フラッシュ発光なし撮影画像に基づくフラッシュなし低解像度画像データ I をメモリ
1L に格納するステップと、
フラッシュ発光あり撮影画像に基づくフラッシュあり高解像度画像データ I 、および
2H フラッシュあり解像度画像データ I をメモリに格納するステップと、
2L
フラッシュ発光なし撮影画像に基づくフラッシュなし低解像度画像データ I をメモリ
3L に格納するステップと、
前記フラッシュなし低解像度画像データ I とフラッシュなし低解像度画像データ I
1L 3L とに基づいて動きあり領域を検出するステップとをさらに含み、
前記フラッシュなし低解像度画像データ I を前記第 1画像データ、前記フラッシュ
1L
あり低解像度画像データ I を前記第 2画像データとして前記推定値を算出してホヮ
2L
イトバランス調整処理および動き部分画素値補正処理を含む画素値調整画像 Rを生 成し、
前記補正画像生成ステップにおいては、前記画素値調整画像 Rと、フラッシュあり 高解像度画像データ I と、フラッシュあり解像度画像データ I との対応画素値に基
2H 2L
づいて、高解像度最終補正画像 R を生成することを特徴とする請求項 1に記載の画
H
像処理方法。
[17] 前記補正画像生成ステップは、
フラッシュあり解像度画像データ I に対する前記画素値調整画像 Rの対応画素の
2L
画素値変換情報を取得するステップと、
前記画素値変換情報に基づいて、フラッシュあり高解像度画像データ I の画素値
2H 変換を実行するステップと、
を有することを特徴とする請求項 16に記載の画像処理方法。
[18] 画像処理装置であって、
異なる画素値を持つ第 1画像データと第 2画像データの対応画素値に基づいて画 像差分または画像比率を算出する手段と、
画像データの特定領域において、前記画像差分または画像比率に基づく推定値 を算出する推定値算出手段と、
前記推定値算出ステップにおいて算出した前記特定領域における画像差分または 画像比率の推定値と、前記第 2画像データとに基づレ、て前記特定領域の補正画像 を生成する補正画像生成手段と、
を有することを特徴とする画像処理装置。
[19] 前記推定値算出手段は、
画像データの特定領域において、該特定領域の隣接領域において決定された画 像差分または画像比率に基づいて、特定領域の画像差分または画像比率の初期値 を設定する初期値設定部と、
前記初期値設定部において設定した初期値に対して平滑フィルタに基づく平滑処 理を実行する平滑処理部と、
を含むことを特徴とする請求項 18に記載の画像処理装置。
[20] 前記推定値算出手段は、 画像データの特定領域において、該特定領域の隣接領域において決定された画 像差分または画像比率に基づいて、特定領域の画像差分または画像比率の初期値 を設定する初期値設定部と、
前記初期値設定部において設定した初期値に対して、前記第 2画像データに基づ く重み設定のなされたフィルタを適用したフィルタリング処理に相当する画素値変換 式に従った画素値変換処理を実行して前記特定領域の画像差分または画像比率の 値を補正するフィルタ処理部と、
を含むことを特徴とする請求項 18に記載の画像処理装置。
[21] 画像処理を実行するコンピュータ 'プログラムであって、
異なる画素値を持つ第 1画像データと第 2画像データの対応画素値に基づいて画 像差分または画像比率を算出するステップと、
画像データの特定領域において、前記画像差分または画像比率に基づく推定値 を算出する推定値算出ステップと、
前記推定値算出ステップにおいて算出した前記特定領域における画像差分または 画像比率の推定値と、前記第 2画像データとに基づレ、て前記特定領域の補正画像 を生成する補正画像生成ステップと、
を有することを特徴とするコンピュータ 'プログラム。
[22] フラッシュ発光なし撮影画像に基づくフラッシュなし低解像度画像データ I をメモリ
1L に格納するステップと、
フラッシュ発光あり撮影画像に基づくフラッシュあり高解像度画像データ I 、および
2H フラッシュあり解像度画像データ I をメモリに格納するステップと、
2L
フラッシュ発光なし撮影画像に基づくフラッシュなし低解像度画像データ I をメモリ
3L に格納するステップと、
前記フラッシュなし低解像度画像データ I とフラッシュなし低解像度画像データ I
1L 3L とに基づいて動きあり領域を検出するステップとをさらに含み、
前記フラッシュなし低解像度画像データ I を前記第 1画像データ、前記フラッシュ
1L
あり低解像度画像データ I を前記第 2画像データとして前記推定値を算出してホヮ
2L
イトバランス調整処理および動き部分画素値補正処理を含む画素値調整画像 Rを生 成し、
前記補正画像生成ステップにおいては、前記画素値調整画像 Rと、フラッシュあり 高解像度画像データ I と、フラッシュあり解像度画像データ I との対応画素値に基
2H 2L
づいて、高解像度最終補正画像 R を生成することを特徴とする請求項 21に記載の
H
コンピュータ ·プログラム。
PCT/JP2004/011477 2003-09-04 2004-08-10 画像処理方法、および画像処理装置、並びにコンピュータ・プログラム WO2005025235A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP04771464A EP1662806B1 (en) 2003-09-04 2004-08-10 White balance image processing
CN2004800253349A CN1846447B (zh) 2003-09-04 2004-08-10 图像处理方法、图像处理装置
AT04771464T ATE515890T1 (de) 2003-09-04 2004-08-10 Bildverarbeitung für weisspunktabgleich
US10/570,302 US7903896B2 (en) 2003-09-04 2004-08-10 Image processing method, image processing apparatus and computer-readable medium for correcting an image

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2003-312630 2003-09-04
JP2003312630 2003-09-04
JP2004030527A JP3838243B2 (ja) 2003-09-04 2004-02-06 画像処理方法、および画像処理装置、並びにコンピュータ・プログラム
JP2004-030527 2004-02-06

Publications (1)

Publication Number Publication Date
WO2005025235A1 true WO2005025235A1 (ja) 2005-03-17

Family

ID=34277704

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2004/011477 WO2005025235A1 (ja) 2003-09-04 2004-08-10 画像処理方法、および画像処理装置、並びにコンピュータ・プログラム

Country Status (7)

Country Link
US (1) US7903896B2 (ja)
EP (1) EP1662806B1 (ja)
JP (1) JP3838243B2 (ja)
KR (1) KR101032165B1 (ja)
CN (1) CN1846447B (ja)
AT (1) ATE515890T1 (ja)
WO (1) WO2005025235A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104023179A (zh) * 2014-06-27 2014-09-03 北京智谷睿拓技术服务有限公司 成像控制方法和设备
CN105611264A (zh) * 2015-12-30 2016-05-25 努比亚技术有限公司 一种自动白平衡方法及装置
CN109660698A (zh) * 2018-12-25 2019-04-19 苏州佳世达电通有限公司 影像处理系统及影像处理方法
CN114731360A (zh) * 2019-11-06 2022-07-08 皇家飞利浦有限公司 用于执行图像运动补偿的系统

Families Citing this family (65)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4136793B2 (ja) * 2003-05-29 2008-08-20 キヤノン株式会社 撮像装置および撮像装置の制御方法
JP3838243B2 (ja) * 2003-09-04 2006-10-25 ソニー株式会社 画像処理方法、および画像処理装置、並びにコンピュータ・プログラム
US7457477B2 (en) * 2004-07-06 2008-11-25 Microsoft Corporation Digital photography with flash/no flash extension
US7801427B2 (en) 2005-09-12 2010-09-21 Nokia Corporation Adjustment of shooting parameters in dependence of motion in a scene
US7590344B2 (en) * 2006-02-28 2009-09-15 Microsoft Corp. Adaptive processing for images captured with flash
JP2007312304A (ja) 2006-05-22 2007-11-29 Fujitsu Ltd 画像処理装置および画像処理方法
WO2008102205A2 (en) * 2006-08-09 2008-08-28 Fotonation Vision Limited Detection of airborne flash artifacts using preflash image
KR100745576B1 (ko) * 2006-08-28 2007-08-02 삼성전자주식회사 휴대용 단말기에서 카메라의 입력 윈도우의 크기를자동으로 조절하기 위한 방법 및 장치
JP2008070611A (ja) * 2006-09-14 2008-03-27 Casio Comput Co Ltd 撮像装置、露出条件調整方法及びプログラム
GB2443457B (en) * 2006-10-31 2011-11-02 Hewlett Packard Development Co Image processing system and method
US7697062B2 (en) * 2006-11-08 2010-04-13 Sony Ericsson Mobile Communications Ab Camera and method in a camera
JP2008233381A (ja) * 2007-03-19 2008-10-02 Fujifilm Corp 撮像装置
JP4872797B2 (ja) * 2007-05-18 2012-02-08 カシオ計算機株式会社 撮像装置、撮像方法および撮像プログラム
KR20100074103A (ko) * 2007-06-30 2010-07-01 목스에어, 인크. 비디오 개선 및 디스플레이 전력 관리
US8040391B2 (en) 2007-08-06 2011-10-18 Panasonic Corporation White balance adjustment device, image capture device, white balance adjustment method, storage medium, and integrated circuit
US8063942B2 (en) * 2007-10-19 2011-11-22 Qualcomm Incorporated Motion assisted image sensor configuration
WO2009139154A1 (ja) * 2008-05-14 2009-11-19 パナソニック株式会社 撮像装置及び撮像方法
JP5425424B2 (ja) * 2008-07-22 2014-02-26 富士フイルム株式会社 フラッシュ発光方法及び装置
JP5213613B2 (ja) * 2008-09-26 2013-06-19 キヤノン株式会社 画像処理装置及び画像処理方法及び撮像装置及びプログラム
JP4934123B2 (ja) * 2008-09-30 2012-05-16 富士フイルム株式会社 撮影装置および方法
JP5399739B2 (ja) * 2009-02-25 2014-01-29 ルネサスエレクトロニクス株式会社 画像処理装置
US8659670B2 (en) * 2009-04-20 2014-02-25 Qualcomm Incorporated Motion information assisted 3A techniques
US9106822B2 (en) * 2009-06-25 2015-08-11 Nikon Corporation Image apparatus with motion control
JP5589585B2 (ja) * 2009-07-07 2014-09-17 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
US20110019002A1 (en) * 2009-07-22 2011-01-27 International Business Machines Corporation Method and System for Low Complexity Analysis of Multiple Signals Using a Combined Sparse Set of Samples
JP5115568B2 (ja) * 2009-11-11 2013-01-09 カシオ計算機株式会社 撮像装置、撮像方法、及び撮像プログラム
JP5424835B2 (ja) * 2009-11-30 2014-02-26 キヤノン株式会社 画像処理装置、画像処理方法
JP5566680B2 (ja) * 2009-12-24 2014-08-06 三星電子株式会社 撮像装置及び撮像方法
JP5566679B2 (ja) * 2009-12-24 2014-08-06 三星電子株式会社 撮像装置及び撮像方法
US8717454B2 (en) 2009-12-24 2014-05-06 Samsung Electronics Co., Ltd. Image pickup apparatus and image pickup method for adjusting white balance to account for flash and external light sources
JP5761946B2 (ja) * 2010-09-02 2015-08-12 キヤノン株式会社 画像処理装置、画像処理方法及び記憶媒体
JP5665436B2 (ja) * 2010-09-02 2015-02-04 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP2012134678A (ja) * 2010-12-20 2012-07-12 Samsung Yokohama Research Institute Co Ltd 撮像装置及び撮像方法
CA2771851C (en) * 2011-04-12 2018-07-24 Research In Motion Limited Camera flash for improved color balance
JP5808142B2 (ja) * 2011-05-02 2015-11-10 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP5743696B2 (ja) * 2011-05-06 2015-07-01 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP5917258B2 (ja) * 2012-04-20 2016-05-11 キヤノン株式会社 画像処理装置及び画像処理方法
CN103354601A (zh) * 2013-07-31 2013-10-16 广东欧珀移动通信有限公司 提升闪光灯拍照效果的方法和系统
US9448771B2 (en) 2014-10-17 2016-09-20 Duelight Llc System, computer program product, and method for generating a lightweight source code for implementing an image processing pipeline
US9218662B1 (en) 2014-11-06 2015-12-22 Duelight Llc System, method, and computer program product for exchanging images
US9460125B2 (en) 2013-09-30 2016-10-04 Duelight Llc Systems, methods, and computer program products for digital photography
US9508133B2 (en) 2014-11-18 2016-11-29 Duelight Llc System and method for generating an image result based on availability of a network resource
US9460118B2 (en) 2014-09-30 2016-10-04 Duelight Llc System, method, and computer program product for exchanging images
JP6446790B2 (ja) * 2014-02-21 2019-01-09 株式会社リコー 画像処理装置、撮像装置、画像補正方法およびプログラム
JP6335563B2 (ja) 2014-03-18 2018-05-30 キヤノン株式会社 撮像装置及びその制御方法
JP6063093B2 (ja) * 2014-03-31 2017-01-18 富士フイルム株式会社 画像処理装置、撮像装置、画像処理方法及びプログラム
JP6379599B2 (ja) * 2014-04-02 2018-08-29 富士通株式会社 適用判定プログラム、適用判定方法、及び適用判定装置
US9661250B2 (en) * 2014-08-28 2017-05-23 Pixart Imaging Inc. Image sensor and operating method thereof, motion sensor including the same
US9686489B2 (en) * 2014-08-28 2017-06-20 Pixart Imaging Inc. Image sensor and imaging system adopting analog buffer
US20160232672A1 (en) * 2015-02-06 2016-08-11 Qualcomm Incorporated Detecting motion regions in a scene using ambient-flash-ambient images
EP3056137B1 (en) * 2015-02-13 2017-11-01 Helmholtz Zentrum München Deutsches Forschungszentrum für Gesundheit und Umwelt GmbH Device and method for multispectral optoacoustic imaging
US10070111B2 (en) * 2015-12-22 2018-09-04 Adobe Systems Incorporated Local white balance under mixed illumination using flash photography
JP2019074593A (ja) * 2017-10-13 2019-05-16 シャープ株式会社 表示装置
WO2019087299A1 (ja) * 2017-10-31 2019-05-09 株式会社モルフォ 画像合成装置、画像合成方法、画像合成プログラム及び記憶媒体
CN110022475B (zh) * 2018-01-10 2021-10-15 中兴通讯股份有限公司 一种摄影设备校准方法、摄影设备及计算机可读存储介质
TWI649600B (zh) * 2018-01-12 2019-02-01 友達光電股份有限公司 訊號處理方法及顯示裝置
US10981376B2 (en) * 2018-07-03 2021-04-20 Ricoh Company, Ltd. Inspection apparatus, image reading apparatus, image forming apparatus, inspection method, and recording medium
JP7307541B2 (ja) * 2018-12-19 2023-07-12 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、及びプログラム
GB202011144D0 (en) 2019-08-28 2020-09-02 ams Sensors Germany GmbH Systems for characterizing ambient illumination
US10997470B2 (en) * 2019-08-30 2021-05-04 Accenture Global Solutions Limited Adversarial patches including pixel blocks for machine learning
EP3820138A1 (en) * 2019-11-06 2021-05-12 Koninklijke Philips N.V. A system for performing image motion compensation
US11270416B2 (en) * 2019-12-27 2022-03-08 Nxp Usa, Inc. System and method of using optimized descriptor coding for geometric correction to reduce memory transfer bandwidth overhead
CN111314683B (zh) * 2020-03-17 2022-04-15 Oppo广东移动通信有限公司 白平衡调节方法及相关设备
FR3117717B1 (fr) * 2020-12-10 2022-12-23 Centre Nat Etd Spatiales Procédé d’acquisition et d’analyse d’une scène par différence d’images
CN115953333A (zh) * 2023-03-15 2023-04-11 杭州魔点科技有限公司 一种动态背光补偿方法和系统

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0832839A (ja) * 1994-07-19 1996-02-02 Sharp Corp 雑音除去装置
JPH08340542A (ja) * 1995-04-13 1996-12-24 Ricoh Co Ltd 電子スチルカメラ
JP2000307940A (ja) * 1999-04-19 2000-11-02 Olympus Optical Co Ltd 撮像装置
JP2001078202A (ja) 1999-09-01 2001-03-23 Minolta Co Ltd デジタル撮影装置、画像データ処理装置、デジタル撮影方法および記録媒体
JP2001358986A (ja) 2000-06-13 2001-12-26 Sony Corp 画像処理装置および画像処理方法、並びに記録媒体
EP1549080A1 (en) 2002-07-18 2005-06-29 Sony Corporation Imaging data processing method, imaging data processing device, and computer program
EP1558025A2 (en) 2004-01-23 2005-07-27 Sony Corporation Image processing method, image processing apparatus, and computer program used therewith
US7002625B2 (en) 2000-11-24 2006-02-21 Canon Kabushiki Kaisha Image pickup apparatus for recording a photographed image in a directory

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3569352B2 (ja) 1994-05-31 2004-09-22 ペンタックス株式会社 ホワイトバランス調整装置
US5617490A (en) * 1994-06-27 1997-04-01 Sanyo Electric Co., Ltd. Camera system with neural network compensator for measuring 3-D position
EP0815536A1 (en) * 1995-03-22 1998-01-07 IDT INTERNATIONAL DIGITAL TECHNOLOGIES DEUTSCHLAND GmbH Method and apparatus for coordination of motion determination over multiple frames
US5706416A (en) * 1995-11-13 1998-01-06 Massachusetts Institute Of Technology Method and apparatus for relating and combining multiple images of the same scene or object(s)
US5982951A (en) * 1996-05-28 1999-11-09 Canon Kabushiki Kaisha Apparatus and method for combining a plurality of images
JPH10243414A (ja) * 1997-02-28 1998-09-11 Hewlett Packard Co <Hp> 色バランスの調整方法、プログラムメモリおよびデジタル・カメラ
US6269175B1 (en) * 1998-08-28 2001-07-31 Sarnoff Corporation Method and apparatus for enhancing regions of aligned images using flow estimation
JP2000308068A (ja) 1999-04-16 2000-11-02 Olympus Optical Co Ltd 撮像装置
US6618511B1 (en) * 1999-12-31 2003-09-09 Stmicroelectronics, Inc. Perspective correction for panoramic digital camera with remote processing
JP3707347B2 (ja) * 2000-04-07 2005-10-19 株式会社島津製作所 X線ct装置の画像処理方法及びx線ct装置並びにx線ct撮影用記録媒体
JP3776340B2 (ja) * 2000-09-27 2006-05-17 エムヴイテック・ソフトウェア・ゲーエムベーハー 対象物認識システム及び方法
JP3576987B2 (ja) * 2001-03-06 2004-10-13 株式会社東芝 画像のテンプレートマッチング方法及び画像処理装置
CN100477806C (zh) * 2001-12-07 2009-04-08 深圳Tcl新技术有限公司 一种自动白平衡调控方法及相应的显示单元
JP3838243B2 (ja) * 2003-09-04 2006-10-25 ソニー株式会社 画像処理方法、および画像処理装置、並びにコンピュータ・プログラム
JP4600209B2 (ja) * 2005-08-18 2010-12-15 ソニー株式会社 画像処理方法、画像処理装置、プログラムおよび記録媒体

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0832839A (ja) * 1994-07-19 1996-02-02 Sharp Corp 雑音除去装置
JPH08340542A (ja) * 1995-04-13 1996-12-24 Ricoh Co Ltd 電子スチルカメラ
JP2000307940A (ja) * 1999-04-19 2000-11-02 Olympus Optical Co Ltd 撮像装置
JP2001078202A (ja) 1999-09-01 2001-03-23 Minolta Co Ltd デジタル撮影装置、画像データ処理装置、デジタル撮影方法および記録媒体
JP2001358986A (ja) 2000-06-13 2001-12-26 Sony Corp 画像処理装置および画像処理方法、並びに記録媒体
US7002625B2 (en) 2000-11-24 2006-02-21 Canon Kabushiki Kaisha Image pickup apparatus for recording a photographed image in a directory
EP1549080A1 (en) 2002-07-18 2005-06-29 Sony Corporation Imaging data processing method, imaging data processing device, and computer program
EP1558025A2 (en) 2004-01-23 2005-07-27 Sony Corporation Image processing method, image processing apparatus, and computer program used therewith

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104023179A (zh) * 2014-06-27 2014-09-03 北京智谷睿拓技术服务有限公司 成像控制方法和设备
CN104023179B (zh) * 2014-06-27 2017-08-15 北京智谷睿拓技术服务有限公司 成像控制方法和设备
CN105611264A (zh) * 2015-12-30 2016-05-25 努比亚技术有限公司 一种自动白平衡方法及装置
CN105611264B (zh) * 2015-12-30 2018-09-14 努比亚技术有限公司 一种自动白平衡方法及装置
CN109660698A (zh) * 2018-12-25 2019-04-19 苏州佳世达电通有限公司 影像处理系统及影像处理方法
CN109660698B (zh) * 2018-12-25 2021-08-03 苏州佳世达电通有限公司 影像处理系统及影像处理方法
CN114731360A (zh) * 2019-11-06 2022-07-08 皇家飞利浦有限公司 用于执行图像运动补偿的系统
CN114731360B (zh) * 2019-11-06 2023-12-01 皇家飞利浦有限公司 用于执行图像运动补偿的系统

Also Published As

Publication number Publication date
KR101032165B1 (ko) 2011-05-02
EP1662806B1 (en) 2011-07-06
JP2005102116A (ja) 2005-04-14
KR20060070557A (ko) 2006-06-23
CN1846447B (zh) 2010-05-12
JP3838243B2 (ja) 2006-10-25
CN1846447A (zh) 2006-10-11
ATE515890T1 (de) 2011-07-15
US7903896B2 (en) 2011-03-08
US20070165960A1 (en) 2007-07-19
EP1662806A1 (en) 2006-05-31
EP1662806A4 (en) 2009-12-30

Similar Documents

Publication Publication Date Title
KR101032165B1 (ko) 화상 처리 방법 및 화상 처리 장치, 및 컴퓨터 판독 가능 기록 매체
JP4379129B2 (ja) 画像処理方法、および画像処理装置、並びにコンピュータ・プログラム
JP4407514B2 (ja) 撮像データ処理方法、および撮像データ処理装置、並びにコンピュータ・プログラム
KR101388130B1 (ko) 화상처리장치 및 화상처리방법
US8581992B2 (en) Image capturing apparatus and camera shake correction method, and computer-readable medium
CN105323474B (zh) 摄像设备及其控制方法
KR101352440B1 (ko) 화상처리장치, 화상처리방법, 및 기록매체
JP5743696B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP5672796B2 (ja) 画像処理装置、画像処理方法
JP2008529435A (ja) 高ダイナミックレンジ画像を複数回の露光により生成するための方法および装置
KR20080034508A (ko) 적응형 노출 제어
JP2014033276A (ja) 画像処理装置、画像処理方法及びプログラム
JP5804857B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP5804856B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2014039170A (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP4905513B2 (ja) 画像処理方法、および画像処理装置、並びにコンピュータ・プログラム
JP4389671B2 (ja) 画像処理装置、および画像処理方法、並びにコンピュータ・プログラム
JP5482428B2 (ja) 撮像装置、手ブレ補正方法、プログラム
JP2017034536A (ja) 画像処理装置、画像処理方法、及びプログラム
JP6021885B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP6245992B2 (ja) 画像処理装置、画像処理方法

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200480025334.9

Country of ref document: CN

AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 190/DELNP/2006

Country of ref document: IN

WWE Wipo information: entry into national phase

Ref document number: 2004771464

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 1020067004473

Country of ref document: KR

WWP Wipo information: published in national office

Ref document number: 2004771464

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 1020067004473

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 2007165960

Country of ref document: US

Ref document number: 10570302

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 10570302

Country of ref document: US