WO2013065518A1 - 撮像装置及び画像処理方法 - Google Patents

撮像装置及び画像処理方法 Download PDF

Info

Publication number
WO2013065518A1
WO2013065518A1 PCT/JP2012/077302 JP2012077302W WO2013065518A1 WO 2013065518 A1 WO2013065518 A1 WO 2013065518A1 JP 2012077302 W JP2012077302 W JP 2012077302W WO 2013065518 A1 WO2013065518 A1 WO 2013065518A1
Authority
WO
WIPO (PCT)
Prior art keywords
color
thinning
line
filters
white balance
Prior art date
Application number
PCT/JP2012/077302
Other languages
English (en)
French (fr)
Inventor
善工 古田
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2013541708A priority Critical patent/JP5603506B2/ja
Priority to CN201280053307.7A priority patent/CN104025574B/zh
Publication of WO2013065518A1 publication Critical patent/WO2013065518A1/ja
Priority to US14/264,800 priority patent/US8982236B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/73Colour balance circuits, e.g. white balance circuits or colour temperature control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/88Camera processing pipelines; Components thereof for processing colour signals for colour balance, e.g. white-balance circuits or colour temperature control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2209/00Details of colour television systems
    • H04N2209/04Picture signal generators
    • H04N2209/041Picture signal generators using solid-state devices
    • H04N2209/042Picture signal generators using solid-state devices having a single pick-up sensor
    • H04N2209/045Picture signal generators using solid-state devices having a single pick-up sensor using mosaic colour filter

Definitions

  • the present invention relates to an imaging apparatus and an image processing method, and more particularly to a technique for calculating a white balance gain at high speed and with high accuracy.
  • a white balance gain (WB gain) is calculated based on an image that is thinned out (extracted) from an image of the entire area of the image sensor, and an image of a partial area of the image sensor is captured by electronic zoom.
  • An imaging apparatus that performs white balance correction using the calculated WB gain is described. Thereby, the WB gain can be calculated with high accuracy by detecting the color temperature from the image of the region where white is more likely to exist than the region to be captured.
  • Patent Document 2 pixel signals are read out from a solid-state image sensor, or signals of a plurality of pixels in the same color line in the vertical direction are added and read out, and the read signals are detected (color-specific levels). There is a description of calculating the WB gain by performing integration processing.
  • the imaging device applied to the imaging device described in Patent Documents 1 and 2 has a Bayer array color filter array (see paragraph [0023] of FIG. 4, FIG. 4 and Patent Document 2). FIG. 3).
  • green (G) pixels are arranged in a checkered pattern, and red (R) and blue (B) are line-sequentially arranged, so that the high-frequency signal folds beyond the reproduction band of each color and the phase of each color.
  • red (R) and blue (B) are line-sequentially arranged, so that the high-frequency signal folds beyond the reproduction band of each color and the phase of each color.
  • low frequency coloring color moire
  • the color filter array of the image sensor is arranged so as to satisfy an array restriction condition in which any target pixel is adjacent in any one of three colors including the color of the target pixel and four sides of the target pixel.
  • Patent Document 3 A color imaging device having a three-color random arrangement has been proposed (Patent Document 3).
  • Patent Document 4 the ratio of the G filter is increased compared to the R filter and the B filter, and the color resolution in the horizontal direction and the vertical direction is compared with the case where the color filters of the same ratio are arranged in a lattice structure.
  • an imaging apparatus that can reduce color moire in a luminance signal has been proposed.
  • color mixture occurs due to light leakage from adjacent pixels.
  • the degree of color mixing depends on photographing conditions such as the focal length of the photographing lens and the F value of the aperture.
  • RGB pixels exist on one line, but since RGB filters are randomly arranged, any of them may be used when calculating the WB gain. Even if this line is thinned and read out, a color signal affected by the same degree of color mixing is obtained, and a highly accurate WB gain in which the influence of color mixing is reduced cannot be calculated.
  • the present invention has been made in view of such circumstances, and it is possible to calculate a high-accuracy white balance gain in consideration of the influence of noise and the influence of color mixing between adjacent pixels at high speed. It is an object of the present invention to provide an imaging apparatus and an image processing method that can quickly perform the operation.
  • an imaging apparatus includes an imaging optical system and an imaging element on which a subject image is formed via the imaging optical system, and is arranged in a two-dimensional manner.
  • a color filter array including three primary colors is arranged on the photoelectric conversion element, a color filter of the three primary colors is arrayed on each line, and a color filter array including a plurality of lines having different ratios of the number of the three primary color filters.
  • a white balance gain calculating means for calculating a white balance gain based on each color signal corresponding to a color filter of each color of a line in which the ratio of the number of color filters of the three primary colors is more uniform among the plurality of lines And acquired via the image sensor based on the white balance gain calculated by the white balance gain calculating means.
  • a white balance correction means performs white balance correction on the color signals.
  • an image sensor having a special color filter array in which the ratio of the number of the three primary color filters is different depending on the line is used, and the ratio of the number of the three primary color filters is more uniform.
  • the white balance gain is calculated based on the color signal.
  • An imaging apparatus is an imaging optical system and an imaging element on which a subject image is formed via the imaging optical system, and is arranged on a photoelectric conversion element arranged in a two-dimensional manner.
  • An image sensor having a color filter array including a plurality of lines in which color filters including primary colors are arranged, color filters of three primary colors are arranged in each line, and the ratio of the number of color filters of the three primary colors is different;
  • Thinning pattern determining means for determining one thinning pattern from a plurality of thinning patterns for selecting a line to be thinned and read out of the lines, and the color filter for each line acquired by the image sensor Among the color signals corresponding to the predetermined line selected according to the thinning pattern determined by the thinning pattern determination means
  • White balance gain calculating means for calculating a white balance gain based on the color signal, and white balance correction for each color signal acquired via the image sensor based on the white balance gain calculated by the white balance gain calculating means.
  • White balance correction means for performing.
  • a thinning pattern for selecting a line with little color mixture (a line with an uneven ratio of the number of color filters of three primary colors) is determined under shooting conditions in which color mixing increases, and thinning is read according to the determined thinning pattern.
  • a white balance gain is calculated based on the color signal, and a highly accurate white balance gain in which the influence of color mixing is reduced is calculated.
  • a thinning pattern for selecting a line with less influence of noise (a line with a more uniform ratio of the number of three primary color filters) is determined, and thinning is read according to the determined thinning pattern.
  • the white balance gain is calculated based on the color signal of a predetermined line.
  • the thinning pattern determination unit obtains one thinning pattern from the plurality of thinning patterns based on at least one of an F value and a zoom magnification at the time of photographing by the photographing optical system. It is preferable to determine.
  • the color mixture increases as the F value of the photographing optical system approaches the open F value.
  • a condensing microlens is disposed on each photoelectric conversion element of the image sensor. These microlenses are arranged at a distance from the center of the image sensor to correct the incident angle of the light beam. Accordingly, the photoelectric conversion elements are arranged slightly shifted (scaled). If the angle of incidence on the microlens deviates from the angle of incidence assumed in advance due to the zoom magnification, color mixing increases. In view of this, in another aspect of the present invention, it is determined whether or not there is a shooting condition with a large amount of color mixing based on at least one of the F value and zoom magnification during shooting.
  • the thinning pattern determination unit includes a color temperature detection unit that detects a color temperature of the ambient light, and the color temperature of the ambient light detected by the color temperature detection unit Based on this, it is preferable to determine one thinning pattern from the plurality of thinning patterns.
  • the color temperature of the ambient light is an intermediate color temperature at which the levels of the color signals of the three primary colors are substantially equal, the influence of the mixed color on the calculation accuracy of the white balance gain is small, but when the color temperature is low or high, The mixed color component greatly affects the calculation accuracy of the white balance gain. Therefore, in still another aspect of the present invention, an appropriate thinning pattern is selected based on the color temperature of the ambient light.
  • the thinning pattern determination unit determines whether or not the shooting condition includes a large number of mixed colors, and the ratio of the number of the three primary color filters is not uniform under the shooting condition where the mixed colors are large. It is preferable to determine a thinning pattern for selecting a simple line, and to select a thinning pattern for selecting a line having a more uniform ratio of the number of pixels corresponding to the color filters of the three primary colors under photographing conditions with little color mixture.
  • the imaging apparatus further includes sensitivity setting means for setting shooting sensitivity, and the thinning pattern determination means is configured to perform the above operation when the shooting sensitivity set by the sensitivity setting means is low sensitivity.
  • the thinning pattern determination means is configured to perform the above operation when the shooting sensitivity set by the sensitivity setting means is low sensitivity.
  • the shooting sensitivity When the shooting sensitivity is low, the influence of noise is small, so that it is possible to calculate a white balance gain with high accuracy by thinning out and reading out a line with less color mixture.
  • the shooting sensitivity when the shooting sensitivity is high, the influence of noise is large. Therefore, when obtaining the integrated average value of each color signal, it is more accurate to thin out and read out lines with a more uniform ratio of the number of the three primary color filters. A white balance gain can be calculated. Therefore, in still another aspect of the present invention, the thinning pattern is selected based on the photographing sensitivity.
  • the imaging apparatus further includes sensitivity setting means for setting imaging sensitivity, wherein the plurality of thinning patterns include thinning patterns having different thinning rates, and the thinning pattern determination means includes the sensitivity setting.
  • the photographing sensitivity set by the means is low sensitivity
  • a thinning pattern having a high thinning rate among the thinning patterns having different thinning rates is determined, and when the set photographing sensitivity is high sensitivity, It is preferable to determine a thinning pattern having a low thinning rate among thinning patterns having different thinning rates.
  • the influence of the noise component is small. Therefore, the calculation speed is increased by increasing the thinning rate, while the thinning rate is decreased when the shooting sensitivity is high. Thus, the influence of the noise component is reduced and the calculation of the highly accurate white balance gain is given priority over the increase in the calculation speed.
  • An imaging apparatus includes a sensitivity setting unit that sets a shooting sensitivity and a determination unit that determines whether or not to place importance on a calculation speed.
  • the thinning pattern determination means has a high thinning rate among the thinning patterns having different thinning rates when the photographing sensitivity set by the sensitivity setting means is low.
  • the thinning patterns having different thinning rates are selected.
  • the thinning pattern for selecting a line having a high thinning rate and a more uniform ratio of the number of the color filters of the three primary colors is determined and set.
  • thinning is performed to select a line having a low thinning rate and a non-uniform ratio of the number of the three primary color filters among the thinning patterns having different thinning rates. It is preferable to determine the pattern.
  • the photographing sensitivity is high, if the influence of noise on the calculation accuracy of the white balance gain can be reduced, it is possible to calculate the white balance gain with higher accuracy by thinning out and reading out the line with less color mixture. Therefore, in still another aspect of the present invention, even when the photographing sensitivity is high, if the calculation speed is not important, a thinning pattern for thinning out and reading out lines with a low thinning rate and less color mixture is determined. . In this case, by using a thinning pattern having a low thinning rate, the integrated average value of more color signals is calculated, so that the influence of noise on the calculation accuracy of the white balance gain can be reduced.
  • the imaging apparatus includes a calculation unit that calculates an offset value for each color signal corresponding to the color filters of the three primary colors, and the white balance gain calculation unit calculates the white balance gain.
  • the integrated average value for each color signal of the line used for the color signal is calculated, the offset value calculated for each color signal is subtracted from the integrated average value, and the white value is calculated based on the ratio of the integrated average values for the subtracted color signals. It is preferable to calculate the balance gain. By performing offset correction for each color signal, it is possible to improve white balance gain calculation accuracy.
  • the imaging element is an imaging element having an element structure that shares an amplifier for each predetermined pixel group, and the calculation unit is configured to calculate each pixel that shares the amplifier.
  • a first calculation unit that calculates an offset value for each position with respect to the amplifier; a position of each pixel in the thinning pattern determined by the thinning pattern determination unit; and the position calculated by the first calculation unit.
  • Second calculating means for calculating an offset value for each color signal based on an offset value for each position with respect to the amplifier.
  • the offset value for each color signal can be calculated in consideration of the offset component step generated by the underlying element structure including the shared amplifier. By correcting the accumulated average value of each color signal by this offset value, white The calculation accuracy of the balance gain can be improved.
  • the color filter array of the imaging element includes a first filter corresponding to the first color that contributes most to obtain a luminance signal, and a color other than the first color.
  • the basic arrangement pattern is repeatedly arranged in a horizontal direction and a vertical direction
  • the first filter includes: The second filter is arranged in each line in the horizontal, vertical, diagonally upper right and diagonally lower right directions of the color filter array, and the second filter is arranged in the horizontal and vertical directions of the color filter array in the basic array pattern.
  • the ratio of the number of pixels of the first color corresponding to the first filter is one or more arranged in each line, and the ratio of the number of pixels of each color of the second color corresponding to the second filter Big It is preferred.
  • one first filter corresponding to the first color that contributes most to obtain a luminance signal is placed in each of the horizontal, vertical, diagonally upper right, and diagonally lower right lines of the color filter array. Since the above arrangement is made, the reproduction accuracy of the synchronization process in the high frequency region can be improved, and the second filter corresponding to two or more second colors other than the first color is also applicable. Since at least one color filter array is arranged in each horizontal and vertical line, the generation of color moire (false color) can be suppressed and high resolution can be achieved. Further, since the color filter array has a predetermined basic array pattern repeatedly arranged in the horizontal direction and the vertical direction, when performing the synchronization (interpolation) process in the subsequent stage, the process is repeatedly performed according to the pattern. Thus, the subsequent processing can be simplified as compared with the random arrangement.
  • the color filter array of the image sensor includes a predetermined basic array pattern in which red (R), green (G), and blue (B) color filters are arrayed.
  • the basic array pattern is repeatedly arranged in the horizontal direction and the vertical direction, the predetermined basic array pattern is a square array pattern corresponding to 6 ⁇ 6 pixels, and the color filter array corresponds to 3 ⁇ 3 pixels.
  • one or more G filters corresponding to the G signal that contributes most to obtain a luminance signal are arranged in each line in the horizontal, vertical, diagonal upper right, and diagonal lower right directions.
  • the reproduction accuracy of the synchronization processing in the region can be improved, and more than one R and B filters corresponding to the R signal and B signal are arranged in each horizontal and vertical line. Therefore, it is possible to suppress the occurrence of color moire (false color) and achieve high resolution.
  • the plurality of thinning patterns include lines having a ratio of the number of RGB color filters of 1: 4: 1 when thinning out one line every six lines.
  • a thinning pattern to be read out and a thinning pattern to read out a line having a ratio of the number of RGB color filters of 1: 1: 1 are included.
  • This thinning pattern is 1/6 thinning, the thinning rate is the highest, and the amount of calculation at the time of calculating the white balance gain is the smallest, and the speed can be increased.
  • the plurality of thinning patterns may be a line having a ratio of the number of RGB color filters of 1: 4: 1 when thinning out two lines every six lines.
  • a thinning pattern to be read out and a thinning pattern to read out a line having a ratio of the number of RGB color filters of 1: 1: 1 are included.
  • the plurality of thinning patterns include lines having a ratio of the number of RGB color filters of 1: 4: 1 when three lines are thinned out every six lines. This includes a thinning pattern to be read and a thinning pattern to read a line having a ratio of the number of RGB color filters of 5: 8: 5.
  • the plurality of thinning patterns include lines having a ratio of the number of RGB color filters of 1: 4: 1 when four lines are thinned out every six lines. It includes a thinning pattern to be read and a thinning pattern to read a line having a ratio of the number of RGB color filters of 1: 2: 1.
  • This thinning pattern is 4/6 thinning, the thinning rate is low, and the amount of calculation when calculating the white balance gain is large, but the white balance gain with little influence of noise can be calculated.
  • An image processing method is an image acquisition step of acquiring a mosaic image corresponding to a color filter array via an imaging element in which a photographing optical system and color filters of three primary colors are arrayed.
  • Each line of the mosaic image includes a color signal corresponding to three primary colors, and an image acquisition step of acquiring a mosaic image in which the ratio of the number of pixels corresponding to the three primary colors differs from line to line;
  • a white balance gain calculating step of calculating a white balance gain based on each color signal corresponding to a color filter of each color of the line in which the ratio of the number of color filters of the three primary colors in the line is more uniform, and the white balance gain calculating step
  • An image processing method is an image acquisition step of acquiring a mosaic image corresponding to a color filter array via an imaging element in which a photographing optical system and color filters of three primary colors are arrayed.
  • a thinning pattern determination step of determining one thinning pattern according to the shooting conditions from a plurality of thinning patterns for selecting a line to be thinned and read out of the lines, and the color filter of each line acquired by the imaging device Is selected according to the thinning pattern determined by the thinning pattern determination step.
  • a white balance gain calculating step for calculating a white balance gain based on a color signal of a predetermined line, and each color signal acquired via the image sensor based on the white balance gain calculated by the white balance gain calculating step.
  • an image sensor having a special color filter array in which the ratio of the number of the three primary color filters is different depending on the line is used, but each color of the line in which the ratio of the number of the three primary color filters is more uniform. Since the white balance gain is calculated based on each color signal corresponding to the color filter, it is possible to calculate the white balance gain with high accuracy with little influence of noise components. Also, the white balance gain is calculated based on the color signal of a line with little color mixing (a line with a non-uniform ratio of the number of the three primary color filters) under shooting conditions with a lot of color mixing.
  • the white balance gain is calculated based on the color signal of the line that is less affected by noise (the line in which the ratio of the number of the three primary color filters is more uniform), it is possible to calculate the white balance gain with high accuracy. It is possible to correct white balance with high accuracy.
  • the figure which shows embodiment of the image pick-up element applied to the imaging device which concerns on this invention 1 is a block diagram showing an embodiment of an imaging apparatus according to the present invention.
  • the figure which shows two thinning patterns in the case of 1/6 thinning The figure which shows three thinning patterns in the case of 2/6 thinning
  • the figure which shows three thinning patterns in the case of 3/6 thinning The figure which shows three thinning patterns in the case of 4/6 thinning
  • Main part block diagram which shows the internal structure of the digital signal processing part shown in FIG.
  • the figure which shows an example of the signal level of RGB for every color temperature The flowchart which shows 3rd Embodiment of the calculation method of WB gain.
  • step difference) has arisen in offset with each color of RGB The figure which shows an example of the image pick-up element in which 4 pixels of 2x2 share one amplifier
  • FIG. 1 is a diagram showing an embodiment of an image pickup element applied to an image pickup apparatus according to the present invention, and particularly shows a new color filter array arranged on the light receiving surface of the image pickup element 1.
  • the color filter array of the image pickup device 1 includes a basic array pattern including a square array pattern corresponding to 6 ⁇ 6 pixels, and the basic array pattern is repeatedly arranged in the horizontal direction and the vertical direction. That is, in this color filter array, filters of each color (R filter, G filter, B filter) of red (R), green (G), and blue (B) are arranged with a predetermined periodicity. Since the R filter, G filter, and B filter are arranged with a predetermined periodicity in this way, when performing image processing or the like of RGB RAW data (mosaic image) read out from the image sensor 1, according to repeated patterns. Processing can be performed.
  • RGB RAW data mosaic image
  • the G filter corresponding to the most contributing color (G color in this embodiment) for obtaining the luminance 4 signal is the horizontal, vertical, diagonal upper right, diagonal right of the color filter array. It is placed in each line in each direction below.
  • the G filter corresponding to the luminance system pixel is arranged in the horizontal, vertical, diagonally upper right, and diagonally lower right lines of the color filter array, the synchronization processing in the high frequency region is performed regardless of the high frequency direction. The reproduction accuracy can be improved.
  • R filters and B filters corresponding to R and B colors other than the G color are arranged in the horizontal and vertical lines of the color filter array.
  • the basic array pattern of 6 ⁇ 6 pixels shown in FIG. 1 is divided into 4 ⁇ 3 ⁇ 3 pixels, a 3 ⁇ 3 pixel A array surrounded by a solid line frame and a 3 ⁇ 3 pixel B array surrounded by a broken frame.
  • the array is an array arranged alternately in the horizontal and vertical directions.
  • the G filters are arranged at the four corners and the center, respectively, and arranged on both diagonal lines.
  • the R filter is arranged in the horizontal direction with the central G filter interposed therebetween, and the B filter is arranged in the vertical direction.
  • the B filter is arranged in the horizontal direction with the central G filter interposed therebetween.
  • the R filters are arranged in the vertical direction. That is, in the A array and the B array, the positional relationship between the R filter and the B filter is reversed, but the other arrangements are the same.
  • the G filters at the four corners of the A array and the B array become a square array G filter corresponding to 2 ⁇ 2 pixels by alternately arranging the A array and the B array in the horizontal and vertical directions.
  • FIG. 2 is a block diagram showing an embodiment of an imaging apparatus according to the present invention.
  • the image pickup device 10 is a digital camera that is provided with the image pickup device 1 shown in FIG. 1 and can take still images and moving images.
  • the operation of the entire device is centrally controlled by a central processing unit (CPU) 40.
  • CPU central processing unit
  • the imaging device 10 is provided with operation units 38 such as a shutter button, a mode dial, a playback button, a MENU / OK key, a cross key, and a BACK key.
  • operation units 38 such as a shutter button, a mode dial, a playback button, a MENU / OK key, a cross key, and a BACK key.
  • a signal from the operation unit 38 is input to the CPU 40, and the CPU 40 controls each circuit of the imaging device 10 based on the input signal.
  • the shutter button is an operation button for inputting an instruction to start shooting, and is configured by a two-stroke switch having an S1 switch that is turned on when half-pressed and an S2 switch that is turned on when fully pressed.
  • the mode dial is selection means for selecting a shooting mode, a scene position such as a person, a landscape, a night view, a moving image mode, and the like.
  • the playback button is a button for switching to a playback mode in which a captured still image or moving image is displayed on the liquid crystal monitor 30.
  • the MENU / OK key is an operation key having both a function as a menu button for instructing to display a menu on the screen of the liquid crystal monitor 30 and a function as an OK button for instructing confirmation and execution of the selection contents. It is.
  • the cross key is an operation unit for inputting instructions in four directions, up, down, left, and right, and functions as a button (cursor moving operation means) for selecting an item from the menu screen or instructing selection of various setting items from each menu. To do.
  • the up / down key of the cross key functions as a zoom switch for shooting or a playback zoom switch in playback mode
  • the left / right key functions as a frame advance (forward / reverse feed) button in playback mode.
  • the BACK key is used to delete a desired object such as a selection item, cancel an instruction content, or return to the previous operation state.
  • the image light indicating the subject is imaged on the light receiving surface of the image sensor 1 through the photographing optical system (zoom lens) 12 and the diaphragm 14.
  • the photographing optical system 12 is driven by a lens driving unit 36 controlled by the CPU 40, and performs focus control, zoom control, and the like.
  • the diaphragm 14 is composed of, for example, five diaphragm blades and is driven by a diaphragm driving unit 34 controlled by the CPU 40.
  • the F value is controlled in seven stages from F1.4 to F11 in increments of 1AV.
  • the CPU 40 controls the aperture 14 via the aperture drive unit 34, and controls the charge accumulation time (shutter speed) in the image sensor 1 and image signal readout from the image sensor 1 via the device controller 32. Etc.
  • the signal charge accumulated in the image sensor 1 is read out as a voltage signal corresponding to the signal charge based on a read signal applied from the device control unit 32.
  • the voltage signal read from the image sensor 1 is applied to the analog signal processing unit 18 where the R, G, B signals for each pixel are sampled and held, and the gain designated by the CPU 40 (corresponding to ISO sensitivity). And then added to the A / D converter 20.
  • the A / D converter 20 converts R, G, and B signals that are sequentially input into digital R, G, and B signals and outputs them to the image input controller 22.
  • the digital signal processing unit 24 performs color mixing correction, white balance correction, gamma correction processing, and synchronization processing on the digital image signal input via the image input controller 22 (spatial color signals associated with the primary color filter array). Predetermined signal processing such as interpolation of misalignment and conversion of color signals into simultaneous equations, YC processing (processing for generating luminance data and color difference data of image data), sharpness correction, and the like is performed.
  • 46 is a ROM (EEPROM) in which various parameters and tables used for camera control programs, image processing, and the like are stored.
  • EEPROM EEPROM
  • the digital signal processing unit 24 includes a processing unit that calculates a white balance gain (hereinafter referred to as “WB gain”) used for white balance correction, and details of the WB gain calculation will be described later.
  • WB gain a white balance gain
  • the image data processed by the digital signal processing unit 24 is output to the VRAM 50.
  • the VRAM 50 includes an A area and a B area each storing image data representing an image for one frame.
  • image data representing an image for one frame is rewritten alternately in the A area and the B area.
  • the written image data is read from an area other than the area where the image data is rewritten.
  • the image data read from the VRAM 50 is encoded by the video encoder 28 and output to the image display liquid crystal monitor 30 provided on the back of the camera, whereby the subject image (live view image) is displayed on the liquid crystal monitor 30. Displayed on the screen.
  • the image sensor 1 starts the AF operation and the AE operation, and the focus in the photographing optical system 12 is set via the lens driving unit 36. Control is performed so that the lens comes to the in-focus position.
  • the image data output from the A / D converter 20 when the shutter button is half-pressed is taken into the AE detection unit 44.
  • the AE detection unit 44 integrates the G signals of the entire screen or integrates the G signals that are weighted differently in the central portion and the peripheral portion of the screen, and outputs the integrated value to the CPU 40.
  • the CPU 40 calculates the brightness of the subject (shooting EV value) from the integrated value input from the AE detection unit 44, and based on this shooting EV value, the aperture value (F value) and the electronic shutter (shutter speed) of the image sensor 1. Is determined according to a predetermined program diagram.
  • the program diagram is designed for shooting (exposure) conditions including a combination of the F value and shutter speed, or a combination of these and shooting sensitivity (ISO sensitivity), corresponding to the brightness of the subject. Yes, by shooting under the shooting conditions determined according to the program diagram, it is possible to take an image with appropriate brightness regardless of the brightness of the subject.
  • the CPU 40 controls the aperture 14 via the aperture drive unit 34 based on the F value determined according to the program diagram, and charges on the image sensor 1 via the device control unit 32 based on the determined shutter speed. Control the accumulation time.
  • the AF processing unit 42 is a part that performs contrast AF processing.
  • the AF processing unit 42 extracts a high-frequency component of image data in a predetermined focus area from the image data, and indicates the in-focus state by integrating the high-frequency component.
  • An AF evaluation value is calculated.
  • AF control is performed by controlling the focus lens in the photographic optical system 12 so that the AF evaluation value is maximized.
  • the image data output from the A / D converter 20 in response to the press is stored in the memory from the image input controller 22. (SDRAM) Input to 48 and temporarily stored.
  • the image data temporarily stored in the memory 48 is appropriately read out by the digital signal processing unit 24.
  • the digital signal processing unit 24 performs predetermined signal processing such as color mixture correction, white balance correction, gamma correction processing, synchronization processing, YC processing, and sharpness correction on the read digital image signal, and YC-processed YC
  • the data is stored in the memory 48 again.
  • the YC data stored in the memory 48 is output to the compression / decompression processing unit 26, where a predetermined compression process such as JPEG (joint photographic experts group) is executed, and then an Exif file is generated to generate a media controller.
  • a predetermined compression process such as JPEG (joint photographic experts group) is executed, and then an Exif file is generated to generate a media controller.
  • the data is recorded on the memory card 54 via 52.
  • RGB color signals used for auto white balance (AWB) correction and the like are thinned and read out according to a predetermined thinning pattern among the lines obtained from the image sensor 1 in order to emphasize speed (to reduce the amount of calculation). Use line color signals.
  • line a and line c, line d and line f have the same filter arrangement, and the phases of lines a and c and lines d and f are shifted by 3 pixels.
  • Line b and line e are out of phase by 3 pixels but have the same filter arrangement.
  • a thinning pattern P 11 for reading out any one line from lines a, c, d, and f (( a) part) and a thinning pattern P 12 (part (b) in FIG. 3) for reading out one of the lines b and e.
  • the thinning pattern P 11 is the ratio of the number of RGB unequal, the ratio of G is higher than the RB (4-fold), whereas, in the case of thinning pattern P 12 is the thinning pattern P 11 , the ratio of R and B is high, and the ratio of the number of RGB is uniform.
  • the average value for each color has a relationship of R> G> B, and when the color temperature is high, the average value for each color is R ⁇ G ⁇ B. It becomes a relationship.
  • the accuracy of the B pixel or the R pixel is lowered, and therefore it is preferable to increase the number of pixels to be averaged.
  • the number of RB pixels is large (RGB pixel is evenly distributed) towards the thinning pattern P 12 is preferred.
  • the thinning pattern P 12 the G pixels R pixels in the horizontal direction, or B pixel is adjacent (R pixels or B is sandwiched pixels), the leakage of light from the adjacent pixels (color mixing) susceptible to the effects in the case of thinning pattern P 11, color mixing due light leakage different colors from adjacent pixels, less than thinning pattern P 12, less sensitive to color mixture. Therefore, the color mixture prone shooting conditions, towards the thinning pattern P 11 is preferred.
  • an optimum thinning pattern is determined according to the photographing conditions from a plurality of thinning patterns P 11 and P 12 having different ratios of the number of RGB, and a color signal of a predetermined line is read out in accordance with the determined thinning pattern. Then, an average value for each color of RGB is obtained, and a WB gain is calculated based on the obtained average value. Details of selection of a thinning pattern and calculation of a WB gain will be described later.
  • FIG. 4 shows three thinning patterns P 21 , P 22 , and P 23 when two lines are thinned and read out every six lines (2/6 thinning).
  • FIG. 4 shows a thinning pattern P 21 to read line a shown in FIG. 1, c, d, the two lines from f
  • FIG. 4 shows a thinning pattern P 22 to read one line from the e
  • line b shows a thinning pattern P 23 to read out two lines of e.
  • the three thinning patterns P 21 , P 22 , and P 23 have different ratios of the number of RGB color filters.
  • FIG. 5 shows three thinning patterns P 31 , P 32 , and P 33 when three lines are thinned and read out every six lines (3/6 thinning).
  • FIG. 5 shows a thinning pattern P 31 to read out the 3-line line a shown in FIG. 1, c, d, from f
  • FIG. 5C shows a thinning pattern P 21 for reading 2 lines from f and 1 line from lines b and e.
  • FIG. 5C shows two lines 1 to lines a, c, d and f, and lines b and e. It shows the thinning pattern P 33 to be read.
  • the three thinning patterns P 31 , P 32 , and P 33 are different in the ratio of the number of RGB color filters.
  • FIG. 6 shows three thinning patterns P 41 , P 42 , and P 43 when four lines are thinned and read out every six lines (4/6 thinning).
  • FIG. 6 shows a thinning pattern P 41 to read line a shown in FIG. 1, c, d, four lines of f,
  • the three thinning patterns P 41 , P 42 , and P 43 have different ratios of the number of RGB color filters.
  • R: G: B 5 : 14: 5
  • FIG. 7 is a table summarizing the combination of lines to be read (decimation pattern) from 1/6 thinning to 4/6 thinning (thinning pattern) shown in FIGS. 3 to 6 and the ratio of the number of RGB pixels in each thinning pattern. is there.
  • 1/6 thinning has the highest thinning rate (the number of lines to be read is small) and the amount of calculation is small, but the accuracy with respect to noise is low.
  • the thinning-out rate is the lowest (the number of lines to be read is large) and the calculation amount is large, but the accuracy with respect to noise is high.
  • FIG. 8 is a principal block diagram showing the internal configuration of the digital signal processing unit 24 shown in FIG.
  • the digital signal processing unit 24 includes a first signal processing system mainly including a color mixing correction unit 241, a white balance correction unit 242, and a signal processing unit 243, a thinning pattern determination unit 244, and a thinning reading unit. 245, an RGB integration unit 246, and a second signal processing system including a WB gain calculation unit 247.
  • the RAW data (mosaic image) in the color filter array output from the image sensor 1 at the time of shooting is temporarily stored in the memory 48, but the digital signal processing unit 24 reads the mosaic image from the memory 48. Then, display and recording images are generated.
  • the first signal processing system and the second signal processing system of the digital signal processing unit 24 appropriately read out a mosaic image (RGB color signal) from the memory 48 and perform parallel processing for speeding up.
  • a mosaic image RGB color signal
  • the color mixing correction unit 241 is a part that performs processing to reduce the influence of light leakage (color mixing) from adjacent pixels, and subtracts the signal components of RGB color signals according to the ratio of leakage from adjacent pixels. To reduce color mixing. Since the ratio of leakage from adjacent pixels changes depending on the incident angle of the light beam to each pixel, the ratio of color mixture is measured in advance at a plurality of incident angles while changing the incident angle of the light beam, and the measured color mixture It is necessary to use a ratio (correction parameter).
  • the RGB color signal subjected to the color mixture correction by the color mixture correction unit 241 is added to the white balance correction unit 242.
  • the WB gain for each RGB is added to the other input of the white balance correction unit 242 from the WB gain calculation unit 247, and the white balance correction unit 242 multiplies the RGB color signal by the WB gain for each RGB. To correct the white balance.
  • the RGB color signal subjected to white balance correction is added to the signal processing unit 243, where other signal processing such as gamma correction processing, synchronization processing, YC processing, and sharpness correction is performed.
  • the YC processed YC data is stored in the memory 48 again.
  • the YC data stored in the memory 48 is converted into an image display signal on the liquid crystal monitor 30 by the video encoder 28 and displayed on the liquid crystal monitor 30 as a post-view image.
  • an Exif file is generated and recorded on the memory card 54 via the media controller 52.
  • the thinning pattern determination unit 244 on the second signal processing system side determines one thinning pattern from a plurality of thinning patterns shown in FIGS. For example, a thinning pattern in which the lines a, c, d, and f are mainly selected is determined under shooting conditions in which color mixing increases, and a thinning pattern in which the lines b and e are mainly selected in shooting conditions with low color mixing. decide. Details of the operation of the thinning pattern determination unit 244 will be described later.
  • the thinning readout unit 245 thins out and reads out the color signal of a predetermined line in accordance with the thinning pattern determined by the thinning pattern determination unit 244 out of the RAW data (mosaic image) stored in the memory 48, and reads out each color of RGB The signal is output to the RGB integration unit 246.
  • the RGB integration unit 246 calculates an integrated average value for each RGB color signal for each divided area obtained by dividing one screen into 8 ⁇ 8 or 16 ⁇ 16, and calculates a ratio (R / G, B / G) is calculated. For example, when one screen is divided into 16 ⁇ 16 256 divided areas, 256 pieces of color information (R / G, B / G) are calculated.
  • the WB gain calculation unit 247 calculates the WB gain based on the color information (R / G, B / G) for each divided area input from the RGB integration unit 246. Specifically, the barycentric position of the distribution of color information for each of the 256 divided areas in the color space of the R / G and B / G axis coordinates is calculated, and the color of the ambient light is calculated from the color information indicated by the barycentric position. Estimate temperature. In addition, instead of the color temperature, a light source type having color information indicated by the position of the center of gravity, for example, blue sky, shade, clear, fluorescent lamp (daylight color, day white, white, warm white), tungsten, low tungsten, etc. is obtained. The light source type at the time of shooting may be estimated (see Japanese Patent Application Laid-Open No. 2007-53499), or the color temperature may be estimated from the estimated light source type.
  • a WB gain for each RGB or RB for performing appropriate white balance correction corresponding to the color temperature or light source type of the ambient light is prepared in advance, and the WB gain calculation unit 247 reads out the corresponding WB gain for each RGB or RB based on the estimated color temperature or light source type of the ambient light, and outputs the read WB gain to the white balance correction unit 242.
  • the speed of the signal processing can be increased. Since the WB gain is calculated based on the color signal of the thinned-out line without using all pixel data of the original image, the WB gain can be calculated at high speed. As a result, a post-view image for confirming the captured image can be viewed quickly.
  • the second signal processing system does not perform color mixture correction that increases the amount of calculation, but under shooting conditions where color mixture is likely to occur, line color signals that are less susceptible to color mixture are thinned out and read. A highly accurate WB gain can be calculated.
  • FIG. 9 is a flowchart showing a first embodiment of a WB gain calculation method.
  • Step S10 when the shutter button is pressed in the second stage (full press), a still image is actually captured, and RAW data acquired from the image sensor 1 by the actual capture is stored in the memory 48. (Step S10).
  • step S12 the zoom position and lens F value of the photographing optical system 12 (zoom lens) at the time of actual photographing are acquired, and a threshold value corresponding to the acquired zoom position and lens F value is selected (step S12).
  • a threshold value for determining whether or not color mixture is likely to occur is set based on the F value.
  • the angle of incidence on the microlens on the image sensor changes (the leakage of light from adjacent pixels changes) due to the zoom position (zoom magnification) of the zoom lens, and the amount of color mixture varies. I try to change it.
  • a threshold value table using F value and zoom position as parameters is prepared in advance, and the corresponding threshold value is read from the table from the F value and zoom position at the time of actual photographing.
  • step S14 it is determined whether or not the F value at the time of actual photographing is equal to or less than the selected threshold value (step S14).
  • the F value at the time of actual photographing is equal to or less than the threshold value (when “Yes”), it is determined that color mixing is likely to occur, and a thinning pattern corresponding to thinning-out readout of a line that is less affected by color mixing (with a small number of RB pixels). decide.
  • the color signal of a predetermined line is read out in accordance with the determined thinning pattern (step S16). For example, in the case of 1/6 decimation determines the thinning pattern P 11 shown in (a) portion of FIG. 4, reads a color signal of a line corresponding to the thinning pattern P 11 of the selection.
  • the F value at the time of actual photographing exceeds the threshold value (when “No”), it is determined that the influence of the mixed color is small, and the thinning-out readout of the line having more RB pixels than the line having the small influence of the mixed color is supported. Decide the thinning pattern to be used. Then, the color signal of a predetermined line is read out in accordance with the determined thinning pattern (step S18). For example, in the case of 1/6 decimation determines the thinning pattern P 12 shown in (b) portion of FIG. 4, reads a color signal of a line corresponding to the thinning pattern P 12 of the selection.
  • the integrated average value for each RGB is calculated from the RGB color signals read out in step S16 or S18, and the WB gain is calculated based on the integrated average value (step S20).
  • the WB gain is calculated by thinning out and reading out the color signal of the line with little influence of color mixing, so that the WB gain with high accuracy can be calculated.
  • the WB gain is calculated by thinning out and reading out the color signal of a line with more RB pixels (a line with a more uniform ratio of RGB pixels) than a line with less influence of color mixture. Therefore, the accuracy of the integrated average value of the RB pixels is increased, and a highly accurate WB gain can be calculated.
  • the threshold value is selected based on the zoom position and the F value at the time of actual photographing, and it is determined whether or not the photographing condition increases the color mixture. Based on either the position or the F value, it may be determined whether or not the shooting condition has a lot of color mixing, and the thinning pattern may be determined based on the determination result.
  • FIG. 10 is a flowchart showing a second embodiment of a WB gain calculation method.
  • the same step number is attached
  • the color temperature of the ambient light is calculated before the actual photographing (step S30).
  • the integrated average value for each color is calculated based on the RGB color signal of the live view image image data or the image data acquired when the shutter button is half-pressed, and the ambient light is calculated from the calculated integrated average value for each color. Calculate the color temperature.
  • step S30 After the actual photographing, it is determined whether or not the color temperature calculated in step S30 is out of the preset intermediate color temperature range (step S32).
  • the integrated average value for each RGB color at the low color temperature has a relationship of R> G> B, and the integrated average value for each RGB color at the high color temperature. Is in a relationship of R ⁇ G ⁇ B, as shown in part (c) of FIG.
  • a pixel (B pixel or R pixel) with a small output has an influence of light leakage from an adjacent pixel. It is easy to receive, and the calculation accuracy of the WB gain tends to deteriorate.
  • the color temperature calculated in step S30 is a color temperature that is outside the range of a predetermined intermediate color temperature (portion (b) in FIG. 11) in which the integrated average value for each of the RGB colors is substantially equal. (In the case of “Yes”), it is determined that color mixing is likely to occur, and the process proceeds to Step S16. In the intermediate color temperature range (in the case of “No”), it is determined that the influence of color mixing is small, and the RB The process proceeds to step S18 in which thinning-out reading of lines with many pixels is performed.
  • the WB gain is calculated by thinning out and reading out the color signal of the line with little influence of color mixing, so that the WB gain with high accuracy can be calculated.
  • the color signal of the line with many RB pixels is read out and the WB gain is calculated, so that the accuracy of the integrated average value of the RB pixels is increased and the accuracy is increased.
  • a high WB gain can be calculated.
  • FIG. 12 is a flowchart showing a third embodiment of a WB gain calculation method.
  • the same step number is attached
  • the CPU 40 calculates the brightness of the subject (shooting EV value) from the integrated value input from the AE detection unit 44 when the shutter button is half-pressed, and the F value, shutter speed, and shooting sensitivity (ISO) are based on this shooting EV value.
  • a shooting (exposure) condition comprising a combination of (sensitivity) is determined, and exposure control is performed according to the determined exposure condition at the time of actual shooting.
  • the shooting sensitivity is set low and exposure control is performed based on the F value and the shutter speed.
  • the brightness of the subject is dark and a sufficient signal amount cannot be obtained only with the F value and the shutter speed.
  • the shooting sensitivity gain
  • the noise is amplified and the noise becomes large.
  • step S40 it is determined whether or not the photographing sensitivity at the time of actual photographing is equal to or lower than a predetermined threshold (that is, whether or not the image is low in noise) (step S40).
  • a predetermined threshold that is, whether or not the image is low in noise
  • the photographing sensitivity is equal to or lower than a predetermined threshold (“Yes”), since the image is low in noise, priority is given to thinning-out readout of lines that are not easily affected by color mixture, and the process proceeds to step S16.
  • a predetermined threshold in the case of “No”
  • priority is given to thinning-out readout of a line with many RB pixels that is not easily affected by noise, and the process proceeds to step S18. Transition.
  • the WB gain is calculated by thinning out and reading out the color signal of the line with little influence of color mixture, it is possible to calculate the WB gain with high accuracy, and the noise.
  • the color signal of the line with many RB pixels is thinned out and the WB gain is calculated, so the accuracy of the integrated average value of the RB pixels is high and the WB gain is calculated with high accuracy. can do.
  • FIG. 13 is a flowchart showing the fourth embodiment of the WB gain calculation method, and shows a modification of the third embodiment shown in FIG.
  • the same step number is attached
  • the fourth embodiment shown in FIG. 13 is different from the third embodiment in the processing after it is determined that the photographing sensitivity exceeds a predetermined threshold (“No” in step S40).
  • step S40 if it is determined in step S40 that the photographing sensitivity exceeds the predetermined threshold (in the case of “No”), it is subsequently determined whether or not the calculation speed is important (step S50).
  • the continuous shooting mode is set as the shooting mode and it is necessary to process each image continuously shot at high speed, it is determined that the calculation speed is important.
  • step S50 If it is determined in step S50 that the speed is important (in the case of “Yes”), the process proceeds to step S52.
  • step S52 a thinning pattern for thinning out and reading out color signals of a line with many RB pixels is determined, but a thinning pattern with a high thinning rate is determined in order to emphasize speed. For example, as shown in part (a) of FIG. 4, a thinning pattern P 11 of 1/6 thinning is determined.
  • step S50 determines whether the speed is not important (in the case of “No”). If it is determined in step S50 that the speed is not important (in the case of “No”), the process proceeds to step S54.
  • step S54 a thinning pattern having a low thinning rate and corresponding to thinning-out reading of lines with little influence of color mixture is determined. For example, to determine the thinning pattern P 43 4/6 decimation shown in (c) portion of FIG. In this case, the ratio of the number of RB pixels is smaller than that of the G pixel, but since the thinning rate is low, the number of RB pixels is sufficiently large and even if the RB pixel contains a lot of noise. A highly accurate average value can be obtained.
  • FIG. 14 shows a case where a level difference (black level level difference) occurs in the offset in each color of RGB.
  • the RGB integration unit 246 illustrated in FIG. 8 calculates the offset values R offset , G offset , and B offset for each RGB color.
  • the calculation of these offset values R offset , G offset , and B offset is a signal in a light shielding region (optical black portion: OB portion) in the peripheral portion of the image sensor 1, and integrates signals for each pixel corresponding to RGB, It calculates by calculating
  • CMOS Complementary Metal-Oxide Semiconductor
  • CMOS Complementary Metal-Oxide Semiconductor
  • a difference in output level occurs depending on pixel positions 1 to 4 (upper left, upper right, lower left, and lower right positions with respect to the amplifier) with respect to the shared amplifier.
  • FIG. 16 shows a case where a step (black level step) is generated in the offset at pixel positions 1 to 4 with respect to the shared amplifier.
  • the RGB integrating unit 246 shown in FIG. 8 calculates the offset values Off1, Off2, Off3, and Off4 for each pixel position 1 to 4 with respect to the shared amplifier.
  • These offset values Off1, Off2, Off3, and Off4 are calculated by accumulating the signals of the OB portion of the image sensor 1 for each of the pixel positions 1 to 4 with respect to the shared amplifier and obtaining an average value thereof.
  • the integrated average values R data , G data, and B data for each of the RGB color signals that are thinned and read out from the thinning-out reading unit 245 are calculated, and the calculated offset values Off1, Off2, Off3, and Off4 are used. Offset correction of the integrated average values R data , G data, and B data for each color signal is performed.
  • one R pixel exists at each of the positions 1 and 4 and one G pixel exists at the positions 1 to 4.
  • Two pixels each exist, and one B pixel and one R pixel exist at positions 2 and 3, respectively.
  • the RGB offset values R offset , G offset , and B offset in the thinning lines a and d are calculated by the following equations based on the offset values Off1, Off2, Off3, and Off4 for the pixel positions 1 to 4 with respect to the shared amplifier. can do.
  • the offset value is calculated for each RGB color based on the offset values Off1, Off2, Off3, and Off4 of the pixel positions 1 to 4 with respect to the shared amplifier, and the accumulated average value for each RGB is corrected by the calculated offset value.
  • the offset value of RGB in the thinning lines a, d R offset, G offset is a formula for calculating the B offset, the offset value R offset, G offset, the B offset
  • the calculation formula to be calculated differs depending on the combination of one line or a plurality of lines to be read out. Accordingly, it is necessary to prepare a calculation formula for calculating the RGB offset values R offset , G offset , and B offset in accordance with the thinning pattern (see FIGS. 3 to 6) determined by the thinning pattern determination unit 244. There is.
  • [Others] 19 and 20 are diagrams showing other embodiments of the image sensor applied to the image pickup apparatus according to the present invention.
  • the color filter array of the image sensor of the embodiment shown in FIG. 19 includes a basic array pattern (pattern indicated by a thick frame) composed of a square array pattern corresponding to 7 ⁇ 7 pixels, and the basic array pattern is in the horizontal direction and the vertical direction. Repeatedly arranged in the direction.
  • a basic array pattern pattern indicated by a thick frame
  • the basic array pattern is in the horizontal direction and the vertical direction. Repeatedly arranged in the direction.
  • the G filter is arranged in each of the horizontal, vertical, diagonal upper right, and diagonal lower right lines of the color filter array, and the R filter, B Filters are arranged in the horizontal and vertical lines of the color filter array.
  • the color filter array of the image pickup device of the embodiment shown in FIG. 20 includes a basic array pattern (pattern indicated by a thick frame) composed of a square array pattern corresponding to 8 ⁇ 8 pixels. Repeatedly arranged in the direction.
  • the G filter is arranged in each of the horizontal, vertical, diagonal upper right, and diagonal lower right lines of the color filter array, and the R filter, B Filters are arranged in the horizontal and vertical lines of the color filter array.
  • the number of G filters is larger than that of R and B filters, and the ratio of the number of RGB color filters differs depending on the line.
  • the color filter array shown in FIGS. 19 and 20 is the same as the basic array pattern of 6 ⁇ 6 pixels shown in FIG. Since it is arranged in a line in each lower right direction, it is possible to improve the reproducibility of the synchronization processing in the high frequency region regardless of the direction of high frequency. In addition, since the R filter and the B filter are arranged in each line in the horizontal and vertical directions of the color filter array, it is possible to suppress the occurrence of color moire (false color).
  • the present invention can be applied not only to the image sensor having the basic array pattern of 6 ⁇ 6 pixels shown in FIG. 1 but also to an image sensor having another color filter array.
  • the present invention can be applied to any image sensor as long as the image sensor has a color filter array in which color filters are arranged and the ratio of the number of color filters of the three primary colors varies depending on the line.
  • the color filter array of the image sensor is not limited to the three primary colors RGB, and may include yellow or emerald.
  • color information (R / G, B / G) is acquired for each divided area obtained by dividing one screen into a plurality of areas, and a WB gain is calculated based on the color information of the plurality of divided areas.
  • the WB gain calculation method is not limited to this embodiment, and any method may be used as long as the WB gain is calculated based on the three primary color signals.
  • SYMBOLS 1 ... Imaging device, 10 ... Imaging device, 12 ... Imaging optical system, 14 ... Diaphragm, 24 ... Digital signal processing part, 30 ... Liquid crystal monitor, 38 ... Operation part, 40 ... Central processing unit (CPU), 46 ... ROM, 48 ... Memory, 54 ... Memory card, 242 ... White balance correction unit, 244 ... Thinning pattern determination unit, 245 ... Thinning reading unit, 246 ... RGB integration unit, 247 ... WB gain calculation unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Color Television Image Signal Generators (AREA)
  • Processing Of Color Television Signals (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

 各ラインにRGBのカラーフィルタが配列されるとともに、RGBのカラーフィルタの個数の比率がラインにより異なる、特別なカラーフィルタ配列を有する撮像素子から出力されるRGBの色信号のホワイトバランス補正を行う。前記ホワイトバランス補正に使用するWBゲインを算出する際に、前記撮像素子の全画素を使用せずに所定のラインを間引き読み出しし、間引き読み出しした所定のラインの色信号に基づいてWBゲインを算出する。また、間引きする所定のラインとして、混色が多い撮影条件(レンズF値、ズームポジション)では混色の少ないラインを選択し、混色が少ない撮影条件下では、RGBカラーフィルタの個数の比率がより均等なラインを選択するようにしている。

Description

撮像装置及び画像処理方法
 本発明は撮像装置及び画像処理方法に係り、特にホワイトバランスゲインを高速かつ精度よく算出する技術に関する。
 特許文献1には、撮像素子の全領域の画像から間引き(抽出)した画像に基づいてホワイトバランスゲイン(WBゲイン)を算出するとともに、電子ズームにより撮像素子の一部の領域の画像を本撮像し、前記算出したWBゲインによりホワイトバランス補正を行う撮像装置が記載されている。これにより、本撮影される領域に比べて白が存在する確率の高い領域の画像から色温度を検出することにより、WBゲインを精度よく算出できるようにしている。
 また、特許文献2には、固体撮像素子から画素の信号を間引き読み出しし、又は垂直方向の同色のラインにおける複数の画素の信号を加算して読み出し、その読み出した信号を検波(色別レベルの積分処理)することによりWBゲインを算出する記載がある。
 ところで、上記特許文献1、2に記載の撮像装置に適用されている撮像素子は、ベイヤ配列のカラーフィルタ配列を有している(特許文献1の段落[0023]、図4、特許文献2の図3)。
 ベイヤ配列は、緑(G)画素を市松状に、赤(R)、青(B)を線順次に配置しているため、各色の再現帯域を越えた高周波信号の折り返りと各色の位相のずれにより低周波の色付き(色モアレ)が発生するという問題がある。
 このような問題を解決するために、撮像素子のカラーフィルタ配列を、任意の着目画素が該着目画素の色を含む3色と該着目画素の4辺のいずれかにおいて隣接する配列制限条件を満たす3色ランダム配列としたカラー撮像素子が提案されている(特許文献3)。
 また、特許文献4には、Rフィルタ、Bフィルタに比べてGフィルタの割合を多くし、同じ割合の色フィルタを格子構造に配置した場合に比べて、色の水平方向及び垂直方向の解像度をアップするとともに、輝度信号における色モアレを低減することができる撮像装置が提案されている。
特開2007-295300号公報 特開2003-116143号公報 特開2000-308080号公報 特開平8-23542号公報
 モザイク状のカラーフィルタ配列を有する撮像素子では、隣接する画素からの光の漏れ込みによる混色が発生する。混色の程度は、撮影レンズの焦点距離、絞りのF値等の撮影条件に依存する。
 混色の多いRGBの色信号に基づいてWBゲインを算出すると、精度よくWBゲインを算出することができないという問題がある。
 特許文献1、2に記載のベイヤ配列を有する撮像素子の場合、RGrRGrの順に繰り返すラインと、GbBGbの順に繰り返すラインとが交互に配列されており、1つのライン上にはRGBの画素が存在せず、また、WBゲインの算出時にラインの間引き読み出しを適宜変更しても、混色の影響を受けにくい間引き読み出し、混色の影響を受けやすい間引き読み出し等を行うことができない。
 一方、特許文献3に記載の3色ランダム配列としたカラー撮像素子の場合、1つのライン上にRGBの画素が存在するが、RGBのフィルタがランダム配置されているため、WBゲインの算出時にいずれのラインを間引き読み出ししても、同程度の混色の影響を受けた色信号が取得されることになり、混色の影響を低減させた精度の高いWBゲインを算出することができない。
 また、特許文献4に記載のカラーフィルタ配列は、水平、垂直方向のいずれのラインもGフィルタが多く配置されているため、いずれのラインを間引き読み出ししてもRGBの画素の個数の比率は不均等なものとなる。WBゲインを求める際には、RGBの色信号毎の積算平均値を求めるが、平均する画素数が異なるため、特に高速化のために間引き率を高くすると、RGBの積算平均値の精度にバラツキが発生しやすく、WBゲインを精度よく算出することができないという問題がある。
 本発明はこのような事情に鑑みてなされたもので、ノイズの影響及び隣接画素間の混色の影響を考慮した精度の高いホワイトバランスゲインを高速に算出することができ、精度の高いホワイトバランス補正を迅速に行うことができる撮像装置及び画像処理方法を提供することを目的とする。
 前記目的を達成するために本発明の一の態様に係る撮像装置は、撮影光学系と、前記撮影光学系を介して被写体像が結像される撮像素子であって、2次元状に配列された光電変換素子上に3原色を含むカラーフィルタが配列され、各ラインに3原色のカラーフィルタが配列されるとともに、3原色のカラーフィルタの個数の比率が異なる複数のラインを含むカラーフィルタ配列を有する撮像素子と、前記複数のラインのうち前記3原色のカラーフィルタの個数の比率がより均等なラインの各色のカラーフィルタに対応する各色信号に基づいてホワイトバランスゲインを算出するホワイトバランスゲイン算出手段と、前記ホワイトバランスゲイン算出手段により算出されたホワイトバランスゲインに基づいて前記撮像素子を介して取得される各色信号にホワイトバランス補正を行うホワイトバランス補正手段と、を備えている。
 本発明の一の態様によれば、3原色のカラーフィルタの個数の比率がラインにより異なる特別なカラーフィルタ配列を有する撮像素子を使用し、3原色のカラーフィルタの個数の比率がより均等なラインの色信号に基づいてホワイトバランスゲインを算出するようにしている。これにより、ノイズ成分による3原色の検出精度(積算平均値)のバラツキが小さくなり、精度の高いホワイトバランスゲインを算出することができるようにしている。
 本発明の他の態様に係る撮像装置は、撮影光学系と、前記撮影光学系を介して被写体像が結像される撮像素子であって、2次元状に配列された光電変換素子上に3原色を含むカラーフィルタが配列され、各ラインに3原色のカラーフィルタが配列されるとともに、3原色のカラーフィルタの個数の比率が異なる複数のラインを含むカラーフィルタ配列を有する撮像素子と、前記複数のラインのうち間引き読み出しするラインを選択するための複数の間引きパターンから、撮影条件に応じて1つの間引きパターンを決定する間引きパターン決定手段と、前記撮像素子により取得された各ラインの前記カラーフィルタに対応する色信号のうち、前記間引きパターン決定手段により決定された間引きパターンにしたがって選択された所定のラインの色信号に基づいてホワイトバランスゲインを算出するホワイトバランスゲイン算出手段と、前記ホワイトバランスゲイン算出手段により算出されたホワイトバランスゲインに基づいて前記撮像素子を介して取得される各色信号にホワイトバランス補正を行うホワイトバランス補正手段と、を備えている。
 3原色のカラーフィルタの個数の比率が不均等なラインは、隣接画素から異なる色の光の漏れ込みによる混色が、均等なラインに比べて低い。そこで、混色が多くなる撮影条件下では、混色の少ないライン(3原色のカラーフィルタの個数の比率が不均等なライン)を選択する間引きパターンを決定し、その決定した間引きパターンにしたがって間引き読み出しした色信号に基づいてホワイトバランスゲインを算出し、混色の影響が低減された、精度の高いホワイトバランスゲインを算出するようにしている。
 一方、混色が少ない撮影条件下では、ノイズの影響の少ないライン(3原色のカラーフィルタの個数の比率がより均等なライン)を選択する間引きパターンを決定し、決定した間引きパターンにしたがって間引き読み出しした所定のラインの色信号に基づいてホワイトバランスゲインを算出するようにしている。
 混色が少ない撮影条件下では、3原色の色信号の個数の比率がより均等な方が、各色信号のノイズ成分による検出精度のバラツキが小さくなり、精度の高いホワイトバランスゲインを算出することができる。そこで、混色が少ない撮影条件下では、3原色のカラーフィルタの個数の比率がより均等なラインを選択する間引きパターンを決定し、その決定した間引きパターンにしたがって間引き読み出しした色信号に基づいて精度の高いホワイトバランスゲインを算出するようにしている。
 本発明の他の態様に係る撮像装置において、前記間引きパターン決定手段は、前記撮影光学系の撮影時のF値及びズーム倍率の少なくとも一方に基づいて、前記複数の間引きパターンから1つの間引きパターンを決定することが好ましい。
 撮影光学系のF値が開放F値に近づく程、混色が多くなる。また、一般に撮像素子の各光電変換素子上には、集光用のマイクロレンズが配設されているが、これらのマイクロレンズは、光束の入射角補正のために撮像素子の中心からの距離に応じて光電変換素子に対してわずかにシフトして配設されている(スケーリングされている)。ズーム倍率によりマイクロレンズへの入射角が予め想定されている入射角から外れると、混色が多くなる。そこで、本発明の他の態様では、撮影時のF値及びズーム倍率の少なくとも一方に基づいて混色が多い撮影条件か否かを判別するようにしている。
 本発明の更に他の態様に係る撮像装置において、前記間引きパターン決定手段は、環境光の色温度を検出する色温度検出手段を含み、該色温度検出手段により検出された環境光の色温度に基づいて、前記複数の間引きパターンから1つの間引きパターンを決定することが好ましい。環境光の色温度が、3原色の各色信号のレベルがほぼ等しくなるような中間色温度の場合、混色によるホワイトバランスゲインの算出精度への影響は少ないが、低色温度又は高色温度の場合、混色成分がホワイトバランスゲインの算出精度に大きく影響する。そこで、本発明の更に他の態様では、環境光の色温度に基づいて適切な間引パターンを選択するようにしている。
 本発明の更に他の態様に係る撮像装置において、前記間引きパターン決定手段は、混色が多い撮影条件かを判定し、混色が多い撮影条件下では前記3原色のカラーフィルタの個数の比率が不均等なラインを選択する間引きパターンを決定し、混色が少ない撮影条件下では前記3原色のカラーフィルタに対応する画素数の比率がより均等なラインを選択する間引きパターンを決定することが好ましい。
 本発明の更に他の態様に係る撮像装置において、撮影感度を設定する感度設定手段を備え、前記間引きパターン決定手段は、前記感度設定手段により設定された撮影感度が低感度の場合には、前記3原色のカラーフィルタの個数の比率が不均等なラインを選択する間引きパターンを決定し、前記設定された撮影感度が高感度の場合には、前記3原色のカラーフィルタの個数の比率がより均等なラインを選択する間引きパターンを決定することが好ましい。
 撮影感度が低い場合、ノイズによる影響が小さいため、混色の少ないラインを間引き読み出しする方が、精度の高いホワイトバランスゲインを算出することができる。一方、撮影感度が高い場合、ノイズによる影響が大きいため、各色信号の積算平均値を求める場合に、3原色のカラーフィルタの個数の比率がより均等なラインを間引き読み出しする方が、精度の高いホワイトバランスゲインを算出することができる。そこで、本発明の更に他の態様では、撮影感度に基づいて間引きパターンを選択するようにしている。
 本発明の更に他の態様に係る撮像装置において、撮影感度を設定する感度設定手段を備え、前記複数の間引きパターンは、間引き率の異なる間引きパターンを含み、前記間引きパターン決定手段は、前記感度設定手段により設定された撮影感度が低感度の場合には、前記間引き率の異なる間引きパターンのうちの間引き率が高い間引きパターンを決定し、前記設定された撮影感度が高感度の場合には、前記間引き率の異なる間引きパターンのうちの間引き率が低い間引きパターンを決定することが好ましい。
 撮影感度が低感度の場合には、ノイズ成分の影響が少ないため、間引き率を高くすることにより演算速度の高速化を図り、一方、撮影感度が高感度の場合には、間引き率を低くすることにより、演算速度の高速化よりもノイズ成分の影響を低減し、精度の高いホワイトバランスゲインを算出することを優先するようにしている。
 本発明の更に他の態様に係る撮像装置において、撮影感度を設定する感度設定手段と、演算速度を重視するか否かを判別する判別手段と、を備え、前記複数の間引きパターンは、間引き率の異なる間引きパターンを含み、前記間引きパターン決定手段は、前記感度設定手段により設定された撮影感度が低感度の場合には、前記間引き率の異なる間引きパターンのうちの間引き率が高く、かつ前記3原色のカラーフィルタの個数の比率が不均等なラインを選択する間引きパターンを決定し、前記設定された撮影感度が高感度かつ演算速度を重視する場合には、前記間引き率の異なる間引きパターンのうちの間引き率が高く、かつ前記3原色のカラーフィルタの個数の比率がより均等なラインを選択する間引きパターンを決定し、前記設定された撮影感度が高感度かつ演算速度を重視しない場合には、前記間引き率の異なる間引きパターンのうちの間引き率が低く、かつ前記3原色のカラーフィルタの個数の比率が不均等なラインを選択する間引きパターンを決定することが好ましい。
 撮影感度が高い場合でも、ホワイトバランスゲインの算出精度へのノイズの影響を少なくすることができれば、混色の少ないラインを間引き読み出しする方が、精度の高いホワイトバランスゲインを算出することができる。そこで、本発明の更に他の態様では、撮影感度が高い場合でも、演算速度を重視しない場合には、間引き率が低く、かつ混色の少ないラインを間引き読み出しする間引きパターンを決定するようにしている。この場合、間引き率が低い間引きパターンを使用することにより、より多くの色信号の積算平均値を算出することになるため、ホワイトバランスゲインの算出精度へのノイズの影響を少なくすることができる。
 本発明の更に他の態様に係る撮像装置において、前記3原色のカラーフィルタに対応する色信号毎にオフセット値を算出する算出手段を備え、前記ホワイトバランスゲイン算出手段は、前記ホワイトバランスゲインの算出に使用するラインの色信号毎の積算平均値を算出するとともに、該積算平均値から前記色信号毎に算出したオフセット値を減算し、減算した色信号毎の積算平均値の比に基づいてホワイトバランスゲインを算出することが好ましい。色信号毎にオフセットの補正を行うことにより、ホワイトバランスゲインの算出精度を向上させることができる。
 本発明の更に他の態様に係る撮像装置において、前記撮像素子は、所定の画素群毎にアンプを共有する素子構造を有する撮像素子であり、前記算出手段は、前記アンプを共有する各画素の該アンプに対する位置毎のオフセット値を算出する第1の算出手段と、前記間引きパターン決定手段により決定された間引きパターンにおける各画素の前記アンプに対する位置と、前記第1の算出手段により算出された前記アンプに対する位置毎のオフセット値とに基づいて色信号毎のオフセット値を算出する第2の算出手段と、を含んでいる。共有アンプを含む下地の素子構造により発生するオフセット成分の段差を考慮した、前記色信号毎のオフセット値を算出することができ、このオフセット値により各色信号の積算平均値を補正することにより、ホワイトバランスゲインの算出精度を向上させることができる。
 本発明の更に他の態様に係る撮像装置において、前記撮像素子のカラーフィルタ配列は、輝度信号を得るために最も寄与する第1の色に対応する第1のフィルタと前記第1の色以外の2色以上の第2の色に対応する第2のフィルタとが配列された所定の基本配列パターンを含み、該基本配列パターンが水平方向及び垂直方向に繰り返して配置され、前記第1のフィルタは、前記カラーフィルタ配列の水平、垂直、斜め右上、及び斜め右下方向の各ライン内に配置され、前記第2のフィルタは、前記基本配列パターン内に前記カラーフィルタ配列の水平、及び垂直方向の各ライン内に1つ以上配置され、前記第1のフィルタに対応する第1の色の画素数の比率は、前記第2のフィルタに対応する第2の色の各色の画素数の比率よりも大きいことが好ましい。
 これによれば、輝度信号を得るために最も寄与する第1の色に対応する第1のフィルタを、カラーフィルタ配列の水平、垂直、斜め右上、及び斜め右下方向の各ライン内に1つ以上配置するようにしたため、高周波領域での同時化処理の再現精度を向上させることができ、また、前記第1の色以外の2色以上の第2の色に対応する第2のフィルタについてもカラーフィルタ配列の水平、及び垂直方向の各ライン内に1つ以上配置するようにしたため、色モワレ(偽色)の発生を抑圧して高解像度化を図ることができる。更に、前記カラーフィルタ配列は、所定の基本配列パターンが水平方向及び垂直方向に繰り返して配置されているため、後段での同時化(補間)処理を行う際に、繰り返しパターにしたがって処理を行うことができ、ランダム配列に比べて後段の処理を簡略化することができる。
 本発明の更に他の態様に係る撮像装置において、前記撮像素子のカラーフィルタ配列は、赤(R)、緑(G)、青(B)のカラーフィルタが配列された所定の基本配列パターンを含み、該基本配列パターンが水平方向及び垂直方向に繰り返して配置され、前記所定の基本配列パターンは、6×6画素に対応する正方配列パターンであり、前記カラーフィルタ配列は、3×3画素に対応する第1の配列であって、中心と4隅にGフィルタが配置され、中心のGフィルタを挟んで上下にBフィルタが配置され、左右にRフィルタが配列された第1の配列と、3×3画素に対応する第2の配列であって、中心と4隅にGフィルタが配置され、中心のGフィルタを挟んで上下にRフィルタが配置され、左右にBフィルタが配列された第2の配列とが、交互に水平方向及び垂直方向に配列されて構成されている。
 上記カラーフィルタ配列は、輝度信号を得るために最も寄与するG信号に対応するGフィルタを、水平、垂直、斜め右上、斜め右下方向の各ライン内に1つ以上配置するようにしたため、高周波領域での同時化処理の再現精度を向上させることができ、また、R信号、B信号に対応するR,Bフィルタについても水平、及び垂直方向の各ライン内に1つ以上配置するようにしたため、色モワレ(偽色)の発生を抑圧して高解像度化を図ることができる。
 本発明の更に他の態様に係る撮像装置において、前記複数の間引きパターンは、6ライン毎に1ラインを間引き読み出しする場合において、RGBのカラーフィルタの個数の比率が1:4:1のラインを読み出す間引きパターンと、RGBのカラーフィルタの個数の比率が1:1:1のラインを読み出す間引きパターンとを含んでいる。この間引きパターンは、1/6間引きとなり、間引き率が最も高く、ホワイトバランスゲインの算出時の演算量が最も少なく高速化が可能である。
 本発明の更に他の態様に係る撮像装置において、前記複数の間引きパターンは、6ライン毎に2ラインを間引き読み出しする場合において、RGBのカラーフィルタの個数の比率が1:4:1のラインを読み出す間引きパターンと、RGBのカラーフィルタの個数の比率が1:1:1のラインを読み出す間引きパターンとを含んでいる。
 本発明の更に他の態様に係る撮像装置において、前記複数の間引きパターンは、6ライン毎に3ラインを間引き読み出しする場合において、RGBのカラーフィルタの個数の比率が1:4:1のラインを読み出す間引きパターンと、RGBのカラーフィルタの個数の比率が5:8:5のラインを読み出す間引きパターンとを含んでいる。
 本発明の更に他の態様に係る撮像装置において、前記複数の間引きパターンは、6ライン毎に4ラインを間引き読み出しする場合において、RGBのカラーフィルタの個数の比率が1:4:1のラインを読み出す間引きパターンと、RGBのカラーフィルタの個数の比率が1:2:1のラインを読み出す間引きパターンとを含んでいる。この間引きパターンは、4/6間引きとなり、間引き率が低く、ホワイトバランスゲインの算出時の演算量が多くなるが、ノイズの影響の少ないホワイトバランスゲインを算出することができる。
 本発明の更に他の態様に係る画像処理方法は、撮影光学系及び3原色のカラーフィルタが配列された撮像素子を介してカラーフィルタ配列に対応するモザイク画像を取得する画像取得工程であって、前記モザイク画像の各ラインには3原色に対応する色信号が含まれ、かつ3原色に対応する画素の個数の比率がラインにより異なるモザイク画像を取得する画像取得工程と、前記撮像素子の複数のラインのうち前記3原色のカラーフィルタの個数の比率がより均等なラインの各色のカラーフィルタに対応する各色信号に基づいてホワイトバランスゲインを算出するホワイトバランスゲイン算出工程と、前記ホワイトバランスゲイン算出工程により算出されたホワイトバランスゲインに基づいて前記撮像素子を介して取得される各色信号にホワイトバランス補正を行うホワイトバランス補正工程と、を含んでいる。
 本発明の更に他の態様に係る画像処理方法は、撮影光学系及び3原色のカラーフィルタが配列された撮像素子を介してカラーフィルタ配列に対応するモザイク画像を取得する画像取得工程であって、前記モザイク画像の複数のラインの各ラインには3原色に対応する色信号が含まれ、かつ3原色に対応する画素の個数の比率がラインにより異なるモザイク画像を取得する画像取得工程と、前記複数のラインのうち間引き読み出しするラインを選択するための複数の間引きパターンから、撮影条件に応じて1つの間引きパターンを決定する間引きパターン決定工程と、前記撮像素子により取得された各ラインの前記カラーフィルタに対応する色信号のうち、前記間引きパターン決定工程により決定された間引きパターンにしたがって選択された所定のラインの色信号に基づいてホワイトバランスゲインを算出するホワイトバランスゲイン算出工程と、前記ホワイトバランスゲイン算出工程により算出されたホワイトバランスゲインに基づいて前記撮像素子を介して取得される各色信号にホワイトバランス補正を行うホワイトバランス補正工程と、を含んでいる。
  本発明によれば、3原色のカラーフィルタの個数の比率がラインにより異なる特別なカラーフィルタ配列を有する撮像素子を使用するが、前記3原色のカラーフィルタの個数の比率がより均等なラインの各色のカラーフィルタに対応する各色信号に基づいてホワイトバランスゲインを算出するようにしたため、ノイズ成分の影響が少なく精度の高いホワイトバランスゲインを算出することができる。また、混色が多い撮影条件下では混色の少ないライン(3原色のカラーフィルタの個数の比率が不均等なライン)の色信号に基づいてホワイトバランスゲインを算出し、一方、混色が少ない撮影条件下ではノイズの影響が少ないライン(3原色のカラーフィルタの個数の比率がより均等なライン)の色信号に基づいてホワイトバランスゲインを算出するようにしたため、精度の高いホワイトバランスゲインを算出することができ、精度の高いホワイトバランス補正を迅速に行うことができる。
本発明に係る撮像装置に適用される撮像素子の実施形態を示す図 本発明に係る撮像装置の実施形態を示すブロック図 1/6間引きする場合の2つの間引きパターンを示す図 2/6間引きする場合の3つの間引きパターンを示す図 3/6間引きする場合の3つの間引きパターンを示す図 4/6間引きする場合の3つの間引きパターンを示す図 図3から図6に示した1/6間引きから4/6間引きにおける間引き読み出するラインの組み合わせ(間引きパターン)と、各間引きパターンにおけるRGBの画素数の比率をまとめた図表 図2に示したデジタル信号処理部の内部構成を示す要部ブロック図 WBゲインの算出方法の第1の実施形態を示すフローチャート WBゲインの算出方法の第2の実施形態を示すフローチャート 色温度毎のRGBの信号レベルの一例を示す図 WBゲインの算出方法の第3の実施形態を示すフローチャート WBゲインの算出方法の第4の実施形態を示すフローチャート RGBの各色でオフセットに段差(黒レベル段差)が生じている場合を示す図 2×2の4画素が1つのアンプを共有している撮像素子の一例を示す図 共有アンプに対する画素の位置1~4でオフセットに段差(黒レベル段差)が生じている場合を示す図 基本配列パターンにおける各色の画素と、共有アンプに対する画素の位置1~4との関係を示す図 2/6間引きされるラインa,dの各色の画素と共有アンプに対する画素の位置1~4との関係を示す図 本発明に係る撮像装置に適用される撮像素子の他の実施形態を示す図 本発明に係る撮像装置に適用される撮像素子の更に他の実施形態を示す図
 以下、添付図面にしたがって本発明に係る撮像装置及び画像処理方法の好ましい実施の形態について詳説する。
 [撮像素子]
 図1は本発明に係る撮像装置に適用される撮像素子の実施形態を示す図であり、特に撮像素子1の受光面上に配置されている新規のカラーフィルタ配列に関して示している。
 この撮像素子1のカラーフィルタ配列は、6×6画素に対応する正方配列パターンからなる基本配列パターンを含み、この基本配列パターンが水平方向及び垂直方向に繰り返し配置されている。即ち、このカラーフィルタ配列は、赤(R)、緑(G)、青(B)の各色のフィルタ(Rフィルタ、Gフィルタ、Bフィルタ)が所定の周期性をもって配列されている。このようにRフィルタ、Gフィルタ、Bフィルタが所定の周期性をもって配列されているため、撮像素子1から読み出されるRGBのRAWデータ(モザイク画像)の画像処理等を行う際に、繰り返しパターにしたがって処理を行うことができる。
 図1に示すカラーフィルタ配列は、輝度4信号を得るために最も寄与する色(この実施形態では、Gの色)に対応するGフィルタが、カラーフィルタ配列の水平、垂直、斜め右上、斜め右下の各方向の各ライン内に配置されている。
 輝度系画素に対応するGフィルタが、カラーフィルタ配列の水平、垂直、斜め右上、斜め右下の各方向のライン内に配置されるため、高周波となる方向によらず高周波領域での同時化処理の再現精度を向上させることができる。
 また、このカラーフィルタ配列は、上記Gの色以外のR,Bの色に対応するRフィルタ、Bフィルタが、カラーフィルタ配列の水平、及び垂直方向の各ライン内に配置されている。
 Rフィルタ、Bフィルタが、カラーフィルタ配列の水平、及び垂直方向の各ライン内に配置されるため、色モワレ(偽色)の発生を抑圧することができる。
 図1に示した6×6画素の基本配列パターンを3×3画素に4分割すると、実線の枠で囲んだ3×3画素のA配列と、破線の枠で囲んだ3×3画素のB配列とが、水平、垂直方向に交互に並べられた配列となっている。
 A配列及びB配列は、それぞれGフィルタが4隅と中央に配置され、両対角線上に配置されている。また、A配列は、中央のGフィルタを挟んでRフィルタが水平方向に配列され、Bフィルタが垂直方向に配列され、一方、B配列は、中央のGフィルタを挟んでBフィルタが水平方向に配列され、Rフィルタが垂直方向に配列されている。即ち、A配列とB配列とは、RフィルタとBフィルタとの位置関係が逆転しているが、その他の配置は同様になっている。
 また、A配列とB配列の4隅のGフィルタは、A配列とB配列とが水平、垂直方向に交互に配置されることにより、2×2画素に対応する正方配列のGフィルタとなる。
 [撮像装置]
 図2は本発明に係る撮像装置の実施形態を示すブロック図である。
 この撮像装置10は、図1に示した撮像素子1が配設され、静止画や動画の撮影が可能なデジタルカメラであり、装置全体の動作は、中央処理装置(CPU)40によって統括制御される。
 撮像装置10には、シャッタボタン、モードダイヤル、再生ボタン、MENU/OKキー、十字キー、BACKキー等の操作部38が設けられている。この操作部38からの信号はCPU40に入力され、CPU40は入力信号に基づいて撮像装置10の各回路を制御し、例えば、レンズ駆動制御、絞り駆動制御、撮影動作制御、画像処理制御、画像データの記録/再生制御、表示用の液晶モニタ30の表示制御などを行う。
 シャッタボタンは、撮影開始の指示を入力する操作ボタンであり、半押し時にONするS1スイッチと、全押し時にONするS2スイッチとを有する二段ストローク式のスイッチで構成されている。モードダイヤルは、撮影モード、人物、風景、夜景等のシーンポジション、動画モード等を選択する選択手段である。
 再生ボタンは、撮影記録した静止画又は動画を液晶モニタ30に表示させる再生モードに切り替えるためのボタンである。MENU/OKキーは、液晶モニタ30の画面上にメニューを表示させる指令を行うためのメニューボタンとしての機能と、選択内容の確定及び実行などを指令するOKボタンとしての機能とを兼備した操作キーである。十字キーは、上下左右の4方向の指示を入力する操作部であり、メニュー画面から項目を選択したり、各メニューから各種設定項目の選択を指示したりするボタン(カーソル移動操作手段)として機能する。また、十字キーの上/下キーは撮影時のズームスイッチあるいは再生モード時の再生ズームスイッチとして機能し、左/右キーは再生モード時のコマ送り(順方向/逆方向送り)ボタンとして機能する。BACKキーは、選択項目など所望の対象の消去や指示内容の取消し、あるいは1つ前の操作状態に戻らせる時などに使用される。
 撮影モード時において、被写体を示す画像光は、撮影光学系(ズームレンズ)12、絞り14を介して撮像素子1の受光面に結像される。撮影光学系12は、CPU40によって制御されるレンズ駆動部36によって駆動され、フォーカス制御、ズーム制御等が行われる。絞り14は、例えば、5枚の絞り羽根からなり、CPU40によって制御される絞り駆動部34によって駆動され、例えば、F値としてF1.4~F11まで1AV刻みで7段階に絞り制御される。
 また、CPU40は、絞り駆動部34を介して絞り14を制御するとともに、デバイス制御部32を介して撮像素子1での電荷蓄積時間(シャッタ速度)や、撮像素子1からの画像信号の読み出し制御等を行う。
 撮像素子1に蓄積された信号電荷は、デバイス制御部32から加えられる読み出し信号に基づいて信号電荷に応じた電圧信号として読み出される。撮像素子1から読み出された電圧信号は、アナログ信号処理部18に加えられ、ここで各画素毎のR、G、B信号がサンプリングホールドされ、CPU40から指定されたゲイン(ISO感度に相当)で増幅されたのちA/D変換器20に加えられる。A/D変換器20は、順次入力するR、G、B信号をデジタルのR、G、B信号に変換して画像入力コントローラ22に出力する。
 デジタル信号処理部24は、画像入力コントローラ22を介して入力するデジタルの画像信号に対して、混色補正、ホワイトバランス補正、ガンマ補正処理、同時化処理(原色フィルタの配列に伴う色信号の空間的なズレを補間して色信号を同時式に変換する処理)、YC処理(画像データの輝度データ及び色差データの生成処理)、シャープネス補正等の所定の信号処理を行う。
 図2において、46は、カメラ制御プログラム、画像処理等に使用する各種のパラメータやテーブル等が記憶されているROM(EEPROM)である。
 また、デジタル信号処理部24は、ホワイトバランス補正に使用するホワイトバランスゲイン(以下「WBゲイン」という)等を算出する処理部を含むが、WBゲイン算出の詳細については後述する。
 デジタル信号処理部24で処理された画像データはVRAM50に出力される。VRAM50には、それぞれが1コマ分の画像を表す画像データを記憶するA領域とB領域とが含まれている。VRAM50において1コマ分の画像を表す画像データがA領域とB領域とで交互に書き換えられる。VRAM50のA領域及びB領域のうち、画像データが書き換えられている方の領域以外の領域から、書き込まれている画像データが読み出される。VRAM50から読み出された画像データはビデオ・エンコーダ28においてエンコーディングされ、カメラ背面に設けられている画像表示用の液晶モニタ30に出力され、これにより被写体像(ライブビュー画像)が液晶モニタ30の表示画面上に表示される。
 また、操作部38のシャッタボタンの第1段階の押下(半押し)があると、撮像素子1は、AF動作及びAE動作を開始させ、レンズ駆動部36を介して撮影光学系12内のフォーカスレンズが合焦位置にくるように制御する。また、シャッタボタンの半押し時にA/D変換器20から出力される画像データは、AE検出部44に取り込まれる。
 AE検出部44では、画面全体のG信号を積算し、又は画面中央部と周辺部とで異なる重みづけをしたG信号を積算し、その積算値をCPU40に出力する。CPU40は、AE検出部44から入力する積算値より被写体の明るさ(撮影EV値)を算出し、この撮影EV値に基づいて絞り値(F値)及び撮像素子1の電子シャッタ(シャッタ速度)を所定のプログラム線図にしたがって決定する。
 ここで、プログラム線図とは、被写体の明るさに対応して、F値とシャッタ速度の組み合わせ、又はこれらと撮影感度(ISO感度)の組み合わせからなる撮影(露出)条件が設計されたものであり、プログラム線図にしたがって決定された撮影条件で撮影を行うことにより、被写体の明るさにかかわらず、適正な明るさの画像を撮影することができる。
 CPU40は、上記プログラム線図にしたがって決定したF値に基づいて絞り駆動部34を介して絞り14を制御するとともに、決定したシャッタ速度に基づいてデバイス制御部32を介して撮像素子1での電荷蓄積時間を制御する。
 AF処理部42は、コントラストAF処理を行う部分であり、例えば、画像データのうちの所定のフォーカス領域内の画像データの高周波成分を抽出し、この高周波成分を積分することにより合焦状態を示すAF評価値を算出する。このAF評価値が極大となるように撮影光学系12内のフォーカスレンズを制御することによりAF制御が行われる。
 AE動作及びAF動作が終了し、シャッタボタンの第2段階の押下(全押し)があると、その押下に応答してA/D変換器20から出力される画像データが画像入力コントローラ22からメモリ(SDRAM) 48に入力し、一時的に記憶される。
 メモリ48に一時的に記憶された画像データは、デジタル信号処理部24により適宜読み出される。デジタル信号処理部24は、読み出したデジタルの画像信号に対して、混色補正、ホワイトバランス補正、ガンマ補正処理、同時化処理、YC処理、シャープネス補正等の所定の信号処理を行い、YC処理したYCデータを、再びメモリ48に記憶させる。
 メモリ48に記憶されたYCデータは、それぞれ圧縮伸長処理部26に出力され、ここでJPEG (joint photographic experts group)などの所定の圧縮処理が実行されたのち、Exifファイルが生成され、メディア・コントローラ52を介してメモリカード54に記録される。
 [間引きパターン]
 オートホワイトバランス(AWB)補正などに用いるRGBの各色信号は、速度を重視するため(演算量を少なくするため)、撮像素子1から得られる各ラインのうち、所定の間引きパターンにしたがって間引き読み出ししたラインの色信号を使用する。
 以下、撮像素子1から得られるモザイク画像の各ラインに対し、間引き読み出しするラインに対応する複数の間引きパターンについて説明する。
 <1/6間引き>
 図1に示したように6×6画素の基本配列パターンが水平方向及び垂直方向に繰り返し配置されているカラーフィルタ配列の場合、6種類のラインa~fの繰り返しになる。
 これらのラインa~fのうち、ラインaとラインc、ラインdとラインfは同じフィルタ配列となっており、ラインa、cと、ラインd、fとは、位相が3画素分ずれているが、同じフィルタ配列になっている。また、ラインbとラインeは、位相が3画素分ずれているが、同じフィルタ配列になっている。
 図3に示すように、6ライン毎に1ラインを間引き読み出し(1/6間引き)する場合、ラインa,c,d,fからいずれか1つのラインを読み出す間引きパターンP11(図3の(a)部分)と、ラインb,eからいずれか1つのラインを読み出す間引きパターンP12(図3の(b)部分)とがある。
 間引きパターンP11と間引きパターンP12とは、RGBのカラーフィルタの個数の比率が異なり、間引きパターンP11の場合には、R:G:B=1:4:1となり、間引きパターンP12の場合には、R:G:B=2:2:2=1:1:1となる。
 即ち、間引きパターンP11の場合には、RGBの個数の比率が不均等であり、Gの比率がRBに比べて高く(4倍)、一方、間引きパターンP12の場合には、間引きパターンP11に対しR、Bの比率が高くRGBの個数の比率が均等になっている。
 WBゲインを求める際には、まず、RGBの各色信号(RGBの色毎の画素の画素値)の平均値を求めるが、平均する画素数が多い程、精度の高い平均値を求めることができる。
 撮影時の環境光の色温度が低色温度の場合、色毎の平均値は、R>G>Bの関係になり、高色温度の場合、色毎の平均値は、R<G<Bの関係になる。このように出力が小さい色が含まれる色温度(低色温度、又は高色温度)の場合、B画素,又はR画素の精度が低くなるため、平均する画素数を増やすことが好ましい。
 即ち、出力が小さい色が含まれる色温度の場合、RB画素の個数が少ない間引きパターンP11よりも、RB画素の個数が多い(RGBの画素が均等な)間引きパターンP12の方が好ましい。
 一方、間引きパターンP12の場合、G画素は左右方向にR画素、又はB画素が隣接しており(R画素、又はB画素に挟まっており)、隣接画素からの光の漏れ込み(混色)の影響を受けやすく、間引きパターンP11の場合、隣接画素から異なる色の光の漏れ込みによる混色が、間引きパターンP12よりも少なく、混色の影響を受けにくい。したがって、混色が発生しやすい撮影条件では、間引きパターンP11の方が好ましい。
 本発明では、RGBの個数の比率が異なる複数の間引きパターンP11、12から撮影条件に応じて最適な間引きパターンを決定し、その決定した間引きパターンにしたがって所定のラインの色信号を間引き読み出しし、RGBの色毎の平均値を求め、求めた平均値に基づいてWBゲインを算出するようにしている。尚、間引きパターンの選択、及びWBゲインの算出の詳細については後述する。
 <2/6間引き>
 図4は、6ライン毎に2ラインを間引き読み出し(2/6間引き)する場合の3つの間引きパターンP21、P22、P23に関して示している。
 図4の(a)部分は、図1に示したラインa,c,d,fから2ラインを読み出す間引きパターンP21を示し、図4の(b)部分は、ラインa,c,d,fから1ライン,ラインb、eから1ラインを読み出す間引きパターンP22を示し、図4の(c)部分は、ラインb、eの2ラインを読み出す間引きパターンP23を示している。
 上記3つの間引きパターンP21、P22,P23は、それぞれRGBのカラーフィルタの個数の比率が異なり、間引きパターンP21の場合には、R:G:B=2:8:2=1:4:1となり、間引きパターンP22の場合には、R:G:B=3:6:3=1:2:1となり、間引きパターンP23の場合には、R:G:B=4:4:4=1:1:1となる。
 <3/6間引き>
 図5は、6ライン毎に3ラインを間引き読み出し(3/6間引き)する場合の3つの間引きパターンP31、P32、P33に関して示している。
 図5の(a)部分は、図1に示したラインa,c,d,fから3ラインを読み出す間引きパターンP31を示し、図5の(b)部分は、ラインa,c,d,fから2ライン,ラインb、eから1ラインを読み出す間引きパターンP21を示し、図5の(c)部分は、ラインa,c,d,fから1ライン,ラインb、eの2ラインを読み出す間引きパターンP33を示している。
 上記3つの間引きパターンP31、P32,P33は、それぞれRGBのカラーフィルタの個数の比率が異なり、間引きパターンP31の場合には、R:G:B=3:12:3=1:4:1となり、間引きパターンP32の場合には、R:G:B=4:10:4=2:5:2となり、間引きパターンP33の場合には、R:G:B=5:8:5となる。
 <4/6間引き>
 図6は、6ライン毎に4ラインを間引き読み出し(4/6間引き)する場合の3つの間引きパターンP41、P42、P43に関して示している。
 図6の(a)部分は、図1に示したラインa,c,d,fの4ラインを読み出す間引きパターンP41を示し、図6の(b)部分は、ラインa,c,d,fから3ライン,ラインb、eから1ラインを読み出す間引きパターンP42を示し、図6の(c)部分は、ラインa,c,d,fから2ライン,ラインb、eの2ラインを読み出す間引きパターンP43を示している。
 上記3つの間引きパターンP41、P42,P43は、それぞれRGBのカラーフィルタの個数の比率が異なり、間引きパターンP41の場合には、R:G:B=4:16:4=1:4:1となり、間引きパターンP42の場合には、R:G:B=5:14:5となり、間引きパターンP43の場合には、R:G:B=6:12:6=1:2:1となる。
 図7は、上記図3から図6に示した1/6間引きから4/6間引きにおける間引き読み出するラインの組み合わせ(間引きパターン)と、各間引きパターンにおけるRGBの画素数の比率をまとめた図表である。
 上記1/6間引きから4/6間引きのうち、1/6間引きは最も間引き率が高く(読み出すライン数が少なく)、計算量も少なくなるが、ノイズに対して精度が低くなり、4/6間引きは最も間引き率が低く(読み出すライン数が多く)、計算量も多くなるが、ノイズに対して精度が高くなる。
 [デジタル信号処理]
 図8は図2に示したデジタル信号処理部24の内部構成を示す要部ブロック図である。
 図8に示すように、デジタル信号処理部24は、主として混色補正部241、ホワイトバランス補正部242、及び信号処理部243からなる第1の信号処理系統と、間引きパターン決定部244、間引き読出部245、RGB積算部246、及びWBゲイン算出部247からなる第2の信号処理系統とから構成されている。
 前述したように撮影時に撮像素子1から出力されたカラーフィルタ配列のままのRAWデータ(モザイク画像)は、一旦メモリ48に格納されるが、デジタル信号処理部24は、メモリ48からモザイク画像を読み出し、表示用及び記録用の画像を生成する。
 デジタル信号処理部24の前記第1の信号処理系統及び第2の信号処理系統は、それぞれメモリ48からモザイク画像(RGBの色信号)を適宜読み出し、高速化のために並列処理を行っている。
 混色補正部241は、隣接画素からの光の漏れ込み(混色)の影響を低減させる処理を行う部分であり、隣接画素からの漏れ込みの割合に応じてRGBの色信号の信号成分を減算して混色を低減させる。隣接画素からの漏れ込みの割合は、各画素への光束の入射角等により変化するため、予め光束の入射角を変化させながら複数の入射角で混色の割合を測定し、その測定した混色の割合(補正パラメータ)を使用する必要がある。
 混色補正部241により混色補正されたRGBの色信号は、ホワイトバランス補正部242に加えられる。ホワイトバランス補正部242の他の入力には、WBゲイン算出部247からRGB毎のWBゲインが加えられており、ホワイトバランス補正部242は、RGBの色信号とRGB毎のWBゲインとを乗算することによりホワイトバランス補正を行う。
 ホワイトバランス補正されたRGBの色信号は、信号処理部243に加えられ、ここで、ガンマ補正処理、同時化処理、YC処理、シャープネス補正等の他の信号処理が行われる。YC処理したYCデータは、再びメモリ48に記憶される。メモリ48に記憶されたYCデータは、ビデオ・エンコーダ28により液晶モニタ30での画像表示用の信号に変換され、ポストビュー画像として液晶モニタ30に表示され、また、圧縮伸長処理部26により所定の圧縮処理が実行されたのち、Exifファイルが生成され、メディア・コントローラ52を介してメモリカード54に記録される。
 一方、第2の信号処理系統側の間引きパターン決定部244は、図3から図6に示した複数の間引きパターンの中から撮影条件等に基づいて1つの間引きパターンを決定する。例えば、混色が多くなる撮影条件下では、ラインa,c,d,fが主として選択される間引きパターンを決定し、混色が少ない撮影条件下では、ラインb,eが主として選択される間引きパターンを決定する。尚、間引きパターン決定部244の動作の詳細については後述する。
 間引き読出部245は、メモリ48に記憶されたRAWデータ(モザイク画像)のうち、間引きパターン決定部244により決定された間引きパターンにしたがって所定のラインの色信号を間引いて読み出し、読み出したRGBの各色信号をRGB積算部246に出力する。
 RGB積算部246は、1画面を8×8又は16×16に分割した分割エリア毎に、RGBの色信号毎の積算平均値を算出し、RGB毎の積算平均値の比(R/G,B/G)からなる色情報を算出する。例えば、1画面を16×16の256の分割エリアに分割する場合には、256個の色情報(R/G,B/G)を算出する。
 WBゲイン算出部247は、RGB積算部246から入力する分割エリア毎の色情報(R/G,B/G)に基づいてWBゲインを算出する。具体的には、256個の分割エリア毎の色情報の、R/G、B/G軸座標の色空間上の分布の重心位置を算出し、その重心位置が示す色情報から環境光の色温度を推定する。尚、色温度の替わりに、その重心位置が示す色情報を有する光源種、例えば、青空、日陰、晴れ、蛍光灯(昼光色、昼白色、白色、温白色)、タングステン、低タングステン等を求めることで撮影時の光源種を推定してもよいし(特開2007-53499参照)、また、推定した光源種から色温度を推定してもよい。
 WBゲイン算出部247には、予め環境光の色温度又は光源種に対応して、適正なホワイトバランス補正を行うためのRGB毎、又はRB毎のWBゲインが用意されており、WBゲイン算出部247は、前記推定した環境光の色温度又は光源種に基づいて対応するRGB毎、又はRB毎のWBゲインを読み出し、この読み出したWBゲインをホワイトバランス補正部242に出力する。
 上記のように第1の信号処理系統によるモザイク画像の信号処理と並行して、第2の信号処理系統によりWBゲインの算出を行うようにしたため、信号処理の高速化を図ることができ、特にオリジナル画像の全画素のデータを使用せずに間引き読出したラインの色信号に基づいてWBゲインを算出するため、WBゲインを高速に算出することができる。これにより、撮影した画像を確認するためのポストビュー画像を早く見ることができる。
 また、第2の信号処理系統側では、計算量が多くなる混色補正を行っていないが、混色が発生しやすい撮影条件下では、混色の影響を受けにくいラインの色信号を間引き読み出しするため、精度の高いWBゲインを算出することができる。
 [WBゲイン算出の実施形態]
 <第1の実施形態>
 図9はWBゲインの算出方法の第1の実施形態を示すフローチャートである。
 図9において、まず、シャッタボタンの第2段階の押下(全押し)があると、静止画の本撮影が行われ、その本撮影により撮像素子1から取得されるRAWデータがメモリ48に格納される(ステップS10)。
 続いて、本撮影時の撮影光学系12(ズームレンズ)のズームポジション及びレンズF値を取得し、取得したズームポジション及びレンズF値に対応する閾値を選択する(ステップS12)。
 即ち、レンズF値が開放F値に近づくほど程、混色が多くなるため、F値に基づいて混色が発生しやすいか否かを判別するための閾値を設定する。また、ズームレンズのズームポジション(ズーム倍率)により撮像素子上のマイクロレンズへの入射角が変化(隣接画素からの光の漏れ込みが変化)し、混色量が異なるため、ズームポジションによって前記閾値を変えるようにしている。具体的には、F値とズームポジションをパラメータとする閾値のテーブルを予め準備しておき、本撮影時のF値とズームポジションから対応する閾値をテーブルから読み出す。
 次に、本撮影時のF値が前記選択された閾値以下か否かを判別する(ステップS14)。本撮影時のF値が閾値以下の場合(「Yes」の場合)、混色が発生しやすいと判断し、混色の影響の少ない(RBの画素の少ない)ラインの間引き読出しに対応する間引きパターンを決定する。そして、決定した間引きパターンにしたがって所定のラインの色信号を間引き読み出しする(ステップS16)。例えば、1/6間引きの場合には、図4の(a)部分に示した間引きパターンP11を決定し、その選択した間引きパターンP11に対応するラインの色信号を読み出す。
 一方、本撮影時のF値が閾値を越える場合(「No」の場合)、混色の影響が少ないと判断し、混色の影響の少ないラインに比べてRBの画素が多いラインの間引き読出しに対応する間引きパターンを決定する。そして、決定した間引きパターンにしたがって所定のラインの色信号を間引き読み出しする(ステップS18)。例えば、1/6間引きの場合には、図4の(b)部分に示した間引きパターンP12を決定し、その選択した間引きパターンP12に対応するラインの色信号を読み出す。
 上記ステップS16、又はS18により読み出したRGBの色信号からRGB毎の積算平均値を算出し、その積算平均値に基づいてWBゲインを算出する(ステップS20)。
 上記のように混色が発生しやすい撮影条件下では、混色の影響の少ないラインの色信号を間引き読出してWBゲインを算出するようにしたため、精度の高いWBゲインを算出することができ、また、混色の影響が少ない撮影条件下では、混色の影響の少ないラインに比べてRBの画素が多いライン(RGBの画素の比がより均等なライン)の色信号を間引き読み出してWBゲインを算出するようにしたため、RBの画素の積算平均値の精度が高くなり、精度の高いWBゲインを算出することができる。
 尚、この第1の実施形態では、本撮影時のズームポジションとF値に基づいて閾値を選択し、混色が多くなる撮影条件か否かを判別するようにしたが、これに限らず、ズームポジション、又はF値のいずれか一方に基づいて混色が多い撮影条件か否かを判別し、その判別結果に基づいて間引きパターンを決定するようにしてもよい。
 <第2の実施形態>
 図10はWBゲインの算出方法の第2の実施形態を示すフローチャートである。尚、図9に示した第1の実施形態と共通する部分には同一のステップ番号を付し、その詳細な説明は省略する。
 図10に示すように、本撮影前に環境光の色温度を算出する(ステップS30)。例えば、ライブビュー画像の画像データ、又はシャッタボタンの半押し時に取得した画像データのRGBの色信号に基づいて色毎の積算平均値を算出し、算出した色毎の積算平均値から環境光の色温度を算出する。
 そして、本撮影後、ステップS30で算出した色温度が、予め設定された中間色温度の範囲外か否かを判別する(ステップS32)。
 低色温度時のRGBの色毎の積算平均値は、図11の(a)部分に示すように、R>G>Bの関係になり、高色温度時のRGBの色毎の積算平均値は、図11の(c)部分に示すように、R<G<Bの関係になる。
 このように出力が小さい色が含まれる色温度(低色温度、又は高色温度)の場合、出力が小さい画素(B画素,又はR画素)は、隣接画素からの光の漏れ込みの影響を受けやすく、WBゲインの算出精度が悪くなりやすい。
 そこで、ステップS32では、ステップS30で算出した色温度が、RGBの色毎の積算平均値がほぼ均等になる所定の中間色温度(図11の(b)部分)の範囲外となる色温度の場合(「Yes」の場合)には、混色が発生しやすいと判断し、ステップS16に遷移させ、中間色温度範囲内(「No」の場合)には、混色の影響が少ないと判断し、RBの画素が多いラインの間引き読出しを行うステップS18に遷移させる。
 上記のように混色が発生しやすい色温度の場合には、混色の影響の少ないラインの色信号を間引き読出してWBゲインを算出するようにしたため、精度の高いWBゲインを算出することができ、また、混色の影響が少ない色温度の場合には、RBの画素が多いラインの色信号を間引き読み出してWBゲインを算出するようにしたため、RBの画素の積算平均値の精度が高くなり、精度の高いWBゲインを算出することができる。
 <第3の実施形態>
 図12はWBゲインの算出方法の第3の実施形態を示すフローチャートである。尚、図9に示した第1の実施形態と共通する部分には同一のステップ番号を付し、その詳細な説明は省略する。
 CPU40は、シャッタボタンの半押し時にAE検出部44から入力する積算値より被写体の明るさ(撮影EV値)を算出し、この撮影EV値に基づいてF値、シャッタ速度、及び撮影感度(ISO感度)の組み合わせからなる撮影(露出)条件を決定し、本撮影時に前記決定した露出条件にしたがって露出制御を行う。
 被写体の明るさが明るい場合には、撮影感度を低く設定し、F値及びシャッタ速度により露出制御するが、被写体の明るさが暗く、F値及びシャッタ速度のみでは充分な信号量が得られない場合には、撮影感度(ゲイン)を上げるようにする。したがって、撮影感度が高い場合には、ノイズも増幅されノイズが大きくなる欠点がある。
 図12において、本撮影時の撮影感度が所定の閾値以下か否か(即ち、ノイズの少ない画像か否か)を判別する(ステップS40)。撮影感度が所定の閾値以下の場合(「Yes」の場合)には、ノイズの少ない画像であるため、混色の影響を受けにくいラインの間引き読み出しを優先し、ステップS16に遷移させる。一方、撮影感度が所定の閾値を越える場合(「No」の場合)には、ノイズの多い画像であるため、ノイズの影響を受けにくいRB画素の多いラインの間引き読み出しを優先し、ステップS18に遷移させる。
 上記のようにノイズの少ない画像の場合には、混色の影響の少ないラインの色信号を間引き読出してWBゲインを算出するようにしたため、精度の高いWBゲインを算出することができ、また、ノイズの多い画像の場合には、RBの画素が多いラインの色信号を間引き読み出してWBゲインを算出するようにしたため、RBの画素の積算平均値の精度が高くなり、精度の高いWBゲインを算出することができる。
 <第4の実施形態>
 図13はWBゲインの算出方法の第4の実施形態を示すフローチャートであり、図12に示した第3の実施形態の変形例を示している。尚、図12に示した第3の実施形態と共通する部分には同一のステップ番号を付し、その詳細な説明は省略する。
 図13に示す第4の実施形態は、撮影感度が所定の閾値を越えている(ステップS40の「No」)と判別された後の処理が、第3の実施形態と相違している。
 即ち、ステップS40において、撮影感度が所定の閾値を越えていると判別されると((「No」の場合)、続いて、演算速度を重視するか否かを判別する(ステップS50)。
 例えば、撮影モードとして連写モードが設定され、連写される各画像を高速で処理する必要がある場合には、演算速度を重視すると判別する。
 ステップS50で速度を重視すると判別されると(「Yes」の場合)、ステップS52に遷移させる。ステップS52では、RB画素の多いラインの色信号を間引き読み出しする間引きパターンを決定するが、速度を重視するため、間引き率の高い間引きパターンを決定する。例えば、図4の(a)部分に示したように、1/6間引きの間引きパターンP11を決定する。
 一方、ステップS50で速度を重視しないと判別されると(「No」の場合)、ステップS54に遷移させる。ステップS54では、間引き率の低い間引きパターンであって、混色の影響の少ないラインの間引き読出しに対応する間引きパターンを決定する。例えば、図6の(c)部分に示す4/6間引きの間引きパターンP43を決定する。この場合、G画素の画素に比べてRB画素の画素数の比率が小さいが、間引き率が低いため、RB画素の画素数も十分に多くなり、RBの画素にノイズが多く含まれていても精度の高い積算平均値を求めることができる。
 [色情報算出の実施形態]
 <第1の実施形態>
 撮像素子1から出力されるRGBの色信号には、入射光の強度に対応する信号成分の他に、暗電流等に起因するオフセット成分が重畳されており、高感度や高温時、長時間露光時には、画素の暗電流成分によりオフセット成分に段差が生じやすい。
 図14は、RGBの各色でオフセットに段差(黒レベル段差)が生じている場合に関して示している。
 そこで、このオフセット段差を考慮して色情報(R/G,B/G)を算出することで、精度の高いWBゲインを算出するようにしている。
 即ち、図8に示したRGB積算部246は、RGBの色毎にオフセット値Roffset,Goffset,Boffsetを算出する。これらオフセット値Roffset,Goffset,Boffsetの算出は、撮像素子1の周辺部の遮光領域(オプティカルブラック部:OB部)の信号であって、RGBに対応する画素毎の信号を積算し、その平均値を求めることにより算出する。
 続いて、間引き読出部245から間引き読み出しされたRGBの色信号毎の積算平均値Rdata,Gdata,dataを算出し、前記算出したオフセット値Roffset,Goffset,Boffsetを使用して、次式により、オフセット補正した色情報(R/G,B/G)を算出する。
 [数1]
 R/G=(Rdata-Roffset)/(Gdata-Goffset
 B/G=(Bdata-Boffset)/(Gdata-Goffset
 このように色毎にオフセット補正することにより、精度の高い色情報を算出することができ、その結果、精度の高いWBゲインを算出することができる。
 <第2の実施形態>
 CMOS(Complementary Metal-Oxide Semiconductor)型の撮像素子には、CMOSの下地に画素共有アンプが埋め込まれ、図15に示すように2×2の4画素が1つのアンプを共有しているものがある。このような撮像素子の素子構造により、共有アンプに対する画素の位置1~4(アンプに対して左上、右上、左下、右下の位置)により出力レベルに差が生じる。
 図16は、共有アンプに対する画素の位置1~4でオフセットに段差(黒レベル段差)が生じている場合に関して示している。
 そこで、このオフセット段差を考慮して色情報(R/G,B/G)を算出することで、精度の高いWBゲインを算出するようにしている。
 即ち、図8に示したRGB積算部246は、共有アンプに対する画素の位置1~4毎にオフセット値Off1,Off2,Off3,Off4を算出する。これらのオフセット値Off1,Off2,Off3,Off4の算出は、撮像素子1のOB部の信号を、共有アンプに対する画素の位置1~4毎に積算し、その平均値を求めることにより算出する。
 続いて、間引き読出部245から間引き読み出しされたRGBの色信号毎の積算平均値Rdata,Gdata,dataを算出し、前記算出したオフセット値Off1,Off2,Off3,Off4を使用して、色信号毎の積算平均値Rdata,Gdata,dataのオフセット補正を行う。
 いま、基本配列パターンにおける各色の画素と、共有アンプに対する画素の位置1~4とが、図17に示す関係になっている場合において、2/6間引きによりラインa,dを間引き読み出すると、ラインa,dの各色の画素と共有アンプに対する画素の位置1~4とは、図18に示す関係になる。
 即ち、基本配列パターン内のラインa,dにおけるRGBの共有アンプに対する画素の位置1~4は、R画素は、位置1、4にそれぞれ1画素ずつ存在し、G画素は、位置1~4にそれぞれ2画素ずつ存在し、B画素は、R画素は、位置2、3にそれぞれ1画素ずつ存在している。
 したがって、間引きラインa,dにおけるRGBのオフセット値Roffset,Goffset,Boffsetは、共有アンプに対する画素の位置1~4毎のオフセット値Off1,Off2,Off3,Off4に基づいて、次式により算出することができる。
 [数2]
 Roffset=(Off1+Off4)/2
 Goffset=(Off1+Off2+Off3+Off4)/4
 Boffset=(Off2+Off3)/2
 上記[数2]式により算出したRGBのオフセット値Roffset,Goffset,Boffsetを使用して、前記[数1]式により、オフセット補正した色情報(R/G,B/G)を算出する。
 このように共有アンプに対する画素の位置1~4毎のオフセット値Off1,Off2,Off3,Off4に基づいてRGBの色毎にオフセット値を算出し、算出したオフセット値によりRGB毎の積算平均値を補正することにより、精度の高い色情報を算出することができ、その結果、精度の高いWBゲインを算出することができる。
 尚、上記[数2]式は、間引きラインa,dにおけるRGBのオフセット値Roffset,Goffset,Boffsetを算出するための計算式であるが、オフセット値Roffset,Goffset,Boffsetを算出する計算式は、間引き読み出しする1又は複数ラインの組み合わせにより異なる。したがって、間引きパターン決定部244により決定される間引きパターン(図3~図6参照)に応じて、RGBのオフセット値Roffset,Goffset,Boffsetを算出するための計算式を準備しておく必要がある。
 [その他]
 図19及び20はそれぞれ本発明に係る撮像装置に適用される撮像素子の他の実施形態を示す図である。
 図19に示す実施形態の撮像素子のカラーフィルタ配列は、7×7画素に対応する正方配列パターンからなる基本配列パターン(太枠で示したパターン)を含み、この基本配列パターンが水平方向及び垂直方向に繰り返し配置されている。
 このカラーフィルタ配列は、図1に示した実施形態と同様に、Gフィルタが、カラーフィルタ配列の水平、垂直、斜め右上、及び斜め右下方向の各ライン内に配置され、かつRフィルタ、Bフィルタが、カラーフィルタ配列の水平、及び垂直方向の各ライン内に配置されている。
 また、GフィルタがR,Bフィルタよりも多く、かつラインによりRGBのカラーフィルタの個数の比率が異なり、R:G:B=2:3:2のラインと、R:G:B=2:4:1、又はR:G:B=1:4:2のラインがある。
 図20に示す実施形態の撮像素子のカラーフィルタ配列は、8×8画素に対応する正方配列パターンからなる基本配列パターン(太枠で示したパターン)を含み、この基本配列パターンが水平方向及び垂直方向に繰り返し配置されている。
 このカラーフィルタ配列は、図1に示した実施形態と同様に、Gフィルタが、カラーフィルタ配列の水平、垂直、斜め右上、及び斜め右下方向の各ライン内に配置され、かつRフィルタ、Bフィルタが、カラーフィルタ配列の水平、及び垂直方向の各ライン内に配置されている。
 また、GフィルタがR,Bフィルタよりも多く、かつラインによりRGBのカラーフィルタの個数の比率が異なり、R:G:B=3:2:3のラインと、R:G:B=1:6:1のラインがある。
 図19及び図20に示すカラーフィルタ配列は、図1に示した6×6画素の基本配列パターンと同様、輝度系画素に対応するGフィルタが、カラーフィルタ配列の水平、垂直、斜め右上、斜め右下の各方向のライン内に配置されるため、高周波となる方向によらず高周波領域での同時化処理の再現精度を向上させることができる。また、Rフィルタ、Bフィルタが、カラーフィルタ配列の水平、及び垂直方向の各ライン内に配置されるため、色モワレ(偽色)の発生を抑圧することができる。
 このように本発明は、図1に示した6×6画素の基本配列パターンを有する撮像素子に限らず、他のカラーフィルタ配列を有する撮像素子にも適用でき、要は各ラインに3原色のカラーフィルタが配列され、かつ3原色のカラーフィルタの個数の比率がラインにより異なるカラーフィルタ配列を有する撮像素子であれば、いかなる撮像素子にも適用できる。
 また、撮像素子のカラーフィルタ配列はRGBの3原色に限らず、黄色やエメラルドを含んでいてもよい。
 更に、この実施形態では、1画面を複数のエリアに分割した分割エリア毎に色情報(R/G,B/G)を取得し、複数の分割エリアの色情報に基づいてWBゲインを算出するようにしたが、WBゲインの算出方法は、この実施形態に限定されず、3原色の色信号に基づいてWBゲインを算出する方法であれば、いかなる方法でもよい。
 また、本発明は上述した実施の形態に限定されず、本発明の精神を逸脱しない範囲で種々の変形が可能であることは言うまでもない。
 1…撮像素子、10…撮像装置、12…撮影光学系、14…絞り、24…デジタル信号処理部、30…液晶モニタ、38…操作部、40…中央処理装置(CPU)、46…ROM、48…メモリ、54…メモリカード、242…ホワイトバランス補正部、244…間引きパターン決定部、245…間引き読出部、246…RGB積算部、247…WBゲイン算出部

Claims (20)

  1.  撮影光学系と、
     前記撮影光学系を介して被写体像が結像される撮像素子であって、2次元状に配列された光電変換素子上に3原色を含むカラーフィルタが配列され、各ラインに3原色のカラーフィルタが配列されるとともに、3原色のカラーフィルタの個数の比率が異なる複数のラインを含むカラーフィルタ配列を有する撮像素子と、
     前記複数のラインのうち前記3原色のカラーフィルタの個数の比率がより均等なラインの各色のカラーフィルタに対応する各色信号に基づいてホワイトバランスゲインを算出するホワイトバランスゲイン算出手段と、
     前記ホワイトバランスゲイン算出手段により算出されたホワイトバランスゲインに基づいて前記撮像素子を介して取得される各色信号にホワイトバランス補正を行うホワイトバランス補正手段と、
     を備えた撮像装置。
  2.  撮影光学系と、
     前記撮影光学系を介して被写体像が結像される撮像素子であって、2次元状に配列された光電変換素子上に3原色を含むカラーフィルタが配列され、各ラインに3原色のカラーフィルタが配列されるとともに、3原色のカラーフィルタの個数の比率が異なる複数のラインを含むカラーフィルタ配列を有する撮像素子と、
     前記複数のラインのうち間引き読み出しするラインを選択するための複数の間引きパターンから、撮影条件に応じて1つの間引きパターンを決定する間引きパターン決定手段と、
     前記撮像素子により取得された各ラインの前記カラーフィルタに対応する色信号のうち、前記間引きパターン決定手段により決定された間引きパターンにしたがって選択された所定のラインの色信号に基づいてホワイトバランスゲインを算出するホワイトバランスゲイン算出手段と、
     前記ホワイトバランスゲイン算出手段により算出されたホワイトバランスゲインに基づいて前記撮像素子を介して取得される各色信号にホワイトバランス補正を行うホワイトバランス補正手段と、
     を備えた撮像装置。
  3.  前記間引きパターン決定手段は、前記撮影光学系の撮影時のF値及びズーム倍率の少なくとも一方に基づいて、前記複数の間引きパターンから1つの間引きパターンを決定する請求項2に記載の撮像装置。
  4.  前記間引きパターン決定手段は、環境光の色温度を検出する色温度検出手段を含み、該色温度検出手段により検出された環境光の色温度に基づいて、前記複数の間引きパターンから1つの間引きパターンを決定する請求項2に記載の撮像装置。
  5.  前記間引きパターン決定手段は、混色が多い撮影条件かを判定し、混色が多い撮影条件下では前記3原色のカラーフィルタの個数の比率が不均等なラインを選択する間引きパターンを決定し、混色が少ない撮影条件下では前記3原色のカラーフィルタに対応する画素数の比率がより均等なラインを選択する間引きパターンを決定する請求項2から4のいずれか1項に記載の撮像装置。
  6.  撮影感度を設定する感度設定手段を備え、
     前記間引きパターン決定手段は、前記感度設定手段により設定された撮影感度が低感度の場合には、前記3原色のカラーフィルタの個数の比率が不均等なラインを選択する間引きパターンを決定し、前記設定された撮影感度が高感度の場合には、前記3原色のカラー
    フィルタの個数の比率がより均等なラインを選択する間引きパターンを決定する請求項2から5のいずれか1項に記載の撮像装置。
  7.  撮影感度を設定する感度設定手段を備え、
     前記複数の間引きパターンは、間引き率の異なる間引きパターンを含み、
     前記間引きパターン決定手段は、前記感度設定手段により設定された撮影感度が低感度の場合には、前記間引き率の異なる間引きパターンのうちの間引き率が高い間引きパターンを決定し、前記設定された撮影感度が高感度の場合には、前記間引き率の異なる間引きパターンのうちの間引き率が低い間引きパターンを決定する請求項2から5のいずれか1項に記載の撮像装置。
  8.  撮影感度を設定する感度設定手段と、
     演算速度を重視するか否かを判別する判別手段と、を備え、
     前記複数の間引きパターンは、間引き率の異なる間引きパターンを含み、
     前記間引きパターン決定手段は、前記感度設定手段により設定された撮影感度が低感度の場合には、前記間引き率の異なる間引きパターンのうちの間引き率が高く、かつ前記3原色のカラーフィルタの個数の比率が不均等なラインを選択する間引きパターンを決定し、前記設定された撮影感度が高感度かつ演算速度を重視する場合には、前記間引き率の異なる間引きパターンのうちの間引き率が高く、かつ前記3原色のカラーフィルタの個数の比率がより均等なラインを選択する間引きパターンを決定し、前記設定された撮影感度が高感度かつ演算速度を重視しない場合には、前記間引き率の異なる間引きパターンのうちの間引き率が低く、かつ前記3原色のカラーフィルタの個数の比率が不均等なラインを選択する間引きパターンを決定する請求項2から5のいずれか1項に記載の撮像装置。
  9.  前記3原色のカラーフィルタに対応する色信号毎にオフセット値を算出する算出手段を備え、
     前記ホワイトバランスゲイン算出手段は、前記ホワイトバランスゲインの算出に使用するラインの色信号毎の積算平均値を算出するとともに、該積算平均値から前記色信号毎に算出したオフセット値を減算し、減算した色信号毎の積算平均値の比に基づいてホワイトバランスゲインを算出する請求項2から8のいずれか1項に記載の撮像装置。
  10.  前記撮像素子は、所定の画素群毎にアンプを共有する素子構造を有する撮像素子であり、
     前記算出手段は、前記アンプを共有する各画素の該アンプに対する位置毎のオフセット値を算出する第1の算出手段と、前記間引きパターン決定手段により決定された間引きパターンにおける各画素の前記アンプに対する位置と、前記第1の算出手段により算出された前記アンプに対する位置毎のオフセット値とに基づいて色信号毎のオフセット値を算出する第2の算出手段と、を含む請求項9に記載の撮像装置。
  11.  前記撮像素子のカラーフィルタ配列は、輝度信号を得るために最も寄与する第1の色に対応する第1のフィルタと前記第1の色以外の2色以上の第2の色に対応する第2のフィルタとが配列された所定の基本配列パターンを含み、該基本配列パターンが水平方向及び垂直方向に繰り返して配置され、
     前記第1のフィルタは、前記カラーフィルタ配列の水平、垂直、斜め右上、及び斜め右下方向の各ライン内に配置され、
     前記第2のフィルタは、前記基本配列パターン内に前記カラーフィルタ配列の水平、及び垂直方向の各ライン内に1つ以上配置され、
     前記第1のフィルタに対応する第1の色の画素数の比率は、前記第2のフィルタに対応する第2の色の各色の画素数の比率よりも大きい請求項2から9のいずれか1項に記載の撮像装置。
  12.  前記撮像素子のカラーフィルタ配列は、赤(R)、緑(G)、青(B)のカラーフィルタが配列された所定の基本配列パターンを含み、該基本配列パターンが水平方向及び垂直方向に繰り返して配置され、
     前記所定の基本配列パターンは、6×6画素に対応する正方配列パターンであり、
     前記カラーフィルタ配列は、3×3画素に対応する第1の配列であって、中心と4隅にGフィルタが配置され、中心のGフィルタを挟んで上下にBフィルタが配置され、左右にRフィルタが配列された第1の配列と、3×3画素に対応する第2の配列であって、中心と4隅にGフィルタが配置され、中心のGフィルタを挟んで上下にRフィルタが配置され、左右にBフィルタが配列された第2の配列とが、交互に水平方向及び垂直方向に配列されて構成されている請求項2から11のいずれか1項に記載の撮像装置。
  13.  前記複数の間引きパターンは、6ライン毎に1ラインを間引き読み出しする場合において、RGBのカラーフィルタの個数の比率が1:4:1のラインを読み出す間引きパターンと、RGBのカラーフィルタの個数の比率が1:1:1のラインを読み出す間引きパターンとを含む請求項12に記載の撮像装置。
  14.  前記複数の間引きパターンは、6ライン毎に2ラインを間引き読み出しする場合において、RGBのカラーフィルタの個数の比率が1:4:1のラインを読み出す間引きパターンと、RGBのカラーフィルタの個数の比率が1:1:1のラインを読み出す間引きパターンとを含む請求項12又は13に記載の撮像装置。
  15.  前記複数の間引きパターンは、6ライン毎に3ラインを間引き読み出しする場合において、RGBのカラーフィルタの個数の比率が1:4:1のラインを読み出す間引きパターンと、RGBのカラーフィルタの個数の比率が5:8:5のラインを読み出す間引きパターンとを含む請求項12から14のいずれか1項に記載の撮像装置。
  16.  前記複数の間引きパターンは、6ライン毎に4ラインを間引き読み出しする場合において、RGBのカラーフィルタの個数の比率が1:4:1のラインを読み出す間引きパターンと、RGBのカラーフィルタの個数の比率が1:2:1のラインを読み出す間引きパターンとを含む請求項12から15のいずれか1項に記載の撮像装置。
  17.  前記3原色のカラーフィルタに対応する色信号毎にオフセット値を算出する算出手段を備え、
     前記ホワイトバランスゲイン算出手段は、前記ホワイトバランスゲインの算出に使用するラインの色信号毎の積算平均値を算出するとともに、該積算平均値から前記色信号毎に算出したオフセット値を減算し、減算した色信号毎の積算平均値の比に基づいてホワイトバランスゲインを算出する請求項1に記載の撮像装置。
  18.  前記撮像素子のカラーフィルタ配列は、赤(R)、緑(G)、青(B)のカラーフィルタが配列された所定の基本配列パターンを含み、該基本配列パターンが水平方向及び垂直方向に繰り返して配置され、
     前記所定の基本配列パターンは、6×6画素に対応する正方配列パターンであり、
     前記カラーフィルタ配列は、3×3画素に対応する第1の配列であって、中心と4隅にGフィルタが配置され、中心のGフィルタを挟んで上下にBフィルタが配置され、左右にRフィルタが配列された第1の配列と、3×3画素に対応する第2の配列であって、中心と4隅にGフィルタが配置され、中心のGフィルタを挟んで上下にRフィルタが配置され、左右にBフィルタが配列された第2の配列とが、交互に水平方向及び垂直方向に配列されて構成されている請求項1に記載の撮像装置。
  19.  撮影光学系及び3原色のカラーフィルタが配列された撮像素子を介してカラーフィルタ配列に対応するモザイク画像を取得する画像取得工程であって、前記モザイク画像の各ラインには3原色に対応する色信号が含まれ、かつ3原色に対応する画素の個数の比率がラインにより異なるモザイク画像を取得する画像取得工程と、
     前記撮像素子の複数のラインのうち前記3原色のカラーフィルタの個数の比率がより均等なラインの各色のカラーフィルタに対応する各色信号に基づいてホワイトバランスゲインを算出するホワイトバランスゲイン算出工程と、
     前記ホワイトバランスゲイン算出工程により算出されたホワイトバランスゲインに基づいて前記撮像素子を介して取得される各色信号にホワイトバランス補正を行うホワイトバランス補正工程と、
     を含む画像処理方法。
  20.  撮影光学系及び3原色のカラーフィルタが配列された撮像素子を介してカラーフィルタ配列に対応するモザイク画像を取得する画像取得工程であって、前記モザイク画像の複数のラインの各ラインには3原色に対応する色信号が含まれ、かつ3原色に対応する画素の個数の比率がラインにより異なるモザイク画像を取得する画像取得工程と、
     前記複数のラインのうち間引き読み出しするラインを選択するための複数の間引きパターンから、撮影条件に応じて1つの間引きパターンを決定する間引きパターン決定工程と、
     前記撮像素子により取得された各ラインの前記カラーフィルタに対応する色信号のうち、前記間引きパターン決定工程により決定された間引きパターンにしたがって選択された所定のラインの色信号に基づいてホワイトバランスゲインを算出するホワイトバランスゲイン算出工程と、
     前記ホワイトバランスゲイン算出工程により算出されたホワイトバランスゲインに基づいて前記撮像素子を介して取得される各色信号にホワイトバランス補正を行うホワイトバランス補正工程と、
     を含む画像処理方法。
PCT/JP2012/077302 2011-10-31 2012-10-23 撮像装置及び画像処理方法 WO2013065518A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013541708A JP5603506B2 (ja) 2011-10-31 2012-10-23 撮像装置及び画像処理方法
CN201280053307.7A CN104025574B (zh) 2011-10-31 2012-10-23 摄像装置及图像处理方法
US14/264,800 US8982236B2 (en) 2011-10-31 2014-04-29 Imaging apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011239321 2011-10-31
JP2011-239321 2011-10-31

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/264,800 Continuation US8982236B2 (en) 2011-10-31 2014-04-29 Imaging apparatus

Publications (1)

Publication Number Publication Date
WO2013065518A1 true WO2013065518A1 (ja) 2013-05-10

Family

ID=48191873

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/077302 WO2013065518A1 (ja) 2011-10-31 2012-10-23 撮像装置及び画像処理方法

Country Status (4)

Country Link
US (1) US8982236B2 (ja)
JP (1) JP5603506B2 (ja)
CN (1) CN104025574B (ja)
WO (1) WO2013065518A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014185239A1 (ja) * 2013-05-13 2014-11-20 富士フイルム株式会社 画像データのオプティカル・ブラック補正装置およびその動作制御方法

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6532119B2 (ja) * 2013-04-30 2019-06-19 キヤノン株式会社 撮像装置及びその制御方法
EP3157254A4 (en) * 2014-06-13 2018-03-21 Olympus Corporation Solid-state image capturing device and image capturing method
KR102285756B1 (ko) 2015-02-13 2021-08-05 삼성전자주식회사 전자 시스템 및 영상 처리 방법
CN105208360B (zh) * 2015-09-23 2017-07-25 青岛海信移动通信技术股份有限公司 一种智能终端的图像预览方法、装置及终端
CN106791757B (zh) * 2015-11-23 2018-11-30 创意电子股份有限公司 影像校正系统及其方法
US11244478B2 (en) * 2016-03-03 2022-02-08 Sony Corporation Medical image processing device, system, method, and program
JP7037346B2 (ja) * 2017-03-10 2022-03-16 キヤノン株式会社 画像処理装置及び画像処理方法、プログラム、記憶媒体
US10616511B2 (en) * 2017-06-08 2020-04-07 Intel Corporation Method and system of camera control and image processing with a multi-frame-based window for image data statistics
CN108259793B (zh) * 2018-03-27 2020-11-27 思特威(上海)电子科技有限公司 图像传感器的黑电平校准方法及系统
CN110958401B (zh) * 2019-12-16 2022-08-23 北京迈格威科技有限公司 一种超级夜景图像颜色校正方法、装置和电子设备

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06105805A (ja) * 1992-08-14 1994-04-19 Olympus Optical Co Ltd 内視鏡撮像装置
JPH10243407A (ja) * 1997-02-27 1998-09-11 Olympus Optical Co Ltd 画像信号処理装置及び画像入力処理装置
JP2000032345A (ja) * 1998-07-10 2000-01-28 Olympus Optical Co Ltd 撮像装置
JP2004007133A (ja) * 2002-05-31 2004-01-08 Minolta Co Ltd 撮像装置
JP2007221273A (ja) * 2006-02-14 2007-08-30 Canon Inc 撮像装置及びその制御方法及びプログラム及び記憶媒体
JP2009027488A (ja) * 2007-07-20 2009-02-05 Sony Corp 撮像回路および撮像装置
JP2011101158A (ja) * 2009-11-05 2011-05-19 Nikon Corp 撮像装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0823542A (ja) 1994-07-11 1996-01-23 Canon Inc 撮像装置
JP4098438B2 (ja) 1999-04-15 2008-06-11 オリンパス株式会社 カラー撮像素子及びカラー撮像装置
JP3664123B2 (ja) 2001-10-03 2005-06-22 ソニー株式会社 撮像装置および画質補正方法
JP2007053499A (ja) 2005-08-16 2007-03-01 Fujifilm Holdings Corp ホワイトバランス制御装置及び撮像装置
CN101433095B (zh) 2006-04-25 2012-05-30 佳能株式会社 摄像设备及其控制方法
JP4875399B2 (ja) * 2006-04-25 2012-02-15 キヤノン株式会社 撮像装置及びその制御方法並びに撮像システム
US7633538B2 (en) * 2006-09-11 2009-12-15 Aptina Imaging Corporation Color filter device and method for eliminating or reducing non-uniform color error caused by asymmetric color cross-talk in image sensor devices
US8164042B2 (en) * 2008-11-06 2012-04-24 Visera Technologies Company Limited Color filter arrays and image sensors using the same
WO2011142774A1 (en) * 2010-05-14 2011-11-17 Omnivision Technologies, Inc. Alternative color image array and associated methods

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06105805A (ja) * 1992-08-14 1994-04-19 Olympus Optical Co Ltd 内視鏡撮像装置
JPH10243407A (ja) * 1997-02-27 1998-09-11 Olympus Optical Co Ltd 画像信号処理装置及び画像入力処理装置
JP2000032345A (ja) * 1998-07-10 2000-01-28 Olympus Optical Co Ltd 撮像装置
JP2004007133A (ja) * 2002-05-31 2004-01-08 Minolta Co Ltd 撮像装置
JP2007221273A (ja) * 2006-02-14 2007-08-30 Canon Inc 撮像装置及びその制御方法及びプログラム及び記憶媒体
JP2009027488A (ja) * 2007-07-20 2009-02-05 Sony Corp 撮像回路および撮像装置
JP2011101158A (ja) * 2009-11-05 2011-05-19 Nikon Corp 撮像装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014185239A1 (ja) * 2013-05-13 2014-11-20 富士フイルム株式会社 画像データのオプティカル・ブラック補正装置およびその動作制御方法
JPWO2014185239A1 (ja) * 2013-05-13 2017-02-23 富士フイルム株式会社 画像データのオプティカル・ブラック補正装置およびその動作制御方法

Also Published As

Publication number Publication date
US8982236B2 (en) 2015-03-17
US20140232901A1 (en) 2014-08-21
JPWO2013065518A1 (ja) 2015-04-02
CN104025574B (zh) 2015-10-14
JP5603506B2 (ja) 2014-10-08
CN104025574A (zh) 2014-09-03

Similar Documents

Publication Publication Date Title
JP5603506B2 (ja) 撮像装置及び画像処理方法
JP5493010B2 (ja) 撮像装置及びその合焦位置検出方法
JP5860936B2 (ja) 撮像装置
TWI428006B (zh) 處理像素陣列及處理影像的方法
US8823858B2 (en) Imaging apparatus
JP5493011B2 (ja) 撮像装置及びその合焦位置検出方法
WO2012039180A1 (ja) 撮像デバイス及び撮像装置
JP5361535B2 (ja) 撮像装置
JP5663564B2 (ja) 撮像装置並びに撮像画像処理方法と撮像画像処理プログラム
US10638037B2 (en) Image-capturing device and image processing device
JP2006165975A (ja) 撮像素子、撮像装置、画像処理方法
JP5600814B2 (ja) 画像処理装置及び方法並びに撮像装置
JP6099536B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
WO2012073727A1 (ja) 撮像装置及びその合焦位置検出方法
WO2013069445A1 (ja) 立体撮像装置及び画像処理方法
US20060197854A1 (en) Image capturing apparatus and computer software product
JPWO2013183378A1 (ja) 撮像装置、画像処理装置、及び画像処理方法
JP5645474B2 (ja) 撮像装置及び撮像画像信号の補正方法
JP4993670B2 (ja) 撮像装置及びその制御方法
JP6270400B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP6976789B2 (ja) 撮像装置及び撮像方法
JP2010239192A (ja) 固体撮像素子及び撮像装置及び画像信号処理方法
JP2007228152A (ja) 固体撮像装置および撮像方法
US20240214689A1 (en) Image-capturing device and image processing device
JP2024012869A (ja) 撮像装置及び撮像装置の画像データ読み出し方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12846060

Country of ref document: EP

Kind code of ref document: A1

DPE2 Request for preliminary examination filed before expiration of 19th month from priority date (pct application filed from 20040101)
ENP Entry into the national phase

Ref document number: 2013541708

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12846060

Country of ref document: EP

Kind code of ref document: A1