WO2002056604A1 - Dispositif de traitement d'images - Google Patents

Dispositif de traitement d'images Download PDF

Info

Publication number
WO2002056604A1
WO2002056604A1 PCT/JP2002/000036 JP0200036W WO02056604A1 WO 2002056604 A1 WO2002056604 A1 WO 2002056604A1 JP 0200036 W JP0200036 W JP 0200036W WO 02056604 A1 WO02056604 A1 WO 02056604A1
Authority
WO
WIPO (PCT)
Prior art keywords
color
sensitivity
image
pixel
pattern information
Prior art date
Application number
PCT/JP2002/000036
Other languages
English (en)
French (fr)
Inventor
Tomoo Mitsunaga
Seiji Kobayashi
Hiroaki Ono
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to EP02715713A priority Critical patent/EP1357760B1/en
Priority to US10/466,015 priority patent/US7847829B2/en
Priority to JP2002557134A priority patent/JP4088959B2/ja
Publication of WO2002056604A1 publication Critical patent/WO2002056604A1/ja
Priority to US12/112,778 priority patent/US7986360B2/en
Priority to US13/951,178 priority patent/USRE46557E1/en
Priority to US14/968,441 priority patent/USRE47062E1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/57Control of the dynamic range
    • H04N25/58Control of the dynamic range involving two or more exposures
    • H04N25/581Control of the dynamic range involving two or more exposures acquired simultaneously
    • H04N25/585Control of the dynamic range involving two or more exposures acquired simultaneously with pixels having different sensitivities within the sensor, e.g. fast or slow pixels or pixels having different sizes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/843Demosaicing, e.g. interpolating colour pixel values
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/67Noise processing, e.g. detecting, correcting, reducing or removing noise applied to fixed-pattern noise, e.g. non-uniformity of response
    • H04N25/671Noise processing, e.g. detecting, correcting, reducing or removing noise applied to fixed-pattern noise, e.g. non-uniformity of response for non-uniformity detection or correction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/68Noise processing, e.g. detecting, correcting, reducing or removing noise applied to defects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/71Charge-coupled device [CCD] sensors; Charge-transfer registers specially adapted for CCD sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/135Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on four or more different wavelength filter elements
    • H04N25/136Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on four or more different wavelength filter elements using complementary colours

Definitions

  • the present invention relates to an image processing apparatus, and more particularly, to an image processing apparatus suitable for use in generating a color image signal having a wide dynamic range from an image signal obtained using a single-chip CCD image sensor or the like.
  • Solid-state imaging devices such as CCDs (Charge Coupled Devices) and CMOSs (Complementary Mental-Oxide Semiconductors) can be used as imaging devices such as video cameras and digital still cameras, component inspection devices in the field of FA (Factory Automation), and It is widely used in optical measurement devices such as electronic endoscopes in the field of ME (Medical Electronics).
  • CCDs Charge Coupled Devices
  • CMOSs Complementary Mental-Oxide Semiconductors
  • a second conventional method there is a method in which one solid-state imaging device is used, its exposure time is divided into a plurality of images, a plurality of images are captured, and the images are combined.
  • This method is disclosed in, for example, Japanese Patent Application Laid-Open No. H08-331614.
  • information measured at different sensitivities was captured at different times
  • images are captured with different time widths, there is a problem that a dynamic scene in which light intensity changes every moment cannot be properly captured.
  • one solid-state imaging device is used, and a plurality of light-receiving devices adjacent to each other on the imaging surface of the solid-state imaging device are regarded as one set, and one set of the light-receiving devices corresponds to one pixel of an output image.
  • As a method of changing the sensitivity of each of the light receiving elements constituting the solid-state imaging element there is a method of covering each light receiving element with a filter having a different transmittance.
  • Japanese Patent Application Laid-Open No. 2000-64991 discloses a technique for adapting the third conventional method to a color image.
  • the third conventional method it is advantageous in terms of cost saving and space saving which were problems in the first conventional method.
  • a plurality of adjacent light receiving elements are set as one set and correspond to one pixel of the output image. Therefore, in order to ensure the resolution of the output pixel, several times the number of pixels of the output image is required. Therefore, there is a problem that an image pickup device including the above light receiving element is required, and the unit cell size is increased.
  • an image is obtained by applying an image sensor having a normal dynamic range to a light receiving element corresponding to one pixel of an output image so that the exposure of each light receiving element is different.
  • a method of generating a wide dynamic range image signal by performing predetermined image processing on the signal can be given.
  • the mechanism in which the exposure for each light receiving element is different is realized by creating a spatial sensitivity pattern by changing the light transmittance and aperture ratio for each light receiving element. This method is described in the literature ⁇ SK Nayar and T. Mitsunaga, High Dynamic Range Imaging '-Spatially Varying Pixel Exposures, Proc. Of Computer Vision and Pattern Recognition 2000, Vol. 1, pp. 472-479, June, 2000' ' It has been disclosed.
  • each light receiving element has only one type of sensitivity. Therefore, imaging Although each pixel of the obtained image can only obtain information on the dynamic range of the original image sensor, predetermined image processing is performed on the obtained image signal so that the sensitivity of all the pixels is uniform. As a result, an image having a wide dynamic range can be generated as a result. In addition, since all the light receiving elements are exposed simultaneously, a moving subject can be correctly imaged. Further, since one light receiving element corresponds to one pixel of the output image, there is no problem that the cut cell size becomes large.
  • the fourth conventional method can solve the problems of the first to third conventional methods.
  • the fourth conventional method is based on the premise that a monochrome image is generated, and there has been a problem that the technology for generating a color image has not been established. Specifically, there has been a problem that has not been established in the past to generate an image signal of all color components for all pixels from an image with different colors and sensitivities for each pixel and to make the sensitivities uniform.
  • the present invention has been made in view of such a situation, and the sensitivity characteristics of each pixel are made uniform using a color / sensitivity mosaic image having different colors and sensitivities for each pixel. It is an object of the present invention to enable a pixel to generate a restored image having all of the plurality of color components.
  • each pixel has any one of a plurality of sensitivity characteristics with respect to any one of a plurality of color components and light intensity, and Based on a color / sensitivity mosaic image in which a plurality of pixels having the same color component and a plurality of pixels having the same color component are arranged in a grid, regardless of the sensitivity characteristics,
  • the sensitivity of each pixel is made uniform, and a restoring means for restoring a restored image in which each pixel has all of a plurality of color components is included.
  • the restoration means includes a sensitivity mosaic indicating an array of sensitivity characteristics of a color / sensitivity mosaic image.
  • a luminance image generating means for generating a luminance image corresponding to the color / sensitivity mosaic image based on color mosaic pattern information indicating an arrangement of color components of the color / sensitivity mosaic image; It can include a plurality of monochromatic image generating means for generating a monochromatic image corresponding to the color / sensitivity mosaic image based on the mosaic pattern information and the luminance image.
  • the luminance image generating means includes: a plurality of estimating means for calculating an estimated value of a color component corresponding to each pixel of the color / sensitivity mosaic image; and a plurality of estimated values calculated by the plurality of estimating means.
  • Brightness candidate value calculating means for calculating a brightness candidate value corresponding to each pixel of the sensitivity mosaic image.
  • the estimating means calculates a plurality of estimated value candidates respectively corresponding to the plurality of sensitivity characteristics, adds the plurality of estimated value candidates, and compensates for the non-linearity of the sensitivity characteristic generated in the sum.
  • the value can be calculated.
  • the luminance image generating unit may further include a noise removing unit that generates a luminance value by removing a noise component of the luminance candidate value.
  • the monochrome image generating means based on the sensitivity mosaic pattern information and the color mosaic pattern information, a monochrome image candidate generating means for generating a monochrome image corresponding to the color / sensitivity mosaic image; Correction means for correcting a single color image candidate to generate a single color image.
  • the single-color image candidate generation means calculates a plurality of single-color candidate values respectively corresponding to a plurality of sensitivity characteristics, adds the plurality of single-color candidate values, and compensates for the non-linearity of the sensitivity characteristics generated in the sum.
  • the pixel value of the monochrome image candidate can be calculated to generate the monochrome image candidate.
  • the single-color image candidate generation means can generate a single-color image candidate corresponding to a color / sensitivity mosaic image using a direction-selective smoothing process.
  • the first image processing device of the present invention can further include an imaging unit that captures an image of a subject and generates a color / sensitivity mosaic image.
  • the restoration means includes a sensitivity mosaic indicating an array of sensitivity characteristics of a color / sensitivity mosaic image. Based on the pattern information, a sensitivity characteristic equalization method that equalizes the sensitivity characteristics of each pixel, and the color component of each pixel is interpolated based on the color mosaic pattern information that indicates the arrangement of the color components of the color / sensitivity mosaic image. Color interpolating means.
  • the sensitivity characteristic uniformizing means may generate a color mosaic image by uniformizing the sensitivity characteristics of each pixel of the color-sensitivity mosaic image based on the sensitivity mosaic pattern information and the color mosaic pattern information.
  • the color interpolation unit may generate a restored image by interpolating the color components of each pixel of the color mosaic image based on the color mosaic pattern information.
  • the sensitivity characteristic equalizing means uniformizes the sensitivity characteristic based on the sensitivity mosaic pattern information and the color mosaic pattern information without changing the type of the color component possessed by each pixel of the color-sensitivity mosaic image. A mosaic image can be generated.
  • the sensitivity characteristic equalizing unit generates a color mosaic image by uniforming sensitivity characteristics of each pixel of the color-sensitivity mosaic image based on the sensitivity mosaic pattern information and the color mosaic pattern information, and generates the color mosaic pattern information. It can be updated.
  • the sensitivity uniformizing means includes: a compensation means for compensating a color component of each pixel of the color / sensitivity mosaic image based on the sensitivity mosaic pattern information; and a pixel / pixel of the color / sensitivity mosaic image based on the sensitivity mosaic pattern information. And a correcting means for correcting the color component of each pixel compensated by the compensating means by interpolation processing in accordance with the discrimination result of the discriminating means. it can.
  • the sensitivity uniformization means may include a calculation means for calculating an estimated pixel value of the color / sensitivity mosaic image based on the sensitivity mosaic pattern information, and a correction means for correcting the estimated pixel value calculated by the calculation means. it can.
  • the color interpolation means intercepts all color components of each pixel of the color mosaic image without changing the sensitivity characteristics based on the sensitivity mosaic pattern information and the color mosaic pattern information. Generate sensitivity mosaic images for each color component
  • the sensitivity characteristic equalizing means can generate a restored image by equalizing the sensitivity characteristic of each pixel of the sensitivity mosaic image based on the sensitivity mosaic pattern information.
  • the color interpolation means includes: an extraction means for extracting pixels having the same sensitivity characteristic from a color-sensitivity mosaic image; and an all-color-component capturing means for interpolating all color components for each pixel extracted by the extraction means. And a synthesizing unit for generating a sensitivity mosaic image by synthesizing pixels having the same color component and different sensitivity characteristics among the pixels obtained by interpolating all the color components by the all-color component interpolation unit. Can be included.
  • each pixel has any one of a plurality of color components and any one of a plurality of sensitivity characteristics with respect to light intensity.
  • a plurality of pixels having the same color components and sensitivity characteristics are arranged in a grid pattern, and a plurality of pixels having the same color component are arranged in a grid pattern regardless of the sensitivity characteristics.
  • the restoring step includes converting a color / sensitivity mosaic image into a color / sensitivity mosaic image based on sensitivity mosaic pattern information indicating an array of sensitivity characteristics of the color / sensitivity mosaic image and color mosaic pattern information indicating an array of color components of the color / sensitivity mosaic image.
  • a luminance image generation step of generating a corresponding luminance image, and a plurality of monochromatic image generation steps of generating a monochromatic image corresponding to the color / sensitivity mosaic image based on the sensitivity mosaic pattern information, the color mosaic pattern information, and the luminance image. can be.
  • the luminance image generating step includes: a plurality of estimation steps for calculating an estimated value of a color component corresponding to each pixel of the color / sensitivity mosaic image; and a plurality of estimated values respectively calculated in the processing of the plurality of estimation steps.
  • the processing of the estimation step includes calculating a plurality of estimated value candidates respectively corresponding to the plurality of sensitivity characteristics, adding the plurality of estimated value candidates, and calculating the sum of the estimated values.
  • An estimated value can be calculated by compensating for linearity.
  • the luminance image generating step may further include a noise removing step of generating a luminance value by removing a noise component of the luminance candidate value.
  • the monochromatic image generating step includes: a monochromatic image candidate generating step of generating a monochromatic image candidate corresponding to the color / sensitivity mosaic image based on the sensitivity mosaic pattern information; and the monochromatic image candidate based on the luminance image. Modifying the image candidate to generate a monochrome image.
  • a plurality of single-color candidate values respectively corresponding to a plurality of sensitivity characteristics are calculated, and the plurality of single-color candidate values are added to compensate for the non-linearity of the sensitivity characteristic generated in the sum thereof. By doing so, it is possible to calculate the pixel value of the monochrome image candidate and generate the monochrome image candidate.
  • a monochrome image candidate corresponding to the color-sensitivity mosaic image can be generated using a direction-selective smoothing process.
  • the first image processing method of the present invention may further include an imaging step of imaging a subject and generating a color sensitivity mosaic image.
  • the restoring step includes: a sensitivity characteristic equalization step of equalizing the sensitivity characteristic of each pixel based on sensitivity mosaic pattern information indicating an array of sensitivity characteristics of the color / sensitivity mosaic image; and a color component of the color / sensitivity mosaic image. And a color interpolation step of interpolating the color components of each pixel based on the color mosaic pattern information indicating the arrangement of the pixels.
  • the processing of the sensitivity characteristic equalizing step includes the steps of: equalizing the sensitivity characteristics of each pixel of the color-sensitivity mosaic image based on the sensitivity mosaic pattern information and the color mosaic pattern information to generate a color mosaic image;
  • the processing of (1) can generate a restored image by interpolating the color components of each pixel of the color mosaic image based on the color mosaic pattern information.
  • the processing of the sensitivity characteristic uniforming step is performed based on the sensitivity mosaic pattern information and the color mosaic pattern information without changing the type of the color component of each pixel of the color-sensitivity mosaic image without changing the sensitivity characteristic. To generate color mosaic images You can make it.
  • the processing of the sensitivity characteristic equalizing step includes the step of equalizing the sensitivity characteristic of each pixel of the color / sensitivity mosaic image based on the sensitivity mosaic pattern information and the color mosaic pattern information to generate a color mosaic image,
  • the mosaic pattern information can be updated.
  • the sensitivity uniformization step includes: a compensation step for compensating a color component of each pixel of the color / sensitivity mosaic image based on the degree mosaic pattern information; and a color / sensitivity mosaic image based on the sensitivity mosaic pattern information.
  • a determining step of determining the validity of the color component of the pixel; and a correcting step of correcting, by interpolation, the color component of each pixel compensated in the processing of the compensating step in accordance with the determination result of the determining means. Can be included.
  • the sensitivity uniformization step includes a calculation step of calculating an estimated pixel value of a color sensitivity mosaic image based on the sensitivity mosaic pattern information, and a correction step of correcting the estimated pixel value calculated in the processing of the calculation step. be able to.
  • the processing of the color capture step based on the sensitivity mosaic pattern information and the color mosaic pattern information, all the color components are interpolated for each pixel of the color / sensitivity mosaic image without changing the sensitivity characteristics.
  • a sensitivity mosaic image of each color component can be generated.
  • the sensitivity characteristic equalization step the sensitivity characteristic of each pixel of the sensitivity mosaic image is restored based on the sensitivity mosaic pattern information. An image can be generated.
  • the color interpolation step includes: an extraction step of extracting pixels having the same sensitivity characteristic from the color 'sensitivity mosaic image; and all color components for interpolating all color components for each pixel extracted in the processing of the extraction step. Pixels having the same color component and different sensitivity characteristics among the pixels for which all the color components have been captured in the interpolation step and the all color component interpolation step are combined to form a sensitivity mosaic image. Generating step.
  • each pixel has one of a plurality of color components.
  • a plurality of pixels having any one of a plurality of sensitivity characteristics for the color component and the light intensity, and having the same color component and sensitivity characteristic are arranged in a grid pattern. Regardless of the sensitivity characteristics, the sensitivity of each pixel is made uniform based on a color / sensitivity mosaic image in which a plurality of pixels having the same color component are arranged in a grid pattern.
  • the method further includes a restoring step of restoring a restored image having all of the color components.
  • the restoring step includes converting a color mosaic image into a color mosaic image based on sensitivity mosaic pattern information indicating an array of sensitivity characteristics of the color mosaic image and color mosaic pattern information indicating an array of color components of the color mosaic image.
  • a luminance image generating step of generating a corresponding luminance image, and a plurality of monochromatic image generating steps of generating a monochromatic image corresponding to the color / sensitivity mosaic image based on the sensitivity mosaic pattern information, the color mosaic pattern information, and the luminance image. can be.
  • the luminance image generating step includes: a plurality of estimation steps for calculating an estimated value of a color component corresponding to each pixel of the color / sensitivity mosaic image; and a plurality of 'estimations' respectively calculated in the processing of the plurality of estimation steps.
  • the luminance image generating step may further include a noise removing step of generating a luminance value by removing a noise component of the luminance candidate value.
  • the monochrome image generation step includes: a sensitivity mosaic pattern information; and a monochrome image candidate generation step of generating a monochrome image candidate corresponding to the color / sensitivity mosaic image based on the color mosaic pattern information; and a monochrome image candidate based on the luminance image. To generate a monochrome image by modifying the image.
  • the processing of the single color image candidate generation step includes calculating a plurality of single color candidate values respectively corresponding to a plurality of sensitivity characteristics, adding the plurality of single color candidate values, and generating a sum thereof. By compensating for the non-linearity of the sensitivity characteristic, it is possible to calculate the pixel value of the monochrome image candidate and generate the monochrome image candidate.
  • a monochrome image candidate corresponding to the color-sensitivity mosaic image can be generated using a direction-selective smoothing process.
  • the program of the first recording medium of the present invention may further include an imaging control step of controlling processing for imaging a subject and generating a color / sensitivity mosaic image.
  • the restoration step includes a sensitivity characteristic equalization step of equalizing the sensitivity characteristic of each pixel based on sensitivity mosaic pattern information indicating an array of sensitivity characteristics of the color / sensitivity mosaic image, and a color component of the color / sensitivity mosaic image.
  • a color interpolation step of interpolating the color components of each pixel based on the color mosaic pattern information indicating the arrangement of the pixels.
  • the processing of the sensitivity characteristic equalizing step includes the steps of: equalizing the sensitivity characteristic of each pixel of the color / sensitivity mosaic image based on the sensitivity mosaic pattern information and the color mosaic pattern information to generate a color mosaic image;
  • the processing of (1) can generate a restored image by interpolating the color components of each pixel of the color mosaic image based on the color mosaic pattern information.
  • the processing of the sensitivity characteristic uniforming step is based on the sensitivity mosaic pattern information and the color mosaic pattern information, and the sensitivity characteristics are uniform without changing the type of the color component of each pixel of the color / sensitivity mosaic image. To generate a color mosaic image.
  • the processing of the sensitivity characteristic equalizing step includes the step of equalizing the sensitivity characteristic of each pixel of the color / sensitivity mosaic image based on the sensitivity mosaic pattern information and the color mosaic pattern information to generate a color mosaic image,
  • the mosaic pattern information can be updated.
  • the sensitivity uniformization step includes: a compensation step for compensating a color component of each pixel of the color sensitivity mosaic image based on the degree mosaic pattern information; and a compensation step for each color / sensitivity mosaic image based on the sensitivity mosaic pattern information.
  • the sensitivity uniformization step includes a calculation step of calculating an estimated pixel value of a color sensitivity mosaic image based on the sensitivity mosaic pattern information, and a correction step of correcting the estimated pixel value calculated in the processing of the calculation step. be able to.
  • the processing of the color capturing step is based on the sensitivity mosaic pattern information and the color mosaic pattern information, and interpolates all color components for each pixel of the color mosaic image without changing the sensitivity characteristics.
  • the sensitivity mosaic image of each color component can be generated by performing the sensitivity characteristic equalization step.
  • the processing of the sensitivity characteristic equalization step equalizes the sensitivity characteristic of each pixel of the sensitivity mosaic image based on the sensitivity mosaic pattern information. To generate a restored image.
  • the color interpolation step includes: an extraction step of extracting pixels having the same sensitivity characteristic from the color / sensitivity mosaic image; and a full color component of interpolating all color components for each pixel extracted in the extraction step. Generates a sensitivity mosaic image by combining pixels that have the same color component and different sensitivity characteristics among the pixels for which all color components have been interpolated in the interpolation step and the all color component interpolation step. And a synthesizing step.
  • each pixel has any one of a plurality of color components and any one of a plurality of sensitivity characteristics with respect to light intensity, and A plurality of pixels having color components and sensitivity characteristics are arranged in a grid, and a plurality of pixels having the same color component are arranged in a grid, regardless of the sensitivity characteristics, based on a color 'sensitivity mosaic image.
  • the method is characterized by causing a computer to execute a restoring step of restoring a restored image in which the sensitivity of each pixel is uniform and each pixel has all of the plurality of color components.
  • the restoring step includes converting a color / sensitivity mosaic image into a color / sensitivity mosaic image based on sensitivity mosaic pattern information indicating an array of sensitivity characteristics of the color / sensitivity mosaic image and color mosaic pattern information indicating an array of color components of the color / sensitivity mosaic image.
  • Generate the corresponding luminance image The method may include a luminance image generation step, and a plurality of single color image generation steps for generating a single color image corresponding to the color and sensitivity mosaic image based on the sensitivity mosaic pattern information, the color mosaic pattern information, and the luminance image.
  • the luminance image generating step includes: a plurality of estimation steps for calculating an estimated value of a color component corresponding to each pixel of the color / sensitivity mosaic image; and a plurality of estimated values respectively calculated in the processing of the plurality of estimation steps.
  • the process of the estimating step includes calculating a plurality of estimated value candidates respectively corresponding to the plurality of sensitivity characteristics, adding the plurality of estimated value candidates, and compensating for the nonlinearity of the sensitivity characteristic generated in the sum. To calculate an estimated value.
  • the luminance image generating step may further include a noise removing step of generating a luminance value by removing a noise component of the luminance candidate value.
  • the monochrome image generating step includes a sensitivity mosaic pattern information, and a monochrome image candidate generating step of generating a monochrome image candidate corresponding to the color / sensitivity mosaic image based on the color mosaic pattern information; and a monochrome image candidate based on the luminance image. To generate a monochrome image by modifying the image.
  • the processing of the single color image candidate generation step includes calculating a plurality of single color indication values respectively corresponding to the plurality of sensitivity characteristics, adding the plurality of single color candidate values, and determining the non-linearity of the sensitivity characteristic that is generated in the sum thereof. By compensating, the pixel value of the monochrome image candidate can be calculated to generate the monochrome image candidate.
  • a monochrome image candidate corresponding to the color-sensitivity mosaic image can be generated using a direction-selective smoothing process.
  • the first program of the present invention can further include an imaging control step of controlling processing for imaging a subject and generating a color / sensitivity mosaic image.
  • the restoration step includes a sensitivity characteristic equalization step of equalizing the sensitivity characteristic of each pixel based on sensitivity mosaic pattern information indicating an array of the sensitivity characteristic of the color sensitivity mosaic image, and a color component of the sensitivity mosaic image.
  • Color mosaic pattern showing the array of A color interpolation step of interpolating a color component of each pixel based on the information.
  • the processing of the sensitivity characteristic equalizing step includes the steps of: equalizing the sensitivity characteristic of each pixel of the color / sensitivity mosaic image based on the sensitivity mosaic pattern information and the color mosaic pattern information to generate a color mosaic image;
  • the processing of (1) can generate a restored image by interpolating the color components of each pixel of the color mosaic image based on the color mosaic pattern information.
  • the processing of the sensitivity characteristic equalization step is performed based on the sensitivity mosaic pattern information and the color mosaic pattern information without changing the type of the color component of each pixel of the color / sensitivity mosaic image without changing the sensitivity characteristic.
  • a color mosaic image can be generated.
  • the processing of the sensitivity characteristic equalizing step includes the step of equalizing the sensitivity characteristic of each pixel of the color / sensitivity mosaic image based on the sensitivity mosaic pattern information and the color mosaic pattern information to generate a color mosaic image, Information can be updated.
  • the sensitivity uniformization step includes: a compensation step for compensating a color component of each pixel of the color-sensitivity mosaic image based on the degree mosaic pattern information; and a color / sensitivity mosaic image based on the sensitivity mosaic pattern information.
  • a determining step of determining the validity of the color component possessed by the pixel; and a correcting step of correcting, by interpolation processing, the color component possessed by each pixel compensated in the compensation step processing in accordance with the determination result of the determining means. Can be included.
  • the sensitivity equalization step includes a calculation step of calculating an estimated pixel value of the color / sensitivity mosaic image based on the sensitivity mosaic pattern information, and a correction step of correcting the estimated pixel value calculated in the processing of the calculation step. be able to.
  • the processing of the color interpolation step is based on the sensitivity mosaic pattern information and the color mosaic pattern information. For each pixel of the color / sensitivity mosaic image, all color components are interpolated without changing their sensitivity characteristics. A sensitivity mosaic image of the component can be generated. Based on the mask pattern information, the sensitivity characteristic of each pixel of the sensitivity mosaic image can be made uniform to generate a restored image.
  • the color interpolation step includes: an extraction step of extracting pixels having the same sensitivity characteristic from a color / sensitivity mosaic image; and all color components for interpolating all color components for each pixel extracted in the extraction step. Pixels having the same color component and different sensitivity characteristics are synthesized from the pixels in which all the color components have been interpolated in the interpolating step and the all color component interpolation step to form a sensitivity mosaic image. Generating step.
  • each pixel has any one of a plurality of sensitivity characteristics with respect to any one of a plurality of color components and light intensity, and has the same
  • a plurality of pixels having color components and sensitivity characteristics are arranged in a grid, and a plurality of pixels having the same sensitivity characteristics are arranged in a grid regardless of the color components.
  • the sensitivity of each pixel is equalized based on the color and sensitivity mosaic image in which all the color components are present in a total of 5 pixels of 4 pixels adjacent to the top, bottom, left and right of any pixel, and each pixel Includes restoring means for restoring a restored image having all the color components of the plurality of color components.
  • the restoration means corresponds to a color-sensitivity mosaic image based on sensitivity mosaic pattern information indicating an array of sensitivity characteristics of a color / sensitivity mosaic image and color mosaic pattern information indicating an array of color components of a color 'sensitivity mosaic image.
  • a luminance image generating unit that generates a luminance image; and a plurality of monochromatic image generating units that generate a monochromatic image corresponding to the color / sensitivity mosaic image based on the sensitivity mosaic pattern information, the color mosaic pattern information, and the luminance image. Can be.
  • the luminance image generating means includes: a plurality of estimating means for calculating an estimated value of a color component corresponding to each pixel of the color / sensitivity mosaic image; and a plurality of estimated values calculated by the plurality of estimating means.
  • Brightness candidate value calculating means for calculating a brightness candidate value corresponding to each pixel of the sensitivity mosaic image.
  • the estimating means calculates a plurality of estimated value candidates respectively corresponding to a plurality of sensitivity characteristics. However, it is possible to calculate the estimated value by adding a plurality of estimated value candidates and compensating for the non-linearity of the sensitivity characteristic occurring in the sum.
  • the luminance image generating unit may further include a noise removing unit that generates a luminance value by removing a noise component of the luminance candidate value.
  • a monochrome image candidate generating unit configured to generate a monochrome image candidate corresponding to the color / sensitivity mosaic image based on the sensitivity mosaic pattern information and the color mosaic pattern information; Correction means for correcting the image candidate to generate a monochrome image.
  • the single-color image candidate generation means calculates a plurality of single-color feature values respectively corresponding to the plurality of sensitivity characteristics, adds the plurality of single-color candidate values, and compensates for the non-linearity of the sensitivity characteristic generated in the sum thereof. Thus, it is possible to calculate the pixel value of the monochrome image candidate and generate the monochrome image candidate.
  • the monochrome image candidate generating means may generate a monochrome image candidate corresponding to the color-sensitivity mosaic image by using a direction-selective smoothing process.
  • the second image processing device of the present invention can further include an image pickup unit that images a subject and generates a color-sensitivity mosaic image.
  • the restoration means comprises: a sensitivity characteristic equalizing means for equalizing sensitivity characteristics of each pixel based on sensitivity mosaic pattern information indicating an array of sensitivity characteristics of the color / sensitivity mosaic image; and a color component of the color / sensitivity mosaic image. And color interpolation means for interpolating the color components of each pixel based on the color mosaic pattern information indicating the arrangement of the pixels.
  • the sensitivity characteristic uniformizing means can generate a color mosaic image by uniforming the sensitivity characteristic of each pixel of the color mosaic image based on the sensitivity mosaic pattern information and the color mosaic pattern information.
  • the color interpolation unit may generate a restored image by interpolating the color components of each pixel of the color mosaic image based on the color mosaic pattern information.
  • the sensitivity characteristic equalizing means changes the type of the color component of each pixel of the color / sensitivity mosaic image based on the sensitivity mosaic pattern information and the color mosaic pattern information. Without further modification, the sensitivity characteristic can be made uniform to generate a color mosaic image.
  • the sensitivity characteristic uniformizing means generates a color mosaic image by uniforming sensitivity characteristics of each pixel of the color / sensitivity mosaic image based on the sensitivity mosaic pattern information and the color mosaic pattern information. It can be updated.
  • the sensitivity uniformizing means includes: a compensation means for compensating a color component of each pixel of the color / sensitivity mosaic image based on the sensitivity mosaic pattern information; and a pixel / pixel of the color / sensitivity mosaic image based on the sensitivity mosaic pattern information. And a correcting means for correcting the color component of each pixel compensated by the compensating means by interpolation processing in accordance with the discrimination result of the discriminating means. it can.
  • the sensitivity equalizing means may include a calculating means for calculating an estimated pixel value of the color / sensitivity mosaic image based on the sensitivity mosaic pattern information, and a correcting means for correcting the estimated pixel value calculated by the calculating means. it can.
  • the color interpolation means interpolates all color components without changing the sensitivity characteristics for each pixel of the color-sensitivity mosaic image based on the sensitivity mosaic pattern information and the color mosaic pattern information.
  • a sensitivity mosaic image of each color component can be generated, and the sensitivity characteristic equalizing unit equalizes the sensitivity characteristic of each pixel of the sensitivity mosaic image based on the sensitivity mosaic pattern information to generate a restored image. It can be generated. .
  • the color interpolation means includes: an extraction means for extracting pixels having the same sensitivity characteristic from the color-sensitivity mosaic image; and an all-color-component interpolation means for interpolating all color components for each pixel extracted by the extraction means. And a synthesizing unit for generating a sensitivity mosaic image by synthesizing pixels having the same color component and different sensitivity characteristics among the pixels obtained by interpolating all the color components by the all-color component interpolation unit. be able to.
  • each pixel has any one of a plurality of sensitivity characteristics with respect to one of a plurality of color components and light intensity
  • a plurality of pixels having the same color component and sensitivity characteristics are arranged in a lattice
  • a plurality of pixels having the same sensitivity characteristics are arranged in a lattice regardless of the color components.
  • the sensitivity of each pixel is equalized based on the color / sensitivity mosaic image in which all color components are present in a total of 5 pixels of the arbitrary pixel and the 4 pixels adjacent to the upper, lower, left and right of the arbitrary pixel, and A restoring step of restoring a restored image in which each pixel has all the color components of the plurality of color components.
  • the restoring step includes the steps of: A luminance image generating step of generating a corresponding luminance image, and a plurality of single-color image generating steps of generating a single-color image corresponding to the color-sensitivity mosaic image based on the sensitivity mosaic pattern information, the color mosaic pattern information, and the luminance image. Can be.
  • the luminance image generating step includes: a plurality of estimation steps for calculating an estimated value of a color component corresponding to each pixel of the color / sensitivity mosaic image; and a plurality of estimated values respectively calculated in the processing of the plurality of estimation steps.
  • the process of the estimating step includes calculating a plurality of estimated value candidates respectively corresponding to the plurality of sensitivity characteristics, adding the plurality of estimated value candidates, and compensating for the nonlinearity of the sensitivity characteristic generated in the sum. To calculate an estimated value.
  • the luminance image generating step may further include a noise removing step of generating a luminance value by removing a noise component of the luminance candidate value.
  • the monochrome image generation step includes: a sensitivity mosaic pattern information; and a monochrome image candidate generation step of generating a monochrome image candidate corresponding to the color / sensitivity mosaic image based on the color mosaic pattern information; and a monochrome image candidate based on the luminance image. To generate a monochrome image by modifying the image.
  • the processing of the single color image candidate generation step includes calculating a plurality of single color candidate values respectively corresponding to a plurality of sensitivity characteristics, adding the plurality of single color candidate values, and generating a sum thereof. By compensating for the non-linearity of the sensitivity characteristic, it is possible to calculate the pixel value of the monochrome image candidate and generate the monochrome image candidate.
  • a monochrome image candidate corresponding to the color-sensitivity mosaic image can be generated using a direction-selective smoothing process.
  • the second image processing method of the present invention may further include an imaging step of imaging a subject and generating a color / sensitivity mosaic image.
  • the restoring step includes: a sensitivity characteristic equalization step of equalizing the sensitivity characteristic of each pixel based on sensitivity mosaic pattern information indicating an array of sensitivity characteristics of the color / sensitivity mosaic image; and a color component of the color / sensitivity mosaic image. And a color interpolation step of interpolating the color components of each pixel based on the color mosaic pattern information indicating the arrangement of the pixels.
  • the sensitivity characteristic equalizing step the color mosaic image is generated by equalizing the sensitivity characteristic of each pixel of the color / sensitivity mosaic image based on the sensitivity mosaic pattern information and the color mosaic pattern information.
  • the processing of the color capture step can generate a restored image by interpolating the color components of each pixel of the color mosaic image based on the color mosaic pattern information.
  • the processing of the sensitivity characteristic equalization step is performed based on the sensitivity mosaic pattern information and the color mosaic pattern information without changing the type of the color component of each pixel of the color / sensitivity mosaic image without changing the sensitivity characteristic.
  • a color mosaic image can be generated.
  • the processing of the sensitivity characteristic equalizing step includes the step of equalizing the sensitivity characteristic of each pixel of the color / sensitivity mosaic image based on the sensitivity mosaic pattern information and the color mosaic pattern information to generate a color mosaic image, Can be updated.
  • the sensitivity uniformization step includes: a compensation step of compensating for a color component of each pixel of the color 'sensitivity mosaic image based on the sensitivity mosaic pattern information; and a pixel of the color / sensitivity mosaic image based on the sensitivity mosaic pattern information.
  • a discriminating step for discriminating the validity of the color component having the image, and a compensation step corresponding to the discrimination result of the discriminating means And a correction step of correcting the color component of each pixel compensated by the above by the interpolating process.
  • the sensitivity uniformization step includes a calculation step of calculating an estimated pixel value of a color / sensitivity mosaic image based on the sensitivity mosaic pattern information, and a correction step of correcting the estimated pixel value calculated in the processing of the calculation step. be able to.
  • the process of the color interpolation step interpolates all color components for each pixel of the color mosaic image without changing the sensitivity characteristics based on the sensitivity mosaic pattern information and the color mosaic pattern information.
  • a sensitivity mosaic image of each color component can be generated, and the processing of the sensitivity characteristic equalization step equalizes the sensitivity characteristic of each pixel of the sensitivity mosaic image based on the sensitivity mosaic pattern information.
  • a restored image can be generated.
  • the color interpolation step includes: an extraction step of extracting pixels having the same sensitivity characteristic from a color / sensitivity mosaic image; and all color components for interpolating all color components for each pixel extracted in the extraction step. Generates a sensitivity mosaic image by combining pixels that have the same color component and different sensitivity characteristics among the pixels for which all color components have been interpolated in the interpolation step and the all color component interpolation step. And a synthesizing step.
  • each pixel has any one of a plurality of sensitivity characteristics with respect to any one of a plurality of color components and light intensity.
  • a plurality of pixels having the same color component and the same sensitivity characteristic are arranged in a grid, and a plurality of pixels having the same sensitivity characteristic are arranged in a lattice regardless of the color component.
  • the sensitivity of each pixel is equalized based on the color and sensitivity mosaic image in which all the color components are present in a total of 5 pixels of 4 pixels adjacent to the top, bottom, left and right of any pixel, and each pixel Includes a restoring step of restoring a restored image having all the color components of the plurality of color components.
  • the restoration step includes a sensitivity mosaic pattern information indicating an array of sensitivity characteristics of the color / sensitivity mosaic image, and a color mosaic pattern indicating an array of color components of the color / sensitivity mosaic image.
  • a luminance image generation step for generating a luminance image corresponding to the color / sensitivity mosaic image based on the color / sensitivity mosaic image, and a monochrome image corresponding to the color / sensitivity mosaic image based on the sensitivity mosaic pattern information, the color mosaic pattern information, and the luminance image. Generating a plurality of monochrome image generating steps.
  • the luminance image generating step includes: a plurality of estimation steps for calculating an estimated value of a color component corresponding to each pixel of the color / sensitivity mosaic image; and a plurality of estimated values respectively calculated in the processing of the plurality of estimation steps. And a luminance candidate value calculating step of calculating a luminance candidate value corresponding to each pixel of the color sensitivity mosaic image.
  • the process of the estimating step includes calculating a plurality of estimated value candidates respectively corresponding to the plurality of sensitivity characteristics, adding the plurality of estimated value candidates, and compensating for the nonlinearity of the sensitivity characteristic generated in the sum. To calculate an estimated value.
  • the luminance image generating step may further include a noise removing step of generating a luminance value by removing a noise component of the luminance candidate value.
  • the monochrome image generation step includes: a sensitivity mosaic pattern information; and a monochrome image candidate generation step of generating a monochrome image candidate corresponding to the color / sensitivity mosaic image based on the color mosaic pattern information; and a monochrome image candidate based on the luminance image. To generate a monochrome image by modifying the image.
  • a plurality of single-color candidate values respectively corresponding to a plurality of sensitivity characteristics are calculated, and the plurality of single-color candidate values are added to compensate for the non-linearity of the sensitivity characteristic generated in the sum thereof. By doing so, it is possible to calculate the pixel value of the monochrome image candidate and generate the monochrome image candidate.
  • a monochrome image candidate corresponding to the color-sensitivity mosaic image can be generated using a direction-selective smoothing process.
  • the program of the second recording medium according to the present invention may further include an imaging control step of imaging a subject and controlling a process of generating a color sensitivity mosaic image.
  • the restoring step is a uniformity of sensitivity characteristic that equalizes sensitivity characteristics of each pixel based on sensitivity mosaic pattern information indicating an array of sensitivity characteristics of a color / sensitivity mosaic image.
  • a color interpolation step of interpolating the color components of each pixel based on the color mosaic pattern information indicating the arrangement of the color components of the color-sensitivity mosaic image.
  • the color mosaic image is generated by equalizing the sensitivity characteristic of each pixel of the color / sensitivity mosaic image based on the sensitivity mosaic pattern information and the color mosaic pattern information.
  • the processing of the color interpolation step can generate a restored image by interpolating the color components of each pixel of the color mosaic image based on the color mosaic pattern information.
  • the processing of the sensitivity characteristic uniforming step is performed based on the sensitivity mosaic pattern information and the color mosaic pattern information without changing the type of the color component of each pixel of the color-sensitivity mosaic image without changing the sensitivity characteristic. To generate a color mosaic image.
  • the processing of the sensitivity characteristic equalizing step includes the step of equalizing the sensitivity characteristics of each pixel of the color / sensitivity mosaic image based on the sensitivity mosaic pattern information and the color mosaic pattern information to generate a color mosaic image, Can be updated.
  • the sensitivity uniformization step includes: a compensation step for compensating a color component of each pixel of the color sensitivity mosaic image based on the sensitivity mosaic pattern information; and A discriminating step of discriminating the validity of the color component having the image, and a correction step of correcting the color component of each pixel compensated by the processing of the compensating step by intercepting processing in accordance with the discrimination result of the discriminating means. Can be included.
  • the sensitivity uniformization step includes a calculation step of calculating an estimated pixel value of a color / sensitivity mosaic image based on the sensitivity mosaic pattern information, and a correction step of correcting the estimated pixel value calculated in the processing of the calculation step. be able to.
  • the processing of the color interpolation step is based on the sensitivity mosaic pattern information and the color mosaic pattern information. For each pixel of the color mosaic image, all color components are interpolated without changing the sensitivity characteristics. Generate sensitivity mosaic image of component
  • the processing in the sensitivity characteristic equalization step is to generate a restored image by equalizing the sensitivity characteristic of each pixel of the sensitivity mosaic image based on the sensitivity mosaic pattern information. Can be.
  • the color capture step comprises: an extraction step of extracting pixels having the same sensitivity characteristic from the color / sensitivity mosaic image; and all colors for interpolating all color components for each pixel extracted in the extraction step.
  • an extraction step of extracting pixels having the same sensitivity characteristic from the color / sensitivity mosaic image is used to extract all colors for interpolating all color components for each pixel extracted in the extraction step.
  • pixels having the same color component and different sensitivity characteristics are combined to form a sensitivity mosaic image. Generating step.
  • each pixel has one of a plurality of color components and one of a plurality of sensitivity characteristics with respect to light intensity, and has the same color.
  • a plurality of pixels having components and sensitivity characteristics are arranged in a grid, and a plurality of pixels having the same sensitivity characteristics are arranged in a grid regardless of the color components.
  • the sensitivity of each pixel is equalized based on the color and sensitivity mosaic image in which all color components are present in a total of 5 pixels of 4 pixels adjacent to the top, bottom, left and right of any pixel, and each pixel is
  • the method is characterized by causing a computer to execute a restoration step of restoring an restored image having all color components of a plurality of color components.
  • the restoring step is based on sensitivity mosaic pattern information indicating an array of sensitivity characteristics of the color / sensitivity mosaic image, and color / sensitivity mosaic based on color mosaic pattern information indicating an array of color components of the color / sensitivity mosaic image.
  • a luminance image generating step for generating a luminance image corresponding to the image, and a plurality of single color image generating steps for generating a single color image corresponding to the color / sensitivity mosaic image based on the sensitivity mosaic pattern information, the color mosaic pattern information, and the luminance image And may be included.
  • the luminance image generating step includes: a plurality of estimation steps for calculating an estimated value of a color component corresponding to each pixel of the color / sensitivity mosaic image; and a plurality of estimated values respectively calculated in the processing of the plurality of estimation steps.
  • a luminance candidate value calculating step of calculating a luminance candidate value corresponding to each pixel of the color / sensitivity mosaic image using The process of the estimating step includes calculating a plurality of estimated value candidates respectively corresponding to the plurality of sensitivity characteristics, adding the plurality of estimated value candidates, and compensating for the nonlinearity of the sensitivity characteristic generated in the sum. To calculate an estimated value.
  • the luminance image generating step may further include a noise removing step of generating a luminance value by removing a noise component of the luminance candidate value.
  • the monochrome image generation step includes: a sensitivity mosaic pattern information; and a monochrome image candidate generation step of generating a monochrome image corresponding to the color / sensitivity mosaic image based on the color mosaic pattern information; and a monochrome image based on the luminance image. Modifying the candidate to generate a monochrome image.
  • a plurality of single-color candidate values respectively corresponding to a plurality of sensitivity characteristics are calculated, and the plurality of single-color candidate values are added to compensate for the non-linearity of the sensitivity characteristic generated in the sum thereof. By doing so, it is possible to calculate the pixel value of the monochrome image candidate and generate the monochrome image candidate.
  • a monochrome image candidate corresponding to the color-sensitivity mosaic image can be generated using a direction-selective smoothing process.
  • the second program of the present invention may further include an imaging control step of imaging a subject and controlling a process of generating a color sensitivity mosaic image.
  • the restoring step includes: a sensitivity characteristic equalization step of equalizing the sensitivity characteristic of each pixel based on sensitivity mosaic pattern information indicating an array of sensitivity characteristics of the color / sensitivity mosaic image; and a color component of the color / sensitivity mosaic image. And a color interpolation step of interpolating the color components of each pixel based on the color mosaic pattern information indicating the arrangement of the pixels.
  • the sensitivity characteristic equalization step the sensitivity mosaic pattern information and the color mosaic pattern information are used to uniformize the sensitivity characteristic of each pixel of the color / sensitivity mosaic image to generate a color mosaic image.
  • the processing of the color interpolation step can generate a restored image by interpolating the color components of each pixel of the color mosaic image based on the color mosaic pattern information.
  • the processing of the sensitivity characteristic equalization step includes: sensitivity mosaic pattern information; Based on the mosaic pattern information, it is possible to generate a color mosaic image by making the sensitivity characteristics uniform without changing the type of color component of each pixel of the color / sensitivity mosaic image. '
  • the processing of the sensitivity characteristic equalizing step includes the step of equalizing the sensitivity characteristic of each pixel of the color / sensitivity mosaic image based on the sensitivity mosaic pattern information and the color mosaic pattern information to generate a color mosaic image, Information can be updated.
  • the sensitivity uniformization step includes: a compensation step of compensating for a color component of each pixel of the color 'sensitivity mosaic image based on the sensitivity mosaic pattern information; and a pixel of the color / sensitivity mosaic image based on the sensitivity mosaic pattern information.
  • a discriminating step of discriminating the validity of the color component having the image, and a correction step of correcting the color component of each pixel compensated in the process of the compensating step by intercepting processing in accordance with the discrimination result of the discriminating means. Can be included.
  • the sensitivity uniformization step includes a calculation step of calculating an estimated pixel value of a color sensitivity mosaic image based on the sensitivity mosaic pattern information, and a correction step of correcting the estimated pixel value calculated in the processing of the calculation step. be able to.
  • the processing of the color capture step based on the sensitivity mosaic pattern information and the color mosaic pattern information, all the color components are interpolated for each pixel of the color / sensitivity mosaic image without changing the sensitivity characteristics.
  • a sensitivity mosaic image of each color component can be generated.
  • the sensitivity characteristic equalization step the sensitivity characteristic of each pixel of the sensitivity mosaic image is restored based on the sensitivity mosaic pattern information. An image can be generated.
  • the color interpolation step includes: an extraction step of extracting pixels having the same sensitivity characteristic from a color / sensitivity mosaic image; and all color components for interpolating all color components for each pixel extracted in the extraction step. Pixels having the same color component and different sensitivity characteristics among the pixels for which all the color components have been captured in the interpolation step and the all color component interpolation step are combined to form a sensitivity mosaic image. Generation step. Can be taken.
  • a third image processing apparatus includes a sensitivity characteristic equalizing unit that equalizes sensitivity characteristics of each pixel based on sensitivity mosaic pattern information indicating an array of sensitivity characteristics of a color-sensitivity mosaic image; ⁇ A color interpolating means for interpolating the color components of each pixel based on color mosaic pattern information indicating an array of color components of the sensitivity mosaic image.
  • the sensitivity characteristic uniformizing means can generate a color mosaic image by uniforming the sensitivity characteristic of each pixel of the color / sensitivity mosaic image based on the sensitivity mosaic pattern information and the color mosaic pattern information.
  • the color interpolation unit may generate a restored image by interpolating the color components of each pixel of the color mosaic image based on the color mosaic pattern information.
  • the sensitivity characteristic uniformizing means equalizes the sensitivity characteristic based on the sensitivity mosaic pattern information and the color mosaic pattern information without changing the type of the color component of each pixel of the color / sensitivity mosaic image. To generate a color mosaic image.
  • the sensitivity characteristic equalizing means generates a color mosaic image by equalizing the sensitivity characteristic of each pixel of the color and sensitivity mosaic images based on the sensitivity mosaic pattern information and the color mosaic pattern information. Can be updated.
  • the sensitivity uniformizing means includes: a compensation means for compensating a color component of each pixel of the color / sensitivity mosaic image based on the sensitivity mosaic pattern information; and a pixel / pixel of the color / sensitivity mosaic image based on the sensitivity mosaic pattern information. And a correcting means for correcting the color component of each pixel compensated by the compensating means by interpolation processing in accordance with the discrimination result of the discriminating means. it can.
  • the sensitivity uniformization means may include a calculation means for calculating an estimated pixel value of the color / sensitivity mosaic image based on the sensitivity mosaic pattern information, and a correction means for correcting the estimated pixel value calculated by the calculation means. it can.
  • the color interpolation means interpolates all color components for each pixel of the color / sensitivity mosaic image without changing the sensitivity characteristics based on the sensitivity mosaic pattern information and the color mosaic pattern information.
  • a sensitivity mosaic image of the component can be generated, and the sensitivity characteristic equalizing unit generates a restored image by uniforming the sensitivity characteristic of each pixel of the sensitivity mosaic image based on the sensitivity mosaic pattern information. It can be done.
  • the color interpolation means includes: extraction means for extracting pixels having the same sensitivity characteristic from the color / sensitivity mosaic image; and all color component interpolation means for interpolating all color components for each pixel extracted by the extraction means. And a synthesizing unit for generating a sensitivity mosaic image by synthesizing pixels having the same color component and different sensitivity characteristics among the pixels obtained by interpolating all the color components by the all-color component interpolation unit. be able to.
  • the third image processing device of the present invention can further include an image pickup unit that images a subject and generates a color-sensitivity mosaic image.
  • a third image processing method includes a sensitivity characteristic equalizing step of equalizing sensitivity characteristics of each pixel based on sensitivity mosaic pattern information indicating an array of sensitivity characteristics of a color / sensitivity mosaic image; (2) A color interpolation step for interpolating a color component of each pixel based on color mosaic pattern information indicating an arrangement of color components of a sensitivity mosaic image.
  • the color mosaic image is generated by equalizing the sensitivity characteristics of each pixel of the color / sensitivity mosaic image based on the sensitivity mosaic pattern information and the color mosaic pattern information.
  • the processing of the color interpolation step can generate a restored image by interpolating the color components of each pixel of the color mosaic image based on the color mosaic pattern information.
  • the processing of the sensitivity characteristic uniforming step is performed based on the sensitivity mosaic pattern information and the color mosaic pattern information, without changing the type of the color component of each pixel of the color sensitivity mosaic image without changing the sensitivity characteristic.
  • a color mosaic image can be generated.
  • the processing of the sensitivity characteristic equalizing step includes the step of equalizing the sensitivity characteristic of each pixel of the color / sensitivity mosaic image based on the sensitivity mosaic pattern information and the color mosaic pattern information to generate a color mosaic image, Information can be updated.
  • the sensitivity uniformization step includes: a compensation step of compensating for a color component of each pixel of the color 'sensitivity mosaic image based on the sensitivity mosaic pattern information; and a pixel of the color / sensitivity mosaic image based on the sensitivity mosaic pattern information.
  • the sensitivity uniformization step includes a calculation step of calculating an estimated pixel value of a color / sensitivity mosaic image based on the sensitivity mosaic pattern information, and a correction step of correcting the estimated pixel value calculated in the processing of the calculation step. be able to.
  • the processing of the color capture step based on the sensitivity mosaic pattern information and the color mosaic pattern information, all the color components are interpolated for each pixel of the color / sensitivity mosaic image without changing the sensitivity characteristics.
  • a sensitivity mosaic image of each color component can be generated.
  • the sensitivity characteristic equalization step the sensitivity characteristic of each pixel of the sensitivity mosaic image is uniformed and restored based on the sensitivity mosaic pattern information. An image can be generated.
  • the color interpolation step includes: an extraction step of extracting pixels having the same sensitivity characteristic from the color 'sensitivity mosaic image; and all color components for interpolating all color components for each pixel extracted in the processing of the extraction step. Generates a sensitivity mosaic image by combining pixels that have the same color component and different sensitivity characteristics among the pixels for which all color components have been interpolated in the interpolation step and the all color component interpolation step. And a synthesizing step.
  • the third image processing method of the present invention may further include an imaging step of imaging a subject and generating a color / sensitivity mosaic image.
  • the program of the third recording medium according to the present invention includes a sensitivity characteristic equalizing step of equalizing sensitivity characteristics of each pixel based on sensitivity mosaic pattern information indicating an array of sensitivity characteristics of a color / sensitivity mosaic image; And a color interpolation step of intercepting the color components of each pixel based on color mosaic pattern information indicating the arrangement of the color components of the sensitivity mosaic image.
  • the processing of the sensitivity characteristic equalization step is to generate a color mosaic image by equalizing the sensitivity characteristics of each pixel of the color-sensitivity mosaic image based on the sensitivity mosaic pattern information and the color mosaic pattern information.
  • the processing of the color capture step can generate a restored image by interpolating the color components of each pixel of the color mosaic image based on the color mosaic pattern information.
  • the processing of the sensitivity characteristic uniforming step is performed based on the sensitivity mosaic pattern information and the color mosaic pattern information, without changing the type of the color component of each pixel of the color / sensitivity mosaic image without changing the sensitivity characteristic.
  • a color mosaic image can be generated.
  • the processing of the sensitivity characteristic equalizing step includes the steps of: uniformizing the sensitivity characteristics of each pixel of the color-sensitivity mosaic image based on the sensitivity mosaic pattern information and the color mosaic pattern information to generate a color mosaic image; Information can be updated.
  • the sensitivity uniformization step includes: a compensation step for compensating a color component of each pixel of the color / sensitivity mosaic image based on the sensitivity mosaic pattern information; and a pixel / color sensitivity mosaic image based on the sensitivity mosaic pattern information.
  • a correct step is
  • the sensitivity equalization step includes a calculation step of calculating an estimated pixel value of the color / sensitivity mosaic image based on the sensitivity mosaic pattern information, and a correction step of correcting the estimated pixel value calculated in the processing of the calculation step. be able to.
  • the processing of the color interpolation step is based on the sensitivity mosaic pattern information and the color mosaic pattern information. For each pixel of the color / sensitivity mosaic image, all color components are interpolated without changing their sensitivity characteristics. A sensitivity mosaic image of the component can be generated.
  • the sensitivity characteristic equalization step the sensitivity characteristic of each pixel of the sensitivity mosaic image is uniformed and restored based on the sensitivity mosaic pattern information. An image can be generated.
  • the color interpolation step includes: an extraction step of extracting pixels having the same sensitivity characteristic from a color / sensitivity mosaic image; and all color components for interpolating all color components for each pixel extracted in the extraction step. Generates a sensitivity mosaic image by combining pixels that have the same color component and different sensitivity characteristics among the pixels for which all color components have been interpolated in the interpolation step and the all color component interpolation step. And a synthesizing step.
  • the program of the third recording medium according to the present invention may further include an imaging control step of imaging a subject and controlling a process of generating a color / sensitivity mosaic image.
  • a third program according to the present invention includes: a sensitivity characteristic equalizing step for equalizing sensitivity characteristics of each pixel based on sensitivity mosaic pattern information indicating an array of sensitivity characteristics of a color / sensitivity mosaic image; And a color interpolation step of interpolating the color components of each pixel based on the color mosaic pattern information indicating the arrangement of the color components.
  • the processing of the sensitivity characteristic uniforming step is such that, based on the sensitivity mosaic pattern information and the color mosaic pattern information, the sensitivity characteristic of each pixel of the color / sensitivity mosaic image is equalized to generate a color mosaic image.
  • the color component of each pixel of the color mosaic image is interpolated based on the color mosaic pattern information to generate a restored image.
  • the processing of the sensitivity characteristic equalization step is performed based on the sensitivity mosaic pattern information and the color mosaic pattern information without changing the type of the color component of each pixel of the color / sensitivity mosaic image without changing the sensitivity characteristic. Generate color mosaic image You can make it.
  • the processing of the sensitivity characteristic equalizing step includes the step of equalizing the sensitivity characteristic of each pixel of the color / sensitivity mosaic image based on the sensitivity mosaic pattern information and the color mosaic pattern information to generate a color mosaic image, Can be updated.
  • the sensitivity uniformization step includes: a compensation step for compensating a color component of each pixel of the color / sensitivity mosaic image based on the sensitivity mosaic pattern information; and a color / sensitivity mosaic image based on the sensitivity mosaic pattern information.
  • a correct step is
  • the sensitivity uniformization step includes a calculation step of calculating an estimated pixel value of a color sensitivity mosaic image based on the sensitivity mosaic pattern information, and a correction step of correcting the estimated pixel value calculated in the processing of the calculation step. be able to.
  • the processing of the color interpolation step is based on the sensitivity mosaic pattern information and the color mosaic pattern information. For each pixel of the color / sensitivity mosaic image, all color components are interpolated without changing their sensitivity characteristics. A sensitivity mosaic image of the component can be generated, and the processing of the sensitivity characteristic equalization step equalizes the sensitivity characteristic of each pixel of the sensitivity mosaic image based on the sensitivity mosaic pattern information and restores the restored image. Can be generated.
  • the color interpolation step includes: an extraction step of extracting pixels having the same sensitivity characteristic from the color / sensitivity mosaic image; and a full color component of interpolating all color components for each pixel extracted in the extraction step. Pixels having the same color component and different sensitivity characteristics among the pixels for which all the color components have been captured in the interpolation step and the all color component interpolation step are combined to form a sensitivity mosaic image. Generating step.
  • the third program of the present invention captures an object and generates a color sensitivity mosaic image
  • the method may further include an imaging control step of controlling the processing to be performed.
  • a fourth image processing apparatus includes: a sensitivity mosaic pattern information indicating an array of sensitivity characteristics of a color / sensitivity mosaic image; and a color mosaic pattern information indicating an array of color components of a color / sensitivity mosaic image.
  • a luminance image generating means for generating a luminance image corresponding to the color / sensitivity mosaic image; and a plurality of luminance image generating means for generating a monochrome image corresponding to the color / sensitivity mosaic image based on the sensitivity mosaic pattern information, the color mosaic pattern information, and the luminance image.
  • a monochromatic image generating means is generating means.
  • the luminance image generating means includes: a plurality of estimating means for calculating an estimated value of a color component corresponding to each pixel of the color-sensitivity mosaic image; Brightness candidate value calculating means for calculating a brightness candidate value corresponding to each pixel of the sensitivity mosaic image.
  • the estimating means calculates a plurality of estimated value candidates respectively corresponding to the plurality of sensitivity characteristics, adds the plurality of estimated value candidates, and compensates for the nonlinearity of the sensitivity characteristic generated in the sum of the estimated values.
  • the value can be calculated.
  • the luminance image generating unit may further include a noise removing unit that generates a luminance value by removing a noise component of the luminance candidate value.
  • a monochrome image candidate generating unit configured to generate a monochrome image candidate corresponding to the color / sensitivity mosaic image based on the sensitivity mosaic pattern information and the color mosaic pattern information; Correction means for correcting the image candidate to generate a monochrome image.
  • the single-color image candidate generation means calculates a plurality of single-color candidate values respectively corresponding to a plurality of sensitivity characteristics, adds the plurality of single-color candidate values, and compensates for the non-linearity of the sensitivity characteristics generated in the sum.
  • the pixel value of the monochrome image candidate can be calculated to generate the monochrome image candidate.
  • the monochrome image candidate generating means may generate a monochrome image candidate corresponding to the color-sensitivity mosaic image by using a direction-selective smoothing process.
  • a fourth image processing apparatus captures a subject and generates a color sensitivity mosaic image.
  • the imaging device may further include an imaging unit.
  • the fourth image processing method of the present invention is based on sensitivity mosaic pattern information indicating an array of sensitivity characteristics of a color-sensitivity mosaic image and color mosaic pattern information indicating an array of color components of a color-sensitivity mosaic image.
  • a luminance image generation step for generating a luminance image corresponding to the color / sensitivity mosaic image, and a plurality of steps for generating a single-color image corresponding to the color / sensitivity mosaic image based on the sensitivity mosaic pattern information, the color mosaic pattern information, and the luminance image And a step of generating a single-color image.
  • the luminance image generating step includes: a plurality of estimation steps for calculating an estimated value of a color component corresponding to each pixel of the color-sensitivity mosaic image; And a luminance candidate value calculating step of calculating a luminance candidate value corresponding to each pixel of the color sensitivity mosaic image.
  • a plurality of estimated value candidates respectively corresponding to the plurality of sensitivity characteristics are calculated, and the plurality of estimated value candidates are added to compensate for the nonlinearity of the sensitivity characteristic generated in the sum.
  • the estimated value can be calculated.
  • the luminance image generating step may further include a noise removing step of generating a luminance value by removing a noise component of the luminance candidate value.
  • the monochrome image generating step includes a sensitivity mosaic pattern information, and a monochrome image candidate generating step of generating a monochrome image candidate corresponding to the color / sensitivity mosaic image based on the color mosaic pattern information; and a monochrome image candidate based on the luminance image. To generate a monochrome image by modifying the image.
  • a plurality of single-color candidate values respectively corresponding to a plurality of sensitivity characteristics are calculated, and the plurality of single-color candidate values are added to compensate for the non-linearity of the sensitivity characteristic generated in the sum thereof. By doing so, it is possible to calculate the pixel value of the monochrome image candidate and generate the monochrome image candidate.
  • a monochrome image candidate corresponding to the color-sensitivity mosaic image can be generated using a direction-selective smoothing process.
  • the fourth image processing method of the present invention captures a subject and generates a color / sensitivity mosaic image.
  • An imaging step may be further included.
  • the program of the fourth recording medium of the present invention is based on sensitivity mosaic pattern information indicating an array of sensitivity characteristics of a color / sensitivity mosaic image, and color mosaic pattern information indicating an array of color components of a color mosaic image.
  • a luminance image generation step for generating a luminance image corresponding to the color / sensitivity mosaic image, and a single color image corresponding to the color / sensitivity mosaic image is generated based on the sensitivity mosaic pattern information, the color mosaic pattern information, and the luminance image. And generating a plurality of monochrome images.
  • the luminance image generating step includes a plurality of estimation steps for calculating an estimated value of a color component corresponding to each pixel of the color / sensitivity mosaic image, and a plurality of estimated values respectively calculated in the processing of the plurality of estimation steps.
  • the process of the estimating step includes calculating a plurality of estimated value candidates respectively corresponding to the plurality of sensitivity characteristics, adding the plurality of estimated value candidates, and compensating for the nonlinearity of the sensitivity characteristic generated in the sum. To calculate an estimated value.
  • the luminance image generating step may further include a noise removing step of generating a luminance value by removing a noise component of the luminance candidate value.
  • the monochrome image generating step includes a sensitivity mosaic pattern information, and a monochrome image candidate generating step of generating a monochrome image candidate corresponding to the color / sensitivity mosaic image based on the color mosaic pattern information; and a monochrome image candidate based on the luminance image. To generate a monochrome image by modifying the image.
  • a plurality of single-color candidate values respectively corresponding to a plurality of sensitivity characteristics are calculated, and the plurality of single-color candidate values are added to compensate for the non-linearity of the sensitivity characteristic generated in the sum thereof. By doing so, it is possible to calculate the pixel value of the monochrome image candidate and generate the monochrome image candidate.
  • a monochrome image candidate corresponding to a color / sensitivity mosaic image can be generated using a direction-selective smoothing process.
  • the program of the fourth recording medium of the present invention captures an object, The method may further include an imaging control step for controlling a process of generating an image.
  • a fourth program according to the present invention is based on sensitivity mosaic pattern information indicating an array of sensitivity characteristics of a color / sensitivity mosaic image and color mosaic pattern information indicating an array of color components of a color / sensitivity mosaic image.
  • the luminance image generating step includes: a plurality of estimation steps for calculating an estimated value of a color component corresponding to each pixel of the color / sensitivity mosaic image; and a plurality of estimated values respectively calculated in the processing of the plurality of estimation steps.
  • a plurality of estimated value candidates respectively corresponding to the plurality of sensitivity characteristics are calculated, and the plurality of estimated value candidates are added to compensate for the nonlinearity of the sensitivity characteristic generated in the sum.
  • the estimated value can be calculated.
  • the luminance image generating step may further include a noise removing step of generating a luminance value by removing a noise component of the luminance candidate value.
  • the monochrome image generation step includes: a sensitivity mosaic pattern information; and a monochrome image candidate generation step of generating a monochrome image candidate corresponding to the color / sensitivity mosaic image based on the color mosaic pattern information; and a monochrome image candidate based on the luminance image. To generate a monochrome image by modifying the image.
  • a plurality of single-color candidate values respectively corresponding to a plurality of sensitivity characteristics are calculated, and the plurality of single-color candidate values are added to compensate for the non-linearity of the sensitivity characteristic generated in the sum thereof. By doing so, it is possible to calculate the pixel value of the monochrome image candidate and generate the monochrome image candidate.
  • a monochrome image candidate corresponding to a color / sensitivity mosaic image can be generated using a direction-selective smoothing process.
  • the fourth program of the present invention may further include an imaging control step of controlling processing for imaging a subject and generating a color sensitivity mosaic image.
  • each pixel has one of a plurality of color components and one of a plurality of sensitivity characteristics with respect to light intensity. And a plurality of pixels having the same color component and sensitivity characteristics are arranged in a grid, and a plurality of pixels having the same color component are arranged in a grid regardless of the sensitivity characteristics. Based on the color / sensitivity mosaic image, the sensitivity of each pixel is made uniform, and a restored image in which each pixel has all the color components of a plurality of color components is restored.
  • each pixel includes one of a plurality of color components and a plurality of sensitivity characteristics with respect to light intensity. And a plurality of pixels having the same color component and sensitivity characteristics are arranged in a grid pattern, and a plurality of pixels having the same sensitivity characteristics are arranged in a grid pattern regardless of the color components.
  • the sensitivity of each pixel is made uniform based on the color-sensitivity mosaic image in which all the color components are present in a total of 5 pixels, including the arbitrary pixel and the 4 pixels adjacent to the upper, lower, left, and right of the arbitrary pixel. And a restored image in which each pixel has all the color components of the plurality of color components.
  • the sensitivity characteristic of each pixel is made uniform based on the sensitivity mosaic pattern information indicating the arrangement of the sensitivity characteristic of the color sensitivity mosaic image.
  • the color components of each pixel are interpolated based on the color mosaic pattern information indicating the arrangement of the color components of the image.
  • sensitivity mosaic pattern information indicating an array of sensitivity characteristics of a color mosaic image
  • a color mosaic pattern indicating an array of color components of a color / sensitivity mosaic image.
  • a luminance image corresponding to the color / sensitivity mosaic image is generated based on the information, and a single color image corresponding to the color / sensitivity mosaic image is generated based on the sensitivity mosaic pattern information, the color mosaic pattern information, and the luminance image.
  • FIG. 1 is a block diagram showing a configuration example of a digital still camera to which the present invention is applied.
  • FIG. 2 is a diagram illustrating an outline of the operation of the digital still camera.
  • FIG. 3 is a diagram illustrating an example of a subject.
  • FIG. 4 is a diagram showing an example of a color / sensitivity mosaic image corresponding to FIG.
  • FIG. 5 is a diagram illustrating the color sensitivity mosaic pattern P1.
  • FIG. 6 is a diagram showing a color / sensitivity mosaic pattern P2.
  • FIG. 7 is a diagram showing a color / sensitivity mosaic pattern P3.
  • FIG. 8 is a diagram showing a color-sensitivity mosaic pattern P4.
  • FIG. 9 is a diagram showing the color sensitivity mosaic pattern P5.
  • FIG. 10 is a diagram showing a color sensitivity mosaic pattern P6.
  • FIG. 11 is a diagram showing a color / sensitivity mosaic pattern P7.
  • FIG. 12 is a diagram showing a color sensitivity mosaic pattern P8.
  • FIG. 13 is a diagram showing a color / sensitivity mosaic pattern P9.
  • FIG. 14 is a diagram showing the color sensitivity mosaic pattern P10.
  • FIG. 15 is a diagram showing the color sensitivity mosaic pattern P11.
  • FIG. 16 is a diagram showing the color sensitivity mosaic pattern P12.
  • FIG. 17 is a diagram showing a color sensitivity mosaic pattern P13.
  • FIG. 18 is a diagram showing a color sensitivity mosaic pattern P14.
  • FIG. 19 is a diagram showing a cross section of the light receiving element of the CCD image sensor 4.
  • FIG. 20 is a diagram for explaining a method of optically realizing a mosaic arrangement of sensitivity.
  • FIG. 21 is a diagram for explaining a method of optically realizing the mosaic arrangement of the sensitivity.
  • Figure 22 is a diagram for explaining a method of optically realizing a mosaic arrangement of sensitivity. is there.
  • FIG. 23 is a diagram for explaining a first method for electronically realizing a mosaic arrangement of sensitivity.
  • FIG. 24 is a diagram for explaining a second method for electronically realizing the mosaic arrangement of the sensitivity.
  • FIG. 25 is a diagram showing an OR electrode structure.
  • FIG. 26 is a diagram showing a cross section of an OR electrode structure.
  • FIG. 27 is a diagram showing an AND electrode structure.
  • FIG. 28 is a diagram showing a combination of an OR electrode structure and an AND electrode structure for realizing the color and sensitivity mosaic pattern P1.
  • FIG. 29 is a diagram showing a combination of an OR electrode structure and an AND electrode structure for realizing the color and sensitivity mosaic pattern P2.
  • FIG. 30 is a diagram showing a combination of an OR-type electrode structure and an AND-type electrode structure for realizing the color sensitivity mosaic pattern P3.
  • FIG. 31 is a diagram showing a combination of an OR electrode structure and an AND electrode structure for realizing the color / sensitivity mosaic pattern P4.
  • FIG. 32 is a diagram showing a combination of an OR-type electrode structure and an AND-type electrode structure for realizing the color sensitivity mosaic pattern P5.
  • FIG. 33 is a diagram for explaining the definition of the position coordinates of the pixel.
  • FIG. 34 is a diagram for describing an outline of the first demosaic process.
  • FIG. 35 is a diagram for explaining the outline of the first sensitivity uniformization process in the first demosaic process.
  • FIG. 36 is a diagram for describing an outline of the first sensitivity uniformization process in the first demosaic process.
  • FIG. 37 is a diagram for describing an outline of the first sensitivity uniformization process in the first demosaic process.
  • FIG. 38 outlines the second sensitivity equalization process in the first demosaic process.
  • FIG. 39 is a diagram for describing the outline of the second sensitivity uniformization process in the first demosaic process.
  • FIG. 40 is a diagram for describing an outline of the second demosaic processing.
  • FIG. 41 is a diagram for explaining the outline of the first sensitivity equalization process in the second demosaic process.
  • FIG. 42 is a diagram for explaining the outline of the first sensitivity uniformization process in the second demosaic process.
  • FIG. 43 is a diagram for explaining the outline of the second sensitivity equalization processing in the second demosaicing processing.
  • FIG. 44 is a diagram for explaining the outline of the second sensitivity uniformization process in the second demosaic process.
  • FIG. 45 is a block diagram illustrating a first configuration example of the image processing unit 7.
  • FIG. 46 is a block diagram showing a first configuration example of the sensitivity equalizing section 51. As shown in FIG. 46
  • FIG. 47 is a block diagram illustrating a configuration example of the color interpolation unit 52.
  • FIG. 48 is a block diagram illustrating a configuration example of the color difference image generation unit 72.
  • FIG. 49 is a block diagram illustrating a configuration example of the luminance image generation unit 74.
  • FIG. 50 is a flowchart illustrating a first demosaic process by the first configuration example of the image processing unit 7.
  • FIG. 51 is a flowchart illustrating a first sensitivity uniformization process according to the first configuration example of the sensitivity uniformization unit 51.
  • FIG. 52 is a flowchart illustrating the sensitivity compensation processing in step S11.
  • FIG. 53 is a flowchart illustrating the validity determination processing in step S12.
  • FIG. 54 is a flowchart illustrating the missing interpolation processing in step S13.
  • FIG. 55 is a flowchart for explaining the color interpolation processing in step S2.
  • FIG. 56 is a flowchart illustrating the first chrominance image generation processing in step S52.
  • FIG. 57 is a flowchart illustrating the luminance image generation processing in step S53.
  • FIG. 58 is a flowchart illustrating the color space conversion processing in step S54.
  • FIG. 59 is a block diagram showing a second configuration example of the sensitivity uniforming section 51. As shown in FIG.
  • FIG. 60 is a flowchart illustrating a second sensitivity uniformization process according to the second configuration example of the sensitivity uniformization unit 51.
  • FIG. 61 is a flowchart for explaining the interpolation processing in step S103.
  • FIG. 62 is a flowchart for explaining the second color difference image generation processing.
  • FIG. 63 is a flowchart illustrating the image gradient vector calculation processing in step S123.
  • FIG. 64 is a block diagram illustrating a second configuration example of the image processing unit 7.
  • FIG. 65 is a block diagram illustrating a first configuration example of the sensitivity uniformization unit 111. As illustrated in FIG.
  • FIG. 66 is a flowchart for explaining the missing interpolation processing of the missing trapping section 124.
  • FIG. 67 is a block diagram showing a second configuration example of the sensitivity uniforming section 111. As shown in FIG.
  • FIG. 68 is a flowchart illustrating a second sensitivity uniformization process in the second demosaic process according to the second configuration example of the sensitivity uniformization unit 111.
  • FIG. 69 is a flowchart for explaining the interpolation color determination process in step S166.
  • FIG. 70 is a diagram for describing an overview of the third demosaic process.
  • FIG. 71 is a diagram for explaining an outline of the sensitivity-based color capture processing in the third demosaic processing.
  • FIG. 72 is a diagram for explaining the outline of the color capture processing by sensitivity in the third demosaic processing.
  • FIG. 73 is a block diagram showing a third configuration example of the image processing unit 7. As shown in FIG.
  • FIG. 74 is a block diagram illustrating a configuration example of the sensitivity-based color interpolation section 151.
  • FIG. 75 is a block diagram illustrating a configuration example of the sensitivity equalizing unit 152.
  • FIG. 76 is a flowchart for explaining a third demosaic process by the third configuration example of the image processing unit 7.
  • FIG. 77 is a flowchart for explaining the sensitivity-based color interpolation processing in step S181.
  • FIG. 78 is a view for explaining the extraction processing in step S193.
  • FIG. 79 is a view for explaining the extraction processing in step S193.
  • FIG. 80 is a flowchart for explaining the sensitivity equalization processing in step S182.
  • FIG. 81 is a diagram illustrating an example of the filter coefficient used in the local sum calculation processing in step S203.
  • FIG. 82 is a block diagram illustrating a configuration example of the hitting 14 of the image processing unit 7.
  • FIG. 83 is a block diagram illustrating a first configuration example of the luminance image generation unit 181.
  • FIG. 84 is a block diagram illustrating a configuration example of the single-color image generation unit 182.
  • FIG. 85 is a flowchart for explaining a fourth demosaic process according to the fourth configuration example of the image processing unit 7.
  • FIG. 86 is a flowchart illustrating the luminance image generation processing of the luminance image generation unit 181.
  • FIG. 87 is a flowchart for explaining the R component estimation processing of the estimation unit 1991.
  • FIG. 88 is a diagram illustrating an example of the R and B component interpolation filter coefficients.
  • FIG. 89 is a diagram illustrating an example of a G-component interpolation filter coefficient.
  • FIG. 90 is a diagram for describing the combined sensitivity compensation LUT.
  • FIG. 91 is a diagram for describing the combined sensitivity compensation LUT.
  • FIG. 92 is a diagram for describing the combined sensitivity compensation LUT.
  • FIG. 93 is a flowchart illustrating the noise elimination processing of the noise elimination unit 198.
  • FIG. 94 is a flowchart for explaining the direction-selective smoothing process of the noise removing unit 198.
  • FIG. 95 is a flowchart illustrating the single-color image generation processing of the single-color image generation unit 1822.
  • FIG. 96 is a flowchart for explaining the ratio value calculation processing of the ratio value calculation unit 202.
  • FIG. 97 is a diagram illustrating an example of the smoothing filter coefficient.
  • FIG. 98 is a block diagram illustrating a second configuration example of the luminance image generation unit 181.
  • FIG. 99 is a flowchart illustrating the estimation process of the RGB component by the estimation unit 211.
  • FIG. 100 is a diagram showing an arrangement of pixels used in the estimated pixel value C 0 interpolation processing S.
  • FIG. 101 is a flowchart for explaining the estimated pixel value C0 interpolation process.
  • FIG. 102 is a diagram showing the arrangement of pixels used for the estimated pixel value C 1 capture process.
  • FIG. 103 is a flowchart for explaining the estimated pixel value C 1 capture process.
  • FIG. 104A is a diagram showing an arrangement of pixels used for the estimated pixel value C2 interpolation processing.
  • FIG. 104B is a diagram illustrating an arrangement of pixels used for the estimated pixel value C2 interpolation processing.
  • FIG. 105 is a flowchart for explaining the estimated pixel value C2 interpolation processing.
  • FIG. 106 is a diagram showing an arrangement of pixels used for the estimated pixel value C3 interpolation processing.
  • FIG. 107 is a flowchart for explaining the estimation pixel value C 3 capture process.
  • FIG. 108 is a flowchart for explaining the R candidate image generation processing by the interpolation unit 201 R.
  • FIG. 109 is a flowchart for explaining the B candidate image generation processing by the interpolation unit 2011-1B.
  • FIG. 110 is a flowchart illustrating a G candidate image generation process performed by the interpolation unit 201-G.
  • FIG. 11 is a block diagram showing a fifth configuration example of the image processing unit 7. As shown in FIG. BEST MODE FOR CARRYING OUT THE INVENTION
  • FIG. 1 shows a configuration example of a digital still camera according to an embodiment of the present invention.
  • the digital still camera is roughly composed of an optical system, a signal processing system, a recording system, a display system, and a control system.
  • the optical system consists of a lens 1 for condensing the light image of the subject, an aperture 2 for adjusting the amount of light in the light image, and a CCD image sensor for photoelectrically converting the condensed light image to an electric signal with a wide dynamic range. Consists of four.
  • the signal processing system converts the analog signal output by the correlated double sampling circuit (CDS) 5 and correlated double sampling circuit 5 into a digital signal to reduce noise by sampling the electrical signal from the CCD image sensor 4. It comprises an A / D converter 6 for conversion, and an image processing unit 7 for performing predetermined image processing on digital signals input from the AZD converter 6. The details of the processing executed by the image processing unit 7 will be described later.
  • the recording system encodes the image signal processed by the image processing unit 7 and records it in the memory 9, and also reads and decodes the image signal and supplies it to the image processing unit 7 .
  • the CODEC (Corapression / Decompression) 8 and the image signal And a memory 9 for storing the information.
  • the display system includes a DZA converter 10 that converts the image signal processed by the image processing unit 7 into an analog signal, and a video encoder 11 that encodes the analogized image signal into a video signal in a format compatible with the display 12 at the subsequent stage. And a display 12 composed of an LCD (Liquid Crystal Display) or the like that functions as a finder by displaying an image corresponding to an input video signal.
  • the control system includes a timing generator (TG) 3 for controlling the operation timing of the CCD image sensor 4 to the image processing unit 7, an operation input unit 13 for a user to input a shutter timing and other commands, and a drive 15.
  • TG timing generator
  • control unit 14 including a CPU (Central Processing Unit) for controlling the entire digital still camera based on commands from a user or the like.
  • CPU Central Processing Unit
  • an optical image (incident light) of a subject is incident on a CCD image sensor 4 via a lens 1 and an aperture 2, and the CCD image sensor
  • the electrical signal obtained by the photoelectric conversion by the sensor 4 is subjected to noise removal by a correlated double sampling circuit 5, digitized by an A / D converter 6, and then temporarily stored in an image memory incorporated in an image processing unit 7. Is done.
  • the image signal incorporated in the image processing section 7 is constantly overwritten with the image signal at a constant frame rate by controlling the signal processing system by the timing generator 3.
  • the image signal of the image memory incorporated in the image processing unit 7 is converted into an analog signal by the D / A converter 10, converted into a video signal by the video encoder 11, and the corresponding image is displayed on the display 12.
  • the display 12 also plays a role of a finder of the digital still camera.
  • the control unit 14 captures the image signal immediately after the press of the shirt tapotan into the timing generator 3, and thereafter, the image of the image processing unit 7.
  • the signal processing system is controlled so that the image signal is not overwritten in the memory.
  • the image data written in the image memory of the image processing unit 7 is encoded by C0DEC 8 and recorded in the memory 9.
  • the operation of the digital still camera as described above completes the capture of one image data.
  • the digital still camera captures an image of a subject with different colors and sensitivities for each pixel by optical imaging processing centered on the CCD image sensor 4, and an image in which the colors and sensitivities are mosaic (hereinafter referred to as a color image). Described as a sensitivity mosaic image, the details of which will be described later).
  • the image obtained by the imaging process is converted into an image in which each pixel has all color components and has uniform sensitivity by a signal processing system centered on the image processing unit 7.
  • the processing of the signal processing system centered on the image processing unit 7 for converting a color / sensitivity mosaic image into an image in which each pixel has all color components and has uniform sensitivity is also described as demosaic processing. I do.
  • FIGS. 5 to 18 show an arrangement pattern (hereinafter, referred to as a color / sensitivity mosaic pattern) P1 to P14 of color components and sensitivities of pixels constituting the color / sensitivity mosaic image.
  • the color combinations that make up the color / sensitivity mosaic pattern include three color combinations consisting of R (red), G (green), and B (blue), as well as Y (yellow) and M (magenta).
  • a color / sensitivity mosaic pattern The color combinations that make up the color / sensitivity mosaic pattern include three color combinations consisting of R (red), G (green), and B (blue), as well as Y (yellow) and M (magenta).
  • each square corresponds to one pixel
  • the alphabetic character indicates the color
  • the number indicates the sensitivity as a subscript of the English character.
  • G The pixel marked with indicates that the color is G (green) and the sensitivity is S 0. It is also assumed that the higher the number, the higher the sensitivity.
  • the color sensitivity mosaic patterns P1 to P14 can be classified according to the following first to fourth characteristics.
  • the first feature is that when attention is paid to pixels having the same color and sensitivity, they are arranged in a grid pattern, and when attention is paid to pixels having the same color regardless of sensitivity, they It is arranged in a shape.
  • the first feature will be described with reference to a color-sensitivity mosaic pattern P1 shown in FIG.
  • the color / sensitivity mosaic pattern P1 if attention is paid to the pixels whose color is R regardless of the sensitivity, as can be seen when the drawing is rotated 45 degrees clockwise, is a 2 1/2 intervals in the horizontal direction, and is lattice-shaped arrangement with two 3/2 intervals in the vertical direction.
  • attention is paid to the pixels whose color is B regardless of the sensitivity they are arranged similarly.
  • attention is paid to pixels whose color is G irrespective of the sensitivity they are arranged in a grid at 2 1/2 intervals in the horizontal and vertical directions.
  • the first feature is that in addition to the color / sensitivity mosaic pattern P1 shown in FIG. 5, the color / sensitivity mosaic pattern p2, P4, P6, P8, P9, P10, P11, P 13 has.
  • the second characteristic is that when attention is paid to pixels having the same color and sensitivity, they are arranged in a grid pattern, and when attention is paid to pixels having the same sensitivity regardless of color, When attention is paid to an arbitrary pixel, all the pixels included in the color and the sensitivity mosaic pattern are included in the color of the pixel and the four pixels located above, below, left, and right in total of five pixels. Is included.
  • the second feature is that in addition to the color 'sensitivity mosaic pattern P3 shown in Fig. 7, the color' sensitivity mosaic pattern P5, P7, P8, P9, P12, P14 has .
  • the third feature is that it has the first feature, and that three colors are used and that they have a Bayer arrangement.
  • the third feature will be described with reference to the color-sensitivity mosaic pattern P2 shown in FIG.
  • the third feature is that the color 'sensitivity mosaic patterns P10 and P11 have the color' sensitivity mosaic pattern P2 in Fig. 6.
  • the fourth feature is that it has the second feature, and when attention is paid to pixels having the same sensitivity, their arrangement forms a Bayer arrangement.
  • the fourth feature will be described with reference to a color-sensitivity mosaic pattern P3 shown in FIG.
  • sensitivity mosaic pattern P3 if we focus only on the pixels with sensitivity S0, as shown in the drawing at an angle of 45 degrees, they are spaced at 2 1 2 intervals. It has a bay array. Also, if you pay attention to only the pixels with sensitivity S1, Similarly, they are in Bayer arrangement.
  • the fourth feature is that the color / sensitivity mosaic patterns P5 and P12 in addition to the color / sensitivity mosaic pattern P3 in FIG.
  • the color mosaic arrangement is described focusing on only the color regardless of the pixel sensitivity. Also, focusing on the sensitivity alone regardless of the color, it is described as “sensitivity mosaic array”.
  • the color mosaic arrangement is realized by disposing an on-chip color filter that transmits only light of a different color for each pixel on the upper surface of the light receiving element of the CCD image sensor 4.
  • the sensitivity mosaic arrangement is realized by an optical method or an electronic method.
  • FIG. 19 shows a cross section of the light receiving element of the CCD image sensor 4.
  • An on-chip lens 21 is formed on the upper surface of the light receiving element.
  • the on-chip lens 21 is configured so that incident light from above the drawing is focused on a photodiode (PD) 23.
  • the on-chip color filter 22 limits the wavelength band of incident light (transmits only a specific wavelength band).
  • a photodiode 23 is formed in the wafer below the light receiving element. The photodiode 23 generates a charge corresponding to the input light amount.
  • a vertical register 26 is formed on both sides of the photodiode 21.
  • a vertical register drive electrode 25 for driving the vertical register 21 is wired above the vertical register 26.
  • the vertical register 26 is a region for transferring the electric charge generated by the photodiode 23
  • the vertical register 26 and the vertical register drive electrode 25 are shielded by a shield 24 so that no electric charge is generated there. It is shaded. Shield 24 Only the upper part of the photodiode 23 is open, and the incident light passes through the opening to reach the photodiode 23.
  • the sensitivity of each light receiving element can be changed (the amount of light incident on the photodiode 23 can be changed).
  • the amount of collected light can be changed depending on whether or not the on-chip lens 21 is installed. Further, as shown in FIG. 21, for example, by installing a neutral density filter 31 above (or below) the on-chip color filter 22, the light transmittance can be changed. Further, for example, as shown in FIG. 22, by changing the area of the opening of the shield 24, the amount of light incident on the photodiode 23 can be changed.
  • Fig. 23 for the first method of setting two light receiving elements to different sensitivities by changing the control timing for two adjacent light receiving elements (first and second light receiving elements). I will explain.
  • the first row in FIG. 23 shows the exposure period of the CCD image sensor 4.
  • the second row in the figure shows the timing of the pulse voltage for instructing charge sweeping.
  • the third tier in the figure shows the timing at which a control voltage for instructing charge transfer is applied.
  • the fourth row in the figure shows the timing of the pulse voltage for instructing the first light receiving element to read out the electric charge.
  • the fifth row in the figure shows the change in the amount of charge stored in the first light receiving element in response to the application of the charge sweeping pulse voltage and the charge readout pulse voltage.
  • the sixth row in the figure shows the timing of the pulse voltage for instructing the second light receiving element to read out the electric charge.
  • the seventh row in the figure shows the change in the amount of charge stored in the second light receiving element in response to the application of the charge sweeping pulse voltage and the charge readout pulse voltage.
  • the charge sweeping pulse voltage is common to the first and second light receiving elements except for the exposure period. Is supplied to sweep out (reset) the charge from the photodiode 23, and is supplied to reset the charge only once at a predetermined timing during the exposure period.
  • a waveform voltage for transferring charges to the vertical register 26 is supplied to the first and second light receiving elements in common during the exposure period.
  • the vertical register 2 No charge transfer voltage is supplied so that the transfer of charge from 6 is stopped.
  • the charge readout pulse voltage is supplied to each light receiving element at a different timing.
  • the first charge readout pulse voltage is supplied to the first light receiving element immediately before the supply timing of the charge sweeping pulse voltage during the exposure period (the second stage in the same figure).
  • the second charge readout pulse voltage is supplied.
  • the accumulated charge amount of the first light receiving element at each of the first and second supply timings of the charge readout pulse voltage is read out to the vertical register 26 from the first light receiving element.
  • the transfer of the electric charge of the vertical register 26 is stopped, so the two read charges are added in the vertical register 26, and after the end of the exposure period, data of the same frame is read as the data of the same frame. It is designed to be transferred from 26.
  • the charge readout pulse voltage is supplied to the second light receiving element only once immediately before the supply timing of the charge sweeping pulse voltage during the exposure period.
  • the accumulated charge amount of the second light receiving element at the timing of supplying the charge readout pulse voltage only once is read out to the vertical register 26 from the second light receiving element. Since the transfer of the electric charge of the vertical register 23 is stopped during the exposure period, the accumulated electric charge read out from the second light receiving element is read out from the first light receiving element after the end of the exposure period.
  • the data is transferred from the vertical register 26 as data of the same frame as the accumulated charge.
  • the first light receiving element shell is read out during the same exposure period. It is possible to set the accumulated charge amount and the accumulated charge amount read from the second light receiving element, that is, the sensitivity differently.
  • the first method for electronically realizing the mosaic arrangement of the sensitivity has a problem that information of the subject over the entire area during the exposure period cannot be measured depending on the light receiving element.
  • the first to sixth stages in the same figure instruct the exposure period of the CCD image sensor 4, the timing of the pulse voltage for instructing charge sweeping, and the charge transfer.
  • the timing at which the control voltage is applied, the timing of the pulse voltage for instructing the first light receiving element to read out the charge, the charge sweeping pulse voltage and the charge reading out pulse voltage are applied to the first light receiving element.
  • Changes in the amount of charge stored, the timing of the pulse voltage that instructs the second light-receiving element to read out the charge, the charge sweep-out pulse voltage, and the charge readout pulse voltage This shows the change in the amount of charge that is applied.
  • the charge sweeping pulse voltage and the charge reading pulse voltage are repeatedly supplied several times during the exposure period.
  • the charge sweeping pulse voltage a set of the first charge sweeping pulse voltage and the second charge sweeping pulse voltage are supplied to the first and second light receiving elements a plurality of times during the exposure period.
  • the charge readout pulse voltage for the first light-receiving element, the first charge sweeping voltage is applied immediately before the first charge sweeping pulse voltage for each set of the second charge sweeping pulse voltage.
  • the read pulse voltage is supplied, and the second charge read pulse voltage is supplied immediately before the second charge sweep pulse voltage.
  • the charge readout pulse voltage is supplied to the second light receiving element only once immediately before the first charge sweepout pulse voltage for each set of charge sweepout pulse voltages.
  • the amount of charge accumulated in the first light receiving element at the supply timing of the first charge readout pulse voltage is calculated for each set of the first and second charge sweeping pulse voltages,
  • the accumulated charge amount of the first light receiving element at the timing of supplying the second charge readout pulse voltage is read out. Note that, during the exposure period, the transfer of the electric charge of the vertical register 26 is stopped. Therefore, the electric charge read twice for each group is added by the vertical register 26. From the second light receiving element, the amount of charge stored in the second light receiving element at the supply timing of the charge readout pulse voltage is read out only once for each set of the first and second charge sweeping pulse voltages. . The amount of charge read once for each set is added by the vertical register 26.
  • charge reading is repeated a plurality of times during the exposure period, so that it is possible to measure information on the subject over the entire area during the exposure period Becomes
  • the readout control of the CCD image sensor 4 is performed by controlling the vertical register drive electrode 2 wired for each horizontal line. Applied to 5.
  • the electrode structure in order to realize a mosaic arrangement of sensitivity such that the sensitivity changes for each horizontal line as in the color-sensitivity mosaic pattern P1 shown in FIG. 5, it is sufficient to use the electrode structure. It is only necessary to make a slight improvement so that a different read pulse voltage can be applied to each of them.
  • an arbitrary mosaic arrangement with two-stage sensitivity can be realized electronically by devising its electrode structure.
  • FIG. 25 shows a first electrode structure of a vertical transfer polysilicon electrode using electrode wiring used to realize a mosaic arrangement of sensitivity having two levels of sensitivity.
  • FIG. 26 is a cross-sectional view of the CCD image sensor taken along line aa in FIG. Since the first-phase vertical register drive electrode 42 and the second-phase vertical register drive electrode 43 are connected to the electrodes of adjacent pixels on the same horizontal line, they have the same horizontal line. The electrodes on the fin are driven synchronously. On the other hand, since the third-phase vertical register drive electrode 44 is connected to the electrode of an adjacent pixel on the same vertical line, the electrodes on the same vertical line are driven synchronously. Also, the second-phase vertical register drive electrode 43 and the third-phase vertical register drive electrode 44 are arranged so as to cover the read gate 41 adjacent to the corresponding photodiode 23. ing.
  • FIG. 27 shows a second electrode structure of a vertical transfer polysilicon electrode using electrode wiring used for realizing a sensitivity mosaic arrangement having two levels of sensitivity.
  • the cross section of the CCD image sensor along the line segment aa in FIG. 27 is the same as the cross section shown in FIG. That is, also in the second electrode structure, similarly to the first electrode structure, the first-phase vertical register drive electrode 42 and the second-phase vertical register drive electrode 43 are connected to the electrodes of adjacent pixels on the same horizontal line. The electrodes on the same horizontal line are driven synchronously.
  • the third-phase vertical register drive electrodes 4 4 are connected to the electrodes of adjacent pixels on the same vertical line, as in the first electrode structure, so the electrodes on the same vertical line are driven synchronously. You.
  • the third-phase vertical register driving electrode 44 is arranged along the edge of the photodiode 23 on the read gate 41 adjacent to the corresponding photodiode 23, and then adjacent to the photodiode 23.
  • the second phase vertical register driving electrode 43 differs from the first electrode structure in that an elongated portion of the electrode 43 is applied to the read gate 41.
  • an arbitrary mosaic arrangement with two-stage sensitivity can be created. For example, among the color 'sensitivity mosaic patterns P1 shown in Fig. 5, in order to realize a sensitivity mosaic arrangement, as shown in Fig. 28, combining the OR type electrode structure and the AND type electrode structure Good.
  • the pixel of low sensitivity S0 adopts an AND type electrode structure and the pixel of high sensitivity S1 Use an OR-type electrode structure.
  • a readout pulse voltage is applied to the second-phase vertical register drive electrode 43 for the CCD image sensor 4 configured by combining the OR-type and AND-type electrode structures in this manner, only the OR-type pixels can be used.
  • both OR-type and AND-type that is, all The charge readout is carried out in the pixel of.
  • the supply timing of the pulse voltage to the second-phase vertical register drive electrode 43 and the third-phase vertical register drive electrode 44 is the same as the control timing shown in FIG. 23 (or FIG. 24).
  • both the second phase and the third phase are driven. If only the second phase is driven at the supply timing of the second charge readout pulse voltage, pixels with an OR electrode structure will have high sensitivity S1 and pixels with an AND electrode structure will have low sensitivity S0. Become.
  • a mosaic array having two other levels of sensitivity can be created.
  • the OR type and AND type are shown in Fig. 29.
  • Combine Of the color / sensitivity mosaic patterns P3 shown in FIG. 7, in order to realize a mosaic pattern of sensitivity, an OR type and an AND type are combined as shown in FIG.
  • the color 'sensitivity mosaic patterns P4 shown in Fig. 8 in order to realize a mosaic pattern of sensitivity, the R type and the AND type are combined as shown in Fig. 31.
  • the color and sensitivity mosaic patterns P5 shown in Fig. 9 to realize a mosaic pattern of sensitivity, the OR type and AND type are combined as shown in Fig. 32.
  • the demosaic processing of the image processing system centered on the image processing unit 7 will be described. Before that, the definition of the position coordinates of the pixels used in the following description will be described with reference to FIG.
  • Figure 33 shows the coordinate system (x, y) that indicates the position of the pixel on the image. Chi words, the left bottom of the image and (0, 0), the right top of the image and (x max, y ma x) .
  • Each pixel represented by a mouth in the figure has a horizontal width and a vertical width of length 1, and is arranged on a grid. Therefore, for example, the coordinates of the center of the lower left pixel are (0.5, 0.5), and the coordinates of the center of the upper right pixel are (x max —0.5, y max- 0. 5).
  • image data (pixel data at the position indicated by Okina in the figure) whose phase is shifted by half a pixel vertically and horizontally with respect to each pixel represented by the mouth may be used.
  • the coordinates of the image data whose phase is shifted by half a pixel vertically and horizontally from the lower left pixel are (1, 1).
  • FIG. 34 shows an outline of the first demosaic processing of the image processing system centering on the image processing unit 7.
  • the first demosaicing process is a sensitivity that equalizes the sensitivity and generates a color mosaic image without changing the color of the pixels of the color / sensitivity mosaic image obtained by the processing of the imaging system. It consists of uniform processing and color correction processing for restoring the RGB components of each pixel of the color-sensitivity mosaic image M.
  • FIGS. 35 to 37 show the pixel arrangement of a predetermined one line of the image to be processed.
  • X0 is the color component X (for example, R (red))
  • XI indicates that the color component is X
  • YO indicates that the color component is Y (for example, G (green)) and indicates that the sensitivity is the SO of two levels S 0 and S 1
  • Y 1 indicates that the color component is Y and the sensitivity is Is S1 of the two steps S0 and S1.
  • the pixels with the sensitivity SO measure the light intensity with the intensity of the incident light attenuated at a predetermined rate
  • the pixels with the sensitivity S1 measure the light intensity without attenuating the intensity of the incident light.
  • the horizontal axis in the figure indicates the position of the pixel on the line
  • the length of the vertical bar indicates the pixel value of the corresponding pixel.
  • the first sensitivity uniformization process in the first demosaic process can be divided into two-stage processes.
  • FIG. 35 shows the pixel values of pixels on a predetermined one line of the color 'sensitivity mosaic image before the first sensitivity uniformization processing is performed. Note that the curve X shows the intensity distribution of the color X of the incident light, and the curve Y shows the intensity distribution of the color Y.
  • the threshold value 0 H indicates the saturation level of the CCD image sensor 4. If the intensity of the incident light exceeds the threshold value 0 H , the intensity cannot be measured accurately, and the measured value is equal to the threshold value 0 H. Become.
  • the threshold value 0 indicates the noise level of the CCD image sensor 4. Even if the intensity of the incident light is smaller than the threshold value 0! _, The intensity cannot be measured accurately, and the measured value is the threshold value. The value is equal to 0.
  • the validity determination result is information indicating whether or not each pixel can accurately measure the intensity of incident light, that is, whether the measured pixel value of each pixel is valid V (Valid) or invalid I (Invalid ).
  • FIG. 36 shows the result of performing the first stage processing of the first sensitivity uniformization processing.
  • the pixels for which the validity determination result is valid restore the original light intensity by scaling, but the pixels which are invalid are replaced with the original light intensity. Light intensity has not been restored. Therefore, in the second stage of the first sensitivity equalization process, the pixel value of an invalid pixel is interpolated using the pixel value of a valid pixel of the same color in the vicinity.
  • FIG. 37 shows the result of performing the second stage processing of the first sensitivity uniformization processing.
  • the invalid pixel of color Y in the center of FIG. 37 is interpolated according to the interpolation curve Y ′ generated using the pixel values of the neighboring pixels of valid color Y.
  • FIG. 35, 38, and 39 An outline of the second sensitivity equalization processing in the first demosaic processing will be described with reference to FIGS. 35, 38, and 39.
  • FIG. The second sensitivity uniformization process can also be divided into two stages. It is assumed that the pixel values of the pixels of one predetermined line of the color-sensitivity mosaic image before the second sensitivity uniformization processing is performed are the same as those in FIG.
  • the pixel value at the sensitivity S O and the pixel value at the sensitivity S 1 are estimated by the first-stage processing of the second sensitivity equalization processing without changing the color of each pixel. For example, for a pixel of color and sensitivity S 0, the pixel value at sensitivity S 0 is used as it is, and the estimated value at sensitivity S 1 is the color of nearby color X and sensitivity S 1 Interpolated using pixel values.
  • FIG. 38 shows the result of the first stage processing of the second sensitivity uniformization processing. As shown in the drawing, each pixel has the pixel value of the sensitivity S0 of the original color and the pixel value of the sensitivity S1 by performing the first-stage processing.
  • FIG. 39 shows the result of performing the second stage processing of the second sensitivity uniformization processing.
  • FIG. 40 shows an outline of the second demosaic processing of the image processing system centering on the image processing unit 7.
  • the sensitivity and uniformity are changed by changing the colors of the pixels of the sensitivity and sensitivity mosaic images obtained by the processing of the imaging system to the optimal colors to make the sensitivity uniform. It consists of sensitivity uniformization processing to generate a color mosaic image, and color correction processing to restore the RGB components of each pixel of the color / sensitivity mosaic image M.
  • the first sensitivity uniformization process in the second demosaic process can also be divided into two-stage processes. It is assumed that the pixel value of a predetermined one-line pixel of the color / sensitivity mosaic image before the first sensitivity uniformization process is performed is the same as in FIG.
  • FIG. 41 shows the result of performing the first stage processing of the first sensitivity uniformization processing.
  • the pixels whose validity determination result is valid V are those whose power is invalid to restore the original light intensity by scaling. The original light intensity has not been restored.
  • FIG. 42 shows the result of performing the second stage processing of the first sensitivity uniformization processing.
  • a pixel of invalid color Y in the center of FIG. 41 is represented by an interpolation curve X ′ generated using pixel values of pixels of valid color X adjacent to the pixel, as shown in FIG.
  • the pixel value of color X is captured based on
  • FIG. 35, 43, and 44 The second sensitivity uniformization process in the second demosaic process can also be divided into two-stage processes. It is assumed that the pixel values of the pixels of a predetermined one line of the color-sensitivity mosaic image before the second sensitivity uniformization processing is performed are the same as those in FIG.
  • the pixel value of a nearby pixel located closer, regardless of the color, is used for each pixel, and the pixel at the sensitivity SO is used.
  • the value and the pixel value at the sensitivity S1 are estimated. For example, as an estimated value of a pixel of color X, when a pixel adjacent to the pixel is color Y, an estimated value of color Y at sensitivity S 1 and a pixel value at sensitivity S 1 are interpolated.
  • Figure 43 shows the second sensitivity equalization. The result of performing the first stage processing is shown. As shown in the figure, since the first-stage processing is performed, each pixel is changed to the color of the adjacent pixel regardless of the original color, and the pixel value at the sensitivity SO and the sensitivity S 1 Pixel value.
  • FIG. 44 shows the result of performing the second stage processing of the second sensitivity uniformization processing.
  • the color mosaic image is the sensitivity mosaic pattern P2 in Fig. 6, that is, the pixel color is any one of the three primary colors RGB. Is one of S 0 and S 1.
  • the configuration and operation described below can also be applied to a color / sensitivity mosaic image composed of three colors other than RGB and a color / sensitivity mosaic image composed of four colors.
  • the color 'sensitivity mosaic image from the imaging system is supplied to the sensitivity uniformization unit 51.
  • the color mosaic pattern information indicating the color mosaic arrangement of the color 'sensitivity mosaic image is supplied to the sensitivity equalizing section 51 and the color capturing section 52.
  • Sensitivity mosaic pattern information indicating the sensitivity mosaic arrangement of the color / sensitivity mosaic image is supplied to the sensitivity uniformization section 51.
  • the sensitivity equalizing unit 51 performs the sensitivity equalization processing on the color and sensitivity mosaic images based on the color mosaic pattern information and the sensitivity mosaic pattern information, thereby equalizing the sensitivity without changing the color of each pixel.
  • the generated color mosaic image M is generated and output to the color interpolation unit 52.
  • the color capturing unit 52 generates output images R, G, and B by performing a color interpolation process using the color mosaic pattern information on the color mosaic image M from the sensitivity uniformization unit 51.
  • the color mosaic pattern information is based on the color type of the color of each pixel of the sensitivity mosaic image. (In this case, one of the colors R, G, and B), and the information on the color components of the pixel can be obtained using the pixel position as an index.
  • the sensitivity mosaic pattern information is information indicating the type of sensitivity of each pixel of the color / sensitivity mosaic image (in this case, S 0 or S 1), and the sensitivity information of the pixel can be obtained using the pixel position as an index. It has been made like that.
  • FIG. 46 shows a first configuration example of the sensitivity uniformization unit 51.
  • the first configuration example is a configuration example of the sensitivity uniformization unit 51 that executes the first sensitivity uniformization processing described with reference to FIGS. 35 to 37.
  • the color / sensitivity mosaic image from the imaging system is supplied to the sensitivity compensation unit 61 and the validity determination unit 63.
  • the color mosaic pattern information is supplied to the missing interpolation section 64.
  • the sensitivity mosaic pattern information is supplied to the sensitivity compensation unit 61 and the validity determination unit 63.
  • the sensitivity compensation unit 61 performs sensitivity compensation on the color / sensitivity mosaic image based on the relative sensitivity value S obtained from the relative sensitivity value LUT 62 and outputs the result to the missing interpolation unit 64.
  • the relative sensitivity value LUT 62 is a lookup table that outputs the relative sensitivity value S using the pixel sensitivity as an index.
  • the validity determination unit 6 the pixel value of each pixel of the color and sensitivity mosaic image, to determine the validity of the pixel value by comparing the theta L threshold 0 H and the noise level of the saturation level, the result It is supplied to the missing interpolation section 64 as discrimination information.
  • the discrimination information describes information indicating whether the pixel value of each pixel is valid (Valid) or invalid (Invalid).
  • the missing interpolation unit 64 generates a color mosaic image M by performing a missing interpolation process on the sensitivity-compensated color / sensitivity mosaic image based on the discrimination information from the validity discriminating unit 63, and a subsequent color interpolating unit. 5 Output to 2. ⁇
  • FIG. 47 shows a configuration example of the color interpolation unit 52.
  • the color mosaic image M from the sensitivity uniformization unit 51 is supplied to the gradation conversion unit 71.
  • Color mosaic The microphone pattern information is supplied to the color difference image generation units 72 and 73 and the luminance image generation unit 74.
  • the gradation conversion unit 71 performs a gradation conversion process on the color mosaic image M, and supplies the obtained modulated color mosaic image Mg to the color difference image generation units 72 and 73 and the luminance image generation unit 74.
  • As the gradation conversion processing specifically, conversion using a power function of ⁇ -th power or the like is used.
  • the luminance image generation unit 74 generates a luminance image L using the modulated mosaic image Mg and the color difference signals C and D, and supplies the luminance image L to the color space conversion unit 75.
  • the color space conversion unit 75 performs a color space conversion process on the color difference images C and D and the luminance image L, and outputs the obtained modulated image (an image in which each pixel has an RGB component) to the gradation inverse conversion units 76 to 78. Supply.
  • the gradation inverse conversion unit 76 performs the inverse conversion of the gradation conversion in the gradation conversion unit 71 by raising the pixel value of the R component from the color space conversion unit 75 to the power of (1 / ⁇ ) to obtain the output image R. obtain.
  • the tone inverse conversion unit 77 performs inverse conversion of the tone conversion in the tone conversion unit 71 by raising the pixel value of the G component from the color space conversion unit 75 to the power of (1 / ⁇ ), and outputs the image G Get.
  • the gradation inverse conversion unit 78 multiplies the pixel value of the ⁇ component from the color space conversion unit 75 by the power of il / y), performs inverse conversion of the gradation conversion in the gradation conversion unit 71, and outputs the output image B. obtain.
  • the color interpolating section 52 is disclosed in, for example, Japanese Patent Application Laid-Open No. Sho 61-501424.
  • good c Figure 48 is also possible to execute the color interpolation processing using the conventional method has, there is shown an exemplary configuration of a color difference image generation unit 72.
  • Color difference image generator 72 In this case, the modulated color mosaic image Mg from the gradation conversion unit 71 is supplied to the smoothing units 81 and 82. The color mosaic pattern information is also supplied to the smoothing units 81 and 82.
  • the smoothing unit 81 generates a smoothed R component image R ′ by interpolating the R component of each pixel using the pixel value of a neighboring pixel having the R component for each pixel. It is supplied to the subtractor 83.
  • the smoothing unit 82 generates a smoothed G component image G, by interpolating, for each pixel, the G component of the pixel using the pixel value of the neighboring pixel having the G component. To the subtractor 83.
  • the subtractor 83 selects the corresponding pixel of the smoothed G component image G, from the smoothing unit 82 from the pixel value of the smoothed R component image R ′ from the smoothing unit 81. By subtracting the pixel value of, a color difference image C is generated and supplied to the color space conversion unit 75. Note that the configuration is the same as that of the color difference image generation unit 73.
  • FIG. 49 illustrates a configuration example of the luminance image generation unit 74.
  • the luminance calculator 91 constituting the luminance image generator 74 includes the modulated color mosaic image Mg from the gradation converter 71, the color difference image C from the color difference image generator 72, and the color difference image generator 73.
  • the luminance estimation value of each pixel is calculated based on the color difference image D from the image and the color mosaic pattern information, and the luminance candidate value image Lc including the luminance candidate value of each pixel is output to the noise removing unit 92.
  • the noise removal unit 92 removes noise by synthesizing a smoothing component (described later) with each pixel value (brightness candidate value) of the brightness candidate value image Lc, and converts the obtained brightness image L into a color space conversion unit 7. Output to 5.
  • step S1 the sensitivity uniformization unit 51 performs a sensitivity uniformization process on the color / sensitivity mosaic image based on the color mosaic pattern information and the sensitivity mosaic pattern information, and converts the obtained color mosaic image M into a color interpolation unit 5 Output to 2.
  • step S11 the sensitivity compensator 61 detects the input color 'sensitivity mosaic image.
  • the image is subjected to sensitivity compensation processing, and the color / sensitivity mosaic image with sensitivity compensated is supplied to the missing interpolation unit 64.
  • step S21 the sensitivity compensation unit 61 determines whether or not all pixels of the color / sensitivity mosaic image have been set as the target pixel. Proceed to 2 2.
  • step S22 the sensitivity compensator 61 determines the pixel of interest one pixel at a time from the lower left pixel to the upper right pixel of the color / sensitivity mosaic image.
  • step S23 the sensitivity compensation unit 61 acquires the sensitivity (30 or 31) of the target pixel by referring to the sensitivity mosaic pattern information, and further refers to the relative sensitivity value LUT 62. Thus, a relative sensitivity value S corresponding to the sensitivity of the target pixel is obtained.
  • step S24 the sensitivity compensation unit 61 compensates for the sensitivity of the pixel value by dividing the pixel value of the target pixel of the color / sensitivity mosaic image by the relative sensitivity value S.
  • the pixel value for which the sensitivity has been compensated is used as the pixel value of the color / sensitivity mosaic image whose sensitivity has been compensated.
  • step S21 The process returns to step S21, and the processes of steps S21 to S24 are repeated until all the pixels are determined to be the target pixels. If it is determined in step S21 that all pixels have been set as the target pixel, the process returns to step S12 in FIG.
  • step S12 the validity discriminating unit 63 performs a validity discriminating process on the color / sensitivity mosaic image, generates discrimination information indicating the validity of the pixel value of each pixel, and generates the missing interpolation unit 64. To supply.
  • the validity determination process in step S12 may be performed in parallel with the sensitivity compensation process in step S61.
  • step S31 the validity determination unit 63 determines whether or not all pixels of the color / sensitivity mosaic image have been set as a target pixel, and determines that not all pixels have been set as a target pixel. If so, go to step S32.
  • step S32 the validity determination unit 63 sequentially determines the target pixel one pixel at a time from the lower left pixel to the upper right pixel of the color / sensitivity mosaic image.
  • step S 3 3 the validity determination unit 6 3, the pixel value of the target pixel of the color 'sensitivity mosaic image, determining whether it is within the threshold range theta H saturation level threshold theta L noise level If it is determined that the value is within the range of the threshold value, the process proceeds to step S34.
  • step S34 the validity determination unit 63 sets the determination information of the target pixel to be valid. The process returns to step S31.
  • step S33 If it is determined in step S33 that the pixel value of the target pixel of the color / sensitivity mosaic image is not within the range of the threshold, the process proceeds to step S35.
  • Step Te S 3 5 the validity determination unit 6 3, the pixel value of the target pixel of the color and sensitivity mosaic image, determines whether a threshold value or more theta H saturation level, the threshold of the saturation level 0 If it is determined that it is H or more, the process proceeds to step S36.
  • step S36 the validity determination unit 63 determines whether or not the pixel of interest has the sensitivity S0 by referring to the sensitivity mosaic pattern information. Proceeding to S34, if it is determined that the target pixel is not the sensitivity S0, the process proceeds to step S37.
  • step S37 the validity determination unit 63 invalidates the determination information of the target pixel. The process returns to step S31.
  • step S 3 5 if the pixel value of the target pixel of the color 'sensitivity mosaic image is determined not to be the threshold value 0 H or a saturated level, the process proceeds to Step S 3 8.
  • step S38 the validity determination unit 63 determines whether or not the target pixel has the sensitivity S1 by referring to the sensitivity mosaic pattern information, and determines that the sensitivity pixel is the sensitivity S1. Then, the process proceeds to step S34, and if it is determined that the target pixel is not the sensitivity S1, the process proceeds to step S37.
  • step S31 If it is determined that all pixels have been set as the target pixel, the process returns to step S13 in FIG.
  • step S13 the missing interpolation unit 64 performs missing interpolation processing on the sensitivity-compensated color / sensitivity mosaic image based on the discrimination information from the validity discriminating unit 63 and obtains the obtained color mosaic image.
  • M is supplied to the color interpolation unit 52.
  • step S41 the missing interpolation unit 64 determines whether or not all pixels of the sensitivity-compensated color 'sensitivity mosaic image have been set as a target pixel, and has determined that all pixels have not been set as a target pixel. If so, go to step S42.
  • step S42 the missing interpolation unit 64 sequentially determines one pixel from the lower left pixel to the upper right pixel of the sensitivity-compensated color / sensitivity mosaic image as a pixel of interest.
  • step S43 the missing portion 64 determines whether or not the discrimination information of the target pixel is invalid. If it is determined that the discrimination information of the target pixel is invalid, the process proceeds to step S44. move on.
  • the missing interpolation unit 64 determines the color type of the target pixel (in this case, any one of RGB) by referring to the color mosaic pattern information, and determines the color of the target pixel.
  • the neighboring pixels for example, 5 ⁇ 5 pixels centered on the pixel of interest
  • a pixel having the same color as the pixel of interest and having valid discrimination information is detected, and the detected pixel (hereinafter referred to as “see Pixel value) is extracted.
  • step S45 the missing interpolation unit 64 obtains filter coefficients set in advance corresponding to the relative position of the reference pixel with respect to the target pixel by the number of reference pixels.
  • step S46 the missing interpolation unit 64 multiplies the pixel value of each reference pixel by the corresponding filter coefficient, and calculates the sum of the products. Further, the sum of the products is divided by the sum of the used filter coefficients, and the quotient is used as the pixel value of the target pixel of the color mosaic image M.
  • step S41 If it is determined that all the pixels have been set as the target pixel, the process returns to step S2 in FIG.
  • step S2 the color interpolation unit 52 performs a color interpolation process based on the color mosaic pattern information on the color mosaic image M obtained by the sensitivity uniformization process in step S1 described above. Generate output images R, G, B.
  • step S51 the gradation conversion unit 71 performs gradation modulation processing on the color mosaic image M (specifically, each pixel value of the modulation color mosaic image M g is raised to the ⁇ -th power).
  • a modulated color mosaic image Mg is generated and supplied to the color difference image generation units 72 and 73 and the luminance image generation unit 74.
  • step S52 the color difference image generation unit 72 generates a color difference image C using the modulated color mosaic image Mg from the gradation conversion unit 71, and outputs the luminance image generation unit 74 and the color space conversion unit 7 Supply 5
  • the color difference image generation unit 73 generates a color difference image D using the modulated color mosaic image Mg from the gradation conversion unit 71, and supplies the color difference image D to the luminance image generation unit 74 and the color space conversion unit 75. I do.
  • step S61 the smoothing units 8 1 and 8 2 determine whether or not all pixels of the modulated color mosaic image Mg have been set as target pixels, and determine that not all pixels have been set as target pixels. Proceed to step S62.
  • step S62 the smoothing units 81 and 82 sequentially determine a pixel of interest one pixel at a time from the lower left pixel to the upper right pixel of the modulated color mosaic image Mg.
  • the smoothing unit 81 refers to the color mosaic pattern information to determine the R component among the pixels near the target pixel (for example, 5 ⁇ 5 pixels centered on the target pixel). Then, the pixel value of the detected pixel (hereinafter, referred to as a reference pixel) is extracted. On the other hand, the smoothing unit 82 similarly detects the pixel having the G component among the pixels near the target pixel by referring to the color mosaic pattern information, and extracts the pixel value of the detected pixel. . In step S64, the smoothing unit 81 acquires filter coefficients set in advance corresponding to the relative position of the reference pixel having the R component with respect to the target pixel by the number of reference pixels. On the other hand, the smoothing unit 82 similarly sets a filter coefficient set in advance corresponding to the relative position of the reference pixel having the G component with respect to the target pixel to the reference pixel. Get only the number.
  • step S65 the smoothing unit 81 multiplies the pixel value of each reference pixel having the R component by the corresponding filter coefficient, and calculates the sum of the products. Further, the sum of the products is divided by the sum of the used filter coefficients, and the quotient is set as a pixel value corresponding to the target pixel of the image R ′ having only the smoothed R component.
  • the smoothing unit 82 similarly multiplies the pixel value of each reference pixel having the G component by the corresponding filter coefficient, and calculates the sum of the products. Further, the sum of the products is divided by the sum of the used filter coefficients, and the quotient is set as a pixel value corresponding to the target pixel of the image G ′ having only the smoothed G component.
  • step S66 the subtractor 83 performs the smoothing process from the smoothing unit 82 on the basis of the pixel value corresponding to the target pixel of the image R ′ having only the smoothed R component from the smoothing unit 81. Then, the pixel value corresponding to the target pixel of the image G, which has only the G component is subtracted, and the difference is set as the pixel value corresponding to the target pixel of the color difference image C.
  • step S61 The process returns to step S61, and the processes of steps S61 to S66 are repeated until all the pixels are determined to be the target pixels. If it is determined in step S61 that all the pixels have been set as the target pixel, the process returns to step S53 in FIG.
  • the process in which the color difference image generation unit 73 generates the color difference image D is the same as the above-described first process in which the color difference image generation unit 72 generates the color difference image C, and a description thereof will be omitted.
  • step S53 the luminance image generation unit 74 generates a luminance image L using the modulated mosaic image Mg and the color difference signals C and D, and supplies the luminance image L to the color space conversion unit 75.
  • the luminance calculator 91 determines whether or not all the pixels of the modulated color mosaic image Mg have been set as the target pixel. If it is determined that not all the pixels have been set as the target pixel, the process proceeds to step S72. Proceed to.
  • step S72 the luminance calculation unit 91 sequentially determines one pixel from the lower left pixel to the upper right pixel of the modulated color mosaic image Mg as a target pixel.
  • step S73 the luminance calculator 91 refers to the color mosaic pattern information to determine the type of the color of the pixel of interest (in this case, one of RGB colors). If it is determined in step S73 that the color type of the pixel of interest is R, the process proceeds to step S74.
  • step S74 the luminance calculation unit 91 applies the modulated color mosaic image Mg and the pixel values corresponding to the target pixel of the color difference signals C and D to the following equation (1), and calculates the luminance candidate image L c A pixel value corresponding to the target pixel is calculated.
  • step S73 If it is determined in step S73 that the color type of the pixel of interest is G, the process proceeds to step S75.
  • step S75 the luminance calculating section 91 applies the modulated color mosaic image Mg and the pixel values corresponding to the target pixel of the color difference signals C and D to the following equation (2) to obtain the luminance candidate image Lc A pixel value corresponding to the target pixel is calculated.
  • step S73 If it is determined in step S73 that the color type of the pixel of interest is B, the process proceeds to step S76.
  • step S76 the luminance calculating unit 91 calculates the modulated color mosaic image Mg and the pixel value Mg corresponding to the target pixel of the color difference signals C and D,
  • L c 3Mg + C ⁇ 2D (3)
  • L c, Mg, C, and D are luminance candidate images L c corresponding to the pixel of interest, respectively, and modulation. These are the pixel values of the color mosaic image Mg, the color difference signal C, and the color difference image D.
  • step S71 The process returns to step S71 and continues until all pixels are determined to be the target pixel. Steps S71 to S76 are repeated. If it is determined in step S71 that all the pixels have been set as the target pixel, the process proceeds to step S77.
  • the luminance candidate image c generated by the processing of steps S71 to S76 described above is supplied to the noise removing unit 92.
  • step S77 the noise removing unit 92 determines whether or not all the pixels of the modulated color mosaic image Mg have been set as the target pixel. If it determines that not all the pixels have been set as the target pixel, the process proceeds to step S78. move on.
  • step S78 the noise removing unit 92 sequentially determines one pixel at a time from the lower left pixel to the upper right pixel of the modulated color mosaic image Mg as a target pixel.
  • the noise removing unit 92 applies the pixel values (brightness candidate values) of the pixels located above, below, left, and right of the target pixel to the following equation (4), and calculates the gradient ( (Gradient).
  • the gradient ⁇ is a vector whose first and second derivatives are the elements in the horizontal and vertical directions of the image.
  • the pixel values (brightness candidate values) of the pixels located above, below, left, and right of the target pixel are Lc (U), Lc (D), Lc (L), and Lc (R), respectively.
  • step S80 the noise elimination unit 92 By applying the pixel value (candidate value of luminance) of the pixel located at to the following equations (5) and (6), the horizontal smoothing component Hh and the vertical smoothing component Hv corresponding to the target pixel are calculated. I do.
  • step S81 the noise removing unit 92 sets the gradient ⁇ corresponding to the pixel of interest calculated in step S79. Calculate the horizontal smoothing contribution wh and the vertical smoothing contribution wV corresponding to the absolute value II V II of.
  • step S82 the noise removing unit 92 calculates a pixel value (luminance value) of the luminance image L corresponding to the target pixel using the following equation (9).
  • L Lc + (wh-Hh + wv ⁇ ⁇ ) / (wh + wv) ⁇ ⁇ (9)
  • L c and L are luminance candidate images corresponding to the pixel of interest, respectively.
  • L c is the pixel value of the luminance image L.
  • step S77 The process returns to step S77, and the processes of steps S77 to S82 are repeated until it is determined that all the pixels have been set as the target pixel. If it is determined in step S77 that all pixels have been set as the target pixel, the process returns to step S54 in FIG.
  • step S54 the color space conversion unit 75 performs a color space conversion process on the color difference images C and D and the luminance image L to generate a modulated image in which each pixel has an RGB component, and It is supplied to the inverse transform units 76 to 78.
  • step S91 the color space conversion unit 75 determines whether or not all the pixels of the luminance image L (or the color difference image C or the color difference image D) have been set as the target pixels, and pays attention to all the pixels. If it is determined that the pixel is not a pixel, the process proceeds to step S92. In step S92, the color space conversion unit 75 sequentially determines one pixel from the lower left pixel to the upper right pixel of the luminance image L as a target pixel.
  • step S93 the color space conversion unit 75 calculates the pixel values of the luminance image L, the chrominance image C, and the chrominance image D corresponding to the target pixel into the following equations (10), (11), and (12).
  • the R component value R g of the modulated image corresponding to the pixel of interest the G component value G g, B Calculate the component value B g.
  • L, C, and D are the pixel values of the luminance image L, the color difference signal C, and the color difference image D corresponding to the target pixel, respectively.
  • step S91 The process returns to step S91, and the processes of steps S91 to S93 are repeated until it is determined that all the pixels have been set as the target pixel. If it is determined in step S91 that all pixels have been set as the pixel of interest, the process returns to step S55 in FIG.
  • step S55 the gradation inverse conversion unit 76 applies a gradation corresponding to the gradation conversion processing in step S51 to the R component of each pixel of the modulated image supplied from the color space conversion unit 75.
  • An output image R is generated by performing an inverse transformation process (specifically, by raising a pixel value to the power of ⁇ ).
  • the tone inverse conversion unit 77 performs a tone inverse conversion process corresponding to the tone conversion process of step S51 on the G component of each pixel of the modulated image supplied from the color space conversion unit 75.
  • an output image G is generated.
  • the grayscale inverse conversion unit 78 performs the grayscale inverse conversion process corresponding to the grayscale conversion process in step S51 on the ⁇ ⁇ component of each pixel of the modulated image supplied from the color space conversion unit 75. Generate force image ⁇ . Output images R, G, and BG are generated by the color interpolation processing described above.
  • the sensitivity equalization unit 51 executes the second sensitivity equalization process in the first demosaic process described with reference to FIGS. 35, 38, and 39.
  • the color 'sensitivity mosaic image is one of the three primary colors RGB, such as the color' sensitivity mosaic pattern P10 in Figure 14 and the color-sensitivity mosaic pattern P1 in Figure 15
  • the sensitivity is one of four levels of S0, SI, S2, and S3.
  • the configuration and operation described below can be applied to a color / sensitivity mosaic image composed of three colors other than RGB and a color / sensitivity mosaic image composed of four colors. It can also be applied to color sensitivity mosaic patterns with two or three levels of sensitivity.
  • the interpolation unit 1011-1 to 101-4 Supplied to
  • the interpolation unit 1 0 1 _ 1 performs the interpolation processing of the sensitivity S 0 without changing the color of each pixel of the color / sensitivity mosaic image, and outputs the interpolation value corresponding to the obtained sensitivity S 0 to the adder 102. Output.
  • the interpolation unit 1 0 1-2 performs interpolation processing of the sensitivity S 1 without changing the color of each pixel of the color / sensitivity mosaic image, and adds an interpolation value corresponding to the obtained sensitivity S 1 to the adder 1 0 2 Output to
  • the intercepting unit 101-3 performs the interpolation processing of the sensitivity S2 without changing the color of each pixel of the color mosaic image, and adds the interpolation value corresponding to the obtained sensitivity S2 to the adder 10 02 Output to
  • the interpolator 1 0 1-4 performs the interpolation processing of the sensitivity S 3 without changing the color of each pixel of the color / sensitivity mosaic image, and outputs the obtained interpolation value corresponding to the sensitivity S 3 to the adder 102. Output.
  • the adder 102 adds the interpolation values of the sensitivities S 0 to S 3 input from the interpolation units 101 to 1 to 104 for each pixel, and adds the sum to the pixels of the color mosaic candidate image.
  • the value is supplied to the combined sensitivity compensation unit 103 as a value.
  • the synthesis sensitivity compensator 103 compares the pixel value of the color mosaic candidate image supplied from the adder 102 with the synthesis sensitivity compensation LUT 104, and generates a color mosaic image M having the obtained value as a pixel value. It is generated and supplied to the color interpolation unit 52.
  • the synthesis sensitivity compensation LUT 104 is configured to be able to obtain the pixel value of the color mosaic image M using the pixel value of the color mosaic candidate image as an index.
  • step S 101 the intercepting sections 101-1 to 101-4 determine whether or not all the pixels of the color sensitivity mosaic image have been set as the target pixel, and determine whether or not all the pixels have the target image. If it is determined that they are not the same, the process proceeds to step S102.
  • step S102 the intercepting sections 101-1 to 101-4 determine the pixel of interest one pixel at a time from the lower left pixel to the upper right pixel of the color 'sensitivity mosaic image.
  • step S 103 the intercepting sections 10 1-1 to 10 1-4 perform interpolation processing without changing the color of each pixel of the color 'sensitivity mosaic image, thereby obtaining the sensitivities SO, S 1, and S 1, respectively.
  • a capture value corresponding to S 2 or sensitivity S 3 is generated and output to adder 102.
  • step S111 the interpolating unit 101-1 determines that among the pixels located near the target pixel of the color-sensitivity mosaic image (for example, 5 X 5 pixels centered on the target pixel), A pixel having the same value and having a sensitivity of SO is detected, and a pixel value of the detected pixel (hereinafter referred to as a reference pixel) is extracted.
  • step S112 the interpolation unit 101-1 acquires filter coefficients set in advance corresponding to the relative positions of the detected reference pixels with respect to the pixel of interest, by the number of reference pixels.
  • step S113 the interpolating unit 101-1 multiplies the pixel value of each reference pixel by the corresponding filter coefficient, and calculates the sum of the products. Further, the sum of the products is divided by the sum of the used filter coefficients, and the quotient is set as a trap value corresponding to the sensitivity S 0 of the target pixel.
  • the process returns to step S60 in FIG. Note that the interpolation processing of the sensitivities S 1 to S 3 by the interpolation units 10 1-2 to 10 1-3 is the same as the interpolation processing of the sensitivity SO by the intercepting unit 101-1 described above. Description is omitted.
  • step S 104 the adder 102 includes an interpolation unit 101-1 to 101- The interpolation values of the sensitivities S 0 to S 3 corresponding to the target pixel input from 4 are added, and the sum is supplied to the synthesis sensitivity compensator 103 as the pixel value of the color mosaic candidate image corresponding to the target pixel. .
  • step S105 the combining sensitivity compensation unit 103 compares the pixel value of the color mosaic candidate image supplied from the adder 102 with the combining sensitivity compensation LUT 104, and pays attention to the obtained value.
  • the pixel value of the color mosaic image M corresponding to the pixel is set.
  • step S101 The process returns to step S101, and the processes of steps S101 to S105 are repeated until it is determined that all pixels have been set as the target pixel. If it is determined in step S101 that all the pixels have been set as the target pixel, the second sensitivity uniformization processing in the first demosaic processing is terminated.
  • step S121 the smoothing units 81 and 82 determine whether or not all pixels of the modulated color mosaic image Mg have been set as target pixels, and determine that not all pixels have been set as target pixels. If so, proceed to Step S 1 2 2.
  • step S122 the smoothing units 81 and 82 sequentially determine a pixel of interest one pixel at a time from the lower left pixel to the upper right pixel of the modulated color mosaic image Mg.
  • step S123 the smoothing unit 81 calculates an image gradient vector g corresponding to the pixel of interest.
  • the image gradient vector g is calculated using only one pixel of a predetermined color among all the pixels of the color mosaic image M g.
  • the selection of the predetermined one type of color is arbitrary, but for example, the color mosaic image M g
  • the number of pixels having a G component is twice as large as the number of pixels having an R component and the number of pixels having a B component. It makes sense to do so. Therefore, hereinafter, the description will be continued on the assumption that the color mosaic pattern of the color mosaic image M g has a Bayer arrangement, and that one predetermined color is selected as G.
  • step S141 the smoothing unit 81 determines whether or not the color of the pixel of interest is G. If it is determined that the color of the pixel of interest is G, the process proceeds to step S142. In this case, the color of the four pixels located above, below, left and right of the target pixel is not G, and the color of the four pixels obliquely adjacent to the target pixel is G.
  • step S142 the smoothing unit 81 generates G component values G (U), G (D), G (L), G (R) corresponding to the four pixels located above, below, left, and right of the target pixel, respectively.
  • the pixel value G (RU) of the pixel having the G component and the pixel value G (RD) of the pixel having the G component adjacent to the lower right of the target pixel are expressed by the following equations (13) to (16). ) And interpolate.
  • G (U) (G (LU) + G (RU)) / 2 ⁇ ⁇ ⁇ (1 3)
  • G (D) (G (LD) + G (RD)) / 2
  • step S143 the smoothing unit 81 generates G component values G (U), G (D), G (L), and G (R ) Is applied to the following equations (17) to (19) to calculate the vector g ', and then normalized as in the following equation (20) to calculate the gradient vector g.
  • step S141 If the color of the pixel of interest is determined not to be G in step S141, the process proceeds to step S144. In this case, the color of the four pixels located above, below, left, and right of the target pixel is G.
  • step S144 the pixel values of the four pixels located at the top, bottom, left, and right of the pixel of interest are obtained, and substituted into the values G (U), G (D), G (L), and G (R). .
  • the image gradient vector g corresponding to the target pixel is calculated. Note that even when the color mosaic pattern of the color mosaic image Mg does not form a Bayer array, the image gradient vector g can be calculated by similar processing.
  • the smoothing unit 81 refers to the color mosaic pattern information to determine the R component among the pixels near the target pixel (for example, 5 ⁇ 5 pixels centered on the target pixel).
  • the pixel value of the detected pixel (hereinafter, referred to as a reference pixel) is extracted.
  • the smoothing unit 82 similarly detects the pixel having the G component among the pixels near the target pixel by referring to the color mosaic pattern information, and extracts the pixel value of the detected pixel. .
  • step S125 the smoothing unit 81 calculates and normalizes the position vector n from the target pixel to each reference pixel having the R component.
  • the smoothing unit 82 similarly calculates and normalizes the position vector n from the target pixel to each reference pixel having the G component.
  • step S126 the smoothing unit 81 calculates, for each reference pixel having an R component, the gradient vector g and the position vector n of the target pixel as shown in the following equation (21).
  • the importance value ⁇ for the reference pixel is calculated by dividing the absolute value of the inner product from 1 and calculating the difference to the pth power.
  • the smoothing unit 82 similarly calculates the importance ⁇ for each reference pixel having the G component.
  • is a constant for adjusting the sharpness of the direction selection, and is set in advance.
  • (1—i (n, g) I I ⁇ . (2 1)
  • step S127 the smoothing unit 81 corresponds to the relative position of the reference pixel having the R component with respect to the target pixel.
  • the smoothing unit 82 similarly obtains the filter coefficients set in advance by the number of reference pixels, and also sets the filter coefficients in advance corresponding to the relative position of the reference pixel having the G component with respect to the target pixel. Obtain the filter coefficients for the number of reference pixels.
  • step S1208 the smoothing unit 81 multiplies the pixel value of each reference pixel having the R component by the corresponding filter coefficient and importance ⁇ , and calculates the sum of the products. Further, the filter coefficient corresponding to each reference pixel is multiplied by the importance ⁇ , and the sum of the products is calculated.
  • the smoothing unit 82 similarly multiplies the pixel value of each reference pixel having the G component by the corresponding filter coefficient and importance ⁇ , and calculates the sum of the products. Further, the filter coefficient corresponding to each reference pixel is multiplied by the importance ⁇ , and the sum of the products is calculated.
  • step S129 the smoothing unit 81 calculates the sum of the product of the pixel value of each reference pixel having the R component calculated in step S128, the corresponding filter coefficient, and the importance ⁇ in each reference. Divide by the sum of the products of the filter coefficients corresponding to the pixels and the importance ⁇ , and determine the quotient as the pixel value corresponding to the target pixel of the image R ′ having only the smoothed R component.
  • the smoothing unit 82 also performs the processing of the product of the pixel value of each reference pixel having the G component calculated in step S128, the corresponding filter coefficient, and the importance ⁇ . The sum is divided by the sum of the product of the filter coefficient and importance ⁇ corresponding to each reference pixel, and the quotient is set as the pixel value corresponding to the target pixel of the smoothed G component image G ′ .
  • step S130 the subtractor 83 selects the smoothing signal from the smoothing unit 82 from the pixel value corresponding to the target pixel of the image R, which has only the smoothed R component, from the smoothing unit 81.
  • the pixel value corresponding to the pixel of interest of the image G ′ including only the converted G component is subtracted, and the difference is used as the pixel value of the pixel of interest of the color difference image C.
  • step S122 the process returns to step S122, where it is determined that all pixels have been set as the pixel of interest. Until the above, the processing of steps S122 to 130 is repeated. If it is determined in step S121 that all the pixels have been set as the target pixel, the color difference image generation processing ends, and the process returns to step S53 in FIG.
  • the process in which the color difference image generation unit 73 generates the color difference image D is the same as the above-described second process in which the color difference image generation unit 72 generates the color difference image C, and a description thereof will be omitted.
  • the outline of the object in the image is detected and smoothing is performed in parallel with the outline.
  • occurrence of color moiré can be suppressed.
  • the color mosaic pattern information indicating the color mosaic mosaic image from the imaging system, the color mosaic array of the color mosaic mosaic image, and the sensitivity mosaic array of the color mosaic mosaic image are shown.
  • the sensitivity mosaic pattern information is supplied to the sensitivity equalization unit 111.
  • the sensitivity uniformization unit 1 1 1 performs a sensitivity uniformization process on the color / sensitivity mosaic image based on the color mosaic pattern information and the sensitivity mosaic pattern information, and converts the obtained color mosaic image M with uniform sensitivity into a color interpolation unit. 5 Output to 2. However, since the color mosaic array of the obtained color mosaic image M is not necessarily the same as the color mosaic array of the original color / sensitivity mosaic image, the sensitivity uniformization unit 1 11 1 updates the color mosaic pattern information. To the color interpolator 1 1 2.
  • the color capturing section 1 1 2 performs color interpolation processing using the color mosaic pattern information on the color mosaic image M from the sensitivity uniforming section 1 1 1 in the same manner as the color interpolation section 5 2 of FIG. To generate output images R, G, B.
  • FIG. 65 shows a first configuration example of the sensitivity uniformization unit 111.
  • the first configuration example includes a sensitivity equalization unit 1 1 1 that executes the first sensitivity equalization processing in the second demosaic processing described with reference to FIGS. 35, 41, and 42. It is a structural example.
  • the color from the imaging system and the sensitivity mosaic The image is supplied to the sensitivity compensating section 122 and the validity determining section 123.
  • the color mosaic pattern information is supplied to the missing interpolation section 124.
  • the sensitivity mosaic pattern information is supplied to the sensitivity compensation unit 122 and the validity determination unit 123.
  • the sensitivity compensator 122 Based on the relative sensitivity value S obtained from the relative sensitivity value LUT 122, the sensitivity compensator 122 performs sensitivity compensation on the color mosaic image and outputs it to the missing interpolation unit 124.
  • the relative sensitivity value LUT 1 2 2 is a Norek table that outputs a relative sensitivity value S using the sensitivity of the pixel as an index.
  • the discrimination information describes information indicating whether the pixel value of each pixel is valid or invalid.
  • the missing interpolation unit 124 uses the pixel value of the pixel for which the discrimination information is valid among all the pixels of the sensitivity-compensated color / sensitivity mosaic image based on the discrimination information from the validity discrimination unit 123. For a pixel for which the discrimination information is invalid, the pixel value of the color component is interpolated by using the pixel value of the pixel having the color most frequently present in the sensitivity-compensated color-sensitivity mosaic image. As described above, the use of the pixel value of the pixel having the most abundant color makes it easier to restore the high-frequency component. Further, the missing interpolation unit 124 updates the color mosaic pattern information corresponding to the color mosaic array of the generated color mosaic image M, and outputs the updated color mosaic pattern information to the color interpolation unit 112.
  • step S151 the missing interpolation unit 124 selects the color-sensitivity model whose sensitivity has been compensated. It is determined whether or not all the pixels of the Zyke image have been set as the target pixel. If it is determined that not all the pixels have been set as the target pixel, the process proceeds to step S152. In step S152, the missing interpolation unit 124 determines the pixel of interest one pixel at a time from the lower left pixel to the upper right pixel of the sensitivity-compensated color / sensitivity mosaic image.
  • step S153 the missing interpolation unit 124 determines whether or not the discrimination information of the target pixel is invalid. If it is determined that the discrimination information of the target pixel is invalid, step S1 Proceed to 5 4.
  • the missing interpolation unit 124 refers to the color mosaic pattern information and has a G component among pixels near the target pixel (for example, 5 X 5 pixels centered on the target pixel). A pixel which is a pixel and whose discrimination information is valid is detected, and a pixel value of the detected pixel (hereinafter, referred to as a reference pixel) is extracted.
  • the missing interpolation section 124 acquires filter coefficients set in advance corresponding to the relative position of the reference pixel with respect to the target pixel, by the number of reference pixels. Further, the missing interpolation unit 124 multiplies the pixel value of each reference pixel by the corresponding filter coefficient, and calculates the sum of the products. Further, the sum of the products is divided by the sum of the used filter coefficients, and the quotient is used as the pixel value of the target pixel of the color mosaic image M.
  • step S155 the missing interpolation unit 124 updates the color of the pixel of interest in the color mosaic pattern information to G.
  • step S153 If it is determined in step S153 that the discrimination information of the target pixel is not invalid, the processing of step S154 and step S155 is skipped.
  • Step S151 when it is determined that all the pixels have been set as the target pixel, the missing pixel capturing process is terminated, and the obtained color mosaic image M and the updated color mosaic pattern information are , And are supplied to the subsequent color interpolation unit 112.
  • the sensitivity equalization unit 111 shown in FIG. 65 should be used instead of the first configuration example.
  • a second example of the configuration of the sensitivity uniformization unit 111 that can be used will be described with reference to FIG.
  • the sensitivity uniformization unit 111 performs the second sensitivity uniformization processing in the second demosaic processing described with reference to FIGS. 35, 43, and 44. This is an example of the configuration for execution.
  • the color / sensitivity mosaic image is one of the three primary colors RGB, such as the color 'sensitivity mosaic pattern P10 in Figure 14 and the color' sensitivity mosaic pattern P1 in Figure 15 '.
  • the sensitivity is described as any one of the four levels S 0, S 1, S 2, and S 3.
  • the configuration and operation described below can be applied to a color / sensitivity mosaic image composed of three colors other than RGB and a color / sensitivity mosaic image composed of four colors. It can also be applied to color-sensitivity mosaic patterns with two or three levels of sensitivity.
  • the color / sensitivity mosaic image, the color mosaic pattern information, and the sensitivity mosaic pattern information from the imaging system are interpolated by the interpolation units 1332_1 through 1332-4. Supplied to The color mosaic pattern information is also supplied to the interpolation color determination unit 13 1.
  • the interpolation color determination unit 1331 specifies the color (interpolation color) of the interpolation value to be interpolated by the interpolation units 132-1-1 to 132-2-3 based on the color mosaic pattern information. Also, the interpolation color determination unit 1331 updates the color mosaic pattern information in accordance with the determination of the interpolation color.
  • the intercepting section 131-1-1 performs interpolation processing of the sensitivity S0 on the color-sensitivity mosaic image in accordance with the specification of the interpolation color from the interpolation color determining section 131, and corresponds to the obtained sensitivity S0. And outputs the interpolated value to the adder 133.
  • the interpolation unit 1 3 1-2 performs interpolation processing of the sensitivity S 1 on the color 'sensitivity mosaic image in accordance with the specification of the interpolation color from the interpolation color determination unit 1 3 1, and corresponds to the obtained sensitivity S 1
  • the interpolated value is output to adder 1 3 3.
  • the interpolation unit 1 3 1-3 performs interpolation processing of the sensitivity S 2 on the color / sensitivity mosaic image according to the specification of the interpolation color from the interpolation color determination unit 1 3 1 and corresponds to the obtained sensitivity S 2
  • the intercepting section 1 3 1-4 specifies the interpolating color from the interpolation color determining section 1 3 1
  • the interpolation processing of the sensitivity S 3 is performed on the color / sensitivity mosaic image, and the interpolated value corresponding to the obtained sensitivity S 3 is output to the adder 13.
  • the adder 1 3 3 adds the interpolation values of the sensitivities S 0 to S 3 input from the interpolation units 1 3 2-1 to 1 3 2-4 for each pixel, and adds the sum to the pixels of the color mosaic candidate image.
  • the value is supplied to the composite sensitivity compensator 1 34 as a value.
  • the composition sensitivity compensator 13 4 4 compares the pixel values of the color mosaic candidate image supplied from the adder 13 3 with the composition sensitivity compensation LUT 13 5 to generate a color mosaic image with the obtained value as the pixel value. And supplies it to the color interpolator 1 1 2.
  • the composite sensitivity compensation LUT 135 can obtain the pixel value of the color / sensitivity mosaic image M using the pixel value of the color mosaic candidate image as an index.
  • step S161 the interpolation units 132-1 to 132-2-4 determine whether or not all pixels of the color 'sensitivity mosaic image have been set as the target pixel, and determine whether or not all the pixels have the target image. If it is determined that they are not the same, the process proceeds to step S166.
  • step S 162 the capture units 1 32 _ 1 to 1 3 2-4 determine the pixel of interest one pixel at a time, from the lower left pixel to the upper right pixel of the color mosaic image .
  • step S163 the interpolation color determination unit 1331 executes an interpolation color determination process based on the color mosaic pattern information, and interpolates the obtained interpolation color of the target pixel to the interpolating units 1 3 2—1 to 1 3 Notify 2—4.
  • interpolation color determination processing aims at interpolating the pixel value of the target pixel by using a pixel closer to the target pixel, and the color mosaic array of the color / sensitivity mosaic image forms a Bayer array.
  • step S171 the interpolation color determination unit 1331 determines the color of the pixel of interest by referring to the color mosaic pattern information. If it is determined in step S171 that the color of the target pixel is G, the process proceeds to step S172. In this case, the color of the four pixels obliquely adjacent to the target pixel is also G.
  • step S172 the capture color determination unit 1331 determines the interpolation color of the pixel of interest to be G, and notifies the interpolation units 132-1 through 132-2-4. Further, the interpolation color determination section 13 1 updates the color mosaic pattern information corresponding to the target pixel to G. If it is determined in step S 171 that the color of the pixel of interest is R, the flow advances to step S 173.
  • the color of the four pixels obliquely adjacent to the target pixel is B.
  • the interpolation color determination unit 1331 determines the interpolated color of the pixel of interest to be B, and notifies the interpolation units 132-1-1 to 1322_4. Further, the interpolation color determination unit 1331 updates the color mosaic pattern information corresponding to the target pixel to B. If it is determined in step S 171 that the color of the pixel of interest is B, the process proceeds to step S 174. In this case, the color of the four pixels obliquely adjacent to the pixel of interest is R.
  • step S174 the interpolation color determination unit 1331 determines the interpolation color of the target pixel as R, and notifies the interpolation units 1322_1 to 132-4. Further, the interpolation color determination unit 13 1 updates the color mosaic pattern information corresponding to the target pixel to R. According to the interpolation color determination processing described above, the interpolated color of the target pixel is specified so that the color mosaic array forms the Bayer array and the R and B of the color / sensitivity mosaic image are exchanged. It is maintained that the color mosaic pattern information also forms a bay array.
  • step S 164 the interpolation units 1 3 2-1 to 1 3 2-4 perform interpolation processing on the color / sensitivity mosaic image corresponding to the specification of the interpolation color from the interpolated color determination unit 13 1.
  • an interpolated value corresponding to the sensitivity S 0, S l, S 2, or sensitivity S 3 is generated and output to the adder 133.
  • the interpolation unit 1332_1 includes the interpolation color among pixels located near the target pixel of the color / sensitivity mosaic image (for example, 5 ⁇ 5 pixels centered on the target pixel). Detects a pixel having the color specified by the specified part 1 3 1 and sensitivity S 0 Then, the pixel value of the detected pixel (hereinafter referred to as reference pixel) is extracted. In addition, the capturing unit 132-1 acquires the filter coefficients set in advance corresponding to the relative position of the detected reference pixel with respect to the target pixel by the number of reference pixels. Further, the interpolation unit 132-1-1 multiplies the pixel value of each reference pixel by the corresponding filter coefficient, and calculates the sum of the products. Further, the sum of the products is divided by the sum of the used filter coefficients, and the quotient is set as an interpolation value corresponding to the sensitivity S 0 of the target pixel.
  • interpolation processing of the sensitivities S 1 to S 3 by the interpolation units 13 22-2 to 13 2-3 is the same as the interpolation processing of the sensitivity S 0 by the interpolation unit 13 2-1 described above. The explanation is omitted.
  • step S165 the adder 1333 adds the interpolated values of the sensitivities S0 to S3 corresponding to the pixel of interest input from the trapping units 132-1 to 1332-4, The sum is supplied to the combination sensitivity compensating unit 133 as the pixel value of the color mosaic candidate image corresponding to the target pixel.
  • step S166 the combining sensitivity compensating unit 134 compares the pixel values of the color mosaic candidate image supplied from the adder 133 with the combining sensitivity compensation LUT 135, and pays attention to the obtained value.
  • the pixel value of the color mosaic image M corresponding to the pixel is set.
  • step S 161 The process returns to step S 161, and the processes of steps S 161 to S 166 are repeated until all the pixels are determined to be the target pixels. If it is determined in step S161 that all the pixels have been set as the target pixel, the second sensitivity uniformization process in the second demosaic process is terminated.
  • the color interpolation unit 112 applies color interpolation processing to the color mosaic image M obtained by the second sensitivity uniformization processing in the second demosaic processing. Since this is the same as the color interpolation processing described above with reference to the flowchart of FIG.
  • FIG. 70 shows an outline of a third demosaic process of the image processing system centering on the image processing unit 7.
  • the third demosaic process is obtained by the process of the imaging unit as shown in FIG.
  • the sensitivity mosaic image of the R component MsR, the sensitivity mosaic image of the G component MsG, and the sensitivity mosaic image of the B component by interpolating the RGB components of each pixel without changing the pixel sensitivity of the Sensitivity-based color interpolation processing for generating MsB, and equalizing the sensitivity of each of the R component sensitivity mosaic image, G component sensitivity mosaic image, and B component sensitivity mosaic image to generate output images R, G, and B It consists of sensitivity uniformization processing.
  • the color interpolation process by sensitivity in the third demosaicing process involves extracting only pixels with the same sensitivity from the color and sensitivity mosaic image, and capturing the pixel values of the RGB components of the pixels extracted in the extraction process. It consists of color interpolation processing and import processing for generating a sensitivity mosaic image by combining the pixel values interpolated by the color interpolation processing for each RGB component.
  • the extraction processing only the pixels with the sensitivity S1 are extracted from the color / sensitivity mosaic image, and a color mosaic image McSl in which the pixels are arranged in a checkered pattern is generated.
  • a color mosaic image McSl in which the pixels are arranged in a checkered pattern is generated.
  • an image Rsl in which pixels having sensitivity S1 and having an R component are arranged in a pine pattern
  • pixels having sensitivity S1 and having a G component are arranged in a pine pattern.
  • an image Gsl is arranged, and an image Bsl in which pixels having sensitivity S1 and having a B component are arranged in a pine pattern is generated.
  • the image RS0 generated by the color interpolation process and the image RS1 are combined to generate the sensitivity mosaic image MsR.
  • the color 'sensitivity mosaic image from the imaging system is supplied to the sensitivity-specific color interpolation section 151.
  • the color mosaic pattern information indicating the color mosaic arrangement of the color / sensitivity mosaic image is supplied to the sensitivity-specific color interpolating unit 151.
  • the sensitivity mosaic pattern information indicating the sensitivity mosaic array of the color 'sensitivity mosaic image is supplied to the sensitivity-specific color interpolation section 151, and the sensitivity uniformization sections 152 to 154.
  • the color / sensitivity mosaic image is the color-sensitivity mosaic pattern P3 in FIG. 7 unless otherwise specified.
  • the pixel colors are the three primary colors RGB One of these colors, the sensitivity is one of S0 and S1, and if we focus only on the pixels with sensitivity S0 regardless of the color, they will form a grid (checkered) It is located. Similarly, they are arranged in a grid (checkerboard) of pixels with sensitivity S1.
  • the configuration and operation described below can also be applied to color and sensitivity mosaic images consisting of three colors other than RGB, and color-sensitivity mosaic images consisting of four colors.
  • the sensitivity-based color interpolation unit 1 5 1 performs the sensitivity-based color interpolation processing on the color / sensitivity mosaic image and obtains the sensitivity mosaic image of the R component MsR, the sensitivity mosaic image of the G component MsG, and the sensitivity mosaic image M of the B component MsB Are supplied to the corresponding sensitivity equalizing sections 15 2 to 15 4 respectively.
  • the sensitivity equalizing section 152 generates an output image R by performing sensitivity equalization processing on the R component sensitivity mosaic image MsR.
  • the sensitivity equalizing section 153 generates an output image G by performing sensitivity equalization processing on the G component sensitivity mosaic image MsG.
  • the sensitivity equalizing section 154 generates an output image B by performing sensitivity equalization processing on the sensitivity mosaic image MsB of the B component.
  • FIG. 74 shows an example of the configuration of the sensitivity-based color interpolation section 151.
  • the sensitivity-specific color interpolation unit 151 the color / sensitivity mosaic image, color mosaic pattern information, and sensitivity mosaic pattern information are supplied to the extraction unit 161.
  • the color mosaic image McSi is an image represented using a st coordinate system different from the xy coordinate system of the original color-sensitivity mosaic image (for details, see FIGS. 78 and 79). Described later).
  • the extraction unit 1661 generates color mosaic pattern information of the sensitivity Si indicating the color mosaic arrangement of the color mosaic image McSi, and supplies it to the color interpolation unit 162.
  • the extraction unit 16 1 generates the original position information of the sensitivity Si holding the positional relationship between the color mosaic image McSi and the original color 'sensitivity mosaic image, and supplies it to the insertion units 16 3 to 16 5 I do.
  • the color interpolation unit 16 2 is a color mosaic image from the extraction unit 16 1
  • the components are interpolated, and the obtained images Rsi, Gsi, and Bsi are supplied to the corresponding input sections 16 3 to 16 5 respectively.
  • Image Rsi is an image composed of pixel values of R components corresponding to each pixel of color mosaic image McSi.
  • the image Gsi is an image composed of G component pixel values corresponding to each pixel of the color mosaic image McSi.
  • the image Bsi is an image composed of pixel values of the B component corresponding to each pixel of the color mosaic image McSi.
  • the images Rsi, Gsi and Bsi are represented by the same coordinate system as the color mosaic image McSi.
  • the color interpolation unit 16 2 is configured in the same manner as the configuration example of the color interpolation unit 52 shown in FIG.
  • the input unit 16 3 combines the R component images Rsi supplied by the number of sensitivity types from the color capture unit 16 2 based on the original position information of the sensitivity S i supplied from the extraction unit 16 1. Then, a sensitivity mosaic image MsR is generated and supplied to the sensitivity uniformization unit 152.
  • the insertion unit 16 4 combines the G component images Gsi supplied by the number of sensitivity types from the color interpolation unit 16 2 based on the original position information of the sensitivity S i supplied from the extraction unit 16 1.
  • a sensitivity mosaic image MsG is generated and supplied to the sensitivity equalization unit 153.
  • the input unit 16 5 combines the B component images Bsi supplied by the number of sensitivity types from the color interpolation unit 16 2 based on the original position information of the sensitivity S i supplied from the extraction unit 16 1. Then, a sensitivity mosaic image MsB is generated and supplied to the sensitivity uniforming section 154.
  • FIG. 75 shows a configuration example of the sensitivity equalizing section 152.
  • the sensitivity mosaic image MsR supplied from the input section 163 of the sensitivity-specific color interpolation section 151 is supplied to the local sum calculation section 171.
  • the local sum calculation unit 17 1 performs a local sum calculation process using pixels in the vicinity of each pixel of the sensitivity mosaic image MsR, and obtains a local sum corresponding to each pixel to obtain a combined sensitivity compensation unit 17 2 To supply.
  • the composite sensitivity compensator 1772 obtains a corresponding compensation value by illuminating the local sum to the composite sensitivity compensation LUT 173, and generates an output image R using the compensation value as a pixel value.
  • the composite sensitivity compensation LUT 173 supplies the corresponding compensation value using the local sum as an index.
  • the configuration example of the sensitivity uniformization sections 15 3 and 15 4 is the same as the configuration example of the sensitivity uniformization section 15 2 shown in FIG.
  • a third demosaic processing by the third configuration example of the image processing section 7 shown in FIG. 73 will be described with reference to a flowchart in FIG.
  • step S181 the sensitivity-based color capturing section 151 performs the sensitivity-based color interpolation processing on the color / sensitivity mosaic image to obtain the sensitivity mosaic image MsR of the R component, the sensitivity mosaic image MsG of the G component, And a sensitivity mosaic image MsB of the B component is generated and supplied to the corresponding sensitivity uniformization units 152 to 154, respectively.
  • step S191 the extraction unit 1661 determines whether or not all sensitivities (in this case, 30 and 31) included in the sensitivity mosaic pattern information have been specified, If it is determined that is not specified, the process proceeds to step S192.
  • step S192 the extraction unit 1661 specifies one type of sensitivity among all the sensitivities included in the sensitivity mosaic pattern information. Let the specified sensitivity be S i.
  • step S193 the extraction unit 1661 extracts only the pixels of the sensitivity Si from the pixels of the color / sensitivity mosaic image, generates the color mosaic image McSi of the sensitivity Si, and performs color interpolation. Supply to part 1 62. Further, the extraction unit 161 generates the original position information of the sensitivity Si holding the positional relationship between the color mosaic image McSi and the original color / sensitivity mosaic image, and the input unit 163 to 165 Supply. The extraction unit 161 generates color mosaic pattern information of the sensitivity Si indicating the color mosaic arrangement of the color mosaic image McSi, and supplies the color mosaic pattern information to the color interpolation unit 162.
  • step S193 Details of the processing in step S193 will be described with reference to FIGS.
  • the extracted sensitivity S i pixels are not extracted at the pixel interval of the original color / sensitivity mosaic image, so the generated sensitivity Si color mosaic image McSi is the original color. , Origin, and orientation are formed on different grids. Therefore, the extraction unit 61 generates the color mosaic image McSi, and at the same time, Based on the correspondence between the reference system and the coordinate system of the color mosaic image McSi, original position information that can refer to the original position information for each pixel is generated.
  • the correspondence between the original color 'sensitivity mosaic image and the coordinate system of the generated color mosaic image McSi is as shown in FIG. 78 or FIG. 79.
  • the original color / sensitivity mosaic image is displayed in the xy coordinate system
  • the color mosaic image McSi is displayed in the st coordinate system.
  • the image of the color / sensitivity mosaic image indicates a pixel of sensitivity S0
  • the mouth of the color / sensitivity mosaic image indicates a pixel of sensitivity S1.
  • pixels of sensitivity S0 indicated by the image of the color / sensitivity mosaic image are extracted.
  • the pixel A in the figure the X y coordinate system representing the original color ⁇ sensitivity mosaic image (x A, y A) is, in the st coordinate system representing the color mosaic image McSi generated (s A , t A ).
  • (S A , t A ) and (x A , y A ) have a correspondence as shown in the following equation (22).
  • the extraction unit 16 1 calculates the coordinates (x A , y A ) is applied to equation (22) to calculate the coordinates (s A , t A ) in the color mosaic image McSi, and to generate the color mosaic image McSi by using the value of the pixel for the coordinates. .
  • the source location information of the sensitivity S 0, the coordinates (s A, t A) coordinate corresponding to (x A, y A) and to store.
  • the pixel B in the figure the X y coordinate system representing the original color and sensitivity mosaic image is (x B, y B), the s t coordinate system to represent the color mosaic image McSi generated ( s B, which is t. (st and (x B, y B), the corresponding relationship as shown in the following equation (23).
  • SB ( ⁇ B + y B ) Z 2
  • the extraction unit 16 1 calculates the coordinates (x B, and applying a y B) in equation (22), the coordinates (s B of the color mosaic image MCSI, issued calculate the t B), to produce a color mosaic image MCSI using the value of the pixel in the coordinates .
  • the source location information of the sensitivity S 1 the coordinates (s B, t B) coordinates corresponding to the (x B, y B) and to store.
  • step S194 the color capture unit 162 interpolates the RGB components of all the pixels of the color mosaic image McSi from the extraction unit 161, and converts the images Rsi, Gsi, Bsi Generated and supplied to the corresponding input units 163 to 165.
  • the details of the processing of the color interpolation unit 162 are the same as those of the color interpolation processing of the color interpolation unit 52 described with reference to FIG. 55, and a description thereof will be omitted.
  • step S191 The process returns to step S191, and the process is repeated from step S191 to S194 until it is determined that all the sensitivities included in the sensitivity mosaic pattern information have been designated. If it is determined in step S 191 that all the sensitivities included in the sensitivity mosaic pattern information have been designated, the process proceeds to step S 195.
  • step S195 the input unit 1663, based on all the original position information supplied from the extraction unit 161, determines the number of R components supplied by the number of sensitivity types from the color interpolation unit 162.
  • the sensitivity mosaic image MsR is generated by combining the image Rsi (in this case, the image RsO and the image Rsl) and supplied to the sensitivity uniformization unit 152.
  • the input unit 164 generates the sensitivity mosaic image MsG and supplies it to the sensitivity uniformization unit 153
  • the input unit 1655 generates the sensitivity mosaic image MsB and supplies it to the sensitivity uniformization unit 154 I do.
  • step S 182 the sensitivity uniformization section 152 generates an output image R by performing sensitivity equalization processing on the sensitivity mosaic image MsR of the R component.
  • the sensitivity uniforming section 153 generates an output image G by performing sensitivity equalization processing on the G component sensitivity mosaic image MsG.
  • the sensitivity equalization unit 154 performs sensitivity equalization processing on the sensitivity mosaic image MsB of the B component. To generate an output image B.
  • step S201 the local sum calculation unit 171 determines whether or not all pixels of the sensitivity mosaic image MsR of the R component have been set as a target pixel, and determines that not all pixels have been set as a target pixel. If so, the process proceeds to step S202.
  • step S202 the local sum calculation unit 171 determines one pixel at a time in order from the lower left pixel to the upper right pixel of the sensitivity mosaic image MsR, one pixel at a time.
  • the local sum calculation unit 171 calculates a local sum corresponding to the pixel of interest and supplies the calculated local sum to the combined sensitivity compensation unit 172. Specifically, pixel values of 5 ⁇ 5 pixels (hereinafter referred to as reference pixels) centered on the target pixel are extracted, and the pixel values and the relative positions of the reference pixel with respect to the target pixel are extracted. The filter coefficients are multiplied by preset filter coefficients as shown in FIG. 81, and the sum of the products is calculated. Further, the sum of the products is divided by the sum of the 25 filter coefficients, and the quotient is determined as the local sum corresponding to the pixel of interest.
  • reference pixels pixel values of 5 ⁇ 5 pixels centered on the target pixel are extracted, and the pixel values and the relative positions of the reference pixel with respect to the target pixel are extracted.
  • the filter coefficients are multiplied by preset filter coefficients as shown in FIG. 81, and the sum of the products is calculated. Further, the sum of the products is divided by
  • step S204 the combined sensitivity compensating unit 172 obtains the corresponding compensation value by illuminating the local sum to the combined sensitivity compensation LUT 173, and sets the compensation value to the output image R corresponding to the target pixel. Let it be a pixel value.
  • step S201 The process returns to step S201, and the processes of steps S201 to S204 are repeated until it is determined that all the pixels have been set as the target pixel. If it is determined in step S201 that all the pixels have been set as the target pixel, the sensitivity equalization process ends, and the process returns to FIG.
  • the sensitivity equalizing sections 15 3 and 15 4 also perform the same sensitivity equalizing processing in parallel with the sensitivity equalizing processing of the sensitivity uniforming section 15 2, but detailed description thereof will be omitted. This is the end of the description of the third demosaic process by the third configuration example of the image processing unit 7.
  • the fourth demosaicing process includes a luminance image generation process for generating a luminance image from the color-sensitivity mosaic image obtained by the processing of the imaging unit, and output images R and G using the color-sensitivity mosaic image and the luminance image. , B to generate monochrome images.
  • FIG. 82 shows a fourth configuration example of the image processing section 7 mainly performing the fourth demosaic processing.
  • color mosaic pattern information indicating the color mosaic array of the color-sensitivity mosaic image
  • the sensitivity mosaic array of the color / sensitivity mosaic image Is supplied to the luminance image generation unit 181, and the monochrome image generation units 182 to 184.
  • the color / sensitivity mosaic image is the color-sensitivity mosaic pattern P2 in FIG. 6 unless otherwise specified. That is, the pixel color is one of the three primary colors RGB, the sensitivity is one of S0 and S1, and if attention is paid only to the color regardless of the sensitivity, they are all. Key array.
  • the luminance image generation unit 1881 performs a luminance image generation process on the supplied color / sensitivity mosaic image, and supplies the obtained luminance image to the monochromatic image generation units 182 to 1884.
  • the single-color image generation unit 182 generates an output image R using the supplied color / sensitivity mosaic image and luminance image.
  • the single-color image generation unit 183 generates an output image G using the supplied color / sensitivity mosaic image and luminance image.
  • the single-color image generation unit 184 generates an output image B using the supplied color-sensitivity mosaic image and luminance image.
  • FIG. 83 shows a first configuration example of the luminance image generation unit 181.
  • the color / sensitivity mosaic image, the color mosaic pattern information, and the sensitivity mosaic pattern information are supplied to the estimating units 191 to 1993.
  • the estimating unit 1991 performs an R component estimation process on the color / sensitivity mosaic image, and supplies the obtained R component estimated value R ′ for each pixel to the multiplier 194.
  • the estimating unit 1992 performs a G component estimation process on the color / sensitivity mosaic image, and supplies the obtained G component estimated value G ′ for each pixel to the multiplier 195.
  • the estimating unit 193 performs a B component estimation process on the color-sensitivity mosaic image, and supplies the obtained estimated value B ′ of the B component for each pixel to the multiplier 196.
  • the multiplier 1 94 the estimated value R 'supplied from the estimation unit 1 9 1, multiplied by the color balance coefficients k R, and outputs the product to the adder 1 9 7.
  • Multiplier 195 multiplies estimated value G ′ supplied from estimating section 192 by color balance coefficient k c , and outputs the product to adder 197.
  • the adder 197 includes a product R ′ ⁇ k R input from the multiplier 194, a product G, ⁇ k G input from the multiplier 195, and a product ⁇ ′ ⁇ adding k B, and supplies the noise removing unit 1.98 generates the luminance candidate image to the sum the pixel values.
  • the noise removing unit 198 performs a noise removing process on the luminance candidate image supplied from the adder 197, and supplies the obtained luminance image to the monochromatic image generating units 182 to 184.
  • FIG. 84 shows a configuration example of the single-color image generation unit 182.
  • the color ′ sensitivity mosaic image, the color mosaic pattern information, and the sensitivity mosaic pattern information are supplied to the interpolation unit 201.
  • the luminance image is supplied to the ratio calculation unit 202 and the multiplier 203.
  • the interpolation unit 201 performs an interpolation process on the color / sensitivity mosaic image, and obtains all the obtained images.
  • An R candidate image whose element has an R component pixel value is output to the ratio value calculation unit 202.
  • the ratio value calculation unit 202 calculates a low frequency component (hereinafter simply referred to as an intensity ratio) of an intensity ratio between corresponding pixels of the R candidate image and the luminance image, and further calculates an intensity ratio corresponding to each pixel.
  • the ratio value information shown is generated and supplied to the multiplier 203.
  • the multiplier 203 multiplies the pixel value of each pixel of the luminance image by the corresponding intensity ratio, and generates an output image R having the product as the pixel value.
  • step S211 the luminance image generation unit 181 generates a luminance image by performing a luminance image generation process on the color ⁇ ⁇ sensitivity mosaic image, and supplies the luminance image to the single-color image generation units 182 to 184.
  • the luminance image generation processing of the luminance image generation unit 181 will be described with reference to the flowchart in FIG.
  • step S221 the estimating units 191 to 193 determine whether all the pixels of the color 'sensitivity mosaic image have been set as the target pixel, and determine that all the pixels have not been set as the target pixel. If so, the process proceeds to step S222.
  • step S222 the estimating units 191 to 193 sequentially determine the pixel of interest one pixel at a time from the lower left pixel to the upper right pixel of the color 'sensitivity mosaic image.
  • step S223 the estimating unit 1991 performs an R component estimation process on the color 'sensitivity mosaic image, thereby estimating an estimated value R' corresponding to the pixel of interest, and supplies the estimated value R 'to the multiplier 194.
  • the estimating unit 192 estimates the estimated value G ′ corresponding to the pixel of interest by performing a G component estimation process on the color ′ sensitivity mosaic image, and supplies the estimated value G ′ to the multiplier 194.
  • the estimating unit 193 estimates the estimated value B ′ corresponding to the target pixel by performing the B component estimation processing on the color / sensitivity mosaic image, and supplies the estimated value B ′ to the multiplier 194.
  • the R component estimating process of the estimating section 191 will be described with reference to the flowchart of FIG.
  • the estimating unit 1991 refers to the color mosaic pattern information and the sensitivity mosaic pattern information to obtain a pixel in the vicinity of the pixel of interest (for example, 15 X 1 centered on the pixel of interest).
  • a pixel having an R component and having a sensitivity of S0 is detected, and a pixel value of the detected pixel (hereinafter, referred to as a reference pixel) is extracted.
  • the estimating unit 1991 refers to a preset interpolation filter coefficient for the R component as shown in FIG.
  • the number of pixels is obtained, the pixel value of each reference pixel is multiplied by the corresponding filter coefficient, and the sum of the products is calculated. Furthermore, the first quotient is obtained by dividing the sum of the products by the sum of the R component interpolation filter coefficients used.
  • the estimating unit 1991 refers to the color mosaic pattern information and the sensitivity mosaic pattern information to generate a pixel in the vicinity of the pixel of interest (for example, 15 X 15 Among the pixels, a pixel having the R component and having the sensitivity S1 is detected, and a pixel value of the detected pixel (hereinafter, referred to as a reference pixel) is extracted.
  • step S2334 the estimating unit 1991 acquires the R component interpolation filter coefficients by the number of reference pixels, corresponding to the relative position of the reference pixel to the target pixel, and obtains the pixel value of each reference pixel. Is multiplied by the corresponding filter coefficient, and the sum of the products is calculated. Further, the second quotient is obtained by dividing the sum of the products by the sum of the interpolation filter coefficients used.
  • step S235 the estimating unit 1991 adds the first quotient obtained in step S233 and the second quotient obtained in step S234.
  • step S 236 the estimating unit 1991 compares the sum of the first quotient and the second quotient calculated in step S 235 with a built-in synthetic sensitivity compensation LUT (described later), Obtain a compensation value that compensates for the sensitivity characteristics.
  • the obtained compensation value is the estimated value R, corresponding to the pixel of interest.
  • the processing returns to step S224 of FIG. 86.
  • the G component estimating process of the estimating unit 192 and the B component estimating process of the estimating unit 1993 are the same as the R component estimating process of the estimating unit 191, and therefore description thereof is omitted.
  • the reference pixel is detected from among the 7 ⁇ 7 pixels centered on the target pixel, and the G component interpolation filter shown in FIG. We will use coefficients.
  • FIG. 90 shows a characteristic curve b of the pixel with the sensitivity S 0 and a characteristic curve a of the pixel with the sensitivity S 1.
  • the horizontal axis indicates the intensity of the incident light, and the vertical axis indicates the pixel value.
  • the high sensitivity S1 has four times the sensitivity of the low and simple sensitivity S0.
  • the second quotient calculated using the pixels having the sensitivity S1 is added. Therefore, the sum of the first quotient and the second quotient has a characteristic obtained by combining the characteristics of the sensitivity S O and the sensitivity S 1 as shown by the characteristic curve c in FIG.
  • This synthesized characteristic curve c has the characteristics of a wide dynamic range from low luminance to high luminance, but since it is a polygonal line as shown in Fig. 91, use the inverse characteristic curve of the sensitivity characteristic curve c. Restores the original characteristic. Specifically, as shown in Fig. 92, the sum of the first quotient and the second quotient is applied to the inverse characteristic curve d of the sensitivity characteristic curve c in Fig. 91 to compensate for the nonlinearity.
  • the composite sensitivity compensation LUT is a look-up table of the inverse characteristic curve d in FIG.
  • step S 2 2 4 the multiplier 1 9 4, supplied from the estimated unit 1 9 1 the estimate R, a dichroic balance coefficients k R multiplied, and outputs the product to the adder 1 9 7.
  • Multiplier 1 9 5 multiplies the color balance coefficients k G to estimate G 'supplied from the estimation section 1 9 2, and outputs the product to the adder 1 9 7.
  • the multiplier 1 9 6 estimates supplied from the estimated unit 1 9 3 B, a dichroic balance coefficients k B multiplied, their Is output to the adder 197.
  • the adder 1 97 is the product R inputted from the multiplier 1 94 ' ⁇ k R, the product G is inputted from the multiplier 1 9 5' ⁇ k G, and a product B which is input from the multiplier 1 96 '- k B is added, and the sum is set as a pixel value (a luminance candidate value) of the luminance candidate image corresponding to the target pixel.
  • step S221 The process returns to step S221, and the processes of steps S221 to 224 are repeated until all the pixels are determined to be the target pixels. If it is determined in step S221 that all pixels have been set as the target pixel, the process proceeds to step S225. Note that the luminance candidate image generated by the processing in steps S221 to S224 is supplied to the noise removing unit 198.
  • step S225 the noise elimination unit 198 generates a luminance image by performing a noise elimination process on the luminance capture image supplied from the adder 197, and generates a single-color image generation unit 182 to Supply 1 84.
  • step S241 the noise removing unit 198 determines whether or not all pixels of the luminance candidate image have been set as a target pixel. If it determines that all pixels have not been set as a target pixel, the process proceeds to step S242. move on.
  • step S242 the noise removing unit 198 sequentially determines one pixel from the lower left pixel to the upper right pixel of the luminance candidate image as a target pixel.
  • step S243 the noise elimination unit 198 obtains pixel values (brightness candidate values) of pixels located above, below, left, and right of the target pixel, and obtains candidate pixel brightness values located above, below, left, and right of the obtained target pixel.
  • pixel values black, white, white, white, white, white, white, white, white, white, white, white, white, white, white, white, white, white, white, white, white, white, white a, or white a, or a2, respectively.
  • step S244 the noise removing unit 198 acquires a smoothed value corresponding to the pixel of interest by executing a direction-selective smoothing process.
  • step S251 the noise elimination unit 198 calculates a luminance gradient vector g corresponding to the target pixel by applying the following equation (24).
  • Brightness gradient vector g (a 2- al, a 3- a O)---(24)
  • step S252 the noise removing section 198 calculates the magnitude (absolute value) II VII of the luminance gradient vector g.
  • step S253 the noise removing unit 198 applies the variables a0 to a3 to the following equations (25) and (26) to obtain a horizontal smoothing component H corresponding to the pixel of interest. Calculate h and the vertical smoothing component Hv.
  • step S 254 the noise removal unit 1 980 sets the absolute value of the luminance gradient vector g to II g II, Calculate the horizontal importance wh and the vertical importance wv.
  • step S255 the noise elimination unit 198 calculates a smoothed value H corresponding to the pixel of interest using the following equation (29).
  • step S 245 the noise removing unit 198 calculates the average value of the pixel value (luminance candidate value) of the target pixel and the smoothed value ⁇ corresponding to the target pixel calculated in step S 244.
  • the average value is set as a pixel value (luminance value) of the luminance image corresponding to the target pixel.
  • step S 2 41 The process returns to step S 2 41 and continues until all the pixels are determined to be the target pixel. Then, the processing of steps S241 through S245 is repeated. If it is determined in step S 2 41 that all the pixels have been set as the target pixel, the noise removal processing is terminated, that is, the luminance image generation processing is also terminated, and step S 2 1 1 in FIG. Return to 2.
  • step S212 the single-color image generation units 182 to 184 generate output images R, G, and B using the supplied color-sensitivity mosaic image and luminance image, respectively.
  • the first single-color image generation process of the single-color image generation unit 182 will be described with reference to the flowchart of FIG.
  • step S261 the interpolation unit 201 performs an interpolation process on the color-sensitivity mosaic image to generate an R candidate image in which all pixels have pixel values of the R component, and a ratio value calculation unit Output to 202.
  • interpolation process of the interpolation unit 201 is the same as the R component estimation process of the estimation unit 191 of the luminance image generation unit 181 described above with reference to the flowchart of FIG. The description is omitted.
  • step S262 the ratio value calculation unit 202 calculates an intensity ratio by performing a ratio value calculation process, and further generates and multiplies ratio value information indicating an intensity ratio corresponding to each pixel. To the vessel 203.
  • step S271 the ratio value calculation unit 202 determines whether or not all pixels of the R candidate image have been set as a target pixel. Go to S272.
  • step S272 the ratio value calculation unit 202 sequentially determines one pixel at a time from the lower left pixel to the upper right pixel of the R candidate image as a pixel of interest.
  • the ratio value calculation unit 202 refers to pixels located in the vicinity of the target pixel (for example, 7 ⁇ 7 pixels centered on the target pixel) as reference pixels, and sets the pixel values ( R component single color candidate value). In addition, the ratio value calculation unit 202 The pixel value (luminance value) of the luminance image located at the same coordinates as the element is extracted.
  • step S274 the ratio value calculation unit 202 determines the smoothing filter coefficient set in advance as shown in FIG. 97, corresponding to the relative position of the reference pixel to the target pixel. Acquire the number of reference pixels.
  • step S275 the ratio value calculation unit 202 multiplies the smoothing filter coefficient corresponding to the monochromatic cue value of the R component of each reference pixel, and divides the product by the corresponding luminance value. And calculate the sum of their quotients. Further, the sum of the quotients is divided by the sum of the used smoothing filter coefficients, and ratio value information is generated using the quotient as an intensity ratio corresponding to the pixel of interest.
  • step S271 if it is determined that all the pixels of the R candidate image have been set as the target pixel, the generated ratio value information is supplied to the multiplier 203, and the processing is performed as shown in FIG. Return to step S263.
  • step S263 the multiplier 203 multiplies the pixel value of each pixel of the luminance image by the corresponding intensity ratio, and generates an output image R having the product as the pixel value.
  • the single-color image generation sections 183 and 184 execute the same processing.
  • FIG. 98 illustrates a second configuration example of the luminance image generation unit 181.
  • the second configuration example of the luminance image generation unit 18 1 includes the estimation units 19 1 to 19 3 in the first configuration example of the luminance image generation unit 18 1 shown in FIG. 1 Replaced with 1.
  • the color / sensitivity mosaic image, the color mosaic pattern information, and the sensitivity mosaic pattern information are supplied to the estimation unit 211.
  • the estimating unit 211 performs component estimation processing on the color-sensitivity mosaic image, and obtains an R component estimated value R ′, a G component estimated value G ′, and a B component estimated value B for each obtained pixel. 'To the corresponding multipliers 194 through 196.
  • multiplier 1994 to the noise elimination unit 198 which constitute the second configuration example of the luminance image generation unit 18 1 are the same as the luminance image generation unit 18 shown in FIG. Since they are the same as the multiplier 194 to the noise removing unit 198 of the first configuration example of 1, the description is omitted.
  • the estimation process of the RGB component by the estimation unit 211 will be described with reference to the flowchart of FIG.
  • the RGB component estimation process is a process that can be executed as the process in step S223 of FIG. 86 instead of the R component estimation process described above with reference to FIG. 87. Therefore, it is assumed that the pixel of interest of the color / sensitivity mosaic image has already been determined by the estimating unit 211, and the processing from step S281 will be described.
  • step S281 the estimating unit 2111 performs the estimated pixel value C0 interpolation process using four pixel values centered on the target pixel as shown in FIG. Calculate the estimated pixel value C 0.
  • the estimated pixel value C 0 interpolation processing will be described with reference to the flowchart of FIG.
  • step S291 the estimating unit 211, as shown in FIG. 100, generates an image of four pixels located at the top, bottom, left, and right with an interval of one pixel from the pixel of interest represented by ⁇ .
  • Calculate the smoothed value a by substituting the prime values into the variables a 3, a 0, a 1, and a 2, respectively, and applying them to the direction-selective smoothing process described above with reference to FIG. .
  • the pixel values of the four pixels located in the up, down, left, and right directions of the specified pixel are substituted for the variables a3, aO, a1, and a2, respectively, and described above with reference to FIG.
  • the process of calculating the smoothing value ⁇ by applying the process to the direction-selective smoothing process is hereinafter defined as a vertical-direction selective smoothing process corresponding to a specified pixel.
  • step S292 the estimating unit 211 adds the smoothed value obtained in step S291 to the pixel value of the target pixel, and sets the sum as the estimated pixel value C0 of the target pixel. .
  • the processing returns to step S282 of FIG.
  • step S282 the estimating unit 211 calculates the estimated pixel value corresponding to the target pixel by performing an estimated pixel value C1 interpolation process using 12 pixels centered on the target pixel as shown in FIG. Calculate the value C1.
  • the process of capturing the estimated pixel value C 1 will be described with reference to the flowchart of FIG.
  • step S301 the estimating unit 211 determines whether or not the color of the target pixel is G. If it is determined that the color of the target pixel is G, the process proceeds to step S302.
  • step S302 the estimating unit 2111, as shown in FIG. 102, calculates the four pixels located adjacent to the lower left, upper left, lower right, and upper right of the target pixel represented by ⁇ .
  • the pixel value is assigned to variables a 0, a 1, a 2, and a 3, respectively, and the smoothed value a is calculated by applying to the direction-selective smoothing processing described above with reference to FIG.
  • step S303 the estimating unit 2111 multiplies the smoothed value ⁇ obtained in step S302 by 2 and sets the product as the estimated pixel value C1 of the target pixel.
  • the processing returns to step S2833 in FIG.
  • step S301 If it is determined in step S301 that the color of the pixel of interest is not G, the process proceeds to step S304.
  • step S304 the estimating unit 211 executes vertical selective smoothing processing using four pixels located at an interval of one pixel centering on a pixel adjacent to the upper left of the target pixel. To calculate the smoothed value ⁇ and substitute it for the variable a1.
  • the estimating unit 2 11 uses the four pixels located one pixel apart from the pixel adjacent to the lower right of the target pixel as a center, and performs the vertical selective smoothing process. Execute to calculate the smoothed value H and substitute it for variable a2.
  • step S306 the estimating unit 211 substitutes the pixel value of the pixel adjacent to the lower left of the target pixel into a variable a0, The pixel value of the pixel adjacent to the upper right of the pixel is assigned to a variable a3.
  • step S307 the estimating unit 211 converts the variables a0, a1, a2, and a3 whose values have been set in steps S304 to S306 into the direction-selective smoothing described above with reference to FIG.
  • a smoothed value ⁇ is calculated by applying the process, and the value is set as a smoothed value ⁇ ′.
  • step S308 the estimating unit 211 performs vertical selective smoothing processing by using the four pixels located at an interval of one pixel centering on a pixel adjacent to the lower left of the target pixel and performing smoothing. Calculated value a is assigned to variable a0.
  • step S309 the estimating unit 211 performs vertical selective smoothing using four pixels located one pixel apart from the pixel at the upper right adjacent to the pixel of interest. Calculate the smoothed value ⁇ and substitute it for the variable a3.
  • step S310 the estimating unit 211 substitutes the pixel value of the pixel adjacent to the upper left of the target pixel into the variable a1, and substitutes the pixel value of the pixel adjacent to the lower right of the target pixel into the variable a2. Substitute for
  • step S 311 the estimating unit 2 1 1 sets the variables a O, a 1, a 2, and a 3 set in steps S 308 to S 3 10 to the direction selection described above with reference to FIG. 94.
  • a smoothing value ⁇ is calculated by applying to the smoothing process, and the value is set as a smoothing value ⁇ ′ ′.
  • step S312 the estimating unit 211 calculates the smoothed value ⁇ ′ obtained in step S307 and the smoothed value H ′′ obtained in step S311 by calo, and checks the sum. Assume the estimated pixel value C1 corresponding to the pixel. The processing returns to step S283 in FIG.
  • step S283 the estimating unit 211 generates an estimated pixel using four pixels centered on the pixel of interest as shown in FIG. 104 ⁇ or eight pixels centered on the pixel of interest as shown in FIG. 104B.
  • An estimated pixel value C2 corresponding to the target pixel is calculated by the value C2 interpolation process.
  • the estimation pixel value C 2 capture process will be described with reference to the flowchart in FIG.
  • step S321 the estimation unit 211 determines whether or not the color of the pixel of interest is G. If it is determined that the color of the pixel of interest is G, the process proceeds to step S322. In step S322, the estimating unit 211 calculates a pixel adjacent to the pixel of interest Using four pixels positioned at intervals of one pixel as the center, running vertically selective smoothing process calculates a smoothed value alpha, the smoothed value alpha '.
  • step S332 the estimating unit 211 performs vertical selective smoothing using four pixels located one pixel apart from the pixel adjacent to the target pixel as a center. To calculate the smoothed value ⁇ , and use it as the smoothed value.
  • step S324 the estimating unit 211 calculates the average value of the pixel values of the adjacent pixels below the target pixel, the smoothed value obtained in step S322, and the average value of the pixel of interest. Is added to the average value of the smoothed value H 'obtained in step S323 and the sum is taken as the estimated pixel value C2 corresponding to the pixel of interest. The processing returns to step S284 of FIG.
  • step S321 If it is determined in step S321 that the color of the pixel of interest is not G, the process proceeds to step S325.
  • step S325 the estimating unit 211 performs oblique direction selective smoothing processing using four pixels obliquely adjacent to each other with the pixel adjacent to the left of the pixel of interest as the center. Calculate the smoothed value and substitute it for the variable a1.
  • step S 3 26 the estimating unit 2 11 executes oblique direction selective smoothing processing using four pixels obliquely adjacent to each other with the pixel adjacent to the right of the target pixel as the center. To calculate the smoothed value ⁇ and substitute it for the variable a 2.
  • step S327 the estimating unit 211 substitutes the pixel value of the pixel adjacent below the target pixel into the variable a0, and substitutes the pixel value of the pixel adjacent above the target pixel into the variable a3. I do.
  • step S328 the estimating unit 211 refers to the variables a0, a1, a2, and a3 whose values have been set in steps S325 to S327 with reference to FIG.
  • a smoothing value ⁇ is calculated by applying the above-described direction-selective smoothing process, and the value is set as a smoothing value cx ′.
  • step S329 the estimating unit 211 executes oblique direction selective smoothing processing by using four pixels obliquely adjacent to each other with the pixel below the target pixel as the center. Calculate the smoothed value ⁇ and substitute it for the variable a 0.
  • step S330 the estimating unit 211 determines that the pixel adjacent to the pixel of interest is positioned diagonally Using the four pixels that are in contact with each other, an oblique direction selective smoothing process is executed to calculate a smoothed value ⁇ , which is substituted into a variable a3.
  • step S331 the estimator 2 11 1 substitutes the pixel value of the pixel adjacent to the left of the target pixel into the variable a1, and substitutes the pixel value of the pixel adjacent to the right of the target pixel into the variable a2. I do.
  • step S332 the estimating unit 211 refers to the variables aO, a1, a2, and a3 whose values have been set in steps S329 to S331 with reference to FIG.
  • a smoothing value ⁇ is calculated by applying the above-described direction-selective smoothing process, and the value is set as a smoothing value ⁇ , ′.
  • step S333 the estimating unit 211 adds the smoothed value ⁇ 'obtained in step S328 and the smoothed value obtained in step S332, and sums the sum to the pixel of interest.
  • the corresponding estimated pixel value is C2.
  • the processing returns to step S284 of FIG.
  • step S284 the estimating unit 211 calculates the estimated pixel value C corresponding to the target pixel by performing an estimated pixel value C3 interpolation process using eight pixels centered on the target pixel as shown in FIG. 106. Calculate 3.
  • the estimated pixel value C3 interpolation processing will be described with reference to the flowchart in FIG.
  • step S341 the estimating unit 211 determines whether or not the color of the pixel of interest is G. If it is determined that the color of the pixel of interest is G, the process proceeds to step S324. In step S3342, the estimating unit 211 executes the vertical selective smoothing process using four pixels located one pixel apart from the pixel adjacent to the right of the target pixel at the center. To calculate the smoothed value, and set it as the smoothed value a '.
  • step S3343 the estimating unit 211 executes vertical selective smoothing processing using four pixels located at an interval of one pixel centering on the pixel adjacent to the left of the target pixel. To calculate the smoothed value, and use it as the smoothed value.
  • step S344 the estimating unit 211 calculates the average value of the pixel value of the pixel adjacent to the left of the pixel of interest, the smoothed value obtained in step S3442, and the right of the pixel of interest. Is added to the average value of the smoothed value “” obtained in step S 343, and the sum is set as an estimated pixel value C 3 corresponding to the pixel of interest.
  • the processing is shown in Fig. It returns to step S285.
  • step S341 If it is determined in step S341 that the color of the pixel of interest is G, the process proceeds to step S345.
  • step S345 the estimating unit 211 sets the estimated pixel value C3 corresponding to the target pixel to 0. The processing returns to step S285 in FIG.
  • step S285 the estimating unit 211 determines the color and sensitivity of the pixel of interest with reference to the color mosaic pattern information and the sensitivity mosaic pattern information, and according to the determination result, performs steps S281 to S284.
  • the estimated pixel values CO to C3 corresponding to the target pixel obtained in are applied to the built-in synthetic sensitivity compensation LUT (similar to the synthetic sensitivity compensation LUT described above with reference to FIGS. 90 to 92), and Calculate the estimated values R ', G', B '.
  • the value LUT (C 2) obtained by applying the estimated pixel value C 2 to the synthetic sensitivity compensation LUT is set as the estimated value R ′, and the estimated pixel value
  • the value LUT ((C 0 + C 1 /) 2)) obtained by applying the average value of C 0 + C 1 to the composite sensitivity compensation LUT is assumed to be the estimated value G ', and the estimated pixel value C 3 is applied to the composite sensitivity compensation LUT
  • the value LUT (C 3) is used as the estimated value B '.
  • the value LUT (C3) obtained by applying the estimated pixel value C3 to the synthetic sensitivity compensation LUT is set as the estimated value R ', and the estimated pixel value
  • the value LUT ((C 0 + C 1Z) 2)) obtained by applying the average value of CO + C 1 to the synthetic sensitivity compensation LUT is the estimated value G ', and the value obtained by applying the estimated pixel value C 2 to the synthetic sensitivity compensation LUT LUT (C 2) is used as the estimate B '.
  • the value LUT (CO) obtained by applying the estimated pixel value C 0 to the composite sensitivity compensation LUT is set as the estimated value R ′, and the average value of the estimated pixel value C 2 is used as the composite sensitivity compensation LUT.
  • the applied value LUT (C 2) is set as the estimated value G ′, and the value LUT (C 1) obtained by applying the estimated pixel value C 1 to the combined sensitivity compensation LUT is set as the estimated value B ′.
  • the value LUT (C 1) obtained by applying the estimated pixel value C 1 to the composite sensitivity compensation LUT is set as the estimated value R ′, and the average value of the estimated pixel value C 2 is used as the composite sensitivity compensation LUT.
  • the value LUT (C 2) applied to is used as the estimated value G ', and the estimated pixel value C 0 is used as the composite sensitivity compensation
  • the value LUT (C O) applied to the LUT is assumed to be the estimated value B.
  • the estimated pixel values C0 to C3 generated by using the direction-selective smoothing process are used, so that the resolution of the image signal is degraded. Is suppressed.
  • the single-color image generation units 18 3 and 18 4 of the fourth configuration example of the image processing unit 7 are the same as the configuration example of the single-color image generation unit 18 2 shown in FIG. It is assumed that the same processing as the single-color image generation processing (FIG. 95) of the single-color image generation unit 18 described with reference to FIG. 95 is executed. Or
  • step S2261 in Fig. 95 can execute a unique process optimized for each, instead of the single-color candidate image generation process included in the single-color image generation process (step S2261 in Fig. 95). is there.
  • the interpolating unit 201 forming the monochrome image generating unit 182 is referred to as an interpolating unit 201-R.
  • step S351 the interpolation unit 201-R determines whether all the pixels of the color / sensitivity mosaic image have been set as the first target pixel, and determines all the pixels as the first target pixel. If it is determined that it has not been set, the process proceeds to step S355. In step S355, the interpolation unit 201-R determines the pixel of interest as the first pixel of interest in order from the lower left pixel to the upper right pixel of the color 'sensitivity mosaic image.
  • step S353 the interpolation unit 201-R determines whether or not the color of the target pixel of the first time is R. If it is determined that the color is R, the process proceeds to step S354.
  • step S354 the intercepting section 201-R uses the four pixels located at the top, bottom, left, and right with an interval of one pixel centered on the first target pixel, and performs vertical selective smoothing. The processing is executed to calculate the smoothed value ⁇ .
  • step S355 the interpolation unit 2 0 1—R is the sum of the pixel value of the target pixel of the first time and the smoothed value calculated in step S 354, and the built-in synthetic sensitivity compensation LUT (see FIGS. 90 to 92). The same value as the above-mentioned composite sensitivity compensation LUT) is applied, and the obtained value is used as the pixel value corresponding to the first target pixel of the R candidate image. The process returns to step S351.
  • step S 353 If it is determined in step S 353 that the color of the target pixel is not R for the first time, step S 354 and step S 355 are skipped, and the process returns to step S 351.
  • Step S351 the processing of Steps S351 to S355 is repeated until it is determined that all the pixels of the color 'sensitivity mosaic image have been determined as the first target pixel, and If it is determined in step 351 that all the pixels of the color sensitivity mosaic image have been set as the first target pixel, the process proceeds to step S356.
  • step S355 the intercepting unit 201-R determines whether all the pixels of the color 'sensitivity mosaic image have been set as the second target pixel, and sets all the pixels as the second target pixel. If it is determined that the pixel is not a pixel, the process proceeds to step S357.
  • step S357 the interpolating unit 201-R determines the pixel of interest as a second pixel of interest, one pixel at a time, from the lower left pixel to the upper right pixel of the color 'sensitivity mosaic image.
  • step S358 the interpolation unit 201-R determines whether the color of the pixel of interest for the second time is B, and if it determines that the color is B, the process proceeds to step S359.
  • step S359 the interpolation unit 201-R performs diagonal-selective smoothing using four pixels that are diagonally adjacent to the second pixel of interest and performs smoothing. Calculate the chemical value.
  • step S360 the interpolation unit 201-R sets the smoothed value calculated in step S359 as the pixel value corresponding to the second target pixel of the R candidate image. The process returns to step S 356.
  • step S358 If it is determined in step S358 that the color of the pixel of interest is not B for the second time, steps S359 and S360 are skipped, and the process returns to step S356.
  • step S356 all pixels of the color '
  • the processing of steps S356 to S360 is repeated until the pixel of interest is determined to be the second pixel of interest, and in step S356, all pixels of the color mosaic image are replaced with the second pixel of interest. If so, the process proceeds to step S351.
  • step S3661 it is determined whether or not all the pixels of the color / sensitivity mosaic image have been set as the third target pixel. If it is determined that all the pixels have not been set as the third target pixel, Proceed to S366.
  • step S3662 the interpolation unit 201R determines the third pixel of interest in order from the lower left pixel to the upper right pixel of the color / sensitivity mosaic image, one pixel at a time.
  • step S3663 the interpolation unit 201-R determines whether or not the color of the pixel of interest is G for the third time, and if it is determined that the color is G, the process proceeds to step S364.
  • step S364 the interpolation unit 201-R performs vertical selective smoothing using the four pixels located vertically, horizontally, and horizontally adjacent to the third pixel of interest, and performs smoothing. Calculate the chemical value.
  • step S365 the interpolation unit 201-R sets the smoothed value ⁇ calculated in step S364 as a pixel value corresponding to the third target pixel of the R candidate image. The process returns to step S366.
  • step S3653 If it is determined in step S3653 that the color of the pixel of interest is not G for the third time, steps S364 and S365 are skipped, and the process returns to step S351.
  • Step S3651 the processing of Steps S361 to S365 is repeated until it is determined that all the pixels of the color 'sensitivity mosaic image have been set as the third target pixel.
  • Step S3651 if it is determined that all the pixels of the color 'sensitivity mosaic image have been set as the third pixel of interest, the R candidate image generation processing ends.
  • step S371 the interpolation unit 201-B determines whether or not all the pixels of the color 'sensitivity mosaic image have been set as the first target pixel, and determines all the pixels as the first target pixel. If it is determined that it has not been set, the process proceeds to step S372. In step S372, the interpolation unit 201-B determines the first pixel of interest in order from the lower left pixel to the upper right pixel of the color / sensitivity mosaic image, one pixel at a time.
  • step S373 the trapping unit 201-B determines whether the color of the pixel of interest for the first time is B, and if it is determined to be B, proceeds to step S375. .
  • step S3784 the interpolation unit 201-B uses the four pixels located at the top, bottom, left, and right with an interval of one pixel centered on the first pixel of interest, and performs vertical selective smoothing processing. To calculate the smoothed value H.
  • step S375 the interpolation unit 201-1 determines the sum of the pixel value of the pixel of interest for the first time and the smoothing value calculated in step S374 as a built-in synthetic sensitivity compensation LUT (FIG. 90 to the same as the composite sensitivity compensation LUT described above with reference to FIG. 92), and the obtained value is used as the pixel value corresponding to the first target pixel of the B candidate image. The process returns to step S371.
  • step S375 If it is determined in step S375 that the color of the pixel of interest is not B for the first time, steps S375 and S375 are skipped, and the process returns to step S371.
  • Step S371 the processing of Steps S371 to S375 is repeated until it is determined that all the pixels of the color / sensitivity mosaic image have been set as the first target pixel. If it is determined in 3371 that all the pixels of the color 'sensitivity mosaic image have been set as the first target pixel, the processing proceeds to step S376.
  • step S376 the interpolation unit 201-B determines whether all the pixels of the color-sensitivity mosaic image have been set as the second target pixel, and determines all the pixels as the second target pixel. If it is determined that it has not been set, the process proceeds to step S377.
  • step S3777 the capture unit 201-B determines the second pixel of interest one by one in order from the lower left pixel to the upper right pixel of the color / sensitivity mosaic image.
  • step S378 the interpolation unit 201-B determines that the color of the pixel of interest for the second time is R It is determined whether or not R is satisfied. If it is determined that R is satisfied, the flow advances to step S379.
  • step S379 the interpolation unit 201-B performs diagonal selective smoothing by using four pixels that are diagonally adjacent to each other with the second pixel of interest as the center. Calculated value ⁇ is calculated.
  • step S380 the interpolation unit 201- 2 uses the smoothed value ⁇ calculated in step S379 as the pixel value corresponding to the second target pixel of the ⁇ candidate image. The process returns to step S376.
  • step S378 If it is determined in step S378 that the color of the pixel of interest is not R for the second time, step S379 and step S380 are skipped, and the process returns to step S378.
  • Step S376 the processing of Steps S376 to S380 is repeated until it is determined that all the pixels of the color 'sensitivity mosaic image have been set as the second target pixel. If it is determined in 376 that all the pixels of the color 'sensitivity mosaic image have been set as the second target pixel, the process proceeds to step S381. In step S381, it is determined whether or not all pixels of the color / sensitivity mosaic image have been set as the third target pixel. If it is determined that all pixels are not set as the third target pixel, Proceed to S3 82. In step S3802, the interpolating unit 201 determines the third pixel of interest one by one sequentially from the lower left pixel to the upper right pixel of the color / sensitivity mosaic image.
  • step S383 the trap unit 201- ⁇ determines whether the color of the pixel of interest for the third time is G, and if it is determined that the color is G, the process proceeds to step S3804 .
  • step S384 the interpolation unit 201- ⁇ performs vertical selective smoothing by using four pixels located vertically, horizontally, and horizontally adjacent to the third pixel of interest, and performs smoothing. Calculate the chemical value.
  • step S385 uses the smoothed value calculated in step S384 as a pixel value corresponding to the third target pixel of the ⁇ candidate image. The process returns to step S381.
  • step S383 If it is determined in step S383 that the color of the pixel of interest is not G for the third time, steps S384 and S385 are skipped, and Return to S 3 8 1.
  • Step S381 the processing of Steps S381 to S385 is repeated until it is determined that all the pixels of the color 'sensitivity mosaic image have been set as the third pixel of interest. If it is determined in 381 that all the pixels of the color-sensitivity mosaic image have been set as the third pixel of interest, the B candidate image generation processing ends.
  • the G candidate image generation processing executed by the monochrome image generation unit 183 will be described with reference to the flowchart of FIG. For convenience of explanation, the single-color candidate image generation unit 1
  • the components of the monochrome image generation unit 183 corresponding to the interpolation unit 210 of the embodiment 82 will be described as an interpolation unit 201_G.
  • step S391 the interpolation unit 201-G determines whether or not all pixels of the color-sensitivity mosaic image have been set as the first target pixel, and determines all the pixels as the first target pixel. If it is determined that it has not been set, the process proceeds to step S392.
  • step S392 the intercepting section 201-G is determined as a first pixel of interest, one pixel at a time, from the lower left pixel to the upper right pixel of the color 'sensitivity mosaic image.
  • step S393 the interpolation unit 201-G determines whether or not the color of the pixel of interest for the first time is G. If it is determined that the color is G, the process proceeds to step S394. In step S394, the interpolation unit 201-G performs the oblique direction selective smoothing process by using the four pixels that are obliquely adjacent to the first pixel of interest and is smoothed. Calculated value ⁇ is calculated.
  • step S395 the interpolation unit 201-G calculates the sum of the pixel value of the pixel of interest of the first time and the smoothed value ⁇ calculated in step S394 as a built-in synthetic sensitivity compensation LUT ( The same value as that of the composite sensitivity compensation LUT described above with reference to FIGS. 90 to 92) is used, and the obtained value is used as the pixel value corresponding to the first target pixel of the G-spot image. The process returns to step S391.
  • step S393 If it is determined in step S393 that the color of the pixel of interest is not G for the first time, steps S394 and S395 are skipped, and the process returns to step S391. Thereafter, the processing of steps S391 to S395 is repeated until it is determined in step S391 that all the pixels of the color ⁇ ⁇ sensitivity mosaic image have been determined to be the first target pixel. If it is determined in 391 that all the pixels of the color 'sensitivity mosaic image have been set as the first pixel of interest, the process proceeds to step S396. In step S396, the interpolation unit 201-G determines whether or not all pixels of the color 'sensitivity mosaic image have been set as the second target pixel, and determines all pixels as the second target pixel.
  • step S397 the interpolation unit 201-G determines the pixel of interest for the second time in order, one pixel at a time from the lower left pixel to the upper right pixel of the color 'sensitivity mosaic image.
  • step S398 the interpolation unit 201-G determines whether or not the color of the pixel of interest for the second time is G. If it is determined that the color is not G, the process proceeds to step S399.
  • step S399 the interpolation unit 201-G performs vertical selective smoothing using the four pixels positioned vertically and horizontally adjacent to the target pixel of the second time, and performs smoothing. Calculate the chemical value.
  • step S400 the interpolation unit 201-G sets the smoothed value ⁇ calculated in step S399 as the pixel value corresponding to the second target pixel of the G candidate image. The process returns to step S396.
  • step S398 If it is determined in step S398 that the color of the pixel of interest is R for the second time, steps S399 and S400 are skipped, and the process returns to step S396.
  • step S396 the processing of steps S396 to S400 is repeated until it is determined that all the pixels of the color 'sensitivity mosaic image have been set as the second target pixel.
  • step S396 when it is determined that all the pixels of the color-sensitivity mosaic image have been set as the second target pixel, the R candidate image generation processing ends.
  • a luminance image and a single-color image are generated from a color / sensitivity mosaic image, and then all colors are used by utilizing the correlation between luminance and color components.
  • the luminance image generated first may have biased spectral characteristics as long as it has a correlation with the color information to be restored and can be restored at high resolution.
  • a color mosaic image of a color sensitivity mosaic image is a Bayer array, and the G pixel is twice as large as the R and B pixels.
  • an image of the G component may be generated, and an image of the R component and an image of the B component may be generated using the correlation between G and R or G and B.
  • an image processing unit 7 may be configured as shown in FIG.
  • the luminance image generation unit 221 outputs by executing the same processing as the processing of the interpolation unit 201 (FIG. 84) of the monochrome image generation unit 182 in the fourth configuration example of the image processing unit 7 Generate image G.
  • the monochrome image generators 222, 223 perform the same processing as the monochrome image generators 182, 184 in the fourth configuration example of the image processor 7, respectively.
  • the above-described series of processing can be executed by hardware, but can also be executed by software.
  • the programs that make up the software execute various functions by installing a computer built into dedicated hardware or by installing various programs For example, it is installed from a recording medium to a general-purpose personal computer.
  • this recording medium is a magnetic disk 16 (including a floppy disk) on which the program is recorded and an optical disk 17 which are distributed separately from the computer to provide the program to users.
  • CD-ROM Compact Disc-Read Only Memory
  • DVD Digital Versatile Disc
  • magneto-optical disk 18 including MD (Mini Disc)
  • package media consisting of semiconductor memory 19
  • it is composed of a ROM or hard disk, etc., in which programs are stored and provided to the user in a state of being installed in a computer in advance.
  • steps for describing a program recorded on a recording medium are not limited to processing performed in chronological order according to the order described, but are not necessarily performed in chronological order. It also includes the processing executed in Industrial applicability
  • the sensitivity of each pixel is made uniform, and it is possible to generate a restored image in which each pixel has all of the plurality of color components.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Color Television Image Signal Generators (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Description

明細書
画像処理装置 技術分野
本発明は、 画像処理装置に関し、 例えば、 単板式 CCDイメージセンサ等を用 いて取得した画像信号から、 広ダイナミックレンジのカラー画像信号を生成する 場合に用いて好適な画像処理装置に関する。 背景技術
CCD (Charge Coupled Device)や CMOS (Complementary Mental-Oxide Semiconau ctor)等のような固体撮像素子が、ビデオカメラやディジタルスチルカメラ等の撮 像装置、 F A (Factory Automation)の分野における部品検査装置、 および M E (M edical Electronics)の分野における電子内視鏡等の光計測装置に幅広く利用さ れている。
従来、 固体撮像素子を用いた撮像装置および光計測機器のダイナミックレンジ を向上させるために、 画素毎に異なる感度で計測した光強度信号を合成する方法 が知られている。 以下、 そのような第 1乃至第 4の従来方法について説明する。 第 1の従来方法としては、 光学的に複数の透過率の異なる光軸に分岐させた入 射光をそれぞれの光軸上に配置させた固体撮像素子で計測する方法を挙げること ができる。 この方法は、 特開平 8 _ 2 2 3 4 9 1号公報等に開示されている。 し かしながら、 第 1の方法では、 複数の固体撮像素子および光を分岐させる複雑な 光学系が必要となるので、 省コスト化ゃ省スペース化の面で不利である問題があ つた。
第 2の従来方法としては、 1つの固体撮像素子を用い、 その露光時間を複数に 分割して複数枚の画像を撮像した後、 それらを合成する方法を挙げることができ る。 この方法は、 特開平 8— 3 3 1 4 6 1号公報等に開示されている。 しかしな がら、 第 2の方法では、 異なる感度で計測された情報は異なる時刻に撮像された ものであり、 かつ、 異なる時間幅で撮像されているので、 光強度が時々刻々と変 化するような動的なシーンを正しく撮像できないという問題があった。
第 3の従来方法としては、 1つの固体撮像素子を用い、 固体撮像素子の撮像面 で互いに隣接する複数の受光素子を 1組として、 受光素子の 1組を出力画像の 1 画素に対応させるようにし、 1組を構成する複数の受光素子の感度をそれぞれ異 なるように設定して撮像する方法を挙げることができる。 この方法は、 米国特許 第 5 7 8 9 7 3 7号公報に開示されている。 固体撮像素子を構成する受光素子の それぞれの感度を変化させる方法としては、 各受光素子を透過率の異なるフィル タで覆う方法がある。 また、 特開 2 0 0 0— 6 9 4 9 1号公報には、 第 3の従来 方法をカラー画像に適応する技術が開示されている。
第 3の従来方法によれば、 第 1の従来方法において問題であった省コスト化ゃ 省スペース化の面で有利となる。 また、 第 2の従来方法において問題であった動 的シーンを正しく撮像できないことを解決することができる。 しかしながら、 第 3の従来方法では、 隣接する'複数の受光素子を 1組として出力画像の 1画素に対 応させるので、 出力画素の解像度を確保するためには、 出力画像の画素数の数倍 の受光素子から成る撮像素子が必要であり、 ュニットセルサイズが大きくなる課 題があった。
第 4の従来方法としては、 通常のダイナミックレンジを有する撮像素子に、 出 力画像の 1画素に対応する 1つの受光素子毎、 その露出が異なるような仕組みを 施して撮像し、 得られた画像信号に所定の画像処理を施して広ダイナミックレン ジの画像信号を生成する方法を挙げることができる。 受光素子毎の露出が異なる ような仕組みは、受光素子毎に光の透過率や開口率を変えたりすることによって、 空間的な感度のパターンをつくることにより実現する。 この方法は、 文献 「S. K. Nayar and T. Mitsunaga, High Dynamic Range Imaging '- Spatially Varying Pix el Exposures , Proc. of Computer Vision and Pattern Recognition 2000, Vol. 1, pp. 472-479, June, 2000」 に開示されている。
第 4の従来方法では、 各受光素子は 1種類の感度だけを有する。 よって、 撮像 された画像の各画素は本来の撮像素子が有するダイナミックレンジの情報しか取 得することができないが、 得られた画像信号に所定の画像処理を施し、 全ての画 素の感度が均一になるようにすることによって、 結果的にダイナミックレンジが 広い画像を生成することができる。また、全ての受光素子が同時に露光するので、 動きのある被写体を正しく撮像することができる。 さらに、 1つの受光素子が出 力画像の 1画素に対応しているので、 ュ-ットセルサイズが大きくなる問題も生 じない。
上述したように、 第 4の従来方法は、 第 1乃至第 3の従来方法の問題を解決す ることが可能である。 しかしながら、 第 4の従来方法は、 モノクロ画像を生成す ることを前提としたものであり、 カラー画像を生成することについては、 その技 術が確立されていない課題があった。 具体的には、 画素毎に色や感度が異なる画 像から、 全ての画素について、 全ての色成分の画像信号を生成し、 かつ、 感度を 均一化する技術は従来確立されていない課題があつた。 発明の開示
本発明はこのような状況に鑑みてなされたものであり、 画素毎に色や感度が異 なる色 ·感度モザイク画像を用いて、 各画素の感度特性が均一化されており、 か つ、 各画素が複数の色成分の全ての色成分を有する復元画像を生成できるように することを目的とする。
本発明の第 1の画像処理装置は、 各画素が複数の色成分のうちのいずれかの色 成分、および光強度に対する複数の感度特性のうちのいずれかの感度特性を有し、 かつ、 同一の色成分および感度特性を有する複数の画素が格子状に配置されると ともに、 感度特性に拘わらず、 同一の色成分を有する複数の画素が格子状に配置 された色■感度モザイク画像に基づき、各画素の感度が均一化されており、かつ、 各画素が複数の色成分の全ての色成分を有する復元画像を復元する復元手段を含 むことを特徴とする。
前記復元手段は、 色 ·感度モザイク画像の感度特性の配列を示す感度モザイク パターン情報、 およぴ色 ·感度モザイク画像の色成分の配列を示す色モザイクパ ターン情報に基づき、 色 ·感度モザイク画像に対応する輝度画像を生成する輝度 画像生成手段と、 感度モザイクパターン情報、 色モザイクパターン情報、 および 輝度画像に基づき、 色 ·感度モザイク画像に対応する単色画像を生成する複数の 単色画像生成手段とを含むことができる。
前記輝度画像生成手段は、 色 ·感度モザイク画像の各画素に対応する色成分の 推定値を算出する複数の推定手段と、 複数の推定手段がそれぞれ算出した複数の 推定値を用いて、 色 ·感度モザイク画像の各画素に対応する輝度候補値を算出す る輝度候補値算出手段とを含むことができる。
前記推定手段は、 複数の感度特性にそれぞれ対応する複数の推定値候補を算出 し、 複数の推定値候補を加算して、 その和に生じている感度特性の非線形性を補 償することによって推定値を算出するようにすることができる。
前記輝度画像生成手段は、 輝度候補値のノィズ成分を除去して輝度値を生成す るノイズ除去手段をさらに含むことができる。
前記単色画像生成手段は、 感度モザイクパターン情報、 および色モザイクパタ ーン情報に基づき、 色 ·感度モザイク画像に対応する単色画像候捕を生成する単 色画像候補生成手段と、 輝度画像に基づき、 単色画像候補を修正して単色画像を 生成する修正手段とを含むことができる。
前記単色画像候補生成手段は、 複数の感度特性にそれぞれ対応する複数の単色 候補値を算出し、 複数の単色候補値を加算して、 その和に生じている感度特性の 非線形性を補償することにより、 単色画像候補の画素値を算出して単色画像候補 を生成するようにすることができる。
前記単色画像候補生成手段は、 方向選択的平滑化処理を用いて、 色 ·感度モザ イク画像に対応する単色画像候補を生成するようにすることができる。
本発明の第 1の画像処理装置は、 被写体を撮像し、 色 ·感度モザィク画像を生 成する撮像手段をさらに含むことができる。
前記復元手段は、 色 ·感度モザイク画像の感度特性の配列を示す感度モザィク パターン情報に基づき、 各画素が有する感度特性を均一化する感度特性均一化手 段と、 色 ·感度モザイク画像の色成分の配列を示す色モザイクパターン情報に基 づき、 各画素の色成分を補間する色補間手段とを含むことができる。
前記感度特性均一化手段は、 感度モザイクパターン情報、 および色モザイクパ ターン情報に基づき、 色■感度モザイク画像の各画素が有する感度特性を均一化 して色モザイク画像を生成するようにすることができ、 前記色補間手段は、 色モ ザィクパターン情報に基づき、 色モザィク画像の各画素の色成分を補間して復元 画像を生成するようにすることができる。
前記感度特性均一化手段は、 感度モザイクパターン情報、 および色モザイクパ ターン情報に基づき、 色■感度モザイク画像の各画素が有する色成分の種類を変 更することなく、 その感度特性を均一化して色モザィク画像を生成するようにす ることができる。
前記感度特性均一化手段は、 感度モザイクパターン情報、 および色モザイクパ ターン情報に基づき、 色■感度モザイク画像の各画素が有する感度特性を均一化 して色モザイク画像を生成し、 色モザイクパターン情報を更新するようにするこ とができる。
前記感度均一化手段は、 感度モザイクパターン情報に基づき、 色 ·感度モザィ ク画像の各画素が有する色成分を補償する補償手段と、 感度モザイクパターン情 報に基づき、 色 ·感度モザイク画像の各画素が有する色成分の有効性を判別する 判別手段と、 判別手段の判別結果に対応して、 補償手段が補償した各画素が有す る色成分を補間処理によって修正する修正手段とを含むことができる。
前記感度均一化手段は、 感度モザイクパターン情報に基づき、 色 ·感度モザィ ク画像の推定画素値を算出する算出手段と、 算出手段が算出した推定画素値を捕 正する補正手段とを含むことができる。
前記色補間手段は、 感度モザイクパターン情報、 および色モザイクパターン情 報に基づき、 色 '感度モザイク画像の各画素に対し、 その感度特性を変更するこ となく、 全ての色成分を捕間して各色成分の感度モザイク画像を生成するように することができ、 前記感度特性均一化手段は、 感度モザイクパターン情報に基づ き、 感度モザイク画像の各画素が有する感度特性を均一化して復元画像を生成す るようにすることができる。
前記色補間手段は、 色■感度モザイク画像から同一の感度特性を有する画素を 抽出する抽出手段と、 抽出手段が抽出した各画素に対し、 全ての色成分を補間す る全色成分捕間手段と、全色成分補間手段が全ての色成分を補間した画素のうち、 同一の色成分を有し、 かつ、 異なる感度特性を有する画素を合成して感度モザィ ク画像を生成する合成手段とを含むことができる。
本発明の第 1の画像処理方法は各画素が複数の色成分のうちのいずれかの色成 分、 および光強度に対する複数の感度特性のうちのいずれかの感度特性を有し、 かつ、 同一の色成分および感度特性を有する複数の画素が格子状に配置されると ともに、 感度特性に拘わらず、 同一の色成分を有する複数の画素が格子状に配置 された色'感度モザイク画像に基づき、各画素の感度が均一化されており、かつ、 各画素が複数の色成分の全ての色成分を有する復元画像を復元する復元ステップ を含むことを特徴とする。
前記復元ステップは、 色 ·感度モザイク画像の感度特性の配列を示す感度モザ イクパターン情報、 および色 ·感度モザイク画像の色成分の配列を示す色モザィ クパターン情報に基づき、 色 ·感度モザイク画像に対応する輝度画像を生成する 輝度画像生成ステツプと、感度モザィクパターン情報、色モザィクパターン情報、 および輝度画像に基づき、 色 ·感度モザイク画像に対応する単色画像を生成する 複数の単色画像生成ステップとを含むことができる。
前記輝度画像生成ステップは、 色 ·感度モザイク画像の各画素に対応する色成 分の推定値を算出する複数の推定ステップと、 複数の推定ステップの処理でそれ ぞれ算出された複数の推定値を用いて、 色 ·感度モザイク画像の各画素に対応す る輝度候補値を算出する輝度候補値算出ステップとを含むことができる。
前記推定ステップの処理は、 複数の感度特性にそれぞれ対応する複数の推定値 候補を算出し、 複数の推定値候補を加算して、 その和に生じている感度特性の非 線形性を補償することによって推定値を算出するようにすることができる。
前記輝度画像生成ステップは、 輝度候補値のノイズ成分を除去して輝度値を生 成するノィズ除去ステツプをさらに含むことができる。
前記単色画像生成ステップは、 感度モザイクパターン情報、 およぴ色モザイク パターン情報に基づき、 色 ·感度モザイク画像に対応する単色画像候補を生成す る単色画像候補生成ステップと、 輝度画像に基づき、 単色画像候補を修正して単 色画像を生成する修正ステップとを含むことができる。
前記単色画像候補生成ステップの処理は、 複数の感度特性にそれぞれ対応する 複数の単色候補値を算出し、 複数の単色候補値を加算して、 その和に生じている 感度特性の非線形性を補償することにより、 単色画像候補の画素値を算出して単 色画像候補を生成するようにすることができる。
前記単色画像候補生成ステップの処理は、方向選択的平滑化処理を用いて、色 - 感度モザイク画像に対応する単色画像候補を生成するようにすることができる。 本発明の第 1の画像処理方法は、 被写体を撮像し、 色 '感度モザイク画像を生 成する撮像ステップをさらに含むことができる。
前記復元ステップは、 色 ·感度モザイク画像の感度特性の配列を示す感度モザ イクパターン情報に基づき、 各画素が有する感度特性を均一化する感度特性均一 化ステップと、 色 ·感度モザイク画像の色成分の配列を示す色モザイクパターン 情報に基づき、各画素の色成分を補間する色補間ステップとを含むことができる。 前記感度特性均一化ステップの処理は、 感度モザイクパターン情報、 および色 モザイクパターン情報に基づき、 色■感度モザイク画像の各画素が有する感度特 性を均一化して色モザイク画像を生成し、 色補間ステップの処理は、 色モザイク パターン情報に基づき、 色モザイク画像の各画素の色成分を補間して復元画像を 生成するようにすることができる。
前記感度特性均一化ステップの処理は、 感度モザイクパターン情報、 およぴ色 モザイクパターン情報に基づき、 色■感度モザイク画像の各画素が有する色成分 の種類を変更することなく、 その感度特性を均一化して色モザイク画像を生成す るようにすることができる。
前記感度特性均一化ステップの処理は、 感度モザイクパターン情報、 およぴ色 モザイクパターン情報に基づき、 色 ·感度モザイク画像の各画素が有する感度特 性を均一化して色モザイク画像を生成し、 色モザィクパターン情報を更新するよ うにすることができる。
前記感度均一化ステップは、 度モザイクパターン情報に基づき、 色 ·感度モザ イク画像の各画素が有する色成分を補償する補償ステップと、 感度モザイクパタ ーン情報に基づき、 色■感度モザイク画像の各画素が有する色成分の有効性を判 別する判別ステップと、 判別手段の判別結果に対応して、 補償ステップの処理で 補償された各画素が有する色成分を補間処理によって修正する修正ステップとを 含むことができる。
前記感度均一化ステップは、 感度モザイクパターン情報に基づき、 色 '感度モ ザイク画像の推定画素値を算出する算出ステップと、 算出ステップの処理で算出 された推定画素値を補正する補正ステップとを含むことができる。
前記色捕間ステップの処理は、 感度モザイクパターン情報、 および色モザイク パターン情報に基づき、 色 ·感度モザイク画像の各画素に対し、 その感度特性を 変更することなく、 全ての色成分を補間して各色成分の感度モザィク画像を生成 するようにすることができ、 前記感度特性均一化ステップの処理は、 感度モザィ クパターン情報に基づき、 感度モザイク画像の各画素が有する感度特性を均一化 して復元画像を生成するようにすることができる。
前記色補間ステップは、 色 '感度モザイク画像から同一の感度特性を有する画 素を抽出する抽出ステップと、 抽出ステップの処理で抽出された各画素に対し、 全ての色成分を補間する全色成分補間ステップと、 全色成分補間ステップの処理 で全ての色成分が捕間された画素のうち、 同一の色成分を有し、 かつ、 異なる感 度特性を有する画素を合成して感度モザイク画像を生成する合成ステップとを含 むことができる。
本発明の第 1の記録媒体のプログラムは、 各画素が複数の色成分のうちのいず れかの色成分、 および光強度に対する複数の感度特性のうちのいずれかの感度特 性を有し、 かつ、 同一の色成分および感度特性を有する複数の画素が格子状に配 置されるとともに、 感度特性に拘わらず、 同一の色成分を有する複数の画素が格 子状に配置された色 ·感度モザイク画像に基づき、 各画素の感度が均一化されて おり、 かつ、 各画素が複数の色成分の全ての色成分を有する復元画像を復元する 復元ステップを含むことを特徴とする。
前記復元ステップは、 色■感度モザイク画像の感度特性の配列を示す感度モザ イクパターン情報、 および色■感度モザイク画像の色成分の配列を示す色モザィ クパターン情報に基づき、 色■感度モザイク画像に対応する輝度画像を生成する 輝度画像生成ステツプと、感度モザィクパターン情報、色モザィクパターン情報、 および輝度画像に基づき、 色■感度モザイク画像に対応する単色画像を生成する 複数の単色画像生成ステップとを含むことができる。
前記輝度画像生成ステップは、 色 ·感度モザイク画像の各画素に対応する色成 分の推定値を算出する複数の推定ステップと、 複数の推定ステップの処理でそれ ぞれ算出された複数の '推定値を用いて、 色■感度モザイク画像の各画素に対応す る輝度候補値を算出する輝度候補値算出ステップとを含むことができる。
前記推定ステップの処理は、 複数の感度特性にそれぞれ対応する複数の推定値 候捕を算出し、 複数の推定値候補を加算して、 その和に生じている感度特性の非 線形性を補償することによって推定値を算出するようにすることが.できる。 前記輝度画像生成ステップは、 輝度候補値のノイズ成分を除去して輝度値を生 成するノイズ除去ステップをさらに含むことができる。
前記単色画像生成ステップは、 感度モザイクパターン情報、 および色モザイク パターン情報に基づき、 色 ·感度モザイク画像に対応する単色画像候補を生成す る単色画像候補生成ステップと、 輝度画像に基づき、 単色画像候補を修正して単 色画像を生成する修正ステップとを含むことができる。
前記単色画像候補生成ステップの処理は、 複数の感度特性にそれぞれ対応する 複数の単色候補値を算出し、 複数の単色候補値を加算して、 その和に生じている 感度特性の非線形性を捕償することにより、 単色画像候補の画素値を算出して単 色画像候補を生成するようにすることができる。
前記単色画像候補生成ステップの処理は、方向選択的平滑化処理を用いて、色 - 感度モザイク画像に対応する単色画像候補を生成するようにすることができる。 本発明の第 1の記録媒体のプログラムは、 被写体を撮像し、 色 ·感度モザィク 画像を生成する処理を制御する撮像制御ステップをさらに含むことができる。 前記復元ステップは、 色 ·感度モザイク画像の感度特性の配列を示す感度モザ イクパターン情報に基づき、 各画素が有する感度特性を均一化する感度特性均一 化ステップと、 色 '感度モザイク画像の色成分の配列を示す色モザイクパターン 情報に基づき、各画素の色成分を補間する色補間ステップとを含むことができる。 前記感度特性均一化ステップの処理は、 感度モザイクパターン情報、 および色 モザイクパターン情報に基づき、 色 ·感度モザイク画像の各画素が有する感度特 性を均一化して色モザイク画像を生成し、 色補間ステップの処理は、 色モザイク パターン情報に基づき、 色モザイク画像の各画素の色成分を補間して復元画像を 生成するようにすることができる。
前記感度特性均一化ステップの処理は、 感度モザイクパターン情報、 およぴ色 モザイクパターン情報に基づき、 色 ·感度モザイク画像の各画素が有する色成分 の種類を変更することなく、 その感度特性を均一化して色モザイク画像を生成す るようにすることができる。
前記感度特性均一化ステップの処理は、 感度モザイクパターン情報、 およぴ色 モザイクパターン情報に基づき、 色 ·感度モザイク画像の各画素が有する感度特 性を均一化して色モザイク画像を生成し、 色モザイクパターン情報を更新するよ うにすることができる。
前記感度均一化ステップは、 度モザイクパターン情報に基づき、 色 '感度モザ イク画像の各画素が有する色成分を補償する補償ステップと、 感度モザイクパタ ーン情報に基づき、 色■感度モザイク画像の各画素が有する色成分の有効性を判 別する判別ステップと、 判別手段の判別結果に対応して、 補償ステップの処理で 補償された各画素が有する色成分を補間処理によって修正する修コ 含むことができる。
前記感度均一化ステップは、 感度モザイクパターン情報に基づき、 色 '感度モ ザイク画像の推定画素値を算出する算出ステップと、 算出ステップの処理で算出 された推定画素値を補正する補正ステップとを含むことができる。
前記色捕間ステップの処理は、 感度モザイクパターン情報、 およぴ色モザイク パターン情報に基づき、 色 '感度モザイク画像の各画素に対し、 その感度特性を 変更することなく、 全ての色成分を補間して各色成分の感度モザイク画像を生成 するようにすることができ、 前記感度特性均一化ステップの処理は、 感度モザィ クパターン情報に基づき、 感度モザイク画像の各画素が有する感度特性を均一化 して復元画像を生成するようにすることができる。
前記色補間ステップは、 色 ·感度モザイク画像から同一の感度特性を有する画 素を抽出する抽出ステップと、 抽出ステツプの処理で抽出された各画素に対し、 全ての色成分を補間する全色成分補間ステップと、 全色成分補間ステップの処理 で全ての色成分が補間された画素のうち、 同一の色成分を有し、 かつ、 異なる感 度特性を有する画素を合成して感度モザイク画像を生成する合成ステップとを含 むことができる。
本発明の第 1のプログラムは、 各画素が複数の色成分のうちのいずれかの色成 分、 および光強度に対する複数の感度特性のうちのいずれかの感度特性を有し、 かつ、 同一の色成分および感度特性を有する複数の画素が格子状に配置されると ともに、 感度特性に拘わらず、 同一の色成分を有する複数の画素が格子状に配置 された色'感度モザィク画像に基づき、各画素の感度が均一化されており、かつ、 各画素が複数の色成分の全ての色成分を有する復元画像を復元する復元ステップ をコンピュータに実行させることを特徴とする。
前記復元ステップは、 色 ·感度モザイク画像の感度特性の配列を示す感度モザ イクパターン情報、 および色 ·感度モザイク画像の色成分の配列を示す色モザィ クパターン情報に基づき、 色■感度モザイク画像に対応する輝度画像を生成する 輝度画像生成ステツプと、感度モザィクパターン情報、色モザィクパターン情報、 および輝度画像に基づき、 色,感度モザイク画像に対応する単色画像を生成する 複数の単色画像生成ステップとを含むことができる。
前記輝度画像生成ステップは、 色 ·感度モザイク画像の各画素に対応する色成 分の推定値を算出する複数の推定ステップと、 複数の推定ステップの処理でそれ ぞれ算出された複数の推定値を用いて、 色 ·感度モザイク画像の各画素に対応す る輝度候補値を算出する輝度候補値算出ステップとを含むことができる。
前記推定ステップの処理は、 複数の感度特性にそれぞれ対応する複数の推定値 候補を算出し、 複数の推定値候補を加算して、 その和に生じている感度特性の非 線形性を補償することによって推定値を算出するようにすることができる。
前記輝度画像生成ステップは、 輝度候補値のノィズ成分を除去して輝度値を生 成するノィズ除去ステップをさらに含むことができる。
前記単色画像生成ステップは、 感度モザイクパターン情報、 および色モザイク パターン情報に基づき、 色■感度モザイク画像に対応する単色画像候補を生成す る単色画像候補生成ステップと、 輝度画像に基づき、 単色画像候補を修正して単 色画像を生成する修正ステップとを含むことができる。
前記単色画像候補生成ステップの処理は、 複数の感度特性にそれぞれ対応する 複数の単色候捕値を算出し、 複数の単色候補値を加算して、 その和に生じている 感度特性の非線形性を補償することにより、 単色画像候補の画素値を算出して単 色画像候補を生成するようにすることができる。
前記単色画像候補生成ステップの処理は、方向選択的平滑化処理を用いて、色 - 感度モザィク画像に対応する単色画像候補を生成するようにすることができる。 本発明の第 1のプログラムは、 被写体を撮像し、 色 ·感度モザイク画像を生成 する処理を制御する撮像制御ステップをさらに含むことができる。
前記復元ステップは、 色■感度モザイク画像の感度特性の配列を示す感度モザ イクパターン情報に基づき、 各画素が有する感度特性を均一化する感度特性均一 化ステップと、 色 .感度モザイク画像の色成分の配列を示す色モザイクパターン 情報に基づき、各画素の色成分を補間する色補間ステップとを含むことができる。 前記感度特性均一化ステップの処理は、 感度モザイクパターン情報、 および色 モザイクパターン情報に基づき、 色 ·感度モザイク画像の各画素が有する感度特 性を均一化して色モザイク画像を生成し、 色補間ステップの処理は、 色モザイク パターン情報に基づき、 色モザイク画像の各画素の色成分を補間して復元画像を 生成するようにすることができる。
前記感度特性均一化ステップの処理は、 感度モザイクパターン情報、 および色 モザイクパターン情報に基づき、 色 ·感度モザイク画像の各画素が有する色成分 の種類を変更することなく、 その感度特性を均一化して色モザィク画像を生成す るようにすることができる。
前記感度特性均一化ステップの処理は、 感度モザイクパターン情報、 および色 モザイクパターン情報に基づき、 色 ·感度モザイク画像の各画素が有する感度特 性を均一化して色モザイク画像を生成し、 色モザイクパターン情報を更新するよ うにすることができる。
前記感度均一化ステップは、 度モザイクパターン情報に基づき、 色■感度モザ イク画像の各画素が有する色成分を補償する補償ステップと、 感度モザイクパタ ーン情報に基づき、 色 ·感度モザイク画像の各画素が有する色成分の有効性を判 別する判別ステップと、 判別手段の判別結果に対応して、 捕償ステップの処理で 補償された各画素が有する色成分を補間処理によって修正する修正ステップとを 含むことができる。
前記感度均一化ステップは、 感度モザイクパターン情報に基づき、 色 .感度モ ザイク画像の推定画素値を算出する算出ステップと、 算出ステップの処理で算出 された推定画素値を補正する補正ステップとを含むことができる。
前記色補間ステップの処理は、 感度モザイクパターン情報、 および色モザイク パターン情報に基づき、 色 ·感度モザイク画像の各画素に対し、 その感度特性を 変更することなく、 全ての色成分を補間して各色成分の感度モザィク画像を生成 するようにすることができ、 前記感度特性均一化ステップの処理は、 感度モザィ クパターン情報に基づき、 感度モザイク画像の各画素が有する感度特性を均一化 して復元画像を生成するようにすることができる。
前記色補間ステップは、 色 ·感度モザイク画像から同一の感度特性を有する画 素を抽出する抽出ステップと、 抽出ステップの処理で抽出された各画素に対し、 全ての色成分を補間する全色成分捕間ステップと、 全色成分補間ステップの処理 で全ての色成分が補間された画素のうち、 同一の色成分を有し、 かつ、 異なる感 度特性を有する画素を合成して感度モザイク画像を生成する合成ステップとを含 むことができる。
本発明の第 2の画像処理装置は、 各画素が複数の色成分のうちのいずれかの色 成分、および光強度に対する複数の感度特性のうちのいずれかの感度特性を有し、 かつ同一の色成分および感度特性を有する複数の画素が格子状に配置されるとと もに、 色成分に拘わらず、 同一の感度特性を有する複数の画素が格子状に配置さ れ、 さらに、 任意の画素と任意の画素の上下左右に隣接する 4画素の合計 5画素 の中には全ての色成分が存在する色 ·感度モザイク画像に基づき、 各画素の感度 が均一化されており、 かつ、 各画素が複数の色成分の全ての色成分を有する復元 画像を復元する復元手段を含むことを特徴とする。
前記復元手段は、 色 ·感度モザイク画像の感度特性の配列を示す感度モザイク パターン情報、 および色 '感度モザイク画像の色成分の配列を示す色モザイクパ ターン情報に基づき、 色■感度モザイク画像に対応する輝度画像を生成する輝度 画像生成手段と、 感度モザイクパターン情報、 色モザイクパターン情報、 および 輝度画像に基づき、 色 ·感度モザイク画像に対応する単色画像を生成する複数の 単色画像生成手段とを含むことができる。
前記輝度画像生成手段は、 色 ·感度モザイク画像の各画素に対応する色成分の 推定値を算出する複数の推定手段と、 複数の推定手段がそれぞれ算出した複数の 推定値を用いて、 色■感度モザイク画像の各画素に対応する輝度候補値を算出す る輝度候補値算出手段とを含むことができる。
前記推定手段は、 複数の感度特性にそれぞれ対応する複数の推定値候補を算出 し、 複数の推定値候補を加算して、 その和に生じている感度特性の非線形性を捕 償することによって推定値を算出するようにすることができる。
前記輝度画像生成手段は、 輝度候補値のノィズ成分を除去して輝度値を生成す るノイズ除去手段をさらに含むことができる。
前記単色画像生成手段は、 感度モザイクパターン情報、 および色モザイクパタ ーン情報に基づき、 色 ·感度モザイク画像に対応する単色画像候補を生成する単 色画像候補生成手段と、 輝度画像に基づき、 単色画像候補を修正して単色画像を 生成する修正手段とを含むことができる。
前記単色画像候補生成手段は、 複数の感度特性にそれぞれ対応する複数の単色 候捕値を算出し、 複数の単色候補値を加算して、 その和に生じている感度特性の 非線形性を補償することにより、 単色画像候補の画素値を算出して単色画像候補 を生成するようにすることができる。
前記単色画像候補生成手段は、 方向選択的平滑化処理を用いて、 色■感度モザ イク画像に対応する単色画像候補を生成するようにすることができる。
本発明の第 2の画像処理装置は、 被写体を撮像し、 色■感度モザイク画像を生 成する撮像手段をさらに含むことができる。
前記復元手段は、 色 ·感度モザイク画像の感度特性の配列を示す感度モザイク パターン情報に基づき、 各画素が有する感度特性を均一化する感度特性均一化手 段と、 色 ·感度モザイク画像の色成分の配列を示す色モザイクパターン情報に基 づき、 各画素の色成分を補間する色補間手段とを含むことができる。
前記感度特性均一化手段は、 感度モザイクパターン情報、 および色モザイクパ ターン情報に基づき、 色 '感度モザイク画像の各画素が有する感度特性を均一化 して色モザイク画像を生成するようにすることができ、 前記色補間手段は、 色モ ザイクパターン情報に基づき、 色モザイク画像の各画素の色成分を補間して復元 画像を生成するようにすることができる。
前記感度特性均一化手段は、 感度モザイクパターン情報、 および色モザイクパ ターン情報に基づき、 色 ·感度モザイク画像の各画素が有する色成分の種類を変 更することなく、 その感度特性を均一化して色モザイク画像を生成するようにす ることができる。
前記感度特性均一化手段は、 感度モザイクパターン情報、 および色モザイクパ ターン情報に基づき、 色 ·感度モザイク画像の各画素が有する感度特性を均一化 して色モザイク画像を生成し、 色モザイクパターン情報を更新するようにするこ とができる。
前記感度均一化手段は、 感度モザイクパターン情報に基づき、 色■感度モザィ ク画像の各画素が有する色成分を補償する補償手段と、 感度モザイクパターン情 報に基づき、 色 ·感度モザイク画像の各画素が有する色成分の有効性を判別する 判別手段と、 判別手段の判別結果に対応して、 補償手段が補償した各画素が有す る色成分を補間処理によって修正する修正手段とを含むことができる。
前記感度均一化手段は、 感度モザイクパターン情報に基づき、 色■感度モザィ ク画像の推定画素値を算出する算出手段と、 算出手段が算出した推定画素値を補 正する補正手段とを含むことができる。
前記色補間手段は、 感度モザイクパターン情報、 および色モザイクパターン情 報に基づき、 色■感度モザイク画像の各画素に対し、 その感度特性を変更するこ -となく、 全ての色成分を補間して各色成分の感度モザイク画像を生成するように することができ、 前記感度特性均一化手段は、 感度モザイクパターン情報に基づ き、 感度モザイク画像の各画素が有する感度特性を均一化して復元画像を生成す るようにすることができる。.
前記色補間手段は、 色■感度モザイク画像から同一の感度特性を有する画素を 抽出する抽出手段と、 抽出手段が抽出した各画素に対し、 全ての色成分を補間す る全色成分補間手段と、全色成分補間手段が全ての色成分を補間した画素のうち、 同一の色成分を有し、 かつ、 異なる感度特性を有する画素を合成して感度モザィ ク画像を生成する合成手段とを含むことができる。
本発明の第 2の画像処理方法は、 各画素が複数の色成分のうちのいずれかの色 成分、および光強度に対する複数の感度特性のうちのいずれかの感度特性を有し、 かつ同一の色成分および感度特性を有する複数の画素が格子状に配置されるとと もに、 色成分に拘わらず、 同一の感度特性を有する複数の画素が格子状に配置さ れ、 さらに、 任意の画素と任意の画素の上下左右に隣接する 4画素の合計 5画素 の中には全ての色成分が存在する色■感度モザイク画像に基づき、 各画素の感度 が均一化されており、 かつ、 各画素が複数の色成分の全ての色成分を有する復元 画像を復元する復元ステップを含むことを特徴とする。
前記復元ステップは、 色 ·感度モザイク画像の感度特性の配列を示す感度モザ イクパターン情報、 および色 '感度モザイク画像の色成分の配列を示す色モザィ クパターン情報に基づき、 色 ·感度モザイク画像に対応する輝度画像を生成する 輝度画像生成ステップと、感度モザィクパターン情報、色モザィクパターン情報、 および輝度画像に基づき、 色■感度モザイク画像に対応する単色画像を生成する 複数の単色画像生成ステップとを含むことができる。
前記輝度画像生成ステップは、 色 ·感度モザイク画像の各画素に対応する色成 分の推定値を算出する複数の推定ステップと、 複数の推定ステップの処理でそれ ぞれ算出された複数の推定値を用いて、 色 ·感度モザイク画像の各画素に対応す る輝度候補値を算出する輝度候補値算出ステップとを含むことができる。
前記推定ステップの処理は、 複数の感度特性にそれぞれ対応する複数の推定値 候補を算出し、 複数の推定値候補を加算して、 その和に生じている感度特性の非 線形性を補償することによって推定値を算出するようにすることができる。 前記輝度画像生成ステップは、 輝度候補値のノイズ成分を除去して輝度値を生 成するノイズ除去ステップをさらに含むことができる。
前記単色画像生成ステップは、 感度モザイクパターン情報、 および色モザイク パターン情報に基づき、 色 ·感度モザイク画像に対応する単色画像候補を生成す る単色画像候補生成ステップと、 輝度画像に基づき、 単色画像候補を修正して単 色画像を生成する修正ステップとを含むことができる。
前記単色画像候補生成ステップの処理は、 複数の感度特性にそれぞれ対応する 複数の単色候補値を算出し、 複数の単色候補値を加算して、 その和に生じている 感度特性の非線形性を補償することにより、 単色画像候補の画素値を算出して単 色画像候補を生成するようにすることができる。
前記単色画像候補生成ステップの処理は、方向選択的平滑化処理を用いて、色 - 感度モザイク画像に対応する単色画像候補を生成するようにすることができる。 本発明の第 2の画像処理方法は、 被写体を撮像し、 色 ·感度モザイク画像を生 成する撮像ステップをさらに含むことができる。
前記復元ステップは、 色 ·感度モザイク画像の感度特性の配列を示す感度モザ イクパターン情報に基づき、 各画素が有する感度特性を均一化する感度特性均一 化ステップと、 色 ·感度モザイク画像の色成分の配列を示す色モザイクパターン 情報に基づき、各画素の色成分を補間する色補間ステップとを含むことができる。 前記感度特性均一化ステップの処理は、 感度モザイクパターン情報、 および色 モザイクパターン情報に基づき、 色 ·感度モザイク画像の各画素が有する感度特 性を均一化して色モザイク画像を生成するようにすることができ、 前記色捕間ス テツプの処理は、 色モザイクパターン情報に基づき、 色モザイク画像の各画素の 色成分を補間して復元画像を生成するようにすることができる。
前記感度特性均一化ステップの処理は、 感度モザイクパターン情報、 および色 モザイクパターン情報に基づき、 色 ·感度モザイク画像の各画素が有する色成分 の種類を変更することなく、 その感度特性を均一化して色モザィク画像を生成す るようにすることができる。
前記感度特性均一化ステップの処理は、 感度モザイクパターン情報、 および色 モザイクパターン情報に基づき、 色 ·感度モザイク画像の各画素が有する感度特 性を均一化して色モザィク画像を生成し、 色モザィクパターン情報を更新するよ うにすることができる。
前記感度均一化ステップは、 感度モザイクパターン情報に基づき、 色 '感度モ ザイク画像の各画素が有する色成分を補償する補償ステップと、 感度モザイクパ ターン情報に基づき、 色 ·感度モザイク画像の各画素が有する色成分の有効性を 判別する判別ステップと、 判別手段の判別結果に対応して、 補償ステップの処理 で捕償された各画素が有する色成分を捕間処理によつて修正する修正ステツプと を含むことができる。
前記感度均一化ステップは、 感度モザイクパターン情報に基づき、 色 ·感度モ ザイク画像の推定画素値を算出する算出ステップと、 算出ステップの処理で算出 された推定画素値を補正する補正ステップとを含むことができる。
前記色補間ステップの処理は、 感度モザイクパターン情報、 およぴ色モザイク パターン情報に基づき、 色 '感度モザイク画像の各画素に対し、 その感度特性を 変更することなく、 全ての色成分を補間して各色成分の感度モザィク画像を生成 するようにすることができ、 前記感度特性均一化ステップの処理は、 感度モザィ クパターン情報に基づき、 感度モザイク画像の各画素が有する感度特性を均一化 して復元画像を生成するようにすることができる。
前記色補間ステップは、 色 ·感度モザイク画像から同一の感度特性を有する画 素を抽出する抽出ステップと、 抽出ステップの処理で抽出された各画素に対し、 全ての色成分を補間する全色成分補間ステップと、 全色成分補間ステップの処理 で全ての色成分が補間された画素のうち、 同一の色成分を有し、 かつ、 異なる感 度特性を有する画素を合成して感度モザイク画像を生成する合成ステップとを含 むことができる。
本発明の第 2の記録媒体のプログラムは、 各画素が複数の色成分のうちのいず れかの色成分、 および光強度に対する複数の感度特性のうちのいずれかの感度特 性を有し、 かつ同一の色成分および感度特性を有する複数の画素が格子状に配置 されるとともに、 色成分に拘わらず、 同一の感度特性を有する複数の画素が格子 状に配置され、 さらに、 任意の画素と任意の画素の上下左右に隣接する 4画素の 合計 5画素の中には全ての色成分が存在する色 ·感度モザイク画像に基づき、 各 画素の感度が均一化されており、 かつ、 各画素が複数の色成分の全ての色成分を 有する復元画像を復元する復元ステップを含むことを特徴とする。
前記復元ステップは、 色 ·感度モザイク画像の感度特性の配列を示す感度モザ イクパターン情報、 および色■感度モザイク画像の色成分の配列を示す色モザィ クパターン情報に基づき、 色■感度モザイク画像に対応する輝度画像を生成する 輝度画像生成ステツプと、感度モザィクパターン情報、色モザィクパターン情報、 および輝度画像に基づき、 色 ·感度モザイク画像に対応する単色画像を生成する 複数の単色画像生成ステップとを含むことができる。
前記輝度画像生成ステップは、 色 ·感度モザイク画像の各画素に対応する色成 分の推定値を算出する複数の推定ステップと、 複数の推定ステップの処理でそれ ぞれ算出された複数の推定値を用いて、 色 '感度モザイク画像の各画素に対応す る輝度候補値を算出する輝度候補値算出ステップとを含むことができる。
前記推定ステップの処理は、 複数の感度特性にそれぞれ対応する複数の推定値 候補を算出し、 複数の推定値候補を加算して、 その和に生じている感度特性の非 線形性を補償することによって推定値を算出するようにすることができる。
前記輝度画像生成ステップは、 輝度候補値のノィズ成分を除去して輝度値を生 成するノイズ除去ステップをさらに含むことができる。
前記単色画像生成ステップは、 感度モザイクパターン情報、 および色モザイク パターン情報に基づき、 色 ·感度モザイク画像に対応する単色画像候補を生成す る単色画像候補生成ステップと、 輝度画像に基づき、 単色画像候補を修正して単 色画像を生成する修正ステップとを含むことができる。
前記単色画像候補生成ステップの処理は、 複数の感度特性にそれぞれ対応する 複数の単色候補値を算出し、 複数の単色候補値を加算して、 その和に生じている 感度特性の非線形性を補償することにより、 単色画像候補の画素値を算出して単 色画像候補を生成するようにすることができる。
前記単色画像候補生成ステップの処理は、方向選択的平滑化処理を用いて、色 - 感度モザイク画像に対応する単色画像候補を生成するようにすることができる。 本発明の第 2の記録媒体のプログラムは、 被写体を撮像し、 色 '感度モザイク 画像を生成する処理を制御する撮像制御ステップをさらに含むことができる。 前記復元ステップは、 色 ·感度モザイク画像の感度特性の配列を示す感度モザ イクパターン情報に基づき、 各画素が有する感度特性を均一化する感度特性均一 化ステップと、 色■感度モザイク画像の色成分の配列を示す色モザイクパターン 情報に基づき、各画素の色成分を補間する色補間ステップとを含むことができる。 前記感度特性均一化ステップの処理は、 感度モザイクパターン情報、 および色 モザイクパターン情報に基づき、 色 ·感度モザイク画像の各画素が有する感度特 性を均一化して色モザイク画像を生成するようにすることができ、 前記色補間ス テツプの処理は、 色モザイクパターン情報に基づき、 色モザイク画像の各画素の 色成分を補間して復元画像を生成するようにすることができる。
前記感度特性均一化ステップの処理は、 感度モザイクパターン情報、 およぴ色 モザイクパターン情報に基づき、 色■感度モザイク画像の各画素が有する色成分 の種類を変更することなく、 その感度特性を均一化して色モザイク画像を生成す るようにすることができる。
前記感度特性均一化ステップの処理は、 感度モザイクパターン情報、 および色 モザイクパターン情報に基づき、 色 ·感度モザイク画像の各画素が有する感度特 性を均一化して色モザイク画像を生成し、 色モザィクパターン情報を更新するよ うにすることができる。
前記感度均一化ステップは、 感度モザイクパターン情報に基づき、 色 '感度モ ザイク画像の各画素が有する色成分を補償する補償ステップと、 感度モザイクパ ターン情報に基づき、 色■感度モザイク画像の各画素が有する色成分の有効性を 判別する判別ステップと、 判別手段の判別結果に対応して、 補償ステップの処理 で補償された各画素が有する色成分を捕間処理によつて修正する修正ステツプと を含むことができる。
前記感度均一化ステップは、 感度モザイクパターン情報に基づき、 色 ·感度モ ザイク画像の推定画素値を算出する算出ステップと、 算出ステップの処理で算出 された推定画素値を補正する補正ステップとを含むことができる。
前記色補間ステップの処理は、 感度モザイクパターン情報、 および色モザイク パターン情報に基づき、 色 '感度モザイク画像の各画素に対し、 その感度特性を 変更することなく、 全ての色成分を補間して各色成分の感度モザィク画像を生成 するようにすることができ、 前記感度特性均一化ステップの処理は、 感度モザィ クパターン情報に基づき、 感度モザイク画像の各画素が有する感度特性を均一化 して復元画像を生成するようにすることができる。
前記色捕間ステップは、 色 ·感度モザイク画像から同一の感度特性を有する画 素を抽出する抽出ステップと、 抽出ステップの処理で抽出された各画素に対し、 全ての色成分を補間する全色成分補間ステップと、 全色成分補間ステップの処理 で全ての色成分が補間された画素のうち、 同一の色成分を有し、 かつ、 異なる感 度特性を有する画素を合成して感度モザイク画像を生成する合成ステップとを含 むことができる。
本発明の第 2のプログラムは、 各画素が複数の色成分のうちのいずれかの色成 分、 および光強度に対する複数の感度特性のうちのいずれかの感度特性を有し、 かつ同一の色成分および感度特性を有する複数の画素が格子状に配置されるとと もに、 色成分に拘わらず、 同一の感度特性を有する複数の画素が格子状に配置さ れ、 さらに、 任意の画素と任意の画素の上下左右に隣接する 4画素の合計 5画素 の中には全ての色成分が存在する色 ·感度モザイク画像に基づき、 各画素の感度 が均一化されており、 かつ、 各画素が複数の色成分の全ての色成分を有する復元 画像を復元する復元ステップをコンピュータに実行させることを特徴とする。 前記復元ステップは、 色 ·感度モザイク画像の感度特性の配列を示す感度モザ イクパターン情報、 およぴ色 ·感度モザイク画像の色成分の配列を示す色モザィ クパターン情報に基づき、 色 ·感度モザイク画像に対応する輝度画像を生成する 輝度画像生成ステップと、感度モザイクパターン情報、色モザイクパターン情報、 および輝度画像に基づき、 色 ·感度モザイク画像に対応する単色画像を生成する 複数の単色画像生成ステップとを含むことができる。
前記輝度画像生成ステップは、 色 ·感度モザイク画像の各画素に対応する色成 分の推定値を算出する複数の推定ステップと、 複数の推定ステップの処理でそれ ぞれ算出された複数の推定値を用いて、 色 ·感度モザイク画像の各画素に対応す る輝度候補値を算出する輝度候補値算出ステップとを含むことができる。 前記推定ステップの処理は、 複数の感度特性にそれぞれ対応する複数の推定値 候補を算出し、 複数の推定値候補を加算して、 その和に生じている感度特性の非 線形性を補償することによって推定値を算出するようにすることができる。
前記輝度画像生成ステップは、 輝度候補値のノィズ成分を除去して輝度値を生 成するノイズ除去ステップをさらに含むことができる。
前記単色画像生成ステップは、 感度モザイクパターン情報、 および色モザイク パターン情報に基づき、 色 ·感度モザイク画像に対応する単色画像候捕を生成す る単色画像候補生成ステップと、 輝度画像に基づき、 単色画像候補を修正して単 色画像を生成する修正ステップとを含むことができる。
前記単色画像候補生成ステップの処理は、 複数の感度特性にそれぞれ対応する 複数の単色候補値を算出し、 複数の単色候補値を加算して、 その和に生じている 感度特性の非線形性を補償することにより、 単色画像候補の画素値を算出して単 色画像候補を生成するようにすることができる。
前記単色画像候補生成ステップの処理は、方向選択的平滑化処理を用いて、色 - 感度モザイク画像に対応する単色画像候補を生成するようにすることができる。 本発明の第 2のプログラムは、 被写体を撮像し、 色 '感度モザイク画像を生成 する処理を制御する撮像制御ステップをさらに含むことができる。
前記復元ステップは、 色■感度モザイク画像の感度特性の配列を示す感度モザ イクパターン情報に基づき、 各画素が有する感度特性を均一化する感度特性均一 化ステップと、 色 ·感度モザイク画像の色成分の配列を示す色モザイクパターン 情報に基づき、各画素の色成分を補間する色補間ステップとを含むことができる。 前記感度特性均一化ステップの処理は、 感度モザイクパターン情報、 および色 モザイクパターン情報に基づき、 色 ·感度モザィク画像の各画素が有する感度特 性を均一化して色モザイク画像を生成するようにすることができ、 前記色補間ス テツプの処理は、 色モザイクパターン情報に基づき、 色モザイク画像の各画素の 色成分を補間して復元画像を生成するようにすることができる。
前記感度特性均一化ステップの処理は、 感度モザイクパターン情報、 およぴ色 モザイクパターン情報に基づき、 色 ·感度モザイク画像の各画素が有する色成分 の種類を変更することなく、 その感度特性を均一化して色モザィク画像を生成す るようにすることができる。 '
前記感度特性均一化ステップの処理は、 感度モザイクパターン情報、 および色 モザイクパターン情報に基づき、 色 ·感度モザイク画像の各画素が有する感度特 性を均一化して色モザイク画像を生成し、 色モザイクパターン情報を更新するよ うにすることができる。
前記感度均一化ステップは、 感度モザイクパターン情報に基づき、 色 '感度モ ザイク画像の各画素が有する色成分を補償する補償ステップと、 感度モザイクパ ターン情報に基づき、 色 ·感度モザイク画像の各画素が有する色成分の有効性を 判別する判別ステップと、 判別手段の判別結果に対応して、 補償ステップの処理 で補償された各画素が有する色成分を捕間処理によつて修正する修正ステップと を含むことができる。
前記感度均一化ステップは、 感度モザイクパターン情報に基づき、 色 '感度モ ザイク画像の推定画素値を算出する算出ステップと、 算出ステップの処理で算出 された推定画素値を補正する補正ステップとを含むことができる。
前記色捕間ステップの処理は、 感度モザイクパターン情報、 および色モザイク パターン情報に基づき、 色 ·感度モザイク画像の各画素に対し、 その感度特性を 変更することなく、 全ての色成分を補間して各色成分の感度モザィク画像を生成 するようにすることができ、 前記感度特性均一化ステップの処理は、 感度モザィ クパターン情報に基づき、 感度モザイク画像の各画素が有する感度特性を均一化 して復元画像を生成するようにすることができる。
前記色補間ステップは、 色 ·感度モザイク画像から同一の感度特性を有する画 素を抽出する抽出ステップと、 抽出ステップの処理で抽出された各画素に対し、 全ての色成分を補間する全色成分補間ステップと、 全色成分補間ステップの処理 で全ての色成分が捕間された画素のうち、 同一の色成分を有し、 かつ、 異なる感 度特性を有する画素を合成して感度モザイク画像を生成する合成ステップとを含 むことができる。
本発明の第 3の画像処理装置は、 色■感度モザイク画像の感度特性の配列を示 す感度モザイクパターン情報に基づき、 各画素が有する感度特性を均一化する感 度特性均一化手段と、 色 ·感度モザイク画像の色成分の配列を示す色モザイクパ ターン情報に基づき、 各画素の色成分を補間する色補間手段とを含むことを特徴 とする。
前記感度特性均一化手段は、 感度モザイクパターン情報、 および色モザイクパ ターン情報に基づき、 色 ·感度モザイク画像の各画素が有する感度特性を均一化 して色モザイク画像を生成するようにすることができ、 前記色補間手段は、 色モ ザイクパターン情報に基づき、 色モザイク画像の各画素の色成分を補間して復元 画像を生成するようにすることができる。
前記感度特性均一化手段は、 感度モザイクパターン情報、 およぴ色モザイクパ ターン情報に基づき、 色 ·感度モザイク画像の各画素が有する色成分の種類を変 更することなく、 その感度特性を均一化して色モザィク画像を生成するようにす ることができる。
前記感度特性均一化手段は、 感度モザイクパターン情報、 およぴ色モザイクパ ターン情報に基づき、 色,感度モザイク画像の各画素が有する感度特性を均一化 して色モザィク画像を生成し、 色モザィクパターン情報を更新するようにするこ とができる。
前記感度均一化手段は、 感度モザイクパターン情報に基づき、 色 ·感度モザィ ク画像の各画素が有する色成分を補償する補償手段と、 感度モザイクパターン情 報に基づき、 色 ·感度モザイク画像の各画素が有する色成分の有効性を判別する 判別手段と、 判別手段の判別結果に対応して、 補償手段が補償した各画素が有す る色成分を補間処理によって修正する修正手段とを含むことができる。
前記感度均一化手段は、 感度モザイクパターン情報に基づき、 色 ·感度モザィ ク画像の推定画素値を算出する算出手段と、 算出手段が算出した推定画素値を補 正する補正手段とを含むことができる。 前記色補間手段は、 感度モザイクパターン情報、 および色モザイクパターン情 報に基づき、 色 ·感度モザイク画像の各画素に対し、 その感度特性を変更するこ となく、 全ての色成分を補間して各色成分の感度モザイク画像を生成するように することができ、 前記感度特性均一化手段は、 感度モザイクパターン情報に基づ き、 感度モザイク画像の各画素が有する感度特性を均一化して復元画像を生成す るようにすることができる。
前記色補間手段は、 色 ·感度モザイク画像から同一の感度特性を有する画素を 抽出する抽出手段と、 抽出手段が抽出した各画素に対し、 全ての色成分を補間す る全色成分補間手段と、全色成分補間手段が全ての色成分を補間した画素のうち、 同一の色成分を有し、 かつ、 異なる感度特性を有する画素を合成して感度モザィ ク画像を生成する合成手段とを含むことができる。
本発明の第 3の画像処理装置は、 被写体を撮像し、 色■感度モザイク画像を生 成する撮像手段をさらに含むことができる。
本発明の第 3の画像処理方法は、 色 ·感度モザイク画像の感度特性の配列を示 す感度モザイクパターン情報に基づき、 各画素が有する感度特性を均一化する感 度特性均一化ステップと、 色■感度モザイク画像の色成分の配列を示す色モザィ クパターン情報に基づき、 各画素の色成分を補間する色補間ステップとを含むこ とを特徴とする。
前記感度特性均一化ステップの処理は、 感度モザイクパターン情報、 および色 モザイクパターン情報に基づき、 色 .感度モザイク画像の各画素が有する感度特 性を均一化して色モザイク画像を生成するようにすることができ、 前記色補間ス テツプの処理は、 色モザイクパターン情報に基づき、 色モザイク画像の各画素の 色成分を補間して復元画像を生成するようにすることができる。
前記感度特性均一化ステップの処理は、 感度モザイクパターン情報、 および色 モザイクパターン情報に基づき、 色 .感度モザイク画像の各画素が有する色成分 の種類を変更することなく、 その感度特性を均一化して色モザイク画像を生成す るようにすることができる。 前記感度特性均一化ステップの処理は、 感度モザイクパターン情報、 および色 モザイクパターン情報に基づき、 色 ·感度モザイク画像の各画素が有する感度特 性を均一化して色モザイク画像を生成し、 色モザイクパターン情報を更新するよ うにすることができる。
前記感度均一化ステップは、 感度モザイクパターン情報に基づき、 色 '感度モ ザイク画像の各画素が有する色成分を補償する補償ステップと、 感度モザイクパ ターン情報に基づき、 色 ·感度モザイク画像の各画素が有する色成分の有効性を 判別する判別ステップと、 判別ステップの処理での判別結果に対応して、 補償ス テツプの処理で補償された各画素が有する色成分を補間処理によって修正する修 正ステップとを含むことができる。
前記感度均一化ステップは、 感度モザイクパターン情報に基づき、 色 ·感度モ ザイク画像の推定画素値を算出する算出ステップと、 算出ステップの処理で算出 された推定画素値を補正する補正ステップとを含むことができる。
前記色捕間ステップの処理は、 感度モザイクパターン情報、 および色モザイク パターン情報に基づき、 色 ·感度モザイク画像の各画素に対し、 その感度特性を 変更することなく、 全ての色成分を補間して各色成分の感度モザイク画像を生成 するようにすることができ、 前記感度特性均一化ステップの処理は、 感度モザィ クパターン情報に基づき、 感度モザイク画像の各画素が有する感度特性を均一化 して復元画像を生成するようにすることができる。
前記色補間ステップは、 色 '感度モザイク画像から同一の感度特性を有する画 素を抽出する抽出ステップと、 抽出ステップの処理で抽出された各画素に対し、 全ての色成分を補間する全色成分補間ステップと、 全色成分補間ステップの処理 で全ての色成分が補間された画素のうち、 同一の色成分を有し、 かつ、 異なる感 度特性を有する画素を合成して感度モザイク画像を生成する合成ステップとを含 むことができる。
本発明の第 3の画像処理方法は、 被写体を撮像し、 色 ·感度モザイク画像を生 成する撮像ステップをさらに含むことができる。 本発明の第 3の記録媒体のプログラムは、 色 ·感度モザイク画像の感度特性の 配列を示す感度モザイクパターン情報に基づき、 各画素が有する感度特性を均一 化する感度特性均一化ステップと、 色 ·感度モザイク画像の色成分の配列を示す 色モザイクパターン情報に基づき、 各画素の色成分を捕間する色補間ステップと を含むことを特徴とする。
前記感度特性均一化ステップの処理は、 感度モザイクパターン情報、 および色 モザイクパターン情報に基づき、 色■感度モザイク画像の各画素が有する感度特 性を均一化して色モザイク画像を生成するようにすることができ、 前記色捕間ス テツプの処理は、 色モザイクパターン情報に基づき、 色モザイク画像の各画素の 色成分を補間して復元画像を生成するようにすることができる。
前記感度特性均一化ステップの処理は、 感度モザイクパターン情報、 および色 モザイクパターン情報に基づき、 色■感度モザイク画像の各画素が有する色成分 の種類を変更することなく、 その感度特性を均一化して色モザィク画像を生成す るようにすることができる。
前記感度特性均一化ステップの処理は、 感度モザイクパターン情報、 および色 モザイクパターン情報に基づき、 色■感度モザイク画像の各画素が有する感度特 性を均一化して色モザイク画像を生成し、 色モザイクパターン情報を更新するよ うにすることができる。
前記感度均一化ステップは、 感度モザイクパターン情報に基づき、 色 .感度モ ザイク画像の各画素が有する色成分を補償する補償ステップと、 感度モザイクパ ターン情報に基づき、 色 ·感度モザイク画像の各画素が有する色成分の有効性を 判別する判別ステップと、 判別ステップの処理での判別結果に対応して、 補償ス テップの処理で補償された各画素が有する色成分を補間処理によつて修正する修 正ステップとを含むことができる。
前記感度均一化ステップは、 感度モザイクパターン情報に基づき、 色 .感度モ ザイク画像の推定画素値を算出する算出ステップと、 算出ステップの処理で算出 された推定画素値を補正する補正ステップとを含むことができる。 前記色補間ステップの処理は、 感度モザイクパターン情報、 および色モザイク パターン情報に基づき、 色 ·感度モザイク画像の各画素に対し、 その感度特性を 変更することなく、 全ての色成分を補間して各色成分の感度モザィク画像を生成 するようにすることができ、 前記感度特性均一化ステップの処理は、 感度モザィ クパターン情幸 に基づき、 感度モザイク画像の各画素が有する感度特性を均一化 して復元画像を生成するようにすることができる。
前記色補間ステップは、 色 ·感度モザイク画像から同一の感度特性を有する画 素を抽出する抽出ステップと、 抽出ステップの処理で抽出された各画素に対し、 全ての色成分を補間する全色成分補間ステップと、 全色成分補間ステップの処理 で全ての色成分が補間された画素のうち、 同一の色成分を有し、 かつ、 異なる感 度特性を有する画素を合成して感度モザイク画像を生成する合成ステップとを含 むことができる。
本発明の第 3の記録媒体のプログラムは、 被写体を撮像し、 色 ·感度モザイク 画像を生成する処理を制御する撮像制御ステップをさらに含むことができる。 本発明の第 3のプログラムは、 色 .感度モザイク画像の感度特性の配列を示す 感度モザイクパターン情報に基づき、 各画素が有する感度特性を均一化する感度 特性均一化ステップと、 色 ·感度モザイク画像の色成分の配列を示す色モザイク パターン情報に基づき、 各画素の色成分を補間する色補間ステップとをコンビュ ータに実行させることを特徴とする。
前記感度特性均一化ステップの処理は、 感度モザイクパターン情報、 およぴ色 モザイクパターン情報に基づき、 色 ·感度モザイク画像の各画素が有する感度特 性を均一化して色モザィク画像を生成するようにすることができ、 前記色捕間ス テツプの処理は、 色モザイクパターン情報に基づき、 色モザイク画像の各画素の 色成分を補間して復元画像を生成するようにすることができる。
前記感度特性均一化ステップの処理は、 感度モザイクパターン情報、 および色 モザイクパターン情報に基づき、 色 ·感度モザイク画像の各画素が有する色成分 の種類を変更することなく、 その感度特性を均一化して色モザィク画像を生成す るようにすることができる。
前記感度特性均一化ステップの処理は、 感度モザイクパターン情報、 および色 モザイクパターン情報に基づき、 色 ·感度モザイク画像の各画素が有する感度特 性を均一化して色モザィク画像を生成し、 色モザィクパターン情報を更新するよ うにすることができる。
前記感度均一化ステップは、 感度モザイクパターン情報に基づき、 色 ·感度モ ザィク画像の各画素が有する色成分を補償する補償ステツプと、 感度モザィクパ ターン情報に基づき、 色 ·感度モザイク画像の各画素が有する色成分の有効性を 判別する判別ステップと、 判別ステップの処理での判別結果に対応して、 補償ス テップの処理で補償された各画素が有する色成分を補間処理によつて修正する修 正ステップとを含むことができる。
前記感度均一化ステップは、 感度モザイクパターン情報に基づき、 色 '感度モ ザイク画像の推定画素値を算出する算出ステップと、 算出ステップの処理で算出 された推定画素値を補正する補正ステップとを含むことができる。
前記色補間ステップの処理は、 感度モザイクパターン情報、 および色モザイク パターン情報に基づき、 色 ·感度モザイク画像の各画素に対し、 その感度特性を 変更することなく、 全ての色成分を補間して各色成分の感度モザィク画像を生成 するようにすることができ、 前記感度特性均一化ステップの処理は、 感度モザィ クパターン情報に基づき、 感度モザイク画像の各画素が有する感度特性を均一化 して復元画像を生成するようにすることができる。
前記色補間ステップは、 色 ·感度モザイク画像から同一の感度特性を有する画 素を抽出する抽出ステップと、 抽出ステツプの処理で抽出された各画素に対し、 全ての色成分を補間する全色成分補間ステップと、 全色成分補間ステップの処理 で全ての色成分が捕間された画素のうち、 同一の色成分を有し、 かつ、 異なる感 度特性を有する画素を合成して感度モザイク画像を生成する合成ステップとを含 むことができる。
本発明の第 3のプログラムは、 被写体を撮像し、 色 '感度モザイク画像を生成 する処理を制御する撮像制御ステップをさらに含むことができる。
本発明の第 4の画像処理装置は、 色 ·感度モザイク画像の感度特性の配列を示 す感度モザイクパターン情報、 および色 ·感度モザイク画像の色成分の配列を示 す色モザイクパターン情報に基づき、 色■感度モザイク画像に対応する輝度画像 を生成する輝度画像生成手段と、 感度モザイクパターン情報、 色モザイクパター ン情報、 および輝度画像に基づき、 色 ·感度モザイク画像に対応する単色画像を 生成する複数の単色画像生成手段とを含むことを特徴とする。
前記輝度画像生成手段は、 色■感度モザイク画像の各画素に対応する色成分の 推定値を算出する複数の推定手段と、 複数の推定手段がそれぞれ算出した複数の 推定値を用いて、 色■感度モザイク画像の各画素に対応する輝度候補値を算出す る輝度候補値算出手段とを含むことができる。
前記推定手段は、 複数の感度特性にそれぞれ対応する複数の推定値候補を算出 し、 複数の推定値候補を加算して、 その和に生じている感度特性の非線形性を捕 償することによって推定値を算出するようにすることができる。
前記輝度画像生成手段は、 輝度候補値のノイズ成分を除去して輝度値を生成す るノイズ除去手段をさらに含むことができる。
前記単色画像生成手段は、 感度モザイクパターン情報、 および色モザイクパタ ーン情報に基づき、 色■感度モザイク画像に対応する単色画像候補を生成する単 色画像候補生成手段と、 輝度画像に基づき、 単色画像候補を修正して単色画像を 生成する修正手段とを含むことができる。
前記単色画像候補生成手段は、 複数の感度特性にそれぞれ対応する複数の単色 候補値を算出し、 複数の単色候補値を加算して、 その和に生じている感度特性の 非線形性を補償することにより、 単色画像候補の画素値を算出して単色画像候補 を生成するようにすることができる。
前記単色画像候補生成手段は、 方向選択的平滑化処理を用いて、 色■感度モザ イク画像に対応する単色画像候補を生成するようにすることができる。
本発明の第 4の画像処理装置は、 被写体を撮像し、 色 '感度モザイク画像を生 成する撮像手段をさらに含むことができる。
本発明の第 4の画像処理方法は、 色■感度モザイク画像の感度特性の配列を示 す感度モザイクパターン情報、 および色■感度モザイク画像の色成分の配列を示 す色モザイクパターン情報に基づき、 色 ·感度モザイク画像に対応する輝度画像 を生成する輝度画像生成ステップと、 感度モザイクパターン情報、 色モザイクパ ターン情報、 および輝度画像に基づき、 色 ·感度モザイク画像に対応する単色画 像を生成する複数の単色画像生成ステップとを含むことを特徴とする。
前記輝度画像生成ステップは、 色■感度モザイク画像の各画素に対応する色成 分の推定値を算出する複数の推定ステップと、 複数の推定ステップの処理でそれ ぞれ算出された複数の推定値を用いて、 色 '感度モザイク画像の各画素に対応す る輝度候補値を算出する輝度候補値算出ステップとを含むことができる。
前記推定ステップの処理は、 複数の感度特性にそれぞれ対応する複数の推定値 候補を算出し、 複数の推定値候補を加算して、 その和に生じている感度特性の非 線形性を捕償することによって推定値を算出するようにすることができる。
前記輝度画像生成ステップは、 輝度候補値のノイズ成分を除去して輝度値を生 成するノイズ除去ステップをさらに含むことができる。
前記単色画像生成ステップは、 感度モザイクパターン情報、 および色モザイク パターン情報に基づき、 色■感度モザイク画像に対応する単色画像候補を生成す る単色画像候補生成ステップと、 輝度画像に基づき、 単色画像候補を修正して単 色画像を生成する修正ステップとを含むことができる。
前記単色画像候補生成ステップの処理は、 複数の感度特性にそれぞれ対応する 複数の単色候補値を算出し、 複数の単色候補値を加算して、 その和に生じている 感度特性の非線形性を補償することにより、 単色画像候補の画素値を算出して単 色画像候補を生成するようにすることができる。
前記単色画像候補生成ステップの処理は、方向選択的平滑化処理を用いて、色 - 感度モザィク画像に対応する単色画像候補を生成するようにすることができる。 本 明の第 4の画像処理方法は、 被写体を撮像し、 色 ·感度モザイク画像を生 成する撮像ステップをさらに含むことができる。
本発明の第 4の記録媒体のプログラムは、 色 ·感度モザイク画像の感度特性の 配列を示す感度モザイクパターン情報、 およぴ色 '感度モザイク画像の色成分の 配列を示す色モザイクパターン情報に基づき、 色 ·感度モザイク画像に対応する 輝度画像を生成する輝度画像生成ステップと、 感度モザイクパターン情報、 色モ ザイクパターン情報、 および輝度画像に基づき、 色 '感度モザイク画像に対応す る単色画像を生成する複数の単色画像生成ステップとを含むことを特徴とする。 前記輝度画像生成ステップは、 色 ·感度モザイク画像の各画素に対応する色成 分の推定値を算出する複数の推定ステツプと、 複数の推定ステップの処理でそれ ぞれ算出された複数の推定値を用いて、 色,感度モザイク画像の各画素に対応す る輝度候補値を算出する輝度候補値算出ステップとを含むことができる。
前記推定ステップの処理は、 複数の感度特性にそれぞれ対応する複数の推定値 候補を算出し、 複数の推定値候補を加算して、 その和に生じている感度特性の非 線形性を補償することによって推定値を算出するようにすることができる。
前記輝度画像生成ステップは、 輝度候補値のノイズ成分を除去して輝度値を生 成するノイズ除去ステップをさらに含むことができる。
前記単色画像生成ステップは、 感度モザイクパターン情報、 および色モザイク パターン情報に基づき、 色■感度モザイク画像に対応する単色画像候補を生成す る単色画像候補生成ステップと、 輝度画像に基づき、 単色画像候補を修正して単 色画像を生成する修正ステップとを含むことができる。
前記単色画像候補生成ステップの処理は、 複数の感度特性にそれぞれ対応する 複数の単色候補値を算出し、 複数の単色候補値を加算して、 その和に生じている 感度特性の非線形性を補償することにより、 単色画像候補の画素値を算出して単 色画像候補を生成するようにすることができる。
前記単色画像候補生成ステップの処理は、方向選択的平滑化処理を用いて、色 · 感度モザイク画像に対応する単色画像候補を生成するようにすることができる。 本発明の第 4の記録媒体のプログラムは、 被写体を撮像し、 色 .感度モザイク 画像を生成する処理を制御する撮像制御ステツプをさらに含むことができる。 本発明の第 4のプログラムは、 色 ·感度モザイク画像の感度特性の配列を示す 感度モザイクパターン情報、 および色■感度モザイク画像の色成分の配列を示す 色モザイクパターン情報に基づき、 色■感度モザイク画像に対応する輝度画像を 生成する輝度画像生成ステップと、 感度モザイクパターン情報、 色モザイクパタ ーン情報、 および輝度画像に基づき、 色 ·感度モザイク画像に対応する単色画像 を生成する複数の単色画像生成ステップとをコンピュータに実行させることを特 徴とする。
前記輝度画像生成ステップは、 色 ·感度モザイク画像の各画素に対応する色成 分の推定値を算出する複数の推定ステップと、 複数の推定ステップの処理でそれ ぞれ算出された複数の推定値を用いて、 色■感度モザイク画像の各画素に対応す る輝度候補値を算出する輝度候補値算出ステップとを含むことができる。
前記推定ステップの処理は、 複数の感度特性にそれぞれ対応する複数の推定値 候補を算出し、 複数の推定値候補を加算して、 その和に生じている感度特性の非 線形性を捕償することによって推定値を算出するようにすることができる。
前記輝度画像生成ステップは、 輝度候補値のノイズ成分を除去して輝度値を生 成するノイズ除去ステップをさらに含むことができる。
前記単色画像生成ステップは、 感度モザイクパターン情報、 および色モザイク パターン情報に基づき、 色 ·感度モザイク画像に対応する単色画像候補を生成す る単色画像候補生成ステップと、 輝度画像に基づき、 単色画像候補を修正して単 色画像を生成する修正ステップとを含むことができる。
前記単色画像候補生成ステップの処理は、 複数の感度特性にそれぞれ対応する 複数の単色候補値を算出し、 複数の単色候補値を加算して、 その和に生じている 感度特性の非線形性を補償することにより、 単色画像候補の画素値を算出して単 色画像候補を生成するようにすることができる。
前記単色画像候補生成ステップの処理は、方向選択的平滑化処理を用いて、色 · 感度モザイク画像に対応する単色画像候補を生成するようにすることができる。 本発明の第 4のプログラムは、 被写体を撮像し、 色 '感度モザイク画像を生成 する処理を制御する撮像制御ステップをさらに含むことができる。
本発明の第 1の画像処理装置および方法、 並びにプログラムにおいては、 各画 素が複数の色成分のうちのいずれかの色成分、 および光強度に対する複数の感度 特性のうちのいずれかの感度特性を有し、 かつ、 同一の色成分おょぴ感度特性を 有する複数の画素が格子状に配置されるとともに、 感度特性に拘わらず、 同一の 色成分を有する複数の画素が格子状に配置された色 ·感度モザイク画像に基づき、 各画素の感度が均一化されており、 かつ、 各画素が複数の色成分の全ての色成分 を有する復元画像が復元される。
本発明の第 2の画像処理装置および方法、 並びにプログラムにおいては、 各画 素が複数の色成分のうちのいずれかの色成分、 および光強度に対する複数の感度 特性のうちのいずれかの感度特性を有し、 かつ同一の色成分おょぴ感度特性を有 する複数の画素が格子状に配置されるとともに、 色成分に拘わらず、 同一の感度 特性を有する複数の画素が格子状に配置され、 さらに、 任意の画素と任意の画素 の上下左右に隣接する 4画素の合計 5画素の中には全ての色成分が存在する色 - 感度モザイク画像に基づき、 各画素の感度が均一化されており、 かつ、 各画素が 複数の色成分の全ての色成分を有する復元画像が復元される。
本発明の第 3の画像処理装置および方法、 並びにプログラムにおいては、 色 感度モザイク画像の感度特性の配列を示す感度モザイクパターン情報に基づき、 各画素が有する感度特性が均一化され、 色 '感度モザイク画像の色成分の配列を 示す色モザイクパターン情報に基づき、 各画素の色成分が補間される。
本発明の第 4の画像処理装置および方法、 並びにプログラムにおいては、 色 ' 感度モザイク画像の感度特性の配列を示す感度モザイクパターン情報、 および 色 ·感度モザイク画像の色成分の配列を示す色モザイクパターン情報に基づき、 色 ·感度モザイク画像に対応する輝度画像が生成され、 感度モザイクパターン情 報、 色モザイクパターン情報、 および輝度画像に基づき、 色 .感度モザイク画像 に対応する単色画像が生成される。 図面の簡単な説明
図 1は、 本発明を適用したディジタルスチルカメラの構成例を示すプロック図 である。
図 2は、 ディジタルスチルカメラの動作の概要を説明する図である。
図 3は、 被写体の一例を示す図である。
図 4は、 図 3に対応する色 ·感度モザイク画像の一例を示す図である。
図 5は、 色 '感度モザイクパターン P 1を示す図である。
図 6は、 色 ·感度モザイクパターン P 2を示す図である。
図 7は、 色 ·感度モザイクパターン P 3を示す図である。
図 8は、 色 -感度モザイクパターン P 4を示す図である。
図 9は、 色 '感度モザイクパターン P 5を示す図である。
図 1 0は、 色 '感度モザイクパターン P 6を示す図である。
図 1 1は、 色 ·感度モザイクパターン P 7を示す図である。
図 1 2は、 色 '感度モザイクパターン P 8を示す図である。
図 1 3は、 色 .感度モザイクパターン P 9を示す図である。
図 1 4は、 色 '感度モザイクパターン P 1 0を示す図である。
図 1 5は、 色 '感度モザイクパターン P 1 1を示す図である。
図 1 6は、 色 '感度モザイクパターン P 1 2を示す図である。
図 1 7は、 色■感度モザイクパターン P 1 3を示す図である。
図 1 8は、 色 '感度モザイクパターン P 1 4を示す図である。
図 1 9は、 CCDイメージセンサ 4の受光素子の断面を示す図である。
図 2 0は、 感度のモザイク配列を光学的に実現する方法を説明するための図で ある。
図 2 1は、 感度のモザイク配列を光学的に実現する方法を説明するための図で あ ·ο。
図 2 2は、 感度のモザイク配列を光学的に実現する方法を説明するための図で ある。
図 2 3は、 感度のモザイク配列を電子的に実現する第 1の方法を説明するため の図である。
図 2 4は、 感度のモザイク配列を電子的に実現する第 2の方法を説明するため の図である。
図 2 5は、 O R型の電極構造を示す図である。
図 2 6は、 O R型の電極構造の断面を示す図である。
図 2 7は、 AND型の電極構造を示す図である。
図 2 8は、 色 .感度モザイクパターン P 1を実現する O R型の電極構造と AND 型の電極構造の組み合わせを示す図である。
図 2 9は、 色 .感度モザイクパターン P 2を実現する O R型の電極構造と AND 型の電極構造の組み合わせを示す図である。
図 3 0は、 色 '感度モザイクパターン P 3を実現する O R型の電極構造と AND 型の電極構造の組み合わせを示す図である。
図 3 1は、 色 ·感度モザイクパターン P 4を実現する O R型の電極構造と AND 型の電極構造の組み合わせを示す図である。
図 3 2は、 色■感度モザイクパターン P 5を実現する O R型の電極構造と AND 型の電極構造の組み合わせを示す図である。
図 3 3は、 画素の位置座標の定義を説明するための図である。
図 3 4は、 第 1のデモザイク処理の概要を説明するための図である。
図 3 5は、 第 1のデモザイク処理における第 1の感度均一化処理の概要を説明 するための図である。
図 3 6は、 第 1のデモザイク処理における第 1の感度均一化処理の概要を説明 するための図である。
図 3 7は、 第 1のデモザイク処理における第 1の感度均一化処理の概要を説明 するための図である。
図 3 8は、 第 1のデモザイク処理における第 2の感度均一化処理の概要を説明 するための図である。
図 3 9は、 第 1のデモザイク処理における第 2の感度均一化処理の概要を説明 するための図である。
図 4 0は、 第 2のデモザイク処理の概要を説明するための図である。
図 4 1は、 第 2のデモザイク処理における第 1の感度均一化処理の概要を説明 するための図である。
図 4 2は、 第 2のデモザイク処理における第 1の感度均一化処理の概要を説明 するための図である。
図 4 3は、 第 2のデモザィク処理における第 2の感度均一化処理の概要を説明 するための図である。
図 4 4は、 第 2のデモザイク処理における第 2の感度均一化処理の概要を説明 するための図である。
図 4 5は、 画像処理部 7の第 1の構成例を示すプロック図である。
図 4 6は、 感度均一化部 5 1の第 1の構成例を示すブロック図である。
図 4 7は、 色補間部 5 2の構成例を示すプロック図である。
図 4 8は、 色差画像生成部 7 2の構成例を示すブロック図である。
図 4 9は、 輝度画像生成部 7 4の構成例を示すブロック図である。
図 5 0は、 画像処理部 7の第 1の構成例による第 1のデモザイク処理を説明す るフローチヤ一トである。
図 5 1は、 感度均一化部 5 1の第 1の構成例による第 1の感度均一化処理を説 明するフローチヤ一トである。
図 5 2は、 ステップ S 1 1の感度補償処理を説明するフローチャートである。 図 5 3は、ステップ S 1 2の有効性判別処理を説明するフローチャートである。 図 5 4は、 ステップ S 1 3の欠落補間処理を説明するフローチャートである。 図 5 5は、 ステップ S 2の色補間処理を説明するフローチャートである。
図 5 6は、 ステップ S 5 2の第 1の色差画像生成処理を説明するフローチヤ一 トである。 図 5 7は、ステップ S 5 3の輝度画像生成処理を説明するローチャートである。 図 5 8は、ステップ S 5 4の色空間変換処理を説明するフローチャートである。 図 5 9は、 感度均一化部 5 1の第 2の構成例を示すプロック図である。
図 6 0は、 感度均一化部 5 1の第 2の構成例による第 2の感度均一化処理を説 明するフローチャートである。
図 6 1は、 ステップ S 1 0 3の補間処理を説明するフローチヤ一トである。 図 6 2は、 第 2の色差画像生成処理を説明するフローチヤ一トである。
図 6 3は、 ステップ S 1 2 3の画像勾配べクトル演算処理を説明するフローチ ヤートである。
図 6 4は、 画像処理部 7の第 2の構成例を示すブロック図である。
図 6 5は、 感度均一化部 1 1 1の第 1の構成例を示すブロック図である。
図 6 6は、欠落捕間部 1 2 4の欠落補間処理を説明するフローチャートである。 図 6 7は、 感度均一化部 1 1 1の第 2の構成例を示すプロック図である。
図 6 8は、 感度均一化部 1 1 1の第 2の構成例による第 2のデモザイク処理に おける第 2の感度均一化処理を説明するフローチャートである。
図 6 9は、 ステップ S 1 6 3の補間色決定処理を説明するフローチャートであ る。
図 7 0は、 第 3のデモザイク処理の概要を説明するための図である。
図 7 1は、 第 3のデモザイク処理における感度別色捕間処理の概要を説明する ための図である。
図 7 2は、 第 3のデモザイク処理における感度別色捕間処理の概要を説明する ための図である。
図 7 3は、 画像処理部 7の第 3の構成例を示すプロック図である。
図 7 4は、 感度別色補間部 1 5 1の構成例を示すプロック図である。
図 7 5は、 感度均一化部 1 5 2の構成例を示すブロック図である。
図 7 6は、 画像処理部 7の第 3の構成例による第 3のデモザイク処理を説明す るフローチヤ一トである。 図 7 7は、 ステップ S 1 8 1の感度別色補間処理を説明するフローチャートで ある。
図 7 8は、 ステップ S 1 9 3の抽出処理を説明するための図である。
図 7 9は、 ステップ S 1 9 3の抽出処理を説明するための図である。
図 8 0は、 ステップ S 1 8 2の感度均一化処理を説明するフローチャートであ る。
図 8 1は、 ステップ S 2 0 3の局所和算出処理において用いるフィルタ係数の 例を示す図である。
図 8 2は、 画像処理部 7の打 1 4の構成例を示すブロック図である。
図 8 3は、 輝度画像生成部 1 8 1の第 1の構成例を示すプロック図である。 図 8 4は、 単色画像生成部 1 8 2の構成例を示すブロック図である。
図 8 5は、 画像処理部 7の第 4の構成例による第 4のデモザイク処理を説明す るフローチヤ一トである。
図 8 6は、 輝度画像生成部 1 8 1の輝度画像生成処理を説明するフローチヤ一 トである。
図 8 7は、 推定部 1 9 1の R成分推定処理を説明するフローチャートである。 図 8 8は、 R, B成分用補間フィルタ係数の一例を示す図である。
図 8 9は、 G成分用補間フィルタ係数の一例を示す図である。
図 9 0は、 合成感度補償 LUTについて説明するための図である。
図 9 1は、 合成感度補償 LUTについて説明するための図である。
図 9 2は、 合成感度補償 LUTについて説明するための図である。
図 9 3は、 ノイズ除去部 1 9 8のノイズ除去処理を説明するフローチヤ一トで ある。
図 9 4は、 ノイズ除去部 1 9 8の方向選択的平滑化処理を説明するフローチヤ ートである。
図 9 5は、 単色画像生成部 1 8 2の単色画像生成処理を説明するフローチヤ一 トである。 図 9 6は、 比率値算出部 2 0 2の比率値算出処理を説明するフローチヤ一トで ある。
図 9 7は、 平滑化フィルタ係数の一例を示す図である。
図 9 8は、 輝度画像生成部 1 8 1の第 2の構成例を示すプロック図である。 図 9 9は、 推定部 2 1 1による R G B成分の推定処理を説明するフローチヤ一 トである。
図 1 0 0は、 推定画素値 C 0補間処 Sに用いる画素の配置を示す図である。 図 1 0 1は、 推定画素値 C 0補間処理を説明するフローチャートである。 図 1 0 2は、 推定画素値 C 1捕間処理に用いる画素の配置を示す図である。 図 1 0 3は、 推定画素値 C 1捕間処理を説明するフローチャートである。 図 1 0 4 Aは、 推定画素値 C 2補間処理に用いる画素の配置を示す図である。 図 1 0 4 Bは、 推定画素値 C 2補間処理に用いる画素の配置を示す図である。 図 1 0 5は、 推定画素値 C 2補間処理を説明するフローチャートである。 図 1 0 6は、 推定画素値 C 3補間処理に用いる画素の配置を示す図である。 図 1 0 7は、 推定画素値 C 3捕間処理を説明するフローチャートである。 図 1 0 8は、 補間部 2 0 1一 Rによる R候補画像生成処理を説明するフローチ ヤートである。
図 1 0 9は、 補間部 2 0 1一 Bによる B候補画像生成処理を説明するフローチ ヤートである。
図 1 1 0は、 補間部 2 0 1— Gによる G候補画像生成処理を説明するブローチ ヤートである。
図 1 1 1は、 画像処理部 7の第 5の構成例を示すプロック図である。 発明を実施するための最良の形態
図 1は、 本発明の一実施の形態であるディジタルスチルカメラの構成例を示し ている。当該ディジタルスチルカメラは、大別して光学系、信号処理系、記録系、 表示系、 および制御系から構成される。 光学系は、 被写体の光画像を集光するレンズ 1、 光画像の光量を調整する絞り 2、 および、 集光された光画像を光電変換して広ダイナミックレンジの電気信号 に変換する CCDイメージセンサ 4から構成される。
信号処理系は、 CCD イメージセンサ 4からの電気信号をサンプリングすること によってノイズを低減させる相関 2重サンプリング回路 (CDS) 5、相関 2重サン プリング回路 5が出力するアナ口グ信号をディジタル信号に変換する A/Dコン バータ 6、 AZDコンバータ 6から入力されるディジタル信号に所定の画像処理 を施す画像処理部 7から構成される。 なお、 画像処理部 7が実行する処理の詳細 については後述する。
記録系は、 画像処理部 7が処理した画像信号を符号化してメモリ 9に記録し、 また、 読み出して復号し、画像処理部 7に供給する CODEC (Corapression/Decompre ssion) 8 , および、 画像信号を記憶するメモリ 9から構成される。
表示系は、 画像処理部 7が処理した画像信号をアナログ化する D ZAコンバー タ 1 0、 アナログ化された画像信号を後段のディスプレイ 1 2に適合する形式の ビデオ信号にエンコードするビデオエンコーダ 1 1、 および、 入力されるビデオ 信号に対応する画像を表示することにより ファインダと して機能する LCD (Liquid Crystal Display)等よりなるディスプレイ 1 2から構成される。 制御系は、 CCD イメージセンサ 4乃至画像処理部 7の動作タイミングを制御す るタイミングジェネレータ (T G ) 3、 ユーザがシャッタタイミングやその他の コマンドを入力する操作入力部 1 3、 および、 ドライブ 1 5を制御して磁気ディ スク 1 6、 光ディスク 1 7、 光磁気ディスク 1 8、 または半導体メモリ 1 9に記 憶されている制御用プログラムを読み出し、 読み出した制御用プログラム、 操作 入力部 1 3から入力されるユーザからのコマンド等に基づいてディジタルスチル カメラの全体を制御する CPU (Central Processing Unit)などよりなる制御部 1 4 から構成される。
当該ディジタルスチルカメラにおいて、 被写体の光学画像 (入射光) は、 レン ズ 1および絞り 2を介して CCDイメージセンサ 4に入射され、 CCDィメージセン サ 4によって光電変換され、 得られた電気信号は、 相関 2重サンプリング回路 5 によってノイズが除去され、 A/ Dコンバータ 6によってディジタル化された後、 画像処理部 7が内蔵する画像メモリに一時格納される。
なお、 通常の状態では、 タイミングジェネレータ 3による信号処理系に対する 制御により、 画像処理部 7が内蔵する画像メモリには、 一定のフレームレートで 絶えず画像信号が上書きされるようになされている。 画像処理部 7が内蔵する画 像メモリの画像信号は、 D / Aコンバータ 1 0によってアナログ信号に変換され、 ビデオエンコーダ 1 1によってビデオ信号に変換されて対応する画像がディスプ レイ 1 2に表示される。
ディスプレイ 1 2は、 当該ディジタルスチルカメラのファインダの役割も担つ ている。 ユーザが操作入力部 1 3に含まれるシャツタポタンを押下した場合、 制 御部 1 4は、 タイミングジェネレータ 3に対し、 シャツタポタンが押下された直 後の画像信号を取り込み、 その後は画像処理部 7の画像メモリに画像信号が上書 きされないように信号処理系を制御させる。 その後、 画像処理部 7の画像メモリ に書き込まれた画像データは、 C0DEC 8によって符号化されてメモリ 9に記録され る。 以上のようなディジタルスチルカメラの動作によって、 1枚の画像データの 取り込みが完了する。
次に、 当該ディジタルスチルカメラの動作の概要について、 図 2を参照して説 明する。 当該ディジタルスチルカメラは、 CCD イメージセンサ 4を中心とする光 学系の撮像処理によって、 被写体を画素毎に異なる色と感度で撮像し、 色と感度 がモザイク状になった画像 (以下、 色■感度モザイク画像と記述し、 その詳細は 後述する) を得る。 その後、 画像処理部 7を中心とする信号処理系により、 撮像 処理によって得られた画像が、 各画素が全ての色成分を有し、 かつ、 均一の感度 を有する画像に変換される。 以下、 色 ·感度モザイク画像を、 各画素が全ての色 成分を有し、 かつ、 均一の感度を有する画像に変換させる画像処理部 7を中心と する信号処理系の処理を、 デモザイク処理とも記述する。
例えば、 図 3に示すような被写体を撮影した場合、 撮像処理によって図 4に示 すような色 '感度モザィク画像が得られ、 画像処理によつて各画素が全ての色成 分と均一の感度を有する画像に変換される。 すなわち、 図 4に示す色 ·感度モザ イク画像から図 3に示す被写体の元の色を復元する。
次に、 色 ·感度モザイク画像を構成する画素の色成分および感度の配列パター ン (以下、 色 ·感度モザイクパターンと記述する) P 1乃至 1 4を図 5乃至図 1 8に示す。なお、色 ·感度モザイクパターンを構成する色の組み合わせとしては、 R (赤)、 G (緑)、 および B (青) からなる 3色の組合せの他、 Y (黄)、 M (マ ゼンタ)、 C (シアン)、 および G (緑) からなる 4色の組合せがある。 感度の段 階としては、 S 0および S 1から成る 2段階の他、感度 S 2を追加した 3段階や、 さらに、 感度 S 3を追加した 4段階がある。 なお、 図 5乃至図 1 8においては、 各正方形が 1画素に対応しており、 英文字がその色を示し、 英文字の添え字とし て数字がその感度を示している。 例えば、 G。と表示された画素は、 色が G (緑) であって感度が S 0であることを示している。 また、 感度については数字が大き いほど、 より高感度であるとする。
色■感度モザイクパターン P 1乃至 P 1 4は、 以下に示す第 1乃至第 4の特徴 によって分類することができる。
第 1の特徴は、 同一の色および感度を有する画素に注目した場合、 それらが格 子状に配列されており、 かつ、 感度に拘わらず同一の色を有する画素に注目した 場合、 それらが格子状に配列されていることである。 第 1の特徴について、 図 5 に示す色■感度モザイクパターン P 1を参照して説明する。
図 5の.色 ·感度モザイクパターン P 1において、 感度に拘わらず色が Rである 画素に注目した場合、 図面を右回りに 4 5度だけ回転させた状態で見れば明らか なように、 それらは、 水平方向には 2 1 / 2の間隔で、 垂直方向には 2 3 / 2の間隔 で格子状の配置されている。 また、 感度に拘わらず色が Bである画素に注目した 場合、 それらも同様に配置されている。 感度に拘わらず色が Gである画素に注目 した場合、 それらは、 水平方向および垂直方向に 2 1 / 2の間隔で格子状の配置さ れている。 第 1の特徴は、 図 5に示す色 ·感度モザイクパターン P 1の他、 色 ·感度モザ イクパターン p 2, P 4 , P 6 , P 8 , P 9 , P 1 0 , P 1 1 , P 1 3が有して いる。
第 2の特徴は、 同一の色および感度を有する画素に注目した場合、 それらが格 子状に配列されており、 かつ、 色に拘わらず同一の感度を有する画素に注目した 場合、 それらが格子状に配列されており、 かつ、 任意の画素に注目した場合、 そ の画素とその上下左右に位置する 4画素の合計 5画素が有する色の中に、 当該 色 ·感度モザイクパターンに含まれる全ての色が含まれることである。
第 2の特徴は、 図 7に示す色 '感度モザイクパターン P 3の他、 色 '感度モザ イクパターン P 5, P 7 , P 8 , P 9 , P 1 2 , P 1 4が有している。
第 3の特徴は、 第 1の特徴を有しており、 さらに、 3種類の色が用いられてい て、 それらがべィャ(Bayer)配列をなしていることである。 第 3の特徴について、 図 6に示す色■感度モザイクパターン P 2を参照して説明する。
図 6の色 '感度モザイクパターン P 2において、 感度に拘わらず色が Gである 画素に注目した場合、 それらは 1画素おきに市松状に配置されている。 感度に拘 わらず色が Rである画素に注目した場合、 それらは 1ラインおきに配置されてい る。 また、 感度に拘わらず色が Bである画素に注目した場合も同様に、 1ライン おきに配置されている。 したがって、 このパターン P 2は、 画素の色だけに注目 すれば、 べィャ配列であるといえる。
なお、 第 3の特徴は、 図 6の色 '感度モザイクパターン P 2の他、 色 '感度モ ザイクパターン P 1 0 , P 1 1が有している。
第 4の特徴は、 第 2の特徴を有しており、 さらに、 同一の感度を有する画素に 注目した場合、 それらの配列がべィャ配列をなしていることである。 第 4の特徴 について、 図 7に示す色■感度モザイクパターン P 3を参照して説明する。
図 7の色 .感度モザイクパターン P 3において、 感度 S 0の画素だけに注目し た場合、 図面を斜め 4 5度だけ傾けて見れば明らかなように、 それらは 2 1 2の 間隔を空けてべィャ配列をなしている。 また、 感度 S 1の画素だけに注目した場 合も同様に、 それらはべィャ配列をなしている。
なお、 第 4の特徴は、 図 7の色 .感度モザイクパターン P 3の他、 色 .感度モ ザイクパターン P 5 , P 1 2が有している。
ところで、 以下、 図 5乃至図 1 8に示した色 ·感度モザイクパターン P 1乃至 P 1 4に関連し、 画素の感度に拘わらず色だけに注目して 「色のモザイク配列」 と記述する。 また、 色に拘わらず感度だけに注目して 「感度のモザイク配列」 と 記述する。
次に、 CCD イメージセンサ 4において上述した色 ·感度モザイクパターンを実 現する方法について説明する。
色 '感度モザイクパターンのうち、 色のモザイク配列については、 CCD ィメー ジセンサ 4の受光素子の上面に、 画素毎に異なる色の光だけを透過させるオンチ ップカラーフィルタを配置することによって実現する。
色 ·感度モザイクパターンのうち、 感度のモザイク配列については、 光学的な 方法、 または電子的な方法によって実現する。
感度のモザイク配列を光学的に実現する方法について説明する。図 1 9は、 CCD イメージセンサ 4の受光素子の断面を示している。 受光素子の上部表面には、 ォ ンチップレンズ 2 1が形成されている。 オンチップレンズ 2 1は、 図面上方から の入射光がフォトダイオード (P D ) 2 3に集光されるようになされている。 ォ ンチップカラーフィルタ 2 2は、 入射光の波長帯域を制限する (特定の波長帯域 だけを透過させる)。受光素子の下部には、 ウェハ中にフォトダイオード 2 3が形 成されている。 フォトダイオード 2 3は、 入力された光量に対応して電荷を生じ る。 フォトダイオード 2 1の両脇には、 垂直レジスタ 2 6が形成されている。 垂 直レジスタ 2 6の上部には、 垂直レジスタ 2 1を駆動する垂直レジスタ駆動電極 2 5が配線されている。
垂直レジスタ 2 6は、 フォトダイオード 2 3で生じた電荷を転送する領域であ るので、 そこで電荷が生じることがないように、 垂直レジスタ 2 6と垂直レジス タ駆動電極 2 5はシールド 2 4によって遮光されている。 シールド 2 4は、 フォ トダイォード 2 3の上部だけが開口しており、 その開口部分を入射光が通過して フォトダイォード 2 3に到達するようになされている。
以上説明したように構成される CCDイメージセンサ 4を利用して、 各受光素子 の感度を変えることができる (フォトダイオード 2 3に対する入射光量を変化さ せることができる)。
例えば、 図 2 0に示すように、 オンチップレンズ 2 1の設置の有無により、 集 光される光量を変化させることができる。 また、 例えば図 2 1に示すように、 ォ ンチップカラーフィルタ 2 2の上方 (または下方) にニュートラルデンシティフ ィルタ 3 1を設置することにより、 光の透過率を変えることができる。 また、 例 えば図 2 2に示すように、 シールド 2 4の開口部分の面積を変化させることによ り、 フォトダイオード 2 3に対する入射光量を変化させることができる。
次に、感度のモザイク配列を電子的に実現する 2種類の方法について説明する。 例えば、 隣接する 2つの受光素子 (第 1および第 2の受光素子) に対し、 制御 のタイミングを違えることにより、 2つの受光素子を異なる感度に設定する第 1 の方法について、 図 2 3を参照して説明する。
図 2 3の第 1段目は、 CCD イメージセンサ 4の露光期間を示している。 同図の 第 2段目は、 電荷掃き出しを指令するパルス電圧のタイミングを示している。 同 図の第 3段目は、 電荷転送を指令する制御電圧が与えられるタイミングを示して いる。 同図の第 4段目は、 第 1の受光素子に対し、 電荷読み出しを指令するパル ス電圧のタイミングを示している。 同図の第 5段目は、 電荷掃き出しパルス電圧 および電荷読み出しパルス電圧が与えられることに対応して第 1の受光素子に蓄 積される電荷量の変化を示している。同図の第 6段目は、第 2の受光素子に対し、 電荷読み出しを指令するパルス電圧のタイミングを示している。 同図の第 7段目 は、 電荷掃き出しパルス電圧および電荷読み出しパルス電圧が与えられることに 対応して第 2の受光素子に蓄積される電荷量の変化を示している。
感度のモザィク配列を電子的に実現する第 1の方法において、 電荷掃き出しパ ルス電圧は、 第 1および第 2の受光素子に対し共通して、 露光期間以外において は、 フォ トダイオード 2 3から電荷を掃き出しさせる (リセットさせる) ように 供給され、 露光期間中においては、 所定のタイミングで 1回だけ電荷をリセット するために供給される。
電荷転送電圧は、 露光期間以外においては、 第 1および第 2の受光素子に対し 共通して垂直レジスタ 2 6に電荷を転送させるための波形電圧が供給され、 露光 期間中においては、 垂直レジスタ 2 6からの電荷の転送が停止されるように電荷 転送電圧は供給されない。
電荷読み出しパルス電圧は、 各受光素子に対して異なるタイミングで供給され る。 第 1の受光素子に対しては、 露光期間中の電荷掃き出しパルス電圧の供給タ イミング (同図の第 2段目) の直前に、 1回目の電荷読み出しパルス電圧が供給 され、露光期間中の終了の直前に 2回目の電荷読み出しパルス電圧が供給される。 その結果、 第 1の受光素子からは、 1回目おょぴ 2回目の電荷読み出しパルス 電圧の供給タイミングのそれぞれにおける第 1の受光素子の蓄積電荷量が垂直レ ジスタ 2 6に読み出される。 なお、 露光期間中は垂直レジスタ 2 6の電荷の転送 は停止されているので、 それら 2回の読み出し電荷量が垂直レジスタ 2 6内で加 算され、 露光期間終了後に同じフレームのデータとして垂直レジスタ 2 6から転 送されるようになされている。
一方、 第 2の受光素子に対しては、 露光期間中の電荷掃き出しパルス電圧の供 給タイミングの直前に 1回だけ電荷読み出しパルス電圧が供給される。その結果、 第 2の受光素子からは、 1回だけの電荷読み出しパルス電圧の供給タイミングに おける第 2の受光素子の蓄積電荷量が垂直レジスタ 2 6に読み出される。 なお、 露光期間中は垂直レジスタ 2 3の電荷の転送は停止されているので、 第 2の受光 素子から読み出された蓄積電荷は、 露光期間終了後に、 第 1の受光素子から読み 出された蓄積電荷と同じフレームのデータとして垂直レジスタ 2 6から転送され るようになされている。
以上のように、 第 1の受光素子と第 2の受光素子とに対する制御タイミングを それぞれ違えることにより、 同じ露光期間中に第 1の受光素子殻読み出される蓄 積電荷量と、 第 2の受光素子から読み出される蓄積電荷量、 すなわち感度が異な るように設定することができる。
ところで、 感度のモザイク配列を電子的に実現する第 1の方法では、 受光素子 によっては露光期間中の全域にわたる被写体の情報を計測できないという点が問 題である。
次に、 感度のモザイク配列を電子的に実現する第 2の方法について、 図 2 4を 参照して説明する。 同図の第 1乃至 6段目はそれぞれ、 図 2 3の第 1乃至 6段目 と同様に、 CCD イメージセンサ 4の露光期間、 電荷掃き出しを指令するパルス電 圧のタイミング、 電荷転送を指令する制御電圧が与えられるタイミング、 第 1の 受光素子に対して電荷読み出しを指令するパルス電圧のタイミング、 電荷掃き出 しパルス電圧および電荷読み出しパルス電圧が与えられることに対応して第 1の 受光素子に蓄積される電荷量の変化、 第 2の受光素子に対する電荷読み出しを指 令するパルス電圧のタイミング、 電荷掃き出しパルス電圧および電荷読み出しパ ルス電圧が与えられることに対応して第 2の受光素子に蓄積される電荷量の変化 を示している。
感度のモザイク配列を電子的に実現する第 2の方法においては、 露光期間中に おいて、 電荷掃き出しパルス電圧および電荷読み出しパルス電圧が複数回繰り返 して供給される。
すなわち、 電荷掃き出しパルス電圧については、 第 1および第 2の受光素子に 対し共通して露光期間中において、 1回目の電荷掃き出しパルス電圧と 2回目の 電荷掃き出しパルス電圧の組が複数回供給される。 電荷読み出しパルス電圧につ いては、 第 1の受光素子に対しては、 1回目おょぴ 2回目の電荷掃き出しパルス 電圧の組毎に、 1回目の電荷掃き出しパルス電圧の直前に 1回目の電荷読み出し パルス電圧が供給され、 2回目の電荷掃き出しパルス電圧の直前に 2回目の電荷 読み出しパルス電圧が供給される。 一方、 第 2の受光素子に対しては、 電荷掃き 出しパルス電圧の組毎に、 1回目の電荷掃き出しパルス電圧の直前に 1回だけ電 荷読み出しパルス電圧が供給される。 その結果、 第 1の受光素子からは、 1回目おょぴ 2回目の電荷掃き出しパルス 電圧の組毎に、 1回目の電荷読み出しパルス電圧の供給タイミングにおける第 1 の受光素子の蓄積電荷量と、 2回目の電荷読み出しパルス電圧の供給タイミング における第 1の受光素子の蓄積電荷量が読み出される。 なお、 露光期間中は、 垂 直レジスタ 2 6の電荷の転送が停止されているので、 これら組ごとに 2回ずつ読 み出された電荷量は、 垂直レジスタ 2 6で加算される。 第 2の受光素子からは、 1回目および 2回目の電荷掃き出しパルス電圧の組毎に 1回だけ供給される電荷 読み出しパルス電圧の供給タイミングにおける第 2の受光素子の蓄積電荷量が読 み出される。 これら組ごとに 1回ずつ読み出された電荷量は、 垂直レジスタ 2 6 で加算される。
以上説明したような感度のモザイク配列を電子的に実現する第 2の方法では、 露光期間において電荷の読み出しを複数回繰り返すので、 露光期間中の全域にわ たる被写体の情報を計測することが可能となる。
なお、 上述した感度のモザィク配列を電子的に実現する第 1および第 2の方法 に関連し、 一般的に、 CCD イメージセンサ 4の読み出し制御は、 水平ライン毎に 配線される垂直レジスタ駆動電極 2 5に印加される。 例えば、 図 5に示した色 - 感度モザイクパターン P 1のように、 水平ライン毎に感度が変わるような感度の モザイク配列を実現するためには、 その電極構造を利用すればよいので、 ライン ごとに異なる読み出しパルス電圧がかけられるような若干の改良をおこなえばよ い。 さらに、 3相駆動の垂直レジスタを持つプログレッシブスキャンの CCDィメ ージセンサにおいては、 その電極構造を工夫することによって、 2段階感度によ る任意のモザイク配列を電子的に実現できる。
図 2 5は、 2段階の感度を有する感度のモザイク配列を実現するために用いる 電極配線による垂直転送用ポリシリコン電極の第 1の電極構造を示している。 図 2 6は、 図 2 5の図中の線分 a a, における CCDイメージセンサの断面図を示し ている。 第 1相垂直レジスタ駆動電極 4 2および第 2相垂直レジスタ駆動電極 4 3は、 同じ水平ライン上で隣接する画素の電極と連結しているので、 同一水平ラ ィン上の電極は同期して駆動される。一方、第 3相垂直レジスタ駆動電極 4 4は、 同じ垂直ライン上で隣接する画素の電極と連結しているので、 同一垂直ライン上 の電極は同期して駆動される。 また、 第 2相垂直レジスタ駆動電極 4 3およぴ第 3相垂直レジスタ駆動電極 4 4は、 対応するフォトダィォ一ド 2 3に隣接する読 み出しゲ一ト 4 1上にもかかるようになされている。
したがって、 第 2相垂直レジスタ駆動電極 4 3、 または第 3相垂直レジスタ駆 動電極 4 4に読み出しパルスを印加した場合、 読み出しゲ一ト 4 1のバリアを一 時的に取り除き、 対応するフォトダイォ一ド 2 3に蓄積されている電荷を垂直レ ジスタ 2 6に転送することが可能である。 以下、 図 2 5および図 2 6に示した電 極構造を O R型の電極構造と記述する。
図 2 7は、 2段階の感度を有する感度のモザイク配列を実現するために用いる 電極配線による垂直転送用ポリシリコン電極の第 2の電極構造を示している。 図 2 7の図中の線分 a a, における CCDイメージセンサの断面も、 図 2 6に示した 断面図と同様である。 すなわち、 第 2の電極構造においても、 第 1の電極構造と 同様に、 第 1相垂直レジスタ駆動電極 4 2および第 2相垂直レジスタ駆動電極 4 3は、 同じ水平ライン上で隣接する画素の電極と連結しているので、 同一水平ラ イン上の電極は同期して駆動される。 第 3相垂直レジスタ駆動電極 4 4は、 第 1 の電極構造と同様に、 同じ垂直ライン上で隣接する画素の電極と連結しているの で、 同一垂直ライン上の電極は同期して駆動される。
しかしながら、 第 3相垂直レジスタ駆動電極 4 4が対応するフォトダイオード 2 3に隣接する読み出しゲート 4 1上において、 当該フォトダイォード 2 3の辺 縁部分に沿って配置され、 次いでそれに隣接するように第 2相垂直レジスタ駆動 電極 4 3の細長く加工された部分が読み出しゲート 4 1にかかるようになされて いる点が第 1の電極構造と異なる。
したがって、 第 2相垂直レジスタ駆動電極 4 3および第 3相垂直レジスタ駆動 電極 4 4のうち、 一方だけに読み出しパルスを印加した場合、 読み出しゲート 4 1のパリアを取り除くことができない。読み出しグート 4 1のバリアを取り除き、 フォトダイォ一ド 2 3に蓄積されている電荷を垂直レジスタ 2 6に転送するため には、 第 2相垂直レジスタ駆動電極 4 3と第 3相垂直レジスタ駆動電極 4 4に同 時に読み出しパルスを印加する必要がある。以下、図 2 7に示した電極構造を AND 型の電極構造と記述する。 ,
以上説明した O R型の電極構造と AND型の電極構造を 1つの CCDイメージセン サ内で組み合わせて使うことにより、 2段階感度による任意のモザイク配列をつ くることができる。例えば、図 5に示した色'感度モザイクパターン P 1のうち、 感度のモザイク配列を実現するためには、 図 2 8に示すように O R型の電極構造 と AND型の電極構造を組み合わせればよい。
図 5と図 2 8を比較すれば明らかなように、 2段階の感度 S O , S Iのうち、 低感度 S 0の画素には AND型の電極構造を採用し、 高感度 S 1の画素には O R型 の電極構造を採用するようにする。 このように O R型と AND型の電極構造を組み 合わせて構成した CCDイメージセンサ 4に対し、 その第 2相垂直レジスタ駆動電 極 4 3に読み出しパルス電圧を印加すれば、 O R型の画素だけで電荷読み出しが おこなわれ、 第 2相垂直レジスタ駆動電極 4 3および第 3相垂直レジスタ駆動電 極 4 4に同時に読みだしパルス電圧を印加すれば、 O R型と AND型の両方、 すな わち全ての画素で電荷読み出しがおこなわれるようになる。
なお、 第 2相垂直レジスタ駆動電極 4 3、 および第 3相垂直レジスタ駆動電極 4 4に対するパルス電圧の供給タイミングは、 図 2 3 (または図 2 4 ) に示した 制御タイミングのうち、 同図(D )の 1回目の電荷読み出しパルス電圧の供給タイ ミングと、 同図(F )の電荷読み出しパルス電圧の供給タイミングにおいて、 第 2 相および第 3相の両方を駆動し、 同図(D )の 2回目の電荷読み出しパルス電圧の 供給タイミングにおいて第 2相だけを駆動するようにすれば、 O R型の電極構造 の画素は高感度 S 1となり、 AND型の電極構造の画素は低感度 S 0となる。
同様の方法により、 その他の 2段階の感度を有する感度のモザイク配列をつく ることができる。 例えば、 図 6に示した色 '感度モザイクパターン P 2のうち、 感度のモザイクパターンを実現するためには、 O R型と AND型を図 2 9に示すよ うに組み合わせる。 図 7に示した色■感度モザイクパターン P 3のうち、 感度の モザイクパターンを実現するためには、 OR型と AND型を図 30に示すように組 み合わせる。 図 8に示した色 '感度モザイクパターン P 4のうち、 感度のモザィ クパターンを実現するためには、 〇R型と AND型を図 3 1に示すように組み合わ せる。 図 9に示した色 .感度モザイクパターン P 5のうち、 感度のモザイクパタ ーンを実現するためには、 OR型と AND型を図 3 2に示すように組み合わせる。 次に、 画像処理部 7を中心とする画像処理系のデモザイク処理について説明す るが、 その前に、 以下の説明において用いる画素の位置座標の定義について、 図 33を参照して説明する。
図 3 3は、 画像上の画素の位置を示す座標系 (x, y ) を示している。 すなわ ち、 画像の左下端を (0, 0) とし、 画像の右上端を (xmax, yma x) とする。 図中に口で表されている各画素は、 長さ 1の横幅と縦幅を有し、 格子上に配列さ れている。 従って、 例えば、 左下端の画素の中心の座標は、 (0. 5, 0. 5) で あり、 右上端の画素の中心の座標は (xma x—0. 5, yma x- 0. 5) である。 また、 以下の説明において、 口で表されている各画素に対して位相が縦横に半画 素ずれた画像データ (図中に翁で表される位置の画素データ) を利用する場合が あるが、 例えば、 左下端の画素に対して縦横に半画素だけ位相がずれた画像デー タの座標は (1, 1) である。
次に、 図 34は、 画像処理部 7を中心とする画像処理系の第 1のデモザイク処 理の概要を示している。
第 1のデモザイク処理は、 図 34に示すように、 撮像系の処理によって得られ た色■感度モザイク画像の画素の色を変更することなく、 感度を均一化して色モ ザイク画像を生成する感度均一化処理と、 色■感度モザイク画像 Mの各画素の R GB成分を復元する色補正処理から成る。
第 1のデモザイク処理における第 1の感度均一化処理の概要について、 図 3 5 乃至図 37を参照して説明する。 図 3 5乃至図 3 7は、 処理される画像の所定の 1ラインの画素配列を示している。 X0は、 色成分が X (例えば、 R (赤)) であ り、 感度が 2段階 S O , S 1のうちの S 0であることを示し、 X Iは、 色成分が Xであり、 感度が 2段階 S O , S 1のうちの S 1であることを示し、 Y Oは、 色 成分が Y (例えば、 G (緑)) であり、 感度が 2段階 S 0 , S 1のうちの S Oであ ることを示し、 Y 1は、 色成分が Yであり、 感度が 2段階 S 0 , S 1のうちの S 1であることを示している。 感度 S Oの画素は、 入射光の強度を所定の割合で減 衰させて測光し、 感度 S 1の画素は、 入射光の強度を減衰させることなく測光す る。 また、 同図の横軸は画素のライン上の位置を示しており、 縦棒の長さは対応 する画素の画素値を示している。
第 1のデモザイク処理における第 1の感度均一化処理は、 2段階の処理に分別 することができる。 図 3 5は、 第 1の感度均一化処理を施される前の色 '感度モ ザイク画像の所定の 1ラインの画素の画素値を示している。 なお、 曲線 Xは、 入 射光の色 Xの強度分布を示し、 曲線 Yは、 色 Yの強度分布を示している。
閾値 0 Hは、 CCDイメージセンサ 4の飽和レベルを示し、入射光の強度が閾値 0 Hを越える場合、 その強度を正確に測定することができず、 その測定値は閾値 0 H と等しい値となる。 閾値 0 は、 CCDイメージセンサ 4のノイズレベルを示してお り、 入射光の強度が閾値 0 !_よりも小さい場合も、 その強度を正確に測定するこ とができず、 その測定値は閾値 0 と等しい値となる。
有効性判別結果は、 各画素が入射光の強度を正確に測定できたか否かを示す情 報、 すなわち、 測定された各画素の画素値が有効 V (Valid)であるか、 無効 I (Invalid)であるかを示す情報である。
第 1の感度均一化処理の 1段階目の処理により、 感度 S 0の画素の画素値は、 感度 S 1に対する感度 S 0の相対的比率を用いてスケーリングされる。 感度 S 1 の画素の画素値はスケーリングされない。 図 3 6は、 第 1の感度均一化処理の 1 段階目の処理を施した結果を示している。 1段階目の処理が施された状態では、 同図に示すように、 有効性判別結果が有効である画素は、 スケーリングによって 本来の光強度が復元されるが、 無効である画素は、 本来の光強度が復元されてい ない。 そこで、 第 1の感度均一化処理の 2段階目の処理では、 無効である画素の画素 値を、 その近傍の同じ色の有効な画素の画素値を用いて補間する。 図 3 7は、 第 1の感度均一化処理の 2段階目の処理を施した結果を示している。 例えば、 図 3 7の中央の無効であって色 Yの画素は、 近傍の有効な色 Yの画素の画素値を用い て生成される補間曲線 Y 'に従って補間される。
次に、 第 1のデモザイク処理における第 2の感度均一化処理の概要について、 図 3 5、 図 3 8、 および図 3 9を参照して説明する。 第 2の感度均一化処理も、 2段階の処理に分別することができる。 第 2の感度均一化処理が施される前の 色 -感度モザイク画像の所定の 1ラインの画素の画素値は、 図 3 5と同様である とする。
第 2の感度均一化処理の 1段階目の処理により、 各画素の色を変更することな く、 感度 S Oでの画素値と、 感度 S 1での画素値が推定される。 例えば、 色 で あって感度 S 0の画素については、 感度 S 0での画素値はそのまま用いられ、 感 度 S 1での推定値が近傍に存在する色 Xであって感度 S 1の画素の画素値を用い て補間される。 図 3 8は、 第 2の感度均一化処理の 1段階目の処理を施した結果 を示している。 同図に示すように、 1段階目の処理が施されたことにより、 各画 素は、 元の色の感度 S 0の画素値と、 感度 S 1の画素値を有している。
第 2の感度均一化処理の 2段階目の処理では、 画素毎に感度 S 0の画素値と、 感度 S 1の画素値が合成されて感度が均一化される。 図 3 9は、 第 2の感度均一 化処理の 2段階目の処理を施した結果を示している。
次に、 図 4 0は、 画像処理部 7を中心とする画像処理系の第 2のデモザイク処 理の概要を示している。
第 2のデモザイク処理は、 図 4 0に示すように、 撮像系の処理によって得られ た色 ·感度モザイク画像の画素の色を、 感度均一化のために最適な色に変更して 感度を均一化し、 色モザイク画像を生成する感度均一化処理と、 色 .感度モザィ ク画像 Mの各画素の R G B成分を復元する色補正処理から成る。
第 2のデモザイク処理における第 1の感度均一化処理の概要について、図 3 5、 図 4 1および図 4 2を参照して説明する。
第 2のデモザイク処理における第 1の感度均一化処理も、 2段階の処理に分別 することができる。 第 1の感度均一化処理が施される前の色 ·感度モザイク画像 の所定の 1ラインの画素の画素値は、 図 3 5と同様であるとする。
第 2のデモザイク処理における第 1の感度均一化処理の 1段階目の処理により、 感度 S 0の画素の画素値は、 感度 S 1に対する感度 S 0の相対的比率を用いてス ケーリングされる。感度 S 1の画素の画素値はスケーリングされない。図 4 1は、 第 1の感度均一化処理の 1段階目の処理を施した結果を示している。 1段階目の 処理が施された状態では、 同図に示すように、 有効性判別結果が有効 Vである画 素は、スケーリングによって本来の光強度が復元される力 無効 Iである画素は、 本来の光強度が復元されていない。
そこで、 第 2のデモザイク処理における第 1の感度均一化処理の 2段階目の処 理では、 無効である画素の画素値を、 その色に拘わらず近傍の有効な画素の画素 値を用いて補間する。 図 4 2は、 第 1の感度均一化処理の 2段階目の処理を施し た結果を示している。 例えば、 図 4 1の中央の無効であって色 Yの画素は、 図 4 2に示すように、 当該画素に隣接する有効な色 Xの画素の画素値を用いて生成さ れる補間曲線 X 'に基づいて色 Xの画素値が捕間される。
次に、 第 2のデモザイク処理における第 2の感度均一化処理の概要について、 図 3 5、 図 4 3、 および図 4 4を参照して説明する。 第 2のデモザイク処理にお ける第 2の感度均一化処理も、 2段階の処理に分別することができる。 第 2の感 度均一化処理が施される前の色■感度モザイク画像の所定の 1ラインの画素の画 素値は、 図 3 5と同様であるとする。
第 2のデモザイク処理における第 2の感度均一化処理の 1段階目の処理では、 各画素に対し、 色に拘わらずより近くに位置する近傍の画素の画素値が用いられ て感度 S Oでの画素値と、 感度 S 1での画素値が推定される。 例えば、 色 Xの画 素の推定値として、 当該画素に隣接する画素が色 Yである場合、 色 Yの感度 S 1 での推定値と、 感度 S 1での画素値が補間される。 図 4 3は、 第 2の感度均一化 処理の 1段階目の処理を施した結果を示している。 同図に示すように、 1段階目 の処理が施されたこと より、 各画素は、 元の色に拘わらず隣接した画素の色に 変更されて、 感度 S Oでの画素値と、 感度 S 1での画素値を有している。
第 2のデモザィク処理における第 2の感度均一化処理の 2段階目の処理では、 画素毎に感度 S 0の画素値と、 感度 S 1の画素値が合成されて感度が均一化され る。 図 4 4は、 第 2の感度均一化処理の 2段階目の処理を施した結果を図 4 4に 示す。
次に、 第 1のデモザイク処理を主に実行する画像処理部 7の第 1の構成例につ いて、 図 4 5を参照して説明する。 以下、 特に断りがある場合を除き、 色 .感度 モザイク画像は、 図 6の色 '感度モザイクパターン P 2である、 すなわち、 画素 の色は 3原色 R G Bのうちのいずれかの色であり、 感度は S 0 , S 1のうちの一 方であるとする。 ただし、 以下に説明する構成や動作は、 R G B以外の 3色から 成る色■感度モザイク画像や、 4色から成る色■感度モザイク画像に適用するこ とも可能である。
画像処理部 7の第 1の構成例において、撮像系からの色'感度モザイク画像は、 感度均一化部 5 1に供給される。 色 '感度モザイク画像の色モザイク配列を示す 色モザイクパターン情報は、 感度均一化部 5 1、 および色捕間部 5 2に供給され る。 色 ·感度モザイク画像の感度モザイク配列を示す感度モザイクパターン情報 は、 感度均一化部 5 1に供給される。
感度均一化部 5 1は、 色モザイクパターン情報および感度モザイクパターン情 報に基づき、 色 ·感度モザイク画像に感度均一化処理を施すことによって、 各画 素の色が変更されずに感度が均一化された色モザィク画像 Mを生成し、 色補間部 5 2に出力する。
色捕間部 5 2は、 感度均一化部 5 1からの色モザイク画像 Mに対し、 色モザィ クパターン情報を用いる色補間処理を施すことによって出力画像 R , G , Bを生 成する。
なお、 色モザイクパターン情報は、 色 '感度モザイク画像の各画素の色の種類 (いまの場合、 R, G, Bのいずれかの色) を示す情報であり、 画素位置をイン デッタスとして、 その画素が有する色成分の情報を取得できるようになされてい る。
感度モザィクパターン情報は、色 ·感度モザィク画像の各画素の感度の種類(い まの場合、 S 0または S 1 )を示す情報であり、画素位置をインデックスとして、 その画素の感度の情報を取得できるようになされている。
図 4 6は、 感度均一化部 5 1の第 1の構成例を示している。 当該第 1の構成例 は、 図 3 5乃至図 3 7を参照して説明した第 1の感度均一化処理を実行する感度 均一化部 5 1の構成例である。
感度均一化部 5 1の第 1の構成例において、 撮像系からの色 .感度モザイク画 像は、 感度補償部 6 1および有効性判別部 6 3に供給される。 色モザイクパター ン情報は、 欠落補間部 6 4に供給される。 感度モザイクパターン情報は、 感度補 償部 6 1および有効性判別部 6 3に供給される。
感度補償部 6 1は、 相対感度値 LUT 6 2から得られる相対感度値 Sに基づき、 色■感度モザイク画像に感度補償を施して欠落補間部 6 4に出力する。 相対感度 値 LUT 6 2は、 画素の感度をインデックスとして、 相対感度値 Sを出力するルツ クアップテーブルである。
有効性判別部 6 3は、 色 ·感度モザイク画像の各画素の画素値を、 飽和レベル の閾値 0 Hおよびノイズレベルの Θ Lと比較することによって画素値の有効性を 判別し、 その結果を判別情報として欠落補間部 6 4に供給する。 判別情報には、 各画素の画素値について、 有効(Valid)、 または無効(Invalid)を示す情報が記述 されている。
欠落補間部 6 4は、 有効性判別部 6 3からの判別情報に基づき、 感度補償され た色 ·感度モザイク画像に欠落補間処理を施すことによって色モザイク画像 Mを 生成し、 後段の色補間部 5 2に出力する。 ·
図 4 7は、 色補間部 5 2の構成例を示している。 色補間部 5 2において、 感度 均一化部 5 1からの色モザイク画像 Mは、 階調変換部 7 1に供給される。 色モザ イクパターン情報は、 色差画像生成部 72, 73、 および輝度画像生成部 74に 供給される。
階調変換部 7 1は、 色モザイク画像 Mに対して階調変換処理を施し、 得られる 変調色モザィク画像 M gを色差画像生成部 72, 73、 および輝度画像生成部 7 4に供給する。 階調変換処理としては、 具体的には γ乗のべき算関数による変換 等を用いる。
色差画像生成部 72は、 変調色モザイク画像 Mgを用い、 全ての画素が色差 C (=R— G) 成分を有する色差画像 Cを生成して輝度画像生成部 74および色空 間変換部 75に供給する。 色差画像生成部 73は、 変調色モザイク画像 Mgを用 い、 全ての画素が色差 D (=B-G) 成分を有する色差画像 Dを生成して輝度画 像生成部 74および色空間変換部 15に供給する。 輝度画像生成部 74は、 変調 モザイク画像 Mg、 色差信号 C, Dを用いて輝度画像 Lを生成し、 色空間変換部 75に供給する。
色空間変換部 75は、 色差画像 C, D、 および輝度画像 Lに色空間変換処理を 施し、 得られる変調画像 (各画素がそれぞれ RGB成分を有する画像) を階調逆 変換部 76乃至 78に供給する。
階調逆変換部 76は、 色空間変換部 75からの R成分の画素値を ( 1 / γ ) 乗 することにより、 階調変換部 71における階調変換の逆変換を施して出力画像 R を得る。 階調逆変換部 77は、 色空間変換部 75からの G成分の画素値を (1/ γ) 乗することにより、 階調変換部 7 1における階調変換の逆変換を施して出力 画像 Gを得る。 階調逆変換部 78は、 色空間変換部 75からの Β成分の画素値を il/y) 乗することにより、 階調変換部 7 1における階調変換の逆変換を施し て出力画像 Bを得る。
なお、 感度均一化部 5 1から供給される色モザイク画像 Mがべィャ配列を成し ている場合、 色補間部 5 2において、 例えば、 特開昭 6 1 - 501424号公報 等に開示されている従来の方法を用いて色補間処理を実行するようにしてもよい c 図 48は、 色差画像生成部 72の構成例を示している。 色差画像生成部 72に おいて、 階調変換部 7 1からの変調色モザイク画像 M gは平滑化部 8 1, 8 2に 供給される。 色モザイクパターン情報も平滑化部 8 1, 8 2に供給される。 平滑化部 8 1は、 各画素に対し、 R成分を有する近傍の画素の画素値を用いて 当該画素の R成分を補間することにより、 平滑化された R成分の画像 R ' を生成 して減算器 8 3に供給する。 平滑化部 8 2は、 各画素に対し、 G成分を有する近 傍の画素の画素値を用いて当該画素の G成分を補間することにより、 平滑化され た G成分の画像 G, を生成して減算器 8 3に供給する。
減算器 8 3は、 平滑化部 8 1からの平滑化される R成分の画像 R ' の画素値か ら、 平滑化部 8 2からの平滑化される G成分の画像 G, の対応する画素の画素値 を減算することにより、 色差画像 Cを生成して色空間変換部 7 5に供給する。 なお、 色差画像生成部 7 3の同様に構成されている。
図 4 9は、 輝度画像生成部 7 4の構成例を示している。 輝度画像生成部 7 4を 構成する輝度算出部 9 1は、 階調変換部 7 1からの変調色モザイク画像 M g、 色 差画像生成部 7 2からの色差画像 C、 色差画像生成部 7 3からの色差画像 D、 お よび色モザイクパターン情報に基づいて各画素の輝度候捕値を算出し、 各画素の 輝度候補値からなる輝度候補値画像 L cをノィズ除去部 9 2に出力する。
ノイズ除去部 9 2は、 輝度候補値画像 L cの各画素値 (輝度候補値) に平滑化 成分 (後述) を合成することによってノイズを除去し、 得られる輝度画像 Lを色 空間変換部 7 5に出力する。
次に、 図 4 5に示した画像処理部 7の第 1の構成例による第 1のデモザイク処 理について、 図 5 0にフローチャートを参照して説明する。
ステップ S 1において、 感度均一化部 5 1は、 色モザイクパターン情報および 感度モザイクパターン情報に基づき、 色 ·感度モザイク画像に感度均一化処理を 施し、 得られた色モザイク画像 Mを色補間部 5 2に出力する。
図 4 6に示した感度均一化部 5 1の第 1の構成例による第 1の感度均一化処理 の詳細について、 図 5 1のフローチヤ一トを参照して説明する。
ステップ S 1 1において、 感度補償部 6 1は、 入力された色 '感度モザイク画 像に感度補償処理を施し、 感度補償された色 ·感度モザイク画像を欠落補間部 6 4に供給する。
感度補償処理の詳細について、 図 5 2のフローチャートを参照して説明する。 ステップ S 2 1において、 感度補償部 6 1は、 色 ·感度モザイク画像の全ての画 素を注目画素としたか否かを判定し、 全ての画素を注目画素としていないと判定 した場合、ステップ S 2 2に進む。ステップ S 2 2において、感度補償部 6 1は、 色 ·感度モザイク画像の左下の画素から右上の画素まで、 順次 1画素ずつ注目画 素に決定する。
ステップ S 2 3において、 感度補償部 6 1は、 感度モザイクパターン情報を参 照することにより、 注目画素の感度 (3 0または3 1 ) を取得し、 さらに、 相対 感度値 LUT 6 2を参照することによって注目画素の感度に対応する相対感度値 S を取得する。
ステップ S 2 4において、 感度補償部 6 1は、 色 ·感度モザイク画像の注目画 素の画素値を相対感度値 Sで除算することにより、その画素値の感度を補償する。 感度が補償された画素値は、 感度補償された色 ·感度モザイク画像の画素値とさ れる。
処理は、 ステップ S 2 1に戻り、 全ての画素を注目画素としたと判定されるま で、ステップ S 2 1乃至 S 2 4の処理が繰り返される。ステップ S 2 1において、 全ての画素を注目画素としたと判定された場合、 処理は図 5 1のステップ S 1 2 にリターンする。
ステップ S 1 2において、 有効性判別部 6 3は、 色 ·感度モザイク画像に有効 性判別処理を施すことにより、 各画素の画素値の有効性を示す判別情報を生成し て欠落補間部 6 4に供給する。 なお、 ステップ S 1 2の有効判別処理は、 ステツ プ S 6 1の感度補償処理を平行して実行するようにしてもよい。
有効性判別処理の詳細について、図 5 3のフローチャートを参照して説明する。 ステップ S 3 1において、 有効性判別部 6 3は、 色 ·感度モザイク画像の全ての 画素を注目画素としたか否かを判定し、 全ての画素を注目画素としていないと判 定した場合、 ステップ S 3 2に進む。 ステップ S 3 2において、 有効性判別部 6 3は、 色 ·感度モザイク画像の左下の画素から右上の画素まで、 順次 1画素ずつ 注目画素に決定する。
ステップ S 3 3において、 有効性判別部 6 3は、 色 '感度モザイク画像の注目 画素の画素値が、 ノイズレベルの閾値 Θ Lと飽和レベルの閾値 θ Hの範囲内である か否かを判定し、 閾値の範囲内であると判定した場合、 ステップ S 3 4に進む。 ステップ S 3 4において、 有効性判別部 6 3は、 注目画素の判別情報を有効と する。 処理はステップ S 3 1に戻る。
ステップ S 3 3において、 色 ·感度モザイク画像の注目画素の画素値が閾値の 範囲内ではないと判定した場合、 ステップ S 3 5に進む。 ステップ S 3 5におい て、 有効性判別部 6 3は、 色 ·感度モザイク画像の注目画素の画素値が、 飽和レ ベルの閾値 θ H以上であるか否かを判定し、飽和レベルの閾値 0 H以上であると判 定した場合、 ステップ S 3 6に進む。
ステップ S 3 6において、 有効性判別部 6 3は、 感度モザイクパターン情報を 参照することにより、 注目画素が感度 S 0であるか否かを判定し、 感度 S Oであ ると判定した場合、 ステップ S 3 4に進み、 注目画素が感度 S 0ではないと判定 した場合、 ステップ S 3 7に進む。
ステップ S 3 7において、 有効性判別部 6 3は、 注目画素の判別情報を無効と する。 処理はステップ S 3 1に戻る。
ステップ S 3 5において、 色 '感度モザイク画像の注目画素の画素値が飽和レ ベルの閾値 0 H以上ではないと判定した場合、 ステップ S 3 8に進む。 ステップ S 3 8において、 有効性判別部 6 3は、 感度モザイクパターン情報を参照するこ とにより、 注目画素が感度 S 1であるか否かを判定し、 感度 S 1であると判定し た場合、 ステップ S 3 4に進み、 注目画素が感度 S 1ではないと判定した場合、 ステップ S 3 7に進む。
その後、 ステップ S 3 1において、 全ての画素を注目画素としたと判定される まで、ステップ S 3 1乃至 3 8の処理が繰り返される。ステップ S 3 1において、 全ての画素を注目画素としたと判定された場合、 処理は図 5 1のステップ S 1 3 にリターンする。
ステップ S 1 3において、 欠落補間部 6 4は、 有効性判別部 6 3からの判別情 報に基づき、 感度補償された色■感度モザイク画像に欠落補間処理を施し、 得ら れた色モザイク画像 Mを色補間部 5 2に供給する。
欠落補間処理の詳細について、 図 5 4のフローチヤ一トを参照して説明する。 ステップ S 4 1において、 欠落補間部 6 4は、 感度補償された色 '感度モザイク 画像の全ての画素を注目画素としたか否かを判定し、 全ての画素を注目画素とし ていないと判定した場合、 ステップ S 4 2に進む。 ステップ S 4 2において、 欠 落補間部 6 4は、 感度補償された色■感度モザイク画像の左下の画素から右上の 画素まで、 順次 1画素ずつ注目画素に決定する。
ステップ S 4 3において、 欠落捕間部 6 4は、 注目画素の判別情報が無効であ るか否かを判定し、 注目画素の判別情報が無効であると判定した場合、 ステップ S 4 4に進む。
ステップ S 4 4において、 欠落補間部 6 4は、 色モザイクパターン情報を参照 することにより、 注目画素の色の種類 (いまの場合、 R G Bのうちのいずれかの 色) を判別し、 注目画素の近傍の画素 (例えば、 注目画素を中心とする 5 X 5画 素) のうち、 注目画素と同じ色であって、 かつ、 判別情報が有効である画素を検 出し、 検出した画素 (以下、 参照画素と記述する) の画素値を抽出する。
ステップ S 4 5において、 欠落補間部 6 4は、 参照画素の注目画素に対する相 対的な位置に対応して予め設定されているフィルタ係数を、 参照画素の数だけ取 得する。 ステップ S 4 6において、 欠落補間部 6 4は、 各参照画素の画素値と、 対応するフィルタ係数を乗算し、 それらの積の総和を演算する。 さらに、 その積 の総和を、 用いたフィルタ係数の総和で除算して、 その商を色モザイク画像 Mの 注目画素の画素値とする。
処理は、 ステップ S 4 1に戻り、 全ての画素を注目画素としたと判定されるま で、 ステップ S 4 1乃至 4 6の処理が繰り返される。 ステップ S 4 1において、 全ての画素を注目画素としたと判定された場合、 処理は図 5 0のステップ S 2に リターンする。
以上説明したステップ S 1の感度均一化処理によつて得られた色モザィク画像 Mに対し、 ステップ S 2において、 色補間部 5 2は、 色モザイクパターン情報に 基づいて色補間処理を施すことにより、 出力画像 R, G, Bを生成する。
色捕間処理の詳細について、 図 5 5のフローチャートを参照して説明する。 ス テツプ S 5 1において、 階調変換部 7 1は、 色モザイク画像 Mに対して階調変調 処理を施す (具体的には、 変調色モザイク画像 M gの各画素値を γ乗する) こと により、 変調色モザイク画像 M gを生成して色差画像生成部 7 2, 7 3、 および 輝度画像生成部 7 4に供給する。
ステップ S 5 2において、 色差画像生成部 7 2は、 階調変換部 7 1からの変調 色モザイク画像 M gを用いて色差画像 Cを生成し、 輝度画像生成部 7 4および色 空間変換部 7 5に供給する。 一方、 色差画像生成部 7 3は、 階調変換部 7 1から の変調色モザイク画像 M gを用いて色差画像 Dを生成し、 輝度画像生成部 7 4お よび色空間変換部 7 5に供給する。
色差画像生成部 7 2が色差画像 Cを生成する第 1の処理について、 図 5 6のフ ローチャートを参照して説明する。 ステップ S 6 1において、 平滑化部 8 1, 8 2は、 変調色モザイク画像 M gの全ての画素を注目画素としたか否かを判定し、 全ての画素を注目画素としていないと判定した場合、 ステップ S 6 2に進む。 ス テツプ S 6 2において、 平滑化部 8 1 , 8 2は、 変調色モザイク画像 M gの左下 の画素から右上の画素まで、 順次 1画素ずつ注目画素に決定する。
ステップ S 6 3において、 平滑化部 8 1は、 色モザイクパターン情報を参照す ることにより、 注目画素の近傍の画素 (例えば、 注目画素を中心とする 5 X 5画 素) のうち、 R成分を有する画素を検出し、 検出した画素 (以下、 参照画素と記 述する) の画素値を抽出する。 一方、 平滑化部 8 2も同様に、 色モザイクパター ン情報を参照することにより、 注目画素の近傍の画素のうち、 G成分を有する画 素を検出し、 検出した画素の画素値を抽出する。 ステップ S 6 4において、 平滑化部 8 1は、 R成分を有する参照画素の注目画 素に対する相対的な位置に対応して予め設定されているフィルタ係数を、 参照画 素の数だけ取得する。 一方、 平滑化部 8 2も同様に、 G成分を有する参照画素の 注目画素に対する相対的な位置に対応して予め設定されているフィルタ係数を、 参照画素の。数だけ取得する。
ステップ S 6 5において、 平滑化部 8 1は、 R成分を有する各参照画素の画素 値と、対応するフィルタ係数とを乗算し、それらの積の総和を演算する。さらに、 その積の総和を、 用いたフィルタ係数の総和で除算して、 その商を平滑化された R成分だけの画像 R ' の注目画素に対応する画素値とする。 一方、 平滑化部 8 2 も同様に、 G成分を有する各参照画素の画素値と、 対応するフィルタ係数とを乗 算し、 それらの積の総和を演算する。 さらに、 その積の総和を、 用いたフィルタ 係数の総和で除算して、 その商を平滑化された G成分だけの画像 G ' の注目画素 に対応する画素値とする。
ステップ S 6 6において、 減算器 8 3は、 平滑化部 8 1からの平滑化された R 成分だけの画像 R ' の注目画素に対応する画素値から、 平滑化部 8 2からの平滑 化された G成分だけの画像 G, の注目画素に対応する画素値を減算し、 その差を 色差画像 Cの注目画素に対応する画素値とする。
処理は、 ステップ S 6 1に戻り、 全ての画素を注目画素としたと判定されるま で、 ステップ S 6 1乃至 6 6の処理が繰り返される。 ステップ S 6 1において、 全ての画素を注目画素としたと判定された場合、 処理は図 5 5のステップ S 5 3 にリターンする。
なお、 色差画像生成部 7 3が色差画像 Dを生成する処理は、 上述した色差画像 生成部 7 2が色差画像 Cを生成する第 1の処理と同様であるので、 その説明は省 略する。
ステップ S 5 3において、 輝度画像生成部 7 4は、 変調モザイク画像 M g、 色 差信号 C, Dを用いて輝度画像 Lを生成し、 色空間変換部 7 5に供給する。 輝度画像生成部 7 4の輝度画像生成処理の詳細について、 図 5 7のフローチヤ ートを参照して説明する。 ステップ S 7 1において、 輝度算出部 9 1は、 変調色 モザイク画像 Mgの全ての画素を注目画素としたか否かを判定し、 全ての画素を 注目画素としていないと判定した場合、 ステップ S 72に進む。 ステップ S 72 において、 輝度算出部 9 1は、 変調色モザイク画像 Mgの左下の画素から右上の 画素まで、 順次 1画素ずつ注目画素に決定する。
ステップ S 73において、 輝度算出部 9 1は、 色モザイクパターン情報を参照 して、 注目画素の色の種類 (いまの場合、 RGBのいずれかの色) を判定する。 ステップ S 73において、 注目画素の色の種類が Rであると判定された場合、 処理はステップ S 74に進む。 ステップ S 74において、 輝度算出部 9 1は、 変 調色モザイク画像 Mg、 および色差信号 C, Dの注目画素に対応する画素値を次 式( 1 )に適用して、輝度候補画像 L cの注目画素に対応する画素値を算出する。
L c = 3Mg - 2 C + D · · ■ ( 1 ) ステップ S 73において、 注目画素の色の種類が Gであると判定された場合、 処理はステップ S 7 5に進む。 ステップ S 7 5において、 輝度算出部 9 1は、 変 調色モザイク画像 Mg、 および色差信号 C, Dの注目画素に対応する画素値を次 式 (2) に適用して輝度候補画像 L cの注目画素に対応する画素値を算出する。
L c = 3Mg + C+D ■ ■ - (2) ステップ S 73において、 注目画素の色の種類が Bであると判定された場合、 処理はステップ S 76に進む。 ステップ S 76において、 輝度算出部 9 1は、 変 調色モザイク画像 Mg、およぴ色差信号 C, Dの注目画素に対応する画素値 Mg,
C, Dを次式 (3) に適用して輝度候補画像 L cの注目画素に対応する画素値を 算出する。
L c = 3Mg +C- 2D · · · (3) なお、 式 (1) 乃至 (3) において、 L c, Mg , C, Dは、 それぞれ、 注目 画素に対応する輝度候補画像 L c、 変調色モザイク画像 Mg、 色差信号 C、 色差 画像 Dの画素値である。
処理はステップ S 7 1に戻り、全ての画素を注目画素としたと判定されるまで、 ステップ S 7 1乃至 S 76の処理が繰り返される。 ステップ S 7 1において、 全 ての画素を注目画素としたと判定された場合、 処理はステップ S 7 7に進む。 以上説明したステップ S 7 1乃至 S 76の処理によって生成された輝度候補画 像し cはノイズ除去部 9 2に供給される。
ステップ S 77において、 ノイズ除去部 92は、 変調色モザイク画像 Mgの全 ての画素を注目画素としたか否かを判定し、 全ての画素を注目画素としていない と判定した場合、 ステップ S 78に進む。 ステップ S 78において、 ノイズ除去 部 92は、 変調色モザイク画像 Mgの左下の画素から右上の画素まで、 順次 1画 素ずつ注目画素に決定する。
ステップ S 7 9において、 ノイズ除去部 92は、 注目画素の上下左右に位置す る画素の画素値 (輝度候補値) を次式 (4) に適用して、 注目画素に対応する勾 配▽ (グラディエント) を算出する。 なお、 勾配▽は、 画像の水平方向と垂直方 向の 1次微係数を要素とするベク トルである。 また、 注目画素の上下左右に位置 する画素の画素値(輝度候補値) を、それぞれ L c (U), L c (D), L c (L), L c (R) とする。
勾配▽= (L c (R) —L c (L), L c (U) — L c (D)) · ■ · (4) ステップ S 80において、 ノイズ除去部 92は、 注目画素の上下左右に位置す る画素の画素値 (輝度候補値) を次式 (5), (6) に適用して、 注目画素に対応 する水平方向の平滑化成分 Hhと垂直方向の平滑化成分 Hvを算出する。
Hh = (L c (L) + L c (R)) / 2 · · · (5)
H v = (L c (U) + L c (D)) /2 · · · (6) ステップ S 8 1において、 ノイズ除去部 92は、 ステップ S 79で算出した注 目画素に対応する勾配▽の絶対値 II V IIに対応して、 水平方向の平滑化寄与率 w hと垂直方向の平滑化寄与率 w Vを算出する。
具体的には、勾配▽の絶対値が 0よりも大きい場合、次式(7)に示すように、 正規化した勾配 VZIIV IIとベク トル (1, 0) との内積の絶対値を 1から減算 して水平方向の平滑化寄与率 whを得る。 また、 次式 (8) に示すように、 正規 化した勾配▽/ I!▽ IIとベク トル (o, 1) との内積の絶対値を 1から減算して 垂直方向の平滑化寄与率 W Vを得る。
wh = 1 - I (νκιι ν II , (1, o)) I · ■ · (7) wv = l- I (V/|| v II , (0, 1)) I · ' · (8) 勾配▽の絶対値が 0である場合、 水平方向の平滑化寄与率 whおよび垂直方向 の平滑化寄与率 wvを、 それぞれ 0. 5とする。
ステップ S 8 2において、 ノイズ除去部 92は、 次式 (9) を用いて注目画素 に対応する輝度画像 Lの画素値 (輝度値) を算出する。
L = L c + (wh - Hh+wv · Ην) / (wh+wv) · · · ( 9 ) なお、 式 (9) において、 L c, Lは、 それぞれ、 注目画素に対応する輝度候補 画像 L c、 輝度画像 Lの画素値である。
処理はステップ S 77に戻り、全ての画素を注目画素としたと判定されるまで、 ステップ S 7 7乃至 S 8 2の処理が繰り返される。 ステップ S 77において、 全 ての画素を注目画素としたと判定された場合、 処理は図 5 5のステップ S 54に リターンする。
ステップ S 54において、 色空間変換部 75は、 色差画像 C, D、 および輝度 画像 Lに色空間変換処理を施すことにより、 各画素がそれぞれ RGB成分を有す る変調画像を生成して階調逆変換部 76乃至 78に供給する。
色空間変換処理の詳細について、図 58のフローチャートを参照して説明する。 ステップ S 9 1において、 色空間変換部 75は、 輝度画像 L (色差画像 C、 また は色差画像 Dでもよい) の全ての画素を注目画素としたか否かを判定し、 全ての 画素を注目画素としていないと判定した場合、 ステップ S 92に進む。 ステップ S 92において、 色空間変換部 75は、 輝度画像 Lの左下の画素から右上の画素 まで、 順次 1画素ずつ注目画素に決定する。
ステップ S 9 3において、 色空間変換部 75は、 注目画素に対応する輝度画像 L、 色差画像 C、 および色差画像 Dの画素値を次式 (10), (1 1), (1 2) に 適用して、 注目画素に対応する変調画像の R成分の値 R g、 G成分の値 G g、 B 成分の値 B gを算出する。
R g = (L+ 2 C-D) /3 · ' · (1 0) G g= (L-C-D) /3 · ' · (1 1) B g = (L-C+ 2D) /3 - - - (1 2) なお、 式 (1 0) 乃至 (1 2) において、 L, C, Dは、 それぞれ、 注目画素 に対応する輝度画像 L、 色差信号 C、 色差画像 Dの画素値である。
処理はステップ S 9 1に戻り、全ての画素を注目画素としたと判定されるまで、 ステップ S 9 1乃至 S 9 3の処理が繰り返される。 ステップ S 91において、 全 ての画素を注目画素としたと判定された場合、 処理は図 5 5のステップ S 5 5に リターンする。
ステップ S 5 5において、 階調逆変換部 76は、 色空間変換部 75から供給さ れた変調画像の各画素の R成分に対し、 ステップ S 5 1の階調変換処理に対応す る階調逆変換処理を施すこと (具体的には、 画素値を ΐΖγ乗すること) によつ て出力画像 Rを生成する。 同様に、 階調逆変換部 77は、 色空間変換部 75から 供給された変調画像の各画素の G成分に対し、 ステップ S 5 1の階調変換処理に 対応する階調逆変換処理を施すことによって出力画像 Gを生成する。 階調逆変換 部 78は、 色空間変換部 75から供給された変調画像の各画素の Β成分に対し、 ステップ S 5 1の階調変換処理に対応する階調逆変換処理を施すことによって出 力画像 Βを生成する。以上説明したような色補間処理によって、出力画像 R, G, BGが生成される。
以上により、 図 4 5に示した画像処理部 7の第 1の構成例による第 1のデモザ イク処理についての説明を終了する。
次に、 図 46に示した感度均一化部 5 1の第 2の構成例の代わりに用いること ができる感度均一化部 5 1の第 2の構成例について、図 5 9を参照して説明する。 当該第 2の構成例は、 図 3 5、 図 3 8、 およぴ図 3 9を参照して説明した第 1 のデモザイク処理における第 2の感度均一化処理を感度均一化部 5 1が実行する ための構成例である。 以下、 色 '感度モザイク画像は、 図 1 4の色 '感度モザイクパターン P 1 0、 図 1 5の色■感度モザイクパターン P 1等のように、 画素の色は 3原色 R G Bのう ちのいずれかの色であり、 感度は 4段階 S 0, S I , S 2 , S 3のうちのいずれ かの感度であるとして説明する。 ただし、 以下に説明する構成や動作は、 R G B 以外の 3色から成る色 ·感度モザイク画像や、 4色から成る色 ·感度モザイク画 像に適用することも可能である。 また、 感度が 2段階、 または 3段階である色 感度モザイクパターンに適用することが可能である。
感度均一化部 5 1の第 2の構成例において、 撮像系からの色 ·感度モザイク画 像、 色モザイクパターン情報、 および感度モザイクパターン情報は、 補間部 1 0 1一 1乃至 1 0 1— 4に供給される。
補間部 1 0 1 _ 1は、 色 ·感度モザイク画像の各画素の色を変更せずに感度 S 0の補間処理を施し、 得られる感度 S 0に対応する補間値を加算器 1 0 2に出力 する。 補間部 1 0 1— 2は、 色 ·感度モザイク画像の各画素の色を変更せずに感 度 S 1の補間処理を施し、 得られる感度 S 1に対応する補間値を加算器 1 0 2に 出力する。 捕間部 1 0 1— 3は、 色 '感度モザイク画像の各画素の色を変更せず に感度 S 2の補間処理を施し、 得られる感度 S 2に対応する補間値を加算器 1 0 2に出力する。 補間部 1 0 1— 4は、 色 ·感度モザイク画像の各画素の色を変更 せずに感度 S 3の補間処理を施し、 得られる感度 S 3に対応する補間値を加算器 1 0 2に出力する。
加算器 1 0 2は、 補間部 1 0 1— 1乃至 1 0 1— 4から入力される感度 S 0乃 至 S 3の補間値を画素毎に加算し、 その和を色モザイク候補画像の画素値として 合成感度補償部 1 0 3に供給する。
合成感度補償部 1 0 3は、 加算器 1 0 2から供給される色モザイク候補画像の 画素値を合成感度補償 LUT 1 0 4に照らし合わせ、 得られる値を画素値とする色 モザイク画像 Mを生成して色補間部 5 2に供給する。合成感度補償 LUT 1 0 4は、 色モザイク候補画像の画素値をインデックスとして、 色モザイク画像 Mの画素値 を取得できるようになされている。 図 5 9に示した感度均一化部 5 1の第 2の構成例による、 第 1のデモザイク処 理における第 2の感度均一化処理について、 図 60のフローチヤ一トを参照して 説明する。
ステップ S 1 0 1において、 捕間部 1 0 1— 1乃至 10 1— 4は、 色 '感度モ ザイク画像の全ての画素を注目画素としたか否かを判定し、 全ての画素を注目画 素としていないと判定した場合、 ステップ S 10 2に進む。 ステップ S 102に おいて、 捕間部 1 0 1— 1乃至 1 0 1— 4は、 色 '感度モザィク画像の左下の画 素から右上の画素まで、 順次 1画素ずつ注目画素に決定する。
ステップ S 1 03において、 捕間部 10 1— 1乃至 10 1— 4は、 色 '感度モ ザイク画像の各画素の色を変更せずに補間処理を施すことにより、 それぞれ感度 S O, S 1 , S 2、 または感度 S 3に対応する捕間値を生成して加算器 1 02に 出力する。
補間部 1 0 1— 1による感度 S 0の補間処理について、 図 6 1のフローチヤ一 トを参照して説明する。 ステップ S 1 1 1において、 補間部 101— 1は、 色 - 感度モザイク画像の注目画素の近傍に位置する画素 (例えば、 注目画素を中心と する 5 X 5画素) のうち、 色が注目画素と同じであり、 かつ、 感度が S Oである 画素を検出し、検出した画素(以下、参照画素と記述する)の画素値を抽出する。 ステップ S 1 1 2において、 補間部 10 1— 1は、 検出した参照画素の注目画素 に対する相対的な位置に対応して予め設定されているフィルタ係数を、 参照画素 の数だけ取得する。 ステップ S 1 1 3において、 補間部 10 1— 1は、 各参照画 素の画素値と、対応するフィルタ係数とを乗算し、それらの積の総和を演算する。 さらに、 その積の総和を、 用いたフィルタ係数の総和で除算して、 その商を注目 画素の感度 S 0に対応する捕間値とする。処理は図 60のステップ S 60に戻る。 なお、補間部 10 1— 2乃至 1 0 1—3による感度 S 1乃至 S 3の補間処理は、 上述した捕間部 1 0 1— 1による感度 S Oの補間処理と同様であるので、 その説 明は省略する。
ステップ S 1 04において、 加算器 10 2は、 補間部 10 1— 1乃至 1 0 1— 4から入力される注目画素に対応する感度 S 0乃至 S 3の補間値を加算し、 その 和を、 注目画素に対応する色モザイク候補画像の画素値として合成感度補償部 1 0 3に供給する。
ステップ S 1 0 5は、 合成感度補償部 1 0 3は、 加算器 1 0 2から供給された 色モザイク候補画像の画素値を合成感度補償 LUT 1 0 4に照らし合わせ、 得られ た値を注目画素に対応する色モザイク画像 Mの画素値とする。
処理は、 ステップ S 1 0 1に戻り、 全ての画素を注目画素としたと判定される まで、 ステップ S 1 0 1乃至 1 0 5の処理が繰り返される。 ステップ S 1 0 1に おいて、 全ての画素を注目画素としたと判定された場合、 第 1のデモザイク処理 における第 2の感度均一化処理は終了される。
なお、 第 2の感度均一化処理後においては、 図 5 5のフローチャートを参照し て上述した色補間処理が実行される。
次に、 上述した色差画像 Cを生成する第 1の処理 (図 5 6 ) の代わりに、 色差 画像生成部 7 2が実行可能な色差画像 Cを生成する第 2の処理について、 図 6 2 のフローチャートを参照して説明する。
ステップ S 1 2 1において、 平滑化部 8 1 , 8 2は、 変調色モザイク画像 M g の全ての画素を注目画素としたか否かを判定し、 全ての画素を注目画素としてい ないと判定した場合、 ステップ S 1 2 2に進む。 ステップ S 1 2 2において、 平 滑化部 8 1 , 8 2は、変調色モザイク画像 M gの左下の画素から右上の画素まで、 順次 1画素ずつ注目画素に決定する。
ステップ S 1 2 3において、 平滑化部 8 1は、 注目画素に対応する画像勾配べ クトル gを演算する。
画像勾配べク トル演算処理の詳細について、 図 6 3のフローチャートを参照し て説明する。 当該画像勾配ベクトル演算処理においては、 色モザイク画像 M gの 全ての画素のうち、 所定の 1種類の色の画素だけを用いて画像勾配ベク トル gを 演算する。
なお、 所定の 1種類の色の選択は任意であるが、 例えば、 色モザイク画像 M g の色モザイクパターンがべィャ配列をなしている場合、 G成分を有する画素は、 R成分を有する画素や B成分を有する画素に比較して 2倍存在するので、 1種類 の色を Gとすることが理にかなつている。 したがって、 以下、 色モザイク画像 M gの色モザイクパターンがべィャ配列をなしており、 かつ、 所定の 1種類の色を Gに選択したとして仮定して説明を継続する。
ステップ S 1 4 1において、 平滑化部 8 1は、 注目画素の色が Gであるか否か を判定し、 注目画素の色が Gであると判定した場合、 ステップ S 1 4 2に進む。 この場合、 注目画素の上下左右に位置する 4画素の色は Gではなく、 かつ、 注目 画素の斜め方向に隣接する 4画素の色が Gである。
ステップ S 1 4 2において、 平滑化部 8 1は、 注目画素の上下左右に位置する 4画素にそれぞれ対応する G成分の値 G (U), G (D), G (L), G (R) を、 注目画素の左上に隣接する G成分を有する画素の画素値 G (LU)、注目画素の左 下に隣接する G成分を有する画素の画素値 G (LD)、注目画素の右上に隣接する G成分を有する画素の画素値 G (RU)、 および、注目画素の右下に隣接する G成 分を有する画素の画素値 G (RD) を次式 (1 3) 乃至次式 (1 6 ) に適用して 補間する。
G (U) = (G (LU) +G (RU)) / 2 ■ · ■ ( 1 3 )
G (D) = (G (LD) +G (RD)) / 2 · · - ( 1 4)
G (L) = (G (LU) +G (LD)) / 2 · ■ ■ ( 1 5 ) G (R) = (G (RU) +G (RD)) / 2 . · · ( 1 6) ステップ S 1 4 3において、 平滑化部 8 1は、 注目画素の上下左右に位置する 4画素にそれぞれ対応する G成分の値 G (U), G (D), G (L), G (R) を、 次式 (1 7) 乃至次式 (1 9 ) に適用してべクトル g ' を算出し、 次式 (2 0) のように正規化して勾配べク トル gを算出する。
g h = G (R) — G (L) ■ · ■ ( 1 7) g v =G (U) -G (D) · ■ ■ ( 1 8 ) g ' = ( g h , g v ) - - - ( 1 9) g = g, / II g, II ■ ■ · ( 2 0 ) なお、 ステップ S 1 4 1において、 注目画素の色が Gではないと判定された場 合、 処理はステップ S 1 4 4に進む。 この場合、 注目画素の上下左右に位置する 4画素の色は Gである。
ステップ S 1 4 4において、 注目画素の上下左右に位置する 4画素の画素値を 取得して、 それぞれを値 G (U), G ( D ) , G ( L ) , G ( R ) に代入する。 以上のように注目画素に対応する画像勾配ベク トル gを演算する。 なお、 色モ ザイク画像 M gの色モザイクパターンがべィャ配列をなしていない場合において も、 類似した処理によって画像勾配べク トル gを演算することができる。
処理は図 6 2のステップ S 1 2 4にリターンする。
ステップ S 1 2 4において、 平滑化部 8 1は、 色モザイクパターン情報を参照 することにより、 注目画素の近傍の画素 (例えば、 注目画素を中心とする 5 X 5 画素) のうち、 R成分を有する画素を検出し、 検出した画素 (以下、 参照画素と 記述する) の画素値を抽出する。 一方、 平滑化部 8 2も同様に、 色モザイクパタ ーン情報を参照することにより、 注目画素の近傍の画素のうち、 G成分を有する 画素を検出し、 検出した画素の画素値を抽出する。
ステップ S 1 2 5において、 平滑化部 8 1は、 注目画素から R成分を有する各 参照画素までの位置ベク トル nをそれぞれ算出して正規化する。 一方、 平滑化部 8 2も同様に、 注目画素から G成分を有する各参照画素までの位置べク トル nを それぞれ算出して正規化する。
ステップ S 1 2 6において、 平滑化部 8 1は、 次式 (2 1 ) に示すように、 R 成分を有する参照画素毎に、 注目画素の勾配べク トル gと位置べク トル nとの内 積の絶対値を 1から除算し、 その差の p乗を演算することにより、 当該参照画素 に対する重要度 ωを算出する。 一方、 平滑化部 8 2も同様に、 G成分を有する参 照画素毎に重要度 ωを算出する。 ここで、 ρは、 方向選択の先鋭度を調整するた めの定数であり、 予め設定されている。 ω = ( 1— i ( n, g ) I ■ · . ( 2 1 ) ステップ S 1 2 7において、 平滑化部 8 1は、 R成分を有する参照画素の注目 画素に対する相対的な位置に対応して予め設定されているフィルタ係数を、 参照 画素の数だけ取得する。 一方、 平滑化部 8 2も同様に、 G成分を有する参照画素 の注目画素に対する相対的な位置に対応して予め設定されているフィルタ係数を、 参照画素の数だけ取得する。
ステップ S 1 2 8において、 平滑化部 8 1は、 R成分を有する各参照画素の画 素値と、 対応するフィルタ係数および重要度 ωを乗算し、 それらの積の総和を演 算する。 さらに、 各参照画素に対応するフィルタ係数と重要度 ωとを乗算し、 そ れらの積の総和を演算する。 一方、 平滑化部 8 2も同様に、 G成分を有する各参 照画素の画素値と、 対応するフィルタ係数および重要度 ωを乗算し、 それらの積 の総和を演算する。 さらに、 各参照画素に対応するフィルタ係数と重要度 ωとを 乗算し、 それらの積の総和を演算する。
ステップ S 1 2 9において、 平滑化部 8 1は、 ステップ S 1 2 8で演算した R 成分を有する各参照画素の画素値、 対応するフィルタ係数、 および重要度 ωの積 の総和を、 各参照画素に対応するフィルタ係数おょぴ重要度 ωの積の総和で除算 して、 その商を平滑化された R成分だけの画像 R ' の注目画素に対応する画素値 とする。 一方、 平滑化部 8 2も同様に、 平滑化部 8 2は、 ステップ S 1 2 8で演 算した G成分を有する各参照画素の画素値、 対応するフィルタ係数、 および重要 度 ωの積の総和を、 各参照画素に対応するフィルタ係数および重要度 ωの積の総 和で除算して、 その商を平滑化された G成分だけの画像 G ' の注目画素に対応す る画素値とする。
ステップ S 1 3 0において、 減算器 8 3は、 平滑化部 8 1からの平滑化された R成分だけの画像 R, の注目画素に対応する画素値から、 平滑化部 8 2からの平 滑化された G成分だけの画像 G ' の注目画素に対応する画素値を減算し、 その差 を色差画像 Cの注目画素の画素値とする。
処理は、 ステップ S 1 2 1に戻り、 全ての画素を注目画素としたと判定される まで、 ステップ S 1 2 1乃至 1 3 0の処理が繰り返される。 ステップ S 1 2 1に おいて、 全ての画素を注目画素としたと判定された場合、 当該色差画像生成処理 を終了して、 図 5 5のステップ S 5 3にリターンする。
なお、 色差画像生成部 7 3が色差画像 Dを生成する処理は、 上述した色差画像 生成部 7 2が色差画像 Cを生成する第 2の処理と同様であるので、 その説明は省 略する。
色差画像 Cを生成する第 2の処理では、 画像内の物体の輪郭を検出し、 輪郭に 平行して平滑化を実行するようにしたので、 色差画像 Cを生成する第 1の処理に 比較して色モアレの発生を抑止するこができる。
次に、 第 2のデモザイク処理を主に実行する画像処理部 7の第 2の構成例につ いて、 図 6 4を参照して説明する。 画像処理部 7の第 2の構成例において、 撮像 系からの色 ·感度モザイク画像、 色 ·感度モザイク画像の色モザイク配列を示す 色モザイクパターン情報、 および色 ·感度モザイク画像の感度モザイク配列を示 す感度モザイクパターン情報は、 感度均一化部 1 1 1に供給される。
感度均一化部 1 1 1は、 色モザイクパターン情報および感度モザイクパターン 情報に基づき、 色■感度モザイク画像に感度均一化処理を施し、 得られる感度が 均一化された色モザイク画像 Mを色補間部 5 2に出力する。 ただし、 得られる色 モザイク画像 Mの色モザイク配列は、 元の色■感度モザイク画像の色モザイク配 列とは必ずしも同じではないので、 感度均一化部 1 1 1は、 色モザイクパターン 情報を更新して色補間部 1 1 2に供給する。
色捕間部 1 1 2は、 感度均一化部 1 1 1からの色モザイク画像 Mに対し、 図 4 5の色補間部 5 2と同様に、 色モザイクパターン情報を用いる色補間処理を施す ことによって出力画像 R , G , Bを生成する。
図 6 5は、 感度均一化部 1 1 1の第 1の構成例を示している。 当該第 1の構成 例は、 図 3 5、 図 4 1および図 4 2を参照して説明した第 2のデモザイク処理に おける第 1の感度均一化処理を実行する感度均一化部 1 1 1の構成例である。 感度均一化部 1 1 1の第 1の構成例において、 撮像系からの色 .感度モザイク 画像は、 感度補償部 1 2 1および有効性判別部 1 2 3に供給される。 色モザイク パターン情報は、欠落補間部 1 2 4に供給される。感度モザイクパターン情報は、 感度補償部 1 2 1および有効性判別部 1 2 3に供給される。
感度補償部 1 2 1は、 相対感度値 LUT 1 2 2から得られる相対感度値 Sに基づ き、 色 '感度モザイク画像に感度補償を施して欠落補間部 1 2 4に出力する。 相 対感度値 LUT 1 2 2は、 画素の感度をインデックスとして、 相対感度値 Sを出力 するノレックアツプテ一ブルである。
有効性判別部 1 2 3は、 色 ·感度モザイク画像の各画素の画素値を、 飽和レべ ルの閾値 6 Hおよびノイズレベルの 0 Lと比較することによつて画素値の有効性 を判別し、 その結果を判別情報として欠落補間部 1 2 4に供給する。 判別情報に は、 各画素の画素値について有効または無効を示す情報が記述されている。
欠落補間部 1 2 4は、 有効性判別部 1 2 3からの判別情報に基づき、 感度補償 された色 ·感度モザイク画像の全画素のうち、 判別情報が有効である画素の画素 値はそのまま用い、 判別情報が無効である画素に対しては、 感度補償された色 - 感度モザイク画像のなかに最も多く存在する色を有する画素の画素値を用いて、 その色成分の画素値を補間する。 このように、 最も多く存在する色を有する画素 の画素値を用いることによって、 より高周波成分が復元し易くなる。 さらに、 欠 落補間部 1 2 4は、 生成した色モザイク画像 Mの色モザイク配列に対応して色モ ザイクパターン情報を更新し、 色補間部 1 1 2に出力する。
次に、 図 6 4に示した画像処理部 7の第 2の構成例が主に実行する第 2のデモ ザイク処理について説明するが、 その大部分は、 上述した第 1のデモザイク処理 と同様である。 よって、上述した第 1のデモザイク処理と異なる処理、すなわち、 感度均一化部 1 1 1を構成する欠落補間部 1 2 4の欠落補間処理について、 図 6 6のフローチャートを参照して説明する。 以下、 色 ·感度モザイク画像のなかに は G成分を有する画素が最も多く存在すると仮定する。 ただし、 他の色成分を有 する画素が最も多く存在する場合においても同様に処理することができる。
ステップ S 1 5 1において、 欠落補間部 1 2 4は、 感度補償された色 ·感度モ ザイク画像の全ての画素を注目画素としたか否かを判定し、 全ての画素を注目画 素としていないと判定した場合、 ステップ S 1 5 2に進む。 ステップ S 1 5 2に おいて、 欠落補間部 1 2 4は、 感度補償された色 ·感度モザイク画像の左下の画 素から右上の画素まで、 順次 1画素ずつ注目画素に決定する。
ステップ S 1 5 3において、 欠落補間部 1 2 4は、 注目画素の判別情報が無効 であるか否かを判定し、 注目画素の判別情報が無効であると判定した場合、 ステ ップ S 1 5 4に進む。
ステップ S 1 5 4において、 欠落補間部 1 2 4は、 色モザイクパターン情報を 参照し、 注目画素の近傍の画素 (例えば、 注目画素を中心とする 5 X 5画素) の うち、 G成分を有する画素であって、かつ、判別情報が有効である画素を検出し、 検出した画素 (以下、 参照画素と記述する) の画素値を抽出する。 また、 欠落補 間部 1 2 4は、 参照画素の注目画素に対する相対的な位置に対応して予め設定さ れているフィルタ係数を、 参照画素の数だけ取得する。 さらに、 欠落補間部 1 2 4は、 各参照画素の画素値と、 対応するフィルタ係数を乗算し、 それらの積の総 和を演算する。さらに、その積の総和を、用いたフィルタ係数の総和で除算して、 その商を色モザイク画像 Mの注目画素の画素値とする。
ステップ S 1 5 5において、 欠落補間部 1 2 4は、 色モザイクパターン情報に おける注目画素の色を Gに更新する。
なお、 ステップ S 1 5 3において、 注目画素の判別情報が無効ではないと判定 された場合、 ステップ S 1 5 4、 およびステップ S 1 5 5の処理はスキップされ る。
処理は、 ステップ S 1 5 1に戻り、 全ての画素を注目画素としたと判定される まで、 ステップ S 1 5 1乃至 1 5 5の処理が繰り返される。 ステップ S 1 5 1に おいて、 全ての画素を注目画素としたと判定された場合、 当該欠落捕間処理は終 了され、 得られた色モザイク画像 M、 および更新された色モザイクパターン情報 は、 後段の色補間部 1 1 2に供給される。
次に、 図 6 5に示した感度均一化部 1 1 1の第 1の構成例の代わりに用いるこ とができる感度均一化部 1 1 1の第 2の構成例について、 図 6 7を参照して説明 する。
当該第 2の構成例は、 図 3 5、 図 4 3、 およぴ図 4 4を参照して説明した第 2 のデモザイク処理における第 2の感度均一化処理を感度均一化部 1 1 1が実行す るための構成例である。
以下、 色■感度モザイク画像は、 図 1 4の色 '感度モザイクパターン P 1 0、 図 1 5の色 '感度モザイクパターン P 1等のように、 画素の色は 3原色 R G Bの うちのいずれかの色であり、 感度は 4段階 S 0 , S 1 , S 2 , S 3のうちのいず れかの感度であるとして説明する。 ただし、 以下に説明する構成や動作は、 R G B以外の 3色から成る色 ·感度モザイク画像や、 4色から成る色 ·感度モザイク 画像に適用することも可能である。また、感度が 2段階、または 3段階である色 - 感度モザイクパターンに適用することが可能である。
感度均一化部 1 1 1の第 2の構成例において、 撮像系からの色 ·感度モザイク 画像、 色モザイクパターン情報、 および感度モザイクパターン情報は、 補間部 1 3 2 _ 1乃至 1 3 2— 4に供給される。 色モザイクパターン情報は、 補間色決定 部 1 3 1にも供給される。
補間色決定部 1 3 1は、 色モザイクパターン情報に基づき、 補間部 1 3 2— 1 乃至 1 3 2— 3で補間する補間値の色 (補間色) を指定する。 また、 補間色決定 部 1 3 1は、 補間色の決定に対応して色モザイクパターン情報を更新する。
捕間部 1 3 1— 1は、補間色決定部 1 3 1からの補間色の指定に対応して、色- 感度モザイク画像に感度 S 0の補間処理を施し、 得られる感度 S 0に対応する補 間値を加算器 1 3 3に出力する。 補間部 1 3 1— 2は、 補間色決定部 1 3 1から の補間色の指定に対応して、色'感度モザイク画像に感度 S 1の補間処理を施し、 得られる感度 S 1に対応する補間値を加算器 1 3 3に出力する。 補間部 1 3 1— 3は、 補間色決定部 1 3 1からの補間色の指定に対応して、 色■感度モザィク画 像に感度 S 2の補間処理を施し、 得られる感度 S 2に対応する補間値を加算器 1 3 3に出力する。 捕間部 1 3 1—4は、 補間色決定部 1 3 1からの捕間色の指定 に対応して、 色 ·感度モザイク画像に感度 S 3の補間処理を施し、 得られる感度 S 3に対応する補間値を加算器 1 3 3に出力する。
加算器 1 3 3は、 補間部 1 3 2— 1乃至 1 3 2— 4から入力される感度 S 0乃 至 S 3の補間値を画素毎に加算し、 その和を色モザイク候補画像の画素値として 合成感度補償部 1 3 4に供給する。
合成感度補償部 1 3 4は、 加算器 1 3 3から供給される色モザイク候補画像の 画素値を合成感度補償 LUT 1 3 5に照らし合わせ、 得られる値を画素値とする色 モザイク画像を生成して色補間部 1 1 2に供給する。合成感度補償 LUT 1 3 5は、 色モザイク候補画像の画素値をインデックスとして、 色 ·感度モザイク画像 Mの 画素値を取得できるようになされている。
図 6 7に示した感度均一化部 1 1 1の第 2の構成例による、 第 2のデモザイク 処理における第 2の感度均一化処理について、 図 6 8のフローチヤ一トを参照し て説明する。
ステップ S 1 6 1において、 補間部 1 3 2— 1乃至 1 3 2— 4は、 色 '感度モ ザイク画像の全ての画素を注目画素としたか否かを判定し、 全ての画素を注目画 素としていないと判定した場合、 ステップ S 1 6 2に進む。 ステップ S 1 6 2に おいて、 捕間部 1 3 2 _ 1乃至 1 3 2— 4は、 色 '感度モザイク画像の左下の画 素から右上の画素まで、 順次 1画素ずつ注目画素に決定する。
ステップ S 1 6 3において、 補間色決定部 1 3 1は、 色モザイクパターン情報 に基づく補間色決定処理を実行し、 得られた注目画素の補間色を捕間部 1 3 2— 1乃至 1 3 2— 4に通知する。
補間色決定部 1 3 1の補間色決定処理の詳細について、 図 6 9のフローチヤ一 トを参照して説明する。 なお、 当該補間色決定処理は、 注目画素により近傍の画 素を用いて注目画素の画素値を補間することを目的とし、 色 ·感度モザイク画像 の色モザイク配列がべィャ配列をなしていると仮定する。
ステップ S 1 7 1において、 補間色決定部 1 3 1は、 色モザイクパターン情報 を参照することにより、 注目画素の色を判定する。 ステップ S 1 7 1において、 注目画素の色が Gであると判定ざれた場合、 ステ ップ S 1 7 2に進む。 この場合、 注目画素の斜め方向に隣接する 4画素の色も G である。 ステップ S 1 7 2において、 捕間色決定部 1 3 1は、 注目画素の補間色 を Gに決定し、 補間部 1 3 2— 1乃至 1 3 2— 4に通知する。 さらに、 補間色決 定部 1 3 1は、 注目画素に対応する色モザイクパターン情報を Gに更新する。 ステップ S 1 7 1において、 注目画素の色が Rであると判定された場合、 ステ ップ S 1 7 3に進む。 この場合、 注目画素の斜め方向に隣接する 4画素の色は B である。 ステップ S 1 7 3において、 補間色決定部 1 3 1は、 注目画素の捕間色 を Bに決定し、 補間部 1 3 2— 1乃至 1 3 2 _ 4に通知する。 さらに、 補間色決 定部 1 3 1は、 注目画素に対応する色モザイクパターン情報を Bに更新する。 ステップ S 1 7 1において、 注目画素の色が Bであると判定された場合、 ステ ップ S 1 7 4に進む。 この場合、 注目画素の斜め方向に隣接する 4画素の色は R である。 ステップ S 1 7 4において、 補間色決定部 1 3 1は、 注目画素の補間色 を Rに決定し、 補間部 1 3 2 _ 1乃至 1 3 2— 4に通知する。 さらに、 補間色決 定部 1 3 1は、 注目画素に対応する色モザイクパターン情報を Rに更新する。 以上説明した補間色決定処理によれば、 色モザイク配列がべィャ配列をなす 色■感度モザイク画像の Rと Bを入れ替えるように、 注目画素の捕間色を指定す るので、 更新された色モザイクパターン情報もべィャ配列をなすことが維持され る。
処理は図 6 8のステップ S 1 6 4にリターンする。ステップ S 1 6 4において、 補間部 1 3 2— 1乃至 1 3 2— 4は、 捕間色決定部 1 3 1からの補間色の指定に 対応し、色 ·感度モザィク画像に補間処理を施すことにより、それぞれ感度 S 0, S l, S 2、 または感度 S 3に対応する補間値を生成して加算器 1 3 3に出力す る。
具体的には、 例えば、 補間部 1 3 2 _ 1は、 色 ·感度モザイク画像の注目画素 の近傍に位置する画素 (例えば、 注目画素を中心とする 5 X 5画素) のうち、 補 間色指定部 1 3 1から指定された色を有し、 かつ、 感度が S 0である画素を検出 し、 検出した画素 (以下、 参照画素と記述する) の画素値を抽出する。 また、 捕 間部 1 3 2— 1は、 検出した参照画素の注目画素に対する相対的な位置に対応し て予め設定されているフィルタ係数を、 参照画素の数だけ取得する。 さらに、 補 間部 1 3 2— 1は、 各参照画素の画素値と、 対応するフィルタ係数とを乗算し、 それらの積の総和を演算する。 さらに、 その積の総和を、 用いたフィルタ係数の 総和で除算して、 その商を注目画素の感度 S 0に対応する補間値とする。
なお、補間部 1 3 2— 2乃至 1 3 2— 3による感度 S 1乃至 S 3の補間処理は、 上述した補間部 1 3 2— 1による感度 S 0の補間処理と同様であるので、 その説 明は省略する。
ステップ S 1 6 5において、 加算器 1 3 3は、 捕間部 1 3 2— 1乃至 1 3 2— 4から入力される注目画素に対応する感度 S 0乃至 S 3の補間値を加算し、 その 和を注目画素に対応する色モザイク候補画像の画素値として合成感度補償部 1 3 3に供給する。
ステップ S 1 6 6は、 合成感度補償部 1 3 4は、 加算器 1 3 3から供給された 色モザイク候補画像の画素値を合成感度補償 LUT 1 3 5に照らし合わせ、 得られ た値を注目画素に対応する色モザイク画像 Mの画素値とする。
処理は、 ステップ S 1 6 1に戻り、 全ての画素を注目画素としたと判定される まで、 ステップ S 1 6 1乃至 1 6 6の処理が繰り返される。 ステップ S 1 6 1に おいて、 全ての画素を注目画素としたと判定された場合、 第 2のデモザイク処理 における第 2の感度均一化処理は終了される。
なお、 第 2のデモザイク処理における第 2の感度均一化処理により得られた色 モザイク画像 Mに対しては、 色補間部 1 1 2によって色補間処理が施されるが、 その処理は図 5 5のフローチヤ一トを参照して上述した色補間処理と同様である ので説明は省略する。
次に、 図 7 0は、 画像処理部 7を中心とする画像処理系の第 3のデモザイク処 理の概要を示している。
第 3のデモザイク処理は、 図 7 0に示すように、 撮像部の処理によって得られ た色 ·感度モザイク画像の画素の感度を変更することなく、 各画素の R G B成分 を補間して R成分の感度モザイク画像 MsR、 G成分の感度モザイク画像 MsG、およ び B成分の感度モザイク画像 MsBを生成する感度別色補間処理と、 R成分の感度 モザイク画像、 G成分の感度モザイク画像、 および B成分の感度モザイク画像の それぞれの感度を均一化して出力画像 R , G , Bを生成する感度均一化処理から 成る。
第 3のデモザイク処理における感度別色補間処理は、 色 ·感度モザイク画像か ら同一の感度の画素だけを抽出する抽出処理と、 抽出処理で抽出された画素の R G B成分の画素値を捕間する色補間処理と、 色補間処理で補間された画素値を R G B成分毎に合成して感度モザイク画像を生成する揷入処理からなる。
例えば、 抽出処理では、 色■感度モザイク画像から、 感度 S 1の画素だけが抽 出されて、画素が市松状に配置された色モザイク画像 McS lが生成される。色補間 処理では、色モザイク画像 McSlから、感度 S 1であって R成分を有する画素が巿 松状に配置された画像 Rsl、 感度 S 1であって G成分を有する画素が巿松状に配 置された画像 Gsl、 および感度 S 1であって B成分を有する画素が巿松状に配置 された画像 Bs lが生成される。
例えば、 揷入処理では、 色補間処理によって生成された画像 RS0 と、 画像 RS1 が組み合わされて、 感度モザイク画像 MsRが生成される。
次に、 第 3のデモザイク処理を主に実行する画像処理部 7の第 3の構成例につ いて、 図 7 3を参照して説明する。
画像処理部 7の第 3の構成例において、撮像系からの色'感度モザィク画像は、 感度別色補間部 1 5 1に供給される。 色 ·感度モザイク画像の色モザイク配列を 示す色モザイクパターン情報は、 感度別色補間部 1 5 1に供給される。 色 '感度 モザイク画像の感度モザイク配列を示す感度モザイクパターン情報は、 感度別色 補間部 1 5 1、 および感度均一化部 1 5 2乃至 1 5 4に供給される。
なお、以下、特に断りがある場合を除き、 色 ·感度モザイク画像は、 図 7の色 - 感度モザイクパターン P 3であるとする。 すなわち、 画素の色は 3原色 R G Bの うちのいずれかの色であり、 感度は S 0, S 1のうちの一方であって、 さらに、 色に拘わらず感度 S 0の画素だけに注目すれば、 それらは格子状 (市松状) に配 置されている。 同様に、 感度 S 1の画素の格子状 (市松状) に配置されている。 ただし、 以下に説明する構成や動作は、 R G B以外の 3色から成る色,感度モ ザイク画像や、 4色から成る色-感度モザイク画像に適用することも可能である。 感度別色補間部 1 5 1は、 色 ·感度モザイク画像に感度別色補間処理を施し、 得られる R成分の感度モザイク画像 MsR、 G成分の感度モザイク画像 MsG、および B成分の感度モザイク画像 MsBを、 それぞれ対応する感度均一化部 1 5 2乃至 1 5 4に供給する。
感度均一化部 1 5 2は、 R成分の感度モザィク画像 MsRに感度均一化処理を施 すことによって出力画像 Rを生成する。 感度均一化部 1 5 3は、 G成分の感度モ ザイク画像 MsGに感度均一化処理を施すことによって出力画像 Gを生成する。 感 度均一化部 1 5 4は、 B成分の感度モザイク画像 MsBに感度均一化処理を施すこ とによって出力画像 Bを生成する。
図 7 4は、 感度別色補間部 1 5 1の構成例を示している。 感度別色補間部 1 5 1において、 色 ·感度モザイク画像、 色モザイクパターン情報、 および感度モザ イクパターン情報は、 抽出部 1 6 1に供給される。
抽出部 1 6 1は、 色 ·感度モザイク画像に対して、 感度 S i (いまの場合、 i = 0, 1 ) の抽出処理を施し、 得られる感度 S iの画素からなる色モザイク画像 McSiを色補間部 1 6 2に供給する。 なお、 色モザイク画像 McSiは、 元の色■感 度モザイク画像の X y座標系とは異なる s t座標系を用いて表現されるで画像で ある (詳細は図 7 8および図 7 9を参照して後述する)。 また、 抽出部 1 6 1は、 色モザイク画像 McSi の色モザイク配列を示す感度 S iの色モザイクパターン情 報を生成し、 色補間部 1 6 2に供給する。 さらに、 抽出部 1 6 1は、 色モザイク 画像 McSiと元の色'感度モザイク画像との位置関係を保持する感度 S iの元位置 情報を生成し、 挿入部 1 6 3乃至 1 6 5に供給する。
色補間部 1 6 2は、抽出部 1 6 1からの色モザイク画像 McSiの全画素の R G B 成分を補間し、 得られる画像 Rsi, Gsi , Bsiをそれぞれ対応する揷入部 1 6 3乃 至 1 6 5に供給する。画像 Rsiは、色モザイク画像 McSiの各画素に対応する R成 分の画素値からなる画像である。画像 Gsiは、色モザイク画像 McSiの各画素に対 応する G成分の画素値からなる画像である。 画像 Bsi は、 色モザイク画像 McSi の各画素に対応する B成分の画素値からなる画像である。 また、 画像 Rsi, Gsi , Bsiは、 色モザイク画像 McSiと同じ座標系によって表現される。 なお、 色補間部 1 6 2は、 図 4 7に示した色補間部 5 2の構成例と同様に構成される。
揷入部 1 6 3は、抽出部 1 6 1から供給される感度 S iの元位置情報に基づき、 色捕間部 1 6 2から感度の種類の数だけ供給される R成分の画像 Rsiを組み合わ せて感度モザイク画像 MsRを生成し、 感度均一化部 1 5 2に供給する。 挿入部 1 6 4は、 抽出部 1 6 1から供給される感度 S iの元位置情報に基づき、 色補間部 1 6 2から感度の種類の数だけ供給される G成分の画像 Gsiを組み合わせて感度 モザイク画像 MsGを生成し、 感度均一化部 1 5 3に供給する。 揷入部 1 6 5は、 抽出部 1 6 1から供給される感度 S iの元位置情報に基づき、 色補間部 1 6 2か ら感度の種類の数だけ供給される B成分の画像 Bsiを組み合わせて感度モザイク 画像 MsBを生成し、 感度均一化部 1 5 4に供給する。
図 7 5は、 感度均一化部 1 5 2の構成例を示している。 感度均一化部 1 5 2に おいて、 感度別色補間部 1 5 1の揷入部 1 6 3から供給される感度モザイク画像 MsR は、 局所和算出部 1 7 1に供給される。 局所和算出部 1 7 1は、 感度モザィ ク画像 MsRの各画素に対し、 その近傍の画素を用いる局所和算出処理を施し、 得 られる各画素に対応する局所和を合成感度補償部 1 7 2に供給する。 合成感度補 儻部 1 7 2は、 合成感度補償 LUT 1 7 3に局所和を照らし合わせて対応する補償 値を取得し、 捕償値を画素値として出力画像 Rを生成する。 合成感度補償 LUT 1 7 3は、 局所和をインデックスとして、 対応する捕償値を供給するようになされ ている。
なお、 感度均一化部 1 5 3, 1 5 4の構成例は、 図 7 5に示した感度均一化部 1 5 2の構成例と同様であるので、 その説明は省略する。 次に、 図 7 3に示した画像処理部 7の第 3の構成例による第 3のデモザイク処 理について、 図 7 6にフローチヤ一トを参照して説明する。
ステップ S 1 8 1において、 感度別色捕間部 1 5 1は、 色 ·感度モザイク画像 に感度別色補間処理を施すことにより、 R成分の感度モザイク画像 MsR、 G成分 の感度モザイク画像 MsG、 および B成分の感度モザイク画像 MsBを生成し、 それ ぞれ対応する感度均一化部 1 5 2乃至 1 5 4に供給する。
感度別色補間部 1 5 1の感度別色補間処理の詳細について、 図 7 7のフローチ ヤートを参照して説明する。 ステップ S 1 9 1において、 抽出部 1 6 1は、 感度 モザイクパターン情報に含まれる全ての感度 (いまの場合、 3 0ぉょび3 1 ) を 指定したか否かを判定し、 全ての感度を指定していないと判定した場合、 ステツ プ S 1 9 2に進む。
ステップ S 1 9 2において、 抽出部 1 6 1は、 感度モザイクパターン情報に含 まれる全ての感度のうちの 1種類の感度を指定する。 指定された感度を S i とす る。
ステップ S 1 9 3において、 抽出部 1 6 1は、 色 .感度モザイク画像の全ての 画素のうち、 感度 S iの画素だけを抽出し、 感度 Siの色モザイク画像 McSiを生 成して色補間部 1 6 2に供給する。さらに、抽出部 1 6 1は、色モザイク画像 McSi と元の色 ·感度モザイク画像との位置関係を保持する感度 S iの元位置情報を生 成し、 揷入部 1 6 3乃至 1 6 5に供給する。 また、 抽出部 1 6 1は、 色モザイク 画像 McSiの色モザイク配列を示す感度 S iの色モザイクパターン情報を生成し、 色補間部 1 6 2に供給する。
ステップ S 1 9 3の処理の詳細について、 図 7 8および図 7 9を参照して説明 する。
抽出される感度 S iの画素は元の色 ·感度モザイク画像の画素間隔では抽出さ れないので、 生成される感度 Siの色モザイク画像 McSiは、 元の色 .感度モザィ ク画像とは画素間隔、 原点、 向きが異なる格子に形成される。 そこで、 抽出部 6 1は、色モザイク画像 McSiを生成すると同時に、元の色'感度モザイク画像の座 標系と、色モザイク画像 McSiの座標系との対応関係を元に、画素毎に元の位置の 情報を参照できる元位置情報を生成する。
元の色'感度モザイク画像と生成する色モザイク画像 McSiの座標系の対応関係 は、 図 78または図 79に示すとおりである。 同図において、 元の色 .感度モザ イク画像は X y座標系で表示され、色モザイク画像 McSiは s t座標系で表示され ている。 また、 色 ·感度モザイク画像の画は感度 S 0の画素を示し、 色 '感度モ ザイク画像の口は感度 S 1の画素を示している。 このように X y座標系に対して 斜めに設定した s t座標系を用いることにより、 元の色 '感度モザイク画像にお いて市松状に配置された感度 S iの画素を、 等間隔格子の画素配置として抽出で きるようになされている。
図 78を参照して、 色 ·感度モザイク画像の画で示される感度 S 0の画素を抽 出する場合について説明する。 例えば、 図中の画素 Aは、 元の色■感度モザイク 画像を表現する X y座標系では (x A, yA) であり、 生成される色モザイク画像 McSiを表現する s t座標系では ( s A, tA) である。 (sA, t A) と (xA, y A) は、 次式 (22) に示すような対応関係がある。
s A= { ( X A— 1 ) + y A} / 2
t A= {(xma x- 1 -xA) +yA} /2 · ■ ■ (22) 抽出部 1 6 1は、 元の色 '感度モザイク画像の感度 S 0の画素の座標 (xA, yA) を式 (22) に適用して、 色モザイク画像 McSiでの座標 (sA, tA) を算 出し、その座標に当該画素の値を用いて色モザイク画像 McSiを生成する。同時に、 感度 S 0の元位置情報には、 座標 (sA, t A) に対応して座標 (xA, yA) を格 納する。
図 79を参照して、 色 ·感度モザイク画像の口で示される感度 S 1の画素を抽 出する場合について説明する。 例えば、 図中の画素 Bは、 元の色 ·感度モザイク 画像を表現する X y座標系では (xB, yB) であり、 生成される色モザイク画像 McSiを表現する s t座標系では ( s B, t である。 ( s t と (xB, y B) は、 次式 (23) に示すような対応関係がある。 S B= ( χ B+ y B) Z 2
tB= {(xma x- i -xB) +yB} /2 - - - (23) 抽出部 1 6 1は、 元の色 '感度モザイク画像の感度 S 1の画素の座標 (xB, yB) を式 (22) に適用して、 色モザイク画像 McSiでの座標 (s B, t B) を算 出し、その座標に当該画素の値を用いて色モザイク画像 McSiを生成する。同時に、 感度 S 1の元位置情報には、 座標 (s B, t B) に対応して座標 (xB, y B) を格 納する。
図 7 7に戻り、 ステップ S 1 94において、 色捕間部 1 6 2は、 抽出部 1 6 1 からの色モザイク画像 McSiの全画素の RGB成分を補間して、 画像 Rsi, Gsi, Bsi を生成し、 それぞれ対応する揷入部 1 63乃至 1 6 5に供給する。 なお、 色 補間部 16 2の処理の詳細については、 図 55を参照して説明した色補間部 5 2 の色捕間処理と同様であるので、 その説明は省略する。
処理はステップ S 1 9 1に戻り、 感度モザイクパターン情報に含まれる全ての 感度を指定したと判定されるまで、 ステップ S 1 9 1乃至 S 1 94に処理が繰り 返される。 ステップ S 1 9 1において、 感度モザイクパターン情報に含まれる全 ての感度を指定したと判定された場合、 処理はステップ S 1 9 5に進む。
ステップ S 1 95において、 揷入部 1 6 3は、 抽出部 1 6 1から供給された全 ての元位置情報に基づき、 色補間部 1 6 2から感度の種類の数だけ供給された R 成分の画像 Rsi (いまの場合、画像 RsOと画像 Rsl) を組み合わせて感度モザイク 画像 MsRを生成し、 感度均一化部 1 5 2に供給する。 同様に、 揷入部 1 64は、 感度モザイク画像 MsGを生成して感度均一化部 1 53に供給し、揷入部 1 6 5は、 感度モザイク画像 MsBを生成して感度均一化部 1 54に供給する。
処理は図 76のステップ S 1 8 2にリターンする。ステップ S 1 82において、 感度均一化部 1 5 2は、 R成分の感度モザイク画像 MsRに感度均一化処理を施す ことによって出力画像 Rを生成する。 感度均一化部 1 5 3は、 G成分の感度モザ イク画像 MsGに感度均一化処理を施すことによって出力画像 Gを生成する。 感度 均一化部 1 54は、 B成分の感度モザィク画像 MsBに感度均一化処理を施すこと によって出力画像 Bを生成する。
感度均一化部 1 5 2の感度均一化処理について、 図 8 0のフローチヤ一トを参 照して説明する。 ステップ S 2 0 1において、 局所和算出部 1 7 1は、 R成分の 感度モザイク画像 MsRの全ての画素を注目画素としたか否かを判定し、 全ての画 素を注目画素としていないと判定した場合、 ステップ S 2 0 2に進む。 ステップ S 2 0 2において、 局所和算出部 1 7 1は、 感度モザイク画像 MsRの左下の画素 から右上の画素まで、 順次 1画素ずつ注目画素に決定する。
ステップ S 2 0 3において、 局所和算出部 1 7 1は、 注目画素に対応する局所 和を算出し、 合成感度補償部 1 7 2に供給する。 具体的には、 注目画素を中心と する 5 X 5画素 (以下、 参照画素と記述する) の画素値が抽出され、 それらの画 素値と、 参照画素の注目画素に対する相対的な位置に対応して予め設定されてい る図 8 1に示すようなフィルタ係数とがそれぞれ乗算され、 それらの積の総和が 演算される。 さらに、 その積の総和が、 2 5個のフィルタ係数の総和で除算され て、 その商が注目画素に対応する局所和とされる。
ステップ S 2 0 4において、 合成感度補償部 1 7 2は、 合成感度補償 LUT 1 7 3に局所和を照らし合わせて対応する補償値を取得し、 補償値を注目画素に対応 する出力画像 Rの画素値とする。
処理は、 ステップ S 2 0 1に戻り、 全ての画素を注目画素としたと判定される まで、 ステップ S 2 0 1乃至 2 0 4の処理が繰り返される。 ステップ S 2 0 1に おいて、 全ての画素を注目画素としたと判定された場合、 感度均一化処理は終了 され、 図 7 6にリターンする。
なお、 感度均一化部 1 5 3, 1 5 4も、 感度均一化部 1 5 2の感度均一化処理 と平行して同様の感度均一化処理を実行するが、 その詳細な説明は省略する。 以上、 画像処理部 7の第 3の構成例による第 3のデモザィク処理の説明を終了 する。
次に、 画像処理部 7を中心とする画像処理系の第 4のデモザイク処理の概要に ついて説明する。 第 4のデモザイク処理は、 撮像部の処理によって得られた色■感度モザイク画 像から輝度画像を生成する輝度画像生成処理、 および、 色 ·感度モザイク画像と 輝度画像を用いて出力画像 R, G , Bを生成する単色画像処理から成る。
図 8 2は、 第 4のデモザイク処理を主に実行する画像処理部 7の第 4の構成例 を示している。
画像処理部 7の第 4の構成例において、 撮像系からの色 ·感度モザイク画像、 色-感度モザィク画像の色モザィク配列を示す色モザィクパターン情報、およぴ、 色 ·感度モザイク画像の感度モザイク配列を示す感度モザイクパターン情報は、 輝度画像生成部 1 8 1、 並びに単色画像生成部 1 8 2乃至 1 8 4に供給される。 なお、以下、特に断りがある場合を除き、 色.感度モザイク画像は、 図 6の色 - 感度モザイクパターン P 2であるとする。 すなわち、 画素の色は 3原色 R G Bの うちのいずれかの色であり、 感度は S 0, S 1のうちの一方であって、 さらに、 感度に拘わらず色だけに注目すれば、 それらはべィャ配列をなしている。
ただし、 以下に説明する構成や動作は、 R G B以外の 3色から成る色 .感度モ ザイク画像や、 4色から成る色 '感度モザィク画像に適用することも可能である。 輝度画像生成部 1 8 1は、 供給される色 ·感度モザイク画像に対して輝度画像 生成処理を施し、 得られる輝度画像を単色画像生成部 1 8 2乃至 1 8 4に供給す る。
単色画像生成部 1 8 2は、 供給される色 ·感度モザイク画像および輝度画像を 用いて出力画像 Rを生成する。 単色画像生成部 1 8 3は、 供給される色 ·感度モ ザイク画像および輝度画像を用いて出力画像 Gを生成する。 単色画像生成部 1 8 4は、 供給される色■感度モザイク画像および輝度画像を用いて出力画像 Bを生 成する。
図 8 3は、 輝度画像生成部 1 8 1の第 1の構成例を示している。 輝度画像生成 部 1 8 1の第 1の構成例において、 色 .感度モザイク画像、 色モザイクパターン 情報、 および感度モザイクパターン情報は、 推定部 1 9 1乃至 1 9 3に供給され る。 推定部 1 9 1は、 色 ·感度モザイク画像に対して R成分推定処理を施し、 得ら れる各画素に対する R成分の推定値 R' を乗算器 1 94に供給する。 推定部 1 9 2は、 色 ·感度モザイク画像に対して G成分推定処理を施し、 得られる各画素に 対する G成分の推定値 G' を乗算器 1 95に供給する。 推定部 19 3は、 色 -感 度モザイク画像に対して B成分推定処理を施し、 得られる各画素に対する B成分 の推定値 B' を乗算器 1 96に供給する。
乗算器 1 94は、 推定部 1 9 1から供給される推定値 R' に、 色バランス係数 kRを乗算し、 その積を加算器 1 9 7に出力する。 乗算器 1 95は、 推定部 1 9 2から供給される推定値 G' に、 色パランス係数 kcを乗算し、 その積を加算器 1 97に出力する。乗算器 1 9 6は、推定部 1 9 3から供給される推定値 B 'に、 色バランス係数 kBを乗算し、 その積を加算器 1 9 7に出力する。
加算器 1 97は、 乗算器 1 94から入力される積 R' · kR、 乗算器 1 9 5から 入力される積 G,- kG、および乗算器 1 96から入力される積 Β'· kBを加算し、 その和を画素値とする輝度候補画像を生成してノイズ除去部 1.98に供給する。 ここで、 色バランス係数 kR, kG, kBは、 予め設定されている値であり、 例 えば、 kR= 0. 3、 kG= 0. 6、 kB= 0. 1である。 なお、 色バランス係数 kR, kG, kBの値は、 基本的には輝度候補値として輝度変化に相関がある値を 算出することができればよい。 したがって、 例えば、 kR=kG=kBとしてもよ い。
ノイズ除去部 1 98は、 加算器 1 9 7から供給される輝度候補画像に対してノ ィズ除去処理を施し、 得られる輝度画像を単色画像生成部 1 8 2乃至 1 84に供 給する。
図 84は、 単色画像生成部 1 8 2の構成例を示している。 単色画像生成部 1 8 2において、 色 '感度モザイク画像、 色モザイクパターン情報、 および感度モザ イクパターン情報は、 補間部 20 1に供給される。 輝度画像は、 比率算出部 20 2、 および乗算器 203に供給される。
補間部 20 1は、 色 .感度モザイク画像に補間処理を施し、 得られる全ての画 素が R成分の画素値を有する R候補画像を比率値算出部 202に出力する。 比率 値算出部 202は、 R候補画像と輝度画像の対応する画素間の強度比率の低周波 成分 (以下、 単に強度比率と記述する) を算出し、 さらに、 各画素に対応する強 度比率を示す比率値情報を生成して乗算器 203に供給する。
乗算器 203は、 輝度画像の各画素の画素値に、 対応する強度比率を乗算し、 その積を画素値とする出力画像 Rを生成する。
なお、 単色画像生成部 1 8 3, 1 84の構成例も同様であるので、 その説明は 省略する。
次に、 画像処理部 7の第 4の構成例による第 4のデモザイク処理について、 図 85のフローチャートを参照して説明する。
ステップ S 2 1 1において、 輝度画像生成部 1 8 1は、 色 '感度モザイク画像 に輝度画像生成処理を施すことによって輝度画像を生成し、 単色画像生成部 18 2乃至 1 84に供給する。
輝度画像生成部 1 8 1の輝度画像生成処理について、 図 86のフローチヤ一ト を参照して説明する。
ステップ S 2 2 1において、 推定部 1 9 1乃至 1 9 3は、 色 '感度モザイク画 像の全ての画素を注目画素としたか否かを判定し、 全ての画素を注目画素として いないと判定した場合、 ステップ S 2 22に進む。 ステップ S 22 2において、 推定部 1 9 1乃至 1 93は、 色 '感度モザイク画像の左下の画素から右上の画素 まで、 順次 1画素ずつ注目画素に決定する。
ステップ S 2 23において、 推定部 1 9 1は、 色 '感度モザイク画像に対して R成分推定処理を施すことにより、 注目画素に対応する推定値 R' を推定し、 乗 算器 1 94に供給する。 推定部 1 92は、 色 '感度モザイク画像に対して G成分 推定処理を施すことにより、 注目画素に対応する推定値 G' を推定し、 乗算器 1 94に供給する。 推定部 1 93は、 色 ·感度モザイク画像に対して B成分推定処 理を施すことにより、 注目画素に対応する推定値 B' を推定し、 乗算器 1 94に 供給する。 推定部 1 9 1の R成分推定処理について、 図 8 7のフローチヤ一トを参照して 説明する。 ステップ S 2 3 1において、 推定部 1 9 1は、 色モザイクパターン情 報および感度モザイクパターン情報を参照することにより、 注目画素の近傍の画 素 (例えば、 注目画素を中心とする 1 5 X 1 5画素) のうち、 R成分を有し、 か つ、 感度 S 0である画素を検出し、 検出した画素 (以下、 参照画素と記述する) の画素値を抽出する。
ステップ S 2 3 2において、 推定部 1 9 1は、 参照画素の注目画素に対する相 対的な位置に対応し、 図 8 8に示すような予め設定されている R成分用補間フィ ルタ係数を参照画素の数だけ取得し、 各参照画素の画素値と対応するフィルタ係 数を乗算し、 それらの積の総和を演算する。 さらに、 その積の総和を、 用いた R 成分用補間フィルタ係数の総和で除算して第 1の商を取得する。
ステップ S 2 3 3において、 推定部 1 9 1は、 色モザイクパターン情報および感 度モザイクパターン情報を参照することにより、注目画素の近傍の画素(例えば、 注目画素を中心とする 1 5 X 1 5画素) のうち、 R成分を有し、 かつ、 感度 S 1 である画素を検出し、 検出した画素 (以下、 参照画素と記述する) の画素値を抽 出する。
ステップ S 2 3 4において、 推定部 1 9 1は、 参照画素の注目画素に対する相 対的な位置に対応し、 R成分用補間フィルタ係数を参照画素の数だけ取得し、 各 参照画素の画素値と対応するフィルタ係数を乗算し、 それらの積の総和を演算す る。 さらに、 その積の総和を、 用いた補間フィルタ係数の総和で除算して第 2の 商を取得する。
ステップ S 2 3 5において、 推定部 1 9 1は、 ステップ S 2 3 2で取得した第 1の商と、 ステップ S 2 3 4で取得した第 2の商を加算する。 ステップ S 2 3 6 において、 推定部 1 9 1は、 ステップ S 2 3 5で演算した第 1の商と第 2の商の 和を、 内蔵する合成感度補償 LUT (後述) に照らし合わせることにより、 感度特 性を補償した補償値を取得する。 取得した補償値は、 注目画素に対応する推定値 R, とされる。 処理は図 8 6のステップ S 2 2 4にリターンする。 なお、 推定部 1 9 2の G成分推定処理、 および推定部 1 9 3の B成分推定処理 は、 推定部 1 9 1の R成分推定処理と同様であるので、 その説明は省略する。 た だし、 推定部 1 9 2の G成分推定処理においては、 注目画素を中心とする 7 X 7 画素のなかから参照画素を検出するようにし、 さらに、 図 8 9に示す G成分用補 間フィルタ係数を用いることにする。
ここで、 推定部 1 9 1が用いる合成感度補償 LUTについて、 図 9 0乃至図 9 2 を参照して説明する。 図 9 0は、 感度 S 0の画素の特性曲線 bと、 感度 S 1の画 素の特性曲線 aを示しており、 横軸は入射光の強度、 縦軸は画素値を示す。 同図 において、 高感度の感度 S 1は、 低簡素の感度 S 0に対して 4倍の感度を有して いる。
当該推定処理では、 図 9 0の特性曲線 bに示すような特性で測定された感度 S 0の画素から算出された第 1の商と、 同図の特性曲線 aに示すような特性で測定 された感度 S 1の画素を用いて算出された第 2の商とが加算されている。従って、 第 1の商と第 2の商の和は、 図 9 1の特性曲線 cに示すように、 感度 S Oと感度 S 1の特性が合成された特性を有することになる。
この合成された特性曲線 cは、 低輝度から高輝度にわたる広ダイナミックレン ジの特性となるが、 図 9 1に示すように折れ線となっているので、 感度特性曲線 cの逆特性曲線を用いることにより、 元のリユアな特性を復元するようにする。 具体的には、 図 9 2に示すように、 第 1の商と第 2の商の和を、 図 9 1の感度特 性曲線 cの逆特性曲線 dに適用して非線形性を補償するようにする。
すなわち、 合成感度補償 LUTは、 図 9 2の逆特性曲線 dをルックアップテープ ル化したものである。
図 8 6の説明に戻る。 ステップ S 2 2 4において、 乗算器 1 9 4は、 推定部 1 9 1から供給された推定値 R, に色バランス係数 k Rを乗算し、 その積を加算器 1 9 7に出力する。 乗算器 1 9 5は、 推定部 1 9 2から供給された推定値 G ' に 色バランス係数 k Gを乗算し、 その積を加算器 1 9 7に出力する。 乗算器 1 9 6 は、 推定部 1 9 3から供給された推定値 B, に色バランス係数 k Bを乗算し、 そ の積を加算器 1 97に出力する。 加算器 1 97は、 乗算器 1 94から入力された 積 R' ■ kR、 乗算器 1 9 5から入力された積 G' ■ kG、 および乗算器 1 96から 入力された積 B' · kBを加算し、 その和を注目画素に対応する輝度候補画像の画 素値 (輝度候補値) とする。
処理は、 ステップ S 2 2 1に戻り、 全ての画素を注目画素としたと判定される まで、 ステップ S 22 1乃至 224の処理が繰り返される。 ステップ S 221に おいて、 全ての画素を注目画素としたと判定された場合、 ステップ S 2 25にす すむ。 なお、 ステップ S 22 1乃至 224の処理によって生成された輝度候補画 像はノイズ除去部 1 98に供給される。
ステップ S 225において、 ノイズ除去部 1 9 8は、 加算器 1 9 7から供給さ れる輝度候捕画像にノィズ除去処理を施すことによつて輝度画像を生成し、 単色 画像生成部 1 8 2乃至 1 84に供給する。
ノイズ除去部 1 98のノイズ除去処理について、 図 9 3のフローチヤ一トを参 照して説明する。 ステップ S 24 1において、 ノイズ除去部 1 98は、 輝度候補 画像の全ての画素を注目画素としたか否かを判定し、 全ての画素を注目画素とし ていないと判定した場合、ステップ S 242に進む。ステップ S 242において、 ノイズ除去部 1 98は、 輝度候補画像の左下の画素から右上の画素まで、 順次 1 画素ずつ注目画素に決定する。
ステップ S 243において、 ノイズ除去部 1 9 8は、 注目画素の上下左右に位 置する画素の画素値 (輝度候補値) を取得し、 取得した注目画素の上下左右に位 置する画素輝度候補値を、 それぞれ変数 a 3, a 0, a 1 , a 2に代入する。 ステップ S 244において、 ノイズ除去部 1 98は、 方向選択的平滑化処理を 実行することにより、 注目画素に対応する平滑化値を取得する。
ノイズ除去部 1 98の方向選択的平滑化処理について、 図 94のフローチヤ一 トを参照して説明する。 ステップ S 25 1において、 ノイズ除去部 1 9 8は、 次 式 (24) に適用して、 注目画素に対応する輝度勾配ベク トル gを算出する。 輝度勾配ベク トル g= (a 2- a l , a 3- a O) - - - (24) ステップ S 2 5 2において、 ノイズ除去部 1 9 8は、 輝度勾配ベクトル gの大 きさ (絶対値) II V IIを演算する。
ステップ S 2 5 3において、 ノイズ除去部 1 9 8は、 変数 a 0乃至 a 3を次式 ( 2 5 ), ( 2 6 ) に適用して、 注目画素に対応する水平方向の平滑化成分 H hと 垂直方向の平滑化成分 H vを演算する。
Hh = ( a 1 + a 2) /2 · - - ( 2 5 )
H V = ( a 3 + a 0) / 2 · - - ( 2 6 ) ステップ S 2 5 4において、 ノイズ除去部 1 9 8は、 輝度勾配べクトル gの絶 対値 II g IIに対応して、 水平方向の重要度 whと垂直方向の重要度 wvを演算す る。
具体的には、 輝度勾配べク トル gの絶対値 II g IIが 0よりも大きい場合、 次式 ( 2 7)に示すように、正規化した輝度勾配べクトノレ gZli g IIとべクトル(1, 0) との内積の絶対値を 1から減算して水平方向の重要度 w hを得る。 また、 次 式(2 8)に示すように、正規化した輝度勾配べク トル gZ II g IIとべクトル( 0 , 1) との内積の絶対値を 1から減算して垂直方向の重要度 w vを得る。
wh= l - I (g/ || g II , ( 1, ο)) I · ■ · ( 2 7) w v = l - I (g/|| g II , (o, D) I ■ ■ · ( 2 8 ) 輝度勾配べク トル gの絶対値 li g IIが oである場合、 水平方向の平滑化寄与率 whおよび垂直方向の平滑化寄与率 w Vを、 それぞれ 0. 5とする。
ステップ S 2 5 5において、 ノイズ除去部 1 9 8は、 次式 (2 9 ) を用いて注 目画素に対応する平滑化値ひを演算する。
a = (w h - Hh +w v - H v) / (w h +w v) · · - ( 2 9) 処理は図 9 3のステップ S 2 4 5に戻る。 ステップ S 2 4 5において、 ノイズ 除去部 1 9 8は、 注目画素の画素値 (輝度候補値) と、 ステップ S 2 4 4で演算 した注目画素に対応する平滑化値 αの平均値を演算し、 当該平均値を注目画素に 対応する輝度画像の画素値 (輝度値) とする。
処理はステップ S 2 4 1に戻り、 全ての画素を注目画素としたと判定されるま で、 ステップ S 2 4 1乃至 S 2 4 5の処理が繰り返される。 ステップ S 2 4 1に おいて、 全ての画素を注目画素としたと判定された場合、 ノイズ除去処理は終了 されて、 すなわち、 輝度画像生成処理も終了されて、 図 8 5のステップ S 2 1 2 にリターンする。
ステップ S 2 1 2において、 単色画像生成部 1 8 2乃至 1 8 4は、 供給された 色 -感度モザイク画像および輝度画像を用い、 それぞれ出力画像 R , G , Bを生 成する。
単色画像生成部 1 8 2の第 1の単色画像生成処理について、 図 9 5のフローチ ヤートを参照して説明する。
ステップ S 2 6 1において、 補間部 2 0 1は、 色■感度モザイク画像に補間処 理を施すことによって、 全ての画素が R成分の画素値を有する R候補画像を生成 し、 比率値算出部 2 0 2に出力する。
なお、 補間部 2 0 1の補間処理は、 図 8 7のフローチャートを参照して上述し た輝度画像生成部 1 8 1を構成する推定部 1 9 1の R成分推定処理と同様である ので、 その説明は省略する。
ステップ S 2 6 2において、 比率値算出部 2 0 2は、 比率値算出処理を施すこ とによって強度比率を算出し、 さらに、 各画素に対応する強度比率を示す比率値 情報を生成して乗算器 2 0 3に供給する。
比率値算出部 2 0 2の比率値算出処理について、 図 9 6のフローチヤ一トを参 照して説明する。 ステップ S 2 7 1において、 比率値算出部 2 0 2は、 R候補画 像の全ての画素を注目画素としたか否かを判定し、 全ての画素を注目画素として いないと判定した場合、 ステップ S 2 7 2に進む。 ステップ S 2 7 2において、 比率値算出部 2 0 2は、 R候補画像の左下の画素から右上の画素まで、 順次 1画 素ずつ注目画素に決定する。
ステップ S 2 7 3において、 比率値算出部 2 0 2は、 注目画素の近傍に位置す る画素 (例えば、 注目画素を中心とする 7 X 7画素) を参照画素し、 それらの画 素値 (R成分の単色候補値) を取得する。 また、 比率値算出部 2 0 2は、 参照画 素と同じ座標に位置する輝度画像の画素値 (輝度値) を抽出する。
ステップ S 2 7 4において、 比率値算出部 2 0 2は、 参照画素の注目画素に対 する相対的な位置に対応し、 図 9 7に示すように予め設定されている平滑化フィ ルタ係数を参照画素の数だけ取得する。
ステップ S 2 7 5において、 比率値算出部 2 0 2は、 各参照画素の R成分の単 色候捕値に対応する平滑化フィルタ係数を乗算し、 その積を対応する輝度値で除 算して、 それらの商の総和を演算する。 さらに、 その商の総和を、 用いた平滑化 フィルタ係数の総和で除算して、 その商を注目画素に対応する強度比率として、 比率値情報を生成する。
処理はステップ S 2 7 1に戻り、 R候補画像の全ての画素を注目画素としたと 判定されるまで、 ステップ S 2 7 1乃至 S 2 7 5の処理が繰り返される。 ステツ プ S 2 7 1において、 R候補画像の全ての画素を注目画素としたと判定された場 合、 生成された比率値情報が乗算器 2 0 3に供給されて、 処理は図 9 5のステツ プ S 2 6 3にリターンする。
ステップ S 2 6 3において、 乗算器 2 0 3は、 輝度画像の各画素の画素値に、 対応する強度比率を乗算し、 その積を画素値とする出力画像 Rを生成する。
なお、 単色画像生成部 1 8 2の第 1の単色画像生成処理と同時に、 単色画像生 成部 1 8 3 , 1 8 4も、 同様の処理を実行する。
以上、 画像処理部 7の第 4の構成例による第 4のデモザイク処理の説明を終了 する。
次に、 図 9 8は、 輝度画像生成部 1 8 1の第 2の構成例を示している。 輝度画 像生成部 1 8 1の第 2の構成例は、 図 8 3に示した輝度画像生成部 1 8 1の第 1 の構成例における推定部 1 9 1乃至 1 9 3を、 推定部 2 1 1で置換したものであ る。
輝度画像生成部 1 8 1の第 2の構成例において、 色■感度モザイク画像、 色モ ザイクパターン情報、 および感度モザイクパターン情報は、 推定部 2 1 1に供給 される。 推定部 2 1 1は、 色■感度モザイク画像に対して成分推定処理を施し、 得られ る各画素に対する R成分の推定値 R '、 G成分の推定値 G '、 および B成分の推定 値 B ' を、 対応する乗算器 1 9 4乃至 1 9 6に供給する。
なお、 輝度画像生成部 1 8 1の第 2の構成例をなす乗算器 1 9 4乃至ノイズ除 去部 1 9 8は、 同一の番号を附した図 8 3に示した輝度画像生成部 1 8 1の第 1 の構成例をなす乗算器 1 9 4乃至ノイズ除去部 1 9 8と同様であるので、 その説 明は省略する。
次に、 推定部 2 1 1による R G B成分の推定処理について、 図 9 9のフローチ ヤートを参照して説明する。 なお、 当該 R G B成分の推定処理は、 図 8 6のステ ップ S 2 2 3における処理として、 図 8 7を参照して上述した R成分推定処理に 代えて実行可能な処理である。 したがって、 既に色 ·感度モザイク画像の注目画 素は推定部 2 1 1によって決定されているとして、 ステップ S 2 8 1以降の処理 を説明する。
ステップ S 2 8 1において、 推定部 2 1 1は、 図 1 0 0に示すような注目画素 を中心とする 4画素の画素値を用いる推定画素値 C 0補間処理によって、 注目画 素に対応する推定画素値 C 0を算出する。 推定画素値 C 0補間処理について、 図 1 0 1のフローチヤ一トを参照して説明する。
ステップ S 2 9 1において、 推定部 2 1 1は、 図 1 0 0に示すように、 〇で表 される注目画素に対して 1画素分の間隔を空けて上下左右に位置する 4画素の画 素値を、 それぞれ変数 a 3 , a 0 , a 1 , a 2に代入して、 図 9 4を参照して上 述した方向選択的平滑化処理に適用することによって平滑化値 aを演算する。 このように、 指定した画素の上下左右方向に位置する 4画素の画素値を、 それ ぞれ変数 a 3, a O, a 1 , a 2に代入して、 図 9 4を参照して上述した方向選 択的平滑化処理に適用することによって平滑化値 αを演算する処理を、 以下、 指 定した画素に対応する垂直方向選択的平滑化処理と定義する。
ステップ S 2 9 2において、 推定部 2 1 1は、 ステップ S 2 9 1で得た平滑化 値ひを注目画素の画素値に加算して、その和を注目画素の推定画素値 C 0とする。 処理は図 9 9のステップ S 2 8 2にリターンする。
ステップ S 2 8 2において、 推定部 2 1 1は、 図 1 0 2に示すような注目画素 を中心とする 1 2画素を用いる推定画素値 C 1補間処理によって、 注目画素に対 応する推定画素値 C 1を算出する。 推定画素値 C 1捕間処理について、 図 1 0 3 のフローチャートを参照して説明する。
ステップ S 3 0 1において、 推定部 2 1 1は、 注目画素の色が Gであるか否か を判定し、 注目画素の色が Gであると判定した場合、 ステップ S 3 0 2に進む。 ステップ S 3 0 2において、 推定部 2 1 1は、 図 1 0 2に示すように、 〇で表さ れる注目画素に対して左下、 左上、 右下、 右上に隣接して位置する 4画素の画素 値を、 それぞれ変数 a 0, a 1 , a 2, a 3に代入して、 図 9 4を参照して上述 した方向選択的平滑化処理に適用することによって平滑化値 aを演算する。 このように、 指定した画素の左下、 左上、 右下、 右上方向に位置する 4画素の 画素値を、 それぞれ変数 a 0 , a 1 , a 2 , a 3に代入して、 図 9 4を参照して 上述した方向選択的平滑化処理に適用することによって平滑化値 αを演算する処 理を、 以下、 指定した画素に対応する斜め方向選択的平滑化処理と定義する。 ステップ S 3 0 3にいて、 推定部 2 1 1は、 ステップ S 3 0 2で得た平滑化値 αに 2を乗算して、 その積を注目画素の推定画素値 C 1とする。 処理は図 9 9の ステップ S 2 8 3にリターンする。
なお、 ステップ S 3 0 1において、 注目画素の色が Gではないと判定された場 合、 処理はステップ S 3 0 4に進む。
ステップ S 3 0 4において、 推定部 2 1 1は、 注目画素の左上に隣接する画素 を中心として 1画素分の間隔を空けて位置する 4画素を用い、 垂直方向選択的平 滑化処理を実行して平滑化値 αを算出し、 変数 a 1に代入する。 ステタブ S 3 0 5において、 推定部 2 1 1は、 注目画素の右下に隣接する画素を中心として 1画 素分の間隔を空けて位置する 4画素を用い、 垂直方向選択的平滑化処理を実行し て平滑化値ひを算出し、 変数 a 2に代入する。 ステップ S 3 0 6において、 推定 部 2 1 1は、 注目画素の左下に隣接する画素の画素値を変数 a 0に代入し、 注目 画素の右上に隣接する画素の画素値を変数 a 3に代入する。
ステップ S 307において、 推定部 2 1 1は、 ステップ S 304乃至 S 306 で値を設定した変数 a 0, a 1 , a 2, a 3を、 図 94を参照して上述した方向 選択的平滑化処理に適用して平滑化値 αを演算し、その値を平滑化値 α'とする。 ステップ S 308において、 推定部 21 1は、 注目画素の左下に隣接する画素 を中心として 1画素分の間隔を空けて位置する 4画素を用い、 垂直方向選択的平 滑化処理を実行して平滑化値 aを算出し、 変数 a 0に代入する。 ステップ S 30 9において、 推定部 21 1は、 注目画素の右上に隣接する画素を中心として 1画 素分の間隔を空けて位置する 4画素を用い、 垂直方向選択的平滑化処理を実行し て平滑化値 αを算出し、 変数 a 3に代入する。 ステップ S 3 1 0において、 推定 部 2 1 1は、 '注目画素の左上に隣接する画素の画素値を変数 a 1に代入し、 注目 画素の右下に隣接する画素の画素値を変数 a 2に代入する。
ステップ S 3 1 1において、 推定部 2 1 1は、 ステップ S 308乃至 S 3 10 で値を設定した変数 a O, a 1 , a 2 , a 3を、 図 94を参照して上述した方向 選択的平滑化処理に適用して平滑化値 αを演算し、その値を平滑化値 α ' 'とする。 ステップ S 3 1 2において、 推定部 2 1 1は、 ステップ S 307で得た平滑化 値 α ' と、 ステップ S 3 1 1で得た平滑化値ひ'' をカロ算し、 その和を注目画素に 対応する推定画素値 C 1とする。 処理は図 9 9のステップ S 283にリターンす る。
ステップ S 28 3において、 推定部 21 1は、 図 1 04 Αに示すような注目画 素を中心とする 4画素、 または図 104 Bに示すような注目画素を中心とする 8 画素を用いる推定画素値 C 2補間処理によって、 注目画素に対応する推定画素値 C 2を算出する。 推定画素値 C 2捕間処理について、 図 105のフローチャート を参照して説明する。
ステップ S 3 2 1において、 推定部 21 1は、 注目画素の色が Gであるか否か を判定し、 注目画素の色が Gであると判定した場合、 ステップ S 3 22に進む。 ステップ S 3 22において、 推定部 21 1は、 注目画素の上に隣接する画素を 中心として 1画素分の間隔を空けて位置する 4画素を用い、 垂直方向選択的平滑 化処理を実行して平滑化値 αを算出し、 平滑化値 α ' とする。
ステップ S 3 2 3において、 推定部 2 1 1は、 注目画素の下に隣接する画素を 中心として 1画素分の間隔を空けて位置する 4画素を用い、 垂直方向選択的平滑 化処理を実行して平滑化値 αを算出し、 平滑化値 とする。
ステップ S 3 2 4において、 推定部 2 1 1は、 注目画素の下に隣接する画素の 画素値と、 ステップ S 3 2 2で得た平滑化値ひ , との平均値と、 注目画素の上に 隣接する画素の画素値と、ステップ S 3 2 3で得た平滑化値ひ ' ' との平均値とを 加算して、 その和を注目画素に対応する推定画素値 C 2とする。 処理は図 9 9の ステップ S 2 8 4にリターンする。
なお、 ステップ S 3 2 1において、 注目画素の色が Gではないと判定された場 合、 処理はステツプ S 3 2 5に進む。
ステップ S 3 2 5において、 推定部 2 1 1は、 注目画素の左に隣接する画素を 中心として斜め方向に隣接して位置する 4画素を用い、 斜め方向選択的平滑化処 理を実行して平滑化値ひを算出し、 変数 a 1に代入する。 ステップ S 3 2 6にお いて、 推定部 2 1 1は、 注目画素の右に隣接する画素を中心として斜め方向に隣 接して位置する 4画素を用い、 斜め方向選択的平滑化処理を実行して平滑化値 α を算出し、 変数 a 2に代入する。 ステップ S 3 2 7において、 推定部 2 1 1は、 注目画素の下に隣接する画素の画素値を変数 a 0に代入し、 注目画素の上に隣接 する画素の画素値を変数 a 3に代入する。
ステップ S 3 2 8において、 推定部 2 1 1は、 ステップ S 3 2 5乃至 S 3 2 7 で値を設定した変数 a 0 , a 1 , a 2 , a 3を、 図 9 4を参照して上述した方向 選択的平滑化処理に適用して平滑化値 αを演算し、その値を平滑化値 cx 'とする。 ステップ S 3 2 9において、 推定部 2 1 1は、 注目画素の下に隣接する画素を 中心として斜め方向に隣接して位置する 4画素を用い、 斜め方向選択的平滑化処 理を実行して平滑化値 αを算出し、 変数 a 0に代入する。 ステップ S 3 3 0にお いて、 推定部 2 1 1は、 注目画素の上に隣接する画素を中心として斜め方向に隣 接して位置する 4画素を用い、 斜め方向選択的平滑化処理を実行して平滑化値 α を算出し、 変数 a 3に代入する。 ステップ S 3 3 1において、 推定部 2 1 1は、 注目画素の左に隣接する画素の画素値を変数 a 1に代入し、 注目画素の右に隣接 する画素の画素値を変数 a 2に代入する。
ステップ S 3 3 2において、 推定部 2 1 1は、 ステップ S 3 2 9乃至 S 3 3 1 で値を設定した変数 a O , a 1 , a 2 , a 3を、 図 9 4を参照して上述した方向 選択的平滑化処理に適用して平滑化値 αを演算し、その値を平滑化値 α,'とする。 ステップ S 3 3 3において、 推定部 2 1 1は、 ステップ S 3 2 8で得た平滑化 値 α ' と、 ステップ S 3 3 2で得た平滑化値 を加算し、 その和を注目画素に 対応する推定画素値 C 2とする。 処理は図 9 9のステップ S 2 8 4にリターンす る。
ステップ S 2 8 4において、 推定部 2 1 1は、 図 1 0 6に示すような注目画素 を中心とする 8画素を用いる推定画素値 C 3補間処理によって、 注目画素に対応 する推定画素値 C 3を算出する。 推定画素値 C 3補間処理について、 図 1 0 7の フローチャートを参照して説明する。
ステップ S 3 4 1において、 推定部 2 1 1は、 注目画素の色が Gであるか否か を判定し、 注目画素の色が Gであると判定した場合、 ステップ S 3 4 2に進む。 ステップ S 3 4 2において、 推定部 2 1 1は、 注目画素の右に隣接する画素を 中心として 1画素分の間隔を空けて位置する 4画素を用い、 垂直方向選択的平滑 化処理を実行して平滑化値ひを算出し、 平滑化値 a ' とする。
ステップ S 3 4 3において、 推定部 2 1 1は、 注目画素の左に隣接する画素を 中心として 1画素分の間隔を空けて位置する 4画素を用い、 垂直方向選択的平滑 化処理を実行して平滑化値ひを算出し、 平滑化値ひ ' ' とする。
ステップ S 3 4 4において、 推定部 2 1 1は、 注目画素の左に隣接する画素の 画素値と、 ステップ S 3 4 2で得た平滑化値ひ ' との平均値と、 注目画素の右に 隣接する画素の画素値と、ステップ S 3 4 3で得た平滑化値 ' ' との平均値とを 加算して、 その和を注目画素に対応する推定画素値 C 3とする。 処理は図 9 9の ステップ S 28 5にリターンする。
なお、ステップ S 34 1において、注目画素の色が Gであると判定された場合、 処理はステップ S 345に進む。 ステップ S 345において、 推定部 2 1 1は、 注目画素に対応する推定画素値 C 3を 0とする。 処理は図 9 9のステップ S 28 5にリターンする。
ステップ S 285において、 推定部 21 1は、 色モザイクパターン情報および 感度モザイクパターン情報を参照して、 注目画素の色と感度を判別し、 その判別 結果に対応して、 ステップ S 28 1乃至 S 284で得た注目画素に対応する推定 画素値 C O乃至 C 3を、 内蔵する合成感度補償 LUT (図 90乃至図 9 2を参照し て上述した合成感度補償 LUTと同様のもの) に適用して、 推定値 R', G', B' を算出する。
すなわち、 注目画素の色が Gであって、 かつ、 感度 S Oである場合、 推定画素 値 C 2を合成感度補償 LUTに適用した値 LUT (C 2) が推定値 R' とされ、 推定 画素値 C 0+C 1の平均値を合成感度補償 LUTに適用した値 LUT((C 0 + C 1 /) 2)) が推定値 G' とされ、 推定画素値 C 3を合成感度補償 LUTに適用した値 LUT (C 3) が推定値 B' とされる。
注目画素の色が Gであって、 かつ、 感度 S 1である場合、 推定画素値 C 3を合 成感度補償 LUTに適用した値 LUT (C 3) が推定値 R' とされ、 推定画素値 C O + C 1の平均値を合成感度補償 LUTに適用した値 LUT ((C 0 +C 1Z) 2)) が 推定値 G' とされ、 推定画素値 C 2を合成感度補償 LUTに適用した値 LUT (C 2) が推定値 B' とされる。
注目画素の色が Rである場合、 推定画素値 C 0を合成感度補償 LUTに適用した 値 LUT (C O) が推定値 R' とされ、推定画素値 C 2の平均値を合成感度補償 LUT に適用した値 LUT (C 2) が推定値 G' とされ、 推定画素値 C 1を合成感度補償 LUTに適用した値 LUT (C 1) が推定値 B' とされる。
注目画素の色が Bである場合、 推定画素値 C 1を合成感度補償 LUTに適用した 値 LUT (C 1) が推定値 R' とされ、推定画素値 C 2の平均値を合成感度補償 LUT に適用した値 LUT ( C 2 ) が推定値 G ' とされ、 推定画素値 C 0を合成感度補償
LUTに適用した値 LUT ( C O ) が推定値 B, とされる。
以上のように、 推定部 2 1 1による R G B成分の推定処理では、 方向選択的平 滑化処理を利用して生成された推定画素値 C 0乃至 C 3が用いられるので、 画像 信号の解像度劣化が抑止される。
以上、 推定部 2 1 1による R G B成分の推定処理の説明を終了する。
ところで上述した説明においては、 画像処理部 7の第 4の構成例の単色画像生 成部 1 8 3、 1 8 4は、 図 8 4に示した単色画像生成部 1 8 2の構成例と同様に 構成されており、 図 9 5を参照して説明した単色画像生成部 1 8 2の単色画像生 成処理 (図 9 5 ) と同様の処理を実行するとしたが、 単色画像生成部 1 8 2乃至
1 8 4は、 単色画像生成処理に含まれる単色候補画像生成処理 (図 9 5のステツ プ S 2 6 1 ) に代えて、 それぞれに最適化された独自の処理を実行することも可 能である。
ステップ S 2 6 1の単色候補画像生成処理に代えて単色画像生成部 1 8 2が実 行する R候補画像生成処理について、 図 1 0 8のフローチャートを参照して説明 する。 なお、 説明の便宜上、 単色画像生成部 1 8 2を構成する補間部 2 0 1を補 間部 2 0 1一 Rと記述する。
ステップ S 3 5 1において、 補間部 2 0 1— Rは、 色 ·感度モザイク画像の全 ての画素を 1回目の注目画素としたか否かを判定し、 全ての画素を 1回目の注目 画素としていないと判定した場合、 ステップ S 3 5 2に進む。 ステップ S 3 5 2 において、 補間部 2 0 1— Rは、 色 '感度モザイク画像の左下の画素から右上の 画素まで、 順次 1画素ずつ 1回目の注目画素に決定する。
ステップ S 3 5 3において、 補間部 2 0 1— Rは、 1回目の注目画素の色が R であるか否かを判定し、 Rであると判定した場合、 ステップ S 3 5 4に進む。 ス テツプ S 3 5 4において、 捕間部 2 0 1— Rは、 1回目の注目画素を中心として 1画素分の間隔を空けて上下左右に位置する 4画素を用い、 垂直方向選択的平滑 化処理を実行して平滑化値 αを算出する。 ステップ S 3 5 5において、 補間部 2 0 1—Rは、 1回目の注目画素の画素値と、 ステップ S 3 5 4で算出した平滑化 値ひとの和を、 内蔵する合成感度補償 LUT (図 9 0乃至図 9 2を参照して上述し た合成感度補償 LUTと同様のもの) に適用し、 得られた値を R候補画像の 1回目 の注目画素に対応する画素値とする。 処理はステップ S 3 5 1に戻る。
なお、 ステップ S 3 5 3において、 1回目の注目画素の色が Rではない判定さ れた場合、 ステップ S 3 5 4およびステップ S 3 5 5はスキップされ、 ステップ S 3 5 1に戻る。
その後、 ステップ S 3 5 1において、 色 '感度モザイク画像の全ての画素を 1 回目の注目画素としたと判定されるまで、 ステップ S 3 5 1乃至 S 3 5 5の処理 が繰り返され、 ステップ S 3 5 1において、 色 '感度モザイク画像の全ての画素 を 1回目の注目画素としたと判定された場合、 処理はステップ S 3 5 6に進む。 ステップ S 3 5 6において、 捕間部 2 0 1—Rは、 色 '感度モザイク画像の全 ての画素を 2回目の注目画素としたか否かを判定し、 全ての画素を 2回目の注目 画素としていないと判定した場合、 ステップ S 3 5 7に進む。 ステップ S 3 5 7 において、 補間部 2 0 1— Rは、 色 '感度モザイク画像の左下の画素から右上の 画素まで、 順次 1画素ずつ 2回目の注目画素に決定する。
ステップ S 3 5 8において、 補間部 2 0 1—Rは、 2回目の注目画素の色が B であるか否かを判定し、 Bであると判定した場合、 ステップ S 3 5 9に進む。 ス テツプ S 3 5 9において、 補間部 2 0 1—Rは、 2回目の注目画素を中心として 斜め方向に隣接して位置する 4画素を用い、 斜め方向選択的平滑化処理を実行し て平滑化値ひを算出する。 ステップ S 3 6 0において、 補間部 2 0 1—Rは、 ス テツプ S 3 5 9で算出した平滑化値ひを R候補画像の 2回目の注目画素に対応す る画素値とする。 処理はステップ S 3 5 6に戻る。
なお、 ステップ S 3 5 8において、 2回目の注目画素の色が Bではない判定さ れた場合、 ステップ S 3 5 9およびステップ S 3 6 0はスキップされ、 ステップ S 3 5 6に戻る。
その後、 ステップ S 3 5 6において、 色 '感度モザイク画像の全ての画素を 2 回目の注目画素としたと判定されるまで、 ステップ S 3 5 6乃至 S 3 6 0の処理 が繰り返され、 ステップ S 3 5 6において、 色 '感度モザイク画像の全ての画素 を 2回目の注目画素としたと判定された場合、 処理はステップ S 3 5 1に進む。 ステップ S 3 6 1において、 色 ·感度モザイク画像の全ての画素を 3回目の注 目画素としたか否かを判定し、 全ての画素を 3回目の注目画素としていないと判 定した場合、 ステップ S 3 6 2に進む。 ステップ S 3 6 2において、 補間部 2 0 1一 Rは、 色 ·感度モザイク画像の左下の画素から右上の画素まで、 順次 1画素 ずつ 3回目の注目画素に決定する。
ステップ S 3 6 3において、 補間部 2 0 1— Rは、 3回目の注目画素の色が G であるか否かを判定し、 Gであると判定した場合、 ステップ S 3 6 4に進む。 ス テツプ S 3 6 4において、 補間部 2 0 1— Rは、 3回目の注目画素を中心として 上下左右に隣接して位置する 4画素を用い、 垂直方向選択的平滑化処理を実行し て平滑化値ひを算出する。 ステップ S 3 6 5において、 補間部 2 0 1—Rは、 ス テツプ S 3 6 4で算出した平滑化値 αを R候補画像の 3回目の注目画素に対応す る画素値とする。 処理はステップ S 3 6 1に戻る。
なお、 ステップ S 3 6 3において、 3回目の注目画素の色が Gではない判定さ れた場合、 ステップ S 3 6 4およびステップ S 3 6 5はスキップされ、 ステップ S 3 5 1に戻る。
その後、 ステップ S 3 6 1において、 色 '感度モザイク画像の全ての画素を 3 回目の注目画素としたと判定されるまで、 ステップ S 3 6 1乃至 S 3 6 5の処理 が繰り返され、 ステップ S 3 6 1において、 色 '感度モザイク画像の全ての画素 を 3回目の注目画素としたと判定された場合、 当該 R候補画像生成処理は終了さ れる。
単色画像生成部 1 8 4が実行する Β候補画像生成処理について、 図 1 0 9のフ ローチャートを参照して説明する。 なお、 説明の便宜上、 単色候補画像生成部 1 8 2の補間部 2 0 1に相当する単色画像生成部 1 8 4の構成要素を捕間部 2 0 1 一 Βと記述する。 ステップ S 3 7 1において、 補間部 2 0 1— Bは、 色 '感度モザイク画像の全 ての画素を 1回目の注目画素としたか否かを判定し、 全ての画素を 1回目の注目 画素としていないと判定した場合、 ステップ S 3 7 2に進む。 ステップ S 3 7 2 において、 補間部 2 0 1— Bは、 色 ·感度モザイク画像の左下の画素から右上の 画素まで、 順次 1画素ずつ 1回目の注目画素に決定する。
ステップ S 3 7 3において、 捕間部 2 0 1— Bは、 1回目の注目画素の色が B であるか否かを判定し、 Bであると判定した場合、 ステップ S 3 7 4に進む。 ス テツプ S 3 7 4において、 補間部 2 0 1— Bは、 1回目の注目画素を中心として 1画素分の間隔を空けて上下左右に位置する 4画素を用い、 垂直方向選択的平滑 化処理を実行して平滑化値ひを算出する。 ステップ S 3 7 5において、 補間部 2 0 1— は、 1回目の注目画素の画素値と、 ステップ S 3 7 4で算出した平滑化 ィ直 との和を、 内蔵する合成感度補償 LUT (図 9 0乃至図 9 2を参照して上述し た合成感度補償 LUTと同様のもの) に適用し、 得られた値を B候補画像の 1回目 の注目画素に対応する画素値とする。 処理はステップ S 3 7 1に戻る。
なお、 ステップ S 3 7 3において、 1回目の注目画素の色が Bではない判定さ れた場合、 ステップ S 3 7 4およびステップ S 3 7 5はスキップされ、 ステップ S 3 7 1に戻る。
その後、 ステップ S 3 7 1において、 色 ·感度モザイク画像の全ての画素を 1 回目の注目画素としたと判定されるまで、 ステップ S 3 7 1乃至 S 3 7 5の処理 が繰り返され、 ステップ S 3 7 1において、 色 '感度モザイク画像の全ての画素 を 1回目の注目画素としたと判定された場合、 処理はステップ S 3 7 6に進む。 ステップ S 3 7 6において、 補間部 2 0 1—Bは、 色■感度モザイク画像の全 ての画素を 2回目の注目画素としたか否かを判定し、 全ての画素を 2回目の注目 画素としていないと判定した場合、 ステップ S 3 7 7に進む。 ステップ S 3 7 7 において、 捕間部 2 0 1— Bは、 色 .感度モザイク画像の左下の画素から右上の 画素まで、 順次 1画素ずつ 2回目の注目画素に決定する。
ステップ S 3 7 8において、 補間部 2 0 1— Bは、 2回目の注目画素の色が R であるか否かを判定し、 Rであると判定した場合、 ステップ S 3 7 9に進む。 ス テツプ S 3 7 9において、 補間部 2 0 1— Bは、 2回目の注目画素を中心として 斜め方向に隣接して位置する 4画素を用い、 斜め方向選択的平滑化処理を実行し て平滑化値 αを算出する。 ステップ S 3 8 0において、 補間部 2 0 1— Βは、 ス テツプ S 3 7 9で算出した平滑化値 αを Β候補画像の 2回目の注目画素に対応す る画素値とする。 処理はステップ S 3 7 6に戻る。
なお、 ステップ S 3 7 8において、 2回目の注目画素の色が Rではない判定さ れた場合、 ステップ S 3 7 9およびステップ S 3 8 0はスキップされ、 ステップ S 3 7 6に戻る。
その後、 ステップ S 3 7 6において、 色 '感度モザイク画像の全ての画素を 2 回目の注目画素としたと判定されるまで、 ステップ S 3 7 6乃至 S 3 8 0の処理 が繰り返され、 ステップ S 3 7 6において、 色 '感度モザイク画像の全ての画素 を 2回目の注目画素としたと判定された場合、 処理はステップ S 3 8 1に進む。 ステップ S 3 8 1において、 色■感度モザイク画像の全ての画素を 3回目の注 目画素としたか否かを判定し、 全ての画素を 3回目の注目画素としていないと判 定した場合、 ステップ S 3 8 2に進む。 ステップ S 3 8 2において、 補間部 2 0 1一 Βは、 色 ·感度モザイク画像の左下の画素から右上の画素まで、 順次 1画素 ずつ 3回目の注目画素に決定する。
ステップ S 3 8 3において、 捕間部 2 0 1—Βは、 3回目の注目画素の色が G であるか否かを判定し、 Gであると判定した場合、 ステップ S 3 8 4に進む。 ス テツプ S 3 8 4において、 補間部 2 0 1—Βは、 3回目の注目画素を中心として 上下左右に隣接して位置する 4画素を用い、 垂直方向選択的平滑化処理を実行し て平滑化値ひを算出する。 ステップ S 3 8 5において、 補間部 2 0 1— Βは、 ス テツプ S 3 8 4で算出した平滑化値ひを Β候補画像の 3回目の注目画素に対応す る画素値とする。 処理はステップ S 3 8 1に戻る。
なお、 ステップ S 3 8 3において、 3回目の注目画素の色が Gではない判定さ れた場合、 ステップ S 3 8 4およびステップ S 3 8 5はスキップされ、 ステップ S 3 8 1に戻る。
その後、 ステップ S 3 8 1において、 色 '感度モザイク画像の全ての画素を 3 回目の注目画素としたと判定されるまで、 ステップ S 3 8 1乃至 S 3 8 5の処理 が繰り返され、 ステップ S 3 8 1において、 色 -感度モザイク画像の全ての画素 を 3回目の注目画素としたと判定された場合、 当該 B候補画像生成処理は終了さ れる。
単色画像生成部 1 8 3が実行する G候補画像生成処理について、 図 1 1 0のフ ローチャートを参照して説明する。 なお、 説明の便宜上、 単色候補画像生成部 1
8 2の補間部 2 0 1に相当する単色画像生成部 1 8 3の構成要素を補間部 2 0 1 _ Gと記述する。
ステップ S 3 9 1において、 補間部 2 0 1— Gは、 色■感度モザイク画像の全 ての画素を 1回目の注目画素としたか否かを判定し、 全ての画素を 1回目の注目 画素としていないと判定した場合、 ステップ S 3 9 2に進む。 ステップ S 3 9 2 において、 捕間部 2 0 1— Gは、 色 '感度モザイク画像の左下の画素から右上の 画素まで、 順次 1画素ずつ 1回目の注目画素に決定する。
ステップ S 3 9 3において、 補間部 2 0 1— Gは、 1回目の注目画素の色が G であるか否かを判定し、 Gであると判定した場合、 ステップ S 3 9 4に進む。 ス テツプ S 3 9 4において、 補間部 2 0 1— Gは、 1回目の注目画素を中心として 斜め方向に隣接して位置する 4画素を用い、 斜め方向選択的平滑化処理を実行し て平滑化値 αを算出する。 ステップ S 3 9 5において、 補間部 2 0 1—Gは、 1 回目の注目画素の画素値と、 ステップ S 3 9 4で算出した平滑化値 αとの和を、 内蔵する合成感度補償 LUT (図 9 0乃至図 9 2を参照して上述した合成感度補償 LUT と同様のもの) に適用し、 得られた値を G候捕画像の 1回目の注目画素に対 応する画素値とする。 処理はステップ S 3 9 1に戻る。
なお、 ステップ S 3 9 3において、 1回目の注目画素の色が Gではない判定さ れた場合、 ステップ S 3 9 4およびステップ S 3 9 5はスキップされ、 ステップ S 3 9 1に戻る。 その後、 ステップ S 3 9 1において、 色 '感度モザイク画像の全ての画素を 1 回目の注目画素としたと判定されるまで、 ステップ S 3 9 1乃至 S 3 9 5の処理 が繰り返され、 ステップ S 3 9 1において、 色 '感度モザイク画像の全ての画素 を 1回目の注目画素としたと判定された場合、 処理はステップ S 3 9 6に進む。 ステップ S 3 9 6において、 補間部 2 0 1— Gは、 色 '感度モザイク画像の全 ての画素を 2回目の注目画素としたか否かを判定し、 全ての画素を 2回目の注目 画素としていないと判定した場合、 ステップ S 3 9 7に進む。 ステップ S 3 9 7 において、 補間部 2 0 1—Gは、 色 '感度モザイク画像の左下の画素から右上の 画素まで、 順次 1画素ずつ 2回目の注目画素に決定する。
ステップ S 3 9 8において、 補間部 2 0 1—Gは、 2回目の注目画素の色が G であるか否かを判定し、 Gではないと判定した場合、 ステップ S 3 9 9に進む。 ステップ S 3 9 9において、 補間部 2 0 1— Gは、 2回目の注目画素を中心とし て上下左右に隣接して位置する 4画素を用い、 垂直方向選択的平滑化処理を実行 して平滑化値ひを算出する。 ステップ S 4 0 0において、 補間部 2 0 1— Gは、 ステップ S 3 9 9で算出した平滑化値 αを G候補画像の 2回目の注目画素に対応 する画素値とする。 処理はステップ S 3 9 6に戻る。
なお、 ステップ S 3 9 8において、 2回目の注目画素の色が Rである判定され た場合、 ステップ S 3 9 9およびステップ S 4 0 0はスキップされ、 ス ップ S 3 9 6に戻る。
その後、 ステップ S 3 9 6において、 色 '感度モザイク画像の全ての画素を 2 回目の注目画素としたと判定されるまで、 ステップ S 3 9 6乃至 S 4 0 0の処理 が操り返され、 ステップ S 3 9 6において、 色 -感度モザイク画像の全ての画素 を 2回目の注目画素としたと判定された場合、 当該 R候補画像生成処理は終了さ れる。
ところで、 上述したように、 第 4のデモザイク処理では、 色 ·感度モザイク画 像像から、 輝度画像と単色画像を生成し、 その後、 輝度と色成分との相関性を利 用して、 全色を復元することにより、 全ての画素が均一の感度で全ての色成分を 復元するようにしたが、 最初に生成する輝度画像は、 復元する色情報に相関があ つて、 高解像度で復元できる信号であれば、 偏った分光特性をもっていてもかま わない。例えば、色'感度モザイク画像の色モザイク配列がべィャ配列のように、 Rの画素や Bの画素に比較して Gの画素が 2倍存在する特性を利用して、 輝度画 像の代わりに G成分の画像を生成し、 Gと R、または Gと Bの相関性を利用して、 R成分の画像と B成分の画像を生成するようにしてもよい。
そのような処理を実行するために、 図 1 1 0に示すように、 画像処理部 7を構 成してもよい。 輝度画像生成部 2 2 1は、 画像処理部 7の第 4の構成例における 単色画像生成部 1 8 2の補間部 2 0 1 (図 8 4 ) の処理と同様の処理を実行する ことによって出力画像 Gを生成する。 単色画像生成部 2 2 2, 2 2 3は、 それぞ れ、 画像処理部 7の第 4の構成例における単色画像生成部 1 8 2 , 1 8 4と同様 の処理を実行することによって、 出力画像 Rまたは出力画像 Bを生成する。
以上、 第 1乃至第 4のデモザイク処理を実行する画像処理部 7の構成例に関す る説明を終了する。
なお、上述した一連の処理は、ハードウエアにより実行させることもできるが、 ソフトウエアにより実行させることもできる。 一連の処理をソフトウェアにより 実行させる場合には、 そのソフトウェアを構成するプログラムが、 専用のハード ウェアに組み込まれているコンピュータ、 または、 各種のプログラムをインスト ールすることで、 各種の機能を実行することが可能な、 例えば汎用のパーソナル コンピュータなどに、 記録媒体からインストールされる。
この記録媒体は、 図 1に示すように、 コンピュータとは別に、 ユーザにプログ ラムを提供するために配布される、 プログラムが記録されている磁気ディスク 1 6 (フロッピディスクを含む)、光ディスク 1 7 (CD-ROM (Compact Disc-Read Only Memory)、 DVD (Digital Versatile Disc)を含む)、光磁気ディスク 1 8 (MD (Mini Disc)を含む)、 もしくは半導体メモリ 1 9などよりなるパッケージメディアによ り構成されるだけでなく、 コンピュータに予め組み込まれた状態でユーザに提供 される、 プログラムが記録されている ROMやハードディスクなどで構成される。 なお、 本明細書において、 記録媒体に記録されるプログラムを記述するステツ プは、 記載された順序に従って時系列的に行われる処理はもちろん、 必ずしも時 系列的に処理されなくとも、 並列的あるいは個別に実行される処理をも含むもの である。 産業上の利用可能性
以上のように、 本発明によれば、 各画素の感度が均一化されており、 かつ、 各 画素が複数の色成分の全ての色成分を有する復元画像を生成することが可能とな る。

Claims

請求の範囲
1 . 各画素が複数の色成分のうちのいずれかの色成分、 および光強度に対する 複数の感度特性のうちのいずれかの感度特性を有し、 かつ、 同一の色成分および 感度特性を有する複数の画素が格子状に配置されるとともに、 感度特性に拘わら ず、 同一の色成分を有する複数の画素が格子状に配置された色 ·感度モザイク画 像に基づき、 各画素の感度が均一化されており、 かつ、 各画素が前記複数の色成 分の全ての色成分を有する復元画像を復元する復元手段を
含むことを特徴とする画像処理装置。
2 . 前記復元手段は、
前記色'感度モザィク画像の感度特性の配列を示す感度モザィクパターン情報、 および前記色■感度モザイク画像の色成分の配列を示す色モザイクパターン情報 に基づき、 前記色■感度モザイク画像に対応する輝度画像を生成する輝度画像生 成手段と、
前記感度モザイクパターン情報、 前記色モザイクパターン情報、 および前記輝 度画像に基づき、 前記色 ·感度モザイク画像に対応する単色画像を生成する複数 の単色画像生成手段と
を含むことを特徴とする請求の範囲第 1項に記載の画像処理装置。
3 . 前記輝度画像生成手段は、
前記色■感度モザイク画像の各画素に対応する色成分の推定値を算出する複数 の推定手段と、
前記複数の推定手段がそれぞれ算出した複数の前記推定値を用いて、 前記色 - 感度モザイク画像の各画素に対応する輝度候補値を算出する輝度候補値算出手段 と
を含むことを特徴とする請求の範囲第 2項に記載の画像処理装置。
4 . 前記推定手段は、 前記複数の感度特性にそれぞれ対応する複数の推定値候 補を算出し、 前記複数の推定値候補を加算して、 その和に生じている前記感度特 性の非線形性を補償することによって前記推定値を算出する ことを特徴とする請求の範囲第 3項に記載の画像処理装置。
5 . 前記輝度画像生成手段は、
前記輝度候補値のノィズ成分を除去して輝度値を生成するノィズ除去手段を さらに含むことを特徴とする請求の範囲第 3項に記載の画像処理装置。
6 . 前記単色画像生成手段は、
前記感度モザイクパターン情報、および前記色モザイクパターン情報に基づき、 前記色■感度モザイク画像に対応する単色画像候補を生成する単色画像候補生成 手段と、
前記輝度画像に基づき、 前記単色画像候補を修正して前記単色画像を生成する 修正手段と
を含むことを特徴とする請求の範囲第 2項に記載の画像処理装置。
7 . 前記単色画像候補生成手段は、 前記複数の感度特性にそれぞれ対応する複 数の単色候捕値を算出し、 前記複数の単色候補値を加算して、 その和に生じてい る前記感度特性の非線形性を補償することにより、 前記単色画像候補の画素値を 算出して前記単色画像候補を生成する
ことを特徴とする請求の範囲第 6項に記載の画像処理装置。
8 . 前記単色画像候補生成手段は、 方向選択的平滑化処理を用いて、 前記色 感度モザイク画像に対応する前記単色画像候補を生成する
ことを特徴とする請求の範囲第 6項に記載の画像処理装置。 ' 9 . 被写体を撮像し、 前記色 ·感度モザイク画像を生成する撮像手段を
さらに含むことを特徴とする請求の範囲第 1項に記載の画像処理装置。
1 0 . 前記復元手段は、
前記色■感度モザイク画像の感度特性の配列を示す感度モザイクパターン情報 に基づき、 各画素が有する感度特性を均一化する感度特性均一化手段と、
前記色■感度モザイク画像の色成分の配列を示す色モザイクパターン情報に基 づき、 各画素の色成分を補間する色補間手段と
を含むことを特徴とする請求の範囲第 1項に記載の画像処理装置。
1 1 . 前記感度特性均一化手段は、 前記感度モザイクパターン情報、 および前 記色モザイクパターン情報に基づき、 前記色 ·感度モザイク画像の各画素が有す る感度特性を均一化して色モザイク画像を生成し、
前記色補間手段は、 前記色モザイクパターン情報に基づき、 前記色モザイク画 像の各画素の色成分を補間して前記復元画像を生成する
ことを特徴とする請求の範囲第 1 0項に記載の画像処理装置。
1 2 . 前記感度特性均一化手段は、 前記感度モザイクパターン情報、 および前 記色モザイクパターン情報に基づき、 前記色 ·感度モザイク画像の各画素が有す る色成分の種類を変更することなく、 その感度特性を均一化して前記色モザィク 画像を生成する
ことを特徴とする請求の範囲第 1 1項に記載の画像処理装置。
1 3 . 前記感度特性均一化手段は、 前記感度モザイクパターン情報、 および前 記色モザイクパターン情報に基づき、 前記色■感度モザイク画像の各画素が有す る感度特性を均一化して前記色モザイク画像を生成し、 前記色モザイクパターン 情報を更新する
ことを特徴とする請求の範囲第 1 1項に記載の画像処理装置。
1 4 . 前記感度均一化手段は、
前記感度モザイクパターン情報に基づき、 前記色■感度モザイク画像の各画素が 有する色成分を補償する補償手段と、
前記感度モザイクパターン情報に基づき、 前記色 ·感度モザイク画像の各画素 が有する色成分の有効性を判別する判別手段と、
前記判別手段の判別結果に対応して、 前記補償手段が補償した各画素が有する 色成分を補間処理によつて修正する修正手段と
を含むことを特徴とする請求の範囲第 1 1項に記載の画像処理装置。
1 5 . 前記感度均一化手段は、
前記感度モザイクパターン情報に基づき、 前記色 ·感度モザイク画像の推定画 素値を算出する算出手段と、 前記算出手段が算出した前記推定画素値を補正する補正手段と を含むことを特徴とする請求の範囲第 1 1項に記載の画像処理装置。
1 6 . 前記色補間手段は、 前記感度モザイクパターン情報、 および前記色モザ イクパターン情報に基づき、 前記色■感度モザイク画像の各画素に対し、 その感 度特性を変更することなく、 全ての色成分を補間して各色成分の感度モザイク画 像を生成し、
前記感度特性均一化手段は、 前記感度モザイクパターン情報に基づき、 前記感 度モザイク画像の各画素が有する感度特性を均一化して前記復元画像を生成する ことを特徴とする請求の範囲第 1 0項に記載の画像処理装置。
1 7 . 前記色補間手段は、
前記色 ·感度モザイク画像から同一の感度特性を有する画素を抽出する抽出手 段と、
前記抽出手段が抽出した各画素に対し、 全ての色成分を補間する全色成分補間 手段と、
前記全色成分補間手段が全ての色成分を補間した画素のうち、 同一の色成分を 有し、 かつ、 異なる感度特性を有する画素を合成して前記感度モザイク画像を生 成する合成手段と
を含むことを特徴とする請求の範囲第 1 6項に記載の画像処理装置。
1 8 . 各画素が複数の色成分のうちのいずれかの色成分、 および光強度に対す る複数の感度特性のうちのいずれかの感度特性を有し、 かつ、 同一の色成分およ ぴ感度特性を有する複数の画素が格子状に配置されるとともに、 感度特性に拘わ らず、 同一の色成分を有する複数の画素が格子状に配置された色 ·感度モザイク 画像に基づき、 各画素の感度が均一化されており、 かつ、 各画素が前記複数の色 成分の全ての色成分を有する復元画像を復元する復元ステップを
含むことを特徴とする画像処理方法。
1 9 . 前記復元ステップは、
前記色'感度モザイク画像の感度特性の配列を示す感度モザイクパターン情報、 および前記色 ·感度モザイク画像の色成分の配列を示す色モザイクパターン情報 に基づき、 前記色 ·感度モザイク画像に対応する輝度画像を生成する輝度画像生 成ステップと、
前記感度モザイクパターン情報、 前記色モザイクパターン情報、 および前記輝 度画像に基づき、 前記色,感度モザイク画像に対応する単色画像を生成する複数 の単色画像生成ステップと
を含むことを特徴とする請求の範囲第 1 8項に記載の画像処理方法。
2 0 . 前記輝度画像生成ステツプは、
前記色 ·感度モザイク画像の各画素に対応する色成分の推定値を算出する複数 の推定ステップと、
前記複数の推定ステップの処理でそれぞれ算出された複数の前記推定値を用い て、 前記色 ·感度モザイク画像の各画素に対応する輝度候補値を算出する輝度候 補値算出ステップと
を含むことを特徴とする請求の範囲第 1 9項に記載の画像処理方法。
2 1 . 前記推定ステップの処理は、 前記複数の感度特性にそれぞれ対応する複 数の推定値候補を算出し、 前記複数の推定値候補を加算して、 その和に生じてい る前記感度特性の非線形性を補償することによって前記推定値を算出する
ことを特徴とする請求の範囲第 2 0項に記載の画像処理方法。
2 2 . 前記輝度画像生成ステップは、
前記輝度候補値のノィズ成分を除去して輝度値を生成するノィズ除去ステップ を
さらに含むことを特徴とする請求の範囲第 2 0項に記載の画像処理方法。
2 3 . 前記単色画像生成ステップは、
前記感度モザイクパターン情報、および前記色モザイクパターン情報に基づき、 前記色■感度モザイク画像に対応する単色画像候補を生成する単色画像候補生成 ステップと、
前記輝度画像に基づき、 前記単色画像候補を修正して前記単色画像を生成する を含むことを特徴とする請求の範囲第 1 9項に記載の画像処理方法。
2 4 . 前記単色画像候補生成ステップの処理は、 前記複数の感度特性にそれぞ れ対応する複数の単色候補値を算出し、 前記複数の単色候補値を加算して、 その 和に生じている前記感度特性の非線形性を補償することにより、 前記単色画像候 補の画素値を算出して前記単色画像候補を生成する
ことを特徴とする請求の範囲第 2 3項に記載の画像処理方法。
2 5 . 前記単色画像候補生成ステップの処理は、 方向選択的平滑化処理を用い て、 前記色 ·感度モザイク画像に対応する前記単色画像候補を生成する
ことを特徴とする請求の範囲第 2 3項に記載の画像処理方法。
2 6 . 被写体を撮像し、 前記色 ·感度モザイク画像を生成する撮像ステップを さらに含むことを特徴とする請求の範囲第 1 8項に記載の画像処理方法。 2 7 . 前記復元ステップは、
前記色 ·感度モザイク画像の感度特性の配列を示す感度モザイクパターン情報 に基づき、 各画素が有する感度特性を均一化する感度特性均一化ステップと、 前記色 ·感度モザイク画像の色成分の配列を示す色モザイクパターン情報に基 づき、 各画素の色成分を補間する色補間ステップと
を含むことを特徴とする請求の範囲第 1 8項に記載の画像処理方法。
2 8 . 前記感度特性均一化ステップの処理は、前記感度モザイクパターン情報、 および前記色モザイクパターン情報に基づき、 前記色 ·感度モザイク画像の各画 素が有する感度特性を均一化して色モザイク画像を生成し、
前記色補間ステップの処理は、 前記色モザイクパターン情報に基づき、 前記色 モザィク画像の各画素の色成分を補間して前記復元画像を生成する
ことを特徴とする請求の範囲第 2 7項に記載の画像処理方法。
2 9 . 前記感度特性均一化ステップの処理は、前記感度モザイクパターン情報、 および前記色モザイクパターン情報に基づき、 前記色■感度モザイク画像の各画 素が有する色成分の種類を変更することなく、 その感度特性を均一化して前記色 モザイク画像を生成する
ことを特徴とする請求の範囲第 2 8項に記載の画像処理方法。
3 0 . 前記感度特性均一化ステップの処理は、前記感度モザイクパターン情報、 および前記色モザイクパターン情報に基づき、 前記色 '感度モザイク画像の各画 素が有する感度特性を均一化して前記色モザイク画像を生成し、 前記色モザイク パターン情報を更新する
ことを特徴とする請求の範囲第 2 8項に記載の画像処理方法。
3 1 . 前記感度均一化ステップは、
前記感度モザイクパターン情報に基づき、 前記色 ·感度モザイク画像の各画素が 有する色成分を補償する補償ステップと、
前記感度モザイクパターン情報に基づき、 前記色 ·感度モザイク画像の各画素 が有する色成分の有効性を判別する判別ステップと、
前記判別手段の判別結果に対応して、 前記補償ステップの処理で補償された各 画素が有する色成分を補間処理によって修正する修正ステップと
を含むことを特徴とする請求の範囲第 2 8項に記載の画像処理方法。
3 2 . 前記感度均一化ステップは、
前記感度モザイクパターン情報に基づき、 前記色 ·感度モザイク画像の推定画 素値を算出する算出ステップと、
前記算出ステップの処理で算出された前記推定画素値を補正する補正ステップ と
を含むことを特徴とする請求の範囲第 2 8項に記載の画像処理方法。
3 3 . 前記色補間ステップの処理は、 前記感度モザイクパターン情報、 および 前記色モザイクパターン情報に基づき、 前記色■感度モザイク画像の各画素に対 し、 その感度特性を変更することなく、 全ての色成分を補間して各色成分の感度 モザイク画像を生成し、
前記感度特性均一化ステップの処理は、 前記感度モザイクパターン情報に基づ き、 前記感度モザイク画像の各画素が有する感度特性を均一化して前記復元画像 を生成する
ことを特徴とする請求の範囲第 2 6項に記載の画像処理方法。
3 4 . 前記色捕間ステップは、
前記色■感度モザイク画像から同一の感度特性を有する画素を抽出する抽出ス テツプと、
前記抽出ステップの処理で抽出された各画素に対し、 全ての色成分を補間する 全色成分補間ステップと、
前記全色成分捕間ステップの処理で全ての色成分が補間された画素のうち、 同 一の色成分を有し、 かつ、 異なる感度特性を有する画素を合成して前記感度モザ イク画像を生成する合成ステップと
を含むことを特徴とする請求の範囲第 3 3項に記載の画像処理方法。
3 5 . 各画素が複数の色成分のうちのいずれかの色成分、 および光強度に対す る複数の感度特性のうちのいずれかの感度特性を有し、 かつ、 同一の色成分およ ぴ感度特性を有する複数の画素が格子状に配置されるとともに、 感度特性に拘わ らず、 同一の色成分を有する複数の画素が格子状に配置された色■感度モザイク 画像に基づき、 各画素の感度が均一化されており、 かつ、 各画素が前記複数の色 成分の全ての色成分を有する復元画像を復元する復元ステップを
含むことを特徴とするコンピュータが読み出し可能なプログラムが記録されて いる記録媒体。
3 6 . 前記復元ステップは、
前記色'感度モザイク画像の感度特性の配列を示す感度モザイクパターン情報、 および前記色 ·感度モザイク画像の色成分の配列を示す色モザイクパターン情報 に基づき、 前記色 ·感度モザイク画像に対応する輝度画像を生成する輝度画像生 成ステップと、
前記感度モザイクパターン情報、 前記色モザイクパターン情報、 および前記輝 度画像に基づき、 前記色 ·感度モザイク画像に対応する単色画像を生成する複数 の単色画像生成ステップと を含むことを特徴とするコンピュータが読み出し可能なプログラムが記録され ている請求の範囲第 3 5項に記載の記録媒体。
3 7 . 前記輝度画像生成ステップは、
前記色 ·感度モザイク画像の各画素に対応する色成分の推定値を算出する複数 の推定ステップと、
前記複数の推定ステップの処理でそれぞれ算出された複数の前記推定値を用い て、 前記色 ·感度モザイク画像の各画素に対応する輝度候補値を算出する輝度候 補値算出ステップと
を含むことを特徴とするコンピュータが読み出し可能なプログラムが記録され ている請求の範囲第 3 6項に記載の記録媒体。
3 8 . 前記推定ステップの処理は、 前記複数の感度特性にそれぞれ対応する複 数の推定値候補を算出し、 前記複数の推定値候補を加算して、 その和に生じてい る前記感度特性の非線形性を補償することによって前記推定値を算出する
ことを特徴とするコンピュータが読み出し可能なプログラムが記録されている 請求の範囲第 3 7項に記載の記録媒体。
3 9 . 前記輝度画像生成ステップは、
前記輝度候補値のノィズ成分を除去して輝度値を生成するノィズ除去ステップ を
さらに含むことを特徴とするコンピュータが読み出し可能なプログラムが記録 されている請求の範囲第 3 7項に記載の記録媒体。
4 0 . 前記単色画像生成ステップは、
前記感度モザイクパターン情報、および前記色モザイクパターン情報に基づき、 前記色 ·感度モザイク画像に対応する単色画像候補を生成する単色画像候補生成 ステップと、
前記輝度画像に基づき、 前記単色画像候補を修正して前記単色画像を生成する 修正ステップと
を含むことを特徴とするコンピュータが読み出し可能なプログラムが記録され ている請求の範囲第 3 6項に記載の記録媒体。
4 1 . 前記単色画像候補生成ステップの処理は、 前記複数の感度特性にそれぞ れ対応する複数の単色候補値を算出し、 前記複数の単色候補値を加算して、 その 和に生じている前記感度特性の非線形性を補償することにより、 前記単色画像候 補の画素値を算出して前記単色画像候補を生成する
ことを特徴とするコンピュータが読み出し可能なプログラムが記録されている 請求の範囲第 4 0項に記載の記録媒体。
4 2 . 前記単色画像候補生成ステップの処理は、 方向選択的平滑化処理を用い て、 前記色■感度モザイク画像に対応する前記単色画像候補を生成する
ことを特徴とするコンピュータが読み出し可能なプログラムが記録されている 請求の範囲第 4 0項に記載の記録媒体。
4 3 . 被写体を撮像し、 前記色,感度モザイク画像を生成する処理を制御する 撮像制御ステップを · さらに含むことを特徴とするコンピュータが読み出し可能なプログラムが記録 されている請求の範囲第 3 5項に記載の記録媒体。
4 4 . 前記復元ステップは、
前記色■感度モザイク画像の感度特性の配列を示す感度モザイクパターン情報 に基づき、 各画素が有する感度特性を均一化する感度特性均一化ステップと、 前記色 ·感度モザイク画像の色成分の配列を示す色モザイクパターン情報に基 づき、 各画素の色成分を補間する色補間ステップと
を含むことを特徴とするコンピュータが読み出し可能なプログラムが記録され ている請求の範囲第 3 5項に記載の記録媒体。
4 5 . 前記感度特性均一化ステップの処理は、前記感度モザイクパターン情報、 および前記色モザイクパターン情報に基づき、 前記色■感度モザイク画像の各画 素が有する感度特性を均一化して色モザイク画像を生成し、
前記色補間ステップの処理は、 前記色モザイクパターン情報に基づき、 前記色 画像の各画素の色成分を補間して前記復元画像を生成する ことを特徴とするコンピュータが読み出し可能なプログラムが記録されている 請求の範囲第 4 4項に記載の記録媒体。
4 6 . 前記感度特性均一化ステップの処理は、前記感度モザイクパターン情報、 および前記色モザイクパターン情報に基づき、 前記色 ·感度モザイク画像の各画 素が有する色成分の種類を変更することなく、 その感度特性を均一化して前記色 モザイク画像を生成する
ことを特徴とするコンピュータが読み出し可能なプログラムが記録されている 請求の範囲第 4 5項に記載の記録媒体。
4 7 . 前記感度特性均一化ステップの処理は、前記感度モザイクパターン情報、 および前記色モザイクパターン情報に基づき、 前記色 '感度モザイク画像の各画 素が有する感度特性を均一化して前記色モザィク画像を生成し、 前記色モザィク パターン情報を更新する
ことを特徴とするコンピュータが読み出し可能なプログラムが記録されている 請求の範囲第 4 5項に記載の記録媒体。
4 8 . 前記感度均一化ステップは、
前記感度モザイクパターン情報に基づき、 前記色 ·感度モザイク画像の各画素が 有する色成分を補償する補償ステップと、
前記感度モザイクパターン情報に基づき、 前記色 ·感度モザイク画像の各画素 が有する色成分の有効性を判別する判別ステップと、
前記判別手段の判別結果に対応して、 前記補償ステップの処理で補償された各 画素が有する色成分を補間処理によつて修正する修正ステップと
を含むことを特徴とするコンピュータが読み出し可能なプログラムが記録され ている請求の範囲第 4 5項に記載の記録媒体。
4 9 . 前記感度均一化ステップは、
前記感度モザイクパターン情報に基づき、 前記色 '感度モザイク画像の推定画 素値を算出する算出ステップと、
前記算出ステップの処理で算出された前記推定画素値を補正する捕正ステップ と
を含むことを特徴とするコンピュータが読み出し可能なプログラムが記録され ている請求の範囲第 4 5項に記載の記録媒体。
5 0 . 前記色捕間ステップの処理は、 前記感度モザイクパターン情報、 および 前記色モザイクパターン情報に基づき、 前記色 ·感度モザイク画像の各画素に対 し、 その感度特性を変更することなく、 全ての色成分を補間して各色成分の感度 モザイク画像を生成し、
前記感度特性均一化ステップの処理は、 前記感度モザイクパターン情報に基づ き、 前記感度モザイク画像の各画素が有する感度特性を均一化して前記復元画像 を生成する
ことを特徴とするコンピュータが読み出し可能なプログラムが記録されている 請求の範囲第 4 4項に記載の記録媒体。
5 1 . 前記色補間ステップは、
前記色 ·感度モザイク画像から同一の感度特性を有する画素を抽出する抽出ス テツプと、
前記抽出ステップの処理で抽出された各画素に対し、 全ての色成分を捕間する 全色成分補間ステップと、
前記全色成分補間ステップの処理で全ての色成分が補間された画素のうち、 同 一の色成分を有し、 かつ、 異なる感度特性を有する画素を合成して前記感度モザ イク画像を生成する合成ステップと
を含むことを特徴とするコンピュータが読み出し可能なプログラムが記録され ている請求の範囲第 5 0項に記載の記録媒体。
5 2 . 各画素が複数の色成分のうちのいずれかの色成分、 および光強度に対す る複数の感度特性のうちのいずれかの感度特性を有し、 かつ、 同一の色成分およ ぴ感度特性を有する複数の画素が格子状に配置されるとともに、 感度特性に拘わ らず、 同一の色成分を有する複数の画素が格子状に配置された色 ·感度モザィク 画像に基づき、 各画素の感度が均一化されており、 かつ、 各画素が前記複数の色 成分の全ての色成分を有する復元画像を復元する復元ステップを コンピュータに実行させるプログラム。
5 3 . 前記復元ステップは、
前記色'感度モザイク画像の感度特性の配列を示す感度モザイクパターン情報、 および前記色 ·感度モザイク画像の色成分の配列を示す色モザイクパターン情報 に基づき、 前記色 ·感度モザイク画像に対応する輝度画像を生成する輝度画像生 成ステップと、
前記感度モザイクパターン情報、 前記色モザイクパターン情報、 および前記輝 度画像に基づき、 前記色 ·感度モザイク画像に対応する単色画像を生成する複数 の単色画像生成ステップと
を含むことを特徴とする請求の範囲第 5 2項に記載のプログラム。
5 4 . 前記輝度画像生成ステップは、
前記色 ·感度モザイク画像の各画素に対応する色成分の推定値を算出する複数 の推定ステップと、
前記複数の推定ステップの処理でそれぞれ算出された複数の前記推定値を用い て、 前記色 ·感度モザイク画像の各画素に対応する輝度候補値を算出する輝度候 補値算出ステップと
を含むことを特徴とする請求の範囲第 5 3項に記載のプログラム。
5 5 . 前記推定ステップの処理は、 前記複数の感度特性にそれぞれ対応する複 数の推定値候補を算出し、 前記複数の推定値候補を加算して、 その和に生じてい る前記感度特性の非線形性を補償することによって前記推定値を算出する ことを特徴とする請求の範囲第 5 4項に記載のプログラム。
5 6 . 前記輝度画像生成ステップは、
前記輝度候補値のノィズ成分を除去して輝度値を生成するノィズ除去ステップ を
さらに含むことを特徴とする請求の範囲第 5 4項に記載のプログラム。
5 7 . 前記単色画像生成ステップは、 前記感度モザィクパターン情報、および前記色モザィクパターン情報に基づき、 前記色 ·感度モザイク画像に対応する単色画像候補を生成する単色画像候補生成 ステップと、
前記輝度画像に基づき、 前記単色画像候補を修正して前記単色画像を生成する 修正ステップと
を含むことを特徴とする請求の範囲第 5 3項に記載のプログラム。
5 8 . 前記単色画像候補生成ステップの処理は、 前記複数の感度特性にそれぞ れ対応する複数の単色候補値を算出し、 前記複数の単色候補値を加算して、 その 和に生じている前記感度特性の非線形性を補償することにより、 前記単色画像候 補の画素値を算出して前記単色画像候補を生成する
ことを特徴とする請求の範囲第 5 7項に記載のプログラム。
5 9 . 前記単色画像候補生成ステップの処理は、 方向選択的平滑化処理を用い て、 前記色 ·感度モザイク画像に対応する前記単色画像候補を生成する
ことを特徴とする請求の範囲第 5 7項に記載のプログラム。
6 0 . 被写体を撮像し、 前記色 '感度モザイク画像を生成する処理を制御する 撮像制御ステップを
さらに含むことを特徴とする請求の範囲第 5 2項に記載のプログラム。
6 1 . 前記復元ステップは、
前記色 ·感度モザイク画像の感度特性の配列を示す感度モザイクパターン情報 に基づき、 各画素が有する感度特性を均一化する感度特性均一化ステップと、 前記色 ·感度モザイク画像の色成分の配列を示す色モザイクパターン情報に基 づき、 各画素の色成分を補間する色補間ステップと
を含むことを特徴とする請求の範囲第 5 2項に記載のプログラム。
6 2 . 前記感度特性均一化ステップの処理は、前記感度モザイクパターン情報、 および前記色モザイクパターン情報に基づき、 前記色 '感度モザイク画像の各画 素が有する感度特性を均一化して色モザイク画像を生成し、
前記色補間ステップの処理は、 前記色モザイクパターン情報に基づき、 前記色 画像の各画素の色成分を補間して前記復元画像を生成する
ことを特徴とする請求の範囲第 6 1項に記載のプログラム。
6 3 . 前記感度特性均一化ステップの処理は、前記感度モザイクパターン情報、 および前記色モザイクパターン情報に基づき、 前記色 ·感度モザイク画像の各画 素が有する色成分の種類を変更することなく、 その感度特性を均一化して前記色 モザイク画像を生成する
ことを特徴とする請求の範囲第 6 2項に記載のプロダラム。
6 4 . 前記感度特性均一化ステップの処理は、前記感度モザイクパターン情報、 および前記色モザイクパターン情報に基づき、 前記色 ·感度モザイク画像の各画 素が有する感度特性を均一化して前記色モザイク画像を生成し、 前記色モザイク パターン情報を更新する
ことを特徴とする請求の範囲第 6 2項に記載のプログラム。
6 5 . 前記感度均一化ステップは、
前記感度モザイクパターン情報に基づき、 前記色■感度モザイク画像の各画素が 有する色成分を捕償する補償ステップと、
前記感度モザイクパターン情報に基づき、 前記色 ·感度モザイク画像の各画素 が有する色成分の有効性を判別する判別ステップと、
前記判別手段の判別結果に対応して、 前記補償ステップの処理で補償された各 画素が有する色成分を補間処理によって修正する修正ステップと
を含むことを特徴とする請求の範囲第 6 2項に記載のプログラム。
6 6 . 前記感度均一化ステップは、
前記感度モザイクパターン情報に基づき、 前記色 ·感度モザイク画像の推定画 素値を算出する算出ステップと、
前記算出ステップの処理で算出された前記推定画素値を捕正する捕正ステップ と
を含むことを特徴とする請求の範囲第 6 2項に記載のプログラム。
6 7 . 前記色補間ステップの処理は、 前記感度モザイクパターン情報、 および 前記色モザイクパターン情報に基づき、 前記色 ·感度モザイク画像の各画素に対 し、 その感度特性を変更することなく、 全ての色成分を補間して各色成分の感度 モザイク画像を生成し、
前記感度特性均一化ステップの処理は、 前記感度モザイクパターン情報に基づ き、 前記感度モザイク画像の各画素が有する感度特性を均一化して前記復元画像 を生成する
ことを特徴とする請求の範囲第 6 1項に記載のプログラム。
6 8 . 前記色補間ステップは、
前記色 ·感度モザイク画像から同一の感度特性を有する画素を抽出する抽出ス テツプと、
前記抽出ステップの処理で抽出された各画素に対し、 全ての色成分を補間する 全色成分補間ステップと、
前記全色成分補間ステップの処理で全ての色成分が補間された画素のうち、 同 一の色成分を有し、 かつ、 異なる感度特性を有する画素を合成して前記感度モザ イク画像を生成する合成ステップと
を含むことを特徴とする請求の範囲第 6 7項に記載のプログラム。
6 9 . 各画素が複数の色成分のうちのいずれかの色成分、 および光強度に対す る複数の感度特性のうちのいずれかの感度特性を有し、 かつ同一の色成分おょぴ 感度特性を有する複数の画素が格子状に配置されるとともに、色成分に拘わらず、 同一の感度特性を有する複数の画素が格子状に配置され、 さらに、 任意の画素と 前記任意の画素の上下左右に隣接する 4画素の合計 5画素の中には全ての色成分 が存在する色■感度モザイク画像に基づき、 各画素の感度が均一化されており、 かつ、 各画素が前記複数の色成分の全ての色成分を有する復元画像を復元する復 元手段を
含むことを特徴とする画像処理装置。
7 0 . 前記復元手段は、
前記色'感度モザィク画像の感度特性の配列を示す感度モザィクパターン情報、 および前記色 ·感度モザイク画像の色成分の配列を示す色モザイクパターン情報 に基づき、 前記色■感度モザイク画像に対応する輝度画像を生成する輝度画像生 成手段と、
前記感度モザイクパターン情報、 前記色モザイクパターン情報、 および前記輝 度画像に基づき、 前記色 ·感度モザイク画像に対応する単色画像を生成する複数 の単色画像生成手段と
を含むことを特徴とする請求の範囲第 6 9項に記載の画像処理装置。
7 1 . 前記輝度画像生成手段は、
前記色■感度モザイク画像の各画素に対応する色成分の推定値を算出する複数 の推定手段と、
前記複数の推定手段がそれぞれ算出した複数の前記推定値を用いて、 前記色 - 感度モザイク画像の各画素に対応する輝度候補値を算出する輝度候補値算出手段 と
を含むことを特徴とする請求の範囲第 7 0項に記載の画像処理装置。
7 2 . 前記推定手段は、 前記複数の感度特性にそれぞれ対応する複数の推定値 候補を算出し、 前記複数の推定値候補を加算して、 その和に生じている前記感度 特性の非線形性を補償することによって前記推定値を算出する
ことを特徴とする請求の範囲第 7 1項に記載の画像処理装置。
7 3 . 前記輝度画像生成手段は、
前記輝度候補値のノィズ成分を除去して輝度値を生成するノィズ除去手段を さらに含むことを特徴とする請求の範囲第 7 1項に記載の画像処理装置。
7 4 . 前記単色画像生成手段は、
前記感度モザィクパターン情報、および前記色モザィクパターン情報に基づき、 前記色 ·感度モザイク画像に対応する単色画像候補を生成する単色画像候補生成 手段と、
前記輝度画像に基づき、 前記単色画像候補を修正して前記単色画像を生成する 修正手段と · を含むことを特徴とする請求の範囲第 7 0項に記載の画像処理装置。
7 5 . 前記単色画像候補生成手段は、 前記複数の感度特性にそれぞれ対応する 複数の単色候補値を算出し、 前記複数の単色候補値を加算して、 その和に生じて いる前記感度特性の非線形性を補償することにより、 前記単色画像候補の画素値 を算出して前記単色画像候補を生成する
ことを特徴とする請求の範囲第 7 4項に記載の画像処理装置。
7 6 . 前記単色画像候補生成手段は、方向選択的平滑化処理を用いて、前記色 - 感度モザイク画像に対応する前記単色画像候補を生成する
ことを特徴とする請求の範囲第 7 4項に記載の画像処理装置。
7 7 . 被写体を撮像し、 前記色 ·感度モザイク画像を生成する撮像手段を さらに含むことを特徴とする請求の範囲第 6 9項に記載の画像処理装置。
7 8 . 前記復元手段は、
前記色 ·感度モザイク画像の感度特性の配列を示す感度モザイクパターン情報 に基づき、 各画素が有する感度特性を均一化する感度特性均一化手段と、
前記色 ·感度モザイク画像の色成分の配列を示す色モザイクパターン情報に基 づき、 各画素の色成分を補間する色補間手段と
を含むことを特徴とする請求の範囲第 6 9項に記載の画像処理装置。
7 9 . 前記感度特性均一化手段は、 前記感度モザイクパターン情報、 および前 記色モザイクパターン情報に基づき、 前記色 '感度モザイク画像の各画素が有す る感度特性を均一化して色モザイク画像を生成し、
前記色補間手段は、 前記色モザイクパターン情報に基づき、 前記色モザイク画 像の各画素の色成分を補間して前記復元画像を生成する
ことを特徴とする請求の範囲第 7 8項に記載の画像処理装置。
8 0 . 前記感度特性均一化手段は、 前記感度モザイクパターン情報、 および前 記色モザイクパターン情報に基づき、 前記色 '感度モザイク画像の各画素が有す る色成分の種類を変更することなく、 その感度特性を均一化して前記色モザィク 画像を生成する ことを特徴とする請求の範囲第 7 9項に記載の画像処理装置。
8 1 . 前記感度特性均一化手段は、 前記感度モザイクパターン情報、 および前 記色モザイクパターン情報に基づき、 前記色 ·感度モザイク画像の各画素が有す る感度特性を均一化して前記色モザイク画像を生成し、 前記色モザイクパターン 情報を更新する
ことを特徴とする請求の範囲第 7 9項に記載の画像処理装置。
8 2 . 前記感度均一化手段は、
前記感度モザイクパターン情報に基づき、 前記色 ·感度モザイク画像の各画素が 有する色成分を補償する補償手段と、
前記感度モザイクパターン情報に基づき、 前記色■感度モザイク画像の各画素 が有する色成分の有効性を判別する判別手段と、
前記判別手段の判別結果に対応して、 前記補償手段が補償した各画素が有する 色成分を補間処理によって修正する修正手段と
を含むことを特徴とする請求の範囲第 7 9項に記載の画像処理装置。
8 3 . 前記感度均一化手段は、
前記感度モザイクパターン情報に基づき、 前記色■感度モザイク画像の推定画 素値を算出する算出手段と、
前記算出手段が算出した前記推定画素値を補正する補正手段と
を含むことを特徴とする請求の範囲第 7 9項に記載の画像処理装置。
8 4 . 前記色補間手段は、 前記感度モザイクパターン情報、 および前記色モザ イクパターン情報に基づき、 前記色 ·感度モザイク画像の各画素に対し、 その感 度特性を変更することなく、 全ての色成分を補間して各色成分の感度モザイク画 像を生成し、
前記感度特性均一化手段は、 前記感度モザイクパターン情報に基づき、 前記感 度モザイク画像の各画素が有する感度特性を均一化して前記復元画像を生成する ことを特徴とする請求の範囲第 7 8項に記載の画像処理装置。
8 5 . 前記色補間手段は、 前記色■感度モザイク画像から同一の感度特性を有する画素を抽出する抽出手 段と、
前記抽出手段が抽出した各画素に対し、 全ての色成分を捕間する全色成分補間 手段と、
前記全色成分補間手段が全ての色成分を補間した画素のうち、 同一の色成分を 有し、 かつ、 異なる感度特性を有する画素を合成して前記感度モザイク画像を生 成する合成手段と
を含むことを特徴とする請求の範囲第 8 4項に記載の画像処理装置。
8 6 . 各画素が複数の色成分のうちのいずれかの色成分、 および光強度に対す る複数の感度特性のうちのいずれかの感度特性を有し、 かつ同一の色成分および 感度特性を有する複数の画素が格子状に配置されるとともに、色成分に拘わらず、 同一の感度特性を有する複数の画素が格子状に配置され、 さらに、 任意の画素と 前記任意の画素の上下左右に隣接する 4画素の合計 5画素の中には全ての色成分 が存在する色 ·感度モザイク画像に基づき、 各画素の感度が均一化されており、 かつ、 各画素が前記複数の色成分の全ての色成分を有する復元画像を復元する復 元ステップを
含むことを特徴とする画像処理方法。
8 7 . 前記復元ステップは、
前記色 ·感度モザイク画像の感度特性の配列を示す感度モザイクパターン情報、 および前記色■感度モザイク画像の色成分の配列を示す色モザイクパターン情報 に基づき、 前記色 ·感度モザイク画像に対応する輝度画像を生成する輝度画像生 成ステップと、
前記感度モザイクパターン情報、 前記色モザイクパターン情報、 および前記輝 度画像に基づき、 前記色 ·感度モザイク画像に対応する単色画像を生成する複数 の単色画像生成ステップと
を含むことを特徴とする請求の範囲第 8 6項に記載の画像処理方法。
8 8 . 前記輝度画像生成ステップは、 前記色■感度モザイク画像の各画素に対応する色成分の推定値を算出する複数 の推定ステップと、
前記複数の推定ステップの処理でそれぞれ算出された複数の前記推定値を用い て、 前記色■感度モザイク画像の各画素に対応する輝度候補値を算出する輝度候 補値算出ステップと
を含むことを特徴とする請求の範囲第 8 7項に記載の画像処理方法。
8 9 . 前記推定ステップの処理は、 前記複数の感度特性にそれぞれ対応する複 数の推定値候補を算出し、 前記複数の推定値候補を加算して、 その和に生じてい る前記感度特性の非線形性を補償することによって前記推定値を算出する
ことを特徴とする請求の範囲第 8 8項に記載の画像処理方法。
9 0 . 前記輝度画像生成ステップは、
前記輝度候補値のノィズ成分を除去して輝度値を生成するノィズ除去ステップ を
さらに含むことを特徴とする請求の範囲第 8 8項に記載の画像処理方法。
9 1 . 前記単色画像生成ステップは、
前記感度モザィクパターン情報、および前記色モザィクパターン情報に基づき、 前記色 ·感度モザイク画像に対応する単色画像候捕を生成する単色画像候補生成 ステップと、
前記輝度画像に基づき、 前記単色画像候補を修正して前記単色画像を生成する 修正ステップと
を含むことを特徴とする請求の範囲第 8 7項に記載の画像処理方法。
9 2 . 前記単色画像候補生成ステツプの処理は、 前記複数の感度特性にそれぞ れ対応する複数の単色候補値を算出し、 前記複数の単色候補値を加算して、 その 和に生じている前記感度特性の非線形性を補償することにより、 前記単色画像候 補の画素値を算出して前記単色画像候補を生成する
ことを特徴とする請求の範囲第 9 1項に記載の画像処理方法。
9 3 . 前記単色画像候補生成ステップの処理は、 方向選択的平滑化処理を用い て、 前記色 ·感度モザイク画像に対応する前記単色画像候補を生成する ことを特徴とする請求の範囲第 9 1項に記載の画像処理方法。
9 4 . 被写体を撮像し、 前記色 ·感度モザイク画像を生成する撮像ステップを さらに含むことを特徴とする請求の範囲第 8 6項に記載の画像処理方法。 9 5 . 前記復元ステップは、
前記色 ·感度モザイク画像の感度特性の配列を示す感度モザイクパターン情報 に基づき、 各画素が有する感度特性を均一化する感度特性均一化ステツプと、 前記色 ·感度モザイク画像の色成分の配列を示す色モザイクパターン情報に基 づき、 各画素の色成分を補間する色補間ステップと
を含むことを特徴とする請求の範囲第 8 6項に記載の画像処理方法。
9 6 . 前記感度特性均一化ステップの処理は、前記感度モザイクパターン情報、 および前記色モザイクパターン情報に基づき、 前記色 ·感度モザイク画像の各画 素が有する感度特性を均一化して色モザイク画像を生成し、
前記色補間ステップの処理は、 前記色モザイクパターン情報に基づき、 前記色 モザイク画像の各画素の色成分を補間して前記復元画像を生成する
ことを特徴とする請求の範囲第 9 5項に記載の画像処理方法。
9 7 . 前記感度特性均一化ステップの処理は、前記感度モザイクパターン情報、 および前記色モザイクパターン情報に基づき、 前記色 ·感度モザイク画像の各画 素が有する色成分の種類を変更することなく、 その感度特性を均一化して前記色 モザイク画像を生成する
ことを特徴とする請求の範囲第 9 6項に記載の画像処理方法。
9 8 . 前記感度特性均一化ステップの処理は、前記感度モザイクパターン情報、 および前記色モザイクパターン情報に基づき、 前記色■感度モザイク画像の各画 素が有する感度特性を均一化して前記色モザイク画像を生成し、 前記色モザイク パターン情報を更新する
ことを特徴とする請求の範囲第 9 6項に記載の画像処理方法。
9 9 . 前記感度均一化ステップは、 前記感度モザイクパターン情報に基づき、 前記色 '感度モザイク画像の各画素が 有する色成分を補償する補償ステップと、
前記感度モザイクパターン情報に基づき、 前記色 ·感度モザイク画像の各画素 が有する色成分の有効性を判別する判別ステツプと、
前記判別手段の判別結果に対応して、 前記補償ステップの処理で補償された各 画素が有する色成分を捕間処理によって修正する修正ステップと
を含むことを特徴とする請求の範囲第 9 6項に記載の画像処理方法。
1 0 0 . 前記感度均一化ステップは、
前記感度モザイクパターン情報に基づき、 前記色 ·感度モザイク画像の推定画 素値を算出する算出ステップと、
前記算出ステツプの処理で算出された前記推定画素値を補正する補正ステップ と
を含むことを特徴とする請求の範囲第 9 6項に記載の画像処理方法。
1 0 1 . 前記色捕間ステップの処理は、 前記感度モザイクパターン情報、 およ び前記色モザイクパターン情報に基づき、 前記色■感度モザイク画像の各画素に 対し、 その感度特性を変更することなく、 全ての色成分を補間して各色成分の感 度モザイク画像を生成し、
前記感度特性均一化ステップの処理は、 前記感度モザイクパターン情報に基づ き、 前記感度モザイク画像の各画素が有する感度特性を均一化して前記復元画像 を生成する '
ことを特徴とする請求の範囲第 9 5項に記載の画像処理方法。
1 0 2 . 前記色補間ステップは、
前記色■感度モザイク画像から同一の感度特性を有する画素を抽出する抽出ス テツプと、
前記抽出ステップの処理で抽出された各画素に対し、 全ての色成分を捕間する 全色成分捕間ステップと、
前記全色成分補間ステップの処理で全ての色成分が補間された画素のうち、 同 一の色成分を有し、 かつ、 異なる感度特性を有する画素を合成して前記感度モザ イク画像を生成する合成ステップと
を含むことを特徴とする請求の範囲第 1 0 1項に記載の画像処理方法。
1 0 3 . 各画素が複数の色成分のうちのいずれかの色成分、 および光強度に対 する複数の感度特性のうちのいずれかの感度特性を有し、 かつ同一の色成分およ び感度特性を有する複数の画素が格子状に配置されるとともに、 色成分に拘わら ず、 同一の感度特性を有する複数の画素が格子状に配置され、 さらに、 任意の画 素と前記任意の画素の上下左右に隣接する 4画素の合計 5画素の中には全ての色 成分が存在する色 ·感度モザイク画像に基づき、 各画素の感度が均一化されてお り、 かつ、 各画素が前記複数の色成分の全ての色成分を有する復元画像を復元す る復元ステップを
含むことを特徴とするコンピュータが読み出し可能なプログラムが記録されて いる記録媒体。
1 0 4 . 前記復元ステップは、
前記色'感度モザイク画像の感度特性の配列を示す感度モザイクパターン情報、 および前記色■感度モザイク画像の色成分の配列を示す色モザイクパターン情報 に基づき、 前記色■感度モザイク画像に対応する輝度画像を生成する輝度画像生 成ステップと、
前記感度モザイクパターン情報、 前記色モザイクパターン情報、 および前記輝 度画像に基づき、 前記色 ·感度モザイク画像に対応する単色画像を生成する複数 の単色画像生成ステップと
を含むことを特徴とするコンピュータが読み出し可能なプログラムが記録され ている請求の範囲第 1 0 3項に記載の記録媒体。
1 0 5 . 前記輝度画像生成ステップは、
前記色 ·感度モザイク画像の各画素に対応する色成分の推定値を算出する複数 の推定ステップと、
前記複数の推定ステップの処理でそれぞれ算出された複数の前記推定値を用い て、 前記色 ·感度モザイク画像の各画素に対応する輝度候補値を算出する輝度候 補値算出ステップと
を含むことを特徴とするコンピュータが読み出し可能なプログラムが記録され ている請求の範囲第 1 0 4項に記載の記録媒体。
1 0 6 . 前記推定ステップの処理は、 前記複数の感度特性にそれぞれ対応する 複数の推定値候補を算出し、 前記複数の推定値候補を加算して、 その和に生じて いる前記感度特性の非線形性を補償することによって前記推定値を算出する ことを特徴とするコンピュータが読み出し可能なプログラムが記録されている 請求の範囲第 1 0 5項に記載の記録媒体。
1 0 7 . 前記輝度画像生成ステップは、
前記輝度候補値のノィズ成分を除去して輝度値を生成するノィズ除去ステツプ を
さらに含むことを特徴とするコンピュータが読み出し可能なプログラムが記録 されている請求の範囲第 1 0 5項に記載の記録媒体。
1 0 8 . 前記単色画像生成ステップは、
前記感度モザィクパターン情報、および前記色モザィクパターン情報に基づき、 前記色 ·感度モザイク画像に対応する単色画像候補を生成する単色画像候補生成 ステップと、
前記輝度画像に基づき、 前記単色画像候補を修正して前記単色画像を生成する 修正ステップと
を含むことを特徴とするコンピュータが読み出し可能なプログラムが記録され ている請求の範囲第 1 0 4項に記載の記録媒体。
1 0 9 . 前記単色画像候補生成ステップの処理は、 前記複数の感度特性にそれ ぞれ対応する複数の単色候補値を算出し、 前記複数の単色候補値を加算して、 そ の和に生じている前記感度特性の非線形性を補償することにより、 前記単色画像 候補の画素値を算出して前記単色画像候補を生成する
ことを特徴とするコンピュータが読み出し可能なプログラムが記録されている 請求の範囲第 1 0 8項に記載の記録媒体。
1 1 0 . 前記単色画像候補生成ステップの処理は、 方向選択的平滑化処理を用 いて、 前記色■感度モザイク画像に対応する前記単色画像候補を生成する ことを特徴とするコンピュータが読み出し可能なプログラムが記録されている 請求の範囲第 1 0 8項に記載の記録媒体。
1 1 1 . 被写体を撮像し、 前記色■感度モザイク画像を生成する処理を制御す る撮像制御ステップを
さらに含むことを特徴とするコンピュータが読み出し可能なプログラムが記録 されている請求の範囲第 1 0 3項に記載の記録媒体。
1 1 2 . 前記復元ステップは、
前記色 ·感度モザイク画像の感度特性の配列を示す感度モザイクパターン情報 に基づき、 各画素が有する感度特性を均一化する感度特性均一化ステップと、 前記色■感度モザイク画像の色成分の配列を示す色モザイクパターン情報に基 づき、 各画素の色成分を補間する色補間ステップと
を含むことを特徴とするコンピュータが読み出し可能なプログラムが記録され ている請求の範囲第 1 0 3項に記載の記録媒体。
1 1 3 . 前記感度特性均一化ステップの処理は、 前記感度モザイクパターン情 報、 および前記色モザイクパターン情報に基づき、 前記色 '感度モザイク画像の 各画素が有する感度特性を均一化して色モザィク画像を生成し、
前記色補間ステップの処理は、 前記色モザイクパターン情報に基づき、 前記色 モザィク画像の各画素の色成分を補間して前記復元画像を生成する
ことを特徴とするコンピュータが読み出し可能なプログラムが記録されている 請求の範囲第 1 1 2項に記載の記録媒体。
1 1 4 . 前記感度特性均一化ステップの処理は、 前記感度モザイクパターン情 報、 および前記色モザイクパターン情報に基づき、 前記色 .感度モザイク画像の 各画素が有する色成分の種類を変更することなく、 その感度特性を均一化して前 記色モザイク画像を生成する ことを特徴とするコンピュータが読み出し可能なプログラムが記録されている 請求の範囲第 1 1 3項に記載の記録媒体。
1 1 5 . 前記感度特性均一化ステップの処理は、 前記感度モザイクパターン情 報、 および前記色モザイクパターン情報に基づき、 前記色■感度モザイク画像の 各画素が有する感度特性を均一化して前記色モザイク画像を生成し、 前記色モザ イクパターン情報を更新する
ことを特徴とするコンピュータが読み出し可能なプログラムが記録されている 請求の範囲第 1 1 3項に記載の記録媒体。
1 1 6 . 前記感度均一化ステップは、
前記感度モザイクパターン情報に基づき、 前記色 ·感度モザイク画像の各画素が 有する色成分を補償する捕償ステップと、
前記感度モザイクパターン情報に基づき、 前記色■感度モザイク画像の各画素 が有する色成分の有効性を判別する判別ステップと、
前記判別手段の判別結果に対応して、 前記補償ステップの処理で補償された各 画素が有する色成分を補間処理によって修正する修正ステップと
を含むことを特徴とするコンピュータが読み出し可能なプログラムが記録され ている請求の範囲第 1 1 3項に記載の記録媒体。
1 1 7 . 前記感度均一化ステップは、
前記感度モザイクパターン情報に基づき、 前記色 ·感度モザイク画像の推定画 素値を算出する算出ステップと、
前記算出ステップの処理で算出された前記推定画素値を補正する補正ステップ と
を含むことを特徴とするコンピュータが読み出し可能なプログラムが記録され ている請求の範囲第 1 1 3項に記載の記録媒体。
1 1 8 . 前記色補間ステップの処理は、 前記感度モザイクパターン情報、 およ び前記色モザイクパターン情報に基づき、 前記色■感度モザイク画像の各画素に 対し、 その感度特性を変更することなく、 全ての色成分を補間して各色成分の感 度モザイク画像を生成し、
前記感度特性均一化ステップの処理は、 前記感度モザイクパターン情報に基づ き、 前記感度モザイク画像の各画素が有する感度特性を均一化して前記復元画像 を生成する
ことを特徴とするコンピュータが読み出し可能なプログラムが記録されている 請求の範囲第 1 1 2項に記載の記録媒体。
1 1 9 . 前記色補間ステップは、
前記色■感度モザイク画像から同一の感度特性を有する画素を抽出する抽出ス 前記抽出ステップの処理で抽出された各画素に対し、 全ての色成分を補間する 全色成分補間ステップと、
前記全色成分捕間ステップの処理で全ての色成分が補間された画素のうち、 同 一の色成分を有し、 かつ、 異なる感度特性を有する画素を合成して前記感度モザ イク画像を生成する合成ステップと
を含むことを特徴とするコンピュータが読み出し可能なプログラムが記録され ている請求の範囲第 1 1 8項に記載の記録媒体。
1 2 0 . 各画素が複数の色成分のうちのいずれかの色成分、 およぴ光強度に対 する複数の感度特性のうちのいずれかの感度特性を有し、 かつ同一の色成分およ び感度特性を有する複数の画素が格子状に配置されるとともに、 色成分に拘わら ず、 同一の感度特性を有する複数の画素が格子状に配置され、 さらに、 任意の画 素と前記任意の画素の上下左右に隣接する 4画素の合計 5画素の中には全ての色 成分が存在する色 ·感度モザイク画像に基づき、 各画素の感度が均一化されてお り、 かつ、 各画素が前記複数の色成分の全ての色成分を有する復元画像を復元す る復元ステップを
コンピュータに実行させるプログラム。
1 2 1 . 前記復元ステップは、
前記色'感度モザイク画像の感度特性の配列を示す感度モザイクパターン情報、 および前記色 ·感度モザイク画像の色成分の配列を示す色モザイクパターン情報 に基づき、 前記色 ·感度モザイク画像に対応する輝度画像を生成する輝度画像生 成ステップと、 、
前記感度モザイクパターン情報、 前記色モザイクパターン情報、 および前記輝 度画像に基づき、 前記色 ·感度モザイク画像に対応する単色画像を生成する複数 の単色画像生成ステップと . を含むことを特徴とする請求の範囲第 1 2 0項に記載のプログラム。
1 2 2 . 前記輝度画像生成ステップは、
前記色 ·感度モザイク画像の各画素に対応する色成分の推定値を算出する複数 の推定ステップと、
前記複数の推定ステップの処理でそれぞれ算出された複数の前記推定値を用い て、 前記色 ·感度モザイク画像の各画素に対応する輝度候補値を算出する輝度候 補値算出ステップと
を含むことを特徴とする請求の範囲第 1 2 1項に記載のプログラム。
1 2 3 . 前記推定ステップの処理は、 前記複数の感度特性にそれぞれ対応する 複数の推定値候補を算出し、 前記複数の推定値候補を加算して、 その和に生じて いる前記感度特性の非線形性を補償することによって前記推定値を算出する ことを特徴とする請求の範囲第 1 2 2項に記載のプログラム。
1 2 4 . 前記輝度画像生成ステップは、
前記輝度候補値のノィズ成分を除去して輝度値を生成するノィズ除去ステツプ を
さらに含むことを特徴とする請求の範囲第 1 2 2項に記載のプログラム。
1 2 5 . 前記単色画像生成ステップは、
前記感度モザイクパターン情報、および前記色モザイクパターン情報に基づき、 前記色 ·感度モザイク画像に対応する単色画像候補を生成する単色画像候補生成 ステップと、
前記輝度画像に基づき、 前記単色画像候補を修正して前記単色画像を生成する 修正ステップと
を含むことを特徴とする請求の範囲第 1 2 1項に記載のプログラム。
1 2 6 . 前記単色画像候補生成ステップの処理は、 前記複数の感度特性にそれ それ対応する複数の単色候捕値を算出し、 前記複数の単色候補値を加算して、 そ の和に生じている前記感度特性の非線形性を補償することにより、 前記単色画像 候補の画素値を算出して前記単色画像候補を生成する
ことを特徴とする請求の範囲第 1 2 5項に記載のプログラム。
1 2 7 . 前記単色画像候補生成ステップの処理は、 方向選択的平滑化処理を用 いて、 前記色 ·感度モザイク画像に対応する前記単色画像候補を生成する ことを特徴とする請求の範囲第 1 2 5項に記載のプログラム。
1 2 8 . 被写体を撮像し、 前記色■感度モザイク画像を生成する処理を制御す る撮像制御ステップを
さらに含むことを特徴とする請求の範囲第 1 2 0項に記載のプログラム。
1 2 9 . 前記復元ステップは、
前記色■感度モザイク画像の感度特性の配列を示す感度モザイクパターン情報 に基づき、 各画素が有する感度特性を均一化する感度特性均一化ステップと、 前記色 ·感度モザイク画像の色成分の配列を示す色モザイクパターン情報に基 づき、 各画素の色成分を補間する色補間ステップと
を含むことを特徴とする請求の範囲第 1 2 0項に記載のプログラム。
1 3 0 . 前記感度特性均一化ステップの処理は、 前記感度モザイクパターン情 報、 および前記色モザイクパターン情報に基づき、 前記色 ·感度モザイク画像の 各画素が有する感度特性を均一化して色モザイク画像を生成し、
前記色補間ステップの処理は、 前記色モザイクパターン情報に基づき、 前記色 モザイク画像の各画素の色成分を補間して前記復元画像を生成する
ことを特徴とする請求の範囲第 1 2 9項に記載のプログラム。
1 3 1 . 前記感度特性均一化ステップの処理は、 前記感度モザイクパターン情 報、 および前記色モザイクパターン情報に基づき、 前記色■感度モザイク画像の 各画素が有する色成分の種類を変更することなく、 その感度特性を均一化して前 記色モザイク画像を生成する
ことを特徴とする請求の範囲第 1 3 0項に記載のプログラム。
1 3 2 . 前記感度特性均一化ステップの処理は、 前記感度モザイクパターン情 報、 および前記色モザイクパターン情報に基づき、 前記色 '感度モザイク画像の 各画素が有する感度特性を均一化して前記色モザイク画像を生成し、 前記色モザ イクパターン情報を更新する
ことを特徴とする請求の範囲第 1 3 0項に記載のプログラム。
1 3 3 . 前記感度均一化ステップは、
前記感度モザイクパターン情報に基づき、 前記色 ·感度モザイク画像の各画素が 有する色成分を補償する補償ステップと、
前記感度モザイクパターン情報に基づき、 前記色 ·感度モザイク画像の各画素 が有する色成分の有効性を判別する判別ステツプと、
前記判別手段の判別結果に対応して、 前記補償ステップの処理で捕償された各 画素が有する色成分を補間処理によつて修正する修正ステップと
を含むことを特徴とする請求の範囲第 1 3 0項に記載のプログラム。
1 3 4 . 前記感度均一化ステップは、
前記感度モザイクパターン情報に基づき、 前記色 ·感度モザイク画像の推定画 素値を算出する算出ステップと、
前記算出ステップの処理で算出された前記推定画素値を補正する補正ステップ と
を含むことを特徴とする請求の範囲第 1 3 0項に記載のプログラム。
1 3 5 . 前記色補間ステップの処理は、 前記感度モザイクパターン情報、 およ ぴ前記色モザイクパターン情報に基づき、 前記色 ·感度モザイク画像の各画素に 対し、 その感度特性を変更することなく、 全ての色成分を補間して各色成分の感 度モザイク画像を生成し、
前記感度特性均一化ステップの処理は、 前記感度モザィクパターン情報に基づ き、 前記感度モザイク画像の各画素が有する感度特性を均一化して前記復元画像 を生成する
ことを特徴とする請求の範囲第 1 2 9項に記載のプログラム。
1 3 6 . 前記色補間ステップは、
前記色■感度モザイク画像から同一の感度特性を有する画素を抽出する抽出ス 前記抽出ステップの処理で抽出された各画素に対し、 全ての色成分を補間する 全色成分補間ステップと、
前記全色成分捕間ステップの処理で全ての色成分が補間された画素のうち、 同 一の色成分を有し、 かつ、 異なる感度特性を有する画素を合成して前記感度モザ イク画像を生成する合成ステップと
を含むことを特徴とする請求の範囲第 1 3 5項に記載のプログラム。
1 3 7 . 各画素が複数の色成分のうちのいずれかの色成分を有し、 かつ、 光強 度に対する複数の感度特性のうちのいずれかの感度特性を有する色■感度モザィ ク画像を用いて、 各画素の感度特性が均一化されており、 かつ、 各画素が前記複 数の色成分の全ての色成分を有する復元画像を生成する画像処理装置において、 前記色 ·感度モザイク画像の感度特性の配列を示す感度モザイクパターン情報 に基づき、 各画素が有する感度特性を均一化する感度特性均一化手段と、 前記色 ·感度モザイク画像の色成分の配列を示す色モザイクパターン情報に基 づき、 各画素の色成分を補間する色補間手段と
を含むことを特徴とする画像処理装置。
1 3 8 . 前記感度特性均一化手段は、 前記感度モザイクパターン情報、 および 前記色モザイクパターン情報に基づき、 前記色■感度モザイク画像の各画素が有 する感度特性を均一化して色モザィク画像を生成し、
前記色補間手段は、 前記色モザイクパターン情報に基づき、 前記色モザイク画 像の各画素の色成分を補間して前記復元画像を生成する
ことを特徴とする請求の範囲第 1 3 7に記載の画像処理装置。
1 3 9 . 前記感度特性均一化手段は、 前記感度モザイクパターン情報、 および 前記色モザイクパターン情報に基づき、 前記色 ·感度モザイク画像の各画素が有 する色成分の種類を変更することなく、 その感度特性を均一化して前記色モザィ ク画像を生成する
ことを特徴とする請求の範囲第 1 3 8項に記載の画像処理装置。
1 4 0 . 前記感度特性均一化手段は、 前記感度モザイクパターン情報、 および 前記色モザイクパターン情報に基づき、 前記色■感度モザイク画像の各画素が有 する感度特性を均一化して前記色モザイク画像を生成し、 前記色モザイクパター ン情報を更新する
ことを特徴とする請求の範囲第 1 3 8項に記載の画像処理装置。
1 4 1 . 前記感度均一化手段は、
前記感度モザイクパターン情報に基づき、 前記色■感度モザィク画像の各画素が 有する色成分を補償する補償手段と、
前記感度モザイクパターン情報に基づき、 前記色■感度モザイク画像の各画素 が有する色成分の有効性を判別する判別手段と、
前記判別手段の判別結果に対応して、 前記補償手段が補償した各画素が有する 色成分を補間処理によつて修正する修正手段と
を含むことを特徴とする請求の範囲第 1 3 8項に記載の画像処理装置。
1 4 2 . 前記感度均一化手段は、
前記感度モザイクパターン情報に基づき、 前記色 ·感度モザイク画像の推定画 素値を算出する算出手段と、
前記算出手段が算出した前記推定画素値を補正する補正手段と
を含むことを特徴とする請求の範囲第 1 3 8項に記載の画像処理装置。
1 4 3 . 前記色補間手段は、 前記感度モザイクパターン情報、 および前記色モ ザイクパターン情報に基づき、 前記色 .感度モザイク画像の各画素に対し、 その 感度特性を変更することなく、 全ての色成分を補間して各色成分の感度モザィク 画像を生成し、 前記感度特性均一化手段は、 前記感度モザイクパターン情報に基づき、 前記感 度モザイク画像の各画素が有する感度特性を均一化して前記復元画像を生成する ことを特徴とする請求の範囲第 1 3 7項に記載の画像処理装置。
1 4 4 . 前記色補間手段は、
前記色■感度モザイク画像から同一の感度特性を有する画素を抽出する抽出手 段と、
前記抽出手段が抽出した各画素に対し、 全ての色成分を補間する全色成分補間 手段と、
前記全色成分捕間手段が全ての色成分を補間した画素のうち、 同一の色成分を 有し、 かつ、 異なる感度特性を有する画素を合成して前記感度モザイク画像を生 成する合成手段と
を含むことを特徴とする請求の範囲第 1 4 3項に記載の画像処理装置。
1 4 5 . 被写体を撮像し、 前記色■感度モザイク画像を生成する撮像手段を さらに含むことを特徴とする請求の範囲第 1 3 7項に記載の画像処理装置。 1 4 6 . 各画素が複数の色成分のうちのいずれかの色成分を有し、 かつ、 光強 度に対する複数の感度特性のうちのいずれかの感度特性を有する色■感度モザィ ク画像を用いて、 各画素の感度特性が均一化されており、 かつ、 各画素が前記複 数の色成分の全ての色成分を有する復元画像を生成する画像処理装置の画像処理 方法において、
前記色 ·感度モザイク画像の感度特性の配列を示す感度モザイクパターン情報 に基づき、 各画素が有する感度特性を均一化する感度特性均一化ステップと、 前記色■感度モザイク画像の色成分の配列を示す色モザイクパターン情報に基 づき、 各画素の色成分を補間する色補間ステップと
を含むことを特徴とする画像処理方法。
1 4 7 . 前記感度特性均一化ステップの処理は、 前記感度モザイクパターン情 報、 および前記色モザイクパターン情報に基づき、 前記色 .感度モザイク画像の 各画素が有する感度特性を均一化して色モザイク画像を生成し、 前記色補間ステップの処理は、 前記色モザイクパターン情報に基づき、 前記色 モザイク画像の各画素の色成分を補間して前記復元画像を生成する
ことを特徴とする請求の範囲第 1 4 6に記載の画像処理方法。
1 4 8 . 前記感度特性均一化ステップの処理は、 前記感度モザイクパターン情 報、 および前記色モザイクパターン情報に基づき、 前記色 .感度モザイク画像の 各画素が有する色成分の種類を変更することなく、 その感度特性を均一化して前 記色モザィク画像を生成する
ことを特徴とする請求の範囲第 1 4 7項に記載の画像処理方法。
1 4 9 . 前記感度特性均一化ステップの処理は、 前記感度モザイクパターン情 報、 および前記色モザイクパターン情報に基づき、 前記色 .感度モザイク画像の 各画素が有する感度特性を均一化して前記色モザイク画像を生成し、 前記色モザ イクパターン情報を更新する
ことを特徴とする請求の範囲第 1 4 7項に記載の画像処理方法。
1 5 0 . 前記感度均一化ステップは、
前記感度モザイクパターン情報に基づき、 前記色 '感度モザイク画像の各画素が 有する色成分を補償する補償ステップと、
前記感度モザイクパターン情報に基づき、 前記色 ·感度モザイク画像の各画素 が有する色成分の有効性を判別する判別ステツプと、
前記判別ステップの処理での判別結果に対応して、 前記補償ステップの処理で 補償された各画素が有する色成分を補間処理によって修正する修正ステップと を含むことを特徴とする請求の範囲第 1 4 7項に記載の画像処理方法。
1 5 1 . 前記感度均一化ステップは、
前記感度モザイクパターン情報に基づき、 前記色 ·感度モザイク画像の推定画 素値を算出する算出ステップと、
前記算出ステップの処理で算出された前記推定画素値を補正する補正ステップ と
を含むことを特徴とする請求の範囲第 1 4 7項に記載の画像処理方法。
1 5 2 . 前記色補間ステップの処理は、 前記感度モザイクパターン情報、 およ び前記色モザイクパターン情報に基づき、 前記色■感度モザィク画像の各画素に 対し、 その感度特性を変更することなく、 全ての色成分を補間して各色成分の感 度モザイク画像を生成し、
前記感度特性均一化ステップの処理は、 前記感度モザイクパターン情報に基づ き、 前記感度モザイク画像の各画素が有する感度特性を均一化して前記復元画像 を生成する
ことを特徴とする請求の範囲第 1 4 6項に記載の画像処理方法。
1 5 3 . 前記色捕間ステップは、
前記色 ·感度モザイク画像から同一の感度特性を有する画素を抽出する抽出ス テツプと、
前記抽出ステップの処理で抽出された各画素に対し、 全ての色成分を捕間する 全色成分補間ステップと、
前記全色成分補間ステップの処理で全ての色成分が補間された画素のうち、 同 —の色成分を有し、 かつ、 異なる感度特性を有する画素を合成して前記感度モザ イク画像を生成する合成ステップと
を含むことを特徴とする請求の範囲第 1 5 2項に記載の画像処理方法。
1 5 4 . 被写体を撮像し、 前記色■感度モザイク画像を生成する撮像ステップ を
さらに含むことを特徴とする請求の範囲第 1 4 6項に記載の画像処理方法。
1 5 5 . 各画素が複数の色成分のうちのいずれかの色成分を有し、 かつ、 光強 度に対する複数の感度特性のうちのいずれかの感度特性を有する色 ·感度モザィ ク画像を用いて、 各画素の感度特性が均一化されており、 かつ、 各画素が前記複 数の色成分の全ての色成分を有する復元画像を生成するためのプログラムであつ て、
前記色■感度モザイク画像の感度特性の配列を示す感度モザイクパターン情報 に基づき、 各画素が有する感度特性を均一化する感度特性均一化ステップと、 前記色■感度モザイク画像の色成分の配列を示す色モザイクパターン情報に基 づき、 各画素の色成分を補間する色補間ステップと
を含むことを特徴とするコンピュータが読み出し可能なプログラムが記録され ている記録媒体。
1 5 6 . 前記感度特性均一化ステップの処理は、 前記感度モザイクパターン情 報、 および前記色モザイクパターン情報に基づき、 前記色■感度モザイク画像の 各画素が有する感度特性を均一化して色モザィク画像を生成し、
前記色捕間ステップの処理は、 前記色モザイクパターン情報に基づき、 前記色 モザイク画像の各画素の色成分を補間して前記復元画像を生成する
ことを特徴とするコンピュータが読み出し可能なプログラムが記録されている 請求の範囲第 1 5 5に記載の記録媒体。
1 5 7 . 前記感度特性均一化ステップの処理は、 前記感度モザイクパターン情 報、 および前記色モザイクパターン情報に基づき、 前記色■感度モザイク画像の 各画素が有する色成分の種類を変更することなく、 その感度特性を均一化して前 記色モザイク画像を生成する
ことを特徴とするコンピュータが読み出し可能なプログラムが記録されている 請求の範囲第 1 5 6項に記載の記録媒体。
1 5 8 . 前記感度特性均一化ステップの処理は、 前記感度モザイクパターン情 報、 および前記色モザイクパターン情報に基づき、 前記色 ·感度モザイク画像の 各画素が有する感度特性を均一化して前記色モザイク画像を生成し、 前記色モザ イクパターン情報を更新する
ことを特徴とするコンピュータが読み出し可能なプログラムが記録されている 請求の範囲第 1 5 6項に記載の記録媒体。
1 5 9 . 前記感度均一化ステップは、
前記感度モザイクパターン情報に基づき、 前記色■感度モザイク画像の各画素が 有する色成分を補償する補償ステップと、
前記感度モザイクパターン情報に基づき、 前記色■感度モザイク画像の各画素 が有する色成分の有効性を判別する判別ステップと、
前記判別ステップの処理での判別結果に対応して、 前記補償ステップの処理で 捕償された各画素が有する色成分を補間処理によつて修正する修正ステップと を含むことを特徴とするコンピュータが読み出し可能なプログラムが記録され ている請求の範囲第 1 5 6項に記載の記録媒体。
1 6 0 . 前記感度均一化ステップは、
前記感度モザイクパターン情報に基づき、 前記色 ·感度モザイク画像の推定画 素値を算出する算出ステップと、
前記算出ステップの処理で算出された前記推定画素値を補正する補正ステップ と
を含むことを特徴とするコンピュータが読み出し可能なプログラムが記録され ている請求の範囲第 1 5 6項に記載の記録媒体。
1 6 1 . 前記色補間ステップの処理は、 前記感度モザイクパターン情報、 およ び前記色モザイクパターン情報に基づき、 前記色■感度モザイク画像の各画素に 対し、 その感度特性を変更することなく、 全ての色成分を補間して各色成分の感 度モザイク画像を生成し、
前記感度特性均一化ステップの処理は、 前記感度モザイクパターン情報に基づ き、 前記感度モザイク画像の各画素が有する感度特性を均一化して前記復元画像 を生成する
ことを特徴とするコンピュータが読み出し可能なプログラムが記録されている 請求の範囲第 1 5 5項に記載の記録媒体。
1 6 2 . 前記色補間ステップは、
前記色 ·感度モザイク画像から同一の感度特性を有する画素を抽出する抽出ス テツプと、
前記抽出ステップの処理で抽出された各画素に対し、 全ての色成分を捕間する 全色成分補間ステップと、
前記全色成分補間ステップの処理で全ての色成分が補間された画素のうち、 同 一の色成分を有し、 かつ、 異なる感度特性を有する画素を合成して前記感度モザ イク画像を生成する合成ステップと
を含むことを特徴とするコンピュータが読み出し可能なプログラムが記録され ている請求の範囲第 1 6 1項に記載の記録媒体。
1 6 3 . 被写体を撮像し、 前記色 ·感度モザイク画像を生成する処理を制御す る撮像制御ステップを
さらに含むことを特徴とするコンピュータが読み出し可能なプログラムが記録 されている請求の範囲第 1 5 5項に記載の記録媒体。
1 6 4 . 各画素が複数の色成分のうちのいずれかの色成分を有し、 かつ、 光強 度に対する複数の感度特性のうちのいずれかの感度特性を有する色 ·感度モザィ ク画像を用いて、 各画素の感度特性が均一化されており、 かつ、 各画素が前記複 数の色成分の全ての色成分を有する復元画像を生成するコンピュータに、 前記色 ·感度モザイク画像の感度特性の配列を示す感度モザイクパターン情報 に基づき、 各画素が有する感度特性を均一化する感度特性均一化ステップと、 前記色 ·感度モザイク画像の色成分の配列を示す色モザイクパターン情報に基 づき、 各画素の色成分を補間する色補間ステップと
を実行させるプログラム。
1 6 5 . 前記感度特性均一化ステップの処理は、 前記感度モザイクパターン情 報、 および前記色モザイクパターン情報に基づき、 前記色 .感度モザイク画像の 各画素が有する感度特性を均一化して色モザイク画像を生成し、
前記色補間ステップの処理は、 前記色モザイクパターン情報に基づき、 前記色 モザイク画像の各画素の色成分を補間して前記復元画像を生成する
ことを特徴とする請求の範囲第 1 6 4に記載のプログラム。
1 6 6 . 前記感度特性均一化ステップの処理は、 前記感度モザイクパターン情 報、 および前記色モザイクパターン情報に基づき、 前記色 '感度モザイク画像の 各画素が有する色成分の種類を変更することなく、 その感度特性を均一化して前 記色モザイク画像を生成する ことを特徴とする請求の範囲第 1 6 5項に記載のプログラム。
1 6 7 . 前記感度特性均一化ステップの処理は、 前記感度モザイクパターン情 報、 および前記色モザイクパターン情報に基づき、 前記色 .感度モザイク画像の 各画素が有する感度特性を均一化して前記色モザイク画像を生成し、 前記色モザ イクパターン情報を更新する
ことを特徴とする請求の範囲第 1 6 5項に記載のプログラム。
1 6 8 . 前記感度均一化ステップは、
前記感度モザイクパターン情報に基づき、 前記色■感度モザイク画像の各画素が 有する色成分を補償する補償ステップと、
前記感度モザイクパターン情報に基づき、 前記色 ·感度モザイク画像の各画素 が有する色成分の有効性を判別する判別ステップと、
前記判別ステップの処理での判別結果に対応して、 前記補償ステップの処理で 補償された各画素が有する色成分を補間処理によって修正する修正ステップと を含むことを特徴とする請求の範囲第 1 6 5項に記載のプログラム。
1 6 9 . 前記感度均一化ステップは、
前記感度モザイクパターン情報に基づき、 前記色 '感度モザイク画像の推定画 素値を算出する算出ステップと、
前記算出ステップの処理で算出された前記推定画素値を補正する補正ステップ と
を含むことを特徴とする請求の範囲第 1 6 5項に記載のプログラム。
1 7 0 . 前記色補間ステップの処理は、 前記感度モザイクパターン情報、 およ び前記色モザイクパターン情報に基づき、 前記色■感度モザイク画像の各画素に 対し、 その感度特性を変更することなく、 全ての色成分を補間して各色成分の感 度モザイク画像を生成し、
前記感度特性均一化ステップの処理は、 前記感度モザイクパターン情報に基づ き、 前記感度モザイク画像の各画素が有する感度特性を均一化して前記復元画像 を生成する ことを特徴とする請求の範囲第 1 6 4項に記載のプログラム。
1 7 1 . 前記色補間ステップは、
前記色 ·感度モザイク画像から同一の感度特性を有する画素を抽出する抽出ス テツプと、
前記抽出ステップの処理で抽出された各画素に対し、 全ての色成分を補間する 全色成分補間ステップと、
前記全色成分補間ステップの処理で全ての色成分が補間された画素のうち、 同 一の色成分を有し、 かつ、 異なる感度特性を有する画素を合成して前記感度モザ イク画像を生成する合成ステップと
を含むことを特徴とする請求の範囲第 1 7 0項に記載のプログラム。
1 7 2 . 被写体を撮像し、 前記色 ·感度モザイク画像を生成する処理を制御す る撮像制御ステップを
さらに含むことを特徴とする請求の範囲第 1 6 4項に記載のプログラム。
1 7 3 . 各画素が複数の色成分のうちのいずれかの色成分を有し、 かつ、 光強 度に対する複数の感度特性のうちのいずれかの感度特性を有する色 ·感度モザィ ク画像を用いて、 各画素の感度特性が均一化されており、 かつ、 各画素が前記複 数の色成分の全ての色成分を有する復元画像を生成する画像処理装置において、 前記色'感度モザイク画像の感度特性の配列を示す感度モザイクパターン情報、 および前記色 ·感度モザイク画像の色成分の配列を示す色モザイクパターン情報 に基づき、 前記色,感度モザイク画像に対応する輝度画像を生成する輝度画像生 成手段と、
前記感度モザイクパターン情報、 前記色モザイクパターン情報、 および前記輝 度画像に基づき、 前記色 ·感度モザイク画像に対応する単色画像を生成する複数 の単色画像生成手段と
を含むことを特徴とする画像処理装置。
1 4 . 前記輝度画像生成手段は、
前記色 ·感度モザイク画像の各画素に対応する色成分の推定値を算出する複数 の推定手段と、
前記複数の推定手段がそれぞれ算出した複数の前記推定値を用いて、 前記色 - 感度モザイク画像の各画素に対応する輝度候補値を算出する輝度候補値算出手段 と
を含むことを特徴とする請求の範囲第 1 7 3項に記載の画像処理装置。
1 7 5 . 前記推定手段は、 前記複数の感度特性にそれぞれ対応する複数の推定 値候補を算出し、 前記複数の推定値候補を加算して、 その和に生じている前記感 度特性の非線形性を捕償することによって前記推定値を算出する
ことを特徴とする請求の範囲第 1 7 4項に記載の画像処理装置。
1 7 6 . 前記輝度画像生成手段は、
前記輝度候捕値のノィズ成分を除去して輝度値を生成するノィズ除去手段を さらに含むことを特徴とする請求の範囲第 1 7 4項に記載の画像処理装置。 1 7 7 . 前記単色画像生成手段は、
前記感度モザイクパターン情報、および前記色モザイクパターン情報に基づき、 前記色 ·感度モザイク画像に対応する単色画像候補を生成する単色画像候補生成 手段と、
前記輝度画像に基づき、 前記単色画像候補を修正して前記単色画像を生成する 修正手段と
を含むことを特徴とする請求の範囲第 1 7 3項に記載の画像処理装置。
1 7 8 . 前記単色画像候補生成手段は、 前記複数の感度特性にそれぞれ対応す る複数の単色候補値を算出し、 前記複数の単色候補値を加算して、 その和に生じ ている前記感度特性の非線形性を補償することにより、 前記単色画像侯捕の画素 値を算出して前記単色画像候補を生成する
ことを特徴とする請求の範囲第 1 7 7項に記載の画像処理装置。
1 7 9 . 前記単色画像候捕生成手段は、 方向選択的平滑化処理を用いて、 前記 色 ·感度モザイク画像に対応する前記単色画像候補を生成する
ことを特徴とする請求の範囲第 1 7 7項に記載の画像処理装置。
1 8 0 . 被写体を撮像し、 前記色■感度モザイク画像を生成する撮像手段を さらに含むことを特徴とする請求の範囲第 1 7 3項に記載の画像処理装置。 1 8 1 . 各画素が複数の色成分のうちのいずれかの色成分を有し、 かつ、 光強 度に対する複数の感度特性のうちのいずれかの感度特性を有する色 ·感度モザィ ク画像を用いて、 各画素の感度特性が均一化されており、 かつ、 各画素が前記複 数の色成分の全ての色成分を有する復元画像を生成する画像処理装置の画像処理 方法において、
前記色'感度モザイク画像の感度特性の配列を示す感度モザイクパターン情報、 および前記色 ·感度モザイク画像の色成分の配列を示す色モザイクパターン情報 に基づき、 前記色 ·感度モザイク画像に対応する輝度画像を生成する輝度画像生 成ステップと、
前記感度モザイクパターン情報、 前記色モザイクパターン情報、 および前記輝 度画像に基づき、 前記色■感度モザイク画像に対応する単色画像を生成する複数 の単色画像生成ステップと
を含むことを特徴とする画像処理方法。
1 8 2 . 前記輝度画像生成ステップは、
前記色 ·感度モザイク画像の各画素に対応する色成分の推定値を算出する複数 の推定ステップと、
前記複数の推定ステップの処理でそれぞれ算出された複数の前記推定値を用い て、 前記色■感度モザイク画像の各画素に対応する輝度候補値を算出する輝度候 補値算出ステップと
を含むことを特徴とする請求の範囲第 1 8 1項に記載の画像処理方法。
1 8 3 . 前記推定ステップの処理は、 前記複数の感度特性にそれぞれ対応する 複数の推定値候補を算出し、 前記複数の推定値候補を加算して、 その和に生じて いる前記感度特性の非線形性を補償することによって前記推定値を算出する ことを特徴とする請求の範囲第 1 8 2項に記載の画像処理方法。
1 8 4 . 前記輝度画像生成ステップは、 前記輝度候補値のノィズ成分を除去して輝度値を生成するノィズ除去ステップ を
さらに含むことを特徴とする請求の範囲第 1 8 2項に記載の画像処理方法。 1 8 5 . 前記単色画像生成ステップは、
前記感度モザイクパターン情報、および前記色モザイクパターン情報に基づき、 前記色 ·感度モザイク画像に対応する単色画像候補を生成する単色画像候補生成 ステップと、
前記輝度画像に基づき、 前記単色画像候補を修正して前記単色画像を生成する 修正ステップと
を含むことを特徴とする請求の範囲第 1 8 1項に記載の画像処理方法。
1 8 6 . 前記単色画像候補生成ステップの処理は、 前記複数の感度特性にそれ ぞれ対応する複数の単色候補値を算出し、 前記複数の単色候補値を加算して、 そ の和に生じている前記感度特性の非線形性を補償することにより、 前記単色画像 候補の画素値を算出して前記単色画像候補を生成する
ことを特徴とする請求の範囲第 1 8 5項に記載の画像処理方法。
1 8 7 . 前記単色画像候補生成ステップの処理は、 方向選択的平滑化処理を用 いて、 前記色 ·感度モザイク画像に対応する前記単色画像候補を生成する
ことを特徴とする請求の範囲第 1 8 5項に記載の画像処理方法。
1 8 8 . 被写体を撮像し、 前記色 '感度モザイク画像を生成する撮像ステップ を
さらに含むことを特徴とする請求の範囲第 1 8 1項に記載の画像処理方法。 1 8 9 . 各画素が複数の色成分のうちのいずれかの色成分を有し、 かつ、 光強 度に対する複数の感度特性のうちのいずれかの感度特性を有する色 .感度モザィ ク画像を用いて、 各画素の感度特性が均一化されており、 かつ、 各画素が前記複 数の色成分の全ての色成分を有する復元画像を生成するためのプログラムであつ て、
前記色'感度モザイク画像の感度特性の配列を示す感度モザイクパターン情報、 および前記色 ·感度モザイク画像の色成分の配列を示す色モザイクパターン情報 に基づき、 前記色 ·感度モザイク画像に対応する輝度画像を生成する輝度画像生 成ステップと、
前記感度モザイクパターン情報、 前記色モザイクパターン情報、 および前記輝 度画像に基づき、 前記色 ·感度モザイク画像に対応する単色画像を生成する複数 の単色画像生成ステップと
を含むことを特徴とするコンピュータが読み出し可能なプログラムが記録され ている記録媒体。
1 9 0 . 前記輝度画像生成ステップは、
前記色■感度モザイク画像の各画素に対応する色成分の推定値を算出する複数 の推定ステップと、
前記複数の推定ステップの処理でそれぞれ算出された複数の前記推定値を用い て、 前記色 ·感度モザイク画像の各画素に対応する輝度候補値を算出する輝度候 捕値算出ステップと
を含むことを特徴とするコンピュータが読み出し可能なプログラムが記録され ている請求の範囲第 1 8 9項に記載の記録媒体。
1 9 1 . 前記推定ステップの処理は、 前記複数の感度特性にそれぞれ対応する 複数の推定値候補を算出し、 前記複数の推定値候補を加算して、 その和に生じて いる前記感度特性の非線形性を補償することによって前記推定値を算出する ことを特徴とするコンピュータが読み出し可能なプログラムが記録されている 請求の範囲第 1 9 0項に記載の記録媒体。
1 9 2 . 前記輝度画像生成ステップは、
前記輝度候補値のノィズ成分を除去して輝度値を生成するノィズ除去ステップ を
さらに含むことを特徴とするコンピュータが読み出し可能なプログラムが記録 されている請求の範囲第 1 9 0項に記載の記録媒体。
1 9 3 . 前記単色画像生成」 前記感度モザイクパターン情報、および前記色モザイクパターン情報に基づき、 前記色■感度モザイク画像に対応する単色画像候捕を生成する単色画像候捕生成 ステップと、
前記輝度画像に基づき、 前記単色画像候補を修正して前記単色画像を生成する 修正ステップと
を含むことを特徴とするコンピュータが読み出し可能なプログラムが記録され ている請求の範囲第 1 8 9項に記載の記録媒体。
1 9 4 . 前記単色画像候補生成ステップの処理は、 前記複数の感度特性にそれ ぞれ対応する複数の単色候補値を算出し、 前記複数の単色候補値を加算して、 そ の和に生じている前記感度特性の非線形性を補償することにより、 前記単色画像 候補の画素値を算出して前記単色画像候補を生成する
ことを特徴とするコンピュータが読み出し可能なプログラムが記録されている 請求の範囲第 1 9 3項に記載の記録媒体。
1 9 5 . 前記単色画像候補生成ステップの処理は、 方向選択的平滑化処理を用 いて、 前記色 ·感度モザイク画像に対応する前記単色画像候補を生成する ことを特徴とするコンピュータが読み出し可能なプログラムが記録されている 請求の範囲第 1 9 3項に記載の記録媒体。
1 9 6 . 被写体を撮像し、 前記色 ·感度モザイク画像を生成する処理を制御す る撮像制御ステップを
さらに含むことを特徴とするコンピュータが読み出し可能なプログラムが記録 されている請求の範囲第 1 8 9に記載の記録媒体。
1 9 7 . 各画素が複数の色成分のうちのいずれかの色成分を有し、 かつ、 光強 度に対する複数の感度特性のうちのいずれかの感度特性を有する色 ·感度モザィ ク画像を用いて、 各画素の感度特性が均一化されており、 かつ、 各画素が前記複 数の色成分の全ての色成分を有する復元画像を生成するコンピュータに、
前記色'感度モザィク画像の感度特性の配列を示す感度モザィクパターン情報、 および前記色■感度モザイク画像の色成分の配列を示す色モザイクパターン情報 に基づき、 前記色■感度モザイク画像に対応する輝度画像を生成する輝度画像生 成ステップと、
前記感度モザイクパターン情報、 前記色モザイクパターン情報、 および前記輝 度画像に基づき、 前記色,感度モザイク画像に対応する単色画像を生成する複数 の単色画像生成ステップと
を実行させるプログラム。
1 9 8 . 前記輝度画像生成ステップは、
前記色 ·感度モザイク画像の各画素に対応する色成分の推定値を算出する複数 の推定ステップと、
前記複数の推定ステップの処理でそれぞれ算出された複数の前記推定値を用い て、 前記色 ·感度モザイク画像の各画素に対応する輝度候補値を算出する輝度候 捕値算出ステップと
を含むことを特徴とする請求の範囲第 1 9 7項に記載のプログラム。
1 9 9 . 前記推定ステップの処理は、 前記複数の感度特性にそれぞれ対応する 複数の推定値候補を算出し、 前記複数の推定値候補を加算して、 その和に生じて いる前記感度特性の非線形性を補償することによって前記推定値を算出する ことを特徴とする請求の範囲第 1 9 8項に記載のプログラム。
2 0 0 . 前記輝度画像生成ステップは、
前記輝度候補値のノィズ成分を除去して輝度値を生成するノィズ除去ステツプ を
さらに含むことを特徴とする請求の範囲第 1 9 8項に記載のプログラム。
2 0 1 . 前記単色画像生成ステップは、
前記感度モザイクパターン情報、および前記色モザイクパターン情報に基づき、 前記色 ·感度モザイク画像に対応する単色画像候補を生成する単色画像候補生成 ステップと、
前記輝度画像に基づき、 前記単色画像候補を修正して前記単色画像を生成する 修正ステップと を含むことを特徴とする請求の範囲第 1 9 7項に記載のプログラム。
2 0 2 . 前記単色画像候補生成ステップの処理は、 前記複数の感度特性にそれ ぞれ対応する複数の単色候補値を算出し、 前記複数の単色候補値を加算して、 そ の和に生じている前記感度特性の非線形性を補償することにより、 前記単色画像 候捕の画素値を算出して前記単色画像候補を生成する
ことを特徴とする請求の範囲第 2 0 1項に記載のプログラム。
2 0 3 . 前記単色画像候補生成ステップの処理は、 方向選択的平滑化処理を用 いて、 前記色 ·感度モザイク画像に対応する前記単色画像候補を生成する ことを特徴とする請求の範囲第 2 0 1項に記載のプログラム。
2 0 4 . 被写体を撮像し、 前記色 ·感度モザイク画像を生成する処理を制御す る撮像制御ステップを
さらに含むことを特徴とする請求の範囲第 1 9 7項に記載のプログラム。
PCT/JP2002/000036 2001-01-09 2002-01-09 Dispositif de traitement d'images WO2002056604A1 (fr)

Priority Applications (6)

Application Number Priority Date Filing Date Title
EP02715713A EP1357760B1 (en) 2001-01-09 2002-01-09 Image processing device and method
US10/466,015 US7847829B2 (en) 2001-01-09 2002-01-09 Image processing apparatus restoring color image signals
JP2002557134A JP4088959B2 (ja) 2001-01-09 2002-01-09 画像処理装置および方法、並びに記録媒体
US12/112,778 US7986360B2 (en) 2001-01-09 2008-04-30 Image processing apparatus and method for generating a restoration image
US13/951,178 USRE46557E1 (en) 2001-01-09 2013-07-25 Image processing apparatus and method for generating a restoration image
US14/968,441 USRE47062E1 (en) 2001-01-09 2015-12-14 Image processing apparatus and method for generating a restoration image

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2001000979 2001-01-09
JP2001-980 2001-01-09
JP2001000980 2001-01-09
JP2001-979 2001-01-09

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US10466015 A-371-Of-International 2002-01-09
US12/112,778 Continuation US7986360B2 (en) 2001-01-09 2008-04-30 Image processing apparatus and method for generating a restoration image

Publications (1)

Publication Number Publication Date
WO2002056604A1 true WO2002056604A1 (fr) 2002-07-18

Family

ID=26607381

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2002/000036 WO2002056604A1 (fr) 2001-01-09 2002-01-09 Dispositif de traitement d'images

Country Status (4)

Country Link
US (4) US7847829B2 (ja)
EP (3) EP1357760B1 (ja)
JP (3) JP4088959B2 (ja)
WO (1) WO2002056604A1 (ja)

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1494487A2 (en) * 2003-07-02 2005-01-05 Nikon Corporation Color photographing device
WO2005013622A1 (ja) * 2003-06-30 2005-02-10 Nikon Corporation 色成分の混在配列された画像を処理する画像処理装置、画像処理プログラム、電子カメラ、および画像処理方法
JP2007209012A (ja) * 2007-03-12 2007-08-16 Sony Corp 画像処理装置および方法、プログラム、並びに記録媒体
US7362894B2 (en) 2003-01-14 2008-04-22 Sony Corporation Image processing apparatus and method, recording medium, and program
US8456553B2 (en) 2011-02-21 2013-06-04 Fujifilm Corporation Color imaging element
US8723993B2 (en) 2011-03-11 2014-05-13 Fujifilm Corporation Imaging device and storage medium storing an imaging program
US8723992B2 (en) 2011-03-24 2014-05-13 Fujifilm Corporation Color imaging element, imaging device, and storage medium storing an imaging program
US8723991B2 (en) 2011-03-24 2014-05-13 Fujifilm Corporation Color imaging element, imaging device, and storage medium storing an imaging program
US8730360B2 (en) 2011-03-11 2014-05-20 Fujifilm Corporation Color imaging apparatus having color imaging element, method of controlling operation of same and image sensing system
US8730545B2 (en) 2011-03-24 2014-05-20 Fujifilm Corporation Color imaging element, imaging device, and storage medium storing a control program for imaging device
US8736743B2 (en) 2011-03-24 2014-05-27 Fujifilm Corporation Color imaging element, imaging device, and storage medium storing a control program for imaging device
US8786738B2 (en) 2011-03-11 2014-07-22 Fujifilm Corporation Image sensing apparatus and method of controlling operation of same
US8804016B2 (en) 2011-03-24 2014-08-12 Fujifilm Corporation Color imaging element, imaging device, and storage medium storing an imaging program
US8842214B2 (en) 2011-03-24 2014-09-23 Fujifilm Corporation Color imaging element, imaging device, and storage medium storing an imaging program
US8878970B2 (en) 2011-02-28 2014-11-04 Fujifilm Corporation Color imaging apparatus having color imaging element
US8922684B2 (en) 2011-06-30 2014-12-30 Fujifilm Corporation Imaging device, control method for imaging device, and storage medium storing a control program for imaging device
US8928785B2 (en) 2011-03-11 2015-01-06 Fujifilm Corporation Imaging device and storage medium storing an imaging program
US8958000B2 (en) 2011-12-27 2015-02-17 Fujifilm Corporation Imaging device, method for controlling imaging device, and storage medium storing a control program
US8964087B2 (en) 2011-12-27 2015-02-24 Fujifilm Corporation Imaging device, method for controlling imaging device, and storage medium storing a control program
US8970748B2 (en) 2011-06-30 2015-03-03 Fujifilm Corporation Imaging device, storage medium storing a control program for imaging device, and control method for imaging device
US8982253B2 (en) 2011-12-27 2015-03-17 Fujifilm Corporation Color imaging element
US9036061B2 (en) 2011-12-27 2015-05-19 Fujifilm Corporation Color imaging apparatus
US9100558B2 (en) 2011-12-27 2015-08-04 Fujifilm Corporation Color imaging element and imaging apparatus
US9113027B2 (en) 2011-12-27 2015-08-18 Fujifilm Corporation Imaging device, method for controlling imaging device, and storage medium storing a control program
US9148634B2 (en) 2011-12-27 2015-09-29 Fujifilm Corporation Imaging device, method for controlling imaging device, and storage medium storing a control program where a basic color filter array pattern is repeated to reduce false color generation when image is thinned
US9204020B2 (en) 2011-12-27 2015-12-01 Fujifilm Corporation Color imaging apparatus having color imaging element
US9313466B2 (en) 2011-03-09 2016-04-12 Fujifilm Corporation Color imaging element
US9485482B2 (en) 2011-12-27 2016-11-01 Fujifilm Corporation Imaging device, method for controlling imaging device, and storage medium storing a control program for color mixing correction
US10506182B2 (en) 2014-08-05 2019-12-10 Sony Semiconductor Solutions Corporation Imaging device and pixel signal reading method

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002056603A1 (en) * 2001-01-09 2002-07-18 Sony Corporation Imaging device
JP4307862B2 (ja) * 2003-02-05 2009-08-05 富士フイルム株式会社 信号処理方法、信号処理回路、及び撮像装置
JP4131192B2 (ja) * 2003-04-25 2008-08-13 コニカミノルタオプト株式会社 撮像装置、画像処理装置及び画像記録装置
US7688337B2 (en) * 2004-05-21 2010-03-30 Broadcom Corporation System and method for reducing image scaling complexity with flexible scaling factors
WO2006006373A1 (ja) * 2004-07-07 2006-01-19 Nikon Corporation 画像処理装置およびコンピュータプログラム製品
JP4250583B2 (ja) * 2004-09-30 2009-04-08 三菱電機株式会社 画像撮像装置及び画像復元方法
US7935994B2 (en) * 2005-02-24 2011-05-03 Taiwan Semiconductor Manufacturing Company, Ltd. Light shield for CMOS imager
JP4940639B2 (ja) * 2005-09-30 2012-05-30 セイコーエプソン株式会社 画像処理装置、画像処理方法及び画像処理プログラム
US20070133902A1 (en) * 2005-12-13 2007-06-14 Portalplayer, Inc. Method and circuit for integrated de-mosaicing and downscaling preferably with edge adaptive interpolation and color correlation to reduce aliasing artifacts
KR101225060B1 (ko) * 2006-03-08 2013-01-23 삼성전자주식회사 이미지 센서에서 노이즈 판단 기준을 추정하는 방법 및장치
JP4241754B2 (ja) 2006-04-14 2009-03-18 ソニー株式会社 撮像装置
US7773138B2 (en) * 2006-09-13 2010-08-10 Tower Semiconductor Ltd. Color pattern and pixel level binning for APS image sensor using 2×2 photodiode sharing scheme
JP4775202B2 (ja) * 2006-09-15 2011-09-21 ソニー株式会社 表示制御装置、表示制御方法、およびプログラム
CN101605254B (zh) * 2008-06-13 2011-09-07 深圳Tcl新技术有限公司 减少视频区块效应的系统和方法
US8111299B2 (en) * 2008-08-15 2012-02-07 Seiko Epson Corporation Demosaicking single-sensor camera raw data
US8223231B2 (en) * 2008-08-21 2012-07-17 Panasonic Corporation Imaging apparatus and image processing program
CN201523547U (zh) * 2009-05-08 2010-07-14 南京德朔实业有限公司 电动工具
KR20100133806A (ko) * 2009-06-12 2010-12-22 삼성전자주식회사 이미지 디스플레이 방법 및 장치
DE102009025662A1 (de) * 2009-06-17 2010-12-23 Karl Storz Gmbh & Co. Kg Verfahren und Vorrichtung zum Steuern einer mehrfarbigen Ausgabe eines Bilds eines medizinischen Objekts
JP5640371B2 (ja) * 2009-12-18 2014-12-17 ソニー株式会社 カメラシステム及び画像処理方法
JP5503522B2 (ja) * 2010-01-20 2014-05-28 キヤノン株式会社 撮像装置、撮像装置の制御方法
CN102860011A (zh) * 2010-04-20 2013-01-02 富士胶片株式会社 固态成像装置和成像设备
JP5663564B2 (ja) * 2010-04-20 2015-02-04 富士フイルム株式会社 撮像装置並びに撮像画像処理方法と撮像画像処理プログラム
WO2011132617A1 (ja) * 2010-04-20 2011-10-27 富士フイルム株式会社 撮像装置及び固体撮像素子の駆動方法
US9064190B2 (en) 2010-08-09 2015-06-23 Board Of Regents Of The University Of Texas System Estimating pixel values in digital image processing
JP5664141B2 (ja) 2010-11-08 2015-02-04 ソニー株式会社 固体撮像素子およびカメラシステム
JP5331904B2 (ja) * 2011-04-15 2013-10-30 富士フイルム株式会社 内視鏡システム及び内視鏡システムの作動方法
JP2013066142A (ja) 2011-08-31 2013-04-11 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
JP5298381B2 (ja) * 2011-12-20 2013-09-25 株式会社アクセル 画像処理装置及び画像処理方法
EP2800383A4 (en) * 2011-12-27 2015-09-02 Fujifilm Corp COLOR PICTURE ELEMENT
JP2013143730A (ja) * 2012-01-12 2013-07-22 Sony Corp 撮像素子、撮像装置、電子機器および撮像方法
JP5927068B2 (ja) 2012-07-06 2016-05-25 富士フイルム株式会社 カラー撮像素子
CN102905070B (zh) * 2012-08-27 2015-02-25 西北工业大学 多路图像联合监视与等价空间图像拼接方法
JP2014175553A (ja) * 2013-03-11 2014-09-22 Canon Inc 固体撮像装置およびカメラ
JP6417809B2 (ja) * 2014-03-05 2018-11-07 ソニー株式会社 撮像装置
JP5881916B1 (ja) * 2014-05-09 2016-03-09 オリンパス株式会社 固体撮像素子、内視鏡および内視鏡システム
US11035989B2 (en) 2015-11-30 2021-06-15 Rambus Inc. Systems and methods for improving resolution in lensless imaging
US9760978B1 (en) 2016-05-09 2017-09-12 Adobe Systems Incorporated Missing region prediction
JP6626783B2 (ja) * 2016-06-02 2019-12-25 Hoya株式会社 画像処理装置および電子内視鏡システム
US9911201B2 (en) * 2016-06-23 2018-03-06 Adobe Systems Incorporated Imaging process initialization techniques
CN112204948A (zh) * 2019-09-19 2021-01-08 深圳市大疆创新科技有限公司 Hdr图像生成方法、滤光片阵列、图像传感器、图像处理芯片以及摄像装置

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02166987A (ja) * 1988-12-21 1990-06-27 Fuji Photo Film Co Ltd 画像処理システム
JPH0564083A (ja) * 1991-08-30 1993-03-12 Fuji Photo Film Co Ltd 固体電子撮像装置
US5420635A (en) 1991-08-30 1995-05-30 Fuji Photo Film Co., Ltd. Video camera, imaging method using video camera, method of operating video camera, image processing apparatus and method, and solid-state electronic imaging device
JPH10164602A (ja) * 1996-11-26 1998-06-19 Minolta Co Ltd 画素補間装置及びその画素補間方法
JPH10294949A (ja) * 1997-02-19 1998-11-04 Sony Corp カラー方式固体撮像装置
JP2000069491A (ja) * 1998-08-19 2000-03-03 Nikon Corp 撮像素子およびこれを用いた撮像装置
JP2000316163A (ja) 1999-04-30 2000-11-14 Olympus Optical Co Ltd カラー撮像素子及び撮像装置
WO2000079784A1 (en) 1999-06-04 2000-12-28 The Trustees Of Columbia University In The City Of New York Apparatus and method for high dynamic range imaging using spatially varying exposures
JP2001061157A (ja) * 1999-06-14 2001-03-06 Nikon Corp 画像処理方法、画像処理プログラムを記録した機械読み取り可能な記録媒体、および画像処理装置

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS57184937A (en) * 1981-05-08 1982-11-13 Omron Tateisi Electronics Co Color discriminating element
WO1986000196A1 (en) 1984-06-21 1986-01-16 Soltec Research Pty. Ltd. Aerosol product
EP0192736B1 (en) 1984-09-10 1990-05-23 EASTMAN KODAK COMPANY (a New Jersey corporation) Signal processing method and apparatus for sampled color image signal
FR2621705B1 (fr) * 1987-10-09 1990-03-30 Thomson Csf Detecteur multiradiations, notamment detecteur de rayons x a double energie
JPH02192277A (ja) * 1988-08-01 1990-07-30 Minolta Camera Co Ltd 固体撮像装置
US5119181A (en) * 1990-03-30 1992-06-02 Xerox Corporation Color array for use in fabricating full width arrays
JPH0575783A (ja) * 1991-07-11 1993-03-26 Matsushita Electron Corp 固体撮像装置
JP3082971B2 (ja) 1991-08-30 2000-09-04 富士写真フイルム株式会社 ビデオ・カメラ,それを用いた撮影方法およびその動作方法,ならびに画像処理装置および方法
JPH08223491A (ja) 1995-02-10 1996-08-30 Hitachi Ltd イメージセンサ
JPH08331461A (ja) 1995-06-02 1996-12-13 Sony Corp 固体撮像装置の駆動方法
US5805217A (en) * 1996-06-14 1998-09-08 Iterated Systems, Inc. Method and system for interpolating missing picture elements in a single color component array obtained from a single color sensor
US5789737A (en) 1997-01-22 1998-08-04 Xerox Corporation High dynamic range segmented pixel sensor array
US7199410B2 (en) * 1999-12-14 2007-04-03 Cypress Semiconductor Corporation (Belgium) Bvba Pixel structure with improved charge transfer
JPH10264949A (ja) 1997-03-19 1998-10-06 Toyoji Nakagawa ピルファープルーフキャップ
JPH11150687A (ja) * 1997-11-18 1999-06-02 Olympus Optical Co Ltd 撮像装置
US6999119B1 (en) * 1998-04-10 2006-02-14 Nikon Corporation Image-capturing element, image-capturing circuit for processing signal from image-capturing element, image-capturing device, driving method of image-capturing element
JP3565723B2 (ja) * 1998-09-30 2004-09-15 富士写真光機株式会社 カラー画像処理装置
JP4018820B2 (ja) * 1998-10-12 2007-12-05 富士フイルム株式会社 固体撮像装置および信号読出し方法
JP4404289B2 (ja) * 1998-12-26 2010-01-27 ソニー株式会社 映像信号処理装置及びその方法
US6570613B1 (en) * 1999-02-26 2003-05-27 Paul Howell Resolution-enhancement method for digital imaging
JP4119565B2 (ja) 1999-05-06 2008-07-16 オリンパス株式会社 カラー撮像素子及びカラー撮像装置
JP4309505B2 (ja) 1999-03-03 2009-08-05 オリンパス株式会社 撮像素子及び撮像装置
US6803955B1 (en) * 1999-03-03 2004-10-12 Olympus Corporation Imaging device and imaging apparatus
JP4309506B2 (ja) 1999-03-03 2009-08-05 オリンパス株式会社 撮像素子及び撮像装置
US6714243B1 (en) * 1999-03-22 2004-03-30 Biomorphic Vlsi, Inc. Color filter pattern
JP4119566B2 (ja) 1999-05-06 2008-07-16 オリンパス株式会社 カラー撮像素子及びカラー撮像装置
US6625305B1 (en) * 1999-08-16 2003-09-23 Hewlett-Packard Development Company, L.P. Image demosaicing method
US6809765B1 (en) * 1999-10-05 2004-10-26 Sony Corporation Demosaicing for digital imaging device using perceptually uniform color space
GB9925902D0 (en) * 1999-11-03 1999-12-29 Vlsi Vision Ltd Colour image restoration with anti-alias
JP3467013B2 (ja) * 1999-12-06 2003-11-17 キヤノン株式会社 固体撮像装置
US6757012B1 (en) * 2000-01-13 2004-06-29 Biomorphic Vlsi, Inc. Color selection for sparse color image reconstruction
GB0002481D0 (en) * 2000-02-04 2000-03-22 Eastman Kodak Co Method of image processing
US6909461B1 (en) * 2000-07-13 2005-06-21 Eastman Kodak Company Method and apparatus to extend the effective dynamic range of an image sensing device
US6873442B1 (en) * 2000-11-07 2005-03-29 Eastman Kodak Company Method and system for generating a low resolution image from a sparsely sampled extended dynamic range image sensing device
US6765611B1 (en) * 2000-11-21 2004-07-20 Eastman Kodak Company Method for compressing an image from a sparsely sampled extended dynamic range image sensing device
US6646246B1 (en) * 2000-11-21 2003-11-11 Eastman Kodak Company Method and system of noise removal for a sparsely sampled extended dynamic range image sensing device
US7068396B1 (en) * 2000-11-21 2006-06-27 Eastman Kodak Company Method and apparatus for performing tone scale modifications on a sparsely sampled extended dynamic range digital image
US6943831B2 (en) * 2001-01-24 2005-09-13 Eastman Kodak Company Method and apparatus to extend the effective dynamic range of an image sensing device and use residual images
US6924841B2 (en) * 2001-05-02 2005-08-02 Agilent Technologies, Inc. System and method for capturing color images that extends the dynamic range of an image sensor using first and second groups of pixels

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02166987A (ja) * 1988-12-21 1990-06-27 Fuji Photo Film Co Ltd 画像処理システム
JPH0564083A (ja) * 1991-08-30 1993-03-12 Fuji Photo Film Co Ltd 固体電子撮像装置
US5420635A (en) 1991-08-30 1995-05-30 Fuji Photo Film Co., Ltd. Video camera, imaging method using video camera, method of operating video camera, image processing apparatus and method, and solid-state electronic imaging device
JPH10164602A (ja) * 1996-11-26 1998-06-19 Minolta Co Ltd 画素補間装置及びその画素補間方法
JPH10294949A (ja) * 1997-02-19 1998-11-04 Sony Corp カラー方式固体撮像装置
JP2000069491A (ja) * 1998-08-19 2000-03-03 Nikon Corp 撮像素子およびこれを用いた撮像装置
JP2000316163A (ja) 1999-04-30 2000-11-14 Olympus Optical Co Ltd カラー撮像素子及び撮像装置
WO2000079784A1 (en) 1999-06-04 2000-12-28 The Trustees Of Columbia University In The City Of New York Apparatus and method for high dynamic range imaging using spatially varying exposures
JP2001061157A (ja) * 1999-06-14 2001-03-06 Nikon Corp 画像処理方法、画像処理プログラムを記録した機械読み取り可能な記録媒体、および画像処理装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1357760A4

Cited By (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7362894B2 (en) 2003-01-14 2008-04-22 Sony Corporation Image processing apparatus and method, recording medium, and program
WO2005013622A1 (ja) * 2003-06-30 2005-02-10 Nikon Corporation 色成分の混在配列された画像を処理する画像処理装置、画像処理プログラム、電子カメラ、および画像処理方法
EP1494487A2 (en) * 2003-07-02 2005-01-05 Nikon Corporation Color photographing device
EP1494487A3 (en) * 2003-07-02 2006-05-10 Nikon Corporation Color photographing device
US7656458B2 (en) 2003-07-02 2010-02-02 Nikon Corporation Color photographing device
EP2034746A3 (en) * 2003-07-02 2011-03-09 Nikon Corporation Color photographing device
JP2007209012A (ja) * 2007-03-12 2007-08-16 Sony Corp 画像処理装置および方法、プログラム、並びに記録媒体
JP4645607B2 (ja) * 2007-03-12 2011-03-09 ソニー株式会社 画像処理装置および方法、プログラム、並びに記録媒体
US8456553B2 (en) 2011-02-21 2013-06-04 Fujifilm Corporation Color imaging element
US9431444B2 (en) 2011-02-21 2016-08-30 Fujifilm Corporation Single-plate color imaging element including color filters arranged on pixels
US9288454B2 (en) 2011-02-28 2016-03-15 Fujifilm Corporation Color imaging apparatus having color imaging element
US8878970B2 (en) 2011-02-28 2014-11-04 Fujifilm Corporation Color imaging apparatus having color imaging element
US9313466B2 (en) 2011-03-09 2016-04-12 Fujifilm Corporation Color imaging element
US8723993B2 (en) 2011-03-11 2014-05-13 Fujifilm Corporation Imaging device and storage medium storing an imaging program
US8730360B2 (en) 2011-03-11 2014-05-20 Fujifilm Corporation Color imaging apparatus having color imaging element, method of controlling operation of same and image sensing system
US8928785B2 (en) 2011-03-11 2015-01-06 Fujifilm Corporation Imaging device and storage medium storing an imaging program
US8786738B2 (en) 2011-03-11 2014-07-22 Fujifilm Corporation Image sensing apparatus and method of controlling operation of same
US8804016B2 (en) 2011-03-24 2014-08-12 Fujifilm Corporation Color imaging element, imaging device, and storage medium storing an imaging program
US8730545B2 (en) 2011-03-24 2014-05-20 Fujifilm Corporation Color imaging element, imaging device, and storage medium storing a control program for imaging device
US8736743B2 (en) 2011-03-24 2014-05-27 Fujifilm Corporation Color imaging element, imaging device, and storage medium storing a control program for imaging device
US8723992B2 (en) 2011-03-24 2014-05-13 Fujifilm Corporation Color imaging element, imaging device, and storage medium storing an imaging program
US8842214B2 (en) 2011-03-24 2014-09-23 Fujifilm Corporation Color imaging element, imaging device, and storage medium storing an imaging program
US8723991B2 (en) 2011-03-24 2014-05-13 Fujifilm Corporation Color imaging element, imaging device, and storage medium storing an imaging program
US8922684B2 (en) 2011-06-30 2014-12-30 Fujifilm Corporation Imaging device, control method for imaging device, and storage medium storing a control program for imaging device
US8970748B2 (en) 2011-06-30 2015-03-03 Fujifilm Corporation Imaging device, storage medium storing a control program for imaging device, and control method for imaging device
US8964087B2 (en) 2011-12-27 2015-02-24 Fujifilm Corporation Imaging device, method for controlling imaging device, and storage medium storing a control program
US9100558B2 (en) 2011-12-27 2015-08-04 Fujifilm Corporation Color imaging element and imaging apparatus
US9113027B2 (en) 2011-12-27 2015-08-18 Fujifilm Corporation Imaging device, method for controlling imaging device, and storage medium storing a control program
US9148634B2 (en) 2011-12-27 2015-09-29 Fujifilm Corporation Imaging device, method for controlling imaging device, and storage medium storing a control program where a basic color filter array pattern is repeated to reduce false color generation when image is thinned
US9204020B2 (en) 2011-12-27 2015-12-01 Fujifilm Corporation Color imaging apparatus having color imaging element
US9036061B2 (en) 2011-12-27 2015-05-19 Fujifilm Corporation Color imaging apparatus
US8982253B2 (en) 2011-12-27 2015-03-17 Fujifilm Corporation Color imaging element
US8958000B2 (en) 2011-12-27 2015-02-17 Fujifilm Corporation Imaging device, method for controlling imaging device, and storage medium storing a control program
US9485482B2 (en) 2011-12-27 2016-11-01 Fujifilm Corporation Imaging device, method for controlling imaging device, and storage medium storing a control program for color mixing correction
US10506182B2 (en) 2014-08-05 2019-12-10 Sony Semiconductor Solutions Corporation Imaging device and pixel signal reading method

Also Published As

Publication number Publication date
EP1357760A1 (en) 2003-10-29
EP2381688A2 (en) 2011-10-26
US7847829B2 (en) 2010-12-07
EP1357760B1 (en) 2011-11-09
USRE46557E1 (en) 2017-09-19
USRE47062E1 (en) 2018-09-25
US20080267526A1 (en) 2008-10-30
EP2381688B1 (en) 2014-06-25
JP5007767B2 (ja) 2012-08-22
EP2768223A2 (en) 2014-08-20
US7986360B2 (en) 2011-07-26
US20040109068A1 (en) 2004-06-10
JP2008125117A (ja) 2008-05-29
JP2011087317A (ja) 2011-04-28
EP2381688A3 (en) 2012-01-11
EP2768223A3 (en) 2014-12-31
JP4674607B2 (ja) 2011-04-20
EP2768223B1 (en) 2016-09-14
JPWO2002056604A1 (ja) 2004-05-20
EP2768223B8 (en) 2016-11-09
JP4088959B2 (ja) 2008-05-21
EP1357760A4 (en) 2009-04-22

Similar Documents

Publication Publication Date Title
JP4674607B2 (ja) 画像処理装置および方法
JP4228699B2 (ja) 撮像装置、および撮像素子
WO2002056602A1 (fr) Dispositif de traitement d'image
JP4019417B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP3935548B2 (ja) 画像信号処理装置
JP2004221838A (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP4556102B2 (ja) 画像処理装置および画像処理方法、並びに、プログラム
JP5131567B2 (ja) 画像処理装置、画像処理方法、プログラム及び記録媒体
JP3965555B2 (ja) 画像処理装置および方法、プログラム、並びに記録媒体
JP2004172859A (ja) 撮像装置および撮像方法
JP2004172858A (ja) 撮像装置および撮像方法
JP4645607B2 (ja) 画像処理装置および方法、プログラム、並びに記録媒体
JP3711402B2 (ja) 撮像装置及びカラー撮像信号の処理方法
JP4478981B2 (ja) 色雑音低減手法およびカラー撮像装置
JP3965556B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP2022030812A (ja) 画像処理装置及び撮像装置及びそれらの制御方法及びプログラム
JP2012227869A (ja) 画像処理装置及び画像処理方法並びにデジタルカメラ

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): JP US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE TR

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2002557134

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 2002715713

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 2002715713

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 10466015

Country of ref document: US