WO2001047244A1 - Dispositif d'interpolation et support d'enregistrement sur lequel un programme d'interpolation est enregistre - Google Patents

Dispositif d'interpolation et support d'enregistrement sur lequel un programme d'interpolation est enregistre Download PDF

Info

Publication number
WO2001047244A1
WO2001047244A1 PCT/JP2000/009040 JP0009040W WO0147244A1 WO 2001047244 A1 WO2001047244 A1 WO 2001047244A1 JP 0009040 W JP0009040 W JP 0009040W WO 0147244 A1 WO0147244 A1 WO 0147244A1
Authority
WO
WIPO (PCT)
Prior art keywords
color
pixel
interpolation
component
information
Prior art date
Application number
PCT/JP2000/009040
Other languages
English (en)
French (fr)
Inventor
Zhe-Hong Chen
Kenichi Ishiga
Original Assignee
Nikon Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corporation filed Critical Nikon Corporation
Priority to US09/877,002 priority Critical patent/US20020001409A1/en
Publication of WO2001047244A1 publication Critical patent/WO2001047244A1/ja
Priority to US11/367,583 priority patent/US7236628B2/en
Priority to US11/477,666 priority patent/US7362897B2/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4015Demosaicing, e.g. colour filter array [CFA], Bayer pattern
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4007Interpolation-based scaling, e.g. bilinear interpolation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration by the use of local operators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/843Demosaicing, e.g. interpolating colour pixel values
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements

Definitions

  • the present invention records an interpolation processing device for performing interpolation processing for compensating for color components and luminance components missing in each pixel for color image data, and an interpolation processing program for realizing the interpolation processing by a computer.
  • Computer-readable recording medium
  • An electronic camera generates color image data using an image sensor in which color filters of three colors (RGB: red, green, and blue) are arranged at predetermined positions (for example, bay array). There is.
  • RGB red, green, and blue
  • predetermined positions for example, bay array.
  • the color information of a pixel to be interpolated (a pixel lacking a green component) is set to A5, and the same color as the pixel to be interpolated is used.
  • A1, A3, A7, and A9 denote the color information of the pixels on which the color filters are arranged, and G2, G4, G6, and G8 the color information of the pixels on which the green color filter is arranged.
  • the green interpolation value G5 of the interpolation target pixel is calculated by any one of Expressions 1 to 3.
  • the green interpolation value G5 of the interpolation target pixel is
  • G5 (G4 + G6) / 2 + (-A3 + 2A5-A7) / 4 ... Calculated by Equation 1, and when the vertical similarity is strong, the green interpolation value G5 of the interpolation target pixel is
  • G5 (G2 + G8) / 2 + (-A1 + 2A5-A9) / 4 Calculated by Eq.2, when the similarity in the horizontal and vertical directions is similar, the interpolation target
  • the green interpolation value G 5 of the pixel is
  • G5 (G2 + G4 + G6 + G8) / 4 + (-A1-A3 + 4A5-A7-A9) / 8/8
  • the first term ((G4 + G6) / 2, (G2 + G8) / 2) in Equations 1 and 2 is called the main term, and Equations 1 and 2
  • the second term of (2) ((-A3 + 2A5-A7) Z4, (-A1 + 2A5-A9) / 4) is called the correction term.
  • the similarity of the image data to be subjected to the interpolation processing is strong in the horizontal direction, and A3, G4, A5, G6 Assuming that A7 is given as indicated by the reference in Fig. 17, the average value of A3 and A5 is A4, and the average value of A5 and A7 is A6.
  • the value of the correction term in Equation 1 is a vector amount indicating the difference of A5 with respect to the average value of A4 and A6 (corresponding to in FIG. 17.
  • the green interpolation value G5 is This is equivalent to the value obtained by correcting the average value of the color information of the pixels adjacent in the horizontal direction (corresponding to the value of the main term in Equation 1) by
  • chromatic aberration of magnification exists in an optical system such as a lens.
  • chromatic aberration of magnification is present in a camera lens of an electronic camera equipped with an image sensor in which three color filters of RGB are arranged in a bay, FIG. 18B and FIG. 18C As shown in (2), the red and blue components are imaged at positions slightly shifted from the image position of the green component.
  • A3, A5, and A7 are the color information of the red component. If the color information of these red components is shifted one pixel to the right due to the magnification color difference of the taking lens, The color coasting will change as shown in Figure 19B. Therefore, in such a case, the correction term in Equation 1 does not become 0, and the main term is overcorrected (hereinafter referred to as “overcorrection”), which is essentially the same as G4 and G6.
  • the green interpolation value G5 to be a value is larger than G4 and G6 (hereinafter, such a phenomenon is referred to as “overshoot”).
  • A3, A5, and A7 are the color information of the blue component, and when the color information of these blue components is shifted one pixel to the left due to chromatic aberration of magnification, the color information of each pixel is It will change like 19 C. Therefore, in such a case, the correction term of Equation 1 does not become 0, and the green interpolation value G5, which should be approximately the same value as G4 and G6, is G4 and G6 due to overcorrection. The value is smaller than that (hereinafter, such a phenomenon is referred to as “undershoot:”).
  • Equation 1 When the pixel (the pixel where A5 exists) changes suddenly, the correction term in Equation 1 does not become 0, and the green interpolation value G5, which should be approximately the same value as G4 and G6, is However, overshoot may cause overshoot or undershoot.
  • An object of the present invention is to provide an interpolation processing device capable of suppressing the occurrence of false colors and a recording medium in which an interpolation processing program capable of suppressing the occurrence of false colors is recorded.
  • an object of the present invention is to reduce the number of defects without losing the advantages of the conventional interpolation processing, and to reduce the influence of chromatic aberration of magnification, thereby suppressing the generation of false colors.
  • the first interpolation processing device of the present invention performs a process of determining an interpolation value corresponding to the color information of the first color component to a pixel lacking the first color component.
  • the interpolation target pixel to be subjected to the interpolation processing belongs to the first interpolation processing device.
  • Interpolation value calculation means for calculating an interpolation value composed of local inflection information of two or more types of color components relating to an interpolation target pixel is provided.
  • the first interpolation processing device corrects “local average information of the first color component regarding the interpolation target pixel” with “local inflection information of two or more types of color components regarding the interpolation target pixel”. In this way, the interpolation value is calculated.
  • the “local average information of the first color component regarding the interpolation target pixel” is the average of the color information of the first color component existing in the local area to which the interpolation target image belongs. Indicates a value or a value that falls within the range of the color information of the first color component existing in the local area to which the interpolation target image belongs. Also, "local inflection information of two or more types of color components related to the pixel to be interpolated” means how the color information of two or more types of color components existing in the local area to which the image to be interpolated belongs is changed.
  • the local inflection information of each color component is information indicating the degree of change in the rate of change in the local region of each color component, and is represented by a curve (or polygonal line) obtained by plotting the value of each color component. Is information indicating the change in the curve of the curve and the degree of the curve the same) .
  • This information can be obtained by calculating the second derivative or higher order derivative of each color component, and is a quantity reflecting structural information on the unevenness of the change of each color component. If it is represented by a polygonal line, it can be said that it indicates a change in the slope of each line segment.
  • the second interpolation processing device is the first interpolation processing device, wherein the interpolation value calculation means includes local inflection information of the two or more types of color components,
  • the second interpolation processing device converts “the local average information of the first color component regarding the interpolation target pixel” into “the local inflection information by the same color component as the interpolation target pixel” and “the interpolation target pixel”.
  • the interpolation value is calculated by correcting with “local inflection information due to a color component different from that of the pixel”.
  • “local inflection information based on the same color component as the interpolation target pixel (or a color component different from the interpolation target pixel)” refers to a local area to which the interpolation target image belongs. This is information indicating how the color information of the same color component as the interpolation target pixel (or a color component different from the interpolation target pixel) changes in the color information. This is an amount that reflects structural information related to unevenness by calculating higher-order derivatives.
  • the third interpolation processing device that performs a process of determining an interpolation value corresponding to the color information of the first color component is a color interpolation device that exists in a pixel located in a local area to which an interpolation target pixel to be subjected to interpolation processing belongs.
  • an interpolation value calculation means for calculating an interpolation value composed of local inflection information based on a color component different from the interpolation target pixel.
  • the third interpolation processing device corrects “local average information of the first color component regarding the interpolation target pixel” with “local inflection information based on a color component different from the interpolation target pixel”. Calculate the interpolation value.
  • “local inflection information based on a color component different from the interpolation target pixel” refers to a color component different from the interpolation target pixel existing in the local area to which the interpolation target image belongs. This is information that indicates how the color information changes, and is the amount that reflects the structural information related to unevenness by calculating the second derivative or higher order derivative of the color component.
  • a fourth interpolation processing device that performs a process of determining an interpolation value corresponding to the color information of the first color component for a pixel to be processed exists in a pixel located in a local area to which an interpolation target pixel to be subjected to interpolation processing belongs. Using color information, at least
  • Interpolation value calculation means for calculating an interpolation value composed of local inflection information of the first color component for the interpolation target pixel is provided.
  • the fourth interpolation processing device corrects the “local average information of the first color component regarding the interpolation target pixel” with the “local inflection information of the first color component regarding the interpolation target pixel”. Calculate the interpolation value.
  • the “local inflection information of the first color component regarding the interpolation target pixel” is the color information of the first color component existing in the local area to which the interpolation target image belongs. Is information indicating how the color component changes, and is the amount of structural information related to unevenness reflected by the calculation of the second derivative and the second derivative of the color component.
  • the fifth interpolation processing device is the interpolation processing device according to any one of the first to third interpolation processing devices, wherein interpolation is performed in at least two directions connecting a pixel to be interpolated and a pixel having color information of the first color component.
  • First similarity determining means for determining the degree of similarity with the target pixel; and at least two directions different from the directions in which the similarity is determined by the first similarity determining means.
  • a second similarity determination unit that determines the degree of similarity with the interpolation target pixel, wherein the interpolation value calculation unit calculates local average information of the first color component when calculating the local average information. Selecting the direction of the pixel in which the color information to be used exists based on the determination result by the first similarity determination unit;
  • the local inflection information is composed of “a single color component, Local inflection information having directionality in the direction in which the similarity is to be determined by the determining means, '' the pixel in which the color information used to calculate the local inflection information exists A direction is selected based on the determination result by the first similarity determination unit, and (2) the local inflection information is composed of a “single color component, and the similarity is determined by the second similarity determination unit. Local inflection information having directionality in the direction in which the strength is determined, the direction of the pixel in which the color information used to calculate the local inflection information is determined by the The selection is made based on the determination result by the similarity determination means 2.
  • the local inflection information having directionality in the direction in which the similarity is determined by the determination unit is selected based on the determination result by the first similarity determination unit.
  • the fifth interpolation processing device it is possible to select the color information used when calculating the local inflection information according to the similarity with the interpolation target pixel. Also, color information used when calculating local average information of the first color component can be selected according to the similarity with the pixel to be interpolated.
  • the sixth interpolation processing device that performs a process of determining an interpolation value corresponding to the color information of the first color component is a color information of a pixel located in a local area to which an interpolation target pixel to be subjected to interpolation processing belongs.
  • An interpolation value calculating means for calculating an interpolation value composed of at least two terms, a first term and a second term, by using In at least two directions, the first similarity determining means for determining the strength of the similarity with the interpolation target face element, and the first similarity determining means determine the strength of the similarity.
  • a second similarity determining unit that determines the similarity between the pixel to be interpolated and at least two directions different from the direction of the interpolation target pixel, and the interpolation value calculation unit calculates the first term The direction of the pixel in which the color information used in the calculation is selected based on the determination result by the first similarity determination unit, and the direction of the pixel in which the color information used in calculating the second term is present is determined. The selection is made based on the determination result by the second similarity determination unit.
  • the direction in which similarity is determined by the second similarity determining means is different from the direction in which similarity is determined by the first similarity determining means.
  • Use not only the direction in which the color information used when calculating the color information is located, but also the color information of pixels located in a finer direction, including the direction in which the color information used when calculating the second term is located be able to.
  • the interpolation value can be calculated using the color information of the pixels located in a plurality of finely divided directions. Also, the sixth interpolation processing device uses color information of pixels located in a direction having a strong similarity, or weights and synthesizes color information of pixels located in a plurality of directions in accordance with the strength of the similarity. , The first and second terms can be calculated.
  • a seventh interpolation processing apparatus is the sixth interpolation processing apparatus, wherein the interpolation value calculation means is:
  • the seventh interpolation processing device is configured such that “the first color component related to the pixel to be interpolated is Average information '', ⁇ local inflection information composed of a single color component and having directionality in a direction in which similarity is determined by the first similarity determination means '' and ⁇ single color component And the local inflection information having directionality for the direction in which the similarity is to be determined by the second similarity determination means. "
  • An eighth interpolation processing device is the image processing device according to the fifth or seventh interpolation processing device, wherein the image data is represented by a color system composed of first to third color components, and the first color component is a second color component. ⁇ The spatial frequency is higher than the third color component, the first color component is arranged in a checkered pattern, and the second and third color components are arranged line-sequentially between the first color components.
  • the first similarity determining means connects the pixel to be interpolated and the pixel in which the first color component closest to the pixel to be interpolated exists.
  • the second similarity determination unit includes: Diagonal 2 connecting the pixel to be interpolated and the pixel with the third color component closest to the pixel to be interpolated The degree of similarity of the pixel to be interpolated in the two oblique directions is determined based on the difference between the pixels to be interpolated with respect to the direction. And the local inflection information having directionality in the direction in which the similarity is determined by the first similarity determination unit. ⁇ Local inflection information composed of a single color component and having directionality in the direction in which the similarity is determined by the second similarity determination unit '' is defined as: At least one of the second color component and the third color component is made to correspond.
  • the color components having directionality in two directions in the vertical and horizontal directions which are to be subjected to the similarity determination by the first similarity determination unit are a second color component and a first color component.
  • the second similarity determining means determines the two diagonal directions for which the strength of similarity is to be determined.
  • the color components having directivity are the second color component and the third color component.
  • “local inflection information composed of a single color component and having directionality in the direction in which the similarity is determined by the first similarity determination unit is used. Is calculated for at least one of the second color component and the first color component on the basis of the determination result by the first similarity determination means, and is composed of a single color component.
  • the local inflection information having directionality in the direction in which the similarity is determined by the second similarity determining means is based on the determination result of the second similarity determining means. It will be calculated for at least one of them.
  • the eighth interpolation processing apparatus calculates “local inflection information based on color components indicating similarity in the direction in which the similarity is determined by the second similarity determination unit”. The similarity in the diagonal direction is surely reflected.
  • a ninth interpolation processing device is the eighth interpolation processing device, wherein the interpolation value calculation means is configured such that the local inflection information is “local inflection information by a color component different from the interpolation target pixel”. In some cases, whether the local inflection information corresponds to the first color component or the third color component depends on the similarity determined by the second similarity determination unit. Switch.
  • the third color component exists in a pixel adjacent in two oblique directions to the pixel to be interpolated, and the similarity determined by the second similarity determining means is oblique in two directions. Is the similarity of the interpolation target pixel with respect to.
  • the ninth interpolation processing device switching between “local inflection information due to a color component different from the interpolation target pixel” to the first color component or the third color component is performed.
  • the similarity in the oblique direction can be reflected in “local inflection information due to a color component different from the interpolation target pixel”.
  • the tenth interpolation processing device is a ninth interpolation processing device, wherein the interpolation value calculation means is determined by the second similarity determination means to be similar in the two oblique directions.
  • the interpolation value calculation means is determined by the second similarity determination means to be similar in the two oblique directions.
  • local inflection information based on the first color component is calculated, and it is determined that the similarity in one oblique direction is stronger than the similarity in the other oblique direction among the similarities in the two oblique directions.
  • local inflection information based on the third color component is calculated. That is, according to the tenth interpolation processing device, the similarity in the oblique direction is reliably reflected when calculating “local inflection information by a color component different from the interpolation target pixel”.
  • the eleventh interpolation processing device is the eighth interpolation processing device, wherein the first similarity determination means is configured to determine the difference between the vertical and horizontal directions when the difference between the two similarities in the vertical and horizontal directions is smaller than a predetermined threshold value.
  • the similarity in the two directions is determined to be substantially the same, and the second similarity determination unit determines the similarity in the two oblique directions when the difference in the similarity in the two oblique directions is smaller than a predetermined threshold.
  • the first interpolation processing device it is possible to reduce the influence of noise when determining the similarity in the vertical and horizontal directions and the similarity in the diagonal two directions.
  • a first and second interpolation processing device is the eighth interpolation processing device, wherein the first similarity determination means calculates the similarity in the vertical and horizontal directions for each interpolation target pixel by a plurality of color components.
  • the second similarity determination means calculates the similarity in two oblique directions for one interpolation target pixel using color information of a plurality of color components.
  • the color information of a plurality of color components is reflected when determining the similarity in the vertical and horizontal directions and the similarity in the two oblique directions.
  • a thirteenth interpolation processing device is the thirteenth interpolation processing device, wherein the second similarity determination unit includes:
  • a similarity component composed of color information of the second color component and the third color component is weighted and added to calculate the similarity in each direction.
  • a thirteenth interpolation processing device is the thirteenth interpolation processing device, wherein the second similarity determination unit includes:
  • the color information of a plurality of color components is reliably reflected when determining the similarity in the two oblique directions.
  • a fourteenth interpolation processing device is the eighth interpolation processing device, wherein the first similarity determination means calculates the similarity of each pixel in two vertical and horizontal directions, and calculates not only the pixel to be interpolated but also the peripheral pixel. Based on the similarity difference between the pixels, the similarity of the interpolation target pixel in the two vertical and horizontal directions is determined, and the second similarity determination unit calculates the similarity of each pixel in the two oblique directions, and performs interpolation.
  • the similarity of the interpolation target pixel in two oblique directions is determined based on the difference in similarity between not only the target pixel but also the surrounding pixels (that is, according to the fourteenth interpolation processing device, The continuity with surrounding pixels is reflected in the determination of the similarity between two pixels and the similarity in two oblique directions.
  • Pixels that are represented by a color system consisting of the 1st to nth (n ⁇ 2) color components, and where the first color component is missing from image data in which each pixel has color information of one type of color component A fifteenth interpolation processing device that performs a process of determining an interpolation value corresponding to the color information of the first color component in the following manner:-A color existing in a pixel located in a local area to which an interpolation target pixel to be subjected to interpolation processing belongs; A first term calculating means for calculating a first term representing average information of the first color component for the pixel to be interpolated using the color information of the component, and a first term calculating means for a pixel located in a local area to which the pixel to be interpolated belongs A second term calculating means for calculating a second term representing local inflection information based on the same color component as the interpolation target pixel using the color information of the color component; and a local term to which the interpolation target pixel belongs Weight
  • the fifteenth interpolation processing device multiplies the weighting coefficient composed of the color information of a plurality of color components existing in the pixel located in the local area to which the interpolation target pixel belongs.
  • the interpolation value is calculated by correcting “average information of the first color component for the interpolation target pixel” with “local inflection information by the color component”.
  • the sixteenth interpolation processing device is the fifteenth interpolation processing device,
  • the stage uses the interpolation target pixel and the color information of a plurality of color components present in a plurality of pixels located in a predetermined direction with respect to the interpolation target pixel, and for each color component, the inclination of the color information with respect to the direction for each color component. And calculating the weighting coefficient in accordance with the correlation of the inclination of the color information for each color component.
  • the “average information of the first color component regarding the interpolation target pixel” is multiplied by the weighting coefficient “the local inflection information by the same color component as the interpolation target pixel regarding the interpolation target pixel”
  • the weighting coefficient is calculated according to the correlation of the inclination of the color information for each color component in the local area to which the interpolation target pixel belongs.
  • a color system composed of a luminance component and a color component. The spatial frequency of the luminance component is higher than the spatial frequency of the color component, and the luminance is expressed in both the pixel where the color component exists and the pixel where the color component is missing.
  • the 17th interpolation processing device that performs processing for compensating for color components in pixels where color components are missing from image data in which components exist is located in the vicinity of the interpolation target pixel to be subjected to the interpolation processing.
  • Hue value calculating means for calculating hue values of a plurality of pixels having a luminance component and a color component using the luminance component and the color component of each pixel; and a plurality of hue values calculated by the hue value calculating means.
  • Hue value interpolation means for calculating the hue value of the pixel to be interpolated based on the median of the hue values of the pixels, and the pixel to be interpolated calculated by the hue value interpolation means using the luminance component present in the pixel to be interpolated Is converted into a color component, and the pixel to be interpolated And color conversion means for interpolating the color components.
  • the hue value of the interpolation target pixel is calculated by the median of the hue values of a plurality of pixels located near the interpolation target pixel.
  • the hue value of the pixel to be interpolated is calculated by the median value of the hue values of a plurality of pixels located near the pixel to be interpolated.
  • the nineteenth interpolation processing device is the same as the seventeenth or eighteenth interpolation processing device, except that the luminance component of the image data corresponds to the green component and the color component of the image data is a red component and a blue component.
  • the hue value interpolating means interpolates by a median hue value including a red component of a pixel located near the pixel to be interpolated when a green component is present in the pixel to be interpolated and a red component is missing.
  • the interpolation target is calculated based on the median hue value including the blue component of the pixel located near the interpolation target pixel The hue value of the pixel is calculated.
  • the hue value of the pixel to be interpolated in which the green component is present and the red component is missing, is the center of the hue value including the red component of the pixel located near the pixel to be interpolated.
  • the hue value of the interpolation target pixel where the green component is present and the blue component is missing is calculated based on the median hue value of the hue value including the blue component of the pixel located near the interpolation target pixel. Is done.
  • the 20th interpolation processing device is the 17th or 18th interpolation processing device, wherein the luminance component of the image data corresponds to the green component, and the color component of the image data corresponds to the red component and the blue component.
  • the hue value interpolating means when a blue component is present in the pixel to be interpolated and a red component is missing, the hue value interpolation means calculates a pixel to be interpolated by a median hue value including a red component of a pixel located near the pixel to be interpolated. Is calculated.
  • the hue value of the pixel to be interpolated in which the blue component is present and the red component is missing, is calculated by calculating the center of the hue value including the red component of the pixel located near the pixel to be interpolated. Calculated by value.
  • the 21st interpolation processing device is the 17th or 18th interpolation processing device, wherein the luminance component of the image data corresponds to the green component, and the color component of the image data corresponds to the red component and the blue component.
  • the hue value interpolating means when a red component is present in the pixel to be interpolated and a blue component is missing, the hue value interpolating means uses a median hue value including a blue component of a pixel located near the pixel to be interpolated. The hue value of the target pixel is calculated.
  • the hue value of the pixel to be interpolated in which the red component is present and the blue component is missing, is calculated as the center of the hue value including the blue component of the pixel located near the pixel to be interpolated. It is calculated based on the value.
  • the second and second interpolation processing devices are arranged so that, in any one of the seventeenth to twenty-first interpolation processing devices, the color component missing in the interpolation target pixel is only one of four pixels arranged vertically and horizontally symmetrically. If the hue value of the obliquely adjacent pixel is calculated by the hue value calculating means, the hue value of the plurality of obliquely adjacent face elements adjacent in the oblique direction to the interpolation target pixel is calculated.
  • a first hue value interpolator for calculating the hue value of the pixel to be interpolated based on the median value of the pixels, and calculating the hue value of a plurality of vertically and horizontally adjacent pixels vertically and horizontally adjacent to the pixel to be interpolated. Means or a second hue value interpolator for calculating the hue value of the pixel to be interpolated based on the median of the hue values of the vertical and horizontal adjacent pixels. It is provided with.
  • the second and second interpolation processing devices calculate the hue value of the pixel to be interpolated based on the median of the hue values of the diagonally adjacent pixel, and calculate the hue value of the vertical and horizontal adjacent pixels.
  • the hue value of the pixel to be interpolated is calculated based on the median of the hue values of the vertical and horizontal adjacent pixels.
  • the first recording medium of the present invention is represented by a color system composed of first to n-th (n ⁇ 2) color components, and includes image data in which each pixel has color information of one type of color component.
  • an interpolation processing program for realizing, by a computer, processing for determining an interpolation value corresponding to the color information of the first color component in a pixel where the first color component is missing is recorded, and the interpolation processing program is configured to perform interpolation. At least using the color information existing in the pixel located in the local area to which the interpolation target pixel to be processed belongs,
  • the interpolation processing program of the first recording medium converts “local average information of the first color component regarding the interpolation target pixel” into “local inflection information of two or more types of color components regarding the interpolation target pixel”. To calculate the interpolation value.
  • the second recording medium is represented by a color system composed of the first to n-th (n ⁇ 2) color components.
  • An interpolation processing program for realizing, by a computer, a process of determining an interpolation value corresponding to the color information of the first color component at a pixel where one color component is missing is recorded. At least using the color information existing in the pixel located in the local area to which the interpolation target pixel belongs.
  • the interpolation processing program of the second recording medium calculates “local average information of the first color component regarding the interpolation target pixel” as “local inflection information by a color component different from the interpolation target pixel”. By compensating, the interpolation value is calculated.
  • the third recording medium is represented by a color system composed of the first to n-th (n ⁇ 2) color components.
  • the image data in which color information of one type of color component exists in each pixel is referred to as a third recording medium.
  • An interpolation processing program for realizing, on a computer, a process for determining an interpolation value corresponding to the color information of the first color component at a pixel where one color component is missing is recorded, and the interpolation processing program determines the interpolation processing target. At least using the color information existing in the pixel located in the local area to which the interpolation target pixel belongs.
  • the interpolation processing program of the third recording medium corrects “local average information of the first color component regarding the interpolation target pixel” with “local inflection information of the first color component regarding the interpolation target pixel”. To calculate the interpolated value.
  • the fourth recording medium is represented by a color system composed of first to n-th (n ⁇ 2) color components, For image data in which color information of one type of color component exists in each pixel, a process to determine the interpolation value equivalent to the color information of the first color component in the pixel where the first color component is missing is realized in a computer.
  • An interpolation processing program for performing interpolation processing is recorded.
  • the interpolation processing program uses at least the first and second terms using color information of a pixel located in a local area to which an interpolation target pixel to be subjected to interpolation processing belongs.
  • an interpolation value calculation procedure for calculating an interpolation value composed of two terms, and a pixel to be interpolated in at least two directions connecting the pixel to be interpolated and the pixel in which the color information of the first color component exists.
  • the strength of similarity with the pixel to be interpolated is determined in at least two directions different from the directions in which the strength of similarity is determined by the similarity determination procedure 1 and the first similarity determination procedure.
  • a second similarity determination procedure that performs the interpolation value calculation step.
  • the direction of the face element in which the color information used for calculating the first term is present is selected based on the determination result of the first similarity determination procedure, and the color information used for calculating the second term is selected.
  • the direction of an existing pixel is selected based on the determination result obtained by the second similarity determination procedure.
  • the direction in which similarity is determined by the second similarity determination procedure is the direction in which similarity is determined by the first similarity determination procedure. Therefore, the position is not limited to the direction in which the color coasting information used to calculate the first term is located, but is also included in a more detailed direction, including the direction in which the color information used to calculate the second term is located.
  • the color information of the pixel to be used can be used.
  • the fifth recording medium is represented by a color system composed of the first to n-th (n ⁇ 2) color components.
  • the image data in which color information of one kind of color component exists in each pixel is referred to as a fifth recording medium.
  • An interpolation processing program for realizing, by a computer, a process of determining an interpolation value corresponding to the color information of the first color component at a pixel where one color component is missing is recorded.
  • the second term calculation procedure for calculating the term A plurality of color components present in pixels located in a local region An interpolation value calculating step of calculating an interpolation value by multiplying the second term by a weighting coefficient composed of color information and adding the result to the first term.
  • the interpolation processing program of the fifth recording medium calculates the interpolation target pixel by multiplying a weighting coefficient composed of color information of a plurality of color components present in the pixel to be interpolated and the pixel located in the local area to which the interpolation target pixel belongs.
  • An interpolation value is calculated by correcting “average information of the first color component regarding the pixel to be interpolated” with “local inflection information of the same color component as the pixel to be interpolated”.
  • the sixth recording medium is represented by a color system composed of a luminance component and a color component, and the spatial frequency of the luminance component is higher than the spatial frequency of the color component, and the pixel having the color component and the color component are missing.
  • an interpolation processing program for realizing, by a computer, a processing for supplementing the color component to the pixel lacking the color component is recorded, and the interpolation processing program executes the interpolation processing.
  • Value Interpolator The hue value of the interpolation target pixel in the calculated and converted into color components, and a color conversion procedure for interpolating the color components of the interpolation target pixel.
  • the hue value of the interpolation target pixel is calculated by the median value of the hue values of a plurality of pixels located near the interpolation target pixel.
  • the seventh recording medium is represented by a color system composed of a luminance component and a color component, and the spatial frequency of the luminance component is higher than the spatial frequency of the color component, and one of the luminance component and the color component per pixel.
  • An interpolation processing program for realizing, by computer, a process for complementing a luminance component to a pixel having a missing luminance component and a color component to a pixel having a missing color component in the image data having one, and records the interpolation processing program Are the similarity between the luminance component interpolation target surface element to be subjected to the ⁇ -degree component interpolation process and the pixel located in the vicinity of the luminance component interpolation target pixel.
  • At least one of the two or more color components is used to interpolate the luminance component of the luminance component interpolation target pixel.
  • a plurality of pixels which are located in the vicinity of an interpolation target pixel to be subjected to color component interpolation processing, and where a color component exists and a luminance component is interpolated by the luminance component interpolation procedure.
  • the hue value is calculated using the luminance component and the color component of each pixel, and the median value of the hue values of the plurality of pixels calculated in the hue value calculation step is used as an interpolation target.
  • a hue value interpolation procedure for calculating a hue value of a pixel, and a hue value of the interpolation target pixel calculated in the hue value interpolation procedure are converted into a color component using a luminance component existing in the interpolation target pixel, and the interpolation target is calculated.
  • a color conversion procedure for interpolating the color components of the pixels That is, in the interpolation processing program for the seventh recording medium, the hue value of the interpolation target pixel is calculated by the median of the hue values of a plurality of pixels located near the interpolation target pixel.
  • the interpolation processing program of the first to seventh recording media is a program for realizing the first, third, fourth, sixth, fifteenth, seventeenth, and nineteenth interpolation processing devices on a computer. It is.
  • the second, fifth, seventh to fourteenth, sixteenth, eighteenth, twenty to twenty-second interpolation processing devices are also realized by an interpolation processing program recorded on a recording medium. It is possible to do so.
  • these interpolation processing programs can be provided to a computer via a communication line such as the Internet.
  • the first interpolation processing device and the interpolation processing program of the first recording medium read “local average information of the first color component for the pixel to be interpolated” and “two types of information for the pixel to be interpolated”.
  • the interpolation value is calculated by correcting with the above-mentioned local inflection information of the color component, and the second interpolation processing apparatus calculates the local average information of the first color component regarding the pixel to be interpolated. Is corrected by “local inflection information due to the same color component as the interpolation target pixel” and “local inflection information due to a color component different from the interpolation target pixel” to calculate an interpolation value.
  • the third interpolation processing device and the interpolation processing program of the second recording medium store “local average information of the first color component regarding the pixel to be interpolated” as “local average information of a color component different from the interpolation target pixel”.
  • the interpolated value is calculated by correcting with the typical inflection information.
  • the fourth interpolation processing device and the interpolation processing program for the third recording medium are described in “Interpolation target image
  • the interpolation value is calculated by correcting “the local average information of the first color component regarding the element” with “the local inflection information of the first color component regarding the interpolation target pixel”.
  • the structure information can be reliably extracted.
  • the fifth to tenth interpolation processing devices in which false colors are not generated and in the interpolation processing program for the fourth recording medium,
  • the interpolation value is calculated by using the color information of the pixels existing in a plurality of directions according to the similarity with the interpolation target pixel.
  • the similarity in the oblique direction is reflected in the interpolation value.
  • the first interpolation processing device can calculate the interpolation value without impairing the structure of the image. Can reduce the influence of noise when determining similarity, and the first and second interpolation processing devices reflect the color information of a plurality of color components when determining similarity.
  • the fourteenth interpolation processing device reflects continuity with neighboring pixels when determining similarity.
  • the 15th and 16th interpolation processing devices and the interpolation processing program for the fifth recording medium use the ⁇ average information of the first color component related to the pixel to be interpolated '' by By performing correction using “local inflection information based on the same color component as the target pixel,” the direction of correction and the width of correction can be adjusted by weighting factors.
  • the weighting coefficient is calculated according to the correlation of the inclination of the color information for each color component in the local area to which the interpolation target pixel belongs. It is possible to adjust the direction and width of correction when correcting the “average information of the first color component for the pixel”.
  • the 17th to 22nd interpolation processing devices, and the sixth and seventh recording medium interpolation processing programs calculate the hue value of the pixel to be interpolated by the hue values of a plurality of pixels located near the pixel to be interpolated. Can be calculated from the median of
  • FIG. 1 is a functional block diagram of an electronic camera corresponding to the first to fifth embodiments.
  • FIGS. 2A and 2B are diagrams showing the arrangement of the color components of the image data in the first embodiment, the second embodiment, and the fourth embodiment.
  • 3A and 3B are diagrams showing an arrangement of color components of image data in the third embodiment and the fifth embodiment.
  • FIG. 5 is an operation flowchart (2) of the interpolation processing unit in the first embodiment.
  • 6A and 6B are diagrams illustrating weighted addition of similarity components.
  • FIG. 7 is a diagram illustrating the direction of strong similarity corresponding to the value of (HV [i, j], DN [i, j]).
  • FIG. 8 is a diagram showing the position of the color information used when calculating the green interpolation value G [i, j].
  • FIGS. 9A and 9B illustrate how the influence of the chromatic aberration of magnification is eliminated.
  • FIGS. 10A to 10C are diagrams illustrating a conventional median process.
  • FIGS. 11A and 11B are diagrams for explaining the operation of the median process in the first embodiment.
  • FIGS. 12A and 12B are diagrams illustrating the range of the median process in the first embodiment.
  • FIG. 13 is a diagram showing the position of color information used when calculating local inflection information. You.
  • FIG. 14 is a diagram (continued) showing the position of the color information used for calculating the local inflection information.
  • FIG. 15 is a diagram for explaining the role of the weighting factor in the fourth embodiment.
  • FIG. 16 is a functional block diagram according to the sixth embodiment.
  • FIG. 17 is a diagram for explaining an example of a conventional interpolation process.
  • FIGS. 18A to 18C are diagrams illustrating the influence of chromatic aberration of magnification.
  • FIGS. 19A to 19C are diagrams illustrating overcorrection due to chromatic aberration of magnification.
  • FIGS. 20A and 20B are diagrams showing the influence of overcorrection at the color boundary portion.
  • FIG. 1 is a functional block diagram of an electronic camera corresponding to the first to fifth embodiments.
  • the electronic camera 10 has a control unit 11, an imaging optical system 12, an imaging unit 13 -A / D conversion unit 14, an image processing unit 15, and a recording unit 16.
  • the image processing section 15 has an interpolation processing section (for example, a one-chip microprocessor dedicated to interpolation processing) 17.
  • the imaging unit 13 has an imaging device (not shown) in which RGB color filters are arranged in a Bayer array.
  • the interpolation processing unit 17 includes, for example, a gradation conversion process.
  • a function block for performing the above image processing may be provided.
  • a control unit 11 is connected to an imaging unit 13, an A / D conversion unit 14, an image processing unit 15, and a recording unit 16. Further, the optical image acquired by the imaging optical system 12 is formed on an image sensor in the imaging unit 13. The output of the imaging unit 13 is quantized by the AZD conversion unit 14 and supplied to the image processing unit 15 as image data.
  • the image data supplied to the image processing unit 15 is subjected to interpolation processing by an interpolation processing unit 17, and image compression is performed as necessary, and then recorded via a recording unit 16.
  • the image data whose resolution of each color component has been increased by the interpolation processing is finally displayed and pre-processed.
  • the data is output as color system image data corresponding to each connected device such as a printer.
  • FIGS. 2A and 2B are diagrams showing an arrangement of color components of image data in the first embodiment, the second embodiment, and the fourth embodiment.
  • FIG. 27 is a diagram illustrating an arrangement of color components of image data in the third embodiment and the fifth embodiment.
  • R, G, and B are used to indicate the types of color components
  • i and j are used to indicate the pixels in which each color component exists. The position of is shown. Assuming that the coordinates of the pixel to be interpolated to be interpolated are [i, j], Figure 2A and Figure 2B show an array of 7 X 7 pixels centered on the pixel to be interpolated. 3A and FIG.
  • FIGS. 2B and 3B show an array of 5 ⁇ 5 pixels centering on the pixel to be interpolated.
  • 2A and 3A show an arrangement in which a pixel having a red component is used as an interpolation target pixel
  • FIGS. 2B and 3B show a pixel in which a blue component is present as an interpolation target pixel.
  • a blue component is present as an interpolation target pixel.
  • the interpolation processing unit 17 performs an interpolation process (hereinafter, referred to as “G interpolation process”) that supplements a green interpolation value for a pixel where a green component is missing, and then performs a red component.
  • G interpolation process an interpolation process
  • RB interpolation processing Interpolation processing
  • the interpolation processing for supplementing the blue interpolation value (hereinafter referred to as “B interpolation processing”) can be performed in the same manner as the interpolation processing for supplementing the red interpolation value (hereinafter referred to as “R interpolation processing”). Description is omitted.
  • the pixel located at the coordinates [i, j] will be referred to as the interpolation target pixel in the G interpolation processing.
  • the green interpolation value can be calculated irrespective of the type (red or blue) of the color component of the pixel to be interpolated.
  • FIGS. 4 and 5 are operation flowcharts of the interpolation processing unit 17 in the first embodiment.
  • FIG. 4 shows the operation of the interpolation processing unit 17 in the G interpolation processing
  • FIG. The operation of the interpolation processing unit 17 in the R interpolation processing will be described.
  • FIGS. 4 and 5 are referred to.
  • the operation of the interpolation processing unit 17 will be described.
  • the interpolation processing unit 17 calculates the vertical similarity Cv [i, j] and the horizontal similarity Ch [i, j] using the pixel lacking the green component as the pixel to be interpolated (FIG. 4). S 1).
  • the details of the process of calculating the vertical similarity Cv [i, j] and the horizontal similarity Ch [i, j] performed in the first embodiment will be described.
  • the interpolation processing unit 17 calculates a plurality of types of similarity components in the vertical direction and the horizontal direction defined by the following equations '10 to 21 '.
  • Ch2 [i, j] (
  • Ch3 [i, j] (
  • Ch4 [i, j] (
  • Ch5 [i, j] (
  • Ch6 [i, j] (
  • Equation 20 Y [i, j] is
  • Y [i, j] (4-A [i, j] + 2- (A [i, jl] + A [i, j + l] + A [il, j] + A [i + l, j ])
  • the interpolation processing unit 17 calculates the plurality of types of similarity components by weighting factors & 1, 32, & 3, 34, 35, and 36, as shown in Equations 23 and 2 below.
  • the vertical similarity CvO [i, j] and the horizontal similarity ChO [i, j] of the pixel to be interpolated are calculated by weighting and adding for each direction.
  • ChO [i, j] (al-Chl [i , j] + a2-Ch2 [i, j] + a3-Ch3 [i, j] + a4-Ch4 [i, j]
  • the calculation and the weighted addition of the similarity components in the vertical and horizontal directions are performed not only for the interpolation target pixel but also for the peripheral pixels located near the interpolation target pixel. Then, the calculation accuracy of the similarity is further improved.
  • the interpolation processing unit 17 calculates the weighted addition results (CvO [i, j], CvO [i-1, j-1], CvO [i-1, j + l], Cv0 [i + 1, j-1], Cv0 [i + l, j + 1]) and weighted addition as in the following ⁇ Method 1 ⁇ or ⁇ Method 2 ⁇
  • the vertical similarity Cv [i, j] and the horizontal similarity Ch [i, j] of the interpolation target pixel are calculated. ⁇ Method 1 ⁇
  • Ch [i, j] (4-ChO [i, j] + ChO [il, jl] + ChO [il, j + 1]
  • Ch [i, j] (4-Ch0 [i, j ]
  • ⁇ Method 1 is as shown in Fig. 6A.
  • the weighting of the similarity components between the interpolation target pixel and the peripheral pixels is equivalent to ⁇ weight method 2 >>, as shown in Fig. 6B. This is equivalent to performing weighted addition.
  • the similarity obtained by weighting and adding the same-color similarity component, different-color similarity component, and luminance-similarity similarity component enables highly accurate evaluation of similarity for various images. is there.
  • the three types of similarity components (similarity components between GG, BB (RR), and RR (BB)) calculated as the same-color similarity components are similarity components.
  • the role played in the evaluation can be complemented by the color components, and is calculated as a similarity component between different colors.
  • the two types of similarity components (the similarity component between GR (GB) and the similarity component between BG (RG)) can complement each other in the role played by the color components.
  • the result of the weighted addition of the similarity component in the interpolation target pixel and the result of the weighted addition of the similarity component in the surrounding pixels are weighted and added, whereby the vertical similarity Cv [ i, j] and the horizontal similarity Ch [i, j] are calculated. Therefore, the vertical similarity Cv [i, j] and the horizontal similarity Ch [i, j] indicate the continuity of the color information between the pixel to be interpolated and the pixel located near the pixel to be interpolated. Easy to be reflected.
  • the vertical similarity Cv [i, j] and the horizontal similarity Ch [i, j] calculated by ⁇ Method 2 >> reflect the color information of the color components of pixels located in a wide range. Therefore, it is effective for evaluating the similarity to an image having a large chromatic aberration of magnification.
  • the interpolation processing unit 17 calculates the vertical similarity Cv [i, j] and the horizontal similarity Ch [i, j] as described above, and calculates the vertical similarity Cv [i, j]. j] and the horizontal similarity Ch [i, j], and compare the vertical and horizontal similarities (hereinafter referred to as “vertical and horizontal similarity”) of the interpolated facet (Fig. 4S). 2) Then, as such a comparison result, the following values are set in the index HV [i,] '] indicating the vertical / horizontal similarity.
  • the interpolation processing unit 17 calculates, for an arbitrary threshold T1,
  • the interpolation processing unit 17 calculates the similarity C45 [i, j] and the similarity C135 [i, j] in the diagonal 135 ° direction are calculated (S6 in FIG. 4).
  • the interpolation processing unit 17 calculates a plurality of types of similarity components for the 45-degree oblique direction and the 135-degree oblique direction defined by the following Expressions 29 to 36.
  • C135_4 [i, j] (
  • the interpolation processing unit 17 performs weighted addition of a plurality of types of similarity components for each direction using the weighting coefficients bl, b2, b3, and b4 as shown in Equations 37 and 38 below.
  • the similarity C45-0 [i, j] of the target pixel in the diagonal 45 degree direction and the similarity C135-0 [i, j] in the diagonal 135 degree direction are calculated.
  • C135_0 [i, j] (bl-C135_l [i, j] + b2-C135_2 [i, j] + b3-C135_3 [i, j]
  • the calculation and the weighted addition of the similarity components in the 45-degree diagonal direction and the 135-degree diagonal direction are performed not only for the interpolation target pixel but also for the surrounding pixels.
  • the accuracy of calculating the similarity is improved.
  • the interpolation processing unit 17 calculates the weighted addition results (C45-0 [i, j], C45_0 [i-1, j-1], C45-0 [ i-1, j + 1], C45_0 [i + 1, j-1], C45_0 [i + 1, j + 1], etc.) as in the following ⁇ Method 1 ⁇ or ⁇ Method 2 ⁇ Addition is performed to calculate the similarity Cv [i, j] in the diagonal 45-degree direction and the similarity Ch [i, j] in the diagonal 135-degree direction of the interpolation target pixel (interpolation as shown in Figs. 6A and 6B). This is equivalent to performing weighted addition of the similarity components between the target pixel and the peripheral pixels.)
  • C135 [i, j] (4-C135_0 [i, j] + 2- (C135_0 [i-1, j-l] + C135_0 [i + l, j-1]
  • the similarity C45 [i, j] in the diagonal 45-degree direction and the similarity C135 [i, j] in the diagonal 135-degree direction have smaller similarity as the value is smaller.
  • the interpolation processing unit 17 calculates the similarity C45 [i, j] in the 45 ° diagonal direction and the similarity C135 [i ,; j] in the 135 ° diagonal direction, and calculates the similarity C45 [i, j] and the similarity C135 [i ,; j] in the diagonal 135 ° direction, based on the similarity of the pixel to be interpolated in the diagonal 45 ° direction and the diagonal 135 ° direction (hereinafter referred to as “diagonal similarity”). (Fig. 4 S7). Then, as a result of such comparison, the following values are set for the index DN [i, j] indicating the oblique similarity.
  • the interpolation processing unit 17 calculates, for an arbitrary threshold T2,
  • the threshold value T2 plays a role in preventing the erroneous determination that one similarity is strong due to the influence of noise, similarly to the threshold value T1 described above.
  • the interpolation processing unit 17 determines what value the index HV [i, j] indicating the vertical / horizontal similarity and the index DN [i, j] indicating the diagonal similarity are (FIG. 4).
  • S 11 1) The similarity of the pixel to be interpolated is classified into one of the following casel to case9.
  • FIG. 7 is a diagram illustrating the direction of strong similarity corresponding to the value of (HV [i, j], DN [i, j]).
  • the interpolation processing unit 17 calculates a green interpolation value G [i, j] in the following manner according to the above-described determination result.
  • FIG. 8 is a diagram showing the position of the color information used when calculating the green interpolation value G [i, j].
  • the color information of the pixel marked with ⁇ is the green interpolation value G [i, j] is color information that contributes to inflection information.
  • the first term is “local average information of the green component” and corresponds to the main term of Equations 1 and 2.
  • the second term is “local inflection information due to the same color component as the interpolation target pixel”
  • the third term is “local inflection information due to a color component different from the interpolation target pixel”.
  • the inflection information in the second and third terms is obtained by the second derivative of the color component.
  • the second term of Equation 44 is the difference between the color information Z [i, j] and Z [i, j-2], Z [i, j + 2] and Z [i, j ], And the difference between those differences is calculated.
  • the third term is the difference between the color information Z [i-1, j + 1] and Z [i_l,; i-1], Z [i-1, j + 3] and Z [i-1, j + 1], the difference between those differences, and the difference between the color information Z [i + 1, j-1] and Z [i + 1, j-3] and Z [i + 1, j +1] and Z [i + 1, j-1], and the difference between those differences.
  • local inflection information based on the same color component as the pixel to be interpolated is local inflection information having a directionality in the vertical direction.
  • Local inflection information due to color components that differ from Gvl35 [i, j] refers to local inflection information having directionality in the vertical direction.
  • “local inflection information due to a color component different from the interpolation target surface element” is local inflection information having directionality in the vertical and diagonal directions of 135 °, and Gh45 [i, j]
  • the “local inflection information based on the same color component as the pixel to be interpolated” is local inflection information having directionality in the horizontal direction.
  • “Song information” is local inflection information having directionality in the horizontal and oblique 45-degree directions, and “local inflection information based on the same color component as the interpolation target pixel” of Ghl35 [i, j]. Is local inflection information having directionality in the horizontal direction, and "local inflection due to a color component different from the interpolation target pixel.”
  • “Information” is local inflection information having directionality in the horizontal direction and the diagonal 135 ° direction.
  • Gv [i, j] “local inflection information based on the same color component as the interpolation target pixel” and “local inflection information based on a color component different from the interpolation target pixel” are both in the vertical direction. This is local inflection information with directionality; Gh [i, j] “local inflection information using the same color component as the interpolation target pixel” and “local inflection information using a color component different from the interpolation target pixel”. "Inflection information” is local inflection information having a directionality in the horizontal direction.
  • the local average information of the green component is referred to as “local inflection information by the same color component as the interpolation target pixel” and “local inflection information by a color component different from the interpolation target pixel”. Song information ".
  • each color component used to calculate the local inflection information of each color component is obtained from a pixel located so as to straddle a line drawn in a direction determined to have strong similarity.
  • the color information of the red component and the color information of the blue component are converted to the green component by the chromatic aberration of magnification.
  • the main term is the color component of the red component, as shown in Figure 9B.
  • the correction is made according to the average change amount between the color information and the color information of the blue component. Therefore, in the first embodiment, it is possible to correct the main term for a desired pixel even when chromatic aberration of magnification exists in the imaging optical system 12, and US Pat.
  • the over-shoot and the under-shoot generated in the G interpolation processing disclosed in the specification of Japanese Patent No. 9,734 cancel each other out. Therefore, according to the first embodiment, the occurrence of false colors due to overcorrection can be reduced.
  • overshoot may occur not only at the time of correcting the main term using the color information of the red component but also at the time of correcting the main term using the color information of the blue component. Since the value of overshoot corresponding to is averaged, it does not exceed the value of overshoot generated by the G interpolation process disclosed in US Pat. No. 5,629,734. Further, even if undershoot occurs at the time of correcting the main term based on the color information of the blue component and at the time of correcting the main term based on the color information of the red component, the value of undershoot generated in the first embodiment is the same as that of US Pat. The value does not exceed the value of undershoot generated in the G interpolation processing disclosed in the specification of Japanese Patent Application Laid-Open No. 29,734.
  • the image data to be subjected to the G interpolation processing is arranged in a bay as shown in FIGS. 2A and 2B, and the color information of the red component and the color information of the blue component are arranged. Are located obliquely to each other.For example, if the color information of the blue component exists in the interpolation target pixel, the local inflection information of the red component for which the main term is to be corrected is similar to that of the interpolation target pixel. It is calculated based on the color information of the red component located in the oblique direction with strong characteristics.
  • the green interpolation values are Z [i-1, j + 3] and Z [i + 1, j-3] in Equation 44, Z [i-1, j-3] in Equation 45, Z [i + 1, j + 3], Z [i + 3, j-1] in Equation 47, Z [i-3, j + 1] and Z [i-3, j-1 in Equation 48 ], Z [i + 3, j + 1], which is calculated using the color information of pixels located in the oblique direction away from the interpolation target pixel.
  • the interpolation processing unit 17 has a plurality of types of diagonal directions of 45 degrees and 135 degrees. By using multiple pieces of color information when calculating the similarity component of, it is possible to determine the diagonal similarity with high accuracy.
  • the accuracy of the G interpolation processing is improved by the highly accurate diagonal similarity determination.
  • the green interpolation value is calculated using Gv [i, j] or Gh [i, j] (case2, case8)
  • the pixel to be interpolated The local inflection information of the green component is used as ⁇ local inflection information by different color components, '' and the local average information of the green component is the local inflection of the red or blue component. It is corrected by the information and the local inflection information of the green component.
  • the influence of the chromatic aberration of magnification is that the shift between the red component and the green component is large, and the shift between the blue component and the green component is often small. Therefore, when the color information of the red component exists in the pixel to be interpolated, the local inflection information of the green component acts as an anti-phase component of the local inflection information of the red component, and the The generation of false colors can be reduced. In addition, when the color information of the blue component exists in the pixel to be interpolated, the influence of the magnification chromatic aberration is small, so that the false color due to the overcorrection hardly occurs.
  • the color information of the green component of the pixel to be interpolated is calculated as the average value of the color difference between those two pixels. Is used as an interpolation value.
  • the color information of the green component of the pixel to be interpolated is calculated as the average value of the color difference between those two pixels. Is used as an interpolation value.
  • the color information of the green component of the pixel to be interpolated is calculated as the average value of the color differences of those four pixels. Is used as an interpolation value.
  • the interpolation values of the color components Cb and Cr are calculated by exactly the same arithmetic processing.
  • the pixels marked with X are interpolated by the median value (median value) of the four neighboring pixels, and the pixels marked with ⁇ are the pixels of the adjacent pixels in the horizontal direction. Pixels interpolated by the average value and marked with a ⁇ are interpolated by the average value of vertically adjacent pixels.
  • the interpolation processing performed in this way is convenient for recovering the image quality level of a moving image, but is not suitable for a still image requiring high definition. That is, in the technology disclosed in US Pat. No. 5,799,113, the luminance component Y and the chrominance components Cr and Cb are treated exactly the same, so that resolution is taken. The accuracy of the interpolation value for the luminance component Y is extremely low. In addition, since the luminance component Y is interpolated by the median value, there is a high possibility that the structure of the image will be destroyed, and the possibility that false colors will expand when converted to the RGB color system will be increased.
  • the similarity between the pixel to be interpolated and the surrounding pixels as described above is used, or a plurality of color components are used.
  • G interpolation process the interpolation process of the green component corresponding to the luminance component with a high spatial frequency with extremely high precision.
  • the interpolation processing of the green component in which the high-frequency information of the image data is most easily reflected is performed with high precision, and then the interpolation processing of the red component and the blue component is performed by linear interpolation in the color difference space with respect to the green component. In this way, high-frequency information of image data is reflected in red and blue components to reduce false colors.
  • G2 indicates the color information of the green component of the original image
  • G1 and G3 indicate the green interpolation values obtained by the G interpolation processing.
  • the first embodiment proposes an RB interpolation process that can calculate red and blue interpolation values with high speed and high accuracy without leaving a false color around an isolated point and without destroying the color structure.
  • RB interpolation processing only the R interpolation processing will be described with reference to FIG.
  • the interpolation processing unit 17 subtracts the green interpolation value (the value obtained by the G interpolation processing described above) from the color information of the red component for each pixel in which the color information of the red component exists, and calculates the red component. Calculate the color difference including (Fig. 5 S1).
  • the interpolation processing unit 17 calculates a color difference Cr [i, j] including a red component at a pixel located at an arbitrary coordinate [i, j] where the color information of the red component exists.
  • the color difference including the red component is calculated in this manner.
  • the color difference including the red component is arranged so as to surround the pixel in which the color information of the red component is missing and the color information of the blue component exists from four oblique directions.
  • the interpolation processing unit 17 is configured to detect pixels whose four directions are obliquely surrounded by the color difference including the red component (in the first embodiment, the color information of the red component is missing and corresponds to the pixel in which the color information of the blue component exists). In each case, the color difference containing the red component is interpolated with the median of the color difference containing the red component in the pixels located in the oblique direction (Fig. 5, S2).
  • the interpolation processing unit 17 is located at arbitrary coordinates [m, n] surrounded in four oblique directions by a color difference including a red component.
  • the color difference including the red component is represented by the color information of the red component and the blue component. Both pixels are arranged so as to surround the missing pixel from four directions: up, down, left, and right.
  • the interpolation processing unit 17 is provided for each pixel whose four directions (up, down, left, and right) are surrounded by a color difference including a red component (corresponding to a pixel in which the color information of the red component and the blue component is missing in the first embodiment)
  • a color difference including a red component corresponding to a pixel in which the color information of the red component and the blue component is missing in the first embodiment
  • the color difference containing the red component is interpolated with the median value of the color difference containing the red component in the pixels located in the vertical and horizontal directions (Fig. 5, S3).
  • the interpolation processing unit 17 is located at arbitrary coordinates [m, n] surrounded in four directions, up, down, left, and right by a color difference including a red component.
  • Cr [m, n] median
  • the interpolation processing unit 17 calculates the expression 51 or the expression for each pixel where the color information of the red component is missing.
  • the color difference including the red component calculated in step 52 is converted to a red interpolation value using the green component color information (which may be a green interpolation value) (Fig. 5 S4).
  • the interpolation processing unit 17 calculates the red interpolation value R [m, n] of the pixel located at an arbitrary coordinate [m, n].
  • the median processing described above is performed only on the color difference representing the hue, and is not performed on the luminance component.
  • the color difference including the red component in the pixels marked with ⁇ is a value close to the result of weighting the color difference Cr located in the 3 ⁇ 5 range and performing the median process. Is shown.
  • the color difference including the red component in the pixel with the X mark is calculated using the color difference Cr located in the range of 5 ⁇ 3. Therefore, the color difference including the red component in the pixel with the mark ⁇ indicates a value close to the result of performing the median process by weighting the color difference Cr located in the 5 ⁇ 3 range.
  • the RB interpolation processing is performed after the G interpolation processing is performed.
  • Y, Cb, and Cr are represented as 4: 1: 1 as indicated by the color system of YCbCr. Since the luminance component Y remains in the perfect state in the image data thinned out, the RB interpolation processing similar to the present embodiment can be performed without performing the G interpolation processing.
  • G interpolation processing in the second embodiment is that Gv [i, j] used when calculating a green interpolation value G [i, j]. , Gv45 [i, j], Gvl35 [i, j], Gh [i, j], Gh45 [i, j] and Ghl35 [i, j] are different. Therefore, in the second embodiment, the operation flowchart of the interpolation processing unit 17 in the G interpolation processing is not illustrated.
  • the interpolation processing unit 17 determines the similarity strength of the interpolation target pixel in the same manner as in the first embodiment (corresponding to S1 to S11 in FIG. 4), and determines the similarity strength of the interpolation target pixel. Is classified into any of casel to case9 described above. Then, the interpolation processing unit 17 calculates a green interpolation value G [i, j] as follows.
  • Gv [i, j] gv [i, j] + / 3 red- 5 Rv [i, j] + ⁇ green- ⁇ ? Gv [i, j]... expression 5 4
  • Gv45 [i, j] gv [i, j] + a red- ⁇ Rv45 [i, j] + «green ⁇ S Gv [i, j J
  • Gvl35 [i, j] gv [i, j] + a red- ⁇ Rvl35 [i, j] + a green- Gv [ij]
  • Gh [i, j] gh [i, j] + / 3 red- S Rh [i, j] + / 3 green- ⁇ Gh [i, j]... Equation 5 7
  • Gh45 [i, j] gh [i, j] + a red- ⁇ Rh45 [i, j] + a green- ⁇ J Gh [i, j]
  • Ghl35 [i j] gh [i, j] + red- ⁇ Rhl35 [i, j] + a green- ⁇ Gh [i, j]
  • red, a green, a blue, red, / 3 green is 0 or a positive constant
  • a red + a green + a blue l
  • red + / 3 green l
  • Rh45 [i, j] krl (2-Z [i + 2, j-2] -Z [i, j-2] -Z [i + 4, j-2]) / 4 + kr2 (2-Z [: ii, j]-Z [i_2, j]-Z [i + 2, j]) / 4
  • Rh [i, j] krl (2-Z [i ! J-2] -Z [i-2, j-2] -Z [i + 2, j-2]) / 4
  • FIG. 13 and FIG. 7 is a diagram showing the position of color information used when calculating local inflection information of each color component. That is, the local inflection information of each color component can be obtained by weighted addition of the inflection information components calculated using the color information of the pixels belonging to the regions enclosed by the ellipses in FIGS. 13 and 14. become.
  • SRv45 [i, j] is local inflection information having directionality in the vertical direction and oblique 45 ° direction
  • SRv [i, j] is local inflection information having directionality in the vertical direction
  • Song information SRvl35 [i, j] is the local inflection coastal information with directionality in the vertical and diagonal 135 degrees
  • SRh45 [i, j] is the direction in the horizontal and diagonal 45 degrees
  • 5Rh [i, j] is the local inflection information having the directionality in the horizontal direction
  • SRhl35 [i, j] is the local inflection information having the horizontal and diagonal 135 degrees. It is local inflection information having directionality in the direction.
  • SGv [i, j] is local inflection information having directionality in the vertical direction
  • SGh [i, j] is local inflection information having directionality in the horizontal direction.
  • SBv45 [i, j] is local inflection information having directionality in the vertical and oblique 45-degree directions
  • ⁇ 5Bvl35 [i, j] is directionality in the vertical and oblique 135-degree directions
  • SBh45 [i, j] is the local inflection information having directionality in the horizontal 45 ° direction
  • SBhl35 [i, j] is This is local inflection information having directionality in the horizontal direction and in the diagonal 135 ° direction.
  • Equations 54 to 59 and Equations 62 to 67 in the second embodiment the first embodiment described above has a
  • the red component This means that the method of calculating the local inflection information is changed.
  • the local inflection information of the red component extracted from a wider area is provided with a directional low-pass filter. It is equivalent to multiplying appropriately taking into account Therefore, according to the setting of the representative example 1, the effect of reducing the overcorrection as a whole can be enhanced as compared with the first embodiment.
  • This is equivalent to setting the local inflection information of the green component that played the role of prevention as the central role of the correction term.
  • the structural information can be extracted.
  • the inflection information of the green component also includes a lot of structural information corresponding to the inflection information of the red component passing through the center.
  • the setting of the representative example 3 is equivalent to correcting with local inflection information of the same color component as the average information of the green component constituting the main term. Therefore, according to the setting of the representative example 3, overcorrection does not occur, and similarly to the setting of the representative example 2, it is not necessary to determine the similarity in the oblique direction, so that the algorithm can be simplified.
  • the inflection information of the color component which has played a role of preventing the over-correction of the local inflection information of the red component, is set as the central role of the correction term. It is equivalent to According to the setting of the representative example 4, the overcorrection due to the local inflection information of the blue component cannot be prevented, but the effect of extracting the local structural information is almost the same as that of the first embodiment. can get.
  • the overcorrection based on the local inflection information of the blue component when there is similarity in the oblique direction is corrected by the local deformation of the red It can be reduced by song information.
  • the RB interpolation process in the third embodiment can be performed in the same manner as in the first embodiment, and thus the description is omitted here.
  • a red component is included in a part of the pixels (corresponding to the pixels on which the G color filters are disposed) in which the color information of the green component exists, according to Equation 51 described above.
  • the color difference is interpolated, and the color difference including the red component between the remaining pixels in which the color information of the green component is present and the pixel in which the blue component is present is interpolated by Expression 52.
  • the pixel where the closest green component (the closest green component) exists is located in the horizontal direction of the pixel to be subjected to the G interpolation processing. Therefore, in the G interpolation processing, the calculation of the similarity and the determination of the similar direction performed in the first embodiment are unnecessary. However, the similarity may be calculated and the similar direction may be determined in the 45 ° oblique direction, the 135 ° oblique direction, and the like in which the second closest green component (the second closest green component) exists.
  • the interpolation processing unit 17 calculates a green interpolation value G [i, j] by the following equation 74. Is calculated.
  • G [i, j] (G [i-l, j] + G [i + l, j]) / 2
  • the first term is “local average information of the green component” and corresponds to the main term of Equation 1 and Equation 2.
  • the second term is “local inflection information due to the same color component as the interpolation target pixel”
  • the third term is “local inflection information due to a different color component from the interpolation target pixel”.
  • the third term is "local inflection information of the blue component”. If the color information of the blue component exists in the pixel to be interpolated (Fig. 3B), the third term is And “local inflection information of the red component”.
  • the local average information of the green component is obtained by using the local inflection information of the red component and the local inflection information of the blue component, which show phases opposite to each other.
  • the third embodiment similarly to the first embodiment, the case where the color information of the red component and the color information of the blue component are shifted from the color information of the green component due to the chromatic aberration of magnification. Even so, the main term is corrected according to the average amount of change between the color information of the red component and the color information of the blue component (see Figs. 9A and 9B). Therefore, according to the third embodiment, even when chromatic aberration of magnification exists in the imaging optical system 12, it is possible to correct a main term for a desired pixel. , 629, 73 means that the overshoot and the undershoot generated by the G interpolation process cancel each other out. Therefore, according to the third embodiment, the occurrence of false colors due to overcorrection can be reduced.
  • the RB interpolation processing in the fourth embodiment can be performed in the same manner as in the first embodiment, and thus the description is omitted here.
  • the G interpolation processing will be described, but the description of the same operation as in the first embodiment will be omitted.
  • the difference between the G interpolation processing in the fourth embodiment and the G interpolation processing in the first embodiment is that the operation after determining the similarity strength of the interpolation target pixel is different. Therefore, in the fourth embodiment, an illustration of an operation flowchart of the interpolation processing unit 17 in the G interpolation processing is omitted.
  • the interpolation processing unit 17 determines the similarity strength of the interpolation target pixel in the same manner as in the first embodiment (corresponding to S1 to S11 in FIG. 4), and determines the similarity strength of the interpolation target pixel. Is classified into any of casel to case9 described above.
  • the interpolation processing unit 17 calculates the gradient Gk [i, j] of the green component and the gradient Zk [i of the red component (or the blue component) in the direction orthogonal to the direction in which the similarity is determined to be strong. , j] are calculated as follows.
  • Gk [i, j] ((G [i-l, j] + G [i, j-l])-(G [i, j + l] + G [i + l, j])) / 2... Equation 7 5
  • the interpolation processing unit 17 calculates a green interpolation value G [i, j] as follows.
  • G [] Gvk [i, j] for easel
  • Equation 8 4 is there.
  • the first term is “local average information of the green component”, and corresponds to the main term of Equations 1 and 2.
  • the second term is a weighting factor
  • the local average information of the green component is corrected by “local inflection information by the same color component as the interpolation target pixel” multiplied by the weighting coefficient.
  • the color information of the green component and the red component are used. If the color information is given as shown by Hata in Figure 15, the slope of the green component Gk
  • the range of the value of the weighting factor is
  • the RB interpolation process in the fifth embodiment can be performed in the same manner as in the first embodiment, and thus the description is omitted here.
  • the color difference including the red component is interpolated for a part of the pixels in which the color information of the green component exists by using Equation 51, and the color difference of the green component is calculated.
  • the color difference including the red component between the remaining pixels where the color information exists and the pixels where the blue color component exists is interpolated by Expression 52.
  • the green interpolation value G [i, j] is calculated in the same manner as in case 8 of the fourth embodiment.
  • the interpolation processing unit 17 calculates the green interpolation value G [i, j] by Expression 85.
  • G [i, j] (G [i-l, j] + G [i + l, j]) / 2
  • the local average information of the green component is calculated by using the weighting coefficient (the gradient Gk [i, j] of the green component and the red component (or The value indicating the correlation with the gradient Zk [i, j] of the blue component): Gk [i, j] / Zk [i, j]) multiplied by “Local inflection in the same color component as the interpolation target pixel Information ". Therefore, according to the fifth embodiment, it is possible to reduce the occurrence of false colors due to overcorrection at a color boundary portion.
  • the inflection information of each color component is obtained by the second derivative.
  • the present invention is not limited to this.
  • the higher order derivative may be used. That is, any method may be used as long as it can determine the degree of change in the change rate of each color component.
  • FIG. 16 is a functional block diagram of the sixth embodiment.
  • components having the same functions as those in the functional block diagram shown in FIG. 1 are denoted by the same reference numerals, and the description of the configuration is omitted.
  • the difference between the configuration of the electronic camera 20 shown in FIG. 16 and the configuration of the electronic camera 10 shown in FIG. 1 is that the control unit 21 and the image processing unit 22 in FIG. This is provided in place of the section 11 and the image processing section 15, and is different in that an interface section 23 shown in FIG. 16 is newly provided.
  • the personal computer 30 includes a CPU 31, an interface section 32, a hard disk 33, a memory 34, a CD-ROM drive device 35, and a communication interface section.
  • the CPU 31 has an interface section 32, a hard disk 33, a memory 34, and a CD-ROM drive via a bus. It is connected to the device 35 and the communication interface unit 36.
  • the personal computer 30 has an interpolation processing program recorded on a recording medium such as a CD-ROM 37 (an interpolation processing program that executes the interpolation processing in the same manner as the interpolation processing section 17 of each of the above-described embodiments). ) Is pre-installed via the CD-ROM drive device 35. That is, such an interpolation processing program is stored in the hard disk 33 in an executable state.
  • a recording medium such as a CD-ROM 37
  • Is pre-installed via the CD-ROM drive device 35 Is pre-installed via the CD-ROM drive device 35. That is, such an interpolation processing program is stored in the hard disk 33 in an executable state.
  • image data generated in the same manner as in the electronic force camera 10 shown in FIG. 1 is supplied to the image processing unit 22.
  • the image processing section 22 performs image processing other than interpolation processing (for example, gradation conversion processing, etc.) on the image data, and the recording section 16 records the processed image data in the form of an image file. Is done.
  • Such an image file is supplied to the personal computer 30 via the interface unit 23.
  • the CPU 31 in the personal computer 30 acquires the image file via the interface section 32, the CPU 31 executes the above-described interpolation processing program.
  • the image data whose resolution of each color component has been increased by the interpolation processing is subjected to image compression and the like as necessary, and then recorded on a hard disk 33 or the like. Output as color system data corresponding to each connected device.
  • the same interpolation processing as in each of the above-described embodiments can be performed by the personal computer 30.
  • the interpolation processing program is provided on a CD-ROM 37 recording medium, but the recording medium is not limited to the CD-ROM. Magnetic tape II DVD and any other recording media can be used.
  • those programs can be provided via a transmission medium such as a communication line 38 represented by the Internet. That is, it is also possible to convert the program into a signal on a carrier wave that carries the transmission medium and transmit the signal.
  • the personal computer 30 in FIG. 16 also has such a function.
  • the personal computer 30 has a communication interface section 36 connected to a communication line 38.
  • the server computer 39 supplies the interpolation processing program. It is a one-bar computer, and an interpolation processing program is stored in a recording medium such as an internal hard disk.
  • the communication line 38 is a communication line such as the Internet and personal computer communication, or a dedicated communication line.
  • the communication line 38 includes a telephone line and a wireless telephone line such as a mobile phone.
  • the interpolation processing program of the present invention which is executed inside the electronic camera 10, is usually installed in a ROM (not shown) at the time of manufacture.
  • a ROM not shown
  • the ROM on which the interpolation processing program is installed is a rewritable ROM, which is connected to a computer in the same configuration as in Fig. 16, and the improved program is provided from a recording medium such as a CD-ROM via the computer. It is also possible. Furthermore, it is also possible to receive an improved program via the Internet or the like as described above.

Description

明細書 補間処理装置およぴ補間処理プログラムを記録した記録媒体 本出願は日本国特許出願平成 1 1年第 3 6 3 0 0 7号 ( 1 9 9 9年 1 2月 2 1 日出願) 、 日本国特許出願 2 0 0 0年第 2 0 4 7 6 8号 (2 0 0 0年 7月 6 日出 願) を基礎と して、 その内容は引用文と してここに組み込まれる。 技術分野
本発明は、 カラーの画像データに対し、 各々の画素に欠落する色成分や輝度成 分を補うための補間処理を行う補間処理装置および該補間処理をコンピュータで 実現させるための補間処理プログラムを記録したコンピュータ読み取り可能な記 録媒体に関する。 背景技術
電子カメラには、 3色 (R G B :赤 .緑 .青) のカラーフィル夕が所定の位置 に配置 (例えば、 べィァ配列など) された撮像素子によって、 カラーの画像デー タを生成するものがある。 このような電子カメ ラでは、 撮像素子の個々の画素か ら 1つの色成分の色情報しか出力されないため、 画素単位で全ての色成分の色情 報を得るために、 補間処理を行う必要がある。
このような補間処理の方法と しては、 補間処理の対象となる補間対象画素の空 間的な類似性を判定し、 類似性の強い方向に位置する画素から出力される色情報 を用いて補間値を算出する方法が従来から考えられている。
例えば、 米国特許第 5 , 6 2 9 , 7 3 4号明細書に開示された技術では、 補間対 象画素 (緑色成分が欠落する画素) の色情報を A 5 と し、 補間対象画素と同色の カラーフィルタが配された画素の色情報を A 1、 A 3、 A 7、 A 9 とし、 緑の力 ラーフィルタが配された画素の色情報を G 2、 G 4、 G 6、 G 8 として、 各画素 の色情報が以下のよう に配置されている状態において、 補間対象画素の緑の補間 値 G 5は、 式 1ないし式 3の何れかによって算出される。 A 1
G 2
A 3 G 4 A 5 G 6 A 7
G 8
A 9
まず、 水平方向の類似性が強い場合、 補間対象画素の緑の補間値 G 5は、
G5= (G4+G6) /2+ (-A3+2A5-A7) /4 . . .式 1 によって算出され、 垂直方向の類似 性が強い場合、 補間対象画素の緑の補間値 G 5は、
G5= (G2+G8) /2+ (-A1+2A5-A9) /4 · · .式 2によって算出され、 水平方向の類似 性と垂直方向の類似性とが同程度である場合、 補間対象画素の緑の補間値 G 5は、
G5= (G2+G4+G6+G8) /4+ (- A1- A3+4A5- A7- A9) /8 · · '式 3 によって算出される。 なお、 以下の説明を簡単にするために、 式 1および式 2の第 1項 ((G4+G6) /2、 (G2+G8) /2) を主要項と称し、 式 1およぴ式 2の第 2項 ((- A3+2A5 - A7) Z4、 (-A1 + 2A5-A9) /4) を補正項と称する。
米国特許第 5 , 6 2 9 , 7 3 4号明細書に開示された技術において、 補間処理の 対象となる画像データの類似性が水平方向に強く、 A 3、 G 4、 A 5、 G 6、 A 7が図 1 7の參印のように与えられていると仮定した場合、 A 3 と A 5 との平均 値を A 4 と し、 A 5 と A 7 との平均値を A 6 とすると、 式 1の補正項の値は、 A 4 と A 6 との平均値に対する A 5の差違を示すべク トル量 (図 1 7の に相当 する。 また、 緑の補間値 G 5は、 水平方向に隣接する画素の色情報の平均値 (式 1の主要項の値に相当する) を だけ補正した値に相当する。
すなわち、 米国特許第 5, 6 2 9 , 7 3 4号明細書に開示された技術では、 緑色 成分と補間対象画素における色成分 (赤色成分または青色成分) との色差が一定 である (図 1 7において、 (A4- G4)、 (A5 - G5)、 (A6- G6)が一致する) と仮定し、 類 似性が強い方向に隣接する画素の色情報の平均値を、 補間対象画素と同色の色情 報を用いて補正することによって、 緑の補間値を算出している。
ところで、 レンズなどの光学系には、 倍率色収差が存在することが知られてい る。 例えば、 R G Bの 3色のカラーフィルタがべィァ配列された撮像素子を備え た電子カメ ラの撮影レンズに、 倍率色収差が存在する場合、 図 1 8 B、 図 1 8 C に示すように、 赤色成分および青色成分は、 緑色成分の結像位置から、 それぞれ 少しずつずれた位置に結像する。
ところで、 撮影レンズに倍率色収差が存在しない状態で、 各画素の色情報が図 1 9 の會印のように与えられている場合 (補間処理の対象となる画像データの 類似性が水平方向に強く、 緑色成分の色情報が一定で、 赤色成分や青色成分の色 情報が補間対象画素 (A 5が存在する画素) の近傍でなだらかに変化する場合) 、 式 1の補正項の値が 0 となるため、 G 4 と G 6 との平均値 ' (主要項) は補正され ることなく緑の補間値 G 5 となる。
しかし、 A 3、 A 5、 A 7が赤色成分の色情報であり、 撮影レンズの倍率色収 差によって、 これらの赤色成分の色情報が右方向に 1画素ずつずれた場合、 各画 素の色惰報は、 図 1 9 Bのよう に変化することになる。 そのため、 このよ う な場 合、 式 1 の補正項が 0 とならず、 主要項が過剰に補正 (以下、 「過補正」 と称す る) され、 本来、 G 4や G 6 と同程度の値となるべき緑の補間値 G 5は、 G 4や G 6よ り も大きな値となる (以下、 このよ う な現象を 「overshoot」 と称する) 。 一方、 A 3、 A 5、 A 7が青色成分の色情報であり、 倍率色収差によって、 これ らの青色成分の色情報が左方向に 1画素ずつずれた場合、 各画素の色情報は、 図 1 9 Cのよう に変化することになる。 そのため、 このよう な場合、 式 1 の補正項 は 0 とならず、 本来、 G 4や G 6 と同程度の値となるべき緑の補間値 G 5は、 過 補正によって、 G 4や G 6 よ り も小さな値となる (以下、 このような現象を 「un dershoot:」 と称する) 。
すなわち、 米国特許第 5 , 6 2 9 , 7 3 4号明細書に開示された技術では、 倍率 色収差の影響によつて、 補間処理で得られた力ラー画像に偽色が発生してしまう ところで、 過補正は、 倍率色収差が存在する場合に限らず、 色差が変化する色 境界部分でも発生する。 例えば、 各画素の色情報が図 2 0 A、 図 2 0 Bのき印の ように与えられている場合 (緑色成分の色情報が一定で、 赤色成分または青色成 分の色情報が補間対象画素 (A 5が存在する画素) の近傍で急変する場合) 、 式 1の補正項は 0 とならず、 本来、 G 4や G 6 と同程度の値となるべき緑の補間値 G 5は、 過補正によつて overshootまたは undershootを生じることになる。
したがって、 色差が変化する色境界部分では、 倍率色収差が存在しない場合で あっても、 補間処理によって偽色が発生してしまう。 なお、 以上説明したような 偽色は、 緑の補間値を算出する場合に限らず、 赤や青の補間値を算出する場合に も発生し得る。 発明の開示
本発明の目的は、 偽色の発生を抑制できる補間処理装置、 および、 偽色の発生 を抑制できる補間処理プログラムを記録した記録媒体を提供することにある。 特に、 従来の補間処理における利点を失わずに瑕疵を減らし、 倍率色収差によ る影響を低減することによって、 偽色の発生を抑制することを目的とする。
上記目的を達成するために、 第 1〜第 n ( n≥ 2 ) の色成分から成る表色系で 示され、 各々の画素に 1種類の色成分の色情報が存在する画像データに対し、 第 1色成分が欠落する画素に第 1色成分の色情報に相当する補間値を決める処理を 行う、 本発明の第 1の補間処理装置は、 補間処理の対象となる補間対象画素が属 する局所的領域に位置する画素に存在する色情報を用いて、 少なく とも、
( 1 ) 補間対象画素に関する第 1色成分の局所的な平均情報と、
( 2 ) 補間対象画素に関する 2種類以上の色成分の局所的な変曲情報とで構成さ れる補間値を算出する補間値算出手段を備える。
すなわち、 第 1の補間処理装置は、 「補間対象画素に関する第 1色成分の局所 的な平均情報」 を、 「補間対象画素に関する 2種類以上の色成分の局所的な変曲 情報」 で補正することによって、 補間値を算出する。
なお、 第 1の補間処理装置において、 「補間対象画素に関する第 1色成分の局 所的な平均情報」 とは、 補間対象画像が属する局所的領域に存在する第 1色成分 の色情報の平均値や、 補間対象画像が属する局所的領域に存在する第 1色成分の 色情報の範囲に収まる値を示す。 また、 「補間対象画素に関する 2種類以上の色 成分の局所的な変曲情報」 とは、 補間対象画像が属する局所的領域に存在する 2 種類以上の色成分の色情報がどのよう に変化するかを示す情報である。 すなわち- 各色成分の局所的な変曲情報とは、 各色成分の局所的領域における変化率の変化 の程度を示す情報であり、 各色成分の値をプロッ ト して曲線 (あるいは折れ線) で表された場合、 その曲線の曲がりの変化、 曲がり具合を示す情報である (以下 同じ) 。 この情報は、 各色成分の 2次微分やさらに高次の微分などの算出によ り 求めることが可能であり、 各色成分の変化の凹凸に関する構造情報が反映された 量である。 折れ線で表された場合は、 各線分の傾きの変化を示すものと言える。 第 2の補間処理装置は、 第 1の補間処理装置において、 前記補間値算出手段は, 前記 2種類以上の色成分の局所的な変曲情報と して、
( 1 ) 補間対象画素と同一の色成分による局所的な変曲情報と、
( 2 ) 補間対象画素とは異なる色成分による局所的な変曲情報とを含む局所的な 変曲情報を算出するものである。
すなわち、 第 2の補間処理装置は、 「補間対象画素に関する第 1色成分の局所 的な平均情報」 を、 「補間対象画素と同一の色成分による局所的な変曲情報」 お よび 「補間対象画素とは異なる色成分による局所的な変曲情報」 で補正すること によって、 補間値を算出する。
なお、 第 2の補間処理装置において、 「補間対象画素と同一の色成分 (または, 補間对象画素とは異なる色成分) による局所的な変曲情報」 とは、 補間対象画像 が属する局所的領域に存在する補間対象画素と同一の色成分 (または、 補間対象 画素とは異なる色成分) の色情報がどのように変化するかを示す惰報であり、 そ の色成分の 2次微分やさらに高次の微分などの算出によ り凹凸に関する構造情報 が反映された量である。
第 1〜第 n ( n≥ 2 ) の色成分から成る表色系で示され、 各々の画素に 1種類 の色成分の色情報が存在する画像データに対し、 第 1色成分が欠落する画素に第 1色成分の色情報に相当する補間値を決める処理を行う第 3の補間処理装置は、 補間処理の対象となる補間対象画素が属する局所的領域に位置する画素に存在す る色惰報を用いて、 少なく とも、
( 1 ) 補間対象画素に関する第 1色成分の局所的な平均情報と、
( 2 ) 補間対象画素とは異なる色成分による局所的な変曲情報とで構成される補 間値を算出する補間値算出手段を備える。
すなわち、 第 3の補間処理装置は、 「補間対象画素に関する第 1色成分の局所 的な平均情報」 を、 「補間対象画素とは異なる色成分による局所的な変曲情報」 で補正することによって、 補間値を算出する。 なお、 第 3の補間処理装置において、 「補間対象画素とは異なる色成分による 局所的な変曲情報」 とは、 補間対象画像が属する局所的領域に存在する補間対象 画素とは異なる色成分の色情報がどのように変化するかを示す情報であり、 その 色成分の 2次微分やさらに高次の微分などの算出によ り凹凸に関する構造情報が 反映された量である。
第 1〜第 n ( n≥ 2 ) の色成分から成る表色系で示され、 各々の画素に 1種類 の色成分の色情報が存在する画像デ一タに対し、 第 1色成分が欠落する画素に第 1色成分の色情報に相当する補間値を決める処理を行う第 4の補間処理装置は、 補間処理の対象となる補間対象画素が属する局所的領域に位置する画素に存在す る色情報を用いて、 少なく とも、
( 1 ) 補間対象画素に関する第 1色成分の局所的な平均情報と、
( 2 ) 補間対象画素に関する第 1色成分の局所的な変曲情報とで構成される補間 値を算出する補間値算出手段を備える。
すなわち、 第 4の補間処理装置は、 「補間対象画素に関する第 1色成分の局所 的な平均情報」 を、 「補間対象画素に関する第 1色成分の局所的な変曲情報」 で 補正することによって、 補間値を算出する。
なお、 第 4の補間処理装置において、 「補間'対象画素に関する第 1色成分の局 所的な変曲情報」 とは、 補間対象画像が属する局所的領域に存在する第 1色成分 の色情報がどのように変化するかを示す情報であり、 その色成分の 2次微分やさ らに髙次の微分などの算出によ り凹凸に関する構造情報が反映された量である。 第 5の補間処理装置は、 第 1ないし第 3の何れかの補間処理装置において、 補 間対象画素と第 1色成分の色情報が存在する画素とを結ぶ少なく とも 2つの方向 に対し、 補間対象画素との類似性の強弱を判定する第 1の類似性判定手段と、 前 記第 1の類似性判定手段によつて類似性の強弱が判定される方向とは異なる少な く とも 2つの方向に対し、 補間対象画素との類似性の強弱を判定する第 2の類似 性判定手段とを備え、 前記補間値算出手段は、 前記第 1色成分の局所的な平均情 報を算出する際に用いる色情報が存在する画素の方向を、 前記第 1の類似性判定 手段による判定結果に基づいて選択し、
( 1 ) 前記局所的な変曲情報が、 「単一色成分で構成され、 前記第 1の類似性判 定手段で類似性の強弱の判定対象となる方向について方向性を有する局所的な変 曲情報」 である場合、 該局所的な変曲情報を算出する際に用いる色情報が存在す る画素の方向を該第 1の類似性判定手段による判定結果に基づいて選択し、 ( 2 ) 前記局所的な変曲情報が、 「単一色成分で構成され、 前記第 2の類似性判 定手段で類似性の強弱の判定対象となる方向について方向性を有する局所的な変 曲情報」 である場合、 該局所的な変曲情報を算出する際に用いる色情報が存在す る画素の方向を該第 2の類似性判定手段による判定結果に基づいて選択するもの である。
すなわち、 第 5の補間処理装置では、 第 1の補間処理装置の 「補間対象画素に 関する 2種類以上の色成分の局所的な変曲情報」 、 第 2 または第 3の補間処理装 置の 「補間対象画素と同一の色成分による局所的な変曲情報」 、 「補間対象画素 とは異なる色成分による局所的な変曲情報」 のうち、 「単一色成分で構成され、 第 1の類似性判定手段で類似性の強弱の判定対象となる方向について方向性を有 する局所的な変曲情報」 に相当するものについては、 第 1の類似性判定手段によ る判定結果に基づいて選択した方向に存在する画素の色情報を用いて算出し、 「単一色成分で構成され、 第 2の類似性判定手段で類似性の強弱の判定対象とな る方向について方向性を有する局所的な変曲情報」 に相当するものについては、 第 2の類似性判定手段による判定結果に基づいて選択した方向に存在する画素の 色情報を用いて算出することになる。
なお、 各々の局所的な変曲情報が、 如何なる方向に方向性を有するかの詳細は、 「発明の実施の形態」 において定義する。
このよう に、 第 5の補間処理装置によれば、 局所的な変曲情報を算出する際に 用いる色情報を補間対象画素との類似性に応じて選択することができる。 また、 第 1色成分の局所的な平均情報を算出する際に用いる色情報についても、 補間対 象画素との類似性に応じて選択することができる。
第 1〜第 n ( n≥ 2 ) の色成分から成る表色系で示され、 各々の画素に 1種類 の色成分の色情報が存在する画像データに対し、 第 1色成分が欠落する画素に第 1色成分の色情報に相当する補間値を決める処理を行う第 6の補間処理装置は、 補間処理の対象となる補間対象画素が属する局所的領域に位置する画素の色情報 を用いて、 少なく とも、 第 1項と第 2項との 2つの項で構成される補間値を算出 する補間値算出手段と、 補間対象画素と第 1色成分の色情報が存在する画素とを 結ぶ少なく とも 2つの方向に対し、 補間対象面素との類似性の強弱を判定する第 1の類似性判定手段と、 前記第 1の類似性判定手段によつて類似性の強弱が判定 される方向とは異なる少なく とも 2つの方向に対し、 補間対象画素との類似性の 強弱を判定する第 2の類似性判定手段とを備え、 前記補間値算出手段は、 前記第 1項を算出する際に用いる色情報が存在する画素の方向を、 前記第 1の類似性判 定手段による判定結果に基づいて選択し、 前記第 2項を算出する際に用いる色情 報が存在する画素の方向を、 前記第 2の類似性判定手段による判定結果に基づい て選択する。
すなわち、 第 6の補間処理装置では、 第 2の類似性判定手段によって類似性が 判定される方向が、 第 1の類似性判定手段によって類似性が判定される方向と異 なるため、 第 1項を算出する際に用いる色情報が位置する方向に限らず、 第 2項 を算出する際に用いる色情報が位置する方向も含めて、 よ り細かな方向に位置す る画素の色情報を用いることができる。
したがって、 第 6の補間処理装置によれば、 細かく分けられた複数の方向に位 置する画素の色情報を用いて、 補間値を算出することができる。 また、 第 6の補 間処理装置では、 類似性が強い方向に位置する画素の色情報を用いたり、 複数の 方向に位置する画素の色情報を類似性の強弱に応じて加重合成するなどによって, 第 1項および第 2項を算出することができる。
第 7の補間処理装置は、 第 6の補間処理装置において、 前記補間値算出手段は、 前記第 1項と して、
( a ) 補間対象画素に関する第 1色成分の局所的な平均情報と、
( b ) 単一色成分で構成され、 前記第 1の類似性判定手段で類似性の強弱の判定 対象となる方向について方向性を有する局所的な変曲情報とを含む項を算出し、 前記第 2項と して、 単一色成分で構成され、 前記第 2の類似性判定手段で類似性 の強弱の判定対象となる方向について方向性を有する局所的な変曲情報を含む項 を算出するものである。
すなわち、 第 7の補間処理装置は、 「補間対象画素に関する第 1色成分に関す る平均情報」 を、 「単一色成分で構成され、 第 1の類似性判定手段で類似性の強 弱の判定対象となる方向について方向性を有する局所的な変曲情報」 と 「単一色 成分で構成され、 第 2の類似性判定手段で類似性の強弱の判定対象となる方向に ついて方向性を有する局所的な変曲情報」 とで補正することによって、 補間値を 算出する。
なお、 各々の局所的な変曲情報が、 如何なる方向に方向性を有するかの詳細は、 「発明の実施の形態」 において定義する。
第 8の補間処理装置は、 第 5または第 7の補間処理装置において、 画像データ が第 1〜第 3の色成分から成る表色系で示され、 第 1色成分が第 2色成分おょぴ 第 3色成分に比べて空間周波数が高く、 第 1色成分が市松模様状に配置されると 共に、 第 2色成分および第 3色成分がそれぞれ第 1色成分の間に線順次に配置さ れ、 補間対象画素に第 2色成分が存在する場合、 前記第 1の類似性判定手段は、 補間対象画素と補間対象画素に最も近接する第 1色成分が存在する画素とを結ぶ 縦横 2方向に对する補間対象画素の類似度を算出し、 該類似度の差異に基づいて、 該縦横 2方向に対する補間対象画素の類似性の強弱を判定し、 前記第 2の類似性 判定手段は、 補間対象画素と補間対象画素に最も近接する第 3色成分が存在する 画素とを結ぶ斜め 2方向に対する補間対象画素の類似度を算出し、 該類似度の差 異に基づいて、 該斜め 2方向に対する補間対象画素の類似性の強弱を判定し、 前 記補間値算出手段は、 「単一色成分で構成され、 前記第 1の類似性判定手段で類 似性の強弱の判定対象となる方向について方向性を有する局所的な変曲情報」 を- 第 2色成分と第 1色成分との少なく とも一方に対応させ、 「単一色成分で構成さ れ、 前記第 2の類似性判定手段で類似性の強弱の判定対象となる方向について方 向性を有する局所的な変曲情報」 を、 第 2色成分と第 3色成分との少なく とも一 方に対応させるものである。
ただし、 各々の局所的な変曲情報が、 如何なる方向に方向性を有するかの詳細 は、 「発明の実施の形態」 において定義する。
第 8の補間処理装置では、 第 1の類似性判定手段で類似性の強弱の判定対象と なる縦横 2方向について方向性を有する色成分は、 第 2色成分と第 1色成分とで あり、 第 2の類似性判定手段で類似性の強弱の判定対象となる斜め 2方向につい て方向性を有する色成分は、 第 2色成分と第 3色成分とである。
したがって、 第 5または第 7の補間処理装置における 「単一色成分で構成され、 第 1の類似性判定手段で類似性の強弱の判定対象となる方向について方向性を有 する局所的な変曲情報」 は、 第 1の類似性判定手段による判定結果に基づいて、 第 2色成分と第 1色成分との少なく とも一方に関して算出され、 「単一色成分で 構成され、 第 2の類似性判定手段で類似性の強弱の判定対象となる方向について 方向性を有する局所的な変曲情報」 は、 第 2の類似性判定手段による判定結果に 基づいて、 第 2色成分と第 3色成分との少なく とも一方に関して算出されること になる。
また、 第 8の補間処理装置では、 「第 2の類似性判定手段で類似性の強弱の判 定対象となる方向について類似性を示す色成分による局所的な変曲情報」 を算出 する際に、 斜め方向の類似性が確実に反映される。
第 9の補間処理装置は、 第 8の補間処理装置において、 前記補間値算出手段は, 前記局所的な変曲情報が、 「補間対象画素とは異なる色成分による局所的な変曲 情報」 である場合、 該局所的な変曲情報を、 第 1色成分に対応させるか、 第 3色 成分に対応させるかを、 前記第 2の類似性判定手段によって判定された類似性の 強弱に応じて切り替えるものである。
ところで、 第 9の補間処理装置では、 第 3色成分は補間対象画素の斜め 2方向 に隣接する画素に存在し、 第 2の類似性判定手段によつて判定される類似性は斜 め 2方向に対する補間対象画素の類似性である。
すなわち、 第 9の補間処理装置によれば、 「補間対象画素とは異なる色成分に よる局所的な変曲情報」 を、 第 1色成分に対応させるか第 3色成分に対応させる か切り替えることによって、 斜め方向の類似性を 「補間対象画素とは異なる色成 分による局所的な変曲情報」 に反映することができる。
第 1 0の補間処理装置は、 第 9の補間処理装置において、 前記補間値算出手段 は、 前記第 2の類似性判定手段によって、 前記斜め 2方向の類似性が同程度であ ると判定された場合、 第 1色成分による局所的な変曲情報を算出し、 該斜め 2方 向の類似性のうち、 一方の斜め方向の類似性が他方の斜め方向の類似性よ り も強 いと判定された場合、 第 3色成分による局所的な変曲情報を算出するものであるお すなわち、 第 1 0の補間処理装置によれば、 「補間対象画素とは異なる色成分 による局所的な変曲情報」 を算出する際に、 斜め方向の類似性が確実に反映され る。
第 1 1の補間処理装置は、 第 8の補間処理装置において、 前記第 1の類似性判 定手段は、 前記縦横 2方向の類似度の差異が所定の閾値よ り も小さい場合、 該縦 横 2方向の類似性が同程度であると判定し、 前記第 2の類似性判定手段は、 前記 斜め 2方向の類似度の差異が所定の閾値よ り も小さい場合、 該斜め 2方向の類似 性が同程度であると判定するものである。
したがって、 第 1 1の補間処理装置によれば、 縦横 2方向の類似性や斜め 2方 向の類似性を判定する際のノイズの影響を低減することができる。
第 1 2の補間処理装置は、 第 8の補間処理装置において、 前記第 1の類似性判 定手段は、 1つの補間対象画素につき、 前記縦横 2方向の類似度を複数の色成分 の色情報を用いて算出し、 前記第 2の類似性判定手段は、 1つの補間対象画素に つき、 前記斜め 2方向の類似度を複数の色成分の色情報を用いて算出するもので ある。
すなわち、 第 1 2の補間処理装置によれば、 縦横 2方向の類似性や斜め 2方向 の類似性を判定する際に複数の色成分の色情報が反映される。
第 1 3の補間処理装置は、 第 1 2の補間処理装置において、 前記第 2の類似性 判定手段は、 前記斜め 2方向の各々の方向毎に、
( 1 ) 第 1色成分のみの色情報から成る類似度成分と、
( 2 ) 第 2色成分のみの色情報から成る類似度成分と、
( 3 ) 第 3色成分のみの色情報から成る類似度成分と、
( 4 ) 第 2色成分および第 3色成分の色情報から成る類似度成分とを加重加算し て、 各々の方向の類似度を算出するものである。
第 1 3の補間処理装置は、 第 1 2の補間処理装置において、 前記第 2の類似性 判定手段は、 前記斜め 2方向の各々の方向毎に、
( 1 ) 第 1色成分のみの色情報から成る類似度成分と、
( 2 ) 第 2色成分のみの色情報から成る類似度成分と、
( 3 ) 第 3色成分のみの色情報から成る類似度成分と、 ( 4 ) 第 2色成分およぴ第 3色成分の色情報から成る類似度成分とを加重加算し て、 各々の方向の類似度を算出するものである。
すなわち、 第 1 3の補間処理装置によれば、 斜め 2方向の類似性を判定する際 に、 複数の色成分の色情報が確実に反映される。
第 1 4の補間処理装置は、 第 8の補間処理装置において、 前記第 1の類似性判 定手段は、 各々の画素における縦横 2方向に対する類似度を算出し、 補間対象画 素のみならず周辺画素の類似度の差異に基づいて、 補間対象画素の縦横 2方向に 対する類似性を判定し、 前記第 2の類似性判定手段は、 各々の画素における斜め 2方向に対する類似度を算出し、 補間対象画素のみならず周辺画素の類似度の差 異に基づいて、 補間対象画素の斜め 2方向に対する類似性を判定するものである ( すなわち、 第 1 4の補間処理装置によれば、 縦横 2方向の類似性や斜め 2方向 の類似性を判定する際に周辺画素との連続性が反映される。
第 1〜第 n ( n≥ 2 ) の色成分から成る表色系で示され、 各々の画素に 1種類 の色成分の色情報が存在する画像データに対し、 第 1色成分が欠落する画素に第 1色成分の色情報に相当する補間値を決める処理を行う第 1 5の補間処理装置は- 補間処理の対象となる補間対象画素が属する局所的領域に位置する画素に存在す る色成分の色情報を用いて、 補間対象画素に関する第 1色成分の平均情報を表す 第 1項を算出する第 1項算出手段と、 補間対象画素が属する局所的領域に位置す る画素に存在する色成分の色情報を用いて、 補間対象画素に関して補間対象画素 と同一の色成分による局所的な変曲情報を表す第 2項を算出する第 2項算出手段 と、 補間対象画素が属する局所的領域に位置する画素に存在する複数の色成分の 色情報から成る加重係数を前記第 2項に掛けて、 前記第 1項と加算することによ つて、 補間値を算出する補間値算出手段とを備える。
すなわち、 第 1 5の補間処理装置は、 補間対象画素が属する局所的領域に位置 する画素に存在する複数の色成分の色情報から成る加重係数を掛けた 「補間対象 画素に関して補間対象画素と同一の色成分による局所的な変曲情報」 で、 「補間 対象画素に関する第 1色成分の平均情報」 を補正することによって、 補間値を算 出する。
第 1 6の補間処理装置は、 第 1 5の補間処理装置において、 前記補間値算出手 段は、 補間対象画素および補間対象画素に対して予め決められた方向に位置する 複数の画素に存在する複数の色成分の色情報を用い、 各々の色成分別に該方向に 対する色情報の傾きを求め、 該色成分別の色情報の傾きの相関に応じて前記加重 係数を算出するものである。
すなわち、 第 1 6の補間処理装置では、 「補間対象画素に関する第 1色成分の 平均情報」 が加重係数を掛けた 「補間対象画素に関して補間対象画素と同一の色 成分による局所的な変曲情報」 で補正されるが、 加重係数は補間対象画素が属す る局所的領域における色成分別の色情報の傾きの相関に応じて算出される。 輝度成分と色成分とから成る表色系で示され、 輝度成分の空間周波数が色成分 の空間周波数よ り も高く、 色成分の存在する画素と色成分が欠落する画素との両 方に輝度成分が存在する画像データに対し、 色成分が欠落する画素に色成分を補 うための処理を行う第 1 7の補間処理装置は、 補間処理の対象となる補間対象画 素の近傍に位置して輝度成分と色成分とが存在する複数の画素の色相値を、 各々 の画素の輝度成分と色成分とを用いて算出する色相値算出手段と、 前記色相値算 出手段で算出された複数の画素の色相値の中央値によって、 補間対象画素の色相 値を算出する色相値補間手段と、 補間対象画素に存在する輝度成分を用いて、 前 記色相値補間手段で算出された補間対象画素の色相値を色成分に変換して、 補間 対象画素の色成分を補間する色変換手段とを備える。
すなわち、 第 1 7の補間処理装置では、 補間対象画素の色相値は、 補間対象画 素の近傍に位置する複数の画素の色相値の中央値によって算出される。
輝度成分と色成分とから成る表色系で示され、 輝度成分の空間周波数が色成分 の空間周波数よ り も高く、 1画素につき輝度成分と色成分との何れか一方が存在 する画像データに対し、 輝度成分が欠落する画素に輝度成分を補い色成分が欠落 する画素に色成分を補うための処理を行う第 1 8の補間処理装置は、 「輝度成分 の補間処理の対象となる輝度成分補間対象画素と輝度成分補間対象画素の近傍に 位置する画素との類似性」 と 「輝度成分補間対象画素が属する局所的領域内の複 数の色成分」 との少なく とも一方を利用して、 輝度成分補間対象画素の輝度成分 を補間する輝度成分補間手段と、 色成分の補間処理の対象となる補間対象画素の 近傍に位置し、 色成分が存在して前記輝度成分補間手段によって輝度成分が補間 された複数の画素の色相値を、 各々の画素の輝度成分と色成分とを用いて算出す る色相値算出手段と、 前記色相値算出手段で算出された複数の画素の色相値の中 央値によって、 補間対象画素の色相値を算出する色相値補間手段と、 補間対象画 素に存在する輝度成分を用いて、 前記色相値補間手段で算出された補間対象面素 の色相値を色成分に変換して、 補間対象画素の色成分を補間する色変換手段とを 備える。
すなわち、 第 1 8の補間処理装置では、 補間対象画素の色相値は、 補間対象画 素の近傍に位置する複数の画素の色相値の中央値によって算出される。
第 1 9の補間処理装置は、 第 1 7または第 1 8の補間処理装置において、 画像 データの輝度成分が緑色成分に対応し、 画像デ—タの色成分が赤色成分と青色成 分とに対応する場合、 前記色相値補間手段は、 補間対象画素に緑色成分が存在し て赤色成分が欠落する場合、 補間対象画素の近傍に位置する画素の赤色成分を含 む色相値の中央値によって補間対象画素の色相値を算出し、 補間対象画素に緑色 成分が存在して青色成分が欠落する場合、 補間対象画素の近傍に位置する画素の 青色成分を含む色相値の中央値によつて補間対象画素の色相値を算出するもので ある。
すなわち、 第 1 9の補間処理装置では、 緑色成分が存在して赤色成分が欠落す る補間対象画素の色相値は、 補間対象画素の近傍に位置する画素の赤色成分を含 む色相値の中央値によって算出され、 緑色成分が存在して青色成分が欠落する補 '間対象画素の色相値は、 補間対象画素の近傍に位置する画素の青色成分を含む色 相値の中央値によつて算出される。
第 2 0の補間処理装置は、 第 1 7または第 1 8の補間処理装置において、 画像 データの輝度成分が緑色成分に対応し、 画像データの色成分が赤色成分と青色成 分とに対応する場合、 前記色相値補間手段は、 補間対象画素に青色成分が存在し て赤色成分が欠落する場合、 補間対象画素の近傍に位置する画素の赤色成分を含 む色相値の中央値によって補間対象画素の色相値を算出するものである。
すなわち、 第 2 0の補間処理装置では、 青色成分が存在して赤色成分が欠落す る補間対象画素の色相値は、 補間対象画素の近傍に位置する画素の赤色成分を含 む色相値の中央値によって算出される。 第 2 1の補間処理装置は、 第 1 7または第 1 8の補間処理装置において、 画像 データの輝度成分が緑色成分に対応し、 画像データの色成分が赤色成分と青色成 分とに対応する場合、 前記色相値補間手段は、 補間対象画素に赤色成分が存在し て青色成分が欠落する場合、 補間対象画素の近傍に位置する画素の青色成分を含 む色相値の中央値によつて補間対象画素の色相値を算出するものである。
すなわち、 第 2 1の補間処理装置では、 赤色成分が存在して青色成分が欠落す る補間対象画素の色相値は、 補間対象画素の近傍に位置する画素の青色成分を含 む色相値の中央値によつて算出される。
第 2 2の補間処理装置は、 第 1 7ないし第 2 1の何れかの補間処理装置におい て、 補間対象画素に欠落する色成分が、 縦横対称に配置された 4画素のうち 1画 素のみに存在する場合、 前記色相値補間手段は、 補間対象画素の斜め方向に隣接 する複数の斜め隣接面素の色相値が前記色相値算出手段によって算出されている 場合、 該斜め隣接画素の色相値の中央値によって補間対象画素の色相値を算出す る第 1の色相値補間部と、 補間対象画素の縦方向と横方向とに隣接する複数の縦 横隣接画素の色相値が前記色相値算出手段または前記第 1の色相値補間部によつ て算出されている場合、 該縦横隣接画素の色相値の中央値によつて補間対象画素 の色相値を算出する第 2の色相値補間部とを備えるものである。
すなわち、 第 2 2の補間処理装置では、 斜め隣接画素の色相値が算出されてい る場合には、 斜め隣接画素の色相値の中央値によって補間対象画素の色相値を算 出し、 縦横隣接画素の色相値が算出されている場合には、 縦横隣接画素の色相値 の中央値によつて補間対象画素の色相値を算出するものである。
本発明の第 1の記録媒体は、 第 1〜第 n ( n≥ 2 ) の色成分から成る表色系で 示され、 各々の画素に 1種類の色成分の色情報が存在する画像データに対し、 第 1色成分が欠落する画素に第 1色成分の色情報に相当する補間値を決める処理を コンピュータで実現するための補間処理プログラムを記録し、 該補間処理プ口グ ラムは、 補間処理の対象となる補間対象画素が属する局所的領域に位置する画素 に存在する色情報を用いて、 少なく とも、
( 1 ) 補間対象画素に関する第 1色成分の局所的な平均情報と、
( 2 ) 補間対象画素に関する 2種類以上の色成分の局所的な変曲情報とで構成さ れる補間値を算出する補間値算出手順を有する。
すなわち、 第 1 の記録媒体の補間処理プログラムは、 「補間対象画素に関する 第 1色成分の局所的な平均情報」 を、 「補間対象画素に関する 2種類以上の色成 分の局所的な変曲情報」 で補正することによって、 補間値を算出する。
第 2の記録媒体は、 第 1〜第 n ( n ≥ 2 ) の色成分から成る表色系で示され、 各々の画素に 1種類の色成分の色情報が存在する画像データに対し、 第 1色成分 が欠落する画素に第 1色成分の色情報に相当する補間値を決める処理をコンピュ ータで実現するための補間処理プログラムを記録し、 該補間処理プログラムは、 補間処理の対象となる補間対象画素が属する局所的領域に位置する画素に存在す る色情報を用いて、 少なく とも、
( 1 ) 補間対象画素に関する第 1色成分の局所的な平均情報と、
( 2 ) 補間対象画素とは異なる色成分による局所的な変曲情報とで構成される補 間値を算出する補間値算出手順を有する。
すなわち、 第 2の記録媒体の補間処理プログラムは、 「補間対象画素に関する 第 1色成分の局所的な平均情報」 を、 「補間対象画素とは異なる色成分による局 所的な変曲情報」 で補正することによって、 補間値を算出する。
第 3の記録媒体は、 第 1 〜第 n ( n ≥ 2 ) の色成分から成る表色系で示され、 各々の画素に 1種類の色成分の色情報が存在する画像データに対し、 第 1色成分 が欠落する画素に第 1色成分の色情報に相当する補間値を決める処理をコンピュ 一タで実現するための補間処理プログラムを記録し、 該補間処理プログラムは、 補間処理の対象となる補間対象画素が属する局所的領域に位置する画素に存在す る色情報を用いて、 少なく とも、
( 1 ) 補間対象画素に関する第 1色成分の局所的な平均情報と、
( 2 ) 補間対象画素に関する第 1色成分の局所的な変曲情報とで構成される補間 値を算出する補間値算出手順を有する。
すなわち、 第 3の記録媒体の補間処理プログラムは、 「補間対象画素に関する 第 1色成分の局所的な平均情報」 を、 「補間対象画素に関する第 1色成分の局所 的な変曲情報」 で補正することによって、 補間値を算出する。
第 4の記録媒体は、 第 1〜第 n ( n ≥ 2 ) の色成分から成る表色系で示され、 各々の画素に 1種類の色成分の色情報が存在する画像データに対し、 第 1色成分 が欠落する画素に第 1色成分の色情報に相当する補間値を決める処理をコンピュ 一夕で実現するための補間処理プログラムを記録し、 該補間処理プログラムは、 補間処理の対象となる補間対象画素が属する局所的領域に位置する画素の色情報 を用いて、 少なく とも、 第 1項と第 2項との 2つの項で構成される補間値を算出 する補間値算出手順と、 補間対象画素と第 1色成分の色情報が存在する画素とを 結ぶ少なく とも 2つの方向に対し、 補間対象画素との類似性の強弱を判定する第
1の類似性判定手順と、 前記第 1の類似性判定手順によつて類似性の強弱が判定 される方向とは異なる少なく とも 2つの方向に対し、 補間対象画素との類似性の 強弱を判定する第 2の類似性判定手順とを有し、 前記補間値算出手順は、 前記第
1項を算出する際に用いる色情報が存在する面素の方向を、 前記第 1の類似性判 定手順による判定結果に基づいて選択し、 前記第 2項を算出する際に用いる色情 報が存在する画素の方向を、 前記第 2の類似性判定手順による判定結果に基づい て選択する。
すなわち、 第 4の記録媒体の補間処理プログラムでは、 第 2の類似性判定手順 によつて類似性が判定される方向が、 第 1 の類似性判定手順によつて類似性が判 定される方向と異なるため、 第 1項を算出する際に用いる色惰報が位置する方向 に限らず、 第 2項を算出する際に用いる色情報が位置する方向も含めて、 よ り細 かな方向に位置する画素の色情報を用いることができる。
第 5の記録媒体は、 第 1 〜第 n ( n≥ 2 ) の色成分から成る表色系で示され、 各々の画素に 1種類の色成分の色情報が存在する画像データに対し、 第 1色成分 が欠落する画素に第 1色成分の色情報に相当する補間値を決める処理をコンピュ ータで実現するための補間処理プログラムを記録し、 該補間処理プログラムは、 補間処理の対象となる補間対象画素が属する局所的領域に位置する画素に存在す る色成分の色情報を用いて、 補間対象画素に関する第 1色成分の平均情報を表す 第 1項を算出する第 1項算出手順と、 補間対象画素が属する局所的領域に位置す る画素に存在する色成分の色情報を用いて、 補間対象画素に関して補間対象画素 と同一の色成分による局所的な変曲情報を表す第 2項を算出する第 2項算出手順 と、 補間対象画素が属する局所的領域に位置する画素に存在する複数の色成分の 色情報から成る加重係数を前記第 2項に掛けて、 前記第 1項と加算することによ つて、 補間値を算出する補間値算出手順とを有する。
すなわち、 第 5の記録媒体の補間処理プログラムは、 補間対象画素および補間 対象画素が属する局所的領域に位置する画素に存在する複数の色成分の色情報か ら成る加重係数を掛けた 「補間対象画素に関して補間対象画素と同一の色成分に よる局所的な変曲情報」 で、 「補間対象画素に関する第 1色成分の平均情報」 を 補正することによって、 補間値を算出する。
第 6の記録媒体は、 輝度成分と色成分とから成る表色系で示され、 輝度成分の 空間周波数が色成分の空間周波数よ り も高く、 色成分の存在する画素と色成分が 欠落する画素との両方に輝度成分が存在する画像データに対し、 色成分が欠落す る画素に色成分を補う処理をコンピュータで実現するための補間処理プログラム を記録し、 該補間処理プログラムは、 補間処理の対象となる補間対象画素の近傍 に位置して輝度成分と色成分とが存在する複数の画素の色相値を、 各々の画素の 輝度成分と色成分とを用いて算出する色相値算出手順と、 前記色相値算出手順で 算出された複数の画素の色相値の中央値によって、 補間対象画素の色相値を算出 する色相値補間手順と、 補間対象画素に存在する輝度成分を用いて、 前記色相値 補間手順で算出された補間対象画素の色相値を色成分に変換して、 補間対象画素 の色成分を補間する色変換手順とを有する。
すなわち、 第 6の記録媒体の補間処理プログラムでは、 補間対象画素の色相値 は、 補間対象画素の近傍に位置する複数の画素の色相値の中央値によって算出さ れる。
第 7の記録媒体は、 輝度成分と色成分とから成る表色系で示され、 輝度成分の 空間周波数が色成分の空間周波数よ り も高く、 1画素につき輝度成分と色成分と の何れか一方が存在する画像データに対し、 輝度成分が欠落する画素に輝度成分 を補い色成分が欠落する画素に色成分を補う処理をコンピュータで実現するため の補間処理プログラムを記録し、 該補間処理プログラムは、 「辉度成分の補間処 理の対象となる輝度成分補間対象面素と輝度成分補間対象画素の近傍に位置する 画素との類似性」 と 「輝度成分補間対象画素が属する局所的領域内の複数の色成 分」 との少なく とも一方を利用して、 輝度成分補間対象画素の輝度成分を補間す る輝度成分補間手順と、 色成分の補間処理の対象となる補間対象画素の近傍に位 置し、 色成分が存在して前記輝度成分補間手順によつて輝度成分が補間された複 数の画素の色相値を、 各々の画素の輝度成分と色成分とを用いて算出する色相値 算出手順と、 前記色相値算出手順で算出された複数の画素の色相値の中央値によ つて、 補間対象画素の色相値を算出する色相値補間手順と、 補間対象画素に存在 する輝度成分を用いて、 前記色相値補間手順で算出された補間対象画素の色相値 を色成分に変換して、 補間対象画素の色成分を補間する色変換手順とを有する。 すなわち、 第 7の記録媒体の補間処理プログラムでは、 補間対象画素の色相値 は、 補間対象画素の近傍に位置する複数の画素の色相値の中央値によって算出さ れる。
なお、 第 1〜第 7の記録媒体の補間処理プログラムは、 第 1、 第 3、 第 4、 第 6、 第 1 5、 第 1 7、 第 1 9の補間処理装置をコンピュータ上で実現するもので ある。 第 2、 第 5、 第 7〜第 1 4、 第 1 6、 第 1 8、 第 2 0〜第 2 2の補間処理 装置も、 同様に、 記録媒体に記録された補間処理プログラムによ り実現すること が可能である。 なお、 これらの補間処理プログラムはインターネッ トなどの通信 回線を通じてコンピュータに提供すること も可能である。
上述したよう に、 第 1の補間処理装置および第 1の記録媒体の補間処理プログ ラムは、 「補間対象画素に関する第 1色成分の局所的な平均情報」 を、 「補間対 象画素に関する 2種類以上の色成分の局所的な変曲情報」 で補正することによつ て補間値を算出し、 第 2の補間処理装置は、 「補間対象画素に関する第 1色成分 の局所的な平均情報」 を、 「補間対象画素と同一の色成分による局所的な変曲情 報」 および 「補間対象画素とは異なる色成分による局所的な変曲情報」 で補正す ることによって補間値を算出する。
そのため、 第 1、 第 2の補間処理装置、 第 1の記録媒体の補間処理プログラム によれば、 過補正による偽色の発生を低減することができる。
第 3の補間処理装置およぴ第 2の記録媒体の補間処理プログラムは、 「補間対 象画素に関する第 1色成分の局所的な平均情報」 を、 「補間対象画素とは異なる 色成分による局所的な変曲情報」 で補正することによって補間値を算出する。 第 4の補間処理装置および第 3の記録媒体の補間処理プログラムは、 「補間対象画 素に関する第 1色成分の局所的な平均情報」 を、 「補間対象画素に関する第 1色 成分の局所的な変曲情報」 で補正することによって補間値を算出する。
そのため、 第 3、 第 4の補間処理装置、 第 2、 第 3の記録媒体の補間処理プロ グラムによれば、 構造情報を確実に抽出することができる。 さらに、 第 4の補間 処理装置、 第 3の記録媒体の補間処理プログラムでは、 偽色が発生することがな 第 5ないし第 1 0の補間処理装置、 第 4の記録媒体の補間処理プログラムでは、 複数の方向に存在する画素の色情報を補間対象画素との類似性に応じて用い、 補 間値を算出する。 特に、 第 8ないし第 1 0の補間処理装置では、 斜め方向の類似 性が補間値に反映される。
そのため、 第 5ないし第 1 0の補間処理装置、 第 4の記録媒体の補間処理プロ グラムによれば、 画像の構造を損なう ことなく、 補間値を算出することができる 第 1 1の補間処理装置では、 類似性を判定する際のノイズの影響を低減するこ とができ、 第 1 2および第 1 3の補間処理装置では、 類似性を判定する際に複数 の色成分の色情報が反映され、 第 1 4の補間処理装置では、 類似性を判定する際 に周辺画素との連続性が反映される。
したがって、 第 1 1 ないし第 1 4の補間処理装置によれば、 類似性の判定の精 度を向上することができる。
第 1 5、 第 1 6の補間処理装置、 第 5の記録媒体の補間処理プログラムでは、 「補間対象画素に関する第 1色成分の平均情報」 を、 加重係数を掛けた 「補間対 象画素に関して補間対象画素と同一の色成分による局所的な変曲情報」 で補正す ることによって、 補正の方向や補正の幅を、 加重係数によって調整することがで きる。 特に、 第 1 5の補間処理装置では、 加重係数が補間対象画素が属する局所 的領域における色成分別の色情報の傾きの相関に応じて算出されるため、 このよ うな相関によって、 「補間対象画素に関する第 1色成分の平均情報」 を補正する 際の補正の方向や補正の幅を調整することができる。
したがって、 第 1 5、 第 1 6の補間処理装置、 第 5の記録媒体の補間処理プロ グラムによれば、 色境界部分における過補正による偽色の発生を低減することが できる。 第 1 7ないし第 2 2の補間処理装置、 第 6、'第 7の記録媒体の補間処理プログ ラムでは、 補間対象画素の色相値を、 補間対象画素の近傍に位置する複数の画素 の色相値の中央値によつて算出できる。
したがって、 第 1 7ないし第 2 2の補間処理装置、 第 6、 第 7の記録媒体の補 間処理プログラムによれば、 孤立点の周辺における偽色の発生を低減することが できる。 また、 従来の補間処理 (R B補間処理と median処理とを合わせた処理) と比べて、 色構造を破壊することなく、 高速に補間値を算出することができる。 図面の簡単な説明
図 1は、 第 1の実施形態ないし第 5の実施形態に対応する電子カメラの機能ブ ロック図である。
図 2 A、 2 Bは、 第 1の実施形態、 第 2の実施形態、 第 4の実施形態における 画像データの色成分の配列を示す図である。
図 3 A、 3 Bは、 第 3の実施形態おょぴ第 5の実施形態における画像データの 色成分の配列を示す図である。
図 4は、 第 1の実施形態における補間処理部の動作フローチャート ( 1 ) であ る 0
図 5は、 第 1の実施形態における補間処理部の動作フローチャート (2) であ る。
図 6 A、 6 Bは、 類似度成分の加重加算を説明する図である。
図 7は、 (HV[i, j],DN[i, j])の値に対応する類似性の強い方向を示す図である。 図 8は、 緑の補間値 G[i,j]を算出する際に用いる色情報の位置を示す図である < 図 9 A、 9 Bは、 倍率色収差の影響が解消される様子を説明する図である。 図 1 0 A〜 1 0 Cは、 従来の median処理を説明する図である。
図 1 1 A、 1 I Bは、 第 1の実施形態における median処理の動作を説明する図 である。
図 1 2 A、 1 2 Bは、 第 1の実施形態における median処理の範囲を説明する図 である。
図 1 3は、 局所的な変曲情報を算出する際に用いる色情報の位置を示す図であ る。
図 1 4は、 局所的な変曲情報を算出する際に用いる色情報の位置を示す図 (続 き) である。
図 1 5は、 第 4の実施形態における加重係数の役割を説明する図である。
図 1 6は、 第 6の実施形態における機能ブロック図である。
図 1 7は、 従来の補間処理の例を説明する図である。
図 1 8 A〜 1 8 Cは、 倍率色収差の影響を説明する図である。
図 1 9 A〜 1 9 Cは、 倍率色収差による過補正を説明する図である。
図 2 0 A、 2 O Bは、 色境界部分における過補正の影響を示す図である。 発明を実施するための最良の形態
以下、 図面に基づいて、 本発明の実施形態について詳細を説明する。 図 1は、 第 1 の実施形態ないし第 5の実施形態に対応する電子カメ ラの機能プロック図で める。
図 1 において、 電子カメ ラ 1 0は、 制御部 1 1、 撮影光学系 1 2、 撮像部 1 3 - A / D変換部 1 4、 画像処理部 1 5およぴ記録部 1 6を有する。 また、 画像処理 部 1 5は、 補間処理部 (例えば、 補間処理専用の 1チップ . マイクロプロセッ サ) 1 7を有する。 さらに、 撮像部 1 3は、 R G Bのカラ一フィルタがべィァ配 列された撮像素子 (図示省略) を有している。
なお、 図 1 では、 説明を簡単にするため、 画像処理部 1 5内に補間処理部 1 7 のみを記載しているが、 画像処理部 1 5内には、 例えば、 階調変換処理など他の 画像処理を行う機能プロックが設けられても良い。
図 1 において、 制御部 1 1 は、 撮像部 1 3、 A / D変換部 1 4、 画像処理部 1 5および記録部 1 6に接続される。 また、 撮影光学系 1 2で取得された光学像は- 撮像部 1 3内の撮像素子に結像する。 撮像部 1 3の出力は、 A Z D変換部 1 4に よって量子化され、 画像データと して画像処理部 1 5に供給される。 画像処理部 1 5に供給された画像データは、 補間処理部 1 7によつて補間処理が施され、 必 要に応じて画像圧縮を行ってから、 記録部 1 6 を介して記録される。 補間処理に よ り各色成分の解像度が高められた画像データは、 最終的にディスプレイ、 プリ ンタなど各接続機器に応じた表色系画像データとして出力される。
図 2 A、 図 2 Bは、 第 1の実施形態、 第 2の実施形態、 第 4の実施形態におけ る画像データの色成分の配列を示す図であり、 図 3 A、 図 3 Bは、 第 3の実施形 態およぴ第 5の実施形態における画像データの色成分の配列を'示す図である。 な お、 図 2 A、 図 2 Bおよび図 3 A、 図 3 Bでは、 R、 G、 Bを用いて色成分の種 類を示し、 i、 j を用いて各々の色成分が存在する画素の位置を示している。 仮に、 補間処理の対象となる補間対象画素の座標を [i,j]とすると、 図 2 A、 図 2 Bは、 補間対象画素を中心とする 7 X 7の画素の配列を示していることになり、 図 3 A、 図 3 Bは、 補間対象画素を中心とする 5 X 5の画素の配列を示している ことになる。 また、 図 2 Aおよび図 3 Aは、 赤色成分が存在する画素を補間対象 画素と した場合の配列を示し、 図 2 Bおよび図 3 Bは、 青色成分が存在する画素 を補間対象画素と した場合の配列を示す。
ところで、 後述する各実施形態において、 補間処理部 1 7は、 緑色成分が欠落 する画素に緑の補間値を補う補間処理 (以下、 「G補間処理」 と称する。 ) を行 つた後に、 赤色成分や青色成分が欠落する画素に赤の補間値や青の補間値を補う 補間処理 (以下、 「RB補間処理」 と称する。 ) を行う。 ただし、 青の補間値を 補う補間処理 (以下、 「B補間処理」 と称する。 ) は、 赤の補間値を補う補間処 理 (以下、 「R補間処理」 と称する。 ) と同様に行えるため、 説明を省略する。 また、 以下では、 説明を簡単にするため、 座標 [i,j]に位置する画素を G補間処 理における補間対象画素とする。 また、 後述する各実施形態の G補間処理では、 補間対象画素の色成分の種類 (赤または青) に関係なく、 緑の補間値を算出する ことができるため、 図 2 A、 図 2 Bおよび図 3 A、 図 3 Bの Rおよび Bを Zに置 き換えて、 補間対象画素の色情報を Z[i,j]によって表現し、 他の画素の色情報に ついても同様に表現する。
《第 1の実施形態》
図 4および図 5は、 第 1の実施形態における補間処理部 1 7の動作フローチヤ —トであるが、 図 4は、. G補間処理における補間処理部 1 7の動作を示し、 図 5 は、 R補間処理における補間処理部 1 7の動作を示す。
以下、 第 1の実施形態の動作を説明するが、 ここでは、 図 4および図 5を参照 して補間処理部 1 7の動作を説明する。
まず、 補間処理部 1 7は、 緑色成分が欠落する画素を補間対象画素として、 縦 方向の類似度 Cv[i, j]および横方向の類似度 Ch[i, j]を算出する (図 4 S 1 ) 。 ここで、 第 1の実施形態で行われる縦方向の類似度 Cv[i,j]および横方向の類似 度 Ch[i, j]を算出する処理の詳細を説明する。
まず、 補間処理部 1 7は、 以下の式' 1 0〜式 2 1によって定義される縦方向お よび横方向に対する複数種類の類似度成分を算出する。
縦方向の GG間類似度成分: Cvl[i, j] = |G[i, j-l]-G[i, j + l]| …式 1 0 横方向の GG間類似度成分: Chl[i, j] = |G[i- 1, j]- G[i + 1, j]| …式 1 1 縦方向の BB(RR)間類似度成分:
Cv2[i, j] = (|Z[i-l, j- 1]- Z[i- 1, j + 1] | + |Z[i + l, j-l]-Z[i + l, j + 1] |)/2 …式 1 2 横方向の BB(RR)間類似度成分:
Ch2[i, j] = (|Z[i- 1, j-l]-Z[i + l, j-1] 1 + lZti-l, j+l]-Z[i + l, j + 1] |)/2 …式 1 3 縦方向の RR(BB)間類似度成分:
Cv3[i, j] = (|Z[i, j-2]-Z[i, j] | + |Z[i, j+2]-Z[i, j]|)/2 …式 1 4
横方向の RR(BB)間類似度成分:
Ch3[i, j] = (|Z[i-2,j]-Z[i, j] | + |Z[i+2, j]-Z[i, j]|)/2 …式 1 5
縦方向の GR(GB)間類似度成分:
Cv4[i, j] = (|G[i, j-l]-Z[i, j]| + |G[i, j+l]-Z[i, j]|)/2 …式 1 6
横方向の GR(GB)間類似度成分:
Ch4[i, j] = (|G[i-l, j]-Z[i, j] | + |G[i + l, j]-Z[i, j]|)/2 …式 1 7
縦方向の BG(RG)間類似度成分:
Cv5[i, j] = (|Z[i- 1, j- 1]- G[i- 1, j] | + |Z[i- l,j+l]- G[i- 1, j]|
+ |Z[i+l, j-l]-G[i+l, j] | + |Z[i+l, j+l]-G[i + l, j] |)/4 …式 1 8 横方向の BG(RG)間類似度成分:
Ch5[i, j] = (|Z[i-l, j-l]-G[i, j-l]| + |Z[i-l, j+l]-G[i, j+l]|
+ |Z[i + l, j-l]-G[i, j-1] l + |Z[i + l, j+l]-G[i, j+l]|)/4 …式 1 9 縦方向の輝度間類似度成分:
Cv6[i, j] = (|Y[i, j-l]-Y[i, j]| + |Y[i, j+l]-Y[i, j]|)/2 …式 2 0 横方向の輝度間類似度成分:
Ch6[i, j] = (|Y[i-l, j]-Y[i,j] l + |Y[i+l( j]-Y[i, j]|)/2 …式 2 1
ただし、 式 2 0および式 2 1において、 Y[i , j ]は、
Y[i, j] = (4-A[i, j]+2-(A[i, j-l]+A[i, j+l]+A[i-l, j]+A[i + l, j])
+A[i-1, j-l]+A[i-l, j+l]+A[i + l, j-l]+A[i + l, j+l])/16 …式 2 2によ つて算出される値であり、 補間対象画素の周辺に位置する周辺画素の色成分の色 情報を R:G:B=1:2:1の比で平均化するフィルタリ ング処理で生成される輝度に相当 する。 なお、 A[i,j]は、 べィァ配列上の任意の色情報を表し、 配置場所に応じて Gまたは Zの値をとる。
次に、 補間処理部 1 7は、 以下の式 2 3およぴ式 2 に示すようにして、 加重 係数&1, 32,&3, 34,35, 36によって、 複数種類の類似度成分を各々の方向毎に加重加 算して、 補間対象画素の縦方向の類似度 CvO[i,j]および横方向の類似度 ChO[i,j] を算出する。
CvO[i, j] = (al-Cvl[i, j]+a2-Cv2[i, j]+a3-Cv3[i, j]+a4-Cv4[i, j]
+a5-Cv5[i, j]+a6-Cv6[i, j])/(al+a2+a3+a4+a5+a6) …式 2 3 ChO[i, j] = (al-Chl[i, j]+a2-Ch2[i, j]+a3-Ch3[i, j]+a4-Ch4[i, j]
+a5-Ch5[i, j]+a6-Ch6[i, j])/(al+a2+a3+a4+a5+a6) …式 24 なお、 式 2 3および式 2 4において、 加重係数31,&2,&3,&4,&5,&6の比率と して は、 例えば、 ΓΕΙ: 2: a3: a4: a5: a6=2: 1: 1: 4: 4: 12J などが考えられる。
ところで、 第 1の実施形態では、 縦方向および横方向に対する類似度成分の算 出および加重加算を、 補間対象画素に対してだけでなく、 補間対象画素の近傍に 位置する周辺画素に対しても行って、 さらに、 類似度の算出精度の向上を図る。 すなわち、 補間処理部 1 7は、 補間対象画素と周辺画素とにおける類似度成分 の加重加算の結果 (CvO[i,j]、 CvO[i- 1, j- 1]、 CvO[i- 1, j+l]、 Cv0[i+1, j- 1]、 Cv 0[i + l, j+1]など) を、 以下の 《方法 1》 または 《方法 2》 のよう に加重加算して、 補間対象画素の縦方向の類似度 Cv[i , j ]および横方向の類似度 Ch[i , j ]を算出する。 《方法 1》
Cv[i, j] = (4-CvO[i, j]+CvO[i-l, j-l]+CvO[i-l, j+1]
+CvO[i + l, j- 1]+Cv0[i + 1, j+l])/8 …式 2 5 Ch[i, j]=(4-ChO[i, j]+ChO[i-l, j-l]+ChO[i-l, j+1]
+ChO[i + l, j-l]+ChO[i + l, j+l])/8 …式 2 6
《方法 2》
Cv[i,j] = (4-Cv0[i, j]
+2· (Cv0[i-1, j-l]+CvO[i+l, j-l]+CvO[i-l, j+l]+CvO[i+l, j+1]) +CvO[i, j-2]+CvO[i, j+2]+CvO[i-2, j]+CvO[i+2, j])/16 …式 2 7 Ch[i, j] = (4-Ch0[i, j]
+2· (Ch0[i-1, j-l]+ChO[i+l, j-l]+ChO[i-l, j+l]+ChO[i+l, j+1]) +ChO[i, j-2]+ChO[i, j+2]+ChO[i-2, j]+ChO[i+2, j])/16 …式 2 8 なお、 《方法 1》 は、 図 6 Aに示すよう にして補間対象画素と周辺画素とにお ける類似度成分の加重加算を行う ことに相当し、 《方法 2》 は、 図 6 Bに示すよ うにして補間対象画素と周辺画素とにおける類似度成分の加重加算を行う ことに 相当する。
ところで、 上述した GG間類似度成分、 BB(RR)間類似度成分、 RR(BB)間類似度成 分のように、 同じ色成分の色情報を用いて算出される類似度成分 (以下、 「同色 間類似度成分」 と称する。 ) は、 空間周波数が低く彩色部分の多い画像に対する 類似性の評価に適していることが実験によってわかっている。 また、 GR(GB)間類 似度成分、 BG(RG)間類似度成分のように、 異なる色成分の色情報を用いて算出さ れる類似度成分 (以下、 「異色間類似度成分」 と称する。 ) は、 空間周波数が高 く無彩色部分が多い画像に対する類似性の評価に適していることが実験によって わかっている。 さらに、 輝度間類似度成分は、 彩色部分と、 ある程度まで空間周 波数の高い部分とを擁する画像に対する類似性の評価に適していることが実験に よってわかっている。
すなわち、 同色間類似度成分、 異色間類似度成分、 輝度間類似度成分を加重加 算して得られる類似度は、 多様な画像に対して類似性の評価を高精度で行う こと が可能である。
また、 同色間類似度成分と して算出される 3種類の類似度成分 (GG間類似度成 分、 BB(RR)間類似度成分、 RR(BB)間類似度成分) は、 類似性の評価に際して果た す役割を色成分同士で互いに補う ことができ、 異色間類似度成分として算出され る 2種類の類似度成分 (GR(GB)間類似度成分、 BG(RG)間類似度成分) も、 類似性 の評価に際して果たす役割を色成分同士で互いに補う ことができる。
さらに、 第 1の実施形態では、 補間対象画素における類似度成分の加重加算の 結果と、 周辺画素における類似度成分の加重加算の結果とを加重加算することに よって、 縦方向の類似度 Cv[i,j]および横方向の類似度 Ch[i,j]が算出される。 そ のため、 縦方向の類似度 Cv[i, j]および横方向の類似度 Ch[i, j]は、 補間対象画素 と補間対象画素の近傍に位置する画素とにおける色情報の連続性が反映され易い。 特に、 《方法 2》 によって算出される縦方向の類似度 Cv[i,j]および横方向の類 似度 Ch[i,j]は、 広範囲に位置する画素の色成分の色情報が反映されるため、 倍率 色収差が大きい画像に対する類似性の評価に有効である。
なお、 第 1の実施形態において、 縦方向の類似度 Cv[i,j]および横方向の類似度 Ch[i,j]は、 値が小さい程、 類似性が強いことを示す。
補間処理部 1 7は、 以上説明したようにして縦方向の類似度 Cv[i,j]および横方 向の類似度 Ch[i,j]を算出すると、 縦方向の類似度 Cv[i,j]および横方向の類似度 Ch[i,j]に基づき、 補間対象面素の縦方向および横方向の類似性 (以下、 「縦横類 似性」 と称する。 ) を比較する (図 4 S 2) 。 そして、 このような比較結果とし て、 縦横類似性を示す指標 HV[i,]']に以下のような値を設定する。
例えば、 補間処理部 1 7は、 任意の閾値 T1について、
|Cv[i, j]-Ch[i, j]|>Tl かつ Cv[i, j]<Ch[i, j]が成り立つ場合、 横方向よ り も縦方向の類似性が強いと判断して指標 HV[i,j]に 1を設定し (図 4 S 3) 、
|Cv[i, j]-Ch[i, j]|>Tl かつ Cv[i, j]>Ch[i,;i]が成り立つ場合、 縦方向よ り も横方向の類似性が強いと判定して指標 HV[i,j]に一 1を設定し (図 4 S 4) 、
I Cv [ i , j ] - Ch [ i , j ] 1≤ T1が成り立つ場合、 縦横間で類似性に区別がつかないと判 定して指標 HV[i, j]に 0を設定する (図 4 S 5) 。
なお、 閾値 T1は、 縦方向の類似度 Cv[i,j]と横方向の類似度 Ch[i,j]との差異が 微少である場合、 ノイズの影響によって一方の類似性が強いと誤判定されること を避ける役割を果たす。 そのため、 ノイズの多いカラー画像に対しては、 閾値 T1 の値を高く設定することによって、 縦横類似性の判定の精度が高められる。
次に、 補間処理部 1 7は、 補間対象画素における斜め 45度方向の類似度 C45[i, j]および斜め 135度方向の類似度 C135[i,j]を算出する (図 4 S 6) 。
ここで、 第 1の実施形態で行われる斜め 45度方向の類似度 C45[i,j]および斜め
135度方向の類似度 C135 [ i , j ]を算出する処理の詳細を説明する。
まず、 補間処理部 1 7は、 以下の式 2 9〜式 3 6によって定義される斜め 45度 方向およぴ斜め 135度方向に対する複数種類の類似度成分を算出する。
斜め 45度方向の GG間類似度成分:
C45_l[i, j] = (|G[i, j-l]-G[i-l, j]| + |G[i + l, j]-G[i, j + l]|)/2 …式 2 9 斜め 135度方向の GG間類似度成分:
C135_l[i, j] = (|G[i, j-l]-G[i+l, j]i + |G[i-l, j]-G[i, j+l]|)/2 …式 3 0 斜め 45度方向の BB(RR)間類似度成分:
C45_2[i, j] = |Z[i + l, j-l]-Z[i-l, j+1] | …式 3 1
斜め 135度方向の BB(RR)間類似度成分:
C135_2[i, j] = |Z[i-l, j-l]-Z[i + l, j+1] | …式 3 2
斜め 45度方向の RR(BB)間類似度成分:
C45_3[i, j]=(|Z[i+2, j-2]-Z[i, j] |+|Z[i-2, j+2]-Z[i, j]|)/2 · '式 3 3 斜め 135度方向の RR(BB)間類似度成分:
C135_3[i, j] = (|Z[i-2, j-2]-Z[i, j] | + |Z[i+2, j+2]-Z[i, j] |)/2 '式 34 斜め 45度方向の BR(RB)間類似度成分:
C45_4[i, j] = (|Z[i + l, j-l]-Z[i, j]| + |Z[i-l, j+l]-Z[i, j]|)/2 · '式 3 5 斜め 135度方向の BR (RB)間類似度成分:
C135_4[i, j] = (|Z[i-l, j-l]-Z[i, j] l + IZCi + 1, j+l]-Z[i, j]|)/2 ' ·式 3 6 次に、 補間処理部 1 7は、 以下の式 3 7および式 3 8のように 加重係数 bl,b 2,b3,b4によって、 複数種類の類似度成分を各々の方向毎に加重加算して、 補間対 象画素の斜め 45度方向の類似度 C45— 0[i, j]およぴ斜め 135度方向の類似度 C135— 0 [i,; j]を算出する。
C45_0[i, j] = (bl-C45_l[i, j]+b2-C45_2[i, j]+b3-C45_3[i, j]
+b4-C45_4[i, j])/(bl+b2+b3+b4) …式 3 7
C135_0[i, j] = (bl-C135_l[i, j]+b2-C135_2[i, j]+b3-C135_3[i, j]
+b4-C135_4[i, j])/(bl+b2+b3+b4) …式 3 8 なお、 式 3 7およぴ式 3 8において、 加重係数 bl,b2,b3,b4の比率と しては、 例 えば、 「bl:b2:b3:b4=2:l:l:2」 などが考えられる。
ところで、 第 1の実施形態では、 斜め 45度方向および斜め 135度方向に対する類 似度成分の算出および加重加算を、 補間対象画素に対してだけでなく周辺画素に 対しても行って、 さらに、 類似度の算出精度の向上を図る。
すなわち、 補間処理部 1 7は、 補間対象画素と周辺画素とにおける類似度成分 の加重加算の結果 (C45— 0[i,j]、 C45_0[i- 1, j- 1]、 C45— 0 [i- 1, j +1]、 C45_0[i + 1, j- 1]、 C45_0[i + 1, j+1]など) を、 以下の 《方法 1》 または 《方法 2》 のように加 重加算して、 補間対象画素の斜め 45度方向の類似度 Cv[i,j]および斜め 135度方向 の類似度 Ch[i, j]を算出する (図 6 A、 6 Bに示すよう に補間対象画素と周辺画素 とにおける類似度成分の加重加算を行う ことに相当する) 。
《方法 1》
C45[i, j]=(4-C45_0[i, j]+C45_0[i-l, j-l]+C45_0[i+l, j-1]
+C45_0[i-1, j+l]+C45_0[i + l, j+l])/8 …式 3 9
C135[i, j] = (4-C135_0[i, j]+C135_0[i-l, j-l]+C135_0[i + l, j-1]
+C135— 0[i- 1, j+l]+C135— 0[i + l, j+l])/8 …式 4 0
《方法 2》
C45[i, j] = (4-C45_0[i, j]+2- (C45_0[i-1, j-1] +C45_0 [i + 1, j-1]
+C45_0[i-1, j+l]+C45_0[i+l, j+l])+C45_0[i, j-2]
+C45_0[i, j+2]+C45_0[i-2, j]+C45_0[i+2, j])/16 …式 4 1
C135[i, j] = (4-C135_0[i, j]+2- (C135_0[i-1, j-l]+C135_0[i + l, j-1]
+C135一 0[i- 1, j+l]+C135一 0[i + l, j +1] ) +C135— 0 [i, j - 2] +C135— 0[i, j+2]+C135— 0[i- 2, j]+C135一 0[i+2, j])/16 …式 4 2 なお、 このよう にして算出される斜め 45度方向の類似度 C45[i, j]および斜め 13 5度方向の類似度 C135 [ i , j ]において、 複数種類の類似度成分の加重加算や周辺画 素に関する類似度の考慮は、 上述した縦方向の類似度 Cv[i, j]およぴ横方向の類似 度 Ch[i,j]と同様の役割を果たす。 また、 第 1の実施形態において、 斜め 45度方向 の類似度 C45 [ i, j ]およぴ斜め 135度方向の類似度 C135 [ i , j ]は、 値が小さい程、 類 似性が強いことを示す。 補間処理部 1 7は、 斜め 45度方向の類似度 C45[i,j]および斜め 135度方向の類似 度 C135[i,; j]を算出すると、 斜め 45度方向の類似度 C45[i, j]および斜め 135度方向 の類似度 C135[i,; j]に基づき、 補間対象画素の斜め 45度方向おょぴ斜め 135度方向 の類似性 (以下、 「斜め類似性」 と称する。 ) を比較する (図 4 S 7) 。 そして、 このよ うな比較結果と して、 斜め類似性を示す指標 DN[i,j]に以下のような値を設 定する。
例えば、 補間処理部 1 7は、 任意の閾値 T2について、
|C45[i, j]-C135[i, j]|>T2 かつ C45 [i, j ] < C135 [i, j ]が成り立つ場合、 斜め 135度方向よ り も斜め 45度方向の類似性が強いと判定して指標 DN [ j]に 1を設定 し (図 4 S 8 ) 、
|C45[i, j]-C135[i, j]|>T2 かつ C45 [i , j ] > C135 [i, j ]が成り立つ場合、 斜め 45度方向よ り も斜め 135度方向の類似性が強いと判定して指標 DN[i,j]に一 1を設 定し (図 4 S 9) 、
I C45 [ i , j ] - C135 [i, j ] I≤ T2が成り立つ場合、 斜め方向間で類似性に区別がつか ないと判定して指標 DN[i, j]に 0を設定する (図 4 S 1 0 ) 。
なお、 閾値 T2は、 上述した閾値 T1と同様に、 ノイズの影響によって一方の類似 性が強いと誤判定されることを避ける役割を果たす。
次に、 補間処理部 1 7は、 縦横類似性を示す指標 HV[i,j]と斜め類似性を示す指 標 DN[i,j]とが如何なる値であるかを判定して (図 4 S 1 1 ) 、 補間対象画素の類 似性の強さを、 以下の casel〜case9の何れかに分類する。
c a s e 1: ( H V [ i, j ] , D N [ i , j ] ) = ( 1, 1 ):縦および斜め 45度方向の類似性が強い。
case2:(HV[i, j],DN[i, j]) = (l,0):縦方向の類似性が強い。
c a s e 3: ( H V [ i, j ], D N [ i , j ] ) = ( 1, - 1 ):縦および斜め 135度方向の類似性が強い。 case4: (HV[i , j ] , DN[i , j ] ) = (0, 1):斜め 45度方向の類似性が強い。
case5: (HV[i , j ] , DN [i , j ] ) = (0, 0):全ての方向の類似性が強い、 または、 全ての 方向の類似性が弱い。
case6: (HV [ i , j ] , DN [ i , j ] ) = (0, - 1):斜め 135度方向の類似性が強い。
case7: (HV [ i , j ] , DN [ i , j ] ) = (- 1 , 1 ):横および斜め 45度方向の類似性が強い。
case8: (HV[ i , j ], DN [i , j ] ) = (- 1 , 0):横方向の類似性が強い。 case9: (HV[i, j],DN[i, j]) = (-l,-l):横およぴ斜め 135度方向の類似性が強い。 図 7は、 (HV[i, j],DN[i,j])の値に対応する類似性の強い方向を示す図である。 ところで、 図 7では、 「case5:(HV[i, j],DN[i,j]) = (0,0)」 に対応する表示がさ れていないが、 case5のよう に、 全ての方向の類似性が強い、 または、 全ての方向 の類似性が弱い場合とは、 補間対象画素が平坦部に属している、 または、 孤立点 (周辺画素との類似性の弱い空間周波数の高い画像部分) であることに相当する。 次に、 補間処理部 1 7は、 上述した判定結果に応じて、 以下のようにして緑の 補間値 G[i,j]を算出する。
easelのとき、 G[i, j]=Gv45[i, j]:図 S 1 2
case2のとき、 G[i, j ]=Gv[i , j ]:図 4 S 1 3
case3のと き、 G[i, j]=Gvl35[i, j]:図 4 S 1 4
case4のと き、 G[i, j ] = (Gv45 [i, j ] +Gh45 [i , j ] )/2:図 4 S 1 5
case5のとき、 G[i, ]=(Gv[i, j]+Gh[i,j])/2:図 4 S 1 6
case6のとき、 G[i, j] = (Gvl35[i, j]+Ghl35[i, j])/2: H 4 S 1 7
case7のとき、 G[i, ]=Gh45[i, j]:図 4 S 1 8
case8のとき、 G[i, ]=Gh[i, j]:図 4 S 1 9
case9のとき、 G[i, j ]: =Ghl35[i, j]:図 4 S 2 0
ただし、
Gv[i, j] = (G[i, j- 1]+G[i, +l])/2
+(2-Z[i, j]-Z[i, — 2]— Z[i, j+2])/8
+(2'G[i- 1, j] - G[ - 1, j- 2]-G[i- 1, j+2]
+2-G[i + l, j]-G[i + l, j-2]-G[i + l, j+2])/16 …式 4 3
Gv45[i, j] = (G[i, j-l]+G[i, j + l])/2
+ (2'Z[i, j]- Z[i, j-2] - Z[i, j+2])/8
+ (2-Z[i-l, j+l]-Z[i-l, j-l]-Z[i-l, j+3]
+2-Z[i + l, j-l]-Z[i + l, j-3]-Z[i + l, j+l])/16 …式 4 4 Gvl35[i, j] = (G[i, j-l]+G[i, j+l])/2
+ (2-Z[i, j]-Z[i, j-2]-Z[i, j+2])/8
+ (2-Z[i-l, j- 1]- Z[i- 1, j - 3]- Z[i- 1, +2-Z[i + l, j + l]-Z[i+l, j-l]-Z[i + l, j+3])/16 …式 4 5
Gh[i, j] = (G[i- 1, j]+G[i + l, j])/2
+ (2-Z[i, j]-Z[i-2, j]-Z[i+2, j])/8
+(2-G[i, j-l]-G[i-2, j-l]-G[i+2, j-1]
+2-G[i, j+l]-G[i-2, j+l]-G[i+2, j+l])/16 …式 4 6
Gh45[i, j] = (G[i-l, j]+G[i+l, j])/2
+(2-Z[i, j]-Z[i-2, j]-Z[i+2,j])/8
+ (2-Z[i + l, j-l]-Z[i-l, j-l]-Z[i+3, j-1]
+2-Z[i-l, j+l]-Z[i-3, j+l]-Z[i + l, j+l])/16 …式 4 7 Ghl35[i, j] = (G[i-l, j]+G[i + l, j])/2
+(2-Z[i, j]-Z[i-2, j]-Z[i+2, j])/8
+ (2-Z[i-l, j- 1]- Z[i - 3, j-l]-Z[i + l, j-1]
+2-Z[i + l, j + l]-Z[i-l, j+l]-Z[i+3, j+l])/16 …式 48である。 図 8は、 緑の補間値 G[i,j]を算出する際に用いる色情報の位置を示す図である c 図 8において、 〇印が付与された画素の色情報は、 緑の補間値 G[i, j]を構成する 変曲情報に寄与する色情報である。
ところで、 式 4 3〜式 4 8において、 第 1項は 「緑色成分の局所的な平均情 報」 であり、 式 1や式 2の主要項に対応する。 また、 第 2項は 「補間対象画素と 同一の色成分による局所的な変曲情報」 であり、 第 3項は 「補間対象画素と異な る色成分による局所的な変曲情報」 である。 なお、 第 2項、 第 3項の変曲情報は- 色成分の 2次微分によ り求められる。 式 44の例で説明すると、 式 44の第 2項 は、 色情報 Z[i, j]と Z[i,j- 2]の差分と Z[i,j+2]と Z[i,j]の差分を求め、 さらにそ れらの差分の差分を求めている。 第 3項は、 色情報 Z[i- 1, j+1]と Z[i_l,;i- 1]の差 分と Z[i- 1, j+3]と Z[i- 1, j + 1]の差分を求め、 それらの差分の差分を求め、 さらに, 色情報 Z[i + l,j - 1]と Z[i + 1, j - 3]の差分と Z[i + 1, j+1]と Z[i + 1, j - 1]の差分を求め、 それらの差分の差分を求めている。
ここで、 Gv45[i,j]の 「補間対象画素と同一の色成分による局所的な変曲情報」 は、 縦方向に方向性を有する局所的な変曲情報であり、 「補間対象面素と異なる 色成分による局所的な変曲情報」 は、 縦方向および斜め 45度方向に方向性を有す る局所的な変曲惰報であり、 Gvl35[i,j]の 「補間対象画素と同一の色成分による 局所的な変曲情報」 は、 縦方向に方向性を有する局所的な変曲情報であり、 「補 間対象面素と異なる色成分による局所的な変曲情報」 は、 縦方向および斜め 135度 方向に方向性を有する局所的な変曲情報であり、 Gh45[i,j]の 「補間対象画素と同 一の色成分による局所的な変曲情報」 は、 横方向に方向性を有する局所的な変曲 情報であり、 「補間対象画素と異なる色成分による局所的な変曲情報」 は、 横方 向および斜め 45度方向に方向性を有する局所的な変曲情報であり、 Ghl35[i, j]の 「補間対象画素と同一の色成分による局所的な変曲情報」 は、 横方向に方向性を 有する局所的な変曲情報であり、 「補間対象画素と異なる色成分による局所的な 変曲情報」 は、 横方向および斜め 135度方向に方向性を有する局所的な変曲情報で ある。
また、 Gv[i,j]の 「補間対象画素と同一の色成分による局所的な変曲情報」 と 「補間対象画素と異なる色成分による局所的な変曲情報」 とは、 共に縦方向に方 向性を有する局所的な変曲情報であり、 Gh[i,j]の 「補間対象画素と同一の色成分 による局所的な変曲情報」 と 「補間対象画素と異なる色成分による局所的な変曲 情報」 とは、 共に横方向に方向性を有する局所的な変曲情報である。
すなわち、 第 1の実施形態では、 緑色成分の局所的な平均情報を、 「補間対象 画素と同一の色成分による局所的な変曲情報」 および 「補間対象画素と異なる色 成分による局所的な変曲情報」 によって補正している。
例えば、 斜め方向の類似性が強く、 Gv45[i,j]、 Gvl35[i,j]、 Gh45[i,j]、 Ghl3 5[i, j]を用いて緑の補間値を算出する場合 (casel、 case3、 case4、 case6、 case 7、 case9) には、 互いに逆位相を示す赤色成分の局所的な変曲情報と青色成分の 局所的な変曲情報とによって、 緑色成分の局所的な平均情報 (生要項) が補正さ れることになる。 この場合、 各色成分の局所的な変曲情報を計算するために使用 するそれぞれの色成分は、 類似性が強いと判定された方向に引かれた線をまたぐ よう に位置する画素から取得する。
これによ り、 図 9 A (図 1 8 B、 1 8 Cを重ね合わせた図に相当する) のよう に、 倍率色収差によって、 赤色成分の色情報と青色成分の色情報とが緑色成分に 対してずれている場合であっても、 主要項は、 図 9 Bのように、 赤色成分の色情 報と青色成分の色情報との平均的な変化量に応じて補正される。 そのため、 第 1 の実施形態では、 撮影光学系 1 2に倍率色収差が存在している場合であっても、 所望の画素に対する主要項を補正することが可能であり、 米国特許第 5 , 6 2 9 , 7 3 4号明細書に開示された G補間処理で生じる over shoo tと under shoo tとが打ち 消し合う ことになる。 したがって、 第 1の実施形態によれば、 過補正による偽色 の発生を低減することができる。
なお、 overshootは、 赤色成分の色情報による主要項の補正時だけでなく、 青色 成分の色情報による主要項の補正時にも生じる可能性があるが、 第 1の実施形態 において、 各々の色成分に対応する overshootの値は、 平均化されるので、 米国特 許第 5 , 6 2 9 , 7 3 4号明細書に開示された G補間処理で生じる overshootの値を 超えることはない。 また、 undershootが、 青色成分の色情報による主要項の補正 時および赤色成分の色情報による主要項の補正時に生じても、 第 1の実施形態で 生じる undershootの値は、 米国特許第 5 , 6 2 9 , 7 3 4号明細書に開示された G 補間処理で生じる undershootの値を超えることはない。
ところで、 第 1の実施形態では、 G補間処理の対象となる画像データが図 2 A、 図 2 Bに示すよう にべィァ配列されており、 赤色成分の色情報と青色成分の色惰 報とが互いに斜め方向に位置するため、 例えば、 補間対象画素に青色成分の色情 報が存在する場合、 主要項を補正すべき赤色成分の局所的な変曲情報は、 補間対 象画素との類似性が強い斜め方向に位置する赤色成分の色情報によって算出され る。 また、 緑色の補間値は、 式 4 4における Z[i-1, j+3]、 Z[i + 1, j- 3]や式 4 5に おける Z[i- 1, j- 3]、 Z[i + 1, j+3]や式 4 7における Z[i+3, j- 1]、 Z[i - 3, j+1]や式 4 8における Z[i- 3, j- 1]、 Z[i+3, j+1]のよう に、 補間対象画素から離れた斜め方向 に位置する画素の色情報を用いて算出される。
そのため、 第 1の実施形態における G補間処理では、 高精度の斜め類似性の判 定が要求されるが、 補間処理部 1 7は、 斜め 45度方向および斜め 135度方向に対す .る複数種類の類似度成分を算出する際に、 複数の色情報を用いることによって、 高精度の斜め類似性の判定を可能にしている。
すなわち、 第 1の実施形態では、 高精度の斜め類似性の判定によ り、 G補間処 理の精度が高められる。 また、 縦方向や横方向の類似性が強く、 Gv [ i , j ]や Gh [ i , j ]を用いて緑の補間値 を算出する場合 (case2、 case8) には、 「補間対象画素と異なる色成分による局 所的な変曲情報」 と して緑色成分の局所的な変曲情報が用いられ、 緑色成分の局 所的な平均情報は、 赤色成分または青色成分の局所的な変曲情報と緑色成分の局 所的な変曲情報とによって補正されることになる。
一般に、 倍率色収差の影響としては、 赤色成分と緑色成分とのずれ量が大き く, 青色成分と緑色成分とのずれ量が小さいことが多い。 そのため、 補間対象画素に 赤色成分の色情報が存在する場合、 緑色成分の局所的な変曲情報は、 赤色成分の 局所的な変曲情報の逆位相の成分と して作用し、 過補正による偽色の発生を低減 することができる。 また、 補間対象画素に青色成分の色情報が存在する場合、 倍 率色収差の影響が少ないので、 過補正による偽色が発生し難い。
以下、 R B補間処理の動作を説明するが、 ここでは、 従来から行われている R B補間処理を説明した後、 第 1の実施形態における R B補間処理のうち、 図 5に 示した R補間処理を説明する (B補間処理の説明は省略する) 。 '
まず、 従来から行われている R B補間処理と しては、 色差空間における線形補 間処理が知られており、 全ての画素の色差 (赤色成分 (または、 青色成分) の色 情報から緑色成分の色情報を減算した値) を算出した後に、 補間対象画素毎に、 以下の ( 1 ) 〜 ( 3 ) の何れかの処理を行って、 補間値が算出される。
( 1 ) 補間対象画素に欠落する色成分が、 補間対象画素の上下方向に隣接する 2 つの画素に存在する場合、 それらの 2つの画素の色差の平均値に補間对象画素の 緑色成分の色情報を加算した値を補間値とする。
( 2 ) 補間対象画素に欠落する色成分が、 補間対象画素の左右方向に隣接する 2 つの画素に存在する場合、 それらの 2つの画素の色差の平均値に補間対象画素の 緑色成分の色情報を加算した値を補間値とする。
( 3 ) 補間対象画素に欠落する色成分が、 補間対象画素の斜め方向に隣接する 4 つの画素に存在する場合、 それらの 4つの画素の色差の平均値に補間対象画素の 緑色成分の色情報を加算した値を補間値とする。
また、 色差空間における線形処理に比べて偽色の抑制効果が高い非線形の med i an処理を導入した補間処理も従来から行われている。 米国特許第 5, 7 9 9, 1 1 3号明細書に開示された技術では、 R G B、 Y U V、 Y C b C rなどの何れかの表色系で示されるビデオ信号に対して 1 / 4の解 像度の間引き圧縮を行って伝送容量を削減するが、 このとき消失した間引き画素 の 3成分データを補間して元の解像度と同じビデオ信号に戻す際に、 非線形の me dian処理が導入されている。 例えば、 ビデオ信号が Y C b C r表色系で示されて いる場合、 図 1 0 A〜 1 0 Cにおいて〇印、 △印、 X印が付与された間引き画素 の輝度成分 Yの補間値と色成分 C b、 C rの補間値とが、 全く同一の演算処理に よって算出される。 なお、 エッジ部分の構造を残すため、 X印が付与された画素 だけは近接する 4つの画素の median値 (中央値) で補間され、 〇印が付与された 画素は横方向に隣接する画素の平均値で補間され、 Δ印が付与された画素は縦方 向に隣接する画素の平均値で補間される。
しかし、 このようにして行われる補間処理は、 動画像における画質レベルの回 復には都合が良いが、 高精細が要求される静止画像には適さない。 すなわち、 米 国特許第 5, 7 9 9 , 1 1 3号明細書に開示された技術では、 輝度成分 Yと色成 分 C r、 C bを全く同一に扱っているため、 解像を担う輝度成分 Yの補間値の精 度が極めて低い。 また、 輝度成分 Yを median値で補間するため、 '画像の構造が破 壊される可能性が高く、 R G B表色系に変換した場合に偽色が拡大するおそれも める。
ところで、 R G Bのカラーフィルタがべィァ配列された撮像素子によって、 静 止画像を生成する電子カメラでは、 上述したような補間対象画素と周辺画素との 類似性を利用したり、 複数の色成分を利用して補間値を算出することによって、 空間周波数の高い輝度成分に相当する緑色成分の補間処理 (G補間処理) を極め て高精度に行うことが可能にある。 このような電子カメラでは、 画像データの高 周波情報が最も反映され易い緑色成分の補間処理を高精細に行ってから、 赤色成 分と青色成分との補間処理を緑色成分に対する色差空間における線形補間で実現 することによって、 画像デ一タの高周波情報を赤色成分や青色成分に反映させて- 偽色の低減を図つている。
例えば、 各画素の色情報が [R1,G2, R3]の順で一次元に配列されている場合、 赤 の補間値は、 R2=(Rl+R3)/2+(2-G2-Gl-G3)/2 ···式 4 9によって算出される。 ただし、 G2は原 画像の緑色成分の色情報を示し、 G1,G3は G補間処理によって得られた緑の補間値 を示す。
ところが、 このような RB補間処理では、 孤立点 (周辺画素との類似性の弱い 空間周波数の高い画像部分) の周辺に偽色が残るという問題が生じる。 従来、 こ の種の偽色を除去するため、 G補間処理および R B補間処理が行われた後に、 画 像データを L a b表色系に変換して得られる色相 a, b面に対して個別に median フィルタを掛けるという事後処理が良く用いられる。
しかし、 このよう な medianフィルタを掛ける場合、 3 X 3 (= 9点) のフィ ル 夕サイズでは、 ほとんど有効に作用しないため、 フィルタサイズを 5 X 5 (= 2 5点) の広域に設定する必要がある。
すなわち、 上述した電子カメ ラでは、 静止画像の赤色成分および青色成分の補 間処理において、 従来の方法による R B補間処理と median処理との 2度手間を強 いられるばかりでなく、 median処理におけるフィルタサイズを大き くする必要が あるため、 非常に重い処理が課せられる。 また、 median処理におけるフィ ルタサ ィズを大き くすることによって、 彩色部分の細かい構造 (以下、 「色構造」 と称 する) を破壊する危険性も高く なる。
そこで、 第 1の実施形態では、 孤立点の周辺に偽色を残すことなく、 色構造を 破壊せずに、 赤や青の補間値を高速かつ高精度で算出できる RB補間処理を提示 する。 ただし、 以下では、 このような RB補間処理のうち、 R補間処理のみを図 5を参照して説明する。
まず、 補間処理部 1 7は、 赤色成分の色情報が存在する画素毎に、 赤色成分の 色情報から緑の補間値 (上述した G補間処理によって得られた値) を減算し、 赤 色成分を含む色差を算出する (図 5 S 1) 。
例えば、 補間処理部 1 7は、 赤色成分の色情報が存在する任意の座標 [i,j]に位 置する画素における赤色成分を含む色差 Cr[i,j]を、
Cr[i, j]=R[i, j]-G[i, j] …式 50
によつて算出する。
なお、 第 1の実施形態において、 このよ うにして赤色成分を含む色差が算出さ れた状態では、 赤色成分を含む色差は、 赤色成分の色情報が欠落して青色成分の 色情報が存在する画素を斜め 4方向から囲むように配置されることになる。
補間処理部 1 7は、 赤色成分を含む色差によって斜め 4方向が囲まれる画素 (第 1の実施形態では、 赤色成分の色情報が欠落して青色成分の色情報が存在す る画素に相当する) 毎に、 赤色成分を含む色差を、 斜め方向に位置する画素にお ける赤色成分を含む色差の中央値で補間する (図 5 S 2 ) 。
すなわち、 第 1の実施形態において、 補間処理部 1 7は、 図 1 1 Aに示すよう に、 赤色成分を含む色差によつて斜め 4方向が囲まれる任意の座標 [m,n]に位置す る画素の色差 Cr[m,n]を、
し [m, n] =median |し r [m-1, n—丄_| , し r [m+1, n-1] ,
Cr[m-l,n+l],Cr[m+l,n+l]| …式 5 1
によって算出する。 ただし、 median | | は、 複数の要素の median値を算出する関 数を示し、 要素の数が偶数である場合、 真ん中 2つの要素の平均値をとるものと する。
ところで、 第 1の実施形態において、 式 5 0およぴ式 5 1 によつて赤色成分を 含む色差が算出された状態では、 赤色成分を含む色差は、 赤色成分および青色成 分の色情報がともに欠落する画素を上下左右 4方向から囲むよう に配置されるこ とになる。
補間処理部 1 7は、 赤色成分を含む色差によつて上下左右 4方向が囲まれる画 素 (第 1の実施形態では、 赤色成分および青色成分の色情報が欠落する画素に相 当する) 毎に、 赤色成分を含む色差を、 上下左右方向に位置する画素における赤 色成分を含む色差の中央値で補間する (図 5 S 3 ) 。
すなわち、 第 1の実施形態において、 補間処理部 1 7は、 図 1 1 Bに示すよう に、 赤色成分を含む色差によって上下左右 4方向が囲まれる任意の座標 [m,n]に位 置する画素の色差 Cr[m,n]を、
Cr [m, n] =median |Cr [m, n-1] , Cr Lm-1, nj,
Cr[m+l,n],Cr[m,n+l]i …式 5 2
によつて算出する。
次に、 補間処理部 1 7は、 赤色成分の色情報が欠落する画素毎に、 式 5 1や式 5 2によって算出した赤色成分を含む色差を、 緑色成分の色情報 (緑色の補間値 であっても良い) によって赤の補間値に変換する (図 5 S 4 ) 。
すなわち、 補間処理部 1 7は、 任意の座標 [m,n]に位置する画素の赤の補間値 R [m, n]を.、
R[m,n]=Cr[m,n]+G[m,n] …式 5 3
によって算出する。
以上説明した median処理は、 色相を表す色差に対してのみ行われ、 輝度成分に 対しては行われない。 また、 R補間処理において、 図 1 2 Aの〇印が付与された 画素が補間対象画素である場合、 3 X 5の範囲に位置する色差 Crを用いて X印が 付与された画素における赤色成分を含む色差が算出されるので、 〇印が付与され た画素における赤色成分を含む色差は、 3 X 5の範囲に位置する色差 Crに重み付 けをして median処理を行った結果に近い値を示す。 また、 図 1 23の八印が付与 された画素が補間対象画素である場合、 5 X 3の範囲に位置する色差 Crを用いて X印が付与された画素における赤色成分を含む色差が算出されるので、 △印が付 与された画素における赤色成分を含む色差は、 5 X 3の範囲に位置する色差 Crに 重み付けをして median処理を行った結果に近い値を示す。
すなわち、 第 1 の実施形態では、 フィルタサイズを小さ く抑えつつ、 実質的に は広域な median処理と同等の効果が得られる。 そのため、 第 1の実施形態によれ ば、 色構造を破壊することなく、 孤立点の周辺における偽色の発生を低減するこ とができる。 そのため、 米国特許第 5, 7 9 9, 1 1 3号明細書に開示された技 術と比べて、 偽色を低減する効果が非常に大きい。
また、 第 1の実施形態では、 図 5 S 2 と図 5 S 3 との各々の median処理におい て、 4点の色差のみを用いるため、 処理効率が良く、 非常に高速な median処理が 可能である。
なお、 第 1の実施形態では、 G補間処理を行った後に R B補間処理を行ってい るが、 Y C b C rの表色系で示されて Y、 C b、 C rが 4 : 1 : 1 に間引かれた画 像データでは、 輝度成分 Yが完全な状態と して残っているので、 G補間処理を行 うことなく本実施形態と同様の R B補間処理を行う ことができる。
《第 2の実施形態》 以下、 第 2の実施形態の動作を説明する。
なお、 第 2の実施形態における R B補間処理は、 第 1の実施形態と同様にして 行えるため、 ここでは、 説明を省略する。
以下、 G補間処理について説明する力、 第 1の実施形態と同じ動作については、 説明を省略する。 なお、 第 2の実施形態における G補間処理と第 1の実施形態に おける G補間処理との相違点は、 緑の補間値 G[i, j]を算出する際に用いる Gv[i, j]、 Gv45[i,j]、 Gvl35[i,j]、 Gh[i,j]、 Gh45[i,j]、 Ghl35 [i , j ]の値が異なる点で ある。 そのため、 第 2の実施形態では、 G補間処理における補間処理部 1 7の動 作フローチャー トの図示を省略する。 また、 以下では、 図 2 Aのように、 赤色成 分が存在する画素を補間対象画素とした場合を想定して説明を行うが、 第 2の実 施形態は、 図 2 Bのよう に、 青色成分が存在する画素を補間対象画素とした場合 でも適用できる。
補間処理部 1 7は、 第 1の実施形態と同様にして補間対象画素の類似性の強さ を判定し (図 4 S 1〜S 1 1 に相当する) 、 補間対象画素の類似性の強さを上述 した casel〜case9の何れかに分類する。 そして、 補間処理部 1 7は、 以下のよう にして緑の補間値 G[i, j]を算出する。
easelのとき、 G[i, ]=Gv45[i, j]
case2のとき、 G[i, ]=Gv[i, j]
case3のとき、 G[i, ]=Gvl35[i, j]
case4のとき、 G[i, ] = (Gv45[i, j]+Gh45[i, j])/2
case5のとき、 G[i, ] = (Gv[i, j]+Gh[i, j])/2
case6のとき、 G[i, ] = (Gvl35[i, j]+Ghl35[i, j])/2
case7のとき、 G[i, ]=Gh45[i, j]
case8のとき、 G[i, ]=Gh[i,j]
case9のとき、 G[i, j]=Ghl35[i, j]
ただし、
Gv[i, j]=gv[i, j] + /3 red- 5 Rv[i, j] + ^ green- <? Gv[i, j] …式 5 4
Gv45 [i, j] =gv [i, j]+ a red- δ Rv45 [i, j]+ « green · S Gv [ i , j J
+ a blue- δ Bv45[i, j] . · ·式 5 5 Gvl35[i, j]=gv[i, j]+ a red- δ Rvl35[i, j] + a green- Gv[i j]
+ a blue- SBvl35[i, j] ···式 5 6
Gh[i, j]=gh[i, j] + /3 red- S Rh[i, j] + /3 green- δ Gh[i, j] …式 5 7
Gh45[i, j]=gh[i, j]+ a red- δ Rh45[i, j] + a green- <J Gh [ i , j ]
+ a blue- δ Bh45[i, j] …式 5 8
Ghl35[i j]=gh[i, j] + red- δ Rhl35 [i , j ] + a green- δ Gh[i, j]
+ a blue- S Bhl35[i, j] .-'式 5 9でぁる。
また、 式 5 4〜式 5 9において、 red, a green, a blue, red, /3 greenは、 0 または正の定数であり、 a red+ a green+ a blue=l, red+/3 green=lを満たし、 gv [i j],gh[i, j]は、 「緑色成分の局所的な平均情報」 に対応する項であり、 式 1や 式 2の主要項に対応し、 δ Rv45[i, j], ^ v[i, j], δ Rvl35[i, j], 8 Rh45[i, j], δ R h[i j], SRhl35[i j] 8 Gv[i, j], δ Gh[i, j], δ Bv45[i, j], δ Bvl35[i, j], δ Bh45 [i,j〕, SBhl35[i j]は、 各々の色成分の局所的な変曲情報に対応する項である。 なお、 このような緑色成分の局所的な平均情報および各色成分の局所的な変曲 情報は、 類似方向に応じて、 以下のように算出される。
《緑色成分の局所的な平均情報》
gv[i, j] = (G[i, j-l]+G[i, j+l])/2 …式 6 0
gh[i, j] = (G[i-l, j]+G[i + l, j])/2 ···式 6 1
《赤色成分の局所的な変曲情報》
<J v45[i, j]=krl(2-Z[i-2, j+2]-Z[i - 2, j]-Z[i-2, j+4])/4
+kr2(2-Z[i, j]-Z[i, j-2]-Z[i, j+2])/4
+kr3(2-Z[i+2, j-2]-Z[i+2, j-4]-Z[i+2, j])/4 …式 6 2
SRv[i, j]=krl(2'Z[i- 2, j]-Z[i-2, j-2]-Z[i-2, j+2])/4
+kr2(2-Z[i, j]-Z[i, j-2]-Z[i, j+2])/4
+kr3(2-Z[i+2, j]-Z[i+2, j-2]-Z[i+2, j+2])/4 …式 6 3 5Rvl35[i, j]=krl(2-Z[i-2, j-2]-Z[i-2, j-4]-Z[i-2, j])/4
+kr2(2-Z[i, j]-Z[i, j-2]-Z[i, j+2])/4
+kr3(2-Z[i+2, j+2]-Z[i+2, j]-Z[i+2, j+4])/ …式 6 4
^Rh45[i, j]=krl(2-Z[i+2, j-2]-Z[i, j-2]-Z[i+4, j-2])/4 +kr2(2-Z[:i i, j] - Z[i_2, j]- Z[i+2, j])/4
+kr3(2-Z[:i1-2, j+2]-Z[i-4, j+2]-Z[i, j+2])/4 …式 6 5
^Rh[i, j]=krl(2-Z[i! j-2]-Z[i-2, j-2]-Z[i+2, j-2])/4
+kr2(2-Z[i, j]-Z[i-2, j]-Z[i+2, j])/4
+kr3(2-Z[i, j+2]-Z[i-2, j+2]-Z[i+2, j+2])/ …式 6 6 <JRhl35[i, j]=krl(2-Z[i-2, j-2]-Z[i-4, j-2]-Z[i, j-2])/4
+kr2(2-Z[i, j]-Z[i-2, j]-Z[i+2, j])/4
+kr3(2-Z[i+2, j+2]-Z[i, j+2]-Z[i+4, j+2])/ …式 6 7 ただし、 krl,kr2,kr3は、 0または正の定数であり、 krl+kr2+kr3=lを満たす。 《緑色成分の局所的な変曲情報》
5Gv[i, j] = (2-G[i-l, j]-G[i-l, j-2]-G[i-l, j+2]
+2-G[i + l, j]-G[i + l, j-2]-G[i + l, j+2])/8 …式 6 8 SGh[i, j] = (2-G[i, j- 1]- G[i 2, j- 1]- G[i+2, j- 1]
+2-G[i, j+l]-G[i-2, j + l]-G[i+2, j+l])/8 …式 6 9 《青色成分の局所的な変曲情報》
SBv45[i, j] = (2'Z[i- 1, j+1]- Z[i- 1, j-1] - Z[i- 1, j+3]
+2-Z[i + l, j-l]-Z[i + l, j-3]-Z[i + l, j+l])/8 …式 70 δ Bvl35[i, j] = (2-Z[i-l, j - 1]- Z[i- 1, j- 3]- Z[i- 1, j+1]
+2-Z[i + l, j+l]-Z[i + l, j-l]-Z[i + l, j+3])/8 …式 7 1
SBh45[i, j] = (2'Z[i + l, j- 1] - Z[i- 1, j - 1] - Z[i+3, j- 1]
+2'Z[i - 1, j+1]- Z[i- 3, j+1] - Z[i + 1, j + l])/8 …式 72 ί Bhl35[i, j] = (2-Z[i-l, j-l]-Z[i-3, j-l]-Z[i + l, j-1]
+2-Z[i + l, j+l]-Z[i-l, j+l]-Z[i+3, j+l])/8 …式 73 なお、 図 1 3および図 1 4は、 各色成分の局所的な変曲情報を算出する際に用 いる色情報の位置を示す図である。 すなわち、 各色成分の局所的な変曲情報は、 図 1 3および図 1 4の楕円で囲まれる領域に属する画素における色情報を用いて 算出した変曲情報の成分を加重加算して得られることになる。
すなわち、 SRv45[i,j]は、 縦方向および斜め 45度方向に方向性を有する局所的 な変曲情報であり、 SRv[i,j]は、 縦方向に方向性を有する局所的な変曲情報であ り、 SRvl35[i, j]は、 縦方向および斜め 135度方向に方向性を有する局所的な変曲 惰報であり、 SRh45[i,j]は、 横方向および斜め 45度方向に方向性を有する局所的 な変曲情報であり、 5Rh[i,j]は、 横方向に方向性を有する局所的な変曲情報であ り、 SRhl35[i, j]は、 横方向および斜め 135度方向に方向性を有する局所的な変曲 情報である。
また、 SGv[i,j]は、 縦方向に方向性を有する局所的な変曲情報であり、 SGh [i, j]は、 横方向に方向性を有する局所的な変曲情報である。
さらに、 SBv45[i, j]は、 縦方向および斜め 45度方向に方向性を有する局所的な 変曲情報であり、 <5Bvl35[i, j]は、 縦方向および斜め 135度方向に方向性を有する 局所的な変曲惰報であり、 SBh45[i,j]は、 横方向おょぴ斜め 45度方向に方向性を 有する局所的な変曲情報であり、 SBhl35[i, j]は、 横方向および斜め 135度方向に 方向性を有する局所的な変曲情報である。
ところで、 第 2の実施形態の式 5 4〜式 5 9およぴ式 6 2〜式 6 7において、 上述した第 1の実施形態は、 係数の比率を
a red: a green: a blue=l :0:1、 β red: β green=l :1、 krl: kr2 :kr3=0: 1 : 0に g殳疋 した場合に相当する。
第 2の実施形態では、 このよ うな係数の比率を様々な値に設定することによつ て、 特徴や効果が異なる G補間処理を実現することができる。 以下、 係数の比率 の代表例と、 各々の代表例の特徴や効果を示す。
《代表例 1》
a red: green: a blue=l :0: β red: β green=l: 1Λ krl: kr2 :kr3=l :6:1 このよう な設定は、 第 1の実施形態に対し、 赤色成分の局所的な変曲情報の算 出方法を変更することを意味し、 第 1の実施形態に比べ、 よ り広範囲から抽出し た赤色成分の局所的な変曲情報に、 緩いローパスフィ ルタを方向性を考慮して適 応的に掛けることに相当する。 そのため、 代表例 1の設定によれば、 第 1の実施 形態に対し、 全体と しての過補正の低減効果が高められる。
《代表例 2》
a red: a green: a blue=l:l:0, β red: β green=l: U krl :kr2 :kr3=0: 1: 0 このよう な設定は、 第 1の実施形態において、 斜め方向に類似性がある場合に 赤色成分の局所的は変曲情報による過補正を防ぐ役割を果たす青色成分の局所的 な変曲情報を、 全て緑色成分の局所的な変曲情報で代用することに相当する。 そ のため、 代表例 2の設定によれば、 斜め方向に関する類似性の判定が不要となる ので、 アルゴリズムが簡略化され、 かつ、 過補正を防ぎつつも、 十分なレベルの 構造情報の抽出を達成することができる。
《代表例 3》
a red: a green: a blue=0:l:0、 β red: β green=0: krl :kr2 :kr3=設定不要 このよう な設定は、 代表例 2の設定において、 赤色成分の過補正を防ぐ役割を 果たした緑色成分の局所的な変曲情報を逆に補正項の中心的役割とすることに相 当する。 このよう に、 補正項を緑色成分の変曲情報だけで構成しても、 構造情報 の抽出が可能である。 これは、 緑色成分の変曲情報にも、 中心を通る赤色成分の 変曲情報に相当する構造情報が多く含まれていることを意味する。 また、 代表例 3の設定は、 主要項を構成する緑色成分の平均情報と同じ色成分による局所的な 変曲情報で補正することに相当する。 したがって、 代表例 3の設定によれば、 過 補正を生じることがなく、 代表例 2の設定と同様に、 斜め方向に関する類似性の 判定が不要となるので、 アルゴリズムの簡略化が可能である。
《代表例 4》
a red: a green: a blue=0:0: K β red: β green=0: U krl :kr2 :kr3=設定不要 このような設定は、 代表例 2 と代表例 3 との関係と同様に、 第 1の実施形態に 対しても、 赤色成分の局所的な変曲情報の過補正を防ぐ役割を果たしていた色成 分の変曲情報を逆に補正項の中心的役割と して設定することに相当する。 代表例 4の設定によれば、 青色成分の局所的な変曲情報による過補正を防ぐことはでき ないが、 局所的な構造情報の抽出に関しては、 第 1の実施形態と同程度の効果が 得られる。
《代表例 5》
a red: a green: a blue=l:l:l β red: β green=l: K krl: kr2 :kr3=l :0:1 このような設定は、 代表例 4の設定における過補正の対策として、 中心を通る 赤色成分の局所的な変曲情報を用いない場合であっても、 有効な係数の比率の例 を示している。 代表例 5の設定によれば、 代表例 3の設定と代表例 4の設定と同 様に、 局所的な構造情報を抽出する効果を得つつ、 斜め方向に類似性がある場合 の青色成分の局所的な変曲情報による過補正を周辺で構成される赤色成分の局所 的な変曲情報で低減することができる。
《第 3の実施形態》
以下、 第 3の実施形態の動作を説明する。
なお、 第 3の実施形態における R B補間処理は、 第 1の実施形態と同様にして 行えるため、 ここでは、 説明を省略する。 ただし、 第 3の実施形態では、 上述し た式 5 1によって、 緑色成分の色情報が存在する画素 (Gのカラーフィルタが配 された画素に対応する) の一部に対して赤色成分を含む色差が補間され、 緑色成 分の色情報が存在する残りの画素と青色成分が存在する画素とに対する赤色成分 を含む色差が式 5 2によつて補間されることになる。
以下、 G補間処理について説明する。
第 3の実施形態では、 図 3 A、 図 3 Bに示すように、 G補間処理の対象となる 画素の横方向に、 最近接の緑色成分 (最も近接する緑色成分) が存在する画素が 位置するため、 G補間処理において、 第 1の実施形態で行われる類似度の算出や 類似方向の判定は不要である。 ただし、 第 2近接の緑色成分 (2番目に近接する 緑色成分) が存在する斜め 45度方向、 斜め 135度方向等に対して、 類似度の算出や 類似方向の判定を行っても良い。
第 3の実施形態において、 補間処理部 1 7は、 図 3 A、 図 3 Bに示すように配 列された画像データに基づき、 以下の式 74によって、 緑の補間値 G[i,j]を算出 する。
G[i, j] = (G[i-l, j]+G[i + l, j])/2
+(2-Z[i, j]-Z[i-2, j]-Z[i+2, j])/8
+(2-Z[i, j-l]-Z[i-2, j-l]-Z[i+2,
+2-Z[i, j + l]-Z[i-2, j+l]-Z[i+2, j+l])/16 …式 74
ところで、 式 74において、 第 1項は 「緑色成分の局所的な平均情報」 であり、 式 1や式 2の主要項に対応する。 また、 第 2項は 「補間対象画素と同一の色成分 による局所的な変曲情報」 であり、 第 3項は 「補間対象画素と異なる色成分によ る局所的な変曲情報」 であるが、 補間対象画素に赤色成分の色情報が存在する場 合 (図 3 A ) 、 第 3項は、 「青色成分の局所的な変曲情報」 であり、 補間対象画 素に青色成分の色情報が存在する場合 (図 3 B ) 、 第 3項は、 「赤色成分の局所 的な変曲情報」 である。
すなわち、 第 3の実施形態では、 互いに逆位相を示す赤色成分の局所的な変曲 情報と青色成分の局所的な変曲情報とによって、 緑色成分の局所的な平均情報
(主要項) が補正されることになる。
したがって、 第 3の実施形態では、 第 1の実施形態と同様に、 倍率色収差によ つて、 赤色成分の色情報と青色成分の色情報とが緑色成分の色情報に対してずれ ている場合であっても、 主要項は、 赤色成分の色情報と青色成分の色情報との平 均的な変化量に応じて補正される (図 9 A、 9 B参照) 。 そのため、 第 3の実施 形態によれば、 撮影光学系 1 2に倍率色収差が存在している場合であっても、 所 望の画素に対する主要項を補正することが可能であり、 米国特許第 5, 6 2 9, 7 3 号明細書に開示された G補間処理で生じる overshootと undershootとが打ち消 し合う ことを意味する。 したがって、 第 3の実施形態によれば、 過補正による偽 色の発生を低減することができる。
《第 4の実施形態》
以下、 第 4の実施形態の動作を説明する。
なお、 第 4の実施形態における R B補間処理は、 第 1の実施形態と同様にして 行えるため、 ここでは、 説明を省略する。
以下、 G補間処理について説明するが、 第 1の実施形態と同じ動作については、 説明を省略する。 なお、 第 4の実施形態における G補間処理と第 1の実施形態に おける G補間処理との相違点は、 補間対象画素の類似性の強さを判定した後の動 作が異なる点である。 そのため、 第 4の実施形態では、 G補間処理における補間 処理部 1 7の動作フローチヤ一トの図示を省略する。
補間処理部 1 7は、 第 1の実施形態と同様にして補間対象画素の類似性の強さ を判定し (図 4 S 1〜S 1 1 に相当する) 、 補間対象画素の類似性の強さを上述 した casel〜case9の何れかに分類する。
そして、 補間処理部 1 7は、 類似性が強いと判定された方向に直行する方向に 対し、 緑色成分の傾斜 Gk [ i,j ]と、 赤色成分 (または、 青色成分) の傾斜 Zk [ i , j ] とを、 以下のよ う にして算出する。
easelのとき、
Gk[i, j] = ((G[i-l, j]+G[i, j-l])-(G[i, j + l]+G[i + l, j]))/2 …式 7 5
Zk[i, j] = ((Z[i-2, j]+Z[i, j-2])-(Z[i, j+2]+Z[i+2, j]))/2 …式 7 6 case2のとき、
Gk[i, j]=G[i, j-l]-G[i, j+1] …式 7 7
Zk[i, j]=Z[i,j-2] - Z[i, j+2] …式 7 8
case3のとき、
Gk[i, j] = ((G[i-l, j]+G[i, j+l])-(G[i, j-l]+G[i + l, j]))/2 …式 7 9
Zk[i, j] = ((Z[i- 2, j]+Z[i,j+2])- (Z[i, j - 2]+Z[i+2, j]))/2 …式 8 0 case4のとき、 easelと同じ
case5のとき、 Gk[i,j] = l、 Zk[i, j]=l
case6のとき、 case3と岡じ
case7のとき、 easelと同じ
case8のとき、
Gk[i, j]=G[i-l, j]-G[i + l, j] …式 8 1
Zk[i, j]=Z[i-2, j]-Z[i+2, j] …式 8 2
case9のとき、 case3と同じ
次に、 補間処理部 1 7は、 以下のよ う にして緑の補間値 G[i, j]を算出する。 easelのとき G[ ]=Gvk[i, j]
case2のとき G[ ]=Gvk[i, j]
case3のとき G[ ]=Gvk[i, j]
case4のとき G[ ] = (Gvk[i, j]+Ghk[i, j])/2
case5のとき G[ ] = (Gvk[i, j]+Ghk[i, j])/2
case6のとき G[ , j] = (Gvk[i, j]+Ghk[i, j])/2
case7のとき G[ ]=Ghk[i, j]
case8のとき G[ ]=Ghk[i, j]
case9のとき G[i, j]=Ghk[i, j]
ただし、 Gvk[i, j] = (G[i, j-l]+G[i, j+l])/2
+Gk[i, j]/Zk[i, j]-(2-Z[i, j]-Z[i, j-2]-Z[i, j+2])/ …式 8 3
Ghk[i, j] = (G[i-l, j]+G[i + l, j])/2
+Gk[i, j]/Zk[i, j]-(2-Z[i, j]-Z[i-2, j]-Z[i+2, j])/4 …式 8 4である。 ところで、 式 8 3およぴ式 8 4において、 第 1項は、 「緑色成分の局所的な平 均情報」 であり、 式 1や式 2の主要項に対応する。 また、 第 2項は、 加重係数
(緑色成分の傾斜 Gk[i, j]と、 赤色成分 (または、 青色成分) の傾斜 Zk[i,j]との 相関を示す値: Gk[i, j]/Zk[i, j]) が掛けられた 「補間対象画素と同一の色成分に よる局所的な変曲情報」 であり、 補正項に対応する。
すなわち、 第 4の実施形態では、 緑色成分の局所的な平均情報を、 加重係数を 掛けた 「補間対象画素と同一の色成分による局所的な変曲情報」 によって補正し ている。
ここで、 加重係数を掛けずに 「補間対象画素と同一の色成分による局所的な変 曲情報」 を 「緑色成分の局所的な平均情報」 に加算して補正値を算出する場合の 問題点を示す。
例えば、 緑色成分の色情報と赤色成分 (または、 青色成分) の色情報とが図 1 5の眷印のように与えられている場合 (所定の位置を境に緑色成分の色情報が増 加し、 赤色成分 (または、 青色成分) の色情報が減少する場合) 、 「補間対象画 素と同一の色成分による局所的な変曲情報」 は正の値となる。 したがって、 この ような場合、 加重係数を掛けずに '「補間対象画素と同一の色成分による局所的な 変曲情報」 を 「緑色成分の局所的な平均情報」 に加算すると、 本来、 負の方向に 補正されるべき、 「緑色成分の局所的な平均情報」 は、 図 1 5の Δ印のよう に正 の方向に補正され overshootが生じる。
すなわち、 色境界部分において、 緑色成分の色情報と赤色成分 (または、 青色 成分) の色情報とが所定の位置を境に逆方向に変化する場合、 加重係数を掛けず に 「補間対象画素と同一の色成分による局所的な変曲情報」 を 「緑色成分の局所 的な平均情報」 に加算して補正項を算出すると、 overshootや undershootが生じる ことになる。
一方、 本実施形態において、 緑色成分の色情報と赤色成分 (または、 青色成 分) の色情報とが図 1 5の秦印のように与えられている場合、 緑色成分の傾斜 Gk
[i, j]の符号と赤色成分 (または、 青色成分) の傾斜 Zk[i, j]の符号とが逆になり、 加重係数は負の値となる。 そのため、 本実施形態では、 図 1 5の□印に示すよう に、 「緑色成分の局所的な平均情報」 が所望の方向に補正されるため、 overshoo tや undershootが発生することはない。
すなわち、 第 4の実施形態によれば、 色境界部分における過補正による偽色の 発生を低減することができる。
なお、 第 4の実施形態では、 加重係数の値に何ら制限を設けていないが、 加重 係数の値をある範囲内に制限することによって、 補正項が過大になることを防ぐ ことができる。
例えば、 加重係数の値の範囲と しては、
|Gk[i, j]/Zk[i, j]|≤5¾どが考えられる。
《第 5の実施形態》
以下、 第 5の実施形態の動作を説明する。
なお、 第 5の実施形態における R B補間処理は、 第 1の実施形態と同様にして 行えるため、 ここでは、 説明を省略する。 ただし、 第 5の実施形態では、 第 3の 実施形態と同様に、 式 5 1によって、 緑色成分の色情報が存在する画素の一部に 対して赤色成分を含む色差が補間され、 緑色成分の色情報が存在する残りの画素 と青色の色成分が存在する画素とに対する赤色成分を含む色差が式 52によって 補間されることになる。
以下、 G補間処理について説明する。
第 5の実施形態では、 図 3 A、 図 3 Bに示すように、 G補間処理の対象となる 面素の横方向に、 最近接の緑色成分が存在する画素が位置するため、 横方向に位 置する画素に存在する色情報を用いて補間処理を行う ことが最も単鈍である。 そ こで、 第 5の実施形態では、 第 4の実施形態の case8と同様にして、 緑の補間値 G [i,j]を算出するものとする。
すなわち、 補間処理部 1 7は、 式 8 5によって、 緑の補間値 G[i, j]を算出する
G[i, j] = (G[i-l, j]+G[i + l, j])/2
+Gk[i, j]/Zk[i, j] -(2-Z[i, j]-Z[i-2, j]-Z[i+2, j])/4 …式 8 5 ただし、
Gk[i, j]=G[i-l, j]-G[i + l, j] …式 8 1
Zk[i, j]=Z[i-2, j]-Z[i+2, j] …式 8 2である。
このよう に、 第 5の実施形態では、 第 4の実施形態と同様に、 緑色成分の局所 的な平均情報を、 加重係数 (緑色成分の傾斜 Gk[i,j]と、 赤色成分 (または、 青色 成分) の傾斜 Zk[i,j]との相関を示す値: Gk[i, j]/Zk[i, j]) を掛けた 「補間対象 画素と同一の色成分に局所的な変曲情報」 によって補正している。 そのため、 第 5の実施形態によれば、 色境界部分における過補正による偽色の発生を低減する ことができる。
なお、 上述した各実施形態では、 G補間処理および R B補間処理において、 色 差を色相と して用いる例を説明したが、 色相と して色の比などを用いても、 色差 と同様に、 G補間処理および R B補間処理を行う ことができる。
なお、 上述した各実施形態では、 各色成分の変曲情報を 2次微分で求める例を 示したが、 この内容に限定する必要はない。 高次の微分で求めるようにしてもよ い。 すなわち、 各色成分の変化率の変化の程度を求めることができる方法であれ ばどのような方法であつてもよい。
《第 6の実施形態》
以下、 第 6の実施形態の動作を説明する。
図 1 6は、 第 6の実施形態の機能ブロック図である。 図 1 6において、 機能が 図 1 に示す機能プロック図と同じものについては、 同じ符号を付与して示し、 構 成の説明については省略する。
なお、 図 1 6に示す電子カメラ 2 0 と図 1 に示した電子力メラ 1 0 との構成の 相違点は、 図 1 6の制御部 2 1 と画像処理部 2 2 とが図 1の制御部 1 1 と画像処 理部 1 5 とに代えて設けられ、 図 1 6のイ ンタフヱース部 2 3が新たに設けられ た点である。
また、 図 1 6において、 パーソナルコンピュータ 3 0は、 C P U 3 1、 イ ンタ フェース部 3 2、 ハー ドディスク 3 3、 メモリ 3 4、 C D— R OMドライブ装置 3 5およぴ通信イ ンターフェース部 3 6を有し、 C P U 3 1 は、 バスを介してィ ンタフエース部 3 2、 ハー ドディスク 3 3、 メモリ 3 4、 C D— R OMドライブ 装置 3 5およぴ通信イ ンターフェース部 3 6 に接続される。
なお、 パーソナルコンピュータ 3 0には、 C D— R O M 3 7などの記録媒体に 記録された補間処理プログラム (前述した各実施形態の補間処理部 1 7 と同様に して補間処理を実行する補間処理プログラム) が C D— R O Mドライブ装置 3 5 を介して予めイ ンス トールされているものとする。 すなわち、 ハー ドディスク 3 3には、 このよ うな補間処理プログラムが実行可能な状態で格納されている。 以下、 図 1 6 を参照して第 6の実施形態の動作を説明する。
まず、 電子力メラ 2 0では、 図 1 に示した電子力メラ 1 0 と同様にして生成さ れた画像データが画像処理部 2 2 に供給される。 画像処理部 2 2は、 画像データ に補間処理以外の画像処理 (例えば、 階調変換処理など) を施し、 記録部 1 6で は、 画像処理が施された画像データが画像ファイルの形式で記録される。
このよう な画像ファイルは、 イ ンタフヱース部 2 3 を介してパーソナルコンビ ユータ 3 0 に供給される。
パーソナルコンピュータ 3 0内の C P U 3 1 は、 イ ンタフヱース部 3 2 を介し て画像ファイルを取得すると、 前述した補間処理プログラムを実行する。 補間処 理によ り各色成分の解像度が高められた画像データは、 必要に応じて画像圧縮等 を行ってから、 ハー ドディスク 3 3などに記録され、 最終的に、 ディスプレイ、 プリ ンタなどの各接続機器に応じた表色系データと して出力される。
すなわち、 第 6の実施形態では、 前述した各実施形態と同様の補間処理をパー ソナルコンピュータ 3 0 によって行う ことができる。
上記第 6の実施形態では、 補間処理プログラムを C D— R O M 3 7の記録媒体 で提供する例を説明したが、 記録媒体は C D— R O Mに限定されない。 磁気テー プゃ D V Dやその他のあらゆる記録媒体が使用可能である。
また、 それらのプログラムをインターネッ トなどに代表される通信回線 3 8な どの伝送媒体を介して提供することも可能である。 すなわち、 プログラムを、 伝 送媒体を搬送する搬送波上の信号に変換して送信することも可能である。 図 1 6 のパーソナルコンピュータ 3 0はそのような機能も有する。
パーソナルコンピュータ 3 0は通信回線 3 8 と接続する通信イ ンターフェース 部 3 6を有する。 サーバーコンピュータ 3 9は補間処理プログラムを提供するサ 一バーコンピュータであり、 内部のハードディスクなどの記録媒体に補間処理プ ログラムが格納されている。 通信回線 3 8は、 インターネッ ト、 パソコン通信な どの通信回線、 あるいは専用通信回線などである。 通信回線 3 8は、 電話回線や 携帯電話などの無線電話回線などを含む。
なお、 図 1の電子力メラ 1 0では、 電子力メラ 1 0内部で実行される本発明の 補間処理プログラムは通常製造時に R O M (不図示) などに搭載される。 しかし- 補間処理プログラムを搭載する R O Mを書き換え可能な R O Mと し、 図 1 6 と同 様な構成でコンピュータに接続し、 コンピュータを介して C D— R O Mなどの記 録媒体から改良プログラムの提供を受けることも可能である。 さらには、 上記と 同様にィンタ一ネッ ト等を介して改良プログラムの提供を受けることも可能であ る。

Claims

請求の範囲
1 . 第 1〜第 n ( n≥ 2 ) の色成分から成る表色系で示され、 各々の画素に 1 種類の色成分の色情報が存在する画像データに対し、 第 1色成分が欠落する画素 に第 1色成分の色情報に相当する補間値を決める処理を行う補間処理装置は、 補間処理の対象となる補間対象画素が属する局所的領域に位置する画素に存在 する色情報を用いて、 少なく と も、
( 1 ) 補間対象画素に関する第 1色成分の局所的な平均情報と、
( 2 ) 補間対象画素に関する 2種類以上の色成分の局所的な変曲情報とで構成さ れる補間値を算出する補間値算出手段を備える。
2 . ク レーム 1 に記載の補間処理装置において、
前記補間値算出手段は、
前記 2種類以上の色成分の局所的な変曲情報として、
( 1 ) 補間対象画素と同一の色成分による局所的な変曲情報と、
( 2 ) 補間対象画素とは異なる色成分による局所的な変曲情報とを含む局所的な 変曲情報を算出する。
3 . 第 1〜第 II ( n≥ 2 ) の色成分から成る表色系で示され、 各々の画素に 1 種類の色成分の色情報が存在する画像デ—タに対し、 第 1色成分が欠落する画素 に第 1色成分の色情報に相当する補間値を決める処理を行う補間処理装置は、 補間処理の対象となる補間対象画素が属する局所的領域に位置する画素に存在 する色情報を用いて、 少なく とも、
( 1 ) 補間対象画素に関する第 1色成分の局所的な平均情報と、
( 2 ) 補間対象画素とは異なる色成分による局所的な変曲情報とで構成される補 間値を算出する補間値算出手段を備える。
4 . 第 1〜第 n ( n≥ 2 ) の色成分から成る表色系で示され、 各々の画素に 1 種類の色成分の色情報が存在する画像データに対し、 第 1色成分が欠落する画素 に第 1色成分の色情報に相当する補間値を決める処理を行う補間処理装置は、 補間処理の対象となる補間対象画素が属する局所的領域に位置する画素に存在 する色情報を用いて、 少なく とも、
( 1 ) 補間対象画素に関する第 1色成分の局所的な平均情報と、
( 2 ) 補間対象画素に関する第 1色成分の局所的な変曲情報とで構成される補間 値を算出する補間値算出手段を備える。
5 . クレーム 1 ないしク レーム 3の何れか 1 に記載の補間処理装置は、
補間対象画素と第 1色成分の色情報が存在する画素とを結ぶ少なく と も 2つの 方向に対し、 補間対象画素との類似性の強弱を判定する第 1の類似性判定手段と- 前記第 1の類似性判定手段によつて類似性の強弱が判定される方向とは異なる 少なく とも 2つの方向に対し、 補間対象画素との類似性の強弱を判定する第 2の 類似性判定手段とを備え、
前記補間値算出手段は、
前記第 1色成分の局所的な平均情報を算出する際に用いる色情報が存在する画 素の方向を、 前記第 1の類似性判定手段による判定結果に基づいて選択し、
( 1 ) 前記局所的な変曲情報が、 「単一色成分で構成され、 前記第 1の類似性判 定手段で類似性の強弱の判定対象となる方向について方向性を有する局所的な変 曲情報」 である場合、 該局所的な変曲情報を算出する際に用いる色情報が存在す る画素の方向を該第 1の類似性判定手段による判定結果に基づいて選択し、
( 2 ) 前記局所的な変曲情報が、 「単一色成分で構成され、 前記第 2の類似性判 定手段で類似性の強弱の判定対象となる方向について方向性を有する局所的な変 曲情報」 である場合、 該局所的な変曲情報を算出する際に用いる色情報が存在す る画素の方向を該第 2の類似性判定手段による判定結果に基づいて選択する。
6 . 第 1〜第 n ( n≥ 2 ) の色成分から成る表色系で示され、 各々の面素に 1 種類の色成分の色情報が存在する画像データに対し、 第 1色成分が欠落する画素 に第 1色成分の色情報に相当する補間値を決める処理を行う補間処理装置は、 補間処理の対象となる補間対象画素が属する局所的領域に位置する画素の色情 報を用いて、 少なく とも、 第 1項と第 2項との 2つの項で構成される補間値を算 出する補間値算出手段と、
補間対象画素と第 1色成分の色情報が存在する画素とを結ぶ少なく とも 2つの 方向に対し、 補間対象画素との類似性の強弱を判定する第 1の類似性判定手段と、 前記第 1の類似性判定手段によって類似性の強弱が判定される方向とは異なる 少なく とも 2つの方向に対し、 補間対象画素との類似性の強弱を判定する第 2の 類似性判定手段とを備え、
前記補間値算出手段は、
前記第 1項を算出する際に用いる色情報が存在する画素の方向を、 前記第 1の 類似性判定手段による判定結果に基づいて選択し、 前記第 2項を算出する際に用 いる色情報が存在する画素の方向を、 前記第 2の類似性判定手段による判定結果 に基づいて選択する。
7 . クレーム 6に記載の補間処理装置において、
前記補間値算出手段は、
前記第 1項と して、
( a ) 補間対象画素に関する第 1色成分の局所的な平均情報と、
( b ) 単一色成分で構成され、 前記第 1の類似性判定手段で類似性の強弱の判定 対象となる方向について方向性を有する局所的な変曲情報とを含む項を算出し、 前記第 2項として、
単一色成分で構成され、 前記第 2の類似性判定手段で類似性の強弱の判定対象 となる方向について方向性を有する局所的な変曲情報を含む項を算出する。
8 . クレーム 5またはクレーム 7に記載の補間処理装置において、
画像データが第 1〜第 3の色成分から成る表色系で示され、 第 1色成分が第 2 色成分および第 3色成分に比べて空間周波数が高く、 第 1色成分が市松模様状に 配置されると共に、 第 2色成分およぴ第 3色成分がそれぞれ第 1色成分の間に線 順次に配置され、 補間対象画素に第 2色成分が存在する場合、
前記第 1の類似性判定手段は、 補間対象画素と補間対象画素に最も近接する第 1色成分が存在する画素とを結 ぶ縦横 2方向に対する補間対象画素の類似度を算出し、 該類似度の差異に基づい て、 該縦横 2方向に対する補間対象画素の類似性の強弱を判定し、
前記第 2の類似性判定手段は、
補間対象画素と補間対象画素に最も近接する第 3色成分が存在する画素とを結 ぶ斜め 2方向に対する補間対象画素の類似度を算出し、 該類似度の差異に基づい て、 該斜め 2方向に対する補間対象画素の類似性の強弱を判定し、
前記補間値算出手段は、
「単一色成分で構成され、 前記第 1の類似性判定手段で類似性の強弱の判定対 象となる方向について方向性を有する局所的な変曲情報」 を、 第 2色成分と第 1 色成分との少なく とも一方に対応させ、 「単一色成分で構成され、 前記第 2の類 似性判定手段で類似性の強弱の判定対象となる方向について方向性を有する局所 的な変曲情報」 を、 第 2色成分と第 3色成分との少なく とも一方に対応させる。
9 . ク レーム 8に記載の補間処理装置において、
前記補間値算出手段は、
前記局所的な変曲情報が、 「補間対象画素とは異なる色成分による局所的な変 曲情報」 である場合、 該局所的な変曲情報を、 第 1色成分に対応させるか、 第 3 色成分に対応させるかを、 前記第 2の類似性判定手段によって判定された類似性 の強弱に応じて切り替える。
1 0 . ク レーム 9に記載の補間処理装置において、
前記補間値算出手段は、
前記第 2の類似性判定手段によつて'、 前記斜め 2方向の類似性が同程度である と判定された場合、 第 1色成分による局所的な変曲情報を算出し、 該斜め 2方向 の類似性のうち、 一方の斜め方向の類似性が他方の斜め方向の類似性よ り も強い と判定された場合、 第 3色成分による局所的な変曲情報を算出する。
1 1 . クレーム 8に記載の補間処理装置において、 前記第 1の類似性判定手段は、
前記縦横 2方向の類似度の差異が所定の閾値よ り も小さい場合、 該縦横 2方向 の類似性が同程度であると判定し、
前記第 2の類似性判定手段は、
前記斜め 2方向の類似度の差異が所定の閾値よ り も小さい場合、 該斜め 2方向 の類似性が同程度であると判定する。
1 2 . クレーム 8に記載の補間処理装置において、
前記第 1 の類似性判定手段は、
1つの補間対象画素につき、 前記縦横 2方向の類似度を複数の色成分の色情報 を用いて算出し、
前記第 2の類似性判定手段は、
1つの補間対象画素につき、 前記斜め 2方向の類似度を複数の色成分の色情報 を用いて算出する。
1 3 . クレーム 1 2に記載の補間処理装置において、
前記第 2の類似性判定手段は、
前記斜め 2方向の各々の方向毎に、
( 1 ) 第 1色成分のみの色情報から成る類似度成分と、
( 2 ) 第 2色成分のみの色情報から成る類似度成分と、
( 3 ) 第 3色成分のみの色情報から成る類似度成分と、
( 4 ) 第 2色成分および第 3色成分の色情報から成る類似度成分とを加重加算し て、 各々の方向の類似度を算出する。
1 4 . ク レーム 8に記載の補間処理装置において、
前記第 1 の類似性判定手段は、
各々の画素における縦横 2方向に対する類似度を算出し、 補間対象画素のみな らず周辺画素の類似度の差異に基づいて、 補間対象画素の縦横 2方向に対する類 似性を判定し、 前記第 2の類似性判定手段は、
各々の画素における斜め 2方向に対する類似度を算出し、 補間対象画素のみな らず周辺画素の類似度の差異に基づいて、 補間対象画素の斜め 2方向に対する類 似性を判定する。
1 5 . 第 1〜第 n ( n≥ 2 ) の色成分から成る表色系で示され、 各々の画素に 1種類の色成分の色情報が存在する画像データに対し、 第 1色成分が欠落する画 素に第 1色成分の色情報に相当する補間値を決める処理を行う補間処理装置は、 補間処理の対象となる補間対象画素が属する局所的領域に位置する画素に存在 する色成分の色情報を用いて、 補間対象画素に関する第 1色成分の平均情報を表 す第 1項を算出する第 1項算出手段と、
補間対象画素が属する局所的領域に位置する画素に存在する色成分の色情報を 用いて、 補閬対象画素に関して補間対象画素と同一の色成分による局所的な変曲 情報を表す第 2項を算出する第 2項算出手段と、
補間対象画素が属する局所的領域に位置する画素に存在する複数の色成分の色 情報から成る加重係数を前記第 2項に掛けて、 前記第 1項と加算することによつ て、 補間値を算出する補間値算出手段とを備える。
1 6 . ク レーム 1 5に記載の補間処理装置において、
前記補間値算出手段は、
補間対象画素および補間対象画素に対して予め決められた方向に位置する複数 の画素に存在する複数の色成分の色情報を用い、 各々の色成分別に該方向に対す る色情報の傾きを求め、 該色成分別の色情報の傾きの相関に応じて前記加重係数 を算出する。
1 7 . 輝度成分と色成分とから成る表色系で示され、 輝度成分の空間周波数が 色成分の空間周波数よ り も高く、 色成分の存在する画素と色成分が欠落する画素 との両方に輝度成分が存在する画像データに対し、 色成分が欠落する画素に色成 分を補うための処理を行う補間処理装置は、 補間処理の対象となる補間対象画素の近傍に位置して輝度成分と色成分とが存 在する複数の画素の色相値を、 各々の画素の辉度成分と色成分とを用いて算出す る色相値算出手段と、
前記色相値算出手段で算出された複数の画素の色相値の中央値によって、 補間 対象画素の色相値を算出する色相値補間手段と、
補間対象画素に存在する輝度成分を用いて、 前記色相値補間手段で算出された 補間対象画素の色相値を色成分に変換して、 補間対象画素の色成分を補間する色 変換手段とを備える。
1 8 . 輝度成分と色成分とから成る表色系で示され、 輝度成分の空間周波数が 色成分の空間周波数よ り も高く、 1画素につき輝度成分と色成分との何れか一方 が存在する画像データに対し、 輝度成分が欠落する画素に輝度成分を補い色成分 が欠落する画素に色成分を補うための処理を行う補間処理装置は、
「輝度成分の補間処理の対象となる輝度成分補間対象画素と輝度成分補間対象 画素の近傍に位置する画素との類似性」 と 「輝度成分補間対象画素が属する局所 的領域內の複数の色成分」 との少なく とも一方を利用して、 輝度成分補間対象画 素の輝度成分を補間する輝度成分補間手段と、
色成分の補間処理の対象となる補間対象画素の近傍に位置し、 色成分が存在し て前記輝度成分補間手段によって輝度成分が補間された複数の画素の色相値を、 各々の画素の輝度成分と色成分とを用いて算出する色相値算出手段と、
前記色相値算出手段で算出された複数の画素の色相値の中央値によって、 補間 対象画素の色相値を算出する色相値補間手段と、
補間対象画素に存在する輝度成分を用いて、 前記色相値補間手段で算出された 補間対象画素の色相値を色成分に変換して、 補間対象画素の色成分を補間する色 変換手段とを備える。
1 9 . クレーム 1 7またはクレーム 1 8に記載の補間処理装置において、 画像 データの輝度成分が緑色成分に対応し、 画像データの色成分が赤色成分と青色成 分とに対応する場合、 前記色相値補間手段は、
補間対象画素に緑色成分が存在して赤色成分が欠落する場合、 補間対象画素の 近傍に位置する画素の赤色成分を含む色相値の中央値によつて補間対象画素の色 相値を算出し、 補間対象画素に緑色成分が存在して青色成分が欠落する場合、 補 間対象面素の近傍に位置する画素の青色成分を含む色相値の中央値によつて補間 対象画素の色相値を算出する。
2 0 . クレーム 1 7またはクレーム 1 8に記載の補間処理装置において、 画像 データの輝度成分が緑色成分に対応し、 画像データの色成分が赤色成分と青色成 分とに対応する場合、
前記色相値補間手段は、
補間対象画素に青色成分が存在して赤色成分が欠落する場合、 補間対象画素の 近傍に位置する画素の赤色成分を含む色相値の中央値によつて補間対象画素の色 相値を算出する。
2 1 . ク レーム 1 7またはクレーム 1 8に記載の補間処理装置において、 画像 データの輝度成分が緑色成分に対応し、 画像データの色成分が赤色成分と青色成 分とに対応する場合、
前記色相値補間手段は、
補間対象画素に赤色成分が存在して青色成分が欠落する場合、 補間対象画素の 近傍に位置する画素の青色成分を含む色相値の中央値によつて補間対象画素の色 相値を算出する。
2 2 . クレーム 1 7ないしクレーム 2 1の何れか 1項に記載の補間処理装置に おいて、 補間対象画素に欠落する色成分が、 縦横対称に配置された 4画素のうち 1画素のみに存在する場合、
前記色相値補間手段は、
補間対象画素の斜め方向に隣接する複数の斜め隣接画素の色相値が前記色相値 算出手段によって算出されている場合、 該斜め隣接画素の色相値の中央値によつ て補間対象画素の色相値を算出する第 1の色相値補間部と、
補間対象画素の縦方向と横方向とに隣接する複数の縦横隣接画素の色相値が前 記色相値算出手段または前記第 1 の色相値補間部によって算出されている場合、 該縦横隣接画素の色相値の中央値によって補間対象画素の色相値を算出する第 2 の色相値補間部とを備える。
2 3 . 記録媒体は、 第 1〜第 n ( n≥ 2 ) の色成分から成る表色系で示され、 各々の画素に 1種類の色成分の色情報が存在する画像データに対し、 第 1色成分 が欠落する画素に第 1色成分の色情報に相当する補間値を決める処理をコンピュ 一夕で実現するための補間処理プログラムを記録し、 該補間処理プログラムは、 補間処理の対象となる補間対象画素が属する局所的領域に位置する画素に存在 する色情報を用いて、 少なく と も、
( 1 ) 補間対象画素に関する第 1色成分の局所的な平均情報と、
( 2 ) 補間対象画素に関する 2種類以上の色成分の局所的な変曲情報とで構成さ れる補間値を算出する補間値算出手順を有する。
2 4 . 記録媒体は、 第 1〜第 n ( n≥ 2 ) の色成分から成る表色系で示され、 各々の画素に 1種類の色成分の色惰報が存在する画像データに対し、 第 1色成分 が欠落する画素に第 1色成分の色情報に相当する補間値を決める処理をコンピュ 一夕で実現するための補間処理プログラムを記録し、 該補間処理プログラムは、 補間処理の対象となる補間対象画素が属する局所的領域に位置する画素に存在 する色情報を用いて、 少なく とも、
( 1 ) 補間対象画素に関する第 1色成分の局所的な平均情報と、
( 2 ) 補間対象画素とは異なる色成分による局所的な変曲情報とで構成される補 間値を算出する補間値算出手順を有する。
2 5 . 記録媒体は、 第 1〜第 n ( n≥ 2 ) の色成分から成る表色系で示され、 各々の画素に 1種類の色成分の色情報が存在する画像デ一タに対し、 第 1色成分 が欠落する画素に第 1色成分の色情報に相当する補間値を決める処理をコンピュ 一夕で実現するための補間処理プログラムを記録し、 該補間処理プログラムは、 補間処理の対象となる補間対象画素が属する局所的領域に位置する画素に存在 する色情報を用いて、 少なく とも、
( 1 ) 補間対象画素に関する第 1色成分の局所的な平均情報と、
( 2 ) 補間対象画素に関する第 1色成分の局所的な変曲情報とで構成される補間 値を算出する補間値算出手順を有する。
2 6 . 記録媒体は、 第 1 〜第 n ( n≥ 2 ) の色成分から成る表色系で示され、 各々の画素に 1種類の色成分の色情報が存在する画像データに対し、 第 1色成分 が欠落する画素に第 1色成分の色情報に相当する補間値を決める処理をコンビュ ータで実現するための補間処理プログラムを記録し、 該補間処理プログラムは、 補間処理の対象となる補間対象画素が属する局所 ^的領域に位置する画素の色情 報を用いて、 少なく とも、 第 1項と第 2項との 2つの項で構成される補間値を算 出する補間値算出手順と、
補間対象画素と第 1色成分の色情報が存在する画素とを結ぶ少なく とも 2つの 方向に対し、 補間対象画素との類似性の強弱を判定する第 1の類似性判定手順と- 前記第 1の類似性判定手順によつて類似性の強弱が判定される方向とは異なる 少なく とも 2つの方向に対し、 補間対象画素との類似性の強弱を判定する第 2の 類似性判定手順とを有し、
前記補間値算出手順は、
前記第 1項を算出する際に用いる色情報が存在する画素の方向を、 前記第 1の 類似性判定手順による判定結果に基づいて選択し、 前記第 2項を算出する際に用 いる色情報が存在する画素の方向を、 前記第 2の類似性判定手順による判定結果 に基づいて選択する。
2 7 . 記録媒体は、 第 1 〜第 n ( n≥ 2 ) の色成分から成る表色系で示され、 各々の画素に 1種類の色成分の色情報が存在する画像データに対し、 第 1色成分 が欠落する画素に第 1色成分の色情報に相当する補間値を決める処理をコンピュ 一夕で実現するための補間処理プログラムを記録し、 該補間処理プログラムは、 補間処理の対象となる補間対象画素が属する局所的領域に位置する面素に存在 する色成分の色情報を用いて、 補間対象画素に関する第 1色成分の平均情報を表 す第 1項を算出する第 1項算出手順と、
補間対象画素が属する局所的領域に位置する画素に存在する色成分の色情報を 用いて、 補間対象画素に関して補間対象画素と同一の色成分による局所的な変曲 情報を表す第 2項を算出する第 2項算出手順と、
補間対象画素が属する局所的領域に位置する画素に存在する複数の色成分の色 情報から成る加重係数を前記第 2項に掛けて、 前記第 1項と加算することによつ て、 補間値を算出する補間値算出手順とを有する。
2 8 . 記録媒体は、 輝度成分と色成分とから成る表色系で示され、 輝度成分の 空間周波数が色成分の空間周波数よ り も高く、 色成分の存在する画素と色成分が 欠落する画素との雨方に輝度成分が存在する画像デ一タに対し、 色成分が欠落す る画素に色成分を補う処理をコンピュータで実現するための補間処理プログラム を記録し、 該補間処理プログラムは、
補間処理の対象となる補間対象画素の近傍に位置して輝度成分と色成分とが存 在する複数の画素の色相値を、 各々の画素の輝度成分と色成分とを用いて算出す る色相値算出手順と、
前記色相値算出手順で算出された複数の画素の色相値の中央値によって、 補間 対象画素の色相値を算出する色相値補間手順と、
補間対象画素に存在する輝度成分を用いて、 前記色相値補間手順で算出された 補間対象画素の色相値を色成分に変換して、 補間対象画素の色成分を補間する色 変換手順とを有する。
2 9 . 記録媒体は、 輝度成分と色成分とから成る表色系で示され、 輝度成分の 空間周波数が色成分の空間周波数よ り も高く、 1画素につき輝度成分と色成分と の何れか一方が存在する画像データに対し、 輝度成分が欠落する画素に輝度成分 を補い色成分が欠落する画素に色成分を補う処理をコンピュータで実現するため の補間処理プログラムを記録し、 該補間処理プログラムは、 「輝度成分の補間処理の対象となる輝度成分補間対象画素と輝度成分補間対象 画素の近傍に位置する画素との類似性」 と 「輝度成分補間対象画素が属する局所 的領域内の複数の色成分」 との少なく とも一方を利用して、 輝度成分補間対象画 素の輝度成分を補間する輝度成分補間手順と、
色成分の補間処理の対象となる補間対象画素の近傍に位置し、 色成分が存在し て前記輝度成分補間手順によって輝度成分が補間された複数の画素の色相値を、 各々の画素の輝度成分と色成分とを用いて算出する色相値算出手順と、
前記色相値算出手順で算出された複数の画素の色相値の中央値によって、 補間 対象画素の色相値を算出する色相値補間手順と、
補間対象画素に存在する輝度成分を用いて、 前記色相値補間手順で算出された 補間対象画素の色相値を色成分に変換して、 補間対象画素の色成分を補間する色 変換手順とを有する。
PCT/JP2000/009040 1999-12-21 2000-12-20 Dispositif d'interpolation et support d'enregistrement sur lequel un programme d'interpolation est enregistre WO2001047244A1 (fr)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US09/877,002 US20020001409A1 (en) 1999-12-21 2001-06-11 Interpolation processing apparatus and recording medium having interpolation processing program recorded therein
US11/367,583 US7236628B2 (en) 1999-12-21 2006-03-06 Interpolation processing apparatus and recording medium having interpolation processing program recording therein
US11/477,666 US7362897B2 (en) 1999-12-21 2006-06-30 Interpolation processing apparatus and recording medium having interpolation processing program recorded therein

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP11/363007 1999-12-21
JP36300799 1999-12-21
JP2000/204768 2000-07-06
JP2000204768A JP4599672B2 (ja) 1999-12-21 2000-07-06 補間処理装置および補間処理プログラムを記録した記録媒体

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US09/877,002 Continuation US20020001409A1 (en) 1999-12-21 2001-06-11 Interpolation processing apparatus and recording medium having interpolation processing program recorded therein

Publications (1)

Publication Number Publication Date
WO2001047244A1 true WO2001047244A1 (fr) 2001-06-28

Family

ID=26581442

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2000/009040 WO2001047244A1 (fr) 1999-12-21 2000-12-20 Dispositif d'interpolation et support d'enregistrement sur lequel un programme d'interpolation est enregistre

Country Status (3)

Country Link
US (3) US20020001409A1 (ja)
JP (1) JP4599672B2 (ja)
WO (1) WO2001047244A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6724945B1 (en) 2000-05-24 2004-04-20 Hewlett-Packard Development Company, L.P. Correcting defect pixels in a digital image

Families Citing this family (78)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE60238803D1 (de) * 2001-03-05 2011-02-10 Nikon Corp Bildverarbeitungseinrichtung und Bildverarbeitungsprogramm
US7088392B2 (en) * 2001-08-27 2006-08-08 Ramakrishna Kakarala Digital image system and method for implementing an adaptive demosaicing method
US6950469B2 (en) 2001-09-17 2005-09-27 Nokia Corporation Method for sub-pixel value interpolation
JP3947969B2 (ja) * 2002-05-15 2007-07-25 ソニー株式会社 画像処理装置、および画像処理方法、記録媒体、並びにプログラム
WO2003101119A1 (fr) * 2002-05-24 2003-12-04 Nikon Corporation Procede de traitement d'images, programme de traitement d'images et processeur d'images
US20030231795A1 (en) * 2002-06-12 2003-12-18 Nokia Corporation Spatial prediction based intra-coding
US7289674B2 (en) * 2002-06-11 2007-10-30 Nokia Corporation Spatial prediction based intra coding
JP2004241991A (ja) * 2003-02-05 2004-08-26 Minolta Co Ltd 撮像装置、画像処理装置及び画像処理プログラム
JP4882374B2 (ja) * 2003-06-12 2012-02-22 株式会社ニコン 画像処理方法、画像処理プログラム、画像処理装置
JP4305071B2 (ja) * 2003-06-30 2009-07-29 株式会社ニコン 信号補正方法
US7440016B2 (en) * 2003-12-22 2008-10-21 Hewlett-Packard Development Company, L.P. Method of processing a digital image
CN1857008B (zh) * 2004-02-19 2010-05-05 三菱电机株式会社 图像处理方法
JP4396332B2 (ja) * 2004-03-10 2010-01-13 セイコーエプソン株式会社 ディジタルカメラ
WO2006006373A1 (ja) * 2004-07-07 2006-01-19 Nikon Corporation 画像処理装置およびコンピュータプログラム製品
JP4333997B2 (ja) * 2004-08-24 2009-09-16 シャープ株式会社 画像処理装置、撮影装置、画像処理方法、画像処理プログラムおよび記録媒体
JP4352331B2 (ja) * 2004-09-09 2009-10-28 富士フイルム株式会社 信号処理装置、信号処理方法及び信号処理プログラム
KR100721338B1 (ko) * 2004-12-30 2007-05-28 엘지전자 주식회사 디지털 촬영장치의 색상 보간법
EP1855486B1 (en) * 2005-03-04 2017-09-20 Nikon Corporation Image processor correcting color misregistration, image processing program, image processing method, and electronic camera
JP4580791B2 (ja) * 2005-03-17 2010-11-17 ユニデン株式会社 画素補完方法
JP4388909B2 (ja) * 2005-04-25 2009-12-24 イーストマン コダック カンパニー 画素欠陥補正装置
TWI259728B (en) * 2005-04-26 2006-08-01 Ali Corp Method of encoding and decoding image data by applying image capturing device
US7885478B2 (en) * 2005-05-19 2011-02-08 Mstar Semiconductor, Inc. Noise reduction method and noise reduction apparatus
WO2007007878A1 (ja) 2005-07-14 2007-01-18 Nikon Corporation 画像処理装置および画像処理方法
TWI272016B (en) * 2005-08-09 2007-01-21 Sunplus Technology Co Ltd Method and system for eliminating color noises generated from interpolation
US7668366B2 (en) * 2005-08-09 2010-02-23 Seiko Epson Corporation Mosaic image data processing
WO2007037229A1 (ja) * 2005-09-29 2007-04-05 Nikon Corporation 画像処理装置および画像処理方法
WO2007036055A1 (en) * 2005-09-30 2007-04-05 Simon Fraser University Methods and apparatus for detecting defects in imaging arrays by image analysis
US7551214B2 (en) * 2005-12-01 2009-06-23 Megachips Lsi Solutions Inc. Pixel interpolation method
JP4600301B2 (ja) * 2006-01-16 2010-12-15 ソニー株式会社 色差信号の補正方法とこれを用いた色差信号処理回路及びカメラシステム
JP5183880B2 (ja) * 2006-03-14 2013-04-17 ソニー株式会社 カラーフィルタおよび撮像素子
KR101303879B1 (ko) * 2006-06-30 2013-09-04 삼성전자주식회사 영상 처리 장치 및 방법
JP4709084B2 (ja) * 2006-07-07 2011-06-22 キヤノン株式会社 画像処理装置及び画像処理方法
JP4735978B2 (ja) * 2006-07-21 2011-07-27 ソニー株式会社 画像処理装置、画像処理方法、及びプログラム
TWI332798B (en) * 2006-09-01 2010-11-01 Mstar Semiconductor Inc Method and device for reconstructing missing color component
JP4958538B2 (ja) * 2006-12-25 2012-06-20 三星電子株式会社 画像処理装置、画像処理方法、および撮像装置
JP2008294714A (ja) * 2007-05-24 2008-12-04 Panasonic Corp 映像信号処理装置
US8077234B2 (en) * 2007-07-27 2011-12-13 Kabushiki Kaisha Toshiba Image pickup device and method for processing an interpolated color signal
JP4620095B2 (ja) * 2007-08-24 2011-01-26 盛群半導體股▲ふん▼有限公司 Ymcgカラー・フィルタ・アレイに用いられる色彩補間法
JP4982897B2 (ja) * 2007-08-27 2012-07-25 株式会社メガチップス 画像処理装置
US8175387B1 (en) * 2007-09-19 2012-05-08 Trend Micro, Inc. Image similarity detection using approximate pattern matching
WO2009066770A1 (ja) 2007-11-22 2009-05-28 Nikon Corporation デジタルカメラおよびデジタルカメラシステム
US8564680B1 (en) 2007-12-13 2013-10-22 Marvell International Ltd. Method and apparatus for noise management for color data synthesis in digital image and video capture systems
JP4962293B2 (ja) * 2007-12-14 2012-06-27 ソニー株式会社 画像処理装置、画像処理方法、プログラム
US8229212B2 (en) * 2008-04-08 2012-07-24 Qualcomm Incorporated Interpolation system and method
JP5006835B2 (ja) * 2008-05-07 2012-08-22 ルネサスエレクトロニクス株式会社 エラー低減方法及びエラー低減装置
JP5272581B2 (ja) * 2008-08-25 2013-08-28 ソニー株式会社 画像処理装置、撮像装置、画像処理方法およびプログラム
JP2010061565A (ja) * 2008-09-05 2010-03-18 Konica Minolta Business Technologies Inc 画素補間装置、画素補間方法および画像読取装置
US8131067B2 (en) * 2008-09-11 2012-03-06 Seiko Epson Corporation Image processing apparatus, image processing method, and computer-readable media for attaining image processing
WO2010088465A1 (en) * 2009-02-02 2010-08-05 Gentex Corporation Improved digital image processing and systems incorporating the same
JP5169994B2 (ja) * 2009-05-27 2013-03-27 ソニー株式会社 画像処理装置、撮像装置及び画像処理方法
US8463035B2 (en) * 2009-05-28 2013-06-11 Gentex Corporation Digital image processing for calculating a missing color value
US8654205B2 (en) 2009-12-17 2014-02-18 Nikon Corporation Medium storing image processing program and imaging apparatus
JP5267445B2 (ja) * 2009-12-17 2013-08-21 株式会社ニコン 画像処理プログラムおよび撮像装置
US8447105B2 (en) * 2010-06-07 2013-05-21 Microsoft Corporation Data driven interpolation using geodesic affinity
US8633942B2 (en) * 2010-06-07 2014-01-21 Microsoft Corporation View generation using interpolated values
JP5672872B2 (ja) * 2010-09-08 2015-02-18 株式会社リコー 画像形成装置
JP5056927B2 (ja) * 2010-09-17 2012-10-24 ソニー株式会社 画像処理装置、画像処理方法および撮像装置
JP5353945B2 (ja) * 2011-05-13 2013-11-27 株式会社ニコン 画像処理装置および画像処理プログラム並びに電子カメラ
US9769430B1 (en) 2011-06-23 2017-09-19 Gentex Corporation Imager system with median filter and method thereof
US20130028538A1 (en) * 2011-07-29 2013-01-31 Simske Steven J Method and system for image upscaling
TWI463430B (zh) * 2011-08-12 2014-12-01 Univ Nat Cheng Kung Color interpolation and image magnifying device and method thereof
TWI455063B (zh) * 2011-08-12 2014-10-01 Univ Nat Cheng Kung Color interpolation device and method thereof
JP5639024B2 (ja) * 2011-09-27 2014-12-10 富士重工業株式会社 画像処理装置
CN104115211B (zh) 2012-02-14 2017-09-22 金泰克斯公司 高动态范围成像系统
JP6131545B2 (ja) 2012-03-16 2017-05-24 株式会社ニコン 画像処理装置、撮像装置および画像処理プログラム
JP6131546B2 (ja) 2012-03-16 2017-05-24 株式会社ニコン 画像処理装置、撮像装置および画像処理プログラム
WO2013161313A1 (ja) 2012-04-25 2013-10-31 株式会社ニコン 画像処理装置、撮像装置および画像処理プログラム
CN104429056B (zh) 2012-08-10 2017-11-14 株式会社尼康 图像处理方法、图像处理装置、摄像装置及图像处理程序
JP6036829B2 (ja) 2012-08-10 2016-11-30 株式会社ニコン 画像処理装置、撮像装置および画像処理装置の制御プログラム
JP5749406B2 (ja) * 2012-08-23 2015-07-15 富士フイルム株式会社 画像処理装置、撮像装置、コンピュータ、画像処理方法及びプログラム
JP2014110507A (ja) * 2012-11-30 2014-06-12 Canon Inc 画像処理装置および画像処理方法
CN103236036B (zh) * 2013-04-01 2016-09-14 北京开明智达科技有限责任公司深圳分公司 一种基于方向的色平面插值方法
US9479746B2 (en) 2014-01-08 2016-10-25 Marvell World Trade Ltd. Methods and apparatus for demosaicking artifacts suppression
JP6302272B2 (ja) * 2014-02-06 2018-03-28 株式会社東芝 画像処理装置、画像処理方法及び撮像装置
CN106165398B (zh) 2014-04-04 2019-07-02 株式会社尼康 摄像元件、摄像装置以及图像处理装置
JP6415094B2 (ja) * 2014-04-25 2018-10-31 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法およびプログラム
JP6426909B2 (ja) * 2014-05-12 2018-11-21 日本放送協会 色情報補完装置およびそのプログラム
JP6781406B2 (ja) * 2017-03-28 2020-11-04 ブラザー工業株式会社 画像処理装置、および、コンピュータプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0548886A (ja) * 1991-08-16 1993-02-26 Konica Corp データ変換装置
JPH0865696A (ja) * 1994-08-25 1996-03-08 Mitsubishi Electric Corp 色変換処理装置、色逆変換処理装置及び映像信号処理装置
JPH08228296A (ja) * 1995-02-20 1996-09-03 Ricoh Co Ltd 色変換装置
JPH1175060A (ja) * 1997-07-02 1999-03-16 Fuji Photo Film Co Ltd カラー画像データ補間方法および装置
JPH11331860A (ja) * 1998-05-19 1999-11-30 Nikon Corp 補間処理装置および補間処理プログラムを記録した記録媒体

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4605956A (en) * 1984-09-10 1986-08-12 Eastman Kodak Company Single-chip electronic color camera with color-dependent birefringent optical spatial frequency filter and red and blue signal interpolating circuit
US4642678A (en) * 1984-09-10 1987-02-10 Eastman Kodak Company Signal processing method and apparatus for producing interpolated chrominance values in a sampled color image signal
US4663655A (en) * 1985-08-05 1987-05-05 Polaroid Corporation Method and apparatus for reconstructing missing color samples
US4724395A (en) * 1985-08-05 1988-02-09 Polaroid Corporation Median filter for reconstructing missing color samples
JPS62190994A (ja) * 1986-02-18 1987-08-21 Fuji Photo Film Co Ltd 色差線順次映像信号の信号補間装置
US4774565A (en) * 1987-08-24 1988-09-27 Polaroid Corporation Method and apparatus for reconstructing missing color samples
JP3647052B2 (ja) * 1993-04-15 2005-05-11 キヤノン株式会社 撮像装置
WO1994030017A1 (en) * 1993-06-03 1994-12-22 Target Technologies, Inc. Videoconferencing system
US5541653A (en) * 1993-07-27 1996-07-30 Sri International Method and appartus for increasing resolution of digital color images using correlated decoding
JP2931520B2 (ja) * 1993-08-31 1999-08-09 三洋電機株式会社 単板式カラービデオカメラの色分離回路
JP3125124B2 (ja) * 1994-06-06 2001-01-15 松下電器産業株式会社 欠陥画素傷補正回路
US5629734A (en) * 1995-03-17 1997-05-13 Eastman Kodak Company Adaptive color plan interpolation in single sensor color electronic camera
US5799113A (en) * 1996-01-19 1998-08-25 Microsoft Corporation Method for expanding contracted video images
US5805217A (en) * 1996-06-14 1998-09-08 Iterated Systems, Inc. Method and system for interpolating missing picture elements in a single color component array obtained from a single color sensor
US5901242A (en) * 1996-07-03 1999-05-04 Sri International Method and apparatus for decoding spatiochromatically multiplexed color images using predetermined coefficients
JP3503372B2 (ja) * 1996-11-26 2004-03-02 ミノルタ株式会社 画素補間装置及びその画素補間方法
US6130960A (en) * 1997-11-03 2000-10-10 Intel Corporation Block-matching algorithm for color interpolation
US6091851A (en) * 1997-11-03 2000-07-18 Intel Corporation Efficient algorithm for color recovery from 8-bit to 24-bit color pixels
KR100729559B1 (ko) * 1998-01-29 2007-06-18 코닌클리케 필립스 일렉트로닉스 엔.브이. 색상 신호 보간
US6356276B1 (en) * 1998-03-18 2002-03-12 Intel Corporation Median computation-based integrated color interpolation and color space conversion methodology from 8-bit bayer pattern RGB color space to 12-bit YCrCb color space
US6075889A (en) * 1998-06-12 2000-06-13 Eastman Kodak Company Computing color specification (luminance and chrominance) values for images
JP4097815B2 (ja) * 1998-11-24 2008-06-11 株式会社リコー 画像処理装置および画像処理方法
JP2000197067A (ja) 1998-12-28 2000-07-14 Fuji Photo Film Co Ltd 固体撮像装置および画像デ―タ作成方法
US6809765B1 (en) * 1999-10-05 2004-10-26 Sony Corporation Demosaicing for digital imaging device using perceptually uniform color space
US6724945B1 (en) * 2000-05-24 2004-04-20 Hewlett-Packard Development Company, L.P. Correcting defect pixels in a digital image
JP3905708B2 (ja) * 2001-01-26 2007-04-18 ペンタックス株式会社 画像補間装置
US7053908B2 (en) * 2001-04-12 2006-05-30 Polaroid Corporation Method and apparatus for sensing and interpolating color image data

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0548886A (ja) * 1991-08-16 1993-02-26 Konica Corp データ変換装置
JPH0865696A (ja) * 1994-08-25 1996-03-08 Mitsubishi Electric Corp 色変換処理装置、色逆変換処理装置及び映像信号処理装置
JPH08228296A (ja) * 1995-02-20 1996-09-03 Ricoh Co Ltd 色変換装置
JPH1175060A (ja) * 1997-07-02 1999-03-16 Fuji Photo Film Co Ltd カラー画像データ補間方法および装置
JPH11331860A (ja) * 1998-05-19 1999-11-30 Nikon Corp 補間処理装置および補間処理プログラムを記録した記録媒体

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6724945B1 (en) 2000-05-24 2004-04-20 Hewlett-Packard Development Company, L.P. Correcting defect pixels in a digital image
GB2364461B (en) * 2000-05-24 2004-06-23 Hewlett Packard Co Correcting defect pixels in a digital image

Also Published As

Publication number Publication date
US20020001409A1 (en) 2002-01-03
JP2001245314A (ja) 2001-09-07
US7362897B2 (en) 2008-04-22
US7236628B2 (en) 2007-06-26
US20060198556A1 (en) 2006-09-07
JP4599672B2 (ja) 2010-12-15
US20060245646A1 (en) 2006-11-02

Similar Documents

Publication Publication Date Title
WO2001047244A1 (fr) Dispositif d&#39;interpolation et support d&#39;enregistrement sur lequel un programme d&#39;interpolation est enregistre
JP3985679B2 (ja) 画像処理方法、画像処理プログラム、画像処理装置
US6853748B2 (en) Signal processing apparatus and method for reducing generation of false color by adaptive luminance interpolation
JP5155871B2 (ja) モザイクドメインにおける画像向上
US7916937B2 (en) Image processing device having color shift correcting function, image processing program and electronic camera
WO2008001629A1 (fr) dispositif de traitement d&#39;image, programme de traitement d&#39;image et procédé de traitement d&#39;image
JP2003116060A (ja) 欠陥画素補正装置
WO2005112470A1 (ja) 画像処理装置および画像処理プログラム
JP3972816B2 (ja) 画像処理装置および表色系変換方法
US8692906B2 (en) Luminance signal generation apparatus, luminance signal generation method, image pickup apparatus, and storage medium
JPWO2003058554A1 (ja) 画素の類似度判定を行う画像処理装置および画像処理プログラム
US20090232395A1 (en) Image processing device
JP3458080B2 (ja) カラー撮像装置
US20050058361A1 (en) Image processing apparatus
JP4702912B2 (ja) 信号処理方法及び信号処理装置
JP4581191B2 (ja) 補間処理装置および補間処理プログラムを記録した記録媒体
JP4333544B2 (ja) 画像処理方法、及び画像処理装置、半導体装置、電子機器、画像処理プログラム、並びにコンピュータ読み取り可能な記録媒体
JP3730063B2 (ja) 色成分生成装置および色成分生成方法並びにこれを用いた多色画像撮像装置
JP4748278B2 (ja) 補間処理装置および補間処理プログラムを記録した記録媒体
JP2003196649A (ja) 画像処理装置および画像処理プログラム
JP2001275126A (ja) 補間処理装置および補間処理プログラムを記録した記録媒体
JP4196055B2 (ja) 画像処理方法、画像処理プログラム、画像処理装置
JP4239483B2 (ja) 画像処理方法、画像処理プログラム、画像処理装置
KR20090020918A (ko) 영상 보간 방법 및 장치
JP4239480B2 (ja) 画像処理方法、画像処理プログラム、画像処理装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 09877002

Country of ref document: US

AK Designated states

Kind code of ref document: A1

Designated state(s): CN KR SG US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE TR

121 Ep: the epo has been informed by wipo that ep was designated in this application
DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)

Free format text: (EXCEPT US)

122 Ep: pct application non-entry in european phase