WO2013132730A1 - 画像処理装置、撮像装置及び画像処理方法 - Google Patents

画像処理装置、撮像装置及び画像処理方法 Download PDF

Info

Publication number
WO2013132730A1
WO2013132730A1 PCT/JP2012/084176 JP2012084176W WO2013132730A1 WO 2013132730 A1 WO2013132730 A1 WO 2013132730A1 JP 2012084176 W JP2012084176 W JP 2012084176W WO 2013132730 A1 WO2013132730 A1 WO 2013132730A1
Authority
WO
WIPO (PCT)
Prior art keywords
pixel
color
image
pixel values
pixels
Prior art date
Application number
PCT/JP2012/084176
Other languages
English (en)
French (fr)
Inventor
崇徳 福田
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Publication of WO2013132730A1 publication Critical patent/WO2013132730A1/ja
Priority to US14/330,287 priority Critical patent/US9578264B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4015Image demosaicing, e.g. colour filter arrays [CFA] or Bayer patterns
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/12Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with one sensor only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/843Demosaicing, e.g. interpolating colour pixel values
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/48Increasing resolution by shifting the sensor relative to the scene

Definitions

  • the present invention relates to an image processing device, an imaging device, an image processing method, and the like.
  • Patent Document 1 a total of nine times of shift photographing are performed at a 2/3 pixel pitch in the horizontal scanning direction and the vertical scanning direction, respectively, and the color data after the shift photographing is arranged in the same array as the original color data.
  • Patent Document 2 discloses a method of acquiring color data of a honeycomb array by performing shift photographing a total of 5 times, 1 time in the vertical direction at 1 pixel pitch and 4 times in the diagonal direction at 1/2 pixel pitch. It is disclosed.
  • a technique for performing shift photography has been conventionally known.
  • Patent Document 1 obtains an image having the same arrangement as the color filter
  • Patent Document 2 obtains an image having a honeycomb arrangement, so that conventionally known techniques obtain pixel values of all colors for each pixel. Therefore, the number of shift shootings is increasing.
  • the subject changes with time (for example, when observing the fluorescence of the subject or when the subject is a moving object)
  • the subject changes during shooting if the shooting time becomes long, resulting in image quality degradation. .
  • an image processing device an imaging device, an image processing method, and the like that can acquire a high resolution image with a small number of shifts.
  • One aspect of the present invention includes an image acquisition unit that acquires a plurality of images captured while sequentially shifting the relative positions of a light receiving surface of an image sensor and an image formed on the light receiving surface; A high-resolution image having a larger number of pixels than each image of the image based on the plurality of images, and an image sensor including a pixel having a first color filter and a first color filter Pixels having two color filters are arranged at least, and the estimation calculation unit determines that the pixel values of the first color and the pixel values of the second color constituting the plurality of images are highly correlated
  • the present invention relates to an image processing apparatus that estimates the pixel value of the first color of the high-resolution image based on the pixel value of the second color that constitutes the plurality of images.
  • pixel shift shooting is performed by an image sensor in which pixels having a color filter of a first color and pixels having a color filter of a second color are arranged, and the pixel value of the first color If the pixel value of the second color is determined to be highly correlated, the pixel value of the first color of the high-resolution image is estimated based on the pixel value of the second color. This makes it possible to acquire a high-resolution image with a small number of shifts.
  • a composite image that is an image in which pixel values constituting the plurality of images are arranged at pixel positions corresponding to the shift includes at least two adjacent pixels of the second color
  • the estimation calculation unit determines that the pixel value of the first color and the pixel value of the second color are highly correlated, the difference between the pixel values of the first color between the two pixels is calculated.
  • the estimation may be performed based on the difference between the pixel values of the second color between the two pixels and based on the obtained difference.
  • the composite image includes the first color pixels on both sides of the two pixels, and the estimation calculation unit includes the pixel values of the first color constituting the plurality of images.
  • the pixel value of the second color when it is determined that the pixel value of the second color has a low correlation, the difference of the pixel value of the first color between the two pixels is determined as the pixel of the first color between the adjacent pixels. You may obtain
  • the pixel values of the first pixel and the second pixel which are the two pixels, each correspond to an addition value of a plurality of pixels in the high-resolution image, and correspond to the first pixel.
  • the plurality of pixels and the plurality of pixels corresponding to the second pixel have a common pixel, and the estimation calculation unit is a pixel obtained by removing the common pixel from the plurality of pixels corresponding to the second pixel.
  • the difference between the value obtained by adding the pixel values and the value obtained by adding the pixel values of the pixels obtained by removing the common pixel from the plurality of pixels corresponding to the first pixel is the first difference between the obtained two pixels. You may obtain
  • the image acquisition unit may include a first image captured at the reference position of the relative position, and a position shifted from the reference position by a 1 ⁇ 2 pixel pitch in the horizontal scanning direction.
  • a fourth image captured at a position shifted by the pitch and shifted by the 1 ⁇ 2 pixel pitch in the vertical scanning direction is acquired as the plurality of images, and the estimation calculation unit is configured to obtain 4 of the acquired images.
  • An image having twice the number of pixels may be estimated as the high-resolution image.
  • the imaging element includes pixels having the color filter of the first color and pixels having the color filter of the second color arranged alternately along the horizontal scanning direction.
  • the composite image which is an image in which the pixel values constituting the first to fourth images are arranged at the pixel positions corresponding to the shift, has a pixel value of 2 ⁇ 2 pixels of the first color and the second color of the second color.
  • the pixel values of 2 ⁇ 2 pixels are alternately arranged along the horizontal scanning direction, and the estimation calculation unit calculates the pixel values of the first color and the second color at each pixel of the composite image, The pixel value of the high resolution image may be estimated.
  • the estimation calculation unit may calculate an intermediate pixel value that is a value obtained by adding pixel values of two pixels arranged in the vertical scanning direction in the high-resolution image. It may be obtained based on the pixel values of the four images, and the pixel value of the high resolution image may be estimated based on the intermediate pixel values.
  • an added value of the first and second intermediate pixel values among the first to third intermediate pixel values arranged in the horizontal scanning direction is a first value that forms the composite image.
  • the added value of the second and third intermediate pixel values corresponds to the first pixel value that is the pixel value of the color, and the second pixel value that is the pixel value of the first color adjacent to the first pixel value.
  • the estimation operation unit assumes that an error between the first to third intermediate pixel values and the true value when the first to third intermediate pixel values are assumed to linearly change along the horizontal scanning direction. And the first to third intermediate pixel values may be determined based on the obtained first error.
  • the estimation calculation unit determines that the pixel value of the first color and the pixel value of the second color are highly correlated
  • the estimation calculation unit is arranged along the horizontal scanning direction.
  • a first difference that is a difference between the third and fifth intermediate pixel values is expressed as the second pixel value and the first pixel value.
  • the first error may be determined so as to satisfy the obtained first difference.
  • the estimation calculation unit may include the fifth to seventh of the first to fifth intermediate pixel values and the sixth to eleventh intermediate pixel values arranged along the horizontal scanning direction.
  • a second error is obtained for the intermediate pixel value
  • a third error is obtained for the ninth to eleventh intermediate pixel values
  • a second difference is obtained for the seventh and ninth intermediate pixel values
  • the first and second differences are obtained.
  • the first to third errors may be determined so that the sum of squares of the first to third errors is minimized.
  • the estimation calculation unit is a composite image that is an image in which pixel values constituting the plurality of images are arranged at pixel positions corresponding to the shift, and is located around the estimation target pixel.
  • a correlation value between the pixel value of the first color and the pixel value of the second color is obtained, and when the correlation value is greater than the first threshold value and smaller than the second threshold value, It may be determined that the pixel value of the second color is highly correlated.
  • the imaging device may include a color filter in which units each composed of 2 ⁇ 2 pixels are repeatedly arranged.
  • the color filter may be an RGB Bayer color filter.
  • Another aspect of the present invention relates to an imaging apparatus including the image processing apparatus described in any one of the above and the imaging element.
  • a control for sequentially shifting the relative positions of an image sensor having a color filter in the first array, a light receiving surface of the image sensor, and an image formed on the light receiving surface.
  • the control unit performs the shift control so that the pixel values constituting the plurality of images are arranged in a second array different from the first array when the pixel values corresponding to the shift are arranged, and the estimation is performed.
  • the computing unit is related to an imaging apparatus that estimates pixel values of each color of the high-resolution image based on the pixel values of the second array.
  • the first array is an RGB Bayer array
  • the second array includes an R pixel value of 2 ⁇ 2 pixels and two sets of 2 ⁇ 2 pixel G pixel values.
  • An array in which units of 4 ⁇ 4 pixels configured by B pixel values of 2 ⁇ 2 pixels are repeated may be used.
  • the light receiving surface of the image sensor when at least pixels having a color filter of the first color and pixels having a color filter of the second color are arranged on the image sensor, the light receiving surface of the image sensor, A plurality of images captured while sequentially shifting a relative position with the image forming incident on the light receiving surface, and the pixel values of the first color and the pixels of the second color constituting the plurality of images
  • the first color pixel value of the high resolution image is estimated based on the second color pixel value constituting the plurality of images, and the plurality of images
  • FIG. 1 is a configuration example of an imaging apparatus according to the present embodiment.
  • FIG. 2 is an explanatory diagram of a pixel shift method.
  • FIG. 3 is a flowchart of the estimation process.
  • FIG. 4 is an explanatory diagram of image composition processing.
  • FIG. 5A and FIG. 5B are explanatory diagrams of color correlation degree calculation processing.
  • FIGS. 6A and 6B are explanatory diagrams of pixel values and estimated pixel values.
  • FIG. 7 is an explanatory diagram of pixel estimation processing.
  • FIG. 8 is an explanatory diagram of pixel estimation processing.
  • FIG. 9 is an explanatory diagram of pixel estimation processing when the color correlation degree is low.
  • FIG. 1 shows a configuration example of an imaging device of this embodiment. 1 includes an imaging system 110, a control unit 120, a bus 121, a pixel shift driving unit 122 (pixel shift mechanism), an A / D conversion unit 123, a memory controller 124, a memory 125, an external interface 126, signal processing. Part 130.
  • the imaging apparatus 100 is an apparatus that converts optical image information into an electric signal and electronically records the image information converted into the electric signal on a recording medium.
  • the imaging device 100 for example, a digital still camera or a digital movie camera is assumed.
  • the imaging system 110 includes an imaging optical system 111 and an imaging element 112.
  • the imaging element 112 images the light imaged by the imaging optical system 111.
  • the image sensor 112 includes a so-called Bayer array color filter.
  • the Bayer array is an array having 2 ⁇ 2 pixels as one unit. One unit transmits one pixel having a color filter that transmits R (red) light, two pixels having a color filter that transmits G (green) light, and B (blue) light. 1 pixel having a color filter.
  • the color filter of the image sensor 112 is not limited to the above, and may be a color filter in which colors other than RGB are arranged, or may be a color filter in an arrangement other than a Bayer arrangement. For example, a color filter in which CMY (complementary color) pixels are arranged may be used.
  • the pixel shift driving unit 122 performs driving to shift the imaging system 110 by a pixel based on a control signal from the control unit 120.
  • the pixel shift drive unit 122 realizes pixel shift by moving the image sensor 112, for example.
  • the image sensor 112 may be fixed, and the pixel shift driving unit 122 may move the light beam by moving the image pickup optical system 111 to realize pixel shift.
  • the pixel shift method will be described in detail later.
  • the A / D converter 123 converts the analog signal from the image sensor 112 into digital data, and the memory controller 124 stores the digital data in the memory 125. For example, A / D conversion and storage are sequentially performed while performing pixel shift.
  • the memory controller 124 transmits the digital data image stored in the memory 125 to the signal processing unit 130 via the bus 121.
  • the signal processing unit 130 includes a pre-processing unit 131, an estimation calculating unit 132, and a post-processing unit 133.
  • the pre-processing unit 131 performs pre-processing such as processing for removing the black offset from the image and processing for white balance of the image.
  • the estimation calculation unit 132 obtains a high-resolution image by estimation based on the image after the previous stage processing. This estimation process is performed in consideration of the effect of pixel shift. The estimation process will be described later in detail.
  • the post-processing unit 133 performs post-processing such as color correction processing and gamma correction processing on the image after the estimation processing, for example.
  • the post-processing unit 133 transmits the image after the post-processing to the control unit 120 via the bus 121.
  • the control unit 120 controls each unit of the imaging apparatus 100. Further, the control unit 120 transmits the image from the post-processing unit 133 to the external PC 140 via the external interface 126.
  • the PC 140 performs monitor display of received images, recording on a recording medium, and the like.
  • the imaging apparatus 100 includes a monitor display unit that displays an image and a recording control unit that records an image on a recording medium, and the imaging apparatus 100 performs monitor display and recording on a recording medium. Good.
  • the imaging apparatus 100 performs the estimation process
  • the information processing apparatus for example, the PC 140
  • the pre-processed image may be transferred to the information processing apparatus via the external interface 126, and an estimation process may be performed on the image to generate a high resolution image.
  • Pixel Shift Method A pixel shift method according to this embodiment will be described with reference to FIG. As shown in FIG. 2, the pixel pitch of the image sensor is p, the horizontal scanning direction in imaging is x ′, and the vertical scanning direction in imaging is y ′.
  • the hatched squares represent the RGB pixels of the image sensor 112, and the pixel array is a Bayer array.
  • a dotted square represents the first position PS1.
  • Pixel shift is an operation for shifting the relative positional relationship between the subject image formed by the imaging optical system 111 and the light receiving surface of the image sensor 112.
  • the second position PS2 is a position shifted from the first position PS1 in the x ′ direction by a 1 ⁇ 2 pixel pitch.
  • the third position PS3 is a position shifted from the first position PS1 by a 1/2 pixel pitch in the y ′ direction
  • the fourth position PS4 is a 1/2 pixel pitch and y from the first position PS1 in the x ′ direction. It is the position shifted by 1 ⁇ 2 pixel pitch in the 'direction.
  • pixel shift imaging is performed by sequentially shifting to these positions PS1 to PS4 and performing imaging at each position.
  • the shift interval is 1 ⁇ 2 pixel, and the shift interval is shifted twice in each of the horizontal scanning direction and the vertical scanning direction, and a total of four shootings are performed.
  • the shift order of the positions PS1 to PS4 is arbitrary, and need not necessarily be the order of PS1, PS2, PS3, and PS4.
  • FIG. 3 shows a flowchart of the estimation process performed by the estimation calculation unit 132.
  • step S1 the four captured image data captured at the positions PS1 to PS4 are combined into one image data.
  • the synthesized single image data is developed in the memory, and the image data is referred to in the image processing after step S2.
  • step S1 will be described later in detail with reference to FIG.
  • it is not always necessary to perform the image synthesis in step S1 for example, four image data are separately developed on a memory, and pixel data necessary for processing is extracted from the four image data. You may refer in the image processing after step S2.
  • a color correlation C is calculated for each pixel to be processed (or an area including the pixel).
  • the color correlation degree C is an index for use in determining whether or not the spatial pixel value change is equal between two different colors (color X and color Y, which will be described later) in the subsequent estimation process.
  • the ratio of the dispersion values of the two colors in the processing area is used as the color correlation degree C.
  • the process of step S2 will be described in detail later with reference to FIG.
  • the color correlation C is not limited to the ratio of the dispersion values of two colors, and may be any index that can evaluate the degree of correlation of spatial pixel value changes between two different colors.
  • a correlation value by a matched filter may be used as an index.
  • FFT is performed for each region, a correlation value between two colors is obtained in the frequency region, and the correlation value is used as the color correlation degree C.
  • step S3 it is determined whether or not the color correlation degree C satisfies a predetermined condition. Specifically, if the color correlation degree C is a value close to 1, the correlation between the two colors is high, and if C ⁇ 1 or 1 ⁇ C, the correlation is considered low.
  • threshold values C 0 ( ⁇ 1) and C 1 (> 1) are set, and when C 0 ⁇ C ⁇ C 1 is satisfied, it is determined that the two colors are highly correlated.
  • whether the two colors are highly correlated is determined by the estimation calculation unit 132.
  • the present embodiment is not limited to this, and a separate determination unit is provided so that the two colors are highly correlated. It may be determined whether or not there is.
  • step S3 If it is determined in step S3 that the two colors are highly correlated, the pixel value of the high-resolution image is estimated based on the color correlation as shown in step S4. For example, when the two colors are G and R and the G pixel value of the high-resolution image is estimated, the estimation is performed using the G and R pixel values obtained by shift photographing.
  • step S3 If it is determined in step S3 that the two colors are not highly correlated, the pixel value of the high resolution image is estimated independently for each color, as shown in step S5. For example, when the two colors are G and R, and the G pixel value of the high-resolution image is estimated, the estimation is performed using only the G pixel value obtained by the shift photographing.
  • the processing in steps S4 and S5 will be described in detail later with reference to FIG.
  • step S6 it is determined whether or not the pixel values have been estimated for all the pixels of the high resolution image. If the estimation process for all pixels has not been completed, steps S2 to S5 are performed for the next pixel. When the estimation process for all pixels is completed, this process is terminated.
  • step S1 The image composition process in step S1 will be described in detail with reference to FIG. As shown in FIG. 4, the images IM1 to IM4 captured at the positions PS1 to PS4 are combined to generate a combined image GM having 2 ⁇ 2 times the number of pixels.
  • the pixel arrangement of the composite image GM is determined according to the shift method, which corresponds to rearranging the pixel data so that the barycentric positions of the photographing pixels are arranged in order.
  • a shift method different from the above for example, a 3 ⁇ 3 shift with a 1/3 pixel pitch
  • a composite image having an arrangement according to the shift method is generated.
  • Color Correlation Level Calculation Processing The color correlation level calculation processing in step S2 will be described in detail with reference to FIGS. 5 (A) and 5 (B).
  • a X x + i, y + j in the above equations (1) to (3) are pixel values of the color X at the position (x + i, y + j) in the composite image GM, and correspond to the pixels surrounded by the thick solid line in FIG. is doing.
  • a Y x + i, y + j are pixel values of the color Y at the position (x + i, y + j) in the composite image GM, and correspond to the pixels surrounded by the thick solid line in FIG.
  • the pixel positions of the synthesized image GM and the estimated image correspond to each other, and the pixels (b G x ⁇ 5, y 1 to b G x + 5, y in FIG. ).
  • the pixel values a x, y and a x + 1, y are pixel values shifted by 1 ⁇ 2 pixel pitch in the horizontal scanning direction (for example, pixel values of the images IM1 and IM2 in FIG. 4), and the pixel values a x, y , A x + 1, y share the pixel value b x, y .
  • These pixel values are connected by the relationship of the following formula (4).
  • the pixels overlap in the vertical scanning direction, and the pixel values b x, y , b x, y + 1 share the pixel values c x, y .
  • These pixel values are connected by the relationship of the following formula (5).
  • the pixel values a x, y is found to be four pixel values c x, a value obtained by adding the y. That is, the estimated image composed of the pixel values c x, y has four times as many pixels as one captured image.
  • first pixel value obtained by the shift photographing a x, a pixel value b x from y estimates the y
  • the pixel value b x, pixels from the y values c x to estimate the y.
  • the pixel values b x, y and c x, y are referred to as estimated pixel values.
  • the pixel value b x, y is referred to as an intermediate pixel value
  • the pixel value c x, y is referred to as a final estimated pixel value.
  • the estimated pixel value is expressed as the following equation (7).
  • the pixel value rarely changes linearly, and in many cases, the actual pixel value has a deviation from the linear change.
  • the estimated pixel value is expressed by the following equation (8).
  • the difference ⁇ x, y can be either positive or negative.
  • the sign before the difference ⁇ x, y is determined so as to satisfy the above equation (4) when the estimated pixel values are added.
  • pixel values a G x ⁇ 4, y 1 to a G of colors G and R arranged in the horizontal scanning direction.
  • x + 5 the estimated pixel values of the color G using y b G x-5, obtaining the y ⁇ b G x + 5, y.
  • Pixel values a G x ⁇ 4, y 1 to a G x + 5, y are pixel values of pixels surrounded by a dotted line of the composite image GM shown in FIG.
  • the estimated pixel value overlapping with the pixel of the color G is expressed by the following equation (9) in the same manner as the above equation (8).
  • the differences ⁇ X x ⁇ 4, y , ⁇ X x, y , ⁇ X x + 4, y in the above equation (9) are the linear estimated pixel values indicated by black circles and the actual values indicated by white circles. This is the difference from the estimated pixel value.
  • the superscript suffix is omitted for simplicity.
  • the difference between the estimated pixel values is obtained by the following equation (10).
  • the following equation (10) is established from the overlapping relationship of pixels, and is obtained from the above equation (4).
  • step S3 of FIG. 3 since the correlation between the color X and the color Y is high, “the spatial differentiation of the pixel values of the color X and the color Y” Can be assumed to be the same. Under this assumption, it can be assumed that the difference between the pixel value of color X and the difference between the pixel value of color Y are equal, so the following equation (11) holds. As described above, when the color correlation degree is high, the difference between the estimated pixel values of the color X can be obtained from the pixel values of the color Y.
  • the difference ⁇ X x ⁇ 4, y , ⁇ X x, y , ⁇ X x + 4, y can take any value within the range satisfying the above formulas (9) and (11).
  • the differences ⁇ X x ⁇ 4, y , ⁇ X x, y , and ⁇ X x + 4, y should take values close to 0. Therefore, the differences ⁇ X x ⁇ 4, y , ⁇ X x, y and ⁇ X x + 4, y are determined so as to minimize the value of the square sum S ⁇ shown in the following equation (12).
  • step S3 if it is determined in step S3 that C 0 ⁇ C ⁇ C 1 is not satisfied, since the correlation between the color X and the color Y is low, “the spatial differentiation of the pixel values of the color X and the color Y is the same”. This assumption does not hold. If a pixel value of color Y is used in an area where color correlation is low, erroneous estimation is caused. Therefore, as shown in the following equation (13), a difference between estimated pixel values of color X is obtained using a pixel value of color X. .
  • the differences ⁇ X x ⁇ 4, y , ⁇ X x, y , ⁇ X x + 4, y are determined so as to minimize the value of the square sum S ⁇ from the above equations (9), (12), and (13).
  • the estimated pixel values are determined by substituting the differences ⁇ X x ⁇ 4, y , ⁇ X x, y , ⁇ X x + 4, y into the above equation (9).
  • the above estimation process is sequentially performed while shifting the pixel position (x, y), and the estimated pixel value b X x, y is obtained for all the obtainable pixel positions (x, y).
  • estimated pixel values b G x + i, y + j indicated by solid lines in FIG. 10 are obtained. Since the estimated pixel values b G x + i, y + j indicated by the dotted lines cannot be obtained by the above estimation process, they are obtained by the interpolation process in the horizontal scanning direction. For example, b G x ⁇ 2, y is interpolated using b G x ⁇ 3, y and b G x ⁇ 1, y adjacent in the horizontal scanning direction.
  • estimated pixel values b R x + i, y + j indicated by solid lines in FIG. 11 are obtained. Since the estimated pixel values b R x + i, y + j indicated by the dotted lines cannot be obtained by the above estimation process, they are obtained by the interpolation process in the horizontal scanning direction. The estimated pixel values b R x + i and y + j indicated by the thick solid line in FIG. 12 are obtained by the interpolation process.
  • the estimated pixel value b B x + i +2 shifting pixel position in the vertical scanning direction, y + j is obtained. This is because the B pixel exists at a position where the R pixel is shifted by ⁇ 2 in the horizontal scanning direction and +2 in the vertical scanning direction in the composite image GM in FIG. An estimated pixel value that cannot be obtained by the estimation process is obtained by an interpolation process in the horizontal scanning direction.
  • a final estimated pixel value c X x, y is obtained from the estimated pixel value b X x, y .
  • b G x, y is obtained at all pixel positions by interpolation processing, so it is not necessary to determine the color correlation, and the above equation (10) can be expressed by the relationship of b X x, y , c X x, y .
  • the rewritten formula can be applied as it is.
  • c X x, y is estimated at all pixel positions.
  • b R x, y exists every two pixels as shown in FIG. 12, and therefore an estimation process is performed according to the determination result of the color correlation.
  • estimated pixel values c R x + i, y + j indicated by solid lines in FIG. 13 are obtained. Since the estimated pixel value c R x + i, y + j indicated by the dotted line cannot be obtained by the above estimation process, it is obtained by the interpolation process in the vertical scanning direction.
  • c R x, y ⁇ 2 is interpolated using c R x, y ⁇ 3 and c R x, y ⁇ 1 adjacent in the vertical scanning direction.
  • estimation processing and interpolation processing are performed in the same manner as for color R.
  • the estimated pixel value c X x, y obtained as described above corresponds to a pixel that is 1/2 ⁇ 1/2 times larger than the pixel a X x, y of the captured image. That is, by the above estimation processing, it is possible to obtain pixel data as if the image was captured with an image sensor having a pixel pitch that is 1/2 ⁇ 1/2 times the pixel pitch of the image sensor being used.
  • FIG. 14A is an image captured without performing pixel shift
  • FIG. 14B is an image captured by a conventional method in which pixel shift is performed 3 ⁇ 3 times at a 2/3 pixel pitch
  • FIG. 14C is an image captured by the method of this embodiment in which pixel shift is performed 2 ⁇ 2 times at a 1 ⁇ 2 pixel pitch. It can be seen that an image captured by the method of the present embodiment has a higher resolution than an image captured without performing pixel shift, and the image quality is not inferior with a smaller number of shifts than an image captured by the conventional method.
  • estimation processing is performed using eleven estimated pixel values b X x, y as processing units as illustrated in FIG. 7 is described, but the present embodiment is not limited to this, and more
  • the estimation process may be performed using the estimated pixel value b X x, y as a processing unit, or the estimation process may be performed using a smaller estimated pixel value b X x, y as a processing unit.
  • you may perform the estimation process which considered another factors, such as noise.
  • the image processing apparatus includes the image acquisition unit and the estimation calculation unit 132.
  • the image acquisition unit sequentially shifts the relative positions of the light receiving surface of the image sensor 112 and the image incident on the light receiving surface, and sequentially captures a plurality of images IM1 to IM1.
  • Get IM4 The estimation calculation unit 132 estimates a high-resolution image having a larger number of pixels (for example, 2 ⁇ 2 times) than each of the plurality of images IM1 to IM4 based on the plurality of images IM1 to IM4. As shown in FIG.
  • the image sensor 112 includes at least pixels having a color filter of a first color X (for example, G) and pixels having a color filter of a second color Y (for example, R).
  • the estimation calculation unit 132 includes the pixel values a X x, y of the first color X and the pixel values a Y x, y of the second color Y that form the plurality of images IM1 to IM4. Is determined to be highly correlated, the pixel value c X x, y of the first color X of the high-resolution image is converted into the pixel value a Y x, y of the second color Y constituting the plurality of images IM1 to IM4.
  • the image processing apparatus corresponds to a circuit device that implements the signal processing unit 130 of FIG.
  • the image acquisition unit corresponds to the pre-processing unit 131 that acquires image data from the memory 125 via the memory controller 124 and the bus 121.
  • the image processing apparatus corresponds to the information processing apparatus, and the image acquisition unit receives image data from the external interface 126 (not illustrated). Corresponds to the interface part.
  • an information processing apparatus for example, PC 140
  • interpolation is performed with the same color pixel interval being one pixel, so that a decrease in resolution due to interpolation can be minimized. In this way, since the number of shifts can be reduced and the photographing time can be shortened, it is possible to obtain a high-quality image even in a moving object or fluorescent observation where the subject changes over time.
  • the composite image GM that is an image in which the pixel values constituting the plurality of images IM1 to IM4 are arranged at the pixel positions corresponding to the shift is the second color Y. It has at least two adjacent pixels (for example, a R x-2, y and a R x-1, y in FIG. 5A).
  • the estimation calculation unit 132 determines that the color X and the color Y are highly correlated, the difference between the pixel values of the first color X between the two pixels (the right side of the above equation (10)) is calculated between the two pixels.
  • the pixel value of the second color Y is obtained by the difference (right side of the above equation (11)), and estimation is performed based on the obtained difference.
  • the composite image GM has the Ri both sides of the two pixels pixels of the first color X (a G x-3, y , for example FIG. 5, a G x, y) a.
  • Estimating arithmetic unit 132 when the pixel value a X x of the first color X to form a plurality of images IM1 ⁇ IM4, y pixel values a Y x of the second color Y, and a y is determined that the low correlation
  • the difference between the pixel values of the first color X between the two pixels (upper expression (10) right side) is determined by the difference between the pixel values of the first color X between the adjacent pixels (upper expression (13) right side).
  • the estimation calculation unit 132 may generate a composite image GM having at least two adjacent pixels of the second color Y, or if pixels are arranged as in the composite image GM.
  • the estimation calculation unit 132 may refer to a plurality of images IM1 to IM4 having at least two adjacent pixels of the second color Y. That is, the composite image GM is not necessarily generated.
  • the pixel values a x, y , a x + 1, y of the first pixel and the second pixel, which are two pixels, are each a plurality of pixels ( 2 ⁇ 2 c x, y ) corresponding to the added value.
  • the estimation calculation unit 132 adds pixel values of pixels obtained by removing a common pixel (b G x-2, y ) from a plurality of pixels corresponding to the second pixel (for example, a R x-1, y in FIG. 7). Pixels obtained by removing a common pixel (b G x-2, y ) from a plurality of pixels corresponding to the obtained value (b G x-1, y ) and the first pixel (a R x-2, y ) The difference (the left side of the above equation (10)) with the value (b G x ⁇ 3, y ) obtained by adding the values is the difference between the pixel values of the first color between the two pixels obtained above (the above equation (11)). The right side or the above equation (13) right side).
  • the difference between the estimated pixel values b X x, y can be represented by the difference between the pixel values a X x, y as shown in the above equation (10). Then, the pixel value a X x, by obtaining from the above equation in accordance with the difference of y to the color correlation (11) or (13), it becomes possible to perform the estimation process.
  • the estimation calculation unit 132 is an intermediate pixel value that is a value obtained by adding the pixel values of two pixels arranged in the vertical scanning direction in the high resolution image.
  • (B X x, y , estimated pixel value) is obtained based on the pixel values (a X x, y , a Y x, y ) of the first to fourth images IM1 to IM4, and the intermediate pixel value (b X x, the pixel value of the high resolution image based on y) (c X x, y ) is estimated.
  • the intermediate pixel value (b X x, y ) is obtained by increasing the resolution in the horizontal scanning direction using the overlapping of pixels in the horizontal scanning direction, and the vertical scanning is performed using the overlapping of pixels in the vertical scanning direction.
  • the pixel value (c X x, y ) of the high resolution image can be obtained by increasing the resolution in the direction.
  • the first to eleventh intermediate pixel values b G x ⁇ 5, y 1 to b G x + 5, y are arranged in the horizontal scanning direction.
  • the added value of the first and second intermediate pixel values b G x ⁇ 5, y and b G x ⁇ 4, y is a first pixel value a G that is a pixel value of the first color X constituting the composite image GM. It corresponds to x-4, y .
  • the added value of the second and third intermediate pixel values b G x-4, y and b G x-3, y is the pixel value of the first color X next to the first pixel value a G x-4, y.
  • the estimation calculator 132 determines that the first to third intermediate pixel values change linearly along the horizontal scanning direction (the above equation (6)), the first to third intermediate pixel values, the true value, A first error ⁇ X x ⁇ 4, y (FIG. 8, above equation (8)) is obtained.
  • the estimation calculation unit 132 determines the first to third intermediate pixel values b G x ⁇ 5, y 1 to b G x ⁇ 3, y based on the obtained first error ⁇ X x ⁇ 4, y .
  • the estimation calculation unit 132 determines that the color X and the color Y are highly correlated, the third and fifth intermediate pixel values b G x ⁇ 3, y and b G x ⁇ 1, y the first difference is a difference (the above formula (first formula left side of 11)), the second pixel value (a R x-1, y) and the first pixel value (a R x-2, y) and the The first error ⁇ X x ⁇ 4, y is determined so as to satisfy the obtained first difference by obtaining the difference (the right side of the first expression of Equation (11)).
  • the estimation calculation unit 132 calculates the second error ⁇ X x, y for the fifth to seventh intermediate pixel values b G x ⁇ 1, y 1 to b G x + 1 , y (FIG. 8, Equation (8 )), And the third error ⁇ X x + 4, y (FIG. 8, equation (8)) is obtained for the ninth to eleventh intermediate pixel values b G x + 3, y 1 to b G x + 5, y , The second difference (the left side of the second expression of Expression (11)) is obtained for the intermediate pixel values (b G x + 1, y , b G x + 3, y ) of 9, and the first to third are satisfied while satisfying the first and second differences.
  • the first to third errors ⁇ X x ⁇ 4, y , ⁇ X x, y and ⁇ X x + 4, y are determined so that the square sum of errors S ⁇ (equation (11)) is minimized.
  • the intermediate pixel value b X x, y (estimated pixel value) from an image that has been subjected to pixel shift imaging at a 1 ⁇ 2 pixel pitch. That is, the intermediate pixel value b X x, y at each pixel position can be estimated from the composite image GM in which pixels of color X are arranged every two pixels along the horizontal scanning direction. Further, by using 11 intermediate pixel values b X x, y as a processing unit, it can be expected that an estimated value fitted to an actual pixel value can be obtained as compared with a case where fewer intermediate pixel values are used as a processing unit. .
  • the number of variables to be estimated can be reduced and the estimation process can be simplified. Also, by obtaining the first and second differences that connect the set first to third errors, two conditional expressions to be satisfied by the first to third errors (the above expression (9) is substituted into the above expression (11)) the formula) is obtained by further three conditions a square sum S [delta] was combined with conditions of minimizing, can determine the three first to third error.
  • the estimation calculation unit 132 is a pixel of the first color X (for example, G) that is located around the estimation target pixel (dotted line) (thick solid line) in the synthesized image GM.
  • a correlation value C (Equations (1) to (3)) between the value and the pixel value of the second color Y (for example, R) is obtained.
  • the estimation calculation unit 132 determines that the correlation is high when the correlation value C is larger than the first threshold C 0 and smaller than the second threshold C 1 .
  • the correlation value C between the color X and the color Y around the estimation target pixel can be obtained, and the correlation degree can be determined based on the correlation value C. That is, when the correlation value C satisfies the predetermined condition C 0 ⁇ C ⁇ C 1 , it can be determined that the color X and the color Y are highly correlated.
  • imaging device 110 imaging system, 111 imaging optical system, 112 imaging device, 120 control unit, 121 bus, 122 pixel shift drive unit, 123 A / D conversion unit, 124 memory controller, 125 memory, 126 external interface, 130 signal processing unit, 131 pre-processing unit, 132 estimation calculation unit, 133 post-processing unit, B blue, C color correlation, C 0 first threshold, C 1 second threshold, G green, GM composite image, IM1-IM4 multiple images, JG1, JG2, JR1, JR2 center of gravity position, PS1 to PS4 1st to 4th positions, R red, S ⁇ sum of squares, X first color, Y second color, a X x, y , a Y x, y pixel value, b X x, y intermediate pixel value, c X x, y estimated pixel value, x, y pixel position, x ′ horizontal scanning direction, y ′ vertical scanning direction, ⁇ X x,

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Computing Systems (AREA)
  • Color Television Image Signal Generators (AREA)
  • Image Input (AREA)

Abstract

 撮像素子112の受光面と、受光面に入射する結像との相対的な位置を順次シフトしながら撮像された複数の画像を取得する画像取得部と、複数の画像の各画像よりも画素数が大きい高解像画像を、複数の画像に基づいて推定する推定演算部132と、を含む。撮像素子112には、第1色の色フィルタを有する画素と第2色の色フィルタを有する画素とが少なくとも配列される。推定演算部132は、複数の画像を構成する第1色の画素値と第2色の画素値とが高相関であると判定した場合、高解像画像の第1色の画素値を、複数の画像を構成する第2色の画素値に基づいて推定する。

Description

画像処理装置、撮像装置及び画像処理方法
 本発明は、画像処理装置、撮像装置及び画像処理方法等に関する。
 撮像素子の高画素化が進み、高い解像度での撮影が可能となってきている。しかしながら、高画素化にともなって単純に画素サイズを小さくした場合、画素当たりの光量は減少するため一般にはS/Nが悪化するなどの影響があり、一概に良い画質が得られるとは言えない。そこで、画素シフト方式の撮影手法が提案されている(例えば特許文献1、特許文献2)。この手法では、画素サイズをそのままにサンプリング間隔だけを画素サイズよりも小さくできるため、同じ画素サイズの撮像素子を用いて画素シフトを行わずに撮影した場合に比べて、S/Nはそのままに解像度の高い画像を得ることが可能である。
特開平11-18097号公報 特開2005-143031号公報
 しかしながら、画素シフト方式の撮影手法では、解像度の高い画像を得られる反面、複数回の撮影を行うため撮影時間が長くなるという課題がある。シフトピッチを小さくするほど解像度は上がるため、高い解像度の画像を画素シフト撮影で得るためには、一般に多くの回数撮影する必要がある。
 例えば特許文献1には、2/3画素ピッチで水平走査方向及び垂直走査方向にそれぞれ3回ずつ、計9回のシフト撮影を行い、シフト撮影後のカラーデータを元のカラーデータと同じ配列にする手法が開示されている。また特許文献2には、1画素ピッチで垂直方向に1回及び1/2画素ピッチで斜め方向に4回の、計5回のシフト撮影を行い、ハニカム状配列のカラーデータを取得する手法が開示されている。また、1/2画素ピッチで水平走査方向及び垂直走査方向に4回ずつ、計16回のシフト撮影を行う手法や、1/3画素ピッチで水平及び垂直方向に6回ずつ、計36回のシフト撮影を行う手法が、従来から知られている。
 しかしながら、特許文献1の手法ではカラーフィルタと同一配列の画像を得るため、特許文献2の手法ではハニカム状配列の画像を得るため、従来から知られる手法では各画素に全色の画素値を取得するため、シフト撮影の回数が多くなっている。被写体が時間とともに変化する場合(例えば被写体の蛍光を観察する場合や、被写体が動体である場合など)には、撮影時間が長くなると撮影中に被写体が変化してしまい、画質劣化を招いてしまう。
 本発明の幾つかの態様によれば、少ないシフト回数で高解像度の画像を取得可能な画像処理装置、撮像装置及び画像処理方法等を提供できる。
 本発明の一態様は、撮像素子の受光面と、前記受光面に入射する結像との相対的な位置を順次シフトしながら撮像された複数の画像を取得する画像取得部と、前記複数の画像の各画像よりも画素数が多い高解像画像を、前記複数の画像に基づいて推定する推定演算部と、を含み、前記撮像素子には、第1色の色フィルタを有する画素と第2色の色フィルタを有する画素とが少なくとも配列され、前記推定演算部は、前記複数の画像を構成する前記第1色の画素値と前記第2色の画素値とが高相関であると判定した場合、前記高解像画像の前記第1色の画素値を、前記複数の画像を構成する前記第2色の画素値に基づいて推定する画像処理装置に関係する。
 本発明の一態様によれば、第1色の色フィルタを有する画素と第2色の色フィルタを有する画素とが少なくとも配列された撮像素子により画素シフト撮影が行われ、第1色の画素値と第2色の画素値とが高相関であると判定された場合、第2色の画素値に基づいて高解像画像の第1色の画素値が推定される。これにより、少ないシフト回数で高解像度の画像を取得することが可能になる。
 また本発明の一態様では、前記複数の画像を構成する画素値を、前記シフトに対応する画素位置に配置した画像である合成画像は、前記第2色の隣り合う2画素を少なくとも有し、前記推定演算部は、前記第1色の画素値と前記第2色の画素値とが前記高相関であると判定した場合、前記2画素間での前記第1色の画素値の差分を、前記2画素間での前記第2色の画素値の差分により求め、前記求めた差分に基づいて前記推定を行ってもよい。
 また本発明の一態様では、前記合成画像は、前記2画素の両隣りに前記第1色の画素を有し、前記推定演算部は、前記複数の画像を構成する前記第1色の画素値と前記第2色の画素値とが低相関であると判定した場合、前記2画素間での前記第1色の画素値の差分を、前記両隣りの画素間での前記第1色の画素値の差分により求めてもよい。
 また本発明の一態様では、前記2画素である第1画素及び第2画素の画素値は、それぞれ前記高解像画像での複数の画素の加算値に対応し、前記第1画素に対応する複数の画素と前記第2画素に対応する複数の画素とは、共通の画素を有し、前記推定演算部は、前記第2画素に対応する複数の画素から前記共通の画素を除いた画素の画素値を加算した値と、前記第1画素に対応する複数の画素から前記共通の画素を除いた画素の画素値を加算した値との差分を、前記求めた2画素間での前記第1色の画素値の差分により求めてもよい。
 また本発明の一態様では、前記画像取得部は、前記相対的な位置の基準位置で撮像された第1画像と、前記基準位置から水平走査方向に1/2画素ピッチだけシフトされた位置で撮像された第2画像と、前記基準位置から垂直走査方向に前記1/2画素ピッチだけシフトされた位置で撮像された第3画像と、前記基準位置から前記水平走査方向に前記1/2画素ピッチだけシフトされ前記垂直走査方向に前記1/2画素ピッチだけシフトされた位置で撮像された第4画像とを、前記複数の画像として取得し、前記推定演算部は、前記取得した画像の4倍の画素数の画像を、前記高解像画像として推定してもよい。
 また本発明の一態様では、前記撮像素子には、前記第1色の色フィルタを有する画素と前記第2色の色フィルタを有する画素とが、前記水平走査方向に沿って交互に配列され、前記第1~第4画像を構成する画素値を、前記シフトに対応する画素位置に配置した画像である合成画像には、前記第1色の2×2画素の画素値と前記第2色の2×2画素の画素値とが、前記水平走査方向に沿って交互に配列され、前記推定演算部は、前記合成画像の各画素での前記第1色及び前記第2色の画素値を、前記高解像画像の画素値として推定してもよい。
 また本発明の一態様では、前記推定演算部は、前記高解像画像での前記垂直走査方向に沿って並ぶ2画素の画素値を加算した値である中間画素値を、前記第1~第4画像の画素値に基づいて求め、前記中間画素値に基づいて前記高解像画像の画素値を推定してもよい。
 また本発明の一態様では、前記水平走査方向に沿って並ぶ第1~第3の中間画素値のうち前記第1、第2の中間画素値の加算値は、前記合成画像を構成する第1色の画素値である第1画素値に対応し、前記第2、第3の中間画素値の加算値は、前記第1画素値の隣の第1色の画素値である第2画素値に対応し、前記推定演算部は、前記第1~第3の中間画素値が前記水平走査方向に沿って線形変化すると仮定した場合の前記第1~第3の中間画素値と真値との誤差である第1誤差を求め、求めた前記第1誤差により前記第1~第3の中間画素値を決定してもよい。
 また本発明の一態様では、前記推定演算部は、前記第1色の画素値と前記第2色の画素値とが前記高相関であると判定した場合、前記水平走査方向に沿って並ぶ前記第1~第3の中間画素値及び第4、第5の中間画素値のうち前記第3、第5の中間画素値の差分である第1差分を、前記第2画素値と第1画素値との差分により求め、求めた前記第1差分を満たすように前記第1誤差を決定してもよい。
 また本発明の一態様では、前記推定演算部は、前記水平走査方向に沿って並ぶ前記第1~第5の中間画素値及び第6~第11の中間画素値のうち第5~第7の中間画素値について第2誤差を求め、第9~第11の中間画素値について第3誤差を求め、第7、第9の中間画素値について第2差分を求め、前記第1、第2差分を満たすとともに前記第1~第3誤差の二乗和が最小となるように前記第1~第3誤差を決定してもよい。
 また本発明の一態様では、前記推定演算部は、前記複数の画像を構成する画素値を、前記シフトに対応する画素位置に配置した画像である合成画像で、推定対象画素の周辺に位置する前記第1色の画素値と前記第2色の画素値との間の相関値を求め、前記相関値が第1閾値よりも大きく第2閾値よりも小さい場合に前記第1色の画素値と前記第2色の画素値とが前記高相関であると判定してもよい。
 また本発明の一態様では、前記撮像素子は、2×2画素で構成されるユニットが繰り返し配列された色フィルタを有してもよい。
 また本発明の一態様では、前記色フィルタは、RGBベイヤ配列の色フィルタであってもよい。
 また本発明の他の態様は、上記のいずれかに記載された画像処理装置と、前記撮像素子と、を含む撮像装置に関係する。
 また本発明の更に他の態様は、第1配列の色フィルタを有する撮像素子と、前記撮像素子の受光面と、前記受光面に入射する結像との相対的な位置を順次シフトする制御を行うシフト制御部と、前記シフトしながら撮像された複数の画像の各画像よりも画素数が大きい高解像画像を、前記複数の画像に基づいて推定する推定演算部と、を含み、前記シフト制御部は、前記複数の画像を構成する画素値を、前記シフトに対応する画素位置に配置した場合に、前記第1配列とは異なる第2配列となるように前記シフト制御を行い、前記推定演算部は、前記第2配列の画素値に基づいて、前記高解像画像の各色の画素値を推定する撮像装置に関係する。
 また本発明の更に他の態様では、前記第1配列は、RGBベイヤ配列であり、前記第2配列は、2×2画素のR画素値と、2組の2×2画素のG画素値と、2×2画素のB画素値とで構成される4×4画素のユニットが繰り返された配列であってもよい。
 また本発明の更に他の態様は、撮像素子に、第1色の色フィルタを有する画素と第2色の色フィルタを有する画素とが少なくとも配列される場合に、前記撮像素子の受光面と、前記受光面に入射する結像との相対的な位置を順次シフトしながら撮像された複数の画像を取得し、前記複数の画像を構成する前記第1色の画素値と前記第2色の画素値とが高相関であると判定した場合、高解像画像の前記第1色の画素値を、前記複数の画像を構成する前記第2色の画素値に基づいて推定し、前記複数の画像の各画像よりも画素数が多い前記高解像画像を推定する画像処理方法に関係する。
図1は、本実施形態における撮像装置の構成例。 図2は、画素シフト手法についての説明図。 図3は、推定処理のフローチャート。 図4は、画像合成処理についての説明図。 図5(A)、図5(B)は、色相関度の算出処理についての説明図。 図6(A)、図6(B)は、画素値と推定画素値についての説明図。 図7は、画素推定処理についての説明図。 図8は、画素推定処理についての説明図。 図9は、色相関度が低い場合の画素推定処理についての説明図。 図10は、色X=Gの場合の画素推定処理についての説明図。 図11は、色X=Rの場合の画素推定処理についての説明図。 図12は、色X=Rの場合の画素推定処理についての説明図。 図13は、色X=Rの場合の画素推定処理についての説明図。 図14(A)~図14(C)は、撮像画像の例。
 以下、本発明の好適な実施の形態について詳細に説明する。なお以下に説明する本実施形態は請求の範囲に記載された本発明の内容を不当に限定するものではなく、本実施形態で説明される構成の全てが本発明の解決手段として必須であるとは限らない。
 1.撮像装置
 図1に、本実施形態の撮像装置の構成例を示す。図1の撮像装置100は、撮像系110、制御部120、バス121、画素シフト駆動部122(画素シフト機構)、A/D変換部123、メモリコントローラ124、メモリ125、外部インターフェース126、信号処理部130を含む。
 撮像装置100は、光学的な画像情報を電気信号に変換し、その電気信号に変換された画像情報を電子的に記録媒体に記録する装置である。撮像装置100として、例えばデジタルスチルカメラや、デジタルムービーカメラなどが想定される。
 撮像系110は、撮像光学系111と撮像素子112とを含む。撮像素子112は、撮像光学系111によって結像された光を撮像する。撮像素子112は、いわゆるベイヤ配列のカラーフィルタを有する。ベイヤ配列とは、2×2画素を1ユニットとする配列である。1ユニットは、R(赤)色の光を透過するカラーフィルタを有する1画素と、G(緑)色の光を透過するカラーフィルタを有する2画素と、B(青)色の光を透過するカラーフィルタを有する1画素とで構成される。なお、撮像素子112のカラーフィルタは上記に限定されず、RGB以外の色が配列されたカラーフィルタであってもよいし、ベイヤ配列以外の配列のカラーフィルタであってもよい。例えば、CMY(補色)の画素が配列されたカラーフィルタであってもよい。
 画素シフト駆動部122は、制御部120からの制御信号に基づいて、撮像系110を画素シフトさせる駆動を行う。画素シフト駆動部122は、例えば撮像素子112を動かすことで画素シフトを実現する。又は撮像素子112を固定し、画素シフト駆動部122が撮像光学系111を動かすことで光束を動かし、画素シフトを実現してもよい。画素シフト手法については後で詳細に説明する。
 A/D変換部123は、撮像素子112からのアナログ信号をデジタルデータに変換し、メモリコントローラ124は、そのデジタルデータをメモリ125に保存する。例えば、画素シフトを行いながら、A/D変換と保存が逐次に行われる。メモリコントローラ124は、メモリ125に保存されたデジタルデータの画像を、バス121を介して信号処理部130に送信する。
 信号処理部130は、前段処理部131、推定演算部132、後段処理部133を含む。前段処理部131は、例えば画像からブラックオフセットを除く処理や、画像のホワイトバランスをとる処理などの前段処理を行う。推定演算部132は、前段処理後の画像に基づいて高解像の画像を推定により求める。この推定処理は、画素シフトの効果を考慮して行う。推定処理については後で詳細に説明する。後段処理部133は、例えば推定処理後の画像に対する色補正処理やガンマ補正処理などの後段処理を行う。後段処理部133は、後段処理後の画像を、バス121を介して制御部120に送信する。
 制御部120は、撮像装置100の各部の制御を行う。また制御部120は、後段処理部133からの画像を、外部インターフェース126を介して外部のPC140に送信する。PC140は、受信した画像のモニタ表示や、記録媒体への記録などを行う。なお、本実施形態では、撮像装置100が、画像を表示するモニタ表示部や、画像を記録媒体へ記録する記録制御部を含み、撮像装置100がモニタ表示や記録媒体への記録を行ってもよい。
 ここで、図1では撮像装置100が推定処理を行う場合を例に説明したが、本実施形態では、撮像装置100と別体の情報処理装置(例えばPC140)が推定処理を行ってもよい。この場合、前段処理後の画像を外部インターフェース126を介して情報処理装置に転送し、その画像に対して推定処理を行い、高解像画像を生成すればよい。
 2.画素シフト手法
 図2を用いて、本実施形態における画素シフトの手法について説明する。図2に示すように、撮像素子の画素ピッチをpとし、撮像における水平走査方向をx’とし、撮像における垂直走査方向をy’とする。ハッチングを施した四角は撮像素子112のRGB画素を表し、画素配列はベイヤ配列である。点線の四角は、第1位置PS1を表している。
 画素シフトは、撮像光学系111により結像された被写体像と、撮像素子112の受光面との相対的な位置関係を、シフトする動作である。その相対的な位置の基準となる位置を第1位置PS1とすると、第2位置PS2は、第1位置PS1からx’方向に1/2画素ピッチだけシフトされた位置である。第3位置PS3は、第1位置PS1からy’方向に1/2画素ピッチだけシフトされた位置であり、第4位置PS4は、第1位置PS1からx’方向に1/2画素ピッチ及びy’方向に1/2画素ピッチだけシフトされた位置である。本実施形態では、これらの位置PS1~PS4に順次シフトし、各位置において撮像を行うことにより、画素シフト撮影を行う。
 このように本実施形態では、シフト間隔は1/2画素であり、そのシフト間隔で水平走査方向及び垂直走査方向にそれぞれ2回ずつシフトし、計4回の撮影を行う。なお、位置PS1~PS4のシフト順番は任意であり、必ずしもPS1、PS2、PS3、PS4の順である必要はない。
 3.推定処理
 図3に、推定演算部132が行う推定処理のフローチャートを示す。図3の推定処理が開始されると、ステップS1に示すように、位置PS1~PS4で撮像された4枚の撮影画像データを1枚の画像データに合成する。合成した1枚の画像データはメモリに展開され、その画像データをステップS2以降の画像処理において参照する。ステップS1の処理については図4で詳細に後述する。なお、本実施形態ではステップS1の画像合成を必ずしも行う必要はなく、例えばメモリ上に4枚の画像データを別個に展開し、その4枚の画像データの中から処理に必要な画素データを、ステップS2以降の画像処理において参照してもよい。
 次にステップS2に示すように、処理対象の画素(又はその画素を含む領域)毎に色相関度Cを算出する。色相関度Cは、後段の推定処理において、異なる2色(後述する色Xと色Y)の間で空間的な画素値の変化が等しいか否かを判定するために用いるための指標であり、本実施形態では、処理領域における2色の分散値の比を色相関度Cとして用いる。ステップS2の処理については図5(A)等で詳細に後述する。なお、色相関度Cは、2色の分散値の比に限定されず、異なる2色の間での空間的な画素値変化の相関度合いを評価できる指標であればよい。例えば、マッチドフィルタによる相関値を指標としてもよい。この場合、領域毎にFFTを施し、周波数領域において2色の間の相関値を求め、その相関値を色相関度Cとして用いる。
 次にステップS3に示すように、色相関度Cが所定条件を満たすか否かを判定する。具体的には、色相関度Cが1に近い値であれば2色の間の相関が高く、C<<1又は1<<Cであれば相関が低いと考えられる。本実施形態では、閾値C(<1)、C(>1)を設定し、C<C<Cを満たす場合に2色が高相関であると判定する。
 なお、本実施形態では、2色が高相関であるか否かの判定は推定演算部132で行うが、本実施形態はこれに限定されず、別途判定部を設けて2色が高相関であるか否かを判定してもよい。
 ステップS3において2色が高相関であると判定した場合には、ステップS4に示すように、色相関に基づいて高解像画像の画素値を推定する。例えば2色がG、Rであり、高解像画像のGの画素値を推定する場合、シフト撮影したG及びRの画素値を用いて推定を行う。
 ステップS3において2色が高相関でないと判定した場合には、ステップS5に示すように、各色独立に高解像画像の画素値を推定する。例えば2色がG、Rであり、高解像画像のGの画素値を推定する場合、シフト撮影したGの画素値のみを用いて推定を行う。ステップS4、S5の処理については図6(A)等で詳細に後述する。
 次にステップS6に示すように、高解像画像の全画素について画素値を推定したか否かを判定する。全画素の推定処理が終了していない場合には次の画素についてステップS2~S5を行う。全画素の推定処理が終了した場合には、この処理を終了する。
 4.画像合成処理
 図4を用いて、ステップS1の画像合成処理について詳細に説明する。図4に示すように、それぞれ位置PS1~PS4で撮像された画像IM1~IM4を合成し、2×2倍の画素数の合成画像GMを生成する。
 画像IM1~IM4の画素は、図2のシフト位置に対応する画素位置に配置される。即ち、(x,y)を合成画像GMにおける画素位置とし、nを0以上(その値を含む)の整数とすると、画像IM1の画素は、基準位置PS1に対応する(x,y)=(2n,2n)に配置される。画像IM2の画素は、水平走査方向x’へ1/2画素シフトされた位置PS2に対応する(x,y)=(2n+1,2n)に配置される。画像IM3の画素は、垂直走査方向y’へ1/2画素シフトされた位置PS3に対応する(x,y)=(2n,2n+1)に配置される。画像IM4の画素は、水平走査方向x’及び垂直走査方向y’へそれぞれ1/2画素ピッチシフトされた位置PS4に対応する(x,y)=(2n+1,2n+1)に配置される。
 なお、合成画像GMの画素配置はシフト手法に応じて決まるものであり、撮影画素の重心位置が順に配列されるように画素データを並び替えることに相当する。本実施形態では、上記と異なるシフト手法(例えば1/3画素ピッチの3×3シフト)を採用することも可能であり、そのシフト手法に応じた配置の合成画像が生成される。
 5.色相関度の算出処理
 図5(A)、図5(B)を用いて、ステップS2の色相関度の算出処理について詳細に説明する。
 下式(1)~(3)に示すように、色Xと色Yの分散値の比Cを色相関度として求める。色Xと色Yは、推定処理の対象となる画素位置に応じて、(X,Y)=(R,G)、(G,R)、(B,G)、(G,B)のいずれかに設定される。なお以下では、(X,Y)=(G,R)の場合を例に説明する。
Figure JPOXMLDOC01-appb-M000001
Figure JPOXMLDOC01-appb-M000002
Figure JPOXMLDOC01-appb-M000003
 上式(1)~(3)のa x+i,y+jは、合成画像GMにおける位置(x+i,y+j)の色Xの画素値であり、図5(A)の太実線で囲んだ画素に対応している。またa x+i,y+jは、合成画像GMにおける位置(x+i,y+j)の色Yの画素値であり、図5(B)の太実線で囲んだ画素に対応している。点線で囲んだi=-4~5、j=0の画素(又はi=-4~5、j=1の画素)は、推定処理の対象となる画素である。合成画像GMと推定画像の画素位置は対応しており、点線で囲んだ画素を用いて、推定画像上で対応する位置の画素(図7のb x-5,y~b x+5,y)を推定する。
 6.推定処理
 図6(A)~図14(C)を用いて、ステップS4、S5の推定処理について詳細に説明する。なお以下では、水平走査方向に高解像化した後に垂直走査方向に高解像化する場合を例に説明するが、本実施形態はこれに限定されず、垂直走査方向に高解像化した後に水平走査方向に高解像化してもよい。
 図6(A)に示すように、1/2画素ピッチで画素シフトした画像は、互いに1/2画素ずつ位置を重複してサンプリングしているため、光学的な画像情報も重複していることになる。画素値ax,y、ax+1,yは、水平走査方向に1/2画素ピッチだけシフトされた画素値(例えば図4の画像IM1、IM2の画素値)であり、画素値ax,y、ax+1,yは画素値bx,yを共有している。これらの画素値は下式(4)の関係で結ばれている。
Figure JPOXMLDOC01-appb-M000004
 図6(B)に示すように、垂直走査方向においても画素が重複しており、画素値bx,y、bx,y+1は画素値cx,yを共有している。これらの画素値は下式(5)の関係で結ばれている。下式(5)を上式(4)に代入すれば、画素値ax,yは4つの画素値cx,yを加算した値であることがわかる。即ち、画素値cx,yで構成される推定画像は、1枚の撮像画像の4倍の画素数を有することになる。
Figure JPOXMLDOC01-appb-M000005
 本実施形態では、まずシフト撮影で得られた画素値ax,yから画素値bx,yを推定し、次に画素値bx,yから画素値cx,yを推定する。以下では、画素値bx,y、cx,yを推定画素値と呼ぶ。又は適宜、画素値bx,yを中間画素値と呼び、画素値cx,yを最終的な推定画素値と呼ぶ。
 下式(6)に示すように、推定画素値bx-1,y、bx,y、bx+1,yがリニアに変化すると仮定する。
Figure JPOXMLDOC01-appb-M000006
 上式(4)、(6)から、推定画素値は下式(7)のように表される。
Figure JPOXMLDOC01-appb-M000007
 しかしながら、現実には画素値がリニアに変化することは稀であり、多くの場合、現実の画素値にはリニアな変化からのずれが生じている。現実の推定画素値とリニアな推定画素値との差分をδx,yとすると、推定画素値は下式(8)のように表される。差分δx,yは正負いずれの値もとり得る。差分δx,yの前に付く符号は、推定画素値を加算したときに上式(4)を満たすように決められている。
Figure JPOXMLDOC01-appb-M000008
 図7に示すように色X=G、色Y=Rの場合を例にとると、本実施形態では、水平走査方向に並ぶ色G、Rの画素値a x-4,y~a x+5,yを用いて色Gの推定画素値b x-5,y~b x+5,yを求める。画素値a x-4,y~a x+5,yは、図5(A)に示す合成画像GMの点線で囲んだ画素の画素値である。推定画素値b x-5,y~b x+5,yのうち、色Gの画素と重複する推定画素値は、上式(8)と同様にして下式(9)と表される。
Figure JPOXMLDOC01-appb-M000009
 図8に示すように、上式(9)の差分δ x-4,y、δ x,y、δ x+4,yは、黒丸で示すリニアな推定画素値と、白丸で示す実際の推定画素値との差分である。なお図8では簡単のため上付きサフィックスを省略している。この3つの差分を求めるため、推定画素値の間の差分を下式(10)により求める。下式(10)は、画素の重複関係から成り立つものであり、上式(4)から求められる。
Figure JPOXMLDOC01-appb-M000010
 図7に示すように色X=G、色Y=Rの場合を例にとると、上式(10)右辺の色Gの画素値a x-2,y、a x-1,y、a x+2,y、a x+1,yは存在せず、その位置には色Rの画素値しか存在していない。そのため本実施形態では、色Gの推定画素値の間の差分を、色Rの画素値、又は周辺の色Gの画素値を用いて求める。
 具体的には、図3のステップS3でC<C<Cを満たすと判定した場合には、色Xと色Yの相関が高いので、“色Xと色Yの画素値の空間微分は同じである”ことを仮定できる。この仮定のもとでは、色Xの画素値の差分と色Yの画素値の差分が等しいと仮定できるので、下式(11)が成り立つ。このように、色相関度が高い場合には、色Xの推定画素値の差分を、色Yの画素値から求めることができる。
Figure JPOXMLDOC01-appb-M000011
 上式(9)及び(11)を満たす範囲で、差分δ x-4,y、δ x,y、δ x+4,yは如何なる値もとり得るが、特に自然画像の場合、隣接画素値は近い値となることが殆どであるため、差分δ x-4,y、δ x,y、δ x+4,yは0に近い値をとるはずである。そこで、下式(12)に示す二乗和Sδの値を最小化するように差分δ x-4,y、δ x,y、δ x+4,yを決定する。具体的には、上式(11)に上式(9)を代入してbx-3,y、bx-1,y、bx+1,y、bx+3,yを消去し、差分δ x-4,y、δ x,y、δ x+4,yと画素値a、aとの関係式を求める。この関係式を用いて下式(12)から2つの差分を消去し、残った1つの差分をSδが最小となるように求め、求めた差分を関係式に代入して残りの2つの差分を求める。求めた3つの差分を上式(9)に代入し、推定画素値を決定する。
Figure JPOXMLDOC01-appb-M000012
 一方、ステップS3でC<C<Cを満たさないと判定した場合には、色Xと色Yの相関が低いので、“色Xと色Yの画素値の空間微分は同じである”という仮定は成り立たない。色相関が低い領域で色Yの画素値を用いると誤推定につながるため、下式(13)に示すように、色Xの画素値を用いて色Xの推定画素値の間の差分を求める。
Figure JPOXMLDOC01-appb-M000013
 図9に示すように色X=G、色Y=Rの場合を例にとると、画素a x-3,y、a x,yの重心位置JG1、JG2の距離は、画素a x-2,y、a x-1,yの重心位置JR1、JR2の距離の3倍である。仮に画素値a x-2,y、a x-1,yが存在し、画素値a x-3,y、a x-2,y、a x-1,y x,yがリニアに変化すると仮定すると、上記の重心間距離から、a x-1,y-a x-2,y=1/3(a x,y-a x-3,y)が成り立つ。そのため、上式(10)を上式(13)で求めることができる。
 差分δ x-4,y、δ x,y、δ x+4,yは、上式(9)、(12)、(13)から二乗和Sδの値を最小化するように決定し、その差分δ x-4,y、δ x,y、δ x+4,yを上式(9)に代入して推定画素値を決定する。
 以上の推定処理を、画素位置(x,y)をずらしながら順次行い、求め得る全ての画素位置(x,y)について推定画素値b x,yを求める。上記では色(X,Y)=(G,R)を例にとったが、色(X,Y)=(R,G)、(B,G)、(G,B)についても同様の推定処理を行い、各色について推定画素値b x,yを求める。
 色Gについては、図10の実線で示す推定画素値b x+i,y+jが求められる。点線で示す推定画素値b x+i,y+jは、上記の推定処理では求められないので、水平走査方向の補間処理により求める。例えばb x-2,yを、水平走査方向に隣接するb x-3,y、b x-1,yを用いて補間する。
 色Rについては、図11の実線で示す推定画素値b x+i,y+jが求められる。点線で示す推定画素値b x+i,y+jは、上記の推定処理では求められないので、水平走査方向の補間処理により求める。補間処理により図12の太実線で示す推定画素値b x+i,y+jが求められる。
 色Bについては、図11の実線で示す画素位置を、水平走査方向に-2、垂直走査方向に+2ずらした画素位置の推定画素値b x+i,y+jが求められる。これは、図4の合成画像GMにおいてR画素を水平走査方向に-2、垂直走査方向に+2ずらした位置にB画素が存在するためである。推定処理で求められない推定画素値は、水平走査方向の補間処理により求める。
 次に、推定画素値b x,yから最終的な推定画素値c x,yを求める。垂直走査方向で見ると隣り合う推定画素値b x,yは重複しているので、図7~図9で上述した手法と同様にしてb x,yからc x,yを求めることができる。即ち、上式(4)から上式(5)への置き換えを、上式(6)~上式(13)に対して適用し、その置き換えた式を用いて推定処理を行えばよい。
 色Gでは、補間処理により全ての画素位置でb x,yが求まるので、色相関の判定は不要であり、上式(10)をb x,y、c x,yの関係に書き換えた式をそのまま適用すればよい。色Gでは、全ての画素位置でc x,yが推定される。
 色Rでは、図12に示すように2画素おきにb x,yが存在するので、色相関の判定結果に応じた推定処理を行う。色Rでは、図13の実線で示す推定画素値c x+i,y+jが求められる。点線で示す推定画素値c x+i,y+jは、上記の推定処理では求められないので、垂直走査方向の補間処理により求める。例えばc x,y-2を、垂直走査方向に隣接するc x,y-3、c x,y-1を用いて補間する。色Bの推定画素値c x,yについても、色Rと同様にして推定処理、補間処理を行う。
 以上のようにして求めた推定画素値c x,yは、撮像画像の画素a x,yよりも1/2×1/2倍の大きさの画素に対応している。即ち上記の推定処理により、あたかも、使用している撮像素子の画素ピッチに比べて1/2×1/2倍の画素ピッチの撮像素子で撮像したかのような画素データを得ることができる。
 図14(A)は、画素シフトを行わずに撮像した画像であり、図14(B)は、2/3画素ピッチで3×3回の画素シフトを行う従来手法により撮像した画像であり、図14(C)は、1/2画素ピッチで2×2回の画素シフトを行う本実施形態の手法により撮像した画像である。本実施形態の手法により撮像した画像は、画素シフトを行わずに撮像した画像よりも高解像であり、また、従来手法により撮像した画像よりも少ないシフト回数で画質が劣らないことが分かる。
 なお上記では、図7に示すように11個の推定画素値b x,yを処理単位として推定処理を行う場合を例に説明したが、本実施形態はこれに限定されず、より多くの推定画素値b x,yを処理単位として推定処理を行ってもよいし、より少ない推定画素値b x,yを処理単位として推定処理を行ってもよい。また、ノイズなど別要素を考慮した推定処理を行ってもよい。
 以上の実施形態によれば、図1に示すように、画像処理装置は画像取得部と推定演算部132とを含む。図2や図4で説明したように、画像取得部は、撮像素子112の受光面と、受光面に入射する結像との相対的な位置を順次シフトしながら撮像された複数の画像IM1~IM4を取得する。推定演算部132は、複数の画像IM1~IM4の各画像よりも画素数が大きい(例えば2×2倍の)高解像画像を、複数の画像IM1~IM4に基づいて推定する。図2に示すように、撮像素子112には、第1色X(例えばG)の色フィルタを有する画素と第2色Y(例えばR)の色フィルタを有する画素とが少なくとも配列される。図3等で説明したように、推定演算部132は、複数の画像IM1~IM4を構成する第1色Xの画素値a x,yと第2色Yの画素値a x,yとが高相関であると判定した場合、高解像画像の第1色Xの画素値c x,yを、複数の画像IM1~IM4を構成する第2色Yの画素値a x,yに基づいて推定する。
 例えば本実施形態では、画像処理装置は、図1の信号処理部130を実現する回路装置に対応する。画像取得部は、メモリコントローラ124及びバス121を介してメモリ125から画像データを取得する前段処理部131に対応する。あるいは、撮像装置100外部の情報処理装置(例えばPC140)で推定処理を行う場合、画像処理装置はその情報処理装置に対応し、画像取得部は、外部インターフェース126から画像データを受信する不図示のインターフェース部に対応する。また本実施形態では、図7等で説明したように、a x,yからb x,yを推定し、そのb x,yを用いてc x,yを推定することで、第2色Yの画素値a x,yに基づいて第1色Xの画素値c x,yが推定される。
 このようにすれば、従来手法(例えば特許文献1、2)に比べて少ないシフト回数であっても解像度を低下させることなく画素シフト撮影を行うことができる。即ち、図4の合成画像GMのように同色画素の間隔が2画素以上になると、通常の補間では高周波成分が失われ、解像度を得ることが難しい。この点、本実施形態では色Xと色Yが高相関の場合に色Yを使って色Xを推定できるので、同色画素の間隔が2画素以上であっても解像度が低下しにくい。これにより、図2のような2×2回の少ないシフト回数を実現できる。また、推定で求められない画素を補間する場合、図10や図13で説明したように、同色画素の間隔が1画素の状態で補間を行うため、補間による解像度の低下を最小限にできる。このようにして、シフト回数を少なくして撮影時間を短縮できるため、経時的に被写体が変化する例えば動体や蛍光観察などにおいても、高画質な画像を得ることが可能になる。
 また本実施形態では、図4等で説明したように、複数の画像IM1~IM4を構成する画素値を、シフトに対応する画素位置に配置した画像である合成画像GMは、第2色Yの隣り合う2画素(例えば図5(A)のa x-2,y、a x-1,y)を少なくとも有する。推定演算部132は、色Xと色Yが高相関であると判定した場合、2画素間での第1色Xの画素値の差分(上式(10)右辺)を、2画素間での第2色Yの画素値の差分(上式(11)右辺)により求め、求めた差分に基づいて推定を行う。
 また本実施形態では、合成画像GMは、2画素の両隣りに第1色Xの画素(例えば図5のa x-3,y、a x,y)を有する。推定演算部132は、複数の画像IM1~IM4を構成する第1色Xの画素値a x,yと第2色Yの画素値a x,yとが低相関であると判定した場合、2画素間での第1色Xの画素値の差分(上式(10)右辺)を、両隣りの画素間での第1色Xの画素値の差分(上式(13)右辺)により求める。
 なお本実施形態では、第2色Yの隣り合う2画素を少なくとも有する合成画像GMを推定演算部132が生成してもよいし、あるいは、仮に合成画像GMのように画素を配置したとすれば第2色Yの隣り合う2画素を少なくとも有するような複数の画像IM1~IM4を推定演算部132が参照してもよい。即ち、合成画像GMは必ずしも生成する必要はない。
 このようにすれば、図5に示すように、合成画像GMにおいて処理対象画素(点線)の周辺(太実線)で色Xと色Yが高相関である場合、その相関性により色Yの画素値を用いて色Xの画素値を推定することができる。また図9等で説明したように、処理対象画素の周辺で色Xと色Yが低相関である場合、色Xの画素値を用いて色Xの画素値を推定することで、画素値の誤推定を防ぐことができる。
 また本実施形態では、図6で説明したように、2画素である第1画素及び第2画素の画素値ax,y、ax+1,yは、それぞれ高解像画像での複数の画素(2×2のcx,y)の加算値に対応する。第1画素に対応する複数の画素と第2画素に対応する複数の画素とは、共通の画素(bx,yを構成するcx,y-1、cx,y)を有する。推定演算部132は、第2画素(例えば図7のa x-1,y)に対応する複数の画素から共通の画素(b x-2,y)を除いた画素の画素値を加算した値(b x-1,y)と、第1画素(a x-2,y)に対応する複数の画素から共通の画素(b x-2,y)を除いた画素の画素値を加算した値(b x-3,y)との差分(上式(10)左辺)を、上記で求めた2画素間での第1色の画素値の差分(上式(11)右辺、又は上式(13)右辺)により求める。
 このようにすれば、光学的な画像情報が1/2画素ピッチずつ重複して撮像されることを利用して、高解像画像を推定することが可能になる。即ち、画像情報の重複により、上式(10)のように推定画素値b x,yの差分を画素値a x,yの差分で表すことができる。そして、その画素値a x,yの差分を色相関度に応じて上式(11)又は(13)により求めることにより、推定処理を行うことが可能になる。
 また本実施形態では、図7や図10で説明したように、推定演算部132は、高解像画像での垂直走査方向に沿って並ぶ2画素の画素値を加算した値である中間画素値(b x,y、推定画素値)を、前記第1~第4画像IM1~IM4の画素値(a x,y、a x,y)に基づいて求め、その中間画素値(b x,y)に基づいて高解像画像の画素値(c x,y)を推定する。
 このようにすれば、水平走査方向における画素の重複を用いて水平走査方向に高解像化して中間画素値(b x,y)を求め、垂直走査方向における画素の重複を用いて垂直走査方向に高解像化して高解像画像の画素値(c x,y)を求めることができる。
 また本実施形態では、図7に示すように、水平走査方向に沿って第1~第11の中間画素値b x-5,y~b x+5,yが並ぶ。第1、第2の中間画素値b x-5,y、b x-4,yの加算値は、合成画像GMを構成する第1色Xの画素値である第1画素値a x-4,yに対応する。第2、第3の中間画素値b x-4,y、b x-3,yの加算値は、第1画素値a x-4,yの隣の第1色Xの画素値である第2画素値a x-3,yに対応する。推定演算部132は、第1~第3の中間画素値が水平走査方向に沿って線形変化すると仮定(上式(6))した場合の第1~第3の中間画素値と、真値との誤差である第1誤差δ x-4,y(図8、上式(8))を求める。推定演算部132は、求めた第1誤差δ x-4,yにより第1~第3の中間画素値b x-5,y~b x-3,yを決定する。
 具体的には、推定演算部132は、色Xと色Yが高相関であると判定した場合、第3、第5の中間画素値b x-3,y、b x-1,yの差分である第1差分(上式(11)の第1式左辺)を、第2画素値(a x-1,y)と第1画素値(a x-2,y)との差分(式(11)の第1式右辺)により求め、求めた第1差分を満たすように第1誤差δ x-4,yを決定する。
 より具体的には、推定演算部132は、第5~第7の中間画素値b x-1,y~b x+1,yについて第2誤差δ x,y(図8、式(8))を求め、第9~第11の中間画素値b x+3,y~b x+5,yについて第3誤差δ x+4,y(図8、式(8))を求め、第7、第9の中間画素値(b x+1,y,b x+3,y)について第2差分(式(11)の第2式左辺)を求め、第1、第2差分を満たすとともに第1~第3誤差の二乗和Sδ(式(11))が最小となるように第1~第3誤差δ x-4,y、δ x,y、δ x+4,yを決定する。
 このようにすれば、1/2画素ピッチで画素シフト撮影された画像から、中間画素値b x,y(推定画素値)を求めることが可能になる。即ち、水平走査方向に沿って2画素おきに色Xの画素が並ぶ合成画像GMから、各画素位置における中間画素値b x,yを推定することができる。また、11個の中間画素値b x,yを処理単位とすることで、より少ない中間画素値を処理単位とした場合よりも、現実の画素値にフィットした推定値を得られると期待できる。また、3つの中間画素値について1つの誤差を設定することで、推定すべき変数の数を減らし、推定処理を簡素化できる。また、設定した第1~第3誤差をつなぐ第1、第2差分を求めることで、第1~第3誤差が満たすべき2つの条件式(上式(11)に上式(9)を代入した式)が得られ、更に二乗和Sδを最小にするという条件と合わせた3つの条件により、3つの第1~第3誤差を決定できる。
 また本実施形態では、図5で説明したように、推定演算部132は、合成画像GMで、推定対象画素(点線)の周辺(太実線)に位置する第1色X(例えばG)の画素値と第2色Y(例えばR)の画素値との間の相関値C(式(1)~(3))を求める。推定演算部132は、相関値Cが第1閾値Cよりも大きく第2閾値Cよりも小さい場合に高相関であると判定する。
 このようにすれば、推定対象画素の周辺における色Xと色Yの相関値Cを求めることができ、その相関値Cに基づいて相関度を判定できる。即ち、その相関値Cが所定条件C<C<Cを満たした場合に色Xと色Yが高相関であると判定できる。
 なお、上記のように本実施形態について詳細に説明したが、本発明の新規事項および効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本発明の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義又は同義な異なる用語と共に記載された用語は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。また画像処理装置、撮像装置等の構成、動作も本実施形態で説明したものに限定されず、種々の変形実施が可能である。
100 撮像装置、110 撮像系、111 撮像光学系、
112 撮像素子、120 制御部、121 バス、
122 画素シフト駆動部、123 A/D変換部、
124 メモリコントローラ、125 メモリ、
126 外部インターフェース、130 信号処理部、
131 前段処理部、132 推定演算部、133 後段処理部、
B 青色、C 色相関度、C 第1閾値、C 第2閾値、
G 緑色、GM 合成画像、IM1~IM4 複数の画像、
JG1,JG2,JR1,JR2 重心位置、
PS1~PS4 第1~第4位置、R 赤色、Sδ 二乗和、
X 第1色、Y 第2色、a x,y,a x,y 画素値、
x,y 中間画素値、c x,y 推定画素値、x,y 画素位置、
x’ 水平走査方向、y’ 垂直走査方向、δ x,y 誤差

Claims (17)

  1.  撮像素子の受光面と、前記受光面に入射する結像との相対的な位置を順次シフトしながら撮像された複数の画像を取得する画像取得部と、
     前記複数の画像の各画像よりも画素数が多い高解像画像を、前記複数の画像に基づいて推定する推定演算部と、
     を備え、
     前記撮像素子には、第1色の色フィルタを有する画素と第2色の色フィルタを有する画素とが少なくとも配列され、
     前記推定演算部は、
     前記複数の画像を構成する前記第1色の画素値と前記第2色の画素値とが高相関であると判定した場合、前記高解像画像の前記第1色の画素値を、前記複数の画像を構成する前記第2色の画素値に基づいて推定することを特徴とする画像処理装置。
  2.  請求項1において、
     前記複数の画像を構成する画素値を、前記シフトに対応する画素位置に配置した画像である合成画像は、前記第2色の隣り合う2画素を少なくとも有し、
     前記推定演算部は、
     前記第1色の画素値と前記第2色の画素値とが前記高相関であると判定した場合、前記2画素間での前記第1色の画素値の差分を、前記2画素間での前記第2色の画素値の差分により求め、前記求めた差分に基づいて前記推定を行うことを特徴とする画像処理装置。
  3.  請求項2において、
     前記合成画像は、前記2画素の両隣りに前記第1色の画素を有し、
     前記推定演算部は、
     前記複数の画像を構成する前記第1色の画素値と前記第2色の画素値とが低相関であると判定した場合、前記2画素間での前記第1色の画素値の差分を、前記両隣りの画素間での前記第1色の画素値の差分により求めることを特徴とする画像処理装置。
  4.  請求項2において、
     前記2画素である第1画素及び第2画素の画素値は、それぞれ前記高解像画像での複数の画素の加算値に対応し、前記第1画素に対応する複数の画素と前記第2画素に対応する複数の画素とは、共通の画素を有し、
     前記推定演算部は、
     前記第2画素に対応する複数の画素から前記共通の画素を除いた画素の画素値を加算した値と、前記第1画素に対応する複数の画素から前記共通の画素を除いた画素の画素値を加算した値との差分を、前記求めた2画素間での前記第1色の画素値の差分により求めることを特徴とする画像処理装置。
  5.  請求項1において、
     前記画像取得部は、
     前記相対的な位置の基準位置で撮像された第1画像と、前記基準位置から水平走査方向に1/2画素ピッチだけシフトされた位置で撮像された第2画像と、前記基準位置から垂直走査方向に前記1/2画素ピッチだけシフトされた位置で撮像された第3画像と、前記基準位置から前記水平走査方向に前記1/2画素ピッチだけシフトされ前記垂直走査方向に前記1/2画素ピッチだけシフトされた位置で撮像された第4画像とを、前記複数の画像として取得し、
     前記推定演算部は、
     前記取得した画像の4倍の画素数の画像を、前記高解像画像として推定することを特徴とする画像処理装置。
  6.  請求項5において、
     前記撮像素子には、前記第1色の色フィルタを有する画素と前記第2色の色フィルタを有する画素とが、前記水平走査方向に沿って交互に配列され、
     前記第1~第4画像を構成する画素値を、前記シフトに対応する画素位置に配置した画像である合成画像には、前記第1色の2×2画素の画素値と前記第2色の2×2画素の画素値とが、前記水平走査方向に沿って交互に配列され、
     前記推定演算部は、
     前記合成画像の各画素での前記第1色及び前記第2色の画素値を、前記高解像画像の画素値として推定することを特徴とする画像処理装置。
  7.  請求項5において、
     前記推定演算部は、
     前記高解像画像での前記垂直走査方向に沿って並ぶ2画素の画素値を加算した値である中間画素値を、前記第1~第4画像の画素値に基づいて求め、前記中間画素値に基づいて前記高解像画像の画素値を推定することを特徴とする画像処理装置。
  8.  請求項7において、
     前記水平走査方向に沿って並ぶ第1~第3の中間画素値のうち前記第1、第2の中間画素値の加算値は、前記合成画像を構成する第1色の画素値である第1画素値に対応し、前記第2、第3の中間画素値の加算値は、前記第1画素値の隣の第1色の画素値である第2画素値に対応し、
     前記推定演算部は、
     前記第1~第3の中間画素値が前記水平走査方向に沿って線形変化すると仮定した場合の前記第1~第3の中間画素値と真値との誤差である第1誤差を求め、求めた前記第1誤差により前記第1~第3の中間画素値を決定することを特徴とする画像処理装置。
  9.  請求項8において、
     前記推定演算部は、
     前記第1色の画素値と前記第2色の画素値とが前記高相関であると判定した場合、前記水平走査方向に沿って並ぶ前記第1~第3の中間画素値及び第4、第5の中間画素値のうち前記第3、第5の中間画素値の差分である第1差分を、前記第2画素値と第1画素値との差分により求め、求めた前記第1差分を満たすように前記第1誤差を決定することを特徴とする画像処理装置。
  10.  請求項9において、
     前記推定演算部は、
     前記水平走査方向に沿って並ぶ前記第1~第5の中間画素値及び第6~第11の中間画素値のうち第5~第7の中間画素値について第2誤差を求め、第9~第11の中間画素値について第3誤差を求め、第7、第9の中間画素値について第2差分を求め、前記第1、第2差分を満たすとともに前記第1~第3誤差の二乗和が最小となるように前記第1~第3誤差を決定することを特徴とする画像処理装置。
  11.  請求項1において、
     前記推定演算部は、
     前記複数の画像を構成する画素値を、前記シフトに対応する画素位置に配置した画像である合成画像で、推定対象画素の周辺に位置する前記第1色の画素値と前記第2色の画素値との間の相関値を求め、前記相関値が第1閾値よりも大きく第2閾値よりも小さい場合に前記第1色の画素値と前記第2色の画素値とが前記高相関であると判定することを特徴とする画像処理装置。
  12.  請求項1において、
     前記撮像素子は、2×2画素で構成されるユニットが繰り返し配列された色フィルタを有することを特徴とする画像処理装置。
  13.  請求項12において、
     前記色フィルタは、RGBベイヤ配列の色フィルタであることを特徴とする画像処理装置。
  14.  請求項1乃至13のいずれかに記載された画像処理装置と、
     前記撮像素子と、
     を含むことを特徴とする撮像装置。
  15.  第1配列の色フィルタを有する撮像素子と、
     前記撮像素子の受光面と、前記受光面に入射する結像との相対的な位置を順次シフトする制御を行うシフト制御部と、
     前記シフトしながら撮像された複数の画像の各画像よりも画素数が大きい高解像画像を、前記複数の画像に基づいて推定する推定演算部と、
     を含み、
     前記シフト制御部は、
     前記複数の画像を構成する画素値を、前記シフトに対応する画素位置に配置した場合に、前記第1配列とは異なる第2配列となるように前記シフト制御を行い、
     前記推定演算部は、
     前記第2配列の画素値に基づいて、前記高解像画像の各色の画素値を推定することを特徴とする撮像装置。
  16.  請求項15において、
     前記第1配列は、RGBベイヤ配列であり、
     前記第2配列は、2×2画素のR画素値と、2組の2×2画素のG画素値と、2×2画素のB画素値とで構成される4×4画素のユニットが繰り返された配列であることを特徴とする撮像装置。
  17.  撮像素子に、第1色の色フィルタを有する画素と第2色の色フィルタを有する画素とが少なくとも配列される場合に、前記撮像素子の受光面と、前記受光面に入射する結像との相対的な位置を順次シフトしながら撮像された複数の画像を取得し、
     前記複数の画像を構成する前記第1色の画素値と前記第2色の画素値とが高相関であると判定した場合、高解像画像の前記第1色の画素値を、前記複数の画像を構成する前記第2色の画素値に基づいて推定し、前記複数の画像の各画像よりも画素数が多い前記高解像画像を推定することを特徴とする画像処理方法。
PCT/JP2012/084176 2012-03-09 2012-12-28 画像処理装置、撮像装置及び画像処理方法 WO2013132730A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/330,287 US9578264B2 (en) 2012-03-09 2014-07-14 Image processing device, imaging device, and image processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012-052853 2012-03-09
JP2012052853A JP5889049B2 (ja) 2012-03-09 2012-03-09 画像処理装置、撮像装置及び画像処理方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/330,287 Continuation US9578264B2 (en) 2012-03-09 2014-07-14 Image processing device, imaging device, and image processing method

Publications (1)

Publication Number Publication Date
WO2013132730A1 true WO2013132730A1 (ja) 2013-09-12

Family

ID=49116227

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/084176 WO2013132730A1 (ja) 2012-03-09 2012-12-28 画像処理装置、撮像装置及び画像処理方法

Country Status (3)

Country Link
US (1) US9578264B2 (ja)
JP (1) JP5889049B2 (ja)
WO (1) WO2013132730A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6503907B2 (ja) * 2015-06-12 2019-04-24 リコーイメージング株式会社 撮影装置、撮影制御装置、撮影制御方法、及び撮影制御プログラム
CN105578005B (zh) * 2015-12-18 2018-01-19 广东欧珀移动通信有限公司 图像传感器的成像方法、成像装置和电子装置
CN106341670B (zh) * 2016-11-29 2017-09-22 广东欧珀移动通信有限公司 控制方法、控制装置及电子装置
CN106507068B (zh) 2016-11-29 2018-05-04 广东欧珀移动通信有限公司 图像处理方法及装置、控制方法及装置、成像及电子装置
CN106604001B (zh) 2016-11-29 2018-06-29 广东欧珀移动通信有限公司 图像处理方法、图像处理装置、成像装置及电子装置
CN106504218B (zh) 2016-11-29 2019-03-12 Oppo广东移动通信有限公司 控制方法、控制装置及电子装置
CN106454054B (zh) 2016-11-29 2019-03-19 Oppo广东移动通信有限公司 控制方法、控制装置及电子装置
WO2018168551A1 (ja) * 2017-03-16 2018-09-20 富士フイルム株式会社 撮像素子及び撮像装置
US11770614B2 (en) * 2020-03-31 2023-09-26 Sony Group Corporation Image processing device and method, and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001008217A (ja) * 1999-06-25 2001-01-12 For-A Co Ltd 静止画カラーカメラ装置
JP2001313872A (ja) * 2000-05-01 2001-11-09 Victor Co Of Japan Ltd 画素ずらし撮影方法
JP2001326942A (ja) * 2000-05-12 2001-11-22 Fuji Photo Film Co Ltd 固体撮像装置および信号処理方法
JP2002262301A (ja) * 2001-03-02 2002-09-13 Olympus Optical Co Ltd 撮像装置
JP2003348452A (ja) * 2002-05-30 2003-12-05 Fuji Photo Film Co Ltd 固体撮像装置および固体撮像素子

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3762049B2 (ja) 1997-06-27 2006-03-29 キヤノン株式会社 撮像装置及び撮像方法及びその撮像方法を記録した記録媒体
US7292277B2 (en) 2002-04-08 2007-11-06 Fujifilm Corporation Solid-state image pick-up device and digital still camera
JP4059837B2 (ja) 2003-11-10 2008-03-12 株式会社朋栄 静止画カラーカメラ装置
US8040558B2 (en) * 2006-11-29 2011-10-18 Youliza, Gehts B.V. Limited Liability Company Apparatus and method for shift invariant differential (SID) image data interpolation in fully populated shift invariant matrix
US7911515B2 (en) * 2007-09-20 2011-03-22 Victor Company Of Japan, Ltd. Imaging apparatus and method of processing video signal

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001008217A (ja) * 1999-06-25 2001-01-12 For-A Co Ltd 静止画カラーカメラ装置
JP2001313872A (ja) * 2000-05-01 2001-11-09 Victor Co Of Japan Ltd 画素ずらし撮影方法
JP2001326942A (ja) * 2000-05-12 2001-11-22 Fuji Photo Film Co Ltd 固体撮像装置および信号処理方法
JP2002262301A (ja) * 2001-03-02 2002-09-13 Olympus Optical Co Ltd 撮像装置
JP2003348452A (ja) * 2002-05-30 2003-12-05 Fuji Photo Film Co Ltd 固体撮像装置および固体撮像素子

Also Published As

Publication number Publication date
US9578264B2 (en) 2017-02-21
JP2013187811A (ja) 2013-09-19
US20160014354A1 (en) 2016-01-14
US20160241798A9 (en) 2016-08-18
JP5889049B2 (ja) 2016-03-22

Similar Documents

Publication Publication Date Title
JP5889049B2 (ja) 画像処理装置、撮像装置及び画像処理方法
US9338364B2 (en) Imaging device and image generation method
KR101703354B1 (ko) 화상 처리 장치, 화상 처리 방법, 및 기록 매체
JP5036482B2 (ja) 画像処理装置及び画像処理方法、画像処理プログラム
JP5006814B2 (ja) 撮像装置
JP5128207B2 (ja) 画像処理装置及び画像処理方法、画像処理プログラム
JP5672776B2 (ja) 画像処理装置、および画像処理方法、並びにプログラム
TWI386049B (zh) A solid-state imaging device, and a device using the solid-state imaging device
JP5404376B2 (ja) カメラモジュール及び画像処理装置
JP5096645B1 (ja) 画像生成装置、画像生成システム、方法、およびプログラム
JP3771054B2 (ja) 画像処理装置及び画像処理方法
JP2011044801A (ja) 画像処理装置
EP2579206A1 (en) Image processing device, image capturing device, program and image processing method
JP2005026863A (ja) 信号補正方法
JP2001119705A (ja) カラー撮像装置
JP5242180B2 (ja) 画像処理装置、画像信号補正方法、補正マトリクス算出方法及び撮像装置
JP5631769B2 (ja) 画像処理装置
JP5159461B2 (ja) 画像処理装置、画像処理方法及び撮像装置
JP2006135823A (ja) 画像処理装置、撮像装置および画像処理プログラム
JP2013009172A (ja) 撮像装置及び画像生成方法
JP2006262382A (ja) 画像処理装置
JP2012253490A (ja) 固体撮像装置、撮像装置及び画像生成方法
JP5335968B2 (ja) 画像処理装置、画像処理方法、プログラム及び記録媒体
JP2000023172A (ja) 撮像装置
JP2012099870A (ja) 撮像装置及び撮像方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12870618

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12870618

Country of ref document: EP

Kind code of ref document: A1