WO2011148760A1 - 画像処理装置、撮像装置、プログラム及び画像処理方法 - Google Patents
画像処理装置、撮像装置、プログラム及び画像処理方法 Download PDFInfo
- Publication number
- WO2011148760A1 WO2011148760A1 PCT/JP2011/060501 JP2011060501W WO2011148760A1 WO 2011148760 A1 WO2011148760 A1 WO 2011148760A1 JP 2011060501 W JP2011060501 W JP 2011060501W WO 2011148760 A1 WO2011148760 A1 WO 2011148760A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- light reception
- unit
- value
- image
- pixel
- Prior art date
Links
- 238000012545 processing Methods 0.000 title claims abstract description 203
- 238000003672 processing method Methods 0.000 title claims abstract description 7
- 238000004364 calculation method Methods 0.000 claims description 69
- 238000003384 imaging method Methods 0.000 claims description 50
- 238000011156 evaluation Methods 0.000 claims description 32
- 238000000034 method Methods 0.000 description 150
- 230000008569 process Effects 0.000 description 44
- 230000006870 function Effects 0.000 description 41
- 238000010586 diagram Methods 0.000 description 36
- 230000003287 optical effect Effects 0.000 description 12
- 238000013144 data compression Methods 0.000 description 8
- 230000006837 decompression Effects 0.000 description 8
- 230000000052 comparative effect Effects 0.000 description 4
- 238000007906 compression Methods 0.000 description 4
- 230000006835 compression Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000000605 extraction Methods 0.000 description 3
- 238000007476 Maximum Likelihood Methods 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000002156 mixing Methods 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000017525 heat dissipation Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012887 quadratic function Methods 0.000 description 1
- 238000011946 reduction process Methods 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4053—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
- G06T3/4069—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution by subpixel displacements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/387—Composing, repositioning or otherwise geometrically modifying originals
- H04N1/3872—Repositioning or masking
- H04N1/3873—Repositioning or masking defined only by a limited number of coordinate points or parameters, e.g. corners, centre; for trimming
- H04N1/3875—Repositioning or masking defined only by a limited number of coordinate points or parameters, e.g. corners, centre; for trimming combined with enlarging or reducing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
- H04N23/84—Camera processing pipelines; Components thereof for processing colour signals
- H04N23/843—Demosaicing, e.g. interpolating colour pixel values
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/48—Increasing resolution by shifting the sensor relative to the scene
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/95—Computational photography systems, e.g. light-field imaging systems
- H04N23/951—Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/10—Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
- H04N25/11—Arrangement of colour filter arrays [CFA]; Filter mosaics
- H04N25/13—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
- H04N25/134—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
Definitions
- the present invention relates to an image processing device, an imaging device, a program, an image processing method, and the like.
- Some modern digital cameras and video cameras can be used by switching between still image shooting mode and movie shooting mode. For example, there is a camera that can shoot a still image with a resolution higher than that of a moving image by a user operating a button during moving image shooting.
- the method of switching between the still image shooting mode and the moving image shooting mode has a problem that when the user notices a photo opportunity, a decisive moment is often missed already.
- Patent Documents 1 and 2 disclose a technique for synthesizing a high-resolution image from a low-resolution image acquired by pixel shift.
- this method requires imaging by pixel shift, which complicates the camera configuration.
- an image processing device an imaging device, a program, an image processing method, and the like that can acquire a high resolution image from a low resolution moving image with simple processing.
- a light reception unit which is a unit for acquiring a light reception value, is set in an image sensor, and the light reception value of the light reception unit is read and a low resolution frame image is acquired.
- a storage unit that stores the low-resolution frame image; and a light-receiving value of a virtual light-receiving unit that is set to be superimposed on the light-receiving unit at a position shifted from the position of the light-receiving unit.
- An interpolation processing unit obtained by interpolation processing based on the light reception value of the light reception unit, and estimation of a pixel pitch smaller than the pixel pitch of the low resolution frame image based on the light reception value of the light reception unit and the light reception value of the virtual light reception unit
- An estimation calculation unit that estimates a pixel value, and an image output that outputs a high resolution frame image having a higher resolution than the low resolution frame image based on the pixel value estimated by the estimation calculation unit
- the light reception value of the virtual light reception unit is obtained by interpolation processing based on the light reception value of the light reception unit. Based on the light reception value of the virtual light reception unit and the light reception value of the light reception unit, an estimated pixel value having a pixel pitch smaller than the pixel pitch of the low resolution frame image is estimated. Then, based on the estimated pixel value, a high resolution frame image having a higher resolution than the low resolution frame image is output. Thereby, it becomes possible to acquire a high resolution image from a low resolution moving image by a simple process.
- the estimation calculation unit may include a first light reception unit that is either the light reception unit or the virtual light reception unit set in a first position, and the first light reception unit.
- a difference value from the second light receiving unit that is the virtual light receiving unit set at the second position to be superimposed may be obtained, and the estimated pixel value may be estimated based on the difference value.
- the estimated pixel value is estimated based on the difference between the light reception value of the first light reception unit and the light reception value of the second light reception unit, so that the light reception value of the light reception unit and the light reception of the virtual light reception unit.
- the estimated pixel value can be estimated based on the value.
- the estimation calculation unit may include a first intermediate pixel value that is a light reception value of a first light reception region obtained by removing an overlap region from the first light reception unit, and the second light reception.
- a relational expression with the second intermediate pixel value, which is a light reception value of the second light receiving area excluding the overlapped area from the unit, is expressed using the difference value, and the first and second are expressed using the relational expression. May be estimated, and the estimated pixel value may be obtained using the estimated first intermediate pixel value.
- the relational expression between the first and second intermediate pixel values is expressed by the difference value, and the first and second intermediate pixel values are estimated based on the relational expression, and the first intermediate An estimated pixel value is estimated based on the pixel value. Accordingly, the estimated pixel value can be estimated based on the difference value between the light reception value of the first light reception unit and the light reception value of the second light reception unit.
- the estimation calculation unit may be included in the intermediate pixel value pattern when successive intermediate pixel values including the first and second intermediate pixel values are used as an intermediate pixel value pattern.
- a relational expression between the intermediate pixel values is expressed using a light reception value of the light reception unit and a light reception value of the virtual light reception unit, and the intermediate pixel value pattern represented by the relational expression is represented by the light reception value of the light reception unit and the light reception value.
- the similarity is evaluated in comparison with the light reception value pattern represented by the light reception value of the virtual light reception unit, and is included in the intermediate pixel value pattern so that the similarity becomes the highest based on the similarity evaluation result.
- An intermediate pixel value may be determined.
- the similarity between the intermediate pixel value pattern and the received light value pattern is evaluated, and the intermediate pixel value included in the intermediate pixel value pattern is determined so that the similarity is the highest.
- the intermediate pixel value can be determined based on the relational expression between the two.
- the estimation calculation unit obtains an evaluation function representing an error between the intermediate pixel value pattern represented by the relational expression and the light reception value pattern, and the value of the evaluation function is minimized.
- the intermediate pixel value included in the intermediate pixel value pattern may be determined so that
- the similarity between the intermediate pixel value pattern and the light reception value pattern can be evaluated by obtaining the evaluation function. Further, by determining the intermediate pixel value so that the value of the evaluation function is minimized, it is possible to determine the intermediate pixel value so that the similarity is the highest.
- the interpolation processing unit weights and adds the light reception values of a plurality of light reception units around the virtual light reception unit among the light reception values of the light reception units included in the low resolution frame image. Then, the light reception value of the virtual light reception unit may be obtained.
- the light reception value of the virtual light reception unit can be obtained by interpolation processing based on the light reception value of the light reception unit of the low resolution frame image.
- each pixel value of the light receiving unit is added and read as a light receiving value of the light receiving unit
- the estimation calculation unit may estimate a pixel value of each pixel of the light reception unit based on the light reception value of the light reception unit obtained by addition reading.
- the pixel value of each pixel of the light reception unit can be estimated based on the light reception value of the light reception unit obtained by the addition reading.
- each pixel value of the light reception unit is weighted and added and read as a light reception value of the light reception unit.
- the estimation calculation unit may estimate the pixel value of each pixel of the light reception unit based on the light reception value of the light reception unit obtained by weighted addition reading.
- the pixel value of each pixel of the light receiving unit can be estimated based on the light receiving value of the light receiving unit obtained by the weighted addition reading.
- the image sensor is a color image sensor, and a plurality of adjacent pixels are set as the light receiving unit regardless of the color of the pixel, and the plurality of pixels set as the light receiving unit.
- the pixel value is added and read out to obtain the low resolution frame image
- the estimation calculation unit receives the light reception value of the light reception unit of the low resolution frame image and the virtual light reception unit from the interpolation processing unit.
- the image output unit outputs the color high-resolution frame image based on the pixel value estimated by the estimation calculation unit. May be.
- the image sensor is a color image sensor, a plurality of pixels of the same color are set as the light receiving unit, and pixel values of the plurality of pixels set as the light receiving unit are added.
- the low resolution frame image is acquired, and the estimation calculation unit is based on the light reception value of the light reception unit of the low resolution frame image and the light reception value of the virtual light reception unit from the interpolation processing unit. Then, the pixel value of each pixel of the light receiving unit may be estimated, and the image output unit may output the color high-resolution frame image based on the pixel value estimated by the estimation calculation unit.
- the light reception unit is set to N ⁇ N pixels, and the pixel values of the N ⁇ N pixels are added and read to obtain the light reception value of the light reception unit of N ⁇ N pixels.
- the interpolation processing unit obtains the light reception value of the virtual light reception unit of N ⁇ N pixels obtained by shifting the light reception unit of N ⁇ N pixels by N / 2 pixels by interpolation processing, and the estimation calculation unit includes: Based on the light reception value of the light reception unit of N ⁇ N pixels and the light reception value of the virtual light reception unit of N ⁇ N pixels, the light reception value of the light reception unit of N / 2 ⁇ N / 2 pixels is estimated, and the interpolation processing unit Obtains a pixel value of a virtual addition pixel of N / 2 ⁇ N / 2 pixels obtained by shifting the light receiving unit of N / 2 ⁇ N / 2 pixels by N / 4 pixels by interpolation processing, and the estimation calculation unit includes: The light reception value of the light reception unit of N /
- the light reception value of the light reception unit of N / 2 ⁇ N / 2 pixels is estimated from the light reception value of the light reception unit of N ⁇ N pixels, and the light reception value of the light reception unit of N / 2 ⁇ N / 2 pixels. Can be used to estimate the light reception value of the light reception unit of N / 4 ⁇ N / 4 pixels.
- the estimated pixel value can be estimated by sequentially repeating the estimation process.
- a pixel shift that shifts while superimposing the light reception units is performed in each frame, and the light reception units are sequentially set to a plurality of positions by the pixel shift, and the light reception unit is set for each of a plurality of frames.
- the interpolation processing unit obtains a light reception value of the virtual light reception unit in each frame by interpolation processing based on the low resolution frame image acquired in each frame.
- the estimation calculation unit estimates the estimated pixel value in each frame based on the light reception value of the light reception unit and the light reception value of the virtual light reception unit, and the image output unit is based on the estimated pixel value.
- a frame image at each frame may be obtained, and the high-resolution frame image may be output by combining the frame images of the plurality of frames.
- a frame image is obtained by estimating an estimated pixel value in each frame based on a light reception value of a light reception unit that is pixel-shifted in each frame, and a high resolution frame is obtained by combining the plurality of frame images. Images can be output.
- the image output unit may convert the resolution of the high-resolution frame image and output it as a high-definition moving image, or output the high-resolution frame image as a high-resolution still image. Good.
- an image sensor and a light reception unit that is a unit for obtaining a light reception value are set in the image sensor, and a light reception value of the light reception unit is read to obtain a low-resolution frame image.
- An interpolation processing unit that obtains a light reception value by an interpolation process based on the light reception value of the light reception unit of the low resolution frame image, and the low resolution based on the light reception value of the light reception unit and the light reception value of the virtual light reception unit.
- An estimation calculation unit that estimates an estimated pixel value with a pixel pitch smaller than the pixel pitch of the frame image, and the low-resolution frame image based on the pixel value estimated by the estimation calculation unit
- An image output unit that outputs the high-resolution frame image on the remote high resolution, related to the image pickup apparatus including a.
- a display unit and a display control unit that performs control to display an image on the display unit
- the image output unit converts the resolution of the high-resolution frame image. Output as a high-definition video, or output the high-resolution frame image as a high-resolution still image
- the display control unit displays a video by the low-resolution frame image, and controls to display the high-definition video And control for displaying the high-resolution still image.
- a light receiving unit which is a unit for acquiring a light reception value, is set in an image sensor, and a light reception value of the light reception unit is read to obtain a low resolution frame image.
- a storage unit that stores the acquired low-resolution frame image; and a light reception value of a virtual light reception unit that is set to be superimposed on the light reception unit at a position shifted from the position of the light reception unit.
- Interpolation processing unit obtained by interpolation processing based on the light reception value of the light reception unit of the frame image, and smaller than the pixel pitch of the low resolution frame image based on the light reception value of the light reception unit and the light reception value of the virtual light reception unit
- a high-resolution frame image having a higher resolution than the low-resolution frame image is output based on an estimation calculation unit that estimates an estimated pixel value of a pixel pitch and the pixel value estimated by the estimation calculation unit.
- An image output unit which is a program causing a computer to function.
- a light receiving unit which is a unit for acquiring a light reception value, is set in an image sensor, and a light reception value of the light reception unit is read to obtain a low resolution frame image.
- the acquired low-resolution frame image is stored, and the received light value of the virtual light-receiving unit that is set to be superimposed on the light-receiving unit at a position shifted from the position of the light-receiving unit is set in the low-resolution frame image.
- An estimated pixel value having a pixel pitch smaller than the pixel pitch of the low resolution frame image is obtained based on the light reception value of the light reception unit and the light reception value of the light reception unit and the light reception value of the virtual light reception unit.
- the present invention relates to an image processing method that estimates and outputs a high-resolution frame image having a higher resolution than the low-resolution frame image based on the pixel value estimated by the estimation calculation unit.
- FIG. 1 is an explanatory diagram of an interpolation method of received light values.
- 2A and 2B are explanatory diagrams of an estimation processing block and a light receiving unit.
- 3A and 3B are explanatory diagrams of an estimated pixel value and an intermediate pixel value.
- FIG. 4 is an explanatory diagram of a first estimation method of estimated pixel values.
- FIG. 5 is an explanatory diagram of a first estimation method of estimated pixel values.
- FIG. 6 is an explanatory diagram of a first estimation method of estimated pixel values.
- 7A and 7B are explanatory diagrams of the intermediate pixel value and the estimated pixel value.
- FIG. 8 is an explanatory diagram of a first estimation method of estimated pixel values.
- FIG. 1 is an explanatory diagram of an interpolation method of received light values.
- 2A and 2B are explanatory diagrams of an estimation processing block and a light receiving unit.
- 3A and 3B are explanatory diagrams of an estimated pixel
- FIG. 9 is an explanatory diagram of a first estimation method of estimated pixel values.
- FIG. 10 is an explanatory diagram of a first estimation method of estimated pixel values.
- FIG. 11 shows a first configuration example of an imaging apparatus and an image processing apparatus.
- FIG. 12 is an explanatory diagram of an interpolation method in moving image shooting.
- FIG. 13 is an explanatory diagram of a second estimation method of estimated pixel values.
- 14A and 14B are explanatory diagrams of a third estimation method of estimated pixel values.
- FIG. 15 is an explanatory diagram of a third estimation method of estimated pixel values.
- FIG. 16 is an explanatory diagram of a third estimation method of estimated pixel values.
- FIG. 17A and FIG. 17B are explanatory diagrams of a third estimation method of estimated pixel values.
- FIG. 18 is an explanatory diagram of a method of data compression / decompression and estimation processing.
- FIG. 19 is an explanatory diagram of a technique for data compression / decompression and estimation processing.
- FIG. 20 shows a second configuration example of the imaging apparatus and the image processing apparatus.
- FIG. 21 is an explanatory diagram of a fourth estimation method of estimated pixel values.
- 22A and 22B are explanatory diagrams of a fourth estimation method of estimated pixel values.
- FIG. 23 is an explanatory diagram of a fourth estimation method of estimated pixel values.
- FIG. 24 is an explanatory diagram of a fourth estimation method of estimated pixel values.
- FIG. 25 is an explanatory diagram of a fourth estimation method of estimated pixel values.
- FIG. 21 is an explanatory diagram of a fourth estimation method of estimated pixel values.
- FIG. 26 is an explanatory diagram of a fourth estimation method of estimated pixel values.
- FIG. 27 is an explanatory diagram of a fourth estimation method of estimated pixel values.
- FIG. 28 is an explanatory diagram of a fourth estimation method of estimated pixel values.
- FIG. 29 is a flowchart of a fifth estimation method of estimated pixel values.
- FIG. 30 is an explanatory diagram of a sixth estimation method of estimated pixel values.
- FIG. 31 is a flowchart of a sixth estimation method of estimated pixel values.
- 32A and 32B are explanatory diagrams of a seventh estimation method of the estimated pixel value.
- FIG. 33 shows a third configuration example of the imaging apparatus and the image processing apparatus.
- Comparative Example First a comparative example of this embodiment will be described.
- digital camera and video camera products there are those in which a digital camera mainly for still image shooting has a moving image shooting function, and in which a video camera mainly for moving image shooting has a still image shooting function.
- Many of these cameras are used by switching between a still image shooting mode and a moving image shooting mode. Some of them enable high-definition still images to be shot at a high-speed frame rate comparable to that of moving image shooting, and high-speed continuous shooting in a short time is possible. If such a device is used, there is the convenience that a still image and a moving image can be shot with a single device.
- a high-pixel image sensor capable of shooting a high-definition image with multiple pixels is used, and a low-resolution image is obtained by thinning-out readout of pixels or addition readout of adjacent pixels.
- a method realized by reducing data is conceivable.
- a high-definition image cannot be taken at a high frame rate.
- a technique for obtaining a high-resolution image from a low-resolution image for example, a technique for generating a high-resolution image by performing so-called super-resolution processing on a low-resolution image captured by pixel shift can be considered.
- a method using addition reading can be considered. That is, after the low-resolution image is read out while sequentially shifting the position, a high-definition image is temporarily assumed based on the plurality of position-shifted images. Then, the assumed image is degraded to generate a low resolution image, which is compared with the original low resolution image, the high definition image is deformed so that the difference is minimized, and the high definition image is estimated.
- an ML (Maximum-Likelihood) method As this super-resolution processing, an ML (Maximum-Likelihood) method, a MAP (Maximum-A-Posterior) method, a POCS (Projection-Onto-Convex-Set) method, an IBP (Iterative Back-Projection) method, and the like are known.
- ML Maximum-Likelihood
- MAP Maximum-A-Posterior
- POCS Projection-Onto-Convex-Set
- IBP Iterative Back-Projection
- Patent Document 1 As a technique using this super-resolution processing, for example, there is a technique disclosed in Patent Document 1 described above. In this method, low-resolution images that have been pixel-shifted during moving image shooting are sequentially shot in time series, and a plurality of low-resolution images are combined to assume a high-resolution image. Then, the super-resolution processing is performed on the assumed high-resolution image, and a high-resolution image with high likelihood is estimated.
- Patent Document 2 discloses a technique for generating a high-resolution image using a plurality of pixel-shifted low-resolution images.
- a temporary pixel constituting a high-resolution image to be obtained is set as a sub-pixel, and the pixel value of the sub-pixel is set so that the average value of the sub-pixel matches the pixel value of the captured low-resolution image.
- initial values of a plurality of subpixels are set, pixel values of subpixels excluding the subpixels to be calculated are subtracted from pixel values of the low resolution image, and pixel values are obtained sequentially. Applies to pixels.
- a low-resolution frame image is acquired by imaging, and a low-resolution frame image that is pixel-shifted based on the low-resolution frame image is virtually obtained by interpolation processing.
- a high-resolution frame image is estimated from these images by a simple estimation process.
- the light reception value (pixel value) acquired by imaging is referred to as the light reception value of the light reception unit (light reception value acquisition unit), and the light reception value obtained by the interpolation process is received by the virtual light reception unit (interpolation light reception unit). Called value.
- the light reception value of the light reception unit is a 4-pixel addition value
- the present embodiment is not limited to this case. For example, a pixel value of 1 pixel or a 9-pixel addition value is used. Also good.
- receiving values of the light receiving units constituting the low-resolution frame image a -2, -2, a 0, -2, ⁇ , a 22 is the imaging Is done.
- a light reception unit is set for each of the four pixels (one pixel or a plurality of pixels) of the image sensor, and pixel values of pixels included in the light reception unit are added or weighted and read to obtain a light reception value. Is done. If the pixel pitch of the image sensor is p, the light receiving unit pitch is 2p.
- shifted images three low-resolution frame images (hereinafter referred to as “shifted images”) that are shifted and superimposed are obtained from this low-resolution frame image by interpolation processing within the frame.
- the first shift image shifted by the pitch p in the horizontal direction with respect to the low resolution frame image the second shift image shifted by the pitch p in the vertical direction, and the horizontal direction and the vertical direction to obtain a third shifted image shifted by the pitch p.
- These shift amounts correspond to the shift amounts on the image sensor when it is assumed that the shift imaging is actually performed.
- the light reception values a 10 , a 01 , a 11 are the first to third, respectively.
- the virtual light receiving unit is set to 4 pixels having the same number of pixels as the light receiving unit.
- the light reception values a 10 , a 01 , and a 11 are estimated from the light reception values around the virtual light reception unit.
- the estimated values of the received light values a 10 , a 01 , and a 11 are interpolated by multiplying the received light values of adjacent light receiving units by weighting factors w 0 , w 1 , w 2. Seek by doing.
- a 00 (known acquired value)
- a 10 (w 1 ⁇ a 0, ⁇ 2 + w 1 ⁇ a 2, ⁇ 2 ) + (W 0 ⁇ a 00 + w 0 ⁇ a 20 ) + (W 1 ⁇ a 02 + w 1 ⁇ a 22 )
- a 01 (w 1 ⁇ a ⁇ 2,0 + w 1 ⁇ a ⁇ 2,2 ) + (W 0 ⁇ a 00 + w 0 ⁇ a 02 ) + (W 1 ⁇ a 20 + w 1 ⁇ a 22 )
- a 11 (w 2 ⁇ a 00 + w 2 ⁇ a 20 + w 2 ⁇ a 02 + w 2 ⁇ a 22 ) ...
- the present embodiment is not limited to the above-described interpolation processing, and various interpolation processing techniques can be applied.
- the weighting factors w 0 , w 1 , and w 2 may be set using a concept such as a conventional Bayer interpolation method or a pixel defect correction method.
- the weighting coefficients w 0 , w 1 , and w 2 are changed for a large number of high-resolution image samples, and the processing of the above equation (1) is performed to generate a high-resolution estimated image, which is estimated as an image sample.
- the weighting coefficients w 0 , w 1 , and w 2 that minimize the total pixel value error of the image may be obtained in advance and applied during estimation.
- FIG. 2 (A) and FIG. 2 (B) show schematic explanatory diagrams of an estimation processing block and a light receiving unit used for pixel estimation.
- the estimated pixel obtained by the estimation process is indicated by a solid square
- the pixel position in the horizontal direction (horizontal scanning direction) is indicated by i
- the pixel position in the vertical direction is indicated by j. (I and j are integers).
- estimation processing blocks Bk 00 , Bk 10 ,... With m ⁇ n pixels as one block are set.
- the pixel value of the high-resolution frame image is estimated for each estimation processing block.
- FIG. 2B schematically shows one of the above estimation processing blocks.
- the received light values a 00 to a (m ⁇ 1) (n ⁇ 1) shown in FIG. 2B are the first to first received light values of the low-resolution frame image obtained by imaging and the first to second values obtained by interpolation processing. 3 of the received light value of the shifted image.
- an estimation processing block is set for each 2 ⁇ 2 pixels, and the light reception value a 00 of one light reception unit and the light reception values a 10 , a 01 , a 11 of three virtual light reception units. An example of estimating from the above will be described.
- 3A and 3B are explanatory diagrams of the estimated pixel value and the intermediate pixel value.
- the estimated pixel values v 00 to v 22 are finally estimated using the received light values a 00 to a 11 . That is, a high resolution image having the same resolution (number of pixels) as that of the image pickup element having the pixel pitch p is estimated from the low resolution image formed of the light receiving units having the pixel pitch 2p.
- the intermediate pixel values b 10 and b 20 can be expressed as a function of b 00 as shown in the following equation (3).
- b 00 (unknown number)
- b 10 a 00 -b 00
- ⁇ i 0 is a difference value between the received light values one shift away, and corresponds to the difference value between the intermediate pixel values b 20 and b 00 .
- a pattern ⁇ a 00 , a 10 ⁇ based on received light values is compared with a pattern ⁇ b 00 , b 10 , b 20 ⁇ based on intermediate pixel values. Then, an unknown number b 00 that minimizes the error is derived, and the derived unknown number b 00 is set as the final intermediate pixel value b 00 .
- equation (5) represents an evaluation function Ej of the error as a function of unknown b 00.
- an unknown b 00 ⁇ (initial value) that minimizes the evaluation function Ej (minimum value) is obtained in an exploratory manner (least square method).
- the value of the intermediate pixel value b 00 is estimated, and the estimated value of b 00 is substituted into the above equation (3) to determine the values of the intermediate pixel values b 10 and b 20 .
- the intermediate pixel values b 01 to b 21 in the second row are estimated using b 01 as an unknown number.
- FIG. 7A and 7B schematically illustrate the intermediate pixel value and the estimated pixel value.
- estimation is performed using two columns of intermediate pixel values b 00 to b 11 out of the three columns of intermediate pixel values b 00 to b 21 estimated by the above-described method.
- pixel values v 00 to v 12 are estimated from the intermediate pixel values b 00 to b 11 .
- the pixel values v 00 to v 02 in the first column shown in FIG. 8 will be described as an example.
- the pixel values v 00 to v 02 are estimated by a method similar to the above-described intermediate pixel value estimation method.
- the intermediate pixel values b 00 and b 01 are equivalent to values obtained by superimposing and sampling the pixel values v 00 to v 02 while shifting the pixel values v 00 to v 02 one pixel at a time in the vertical direction. Therefore, the relationship of the following formula (6) is established between the intermediate pixel value and the estimated pixel value.
- b 00 v 00 + v 01
- b 01 v 01 + v 02 (6)
- the pixel values v 01 and v 02 can be expressed as a function of the unknown v 00 .
- v 00 (unknown number)
- v 01 b 00 ⁇ v 00
- ⁇ j 0 is a difference value between the intermediate pixel values shifted by one shift, and corresponds to the difference value between the pixel values v 02 and v 00 .
- pixel values v 10 to v 12 in the second column are obtained by the same processing, and final estimated pixel values v 00 , v 01 , v 10 , and v 11 are determined.
- an appropriate noise reduction process may be performed on the image data composed of the final estimated pixel values to obtain a display image.
- the final estimated pixel values v 00 , v 01 , v 10 , and v 11 are not based on the idea of obtaining four values at a time, but for example, one pixel of only v 00 for each estimated processing block.
- the technique for increasing the resolution by super-resolution processing has a problem such as an increase in the scale of the processing circuit because of the heavy load processing.
- the method using pixel shift has a problem that the configuration of the camera becomes complicated because mechanical shift and shift readout of the optical system are required.
- the light receiving values a -2, -2, a 0, -2, ⁇ , light receiving unit is a unit that acquires a 22 imaging element (for example, is set to the image pickup device 120) shown in FIG. 11, the light receiving values a -2 of the light receiving unit, -2, a 0, -2, ⁇ , a 22 is low resolution frame image is read out To be acquired.
- This low-resolution frame image is stored in the storage unit (data recording unit 140 shown in FIG. 11).
- the interpolation processing unit (interpolation processing unit 200), receiving values a 10 virtual light receiving unit set to overlap the light receiving unit a 00 in the position which is shifted from the position of the light receiving unit a 00, a 01, a 11 a received-light value a -2 of the light receiving unit, -2, a 0, obtains -2, ..., by interpolation processing based on a 22. As shown in FIG.
- estimation calculation unit pixel value estimation calculation section 210
- Estimated pixel values v 00 to v 11 having a pixel pitch p smaller than the pixel pitch 2p of the low resolution frame image are estimated.
- the image output unit outputs a high-resolution frame image having a higher resolution than the low-resolution frame image based on the estimated pixel values v 00 to v 11 .
- the position of the light receiving unit refers to the position and coordinates of the light receiving unit on the light receiving surface of the image sensor, or the position of the light receiving unit on the estimated pixel value data (image data) in the estimation process. It is a coordinate.
- the shifted position is a position whose position and coordinates do not coincide with the original position.
- the superposition means that the light receiving unit and the virtual light receiving unit have an overlapping region. For example, as shown in FIG. 3A, the light receiving unit a 00 and the virtual light receiving unit a 10 are two estimated pixels v. and to share 10, v 11.
- the estimation process can be simplified using the above-described estimation of the intermediate pixel value.
- the high-resolution still image can be generated after the arbitrary timing of the low-resolution moving image, the user can easily obtain the high-resolution still image at the decisive moment.
- a low-resolution moving image for example, 3 megapixels
- a high-resolution still image (12 megapixels) or the like can be displayed as necessary.
- the estimation calculation unit is set to the first light receiving unit a 00 set to the first position and the second position to be superimposed on the first light receiving unit.
- a difference value ⁇ i 0 a 10 ⁇ a 00 with respect to the second light receiving unit a 10 is obtained.
- the estimation calculation unit estimates estimated pixel values v 00 to v 11 (estimated pixel values in the estimation block) based on the difference value ⁇ i 0 .
- the first light receiving unit may be either a light receiving unit or a virtual light receiving unit. That is, the first and second light receiving units may be a light receiving unit and a virtual light receiving unit, or may be a virtual light receiving unit and a virtual light receiving unit.
- the estimated pixel values v 00 to v 11 are estimated based on the difference value ⁇ i 0 between the light reception values a 10 and a 00 of the superimposed light reception units, thereby achieving high resolution with simple processing. It becomes possible.
- the first intermediate pixel value b 00 is overlapped from the first light receiving unit a 00 (estimated pixels v 10 and v 11).
- Light receiving value of the first light receiving region region including estimated pixels v 00 and v 01 ) excluding the region including.
- the second intermediate pixel value b 20 is the light receiving values of the first light-receiving region excluding the overlapping area from the second light-receiving unit a 10 (region including the estimated pixel v 20, v 21).
- the estimation calculation unit represents the relational expression between the first intermediate pixel value b 00 and the second intermediate pixel value b 20 using the difference value ⁇ i 0 , and the relational expression is The first and second intermediate pixel values b 00 and b 20 are estimated by using them. Then, as shown in FIGS. 7A and 7B, the estimation calculation unit obtains estimated pixel values v 00 to v 11 using the first intermediate pixel value b 00 .
- continuous intermediate pixel values ⁇ b 00 , b 10 , b 20 ⁇ including the first and second intermediate pixel values b 00 and b 20 are intermediated.
- a pixel value pattern is used.
- the estimation calculation unit calculates the relational expression between the intermediate pixel values included in the intermediate pixel value pattern ⁇ b 00 , b 10 , b 20 ⁇ as the light reception values a 00 , a 10. It expresses using. Then, as shown in FIG.
- the estimation calculation unit uses the intermediate pixel value pattern ⁇ b 00 , b 10 , b 20 ⁇ represented by the relational expression as the light reception value pattern represented by the light reception values a 00 , a 10. Similarity is evaluated in comparison with ⁇ a 00 , a 10 ⁇ , and based on the evaluation result of the similarity, intermediate pixel values b 00 to b 20 included in the intermediate pixel value pattern so that the similarity becomes the highest. To decide.
- the intermediate pixel value pattern is a data string (a set of data) of intermediate pixel values in a range used for the estimation process.
- the light reception value pattern is a data string of light reception values in a range used for estimation processing, and is a data string including a light reception value of a light reception unit and a light reception value of a virtual light reception unit.
- the intermediate pixel values b 00 to b 20 are estimated based on the received light value a 00 of the received light unit and the received light value a 10 of the virtual received light unit obtained by interpolating the received light value of the received light unit. it can. Further, by comparing the intermediate pixel value pattern ⁇ b 00 , b 10 , b 20 ⁇ with the received light value pattern ⁇ a 00 , a 10 ⁇ , a high-definition intermediate pixel value pattern similar to the received light value pattern can be estimated.
- the value of the intermediate pixel value can be estimated by expressing the error by the evaluation function and obtaining the intermediate pixel value corresponding to the minimum value of the evaluation function.
- the initial value of the intermediate pixel estimation can be set with a simple process by obtaining the unknown using the least square method. That is, as compared with the above-described comparative example (Patent Document 2), it is not necessary to search for an image part suitable for initial value setting.
- the interpolation processing section a light receiving values of the light receiving units included in the low-resolution frame image a -2, -2, a 0, -2, ⁇ , of a 22, virtual Light receiving values of a plurality of light receiving units around the light receiving unit are weighted and added to obtain light receiving values a 10 , a 01 , a 11 of the virtual light receiving units.
- the light reception unit around the virtual light reception unit is a light reception unit that is superimposed at least on the virtual light reception unit, and is, for example, the light reception units a 00 and a 20 that are superimposed on the virtual light reception unit a 10 .
- the light receiving unit superimposed on the virtual light receiving unit and the light receiving unit adjacent to the light receiving unit for example, the light receiving units a 00 and a 20 and the light receiving units a 00 and a 20 superimposed on the virtual light receiving unit a 10.
- the light receiving values a 10 , a 01 , and a 11 of the virtual light receiving unit set to be superimposed on the light receiving unit a 00 are used as the light receiving values a ⁇ 2, ⁇ 2 , a 0, ⁇ 2 of the light receiving unit. ,..., A 22 can be obtained by interpolation processing.
- FIG. 11 shows a first configuration example of an imaging device and an image processing device to which the above-described interpolation processing and estimation processing are applied.
- the imaging apparatus 10 includes an imaging optical system 100 (lens), an optical low-pass filter 110 (wide-pass optical low-pass filter), an imaging element 120 (imaging processing unit), a pixel addition processing unit 130 (reading control unit), and a data recording unit 140. (Storage unit), display processing unit 150 (display control unit), and monitor display unit 160 (display device).
- the image processing apparatus 20 includes an interpolation processing unit 200 (superimposed shift pixel addition low resolution image interpolation calculation unit), a pixel value estimation calculation unit 210 (high resolution image pixel value estimation calculation unit, estimation processing unit), and an image output unit 300. including.
- FIG. 11 illustrates an example in which the image processing device 20 is provided outside the imaging device 10, but in this embodiment, the image processing device 20 may be provided inside the imaging device 10.
- the imaging device 10 is, for example, a digital camera or a video camera.
- the imaging optical system 100 forms an image of a subject.
- the optical low-pass filter 110 passes a band corresponding to the resolution of the image sensor 120, for example.
- the image sensor 120 (for example, 12 megapixels) is configured by, for example, a CCD or CMOS sensor that can be added and read in an analog manner.
- the pixel addition processing unit 130 controls, for example, setting of light reception units and addition reading, and acquires a low resolution frame image (for example, 3 megapixels, ⁇ 1 image / 1 frame).
- the data recording unit 140 is realized by a memory card, for example, and records a moving image using a low resolution frame image.
- the monitor display unit 160 displays a live view of a moving image and a reproduced moving image.
- the image processing apparatus 20 is realized by, for example, an image processing engine (IC) or a PC (computer).
- the interpolation processing unit 200 obtains a shift image by interpolating the received light value of the low resolution frame image (for example, 3 megapixels, ⁇ 4 images / 1 frame).
- the pixel value estimation calculation unit 210 estimates a final estimated pixel value.
- the image output unit 300 includes anti-aliasing filters 220 and 250, a low-pass filter 230, and an undersampling unit 240, and outputs a still image or a moving image from the final estimated pixel value.
- the anti-aliasing filter 220 performs anti-aliasing processing on the final estimated pixel value and outputs a high-resolution still image (for example, 12 megapixels).
- the low pass filter 230 limits the final estimated pixel value to the high vision band.
- the undersampling unit 240 undersamples the band-limited final estimated pixel value to the number of high-definition pixels.
- the anti-aliasing filter 220 performs anti-aliasing processing on the undersampled image and outputs a high-definition moving image (for example, 2 megapixels). Note that a high-resolution moving image (for example, 12 megapixels) may be output without undersampling.
- FIG. 12 is an explanatory diagram of an interpolation processing method in moving image shooting.
- a low-resolution frame image is acquired for each frame by addition reading. For example, paying attention to the received light value a 00 , a 00 (t ⁇ 1), a 00 (t), a 00 (a) in the frames f (t ⁇ 1), f (t), f (t + 1),. t + 1),... are acquired.
- interpolation processing is performed on the low-resolution frame image of the frame f (t), and the light reception value a of the virtual light reception unit in the frame f (t).
- the frame is, for example, a timing at which one low-resolution frame image is captured by the image sensor or a timing at which one low-resolution frame image is processed in the image processing.
- one low-resolution frame image or high-resolution frame image in image data is also referred to as a frame as appropriate.
- the image output unit 300 converts the resolution of the high-resolution frame image (12 megapixels) and outputs it as a high-definition moving image (2 megapixels), or the high-resolution frame image (12 megapixels). Is output as a high-resolution still image (12 megapixels).
- a low-resolution moving image can be captured at a high frame rate, and a high-resolution still image at an arbitrary timing can be output later from the moving image. That is, the user can select a timing and composition while playing back a high-definition moving image to obtain a high-resolution still image.
- the high-resolution still image and the high-definition moving image are output to a display unit, a memory, a printer, and the like (not shown).
- a high-resolution still image or a high-definition moving image may be displayed on the monitor display unit 160.
- Second estimation method of estimated pixel value (color) In the above embodiment, the pixel value estimation of a monochrome image has been described. However, this embodiment can also be applied to the pixel value estimation of a color image. The second estimation method for the estimated pixel value will be described with reference to FIG.
- RGB is read without being separated, and the final pixel value of RGB is estimated.
- received light values a 00 , a 20, etc. are acquired by imaging.
- the received light values a 10 , a 01 , a 11 and the like are obtained by interpolation processing.
- the light reception values a 00 , a 10 , a 01 , and a 11 correspond to the light reception values represented by the following expression (11).
- a 00 R 10 + G1 00 + G2 11 + B 01
- a 10 R 10 + G1 20 + G2 11 + B 21
- a 01 R 12 + G1 02 + G2 11 + B 01
- a 11 R 12 + G1 22 + G2 11 + B 21 (11)
- the image sensor is a color image sensor (RGB image sensor), and a plurality of adjacent pixels G1 00 , R 10 , B 01 , G2 11 are set as a light receiving unit regardless of the color of the pixels.
- G2 11 is estimated, and a color high-resolution frame image is output based on the estimated pixel value.
- a low-resolution frame image is captured at a high frame rate, and a pixel value is estimated from the low-resolution frame image to obtain a color high-resolution frame image at an arbitrary timing. it can.
- the received light value is obtained by adding the pixel values of the four adjacent pixels, random noise can be reduced.
- high-definition estimation processing can be performed as compared with the case of using a light receiving unit for each color.
- RGB final pixel values may be estimated by separating and reading out RGB.
- a third estimation method for the estimated pixel value will be described with reference to FIGS.
- the 4-pixel added value ⁇ a 00 , a 40 ,... ⁇ Of the G1 pixel and the 4-pixel added value ⁇ a 11 , a 51 of the G2 pixel. ,... are sampled.
- the G1 pixel is represented by a dark shaded square
- the G2 pixel is represented by a thin shaded square
- the light reception unit is represented by a solid line
- the virtual light reception unit is represented by a dotted line.
- This interpolation processing may be performed separately for G1 and G2, for example, by the above-described interpolation method, or may be performed by a general interpolation method using both the received light values of G1 and G2.
- the received light value a 20 is obtained by an average value of a 00 and a 40 .
- the final pixel value v ij of G is estimated from these received light values. That is, it is estimated from the following first group G1, which is a 4-pixel addition value on which G1 is superimposed, and from the following second group G2, which is a 4-pixel addition value on which G2 is superimposed.
- L is an integer of L ⁇ 0.
- First group G1 ⁇ A 00, a 20, a 40, ⁇ , a (2L) (2L)
- Second group G2 ⁇ A 11 , a 31 , a 51 ,..., A (2L + 1) (2L + 1),.
- FIG. 14B is an explanatory diagram of intermediate pixels and estimated pixels.
- the G 2 intermediate pixel values ⁇ b 11 , b 31 are set to overlap with the next intermediate pixel in the vertical direction.
- b 00 is an unknown (initial variable), and intermediate pixel values b 20 and b 40 are obtained as a function of b 00 .
- b 00 (unknown number)
- b 20 a 00 -b 00
- ⁇ i 0 is the difference value of the received light value one shift away, and is expressed by the following equation (14).
- the pattern by the intermediate pixel value ⁇ b 00 , b 20 , b 40 ⁇ is compared with the neighboring same color 4-pixel addition value ⁇ a 00 , a 11 , a 20 ⁇ .
- An unknown number b 00 that minimizes the error is derived, and the value is set to b 00 .
- ⁇ A 00 , a 11 , a 20 ⁇ is a light reception value pattern obtained by mixing the first group G1 and the second group G2 in the vicinity thereof. More specifically, an evaluation function e ij shown in the following equation (15) is obtained as an error evaluation function, and an unknown b 00 that minimizes the evaluation function e 00 is obtained. If b 00 is obtained, b 20 and b 40 are also obtained by the above equation (13). By applying the same method, ⁇ b 02 , b 22 , b 42 ⁇ and the like can be obtained.
- the method of comparing with the light reception value patterns of G1 and G2 is more likely to estimate a higher spatial frequency component than the case of comparing with the light reception value pattern of only G1.
- the light reception value pattern ⁇ a 00 , a 20 ⁇ of only G1 may be used as a comparison target of the intermediate pixel value pattern ⁇ b 00 , b 20 , b 40 ⁇ .
- b 00 is set as an unknown (initial variable), and final estimated pixel values v 02 and v 04 are obtained as a function of v 00 .
- v 00 unknown number
- v 02 b 00 ⁇ v 00
- ⁇ j 0 is the difference value of the intermediate pixel values separated by one shift, and is expressed by the following equation (18).
- the pattern based on the final estimated pixel values ⁇ v 00 , v 02 , v 04 ⁇ is compared with ⁇ b 00 , b 11 , b 02 ⁇ that are intermediate estimated values in the vicinity thereof,
- An unknown number v 00 that minimizes the error is derived, and the value is set to v 00 .
- ⁇ B 00 , b 11 , b 02 ⁇ is an intermediate pixel value pattern obtained by mixing the intermediate pixel value of G1 and the intermediate pixel value of G2. More specifically, an evaluation function e ij shown in the following equation (19) is obtained as an error evaluation function, and an unknown number v 00 that minimizes the evaluation function e 00 is obtained.
- v 20 is also obtained by the above equation (17).
- ⁇ v 20 , v 22 ⁇ and the like can be obtained. In this way, the final estimated pixel values ⁇ v 00 , v 02 , v 20 , v 22 ⁇ of the high resolution image are obtained.
- an intermediate pixel value pattern ⁇ b 00 , b 02 ⁇ of only G1 may be used as a comparison target of the estimated pixel value pattern ⁇ v 00 , v 02 , v 04 ⁇ .
- R and B pixel value estimation will be described.
- the R pixel value estimation will be described below, but the B pixel value estimation can be similarly performed.
- the 4-pixel added value of R ⁇ a 10 , a 50 ,... ⁇ Is sampled as the light reception value of the light reception unit.
- R pixels are represented by shaded squares
- light reception units are represented by solid lines
- virtual light reception units are represented by dotted lines.
- FIG. 17B is an explanatory diagram of intermediate pixels and estimated pixels.
- R intermediate pixel values ⁇ b 10 , b 30 , b 50 ,... ⁇ are estimated. These intermediate pixels are set to overlap with the next intermediate pixel in the vertical direction. Then, from these intermediate pixel values, R estimated pixel values ⁇ v 10 , v 30 , v 50 ,... ⁇ Are estimated.
- the estimation process of the intermediate pixel value and the estimated pixel value is performed by a method similar to the method described above with reference to FIGS. Through the above processing, a high-definition estimated image having a Bayer array is obtained, and an RGB high-resolution frame image is obtained by performing Bayer interpolation on the image.
- the image sensor is a color image sensor, and a plurality of pixels of the same color are set as the light reception unit (for example, the light reception units G1 and G2 shown in FIG. 14A). Then, pixel values of a plurality of pixels set in the light reception unit are added and read out (G1 light reception value a 00 , G2 light reception value a 11, etc.), and a low-resolution frame image is acquired.
- the estimation calculation unit (for example, the pixel value estimation calculation unit 210 shown in FIG. 20) includes a light reception value (a 00 , a 11 etc.) of the light reception unit of the low resolution frame image and an interpolation processing unit (interpolation processing unit 200).
- the pixel value (v 00 , v 20 etc.) of each pixel of the light receiving unit is estimated based on the light receiving value (a 20 , a 31 etc.) of the virtual light receiving unit.
- the image output unit (image output unit 300) outputs a color high-resolution frame image based on the estimated pixel value.
- Method of Data Compression / Expansion and Estimation Processing A method of processing for compressing / decompressing a captured low-resolution image and processing for estimating a pixel value from the expanded low-resolution image will be described with reference to FIGS. 18 and 19.
- FIG. 18 is an explanatory diagram of the G pixel compression / decompression process.
- A1 in FIG. 18 4-pixel addition values ⁇ a 00 , a 40 , a 11 , a 51 ,... ⁇ Of G1 and G2 are acquired.
- A2 shows an array relationship between the 4-pixel addition values ⁇ a 00 , a 40 , a 11 , a 51 ,... ⁇ And the G pixels of the Bayer array original image (high resolution).
- Bayer interpolation demosaicing processing
- These pixel values are obtained by interpolation using the 4-pixel addition values around each missing pixel.
- the data after Bayer interpolation is recorded in the data recording unit by data compression.
- the compressed data recorded in the data recording unit is expanded, and the data after Bayer interpolation shown in A3 is reproduced.
- a value corresponding to the 4-pixel addition value a ij is used from the data, not the interpolation value G ij .
- FIG. 19 is an explanatory diagram of R pixel compression / decompression processing.
- the B pixel compression / decompression process can be performed in the same manner.
- B2 shows the arrangement relationship between the 4-pixel addition value ⁇ a 10 , a 50 ,... ⁇ And the R pixel of the Bayer array original image (high resolution).
- Bayer interpolation is performed to determine missing pixel values ⁇ R 00 , R 01 , R 11 , R 40 , R 41 , R 51 ,.
- These pixel values are obtained by interpolation using the 4-pixel addition values around each missing pixel.
- a value corresponding to the 4-pixel addition value a ij is used from the compressed and expanded data.
- FIG. 20 shows a second configuration example of the imaging device and the image processing device when the compression / decompression process is performed.
- the imaging apparatus 10 includes an imaging optical system 100, an optical low-pass filter 110, an imaging element 120, a pixel addition processing unit 130, a data recording unit 140, a display processing unit 150, a monitor display unit 160, and a Bayer interpolation process.
- Section 170 (a demosaicing processing section), a frame buffer 180, and a data compression processing section 190.
- the image processing apparatus 20 includes an interpolation processing unit 200, a pixel value estimation calculation unit 210, a data expansion processing unit 260, a frame buffer 270 (storage unit), a frame selection unit 280, an estimation pixel addition extraction unit 290, and an image output unit 300.
- the image output unit 300 includes an undersampling unit 310, anti-aliasing filters 220 and 320, and a Bayer interpolation processing unit 330 (a demosaicing processing unit).
- symbol is attached
- a low-resolution moving image (for example, 3 megapixels) acquired by imaging is subjected to Bayer interpolation processing (demosaicing processing) by the Bayer interpolation processing unit 170 and buffered in the frame buffer 180.
- the buffered moving image is compressed by the data compression processing unit 190 and recorded in the data recording unit 140.
- the data decompression processing unit 260 decompresses the moving image.
- the expanded moving image is undersampled by the undersampling unit 310, antialiased by the antialiasing filter 320, and reproduced as a high-definition moving image (2 megapixels).
- the user designates a frame that is desired to be a high-resolution still image from this playback video. This designation is performed via the frame selection unit 280 (for example, a user interface such as a touch panel), and information on the designated frame is input to the frame buffer 270.
- the frame buffer 270 stores a low resolution image of a designated frame. This low-resolution image is an image subjected to Bayer interpolation, and a received light value (pixel value) used for estimation processing is extracted by the estimation pixel addition extraction unit 290.
- the extracted received light value is subjected to interpolation processing by the interpolation processing unit 200 and estimated by the pixel value estimation calculation unit 210.
- the estimated pixel value is subjected to Bayer interpolation processing (demosaicing processing) by the Bayer interpolation processing unit 330, anti-aliasing processing by the anti-aliasing filter 220, and is output as a high-resolution still image (12 megapixels).
- Bayer interpolation processing demosaicing processing
- anti-aliasing processing by the anti-aliasing filter 220
- the pixel value in the light receiving unit is simply added and read.
- the pixel value in the light receiving unit is read by weighted addition, and the estimated pixel value is obtained from the received light value. Also good.
- the fourth estimation method of the estimated pixel value will be described with reference to FIGS. In the following, the estimation process for the G1 pixel in the Bayer array will be described, but the same estimation process can be applied to the G2, R, and B pixels.
- the weighting factors for addition reading are c 1 , c 2 , c 3 and c 4 .
- c 1 1
- the weighting coefficient takes the ratio relationship rule shown in the following equation (20) (r is a real number with r> 1).
- the received light values a 00 , a 20 ,... are acquired by imaging, and the received light values a 10 ,..., A 01 , a 11 ,. It is done.
- the intermediate pixel value from these light receiving values b 00, b 10, ... are determined, the intermediate pixel value b 00, b 10, estimated from ... pixel values v 00, v 10 ,... are required.
- the suffix of ij is different from that in FIGS. 14A and 14B.
- b 00 , b 10 , and b 20 are defined as shown in the following expression (23), and the above expression (21) is substituted.
- b 00 (unknown number)
- b 10 2 (a 00 -b 00 )
- the received light value pattern ⁇ a 00 , a 10 ⁇ is compared with the intermediate pixel value pattern ⁇ b 00 , b 10 , b 20 ⁇ . Then, an unknown number b 00 that minimizes the error is derived and set as the intermediate pixel value b 00 .
- the evaluation function Ej shown in the following equation (28) is obtained. Then, by using this evaluation function Ej, the similarity evaluation between the light reception value pattern ⁇ a 00 , a 10 ⁇ and the intermediate pixel value pattern ⁇ b 00 , b 10 , b 20 ⁇ is performed.
- the combination pattern of intermediate pixel values ⁇ b 01 , b 11 , b 21 ⁇ , ⁇ b 02 , b 12 , b 22 ⁇ is obtained with b 01 and b 02 as unknowns. It is done.
- v 00 (unknown number)
- v 01 2 (b 00 ⁇ v 00 )
- the estimated pixel value pattern ⁇ v 00 , v 01 , v 02 ⁇ of the above equation (31) is compared with the intermediate pixel value pattern ⁇ b 00 , b 01 ⁇ to derive an unknown v 00 that minimizes the error Ei. .
- the following equation (32) is established.
- b ij v ij + (1/2) v i (j + 1) (32)
- the patterns are compared in consideration of the weighting shown in the above equation (32). Specifically, the evaluation function Ei shown in the following formula (33) is obtained.
- a light reception unit is set for each of a plurality of pixels of the image sensor, and each pixel value of the light reception unit is weighted and added and read as a light reception value of the light reception unit.
- the estimation calculation unit receives the light reception value a 00 of the light reception unit obtained by the weighted addition reading and the light reception value a of the virtual light reception unit obtained by the interpolation process. Based on 10 etc., the pixel value v 00 etc. of each pixel of the light receiving unit is estimated.
- each pixel value of the light receiving unit is weighted and added to obtain a low-resolution frame image, and the pixel value of the high-resolution frame image can be estimated from the obtained low-resolution frame image.
- the reproducibility of the high-frequency component of the subject can be improved. That is, when the pixel values of the light receiving units are simply added, a rectangular window function is convoluted for imaging.
- a window function containing more high frequency components than the rectangle is convoluted for imaging. Therefore, it is possible to acquire a low-resolution frame image that includes more high-frequency components of the subject, and improve the reproducibility of the high-frequency components in the estimated image.
- an N ⁇ N pixel addition value shifted by N / 2 pixels in the horizontal direction with respect to the image fx is obtained by interpolation processing, and an image fx_h is generated (step S3).
- An N ⁇ N pixel addition value shifted by N / 2 pixels in the vertical direction with respect to the image fx is obtained by interpolation processing, and an image fx_v is generated (step S4).
- An N ⁇ N pixel addition value shifted N / 2 pixels diagonally diagonally (horizontal direction and vertical direction) with respect to the image fx is obtained by interpolation processing, and an image fx_d is generated (step S5).
- step S6 estimation processing is performed using the images fx, fx_h, fx_v, and fx_d to generate a high-resolution frame image Fx (step S6). If k is smaller than the predetermined value (step S7, Yes), the generated image Fx is set to the image fx (step S8), k is incremented, and N / 2 is substituted for N (step S9). Then, steps S3 to S6 are repeated again. When k reaches a predetermined value (step S7, No), the process is terminated.
- the light receiving unit is set to N ⁇ N pixels, the pixel values of the N ⁇ N pixels are added and read out, and light reception of the light receiving unit of N ⁇ N pixels is performed.
- a value (image fx) is acquired.
- the interpolation processing unit for example, the interpolation processing unit 200 shown in FIG. 11
- the interpolation processing unit performs virtual light reception of N ⁇ N pixels in which the light reception unit of N ⁇ N pixels is shifted by N / 2 pixels.
- the unit light reception values (images fx_h, fx_v, fx_d) are obtained by interpolation processing.
- the estimation calculation unit receives the light reception value (image fx) of the light reception unit of N ⁇ N pixels and the light reception value of the virtual light reception unit of N ⁇ N pixels (image fx_h, Based on (fx_v, fx_d), a light reception value (image Fx) of a light reception unit of N / 2 ⁇ N / 2 pixels is estimated.
- the interpolation processing unit performs N / 2 ⁇ N / 2 pixels obtained by shifting the light receiving unit of N / 2 ⁇ N / 2 pixels by N / 4 pixels.
- images fx_h, fx_v, fx_d are received by interpolation processing.
- the estimation calculation unit converts the light reception value (image fx) of the light reception unit of N / 2 ⁇ N / 2 pixels and the light reception value (images fx_h, fx_v, fx_d) of the virtual light reception unit of N / 2 ⁇ N / 2 pixels. Based on this, the light reception value (image Fx) of the light reception unit of N / 4 ⁇ N / 4 pixels is estimated.
- the received light value a ij (x) is acquired in the frame fx, and the received light value a i + 1, j (x + 1) shifted by one pixel is acquired in the frame fx + 1. Then, the received light value a ij (x) is acquired again in the frame fx + 4. Next, interpolation processing and estimation processing are performed in each frame using the acquired received light value, and a high-resolution estimated image in each frame is obtained. Next, motion compensation is performed on the high-resolution estimated image for four frames (one pixel shift), and the four high-resolution estimated images that have been motion-compensated are synthesized to obtain a final high-resolution frame. Output an image.
- the synthesis of the high-resolution estimated image is performed by, for example, a process of averaging each pixel of four high-resolution estimated images that have been motion compensated.
- This high-resolution frame image may be output every four frames or may be output in each frame.
- FIG. 31 shows a detailed flowchart of this estimation process.
- the frame number k is set to the frame number x to be processed (step S101), and the low-resolution frame image fx is acquired (step S102).
- Images fx_h, fx_v, and fx_d shifted by one pixel with respect to the image fx are obtained by interpolation processing (steps S103 to S105), and the high-resolution estimated image Fx is estimated based on the images fx, fx_h, fx_v, and fx_d (step S103 to S105).
- step S107 If the number of generated high-resolution estimated images Fx is less than four (step S107, Yes), the frame number x is incremented (step S108), and the processes of steps S102 to S106 are repeated.
- step S107 When the number of generated high-resolution estimated images Fx becomes four (step S107, No), the frame number k is set again to the frame number x (step S109). Then, motion compensation is performed on the high resolution estimated images Fx + 1, Fx + 2, and Fx + 3 using the high resolution estimated image Fx as a reference (steps S110 to S112). The motion-compensated high-resolution estimated images Fx, Fx + 1, Fx + 2, and Fx + 3 are combined to output a high-resolution frame image Gx (step S113). The high-resolution frame image Gx is stored in the storage device or displayed on the display device (step S114), and the process ends.
- the pixel shift that shifts while superimposing the light receiving units is performed in each frame fx, fx + 1,..., And the light receiving units are moved to a plurality of positions a ij (x), a i + 1, j by the pixel shift. (X + 1),... Are sequentially set.
- the light receiving unit is set to the same position a ij (x), a ij (x + 4) for each of a plurality of frames (four frames from fx to fx + 3).
- the interpolation processing unit (for example, the interpolation processing unit 200 shown in FIG. 11), based on the low-resolution frame image acquired in each frame, receives the light reception value a i + 1, j (x) of the virtual light reception unit in each frame. a i + 2, j (x + 1),... are obtained by interpolation processing.
- the estimation calculation unit (pixel value estimation calculation unit 210) estimates pixel values v ij (x), v ij (x + 1),. Is estimated.
- the image output unit obtains a frame image (high resolution estimated image) in each frame based on the estimated pixel values v ij (x), v ij (x + 1) ,.
- a frame image of frames (fx to fx + 3) is synthesized and a high resolution frame image is output.
- a high-resolution frame image is estimated from a plurality of low-resolution frame images acquired while shifting pixels in each frame.
- the pixel pitch of the image sensor is p
- the light receiving unit is set at a pitch p for each pixel. That is, the light reception value of the light reception unit is the pixel value of the pixel set in the light reception unit.
- the received light value a 00 is read from this received light unit, and the received light values a 10 , a 01 , a 11 of the virtual received light unit are obtained by interpolation processing. Then, from these received light values a 00 , a 10 , a 01 , a 11 , estimated pixel values corresponding to pixels with a pitch p / 2 are estimated, and a high-resolution frame image is obtained. For example, this high resolution processing is assumed to be applied to high definition of digital zoom images and trimmed images.
- FIG. 32B is an explanatory diagram of the intermediate pixel.
- the intermediate pixel values b 00 to b 21 are estimated from the received light values a 00 to a 11 .
- the pixel pitch in the horizontal direction (or vertical direction) of these intermediate pixel values b 00 to b 21 is p / 2.
- the estimation processing of the intermediate pixel values b 00 to b 21 and the estimation processing of the final estimation pixel value are performed by a method similar to the above estimation method.
- FIG. 33 shows a third configuration example of the imaging device and the image processing device in the case of increasing the definition of a digital zoom image.
- the imaging apparatus 10 includes an imaging optical system 100, an optical low-pass filter 110, an imaging element 120, a readout control unit 130, a data recording unit 140, a display processing unit 150, a monitor display unit 160, a frame buffer 180, and a zoom region selection unit 195.
- the image processing apparatus 20 includes an interpolation processing unit 200, a pixel value estimation calculation unit 210, and an image output unit 300.
- the image output unit 300 includes anti-aliasing filters 220 and 250, a low-pass filter 230, and an undersampling unit 240.
- symbol is attached
- the light receiving unit is set to one pixel by the read control unit 130, the pixel value of the image sensor 120 (for example, 12 megapixels) is read, and a captured image (12M pixels) is acquired.
- a zoom area is set for the captured image, and an image (3 megapixels) in the zoom area is acquired as a low-resolution frame image. This zoom area is selected by the user via a user interface (not shown), for example.
- the low resolution frame image is stored in the data recording unit 140. Interpolation processing and estimation processing are performed on the low-resolution frame image read from the data recording unit 140, and an estimated image (12 megapixels) is obtained.
- the image output unit 300 generates a high-definition still image (12 megapixels) or a high-definition moving image (2 megapixels) from the estimated image.
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Studio Devices (AREA)
- Image Processing (AREA)
- Editing Of Facsimile Originals (AREA)
Abstract
簡素な処理で低解像動画から高解像画像を取得できる画像処理装置、撮像装置、プログラム及び画像処理方法等を提供すること。 画像処理装置は、記憶部、補間処理部、推定演算部、画像出力部を含む。受光単位の受光値a-2,-2~a22が読み出されて低解像フレーム画像が取得される。記憶部は、その低解像フレーム画像を記憶する。補間処理部は、仮想受光単位の受光値a10、a01、a11を、受光値a-2,-2~a22に基づく補間処理により求める。推定演算部は、受光単位の受光値a00と仮想受光単位の受光値a10、a01、a11に基づいて、低解像フレーム画像よりも画素ピッチが小さい推定画素値を推定する。画像出力部は、その推定画素値に基づいて、低解像フレーム画像よりも高解像度の高解像フレーム画像を出力する。
Description
本発明は、画像処理装置、撮像装置、プログラム及び画像処理方法等に関する。
昨今のデジタルカメラやビデオカメラには、静止画撮影モードと動画撮影モードを切り替えて使用できるものがある。例えば、動画撮影中にユーザがボタン操作をすることで、動画よりも高解像の静止画を撮影できるものがある。
しかしながら、静止画撮影モードと動画撮影モードを切り替える手法では、ユーザがシャッターチャンスに気付いたときには既に決定的瞬間を逃していることが多いという課題がある。
本発明者は、この決定的瞬間の撮影を実現するために、低解像動画から任意タイミングの高解像静止画を生成することを考えている。例えば、特許文献1、2には、画素シフトにより取得された低解像画像から高解像画像を合成する手法が開示されている。しかしながら、この手法では、画素シフトによる撮像が必要となるためカメラの構成が複雑となってしまう。また、高解像化処理の負荷が大きいことや、画素値の推定が困難な場合があるという課題がある。
本発明の幾つかの態様によれば、簡素な処理で低解像動画から高解像画像を取得できる画像処理装置、撮像装置、プログラム及び画像処理方法等を提供できる。
本発明の一態様は、受光値を取得する単位である受光単位が撮像素子に設定され、前記受光単位の受光値が読み出されて低解像フレーム画像が取得される場合に、取得された前記低解像フレーム画像を記憶する記憶部と、前記受光単位のポジションからシフトされたポジションに前記受光単位に重畳して設定される仮想受光単位の受光値を、前記低解像フレーム画像の前記受光単位の受光値に基づく補間処理により求める補間処理部と、前記受光単位の受光値と前記仮想受光単位の受光値に基づいて、前記低解像フレーム画像の画素ピッチよりも小さい画素ピッチの推定画素値を推定する推定演算部と、前記推定演算部により推定された画素値に基づいて、前記低解像フレーム画像よりも高解像度の高解像フレーム画像を出力する画像出力部と、を含む画像処理装置に関係する。
本発明の一態様によれば、仮想受光単位の受光値が、受光単位の受光値に基づく補間処理により求められる。その仮想受光単位の受光値と受光単位の受光値に基づいて、低解像フレーム画像の画素ピッチよりも小さい画素ピッチの推定画素値が推定される。そして、その推定画素値に基づいて、低解像フレーム画像よりも高解像度の高解像フレーム画像が出力される。これにより、簡素な処理で低解像動画から高解像画像を取得すること等が可能になる。
また、本発明の一態様では、前記推定演算部は、第1のポジションに設定された前記受光単位または前記仮想受光単位のいずれかである第1の受光単位と、前記第1の受光単位に重畳する第2のポジションに設定された前記仮想受光単位である第2の受光単位との差分値を求め、前記差分値に基づいて前記推定画素値を推定してもよい。
このようにすれば、第1の受光単位の受光値と第2の受光単位の受光値の差分値に基づいて推定画素値が推定されることで、受光単位の受光値と仮想受光単位の受光値に基づいて推定画素値を推定できる。
また、本発明の一態様では、前記推定演算部は、前記第1の受光単位から重畳領域を除いた第1の受光領域の受光値である第1の中間画素値と、前記第2の受光単位から前記重畳領域を除いた第2の受光領域の受光値である第2の中間画素値との関係式を、前記差分値を用いて表し、前記関係式を用いて前記第1、第2の中間画素値を推定し、推定した前記第1の中間画素値を用いて前記推定画素値を求めてもよい。
このようにすれば、第1、第2の中間画素値の関係式が上記差分値により表され、その関係式に基づいて第1、第2の中間画素値が推定され、その第1の中間画素値に基づいて推定画素値が推定される。これにより、第1の受光単位の受光値と第2の受光単位の受光値の差分値に基づいて推定画素値を推定できる。
また、本発明の一態様では、前記推定演算部は、前記第1、第2の中間画素値を含む連続する中間画素値を中間画素値パターンとする場合に、前記中間画素値パターンに含まれる中間画素値間の関係式を、前記受光単位の受光値及び前記仮想受光単位の受光値を用いて表し、前記関係式で表された前記中間画素値パターンを、前記受光単位の受光値及び前記仮想受光単位の受光値で表される受光値パターンと比較して類似性を評価し、前記類似性の評価結果に基づいて、前記類似性が最も高くなるように前記中間画素値パターンに含まれる中間画素値を決定してもよい。
このようにすれば、中間画素値パターンと受光値パターンの類似性が評価され、その類似性が最も高くなるように中間画素値パターンに含まれる中間画素値が決定されることで、中間画素値間の関係式に基づいて中間画素値を決定できる。
また、本発明の一態様では、前記推定演算部は、前記関係式で表された前記中間画素値パターンと、前記受光値パターンとの誤差を表す評価関数を求め、前記評価関数の値が最小となるように前記中間画素値パターンに含まれる中間画素値を決定してもよい。
このようにすれば、評価関数を求められることで、中間画素値パターンと受光値パターンの類似性を評価できる。また、評価関数の値が最小となるように中間画素値が決定されることで、類似性が最も高くなるように中間画素値を決定できる。
また、本発明の一態様では、前記補間処理部は、前記低解像フレーム画像に含まれる前記受光単位の受光値のうち、前記仮想受光単位の周辺の複数の受光単位の受光値を重み付け加算して前記仮想受光単位の受光値を求めてもよい。
このようにすれば、仮想受光単位の受光値を、低解像フレーム画像の受光単位の受光値に基づく補間処理により求めることができる。
また、本発明の一態様では、前記受光単位が前記撮像素子の複数の画素毎に設定される場合に、前記受光単位の各画素値が加算されて前記受光単位の受光値として読み出され、前記推定演算部は、加算読み出しにより得られた前記受光単位の受光値に基づいて、前記受光単位の各画素の画素値を推定してもよい。
このようにすれば、加算読み出しにより得られた受光単位の受光値に基づいて、その受光単位の各画素の画素値を推定できる。
また、本発明の一態様では、前記受光単位が前記撮像素子の複数の画素毎に設定される場合に、前記受光単位の各画素値が重み付け加算されて前記受光単位の受光値として読み出され、前記推定演算部は、重み付け加算読み出しにより得られた前記受光単位の受光値に基づいて、前記受光単位の各画素の画素値を推定してもよい。
このようにすれば、重み付け加算読み出しにより得られた受光単位の受光値に基づいて、その受光単位の各画素の画素値を推定できる。
また、本発明の一態様では、前記撮像素子がカラー撮像素子であり、隣接する複数の画素が、画素の色に依らず前記受光単位に設定され、前記受光単位に設定された前記複数の画素の画素値が加算されて読み出されて前記低解像度フレーム画像が取得され、前記推定演算部は、前記低解像度フレーム画像の前記受光単位の受光値と、前記補間処理部からの前記仮想受光単位の受光値とに基づいて前記受光単位の各画素の画素値を推定し、前記画像出力部は、前記推定演算部により推定された画素値に基づいて、カラーの前記高解像フレーム画像を出力してもよい。
また、本発明の一態様では、前記撮像素子がカラー撮像素子であり、同じ色の複数の画素が前記受光単位に設定され、前記受光単位に設定された前記複数の画素の画素値が加算されて読み出され、前記低解像度フレーム画像が取得され、前記推定演算部は、前記低解像度フレーム画像の前記受光単位の受光値と、前記補間処理部からの前記仮想受光単位の受光値とに基づいて前記受光単位の各画素の画素値を推定し、前記画像出力部は、前記推定演算部により推定された画素値に基づいて、カラーの前記高解像フレーム画像を出力してもよい。
これらの本発明の一態様によれば、カラー撮像素子により取得された低解像フレーム画像から推定画素値を推定し、カラーの高解像フレーム画像を出力できる。
また、本発明の一態様では、前記受光単位がN×N画素に設定され、前記N×N画素の画素値が加算されて読み出されてN×N画素の受光単位の受光値が取得される場合に、前記補間処理部は、前記N×N画素の受光単位がN/2画素だけシフトされたN×N画素の仮想受光単位の受光値を補間処理により求め、前記推定演算部は、前記N×N画素の受光単位の受光値と前記N×N画素の仮想受光単位の受光値に基づいて、N/2×N/2画素の受光単位の受光値を推定し、前記補間処理部は、前記N/2×N/2画素の受光単位がN/4画素だけシフトされたN/2×N/2画素の仮想加算画素の画素値を補間処理により求め、前記推定演算部は、前記N/2×N/2画素の受光単位の受光値と前記N/2×N/2画素の仮想受光単位の受光値に基づいて、N/4×N/4画素の受光単位の受光値を推定してもよい。
このようにすれば、N×N画素の受光単位の受光値からN/2×N/2画素の受光単位の受光値を推定し、そのN/2×N/2画素の受光単位の受光値からN/4×N/4画素の受光単位の受光値を推定できる。これにより、推定処理を順次繰り返して推定画素値を推定できる。
また、本発明の一態様では、前記受光単位を重畳しながらシフトする画素シフトが各フレームで行われ、前記画素シフトにより前記受光単位が複数のポジションに順次設定され、複数のフレーム毎に前記受光単位が同じポジションに設定される場合に、前記補間処理部は、前記各フレームで取得された前記低解像フレーム画像に基づいて、前記各フレームにおいて前記仮想受光単位の受光値を補間処理により求め、前記推定演算部は、前記受光単位の受光値と前記仮想受光単位の受光値に基づいて、前記各フレームにおいて前記推定画素値を推定し、前記画像出力部は、前記推定画素値に基づいて前記各フレームでのフレーム画像を求め、前記複数のフレームの前記フレーム画像を合成して前記高解像フレーム画像を出力してもよい。
このようにすれば、各フレームにおいて画素シフトされる受光単位の受光値に基づいて、各フレームにおいて推定画素値を推定してフレーム画像を求め、その複数のフレーム画像を合成して高解像フレーム画像を出力できる。
また、本発明の一態様では、前記画像出力部は、前記高解像フレーム画像を解像度変換してハイビジョン動画として出力し、または前記高解像フレーム画像を高解像静止画として出力してもよい。
このようにすれば、高解像フレーム画像に基づいて、ハイビジョン動画または高解像静止画を出力できる。
また、本発明の他の態様は、撮像素子と、受光値を取得する単位である受光単位を前記撮像素子に設定し、前記受光単位の受光値を読み出して低解像フレーム画像を取得する読み出し制御部と、前記読み出し制御部により取得された前記低解像フレーム画像を記憶する記憶部と、前記受光単位のポジションからシフトされたポジションに前記受光単位に重畳して設定される仮想受光単位の受光値を、前記低解像フレーム画像の前記受光単位の受光値に基づく補間処理により求める補間処理部と、前記受光単位の受光値と前記仮想受光単位の受光値に基づいて、前記低解像フレーム画像の画素ピッチよりも小さい画素ピッチの推定画素値を推定する推定演算部と、前記推定演算部により推定された画素値に基づいて、前記低解像フレーム画像よりも高解像度の高解像フレーム画像を出力する画像出力部と、を含む撮像装置に関係する。
また、本発明の他の態様では、表示部と、前記表示部に画像を表示する制御を行う表示制御部と、を含み、前記画像出力部は、前記高解像フレーム画像を解像度変換してハイビジョン動画として出力し、または前記高解像フレーム画像を高解像静止画として出力し、前記表示制御部は、前記低解像フレーム画像による動画を表示する制御と、前記ハイビジョン動画を表示する制御と、前記高解像静止画を表示する制御と、を行ってもよい。
また、本発明のさらに他の態様は、受光値を取得する単位である受光単位が撮像素子に設定され、前記受光単位の受光値が読み出されて低解像フレーム画像が取得される場合に、取得された前記低解像フレーム画像を記憶する記憶部と、前記受光単位のポジションからシフトされたポジションに前記受光単位に重畳して設定される仮想受光単位の受光値を、前記低解像フレーム画像の前記受光単位の受光値に基づく補間処理により求める補間処理部と、前記受光単位の受光値と前記仮想受光単位の受光値に基づいて、前記低解像フレーム画像の画素ピッチよりも小さい画素ピッチの推定画素値を推定する推定演算部と、前記推定演算部により推定された画素値に基づいて、前記低解像フレーム画像よりも高解像度の高解像フレーム画像を出力する画像出力部として、コンピュータを機能させるプログラムに関係する。
また、本発明のさらに他の態様は、受光値を取得する単位である受光単位が撮像素子に設定され、前記受光単位の受光値が読み出されて低解像フレーム画像が取得される場合に、取得された前記低解像フレーム画像を記憶し、前記受光単位のポジションからシフトされたポジションに前記受光単位に重畳して設定される仮想受光単位の受光値を、前記低解像フレーム画像の前記受光単位の受光値に基づく補間処理により求め、前記受光単位の受光値と前記仮想受光単位の受光値に基づいて、前記低解像フレーム画像の画素ピッチよりも小さい画素ピッチの推定画素値を推定し、前記推定演算部により推定された画素値に基づいて、前記低解像フレーム画像よりも高解像度の高解像フレーム画像を出力する画像処理方法に関係する。
以下、本発明の好適な実施の形態について詳細に説明する。なお以下に説明する本実施形態は特許請求の範囲に記載された本発明の内容を不当に限定するものではなく、本実施形態で説明される構成の全てが本発明の解決手段として必須であるとは限らない。
1.比較例
まず、本実施形態の比較例について説明する。デジタルカメラやビデオカメラの製品には、静止画撮影を主とするデジタルカメラに動画撮影機能をもたせたものや、動画撮影を主とするビデオカメラに静止画撮影機能をもたせたものがある。これらのカメラでは、静止画撮影モードと動画撮影モードを切り換えて使用するものが多い。中には、動画撮影並の高速フレームレートにより高精細静止画を撮影可能とするものがあり、短時間の高速連写が可能である。このような機器を使えば、静止画と動画の撮影を一つの機器でまかなえるという利便さがある。
まず、本実施形態の比較例について説明する。デジタルカメラやビデオカメラの製品には、静止画撮影を主とするデジタルカメラに動画撮影機能をもたせたものや、動画撮影を主とするビデオカメラに静止画撮影機能をもたせたものがある。これらのカメラでは、静止画撮影モードと動画撮影モードを切り換えて使用するものが多い。中には、動画撮影並の高速フレームレートにより高精細静止画を撮影可能とするものがあり、短時間の高速連写が可能である。このような機器を使えば、静止画と動画の撮影を一つの機器でまかなえるという利便さがある。
しかしながら、これらの手法では、多くの人が求めるシャッターチャンスを逃さず高品位な静止画を得ることが難しいという課題がある。例えば、動画撮影中に高品位静止画を撮影するモードに瞬時に切り替える方法では、動画が途切れてしまったり、ユーザが気づいたときには既に決定的瞬間を逃してしまっているという課題がある。このように、従来の手法では撮影者のテクニックがかなり要求されるため、例えば動画を撮りつつ、その中で任意の画像を高精細画像として生成できたり、あるいはラフに撮像しておいて、その中から解像度を落とさずに高精細画像を抽出し望みの構図が選べるたりすることを可能とする方法が求められている。
このシャッターチャンスを逃さないという課題を解決するには、動画撮影により全てのシーンをもれなく撮影しておいて、その中から自由に決定的瞬間を高品位な静止画として得る手法が考えられる。この手法を実現するためには、高精細画像を高速フレームレートにより撮影可能とすることが必要である。
しかしながら、この手法の実現は容易ではない。例えば、1200万画素の画像を60fps(fps:フレーム/秒)で連続して撮影するためには、超高速撮像可能な撮像素子、撮像データを超高速処理する処理回路、超高速データ圧縮処理機能、莫大なデータを記録する記録手段が必要になる。このためには、複数撮像素子の使用、並列処理、大規模メモリ、高能力放熱機構などが必要になるが、小型化や低コストが求められる民生用機器においては非現実的である。動画撮影のハイビジョン(200万画素)程度の解像度の高品位でない静止画であれば実現可能であるが、ハイビジョン程度の解像度では静止画としては不十分である。
また、高フレームレートの動画撮影を行う手法として、多画素で高精細画像が撮影できる高画素イメージセンサを用い、画素の間引き読み出しあるいは隣接画素の加算読出しによって低解像画像化し、1回の読み出しデータを低減することにより実現する手法が考えられる。しかしながら、この手法では、高精細画像を高フレームレートにより撮影することができない。
この課題を解決するためには、高フレームレートで撮影された低解像画像から高解像画像を得る必要がある。低解像画像から高解像画像を得る手法として、例えば、画素シフトにより撮影した低解像画像に対して所謂超解像処理を行い、高解像画像を生成する手法が考えられる。
しかしながら、この手法では、センサを機械的にシフトさせたり、加算読み出しをシフトさせながら行ったりする必要があるため、カメラの構成が複雑になってしまう。また、超解像処理が必要なため処理負荷が大きくなってしまう。
例えば、画素シフトによる超解像処理として、加算読み出しを用いた手法が考えられる。すなわち、低解像画像を順次位置ずらししながら読み出した後、それら複数の位置ずれ画像に基づいて高精細化画像を一旦仮定する。そして、仮定した画像を劣化させて低解像画像を生成し、元の低解像画像と比較し、その差異が最小になるように高精細画像を変形させ、高精細画像を推定する。この超解像処理として、ML(Maximum-Likelihood)法、MAP(Maximum A Posterior)法、POCS(Projection Onto Convex Set)法、IBP(Iterative Back Projection)法などが知られている。
この超解像処理を用いた手法として、例えば上述の特許文献1に開示された手法がある。この手法では、動画撮影時に画素シフトさせた低解像画像を時系列的に順次撮影し、それらの複数低解像画像を合成することにより高解像画像を仮定する。そして、この仮定した高解像画像に対して上記の超解像処理を施し、尤度の高い高解像画像を推定する。
しかしながら、これらの手法では、2次元フィルタを多用する繰り返し演算により推定精度を上げていく一般的な超解像処理を用いている。そのため、非常に処理の規模が大きくなったり、処理時間が増大したりしてしまい、処理能力やコストの制限がある機器への適用は困難であるという課題がある。例えば、デジタルカメラのような小型携帯撮像装置に適用すると、処理回路の規模が大きくなり、消費電力の増大、大量の熱の発生、コストの大幅アップなどの課題が生じてしまう。
また、上述の特許文献2には、画素シフトさせた複数枚の低解像画像を使って高解像画像を生成する手法が開示されている。この手法では、求めたい高解像画像を構成する仮の画素を副画素とおき、その副画素の平均値が、撮影された低解像画像の画素値と一致するように副画素の画素値を推定する。この画素値の推定では、複数の副画素の初期値を設定し、算出したい副画素を除く副画素の画素値を低解像画像の画素値から差し引いて画素値を求め、それを順次隣接する画素に対して適用する。
しかしながら、この手法では、初期値の特定が上手くいかないと推定誤差が非常に大きくなるという課題がある。この手法では、初期値を設定するために、副画素の画素値変化が小さく、ほぼそれらの平均値とそれらをカバーする低解像画素値が等しくなる部分を画像から見つけ出している。そのため、初期値の設定に適当な部分が撮影画像から見つけられないと、初期値の推定が困難になってしまう。また、初期値の設定に適当な部分を探索する処理が必要になってしまう。
2.受光値の補間手法
そこで、本実施形態では、撮像により低解像フレーム画像を取得し、その低解像フレーム画像に基づいて画素シフトされた低解像フレーム画像を補間処理により仮想的に求め、これらの画像から高解像フレーム画像を簡素な推定処理で推定する。
そこで、本実施形態では、撮像により低解像フレーム画像を取得し、その低解像フレーム画像に基づいて画素シフトされた低解像フレーム画像を補間処理により仮想的に求め、これらの画像から高解像フレーム画像を簡素な推定処理で推定する。
まず、図1を用いて、画素シフトされた低解像フレーム画像を補間処理により求める手法について説明する。なお、以下では、撮像により取得された受光値(画素値)を受光単位(受光値取得単位)の受光値と呼び、補間処理により求められた受光値を仮想受光単位(補間受光単位)の受光値と呼ぶ。また、以下では、受光単位の受光値が4画素加算値である場合を例に説明するが、本実施形態ではこの場合に限定されず、例えば1画素の画素値や9画素加算値であってもよい。
図1に示すように、低解像フレーム画像を構成する受光単位の受光値a-2,-2、a0,-2、・・・、a22(実線の四角で示す)が撮像により取得される。具体的には、撮像素子の4画素(1画素または複数画素)毎に受光単位が設定され、その受光単位に含まれる画素の画素値が加算または重み付け加算されて読み出され、受光値が取得される。撮像素子の画素ピッチをpとすると、受光単位のピッチは2pである。
次に、この低解像フレーム画像から、3つの重畳シフトされた低解像フレーム画像(以下、シフト画像と呼ぶ)をフレーム内での補間処理により求める。具体的には、低解像フレーム画像に対して水平方向にピッチpだけシフトされた第1のシフト画像と、垂直方向にピッチpだけシフトされた第2のシフト画像と、水平方向及び垂直方向にピッチpだけシフトされた第3のシフト画像を求める。これらのシフト量は、実際にシフト撮像したと仮定した場合における撮像素子上でのシフト量に対応する。
例えば、図1に示すように、取得済みの受光値a00に近接する3つの仮想受光単位の受光値a10、a01、a11(点線の四角で示す)は、それぞれ第1~第3のシフト画像を構成する受光値である。仮想受光単位は、受光単位と同じ画素数の4画素に設定される。この受光値a10、a01、a11は、仮想受光単位の周辺の受光値から推定される。例えば下式(1)に示すように、受光値a10、a01、a11の推定値は、近接する受光単位の受光値に重み係数w0,w1,w2を掛けて補間推定を行うことにより求める。
a00=(既知の取得値),
a10=(w1・a0,-2+w1・a2,-2)
+(w0・a00+w0・a20)
+(w1・a02+w1・a22),
a01=(w1・a-2,0+w1・a-2,2)
+(w0・a00+w0・a02)
+(w1・a20+w1・a22),
a11=(w2・a00+w2・a20+w2・a02+w2・a22)
・・・(1)
a00=(既知の取得値),
a10=(w1・a0,-2+w1・a2,-2)
+(w0・a00+w0・a20)
+(w1・a02+w1・a22),
a01=(w1・a-2,0+w1・a-2,2)
+(w0・a00+w0・a02)
+(w1・a20+w1・a22),
a11=(w2・a00+w2・a20+w2・a02+w2・a22)
・・・(1)
なお、本実施形態では、上述の補間処理に限定されず、種々の補間処理の手法を適用可能である。例えば、重み付け係数w0、w1、w2は、従来のベイヤ補間手法や、画素欠陥補正手法等の考え方を用いて設定されてもよい。また、多数の高解像画像サンプルに対して、重み付け係数w0、w1、w2を変化させ、上式(1)の処理を施して高解像推定画像を生成し、画像サンプルと推定画像の画素値の誤差の合計が最も小さくなるような重み付け係数w0、w1、w2を予め求めておいて推定時に適用してもよい。
3.推定画素値の第1の推定手法
次に、図2(A)~図10を用いて、低解像フレーム画像から高解像フレーム画像を推定する手法について説明する。本実施形態では、上述のように相互に画素ピッチpだけ重畳シフトした4画素加算値で構成される4つの低解像フレーム画像を用いて、4倍の画素数をもつ高解像フレーム画像を推定する。
次に、図2(A)~図10を用いて、低解像フレーム画像から高解像フレーム画像を推定する手法について説明する。本実施形態では、上述のように相互に画素ピッチpだけ重畳シフトした4画素加算値で構成される4つの低解像フレーム画像を用いて、4倍の画素数をもつ高解像フレーム画像を推定する。
まず、図2(A)、図2(B)に、画素推定に用いられる推定処理ブロックと受光単位の模式的な説明図を示す。図2(A)、図2(B)では、推定処理により求められる推定画素を実線の四角で示し、水平方向(水平走査方向)の画素位置をiで示し、垂直方向の画素位置をjで示す(i、jは整数)。
図2(A)に示すように、m×n画素を1ブロックとする推定処理ブロックBk00、Bk10、・・・を設定する。本実施形態では、この推定処理ブロック毎に、高解像フレーム画像の画素値の推定処理を行う。図2(B)には、上記の推定処理ブロックのうちの1つを模式的に示す。図2(B)に示す受光値a00~a(m-1)(n-1)は、撮像により取得された低解像フレーム画像の受光値と、補間処理により求められた第1~第3のシフト画像の受光値により構成される。
次に、図3(A)~図10を用いて、本実施形態の画素推定手法について説明する。以下では、説明を簡単にするために、2×2画素毎に推定処理ブロックが設定され、1つの受光単位の受光値a00と3つの仮想受光単位の受光値a10、a01、a11から推定する場合を例に説明する。
図3(A)、図3(B)に、推定画素値と中間画素値の説明図を示す。図3(A)に示すように、受光値a00~a11を用いて、最終的に推定画素値v00~v22を推定する。すなわち、画素ピッチ2pの受光単位から構成される低解像画像から、画素ピッチpの撮像素子と同じ解像度(画素数)の高解像画像を推定する。
このとき、図3(B)に示すように、受光値a00~a11から中間画素値b00~b21(中間推定画素値、2画素加算値)を推定し、その中間画素値b00~b21から画素値v00~v22を推定する。この中間画素値の推定手法について、図4に示す水平方向の最初の行の中間画素値b00~b20を例に説明する。なお、ここでは水平方向に高解像化して中間画素を求める場合を説明するが、本実施形態では垂直方向に高解像化して中間画素を求めてもよい。
図4に示すように、受光値と中間画素値の間には、下式(2)の関係が成り立つ。
a00=b00+b10,
a10=b10+b20 ・・・ (2)
a00=b00+b10,
a10=b10+b20 ・・・ (2)
b00を未知数(初期変数、初期値)として上式(2)を変形すると、下式(3)に示すように、中間画素値b10、b20をb00の関数として表すことができる。
b00=(未知数),
b10=a00-b00,
b20=b00+δi0=b00+(a10-a00)
・・・ (3)
b00=(未知数),
b10=a00-b00,
b20=b00+δi0=b00+(a10-a00)
・・・ (3)
ここで、下式(4)に示すように、δi0は1シフト離れた受光値の差分値であり、中間画素値b20、b00の差分値に対応する。
δi0=a10-a00
=(b10+b20)-(b00+b10)
=b20-b00 ・・・ (4)
δi0=a10-a00
=(b10+b20)-(b00+b10)
=b20-b00 ・・・ (4)
このようにして、b00を未知数とする高精細な中間画素値{b00,b10,b20}の組合せパターンが求められる。このb00の関数として表わされた中間画素値の絶対値(値、数値)を決定するためには、未知数b00を求める必要がある。
図5に示すように、本実施形態では、受光値によるパターン{a00,a10}と中間画素値によるパターン{b00,b10,b20}を比較する。そして、その誤差が最小になる未知数b00を導出し、導出した未知数b00を最終的な中間画素値b00として設定する。具体的には、下式(5)に示すように、誤差の評価関数Ejを未知数b00の関数で表す。そして、図6に示すように、評価関数Ejを最小(極小値)にする未知数b00=α(初期値)を探索的に求める(最小二乗法)。
上式(5)に示すように、本実施形態では、中間画素値の平均値と、低域周波数成分をもつパターン{a00,a10}の誤差評価を行う。これにより、中間画素値{b00,b10,b20}の推定解として高域周波数成分を多く含むパターンが導出されることを抑止できる。すなわち、仮に未知数の推定が不正確となったとしても、低域周波数成分を多く含む画像を生成することになる。そのため、低域周波数成分よりも不自然さが強調され易い高域周波数成分に誤りを含むパターンを生成することを抑止でき、画像としては見た目の自然さを失うことがない。これにより、低域周波数成分に比べて高域周波数成分が小さい自然画像に対して、合理的な画素推定が可能になる。
このようにして、中間画素値b00の値を推定し、推定したb00の値を上式(3)に代入して中間画素値b10、b20の値を決定する。そして、同様にb01を未知数として2行目の中間画素値b01~b21を推定する。
次に、推定した中間画素値bijを用いて最終的な推定画素値vijを求める手法について説明する。図7(A)、図7(B)に、中間画素値と推定画素値の説明図を模式的に示す。図7(A)に示すように、上述の手法で推定した3列の中間画素値b00~b21のうち、2列の中間画素値b00~b11を用いて推定を行う。図7(B)に示すように、中間画素値b00~b11から画素値v00~v12が推定される。以下では、説明を簡単にするために、図8に示す1列目の画素値v00~v02を例に説明する。
画素値v00~v02の推定は、上述の中間画素値の推定手法と同様の手法で行う。具体的には、中間画素値b00、b01は、画素値v00~v02を垂直方向に2画素単位で1画素ずつシフトさせながら重畳サンプリングした値と等価である。そのため、中間画素値と推定画素値の間には、下式(6)の関係が成り立つ。
b00=v00+v01,
b01=v01+v02 ・・・ (6)
b00=v00+v01,
b01=v01+v02 ・・・ (6)
下式(7)に示すように、画素値v01、v02を未知数v00の関数として表すことができる。
v00=(未知数),
v01=b00-v00,
v02=v00+δj0=v00+(b01-b00)
・・・ (7)
v00=(未知数),
v01=b00-v00,
v02=v00+δj0=v00+(b01-b00)
・・・ (7)
ここで、下式(8)に示すように、δj0は1シフト離れた中間画素値の差分値であり、画素値v02、v00の差分値に対応する。
δi0=b01-b00
=(v01+v02)-(v00+v01)
=v02-v00 ・・・ (8)
δi0=b01-b00
=(v01+v02)-(v00+v01)
=v02-v00 ・・・ (8)
図9に示すように、中間画素値によるパターン{b00,b10}と、推定画素値によるパターン{v00,v01、v02}の誤差が最小になる未知数v00を導出する。すなわち、下式(9)に示すように、誤差を評価関数Eiで表し、図10に示すように、その評価関数Eiを最小にする未知数v00=βを探索的に求める。
そして、同様の処理により2列目の画素値v10~v12を求め、最終的な推定画素値v00、v01、v10、v11を決定する。なお、本実施形態では、最終推定画素値により構成される画像データに適当なノイズ低減処理を施して表示画像としてもよい。また、本実施形態では、最終的な推定画素値v00、v01、v10、v11は、4つの値を一度に求めるという考え方ではなく、推定処理ブロック単位で例えばv00のみの1画素を最終推定画素値として採用し、水平または垂直方向に推定処理ブロック単位をずらしながら1画素ずつ最終推定画素値を順次求める方法であっても当然構わない。
ここで、上述の実施形態では、未知数b00、v00を探索的に求める場合について説明したが、本実施形態では、未知数b00、v00を直接的に求めてもよい。すなわち、上式(5)に示す誤差Ejの式はb00の2次関数式であるので、下式(10)の形に式変形が可能である。そのため、Ejを最小にするb00の最小値αを直接的に求められる。v00の最小値βについても同様に求められる。
Ej=(b00-α)2+ξ ・・・ (10)
Ej=(b00-α)2+ξ ・・・ (10)
さて上述のように、静止画撮影モードと動画撮影モードを切り替える手法では、ユーザ決定的瞬間をとらえることが難しいという課題がある。また、超解像処理により高解像化する手法では、大負荷の処理であるため処理回路の規模が増大する等の課題がある。また、画素シフトを用いる手法では、光学系の機械的シフトやシフト読み出しが必要なため、カメラの構成が複雑になるという課題がある。
この点、本実施形態によれば、図1に示すように、受光値a-2,-2、a0,-2、・・・、a22を取得する単位である受光単位が撮像素子(例えば、図11に示す撮像素子120)に設定され、その受光単位の受光値a-2,-2、a0,-2、・・・、a22が読み出されて低解像フレーム画像が取得される。この低解像フレーム画像は、記憶部(図11に示すデータ記録部140)に記憶される。そして、補間処理部(補間処理部200)は、受光単位a00のポジションからシフトされたポジションに受光単位a00に重畳して設定される仮想受光単位の受光値a10、a01、a11を、受光単位の受光値a-2,-2、a0,-2、・・・、a22に基づく補間処理により求める。図3(A)等に示すように、推定演算部(画素値推定演算部210)は、受光単位の受光値a00と仮想受光単位の受光値a10、a01、a11に基づいて、低解像フレーム画像の画素ピッチ2pよりも小さい画素ピッチpの推定画素値v00~v11を推定する。画像出力部(画像出力部300)は、その推定画素値v00~v11に基づいて、低解像フレーム画像よりも高解像度の高解像フレーム画像を出力する。
ここで、受光単位のポジションとは、撮像素子の受光面上での受光単位の位置や座標のことであり、あるいは、推定処理における推定画素値データ(画像データ)上での受光単位の位置や座標のことである。また、シフトされたポジションとは、元のポジションと位置や座標が一致しないポジションのことである。また、重畳するとは、受光単位と仮想受光単位が重なった領域を有することであり、例えば図3(A)に示すように、受光単位a00と仮想受光単位a10が、2つの推定画素v10、v11を共有することである。
これにより、簡素な処理で動画から高解像画像を取得することや、画素シフトを行わずに画像の高解像化を行うことが可能になる。例えば、上述の中間画素値の推定を用いて推定処理を簡素化できる。また、高解像静止画は、低解像動画の任意タイミングのものを事後的に生成できるため、ユーザは、決定的瞬間の高解像静止画を容易に得ることができる。また、撮影時には低解像動画(例えば3メガピクセル)を取得することで高フレームレートで撮影し、必要に応じて高解像静止画(12メガピクセル)等を表示できる。
また、図3(A)に示すように、推定演算部は、第1のポジションに設定された第1の受光単位a00と、第1の受光単位に重畳する第2のポジションに設定された第2の受光単位a10との差分値δi0=a10-a00を求める。そして、推定演算部は、その差分値δi0に基づいて、推定画素値v00~v11(推定ブロック内の推定画素値)を推定する。なお、第1の受光単位は、受光単位または仮想受光単位のいずれかであればよい。すなわち、第1、第2の受光単位は、受光単位と仮想受光単位であってもよく、仮想受光単位と仮想受光単位であってもよい。
このようにすれば、重畳する受光単位の受光値a10、a00の差分値δi0に基づいて推定画素値v00~v11を推定することで、簡素な処理で高解像化を行うことが可能になる。
より具体的には、図3(A)、図3(B)に示すように、第1の中間画素値b00は、第1の受光単位a00から重畳領域(推定画素v10、v11を含む領域)を除いた第1の受光領域(推定画素v00、v01を含む領域)の受光値である。第2の中間画素値b20は、第2の受光単位a10から重畳領域を除いた第1の受光領域(推定画素v20、v21を含む領域)の受光値である。上式(3)に示すように、推定演算部は、第1の中間画素値b00と第2の中間画素値b20との関係式を差分値δi0を用いて表し、その関係式を用いて第1、第2の中間画素値b00、b20を推定する。そして、図7(A)、図7(B)に示すように、推定演算部は、第1の中間画素値b00を用いて推定画素値v00~v11を求める。
このようにすれば、重畳シフトされた受光値から中間画素値を一旦推定し、その重畳シフトされた中間画素値から推定画素値を求めることで、高解像画像の推定処理を簡素化できる。例えば、上述の比較例に比べて、2次元フィルタの繰り返し演算(特許文献1)や、初期値の設定に適当な部分を探索(特許文献2)する等の複雑な処理が不要となる。
また、本実施形態では、図3(B)に示すように、第1、第2の中間画素値b00、b20を含む連続する中間画素値{b00、b10、b20}を中間画素値パターンとする。このとき、上式(3)に示すように、推定演算部は、中間画素値パターン{b00、b10、b20}に含まれる中間画素値間の関係式を受光値a00、a10を用いて表す。そして、図5に示すように、推定演算部は、関係式で表された中間画素値パターン{b00、b10、b20}を、受光値a00、a10で表される受光値パターン{a00、a10}と比較して類似性を評価し、その類似性の評価結果に基づいて、類似性が最も高くなるように中間画素値パターンに含まれる中間画素値b00~b20を決定する。
ここで、中間画素値パターンとは、推定処理に用いられる範囲の中間画素値のデータ列(データの組み)である。また、受光値パターンとは、推定処理に用いられる範囲の受光値のデータ列であり、受光単位の受光値と仮想受光単位の受光値を含むデータ列である。
このようにすれば、受光単位の受光値a00と、受光単位の受光値を補間処理して求めた仮想受光単位の受光値a10とに基づいて、中間画素値b00~b20を推定できる。また、中間画素値パターン{b00、b10、b20}と受光値パターン{a00、a10}を比較することで、受光値パターンに類似した高精細な中間画素値パターンを推定できる。
また、上式(5)に示すように、推定演算部は、中間画素値パターン{b00、b10、b20}と受光値パターン{a00、a10}の誤差を表す評価関数Ejを求め、評価関数Ejの値が最小となる未知数b00=α(初期値)を求め、求めたb00により中間画素値b00~b20を決定する。
このようにすれば、誤差を評価関数で表し、その評価関数の極小値に対応する中間画素値を求めることで、中間画素値の値を推定できる。例えば、上述のように最小二乗法を用いて未知数を求めることで、簡素な処理で中間画素推定の初期値を設定できる。すなわち、上述の比較例(特許文献2)と比べて、初期値設定に適当な画像部分の探索が不要である。
また、図1に示すように、補間処理部は、低解像フレーム画像に含まれる受光単位の受光値a-2,-2、a0,-2、・・・、a22のうち、仮想受光単位の周辺の複数の受光単位の受光値を重み付け加算して、仮想受光単位の受光値a10、a01、a11を求める。
ここで、仮想受光単位の周辺の受光単位とは、少なくとも仮想受光単位に重畳する受光単位であり、例えば、仮想受光単位a10に重畳する受光単位a00、a20である。または、仮想受光単位に重畳する受光単位と、さらにその受光単位に隣接する受光単位であり、例えば、仮想受光単位a10に重畳する受光単位a00、a20と、受光単位a00、a20に隣接する受光単位a0,-2、a2,-2、a02、a22である。
このようにすれば、受光単位a00に重畳して設定される仮想受光単位の受光値a10、a01、a11を、受光単位の受光値a-2,-2、a0,-2、・・・、a22に基づく補間処理により求めることができる。
4.撮像装置と画像処理装置の第1の構成例
図11に、上述の補間処理や推定処理が適用される撮像装置と画像処理装置の第1の構成例を示す。この撮像装置10は、撮像光学系100(レンズ)、光学ローパスフィルタ110(広域通過光学ローパスフィルタ)、撮像素子120(撮像処理部)、画素加算処理部130(読み出し制御部)、データ記録部140(記憶部)、表示処理部150(表示制御部)、モニター表示部160(表示装置)を含む。画像処理装置20は、補間処理部200(重畳シフト画素加算低解像画像補間算出部)、画素値推定演算部210(高解像画像画素値推定演算部、推定処理部)、画像出力部300を含む。
図11に、上述の補間処理や推定処理が適用される撮像装置と画像処理装置の第1の構成例を示す。この撮像装置10は、撮像光学系100(レンズ)、光学ローパスフィルタ110(広域通過光学ローパスフィルタ)、撮像素子120(撮像処理部)、画素加算処理部130(読み出し制御部)、データ記録部140(記憶部)、表示処理部150(表示制御部)、モニター表示部160(表示装置)を含む。画像処理装置20は、補間処理部200(重畳シフト画素加算低解像画像補間算出部)、画素値推定演算部210(高解像画像画素値推定演算部、推定処理部)、画像出力部300を含む。
なお、本実施形態の撮像装置及び画像処理装置はこの構成に限定されず、その構成要素の一部を省略したり、他の構成要素を追加したりする等の種々の変形実施が可能である。また、図11では、画像処理装置20が撮像装置10の外部に設けられる例を図示するが、本実施形態では、画像処理装置20が撮像装置10の内部に設けられてもよい。
撮像装置10は、例えばデジタルカメラや、ビデオカメラである。撮像光学系100は、被写体を結像する。光学ローパスフィルタ110は、例えば撮像素子120の解像度に対応する帯域を通過させる。撮像素子120(例えば12メガピクセル)は、例えばアナログ的に加算読み出し可能なCCD、CMOSセンサにより構成される。画素加算処理部130は、例えば受光単位の設定や加算読み出しを制御し、低解像フレーム画像(例えば3メガピクセル、×1画像/1フレーム)を取得する。データ記録部140は、例えばメモリーカード等で実現され、低解像フレーム画像による動画を記録する。モニター表示部160は、動画のライブビュー表示や、再生された動画の表示を行う。
画像処理装置20は、例えば画像処理エンジン(IC)や、PC(コンピュータ)により実現される。補間処理部200は、低解像フレーム画像の受光値を補間してシフト画像を求める(例えば3メガピクセル、×4画像/1フレーム)。画素値推定演算部210は、最終推定画素値の推定を行う。画像出力部300は、アンチエリアシングフィルタ220、250、ローパスフィルタ230、アンダーサンプリング部240を含み、最終推定画素値から静止画や動画を出力する。アンチエリアシングフィルタ220は、最終推定画素値をアンチエリアシング処理し、高解像静止画(例えば12メガピクセル)を出力する。ローパスフィルタ230は、最終推定画素値をハイビジョンの帯域に制限する。アンダーサンプリング部240は、帯域制限された最終推定画素値を、ハイビジョンの画素数にアンダーサンプリングする。アンチエリアシングフィルタ220は、アンダーサンプリングされた画像をアンチエリアシング処理し、ハイビジョン動画(例えば2メガピクセル)を出力する。なお、アンダーサンプリングせずに、高解像動画(例えば12メガピクセル)を出力してもよい。
図12に、動画撮影における補間処理の手法の説明図を示す。図12に示すように、動画撮影においては、加算読み出しにより各フレームで低解像フレーム画像が取得される。例えば、受光値a00に注目すると、フレームf(t-1)、f(t)、f(t+1)、・・・で、a00(t-1)、a00(t)、a00(t+1)、・・・が取得される。フレームf(t)の高解像静止画が生成される場合、フレームf(t)の低解像フレーム画像に対して補間処理が行われ、フレームf(t)における仮想受光単位の受光値a10(t)、a01(t)、a11(t)が求められる。そして、これらの受光値から高解像静止画を推定する処理が行われる。静止画を生成しないフレームフレームf(t-1)、f(t+1)では、補間処理は行われない。
ここで、フレームとは、例えば撮像素子により1つの低解像フレーム画像が撮影されるタイミングや、画像処理において1つの低解像フレーム画像が処理されるタイミングである。あるいは、画像データにおける1つの低解像フレーム画像や高解像フレーム画像も適宜フレームと呼ぶ。
上記構成例によれば、画像出力部300は、高解像フレーム画像(12メガピクセル)を解像度変換してハイビジョン動画(2メガピクセル)として出力し、または高解像フレーム画像(12メガピクセル)を高解像静止画(12メガピクセル)として出力する。
このようにすれば、低解像動画を高フレームレートで撮像し、その動画から事後的に任意タイミングの高解像静止画を出力できる。すなわち、ユーザがハイビジョン動画を再生しながらタイミングや構図を選んで高解像静止画を得ることができる。なお、高解像静止画やハイビジョン動画は、図示しない表示部やメモリ、プリンター等に出力される。あるいは、画像処理装置20が撮像装置10に含まれる場合には、高解像静止画やハイビジョン動画がモニター表示部160に表示されてもよい。
5.推定画素値の第2の推定手法(カラー)
上記の実施形態では、モノクロ画像の画素値推定について説明したが、本実施形態は、カラー画像の画素値推定にも適用できる。図13を用いて、この推定画素値の第2の推定手法について説明する。
上記の実施形態では、モノクロ画像の画素値推定について説明したが、本実施形態は、カラー画像の画素値推定にも適用できる。図13を用いて、この推定画素値の第2の推定手法について説明する。
この手法では、RGBを分離せずに加算読み出しし、RGBの最終画素値を推定する。具体的には、図11に示すように、撮像により受光値a00、a20等を取得する。そして、補間処理により受光値a10、a01、a11等を求める。例えば、受光値a00、a10、a01、a11は、下式(11)で表される受光値に対応する。
a00=R10+G100+G211+B01,
a10=R10+G120+G211+B21,
a01=R12+G102+G211+B01,
a11=R12+G122+G211+B21
・・・ (11)
a00=R10+G100+G211+B01,
a10=R10+G120+G211+B21,
a01=R12+G102+G211+B01,
a11=R12+G122+G211+B21
・・・ (11)
そして、これらの受光値に基づいて、図3(A)等に示す推定処理により画素値v00、v10、v01、v11を推定する。推定画素値とRGBの対応関係は分かっているため、RGBの推定画素値G100=v00、R10=v10、B01=v01、G211=v11を求めることができる。
上記推定手法によれば、撮像素子がカラー撮像素子(RGBイメージセンサ)であり、隣接する複数の画素G100、R10、B01、G211が、画素の色に依らず受光単位に設定される。受光単位に設定された隣接する複数の画素の画素値が加算されて読み出され(a00=G100+R10+B01+G211)、低解像度フレーム画像が取得される。そして、撮像により取得された受光値と補間処理により求められた受光値a00、a10、a01、a11に基づいて、受光単位の各画素の画素値G100、R10、B01、G211が推定され、推定された画素値に基づいてカラーの高解像フレーム画像が出力される。
このようにすれば、カラー撮像においても、高フレームレートで低解像フレーム画像を撮影し、その低解像フレーム画像から画素値推定を行って、任意タイミングのカラーの高解像フレーム画像を取得できる。また、隣接4画素の画素値を加算して受光値を取得するため、ランダムノイズを低減できる。また、色の区別をする必要が無く読出し画素の位置が近いため、色毎の受光単位を用いる場合に比べて高精細な推定処理が可能である。
6.推定画素値の第3の推定手法
本実施形態では、RGBを分離して加算読み出しし、RGBの最終画素値を推定してもよい。図14(A)~図17を用いて、この推定画素値の第3の推定手法について説明する。
本実施形態では、RGBを分離して加算読み出しし、RGBの最終画素値を推定してもよい。図14(A)~図17を用いて、この推定画素値の第3の推定手法について説明する。
まず、Gの画素値推定について説明する。図14(A)に示すように、受光単位の受光値として、G1画素の4画素加算値{a00,a40,・・・}と、G2画素の4画素加算値{a11,a51,・・・}がサンプリングされる。図14(A)では、G1の画素を濃い網掛けの四角で表し、G2の画素を薄い網掛けの四角で表し、受光単位を実線で表し、仮想受光単位を点線で表す。次に、取得された受光値から、G1の仮想受光単位の受光値{a20,・・・,a02,a22,・・・}と、G2の仮想受光単位の受光値{a31,・・・,a13,a33,・・・}を補間処理により求める。この補間処理は、例えば上述の補間手法によりG1とG2で別個に行われてもよく、あるいはG1とG2の受光値両方を用いて一般的な補間手法により行われてもよい。例えば、受光値a20は、a00とa40の平均値により求められる。
Gの最終画素値vijは、これらの受光値から推定される。すなわち、G1の重畳する4画素加算値である下記第1のグループG1と、G2の重畳する4画素加算値である下記第2のグループG2から推定される。ここで、LはL≧0の整数である。
第1のグループG1:
{a00,a20,a40,・・・,a(2L)(2L),・・・}
第2のグループG2:
{a11,a31,a51,・・・,a(2L+1)(2L+1),・・・}
第1のグループG1:
{a00,a20,a40,・・・,a(2L)(2L),・・・}
第2のグループG2:
{a11,a31,a51,・・・,a(2L+1)(2L+1),・・・}
図14(B)に、中間画素と推定画素の説明図を示す。図14(B)に示すように、G1の中間画素値{b00,b20,b40,・・・}と、G2の中間画素値{b11,b31,・・・}が推定される。これらの中間画素は、垂直方向の次の中間画素と重畳して設定される。そして、これらの中間画素値から、G1の推定画素値{v00,v20,v40,・・・}と、G2の推定画素値{v11,v31,・・・}が推定される。
次に、中間画素値の推定処理について説明する。なお、以下ではG1の中間画素値について説明するが、G2の中間画素値についても同様である。図15に示すように、4画素加算値aijの水平方向の最初の行に注目し、シフト順に画素値をa00,a20,a40とすると、下式(12)が成り立つ。
a00=b00+b20,
a20=b20+b40 ・・・ (12)
a00=b00+b20,
a20=b20+b40 ・・・ (12)
下式(13)に示すように、b00を未知数(初期変数)とし、中間画素値b20,b40をb00の関数として求める。
b00=(未知数),
b20=a00-b00,
b40=b00+δi0=b00+(a20-a00)
・・・ (13)
b00=(未知数),
b20=a00-b00,
b40=b00+δi0=b00+(a20-a00)
・・・ (13)
ここで、δi0は、1シフト離れた受光値の差分値であり、下式(14)で表される。
δi0=a20-a00
=(b00+b20)-(b20+b40)
=b40-b00 ・・・ (14)
δi0=a20-a00
=(b00+b20)-(b20+b40)
=b40-b00 ・・・ (14)
次に、図15に示すように、中間画素値{b00,b20,b40}によるパターンを近傍の同色4画素加算値である{a00,a11,a20}と比較し、その誤差が最小となる未知数b00を導出し、その値をb00に設定する。{a00,a11,a20}は、第1のグループG1とその近傍の第2のグループG2を混合した受光値パターンである。より具体的には、誤差の評価関数として下式(15)に示す評価関数eijを求め、評価関数e00が最小になる未知数b00を求める。b00が求まれば、b20,b40も上式(13)により求められる。同様の手法を適用し、{b02,b22,b42}等も求めることができる。
このG1、G2の受光値パターンと比較する手法は、G1のみの受光値パターンと比較する場合と比べて、より高い空間周波数成分が推定しやすくなる可能性が高いと考えられる。なお、本実施形態では、中間画素値パターン{b00,b20,b40}の比較対象として、G1のみの受光値パターン{a00,a20}を用いてもよい。また、比較する近傍の4画素加算値はこれらの他にも存在するので、より推定精度が高くなる4画素加算値を選ぶことが望ましい。
次に、推定画素値vijの推定処理について説明する。なお、以下ではG1の推定画素値について説明するが、G2の推定画素値についても同様に求めることができる。図16に示すように、中間推定画素値bijの垂直方向の最初の列に注目し、シフト順に画素値をb00,b02とすると、下式(16)が成り立つ。
b00=v00+v02,
b02=v02+v04 ・・・ (16)
b00=v00+v02,
b02=v02+v04 ・・・ (16)
下式(17)に示すように、b00を未知数(初期変数)とし、最終推定画素値v02,v04をv00の関数として求める。
v00=未知数,
v02=b00-v00,
v04=b00+δj0=b00+(b02-b00)
・・・ (17)
v00=未知数,
v02=b00-v00,
v04=b00+δj0=b00+(b02-b00)
・・・ (17)
ここで、δj0は、1シフト離れた中間画素値の差分値であり、下式(18)で表される。
δj0=b02-b00
=(v02+v04)-(v02+v00)
=v04-v00 ・・・ (18)
δj0=b02-b00
=(v02+v04)-(v02+v00)
=v04-v00 ・・・ (18)
次に、図16に示すように、最終推定画素値{v00,v02,v04}によるパターンを、その近傍の中間推定値である{b00,b11,b02}と比較し、その誤差が最小になる未知数v00を導出し、その値をv00に設定する。{b00,b11,b02}は、G1の中間画素値とG2の中間画素値を混合した中間画素値パターンである。より具体的には、誤差の評価関数として下式(19)に示す評価関数eijを求め、評価関数e00が最小になる未知数v00を求める。v00が求まれば、v20も上式(17)により求められる。同様の手法を適用し、{v20,v22}等も求めることができる。このようにして、高解像画像の最終推定画素値{v00,v02,v20,v22}が求められる。
このG1、G2の中間画素値パターンと比較する手法は、G1のみの中間画素値パターンと比較する場合と比べて、より高い空間周波数成分が推定しやすくなる可能性が高いと考えられる。なお、本実施形態では、推定画素値パターン{v00,v02,v04}の比較対象として、G1のみの中間画素値パターン{b00,b02}を用いてもよい。また、比較する近傍の中間画素値はこれらの他にも存在するので、より推定精度が高くなる中間画素値を選ぶことが望ましい。
次に、R、Bの画素値推定について説明する。以下ではRの画素値推定について説明するが、Bの画素値推定についても同様に行うことができる。図17(A)に示すように、受光単位の受光値として、Rの4画素加算値{a10,a50,・・・}がサンプリングされる。図17(A)では、Rの画素を網掛けの四角で表し、受光単位を実線で表し、仮想受光単位を点線で表す。次に、取得された受光値から、Rの仮想受光単位の受光値{a30,・・・,a12,a32,・・・}を補間処理により求める。
図17(B)に、中間画素と推定画素の説明図を示す。図17(B)に示すように、Rの中間画素値{b10,b30,b50,・・・}が推定される。これらの中間画素は、垂直方向の次の中間画素と重畳して設定される。そして、これらの中間画素値から、Rの推定画素値{v10,v30,v50,・・・}が推定される。中間画素値と推定画素値の推定処理は、図3(A)~図10で上述の手法と同様の手法により行われる。以上の処理によりベイヤ配列の高精細な推定画像が得られ、その画像をベイヤ補間することでRGBの高解像フレーム画像が得られる。
上記推定手法によれば、撮像素子がカラー撮像素子であり、同じ色の複数の画素が受光単位に設定される(例えば図14(A)に示すG1、G2の受光単位)。そして、その受光単位に設定された複数の画素の画素値が加算されて読み出され(G1の受光値a00、G2の受光値a11等)、低解像度フレーム画像が取得される。推定演算部(例えば、図20に示す画素値推定演算部210)は、その低解像度フレーム画像の受光単位の受光値(a00、a11等)と、補間処理部(補間処理部200)からの仮想受光単位の受光値(a20、a31等)とに基づいて受光単位の各画素の画素値(v00、v20等)を推定する。画像出力部(画像出力部300)は、その推定された画素値に基づいて、カラーの高解像フレーム画像を出力する。
このようにすれば、カラー撮像においても、高フレームレートで低解像フレーム画像を撮影し、その低解像フレーム画像から画素値推定を行って、任意タイミングのカラーの高解像フレーム画像を取得できる。また、同色の画素値を加算して受光値を取得するため、色相関が小さい画像であっても色再現性の高い推定処理が可能であり、推定処理による偽色の発生を抑止できる。
7.データ圧縮伸張と推定処理の手法
図18、図19を用いて、撮像した低解像画像を圧縮伸張する処理と、伸張した低解像画像から画素値推定を行う処理の手法について説明する。
図18、図19を用いて、撮像した低解像画像を圧縮伸張する処理と、伸張した低解像画像から画素値推定を行う処理の手法について説明する。
図18に、G画素の圧縮伸張処理の説明図を示す。図18のA1に示すように、G1とG2の4画素加算値{a00,a40,a11,a51,・・・}が取得される。A2には、この4画素加算値{a00,a40,a11,a51,・・・}と、ベイヤ配列原画像(高解像)のG画素との配列関係を示す。A3に示すように、ベイヤ補間(デモザイキング処理)を行って、欠落画素値{G10,G50,G01,G41,・・・}を求める。これらの画素値は、各欠落画素の周囲の4画素加算値を用いて補間することにより求められる。
A4に示すように、ベイヤ補間後のデータは、データ圧縮によりデータ記録部に記録される。A5に示すように、原画像の画素値を推定演算する際は、データ記録部に記録された圧縮データを伸張し、A3に示すベイヤ補間後のデータを再生する。推定画素値vijの推定には、そのデータの中から補間値Gijではなく、4画素加算値aijと対応する値が用いられる。ベイヤ補間において、どの画素が4画素加算値であるかは分かっているため、伸張されたデータのどの画素を推定処理に用いるか予め決めておけばよい。
図19に、R画素の圧縮伸張処理の説明図を示す。なお、B画素の圧縮伸張処理も同様に行うことができる。図19のB1に示すように、Rの4画素加算値{a10,a50,・・・}が取得される。B2には、この4画素加算値{a10,a50,・・・}と、ベイヤ配列原画像(高解像)のR画素との配列関係を示す。B3に示すように、ベイヤ補間を行って、欠落画素値{R00,R01,R11,R40,R41,R51,・・・}を求める。これらの画素値は、各欠落画素の周囲の4画素加算値を用いて補間することにより求められる。推定画素値vijの推定には、圧縮伸張されたデータの中から4画素加算値aijと対応する値が用いられる。
8.撮像装置と画像処理装置の第2の構成例
図20に、上記圧縮伸張処理を行う場合の撮像装置と画像処理装置の第2の構成例を示す。この撮像装置10は、この撮像装置10は、撮像光学系100、光学ローパスフィルタ110、撮像素子120、画素加算処理部130、データ記録部140、表示処理部150、モニター表示部160、ベイヤ補間処理部170(デモザイキング処理部)、フレームバッファ180、データ圧縮処理部190を含む。画像処理装置20は、補間処理部200、画素値推定演算部210、データ伸張処理部260、フレームバッファ270(記憶部)、フレーム選択部280、推定用画素加算抽出部290、画像出力部300を含む。画像出力部300は、アンダーサンプリング部310、アンチエリアシングフィルタ220,320、ベイヤ補間処理部330(デモザイキング処理部)を含む。なお、図11で説明した構成要素と同一の構成要素には同一の符号を付し、適宜説明を省略する。
図20に、上記圧縮伸張処理を行う場合の撮像装置と画像処理装置の第2の構成例を示す。この撮像装置10は、この撮像装置10は、撮像光学系100、光学ローパスフィルタ110、撮像素子120、画素加算処理部130、データ記録部140、表示処理部150、モニター表示部160、ベイヤ補間処理部170(デモザイキング処理部)、フレームバッファ180、データ圧縮処理部190を含む。画像処理装置20は、補間処理部200、画素値推定演算部210、データ伸張処理部260、フレームバッファ270(記憶部)、フレーム選択部280、推定用画素加算抽出部290、画像出力部300を含む。画像出力部300は、アンダーサンプリング部310、アンチエリアシングフィルタ220,320、ベイヤ補間処理部330(デモザイキング処理部)を含む。なお、図11で説明した構成要素と同一の構成要素には同一の符号を付し、適宜説明を省略する。
図20に示すように、撮像により取得された低解像動画(例えば、3メガピクセル)は、ベイヤ補間処理部170によりベイヤ補間処理(デモザイキング処理)され、フレームバッファ180にバッファリングされる。バッファリングされた動画は、データ圧縮処理部190により圧縮処理され、データ記録部140に記録される。
記録データを再生する場合、データ伸張処理部260により動画が伸張される。伸張された動画は、アンダーサンプリング部310によりアンダーサンプリングされ、アンチエリアシングフィルタ320によりアンチエリアシング処理され、ハイビジョン動画(2メガピクセル)として再生される。
ユーザは、この再生動画から高解像静止画にしたいフレームを指定する。この指定は、フレーム選択部280(例えば、タッチパネル等のユーザインターフェース)を介して行われ、フレームバッファ270に指定フレームの情報が入力される。フレームバッファ270には、指定フレームの低解像画像が記憶される。この低解像画像はベイヤ補間された画像であり、推定用画素加算抽出部290により推定処理に用いる受光値(画素値)が抽出される。抽出された受光値は、補間処理部200により補間処理され、画素値推定演算部210により推定処理される。推定画素値は、ベイヤ補間処理部330により、ベイヤ補間処理(デモザイキング処理)され、アンチエリアシングフィルタ220によりアンチエリアシング処理され、高解像静止画(12メガピクセル)として出力される。
9.推定画素値の第4の推定手法(重み付け加算)
上述の推定手法では、受光単位内の画素値を単純加算して読み出しているが、本実施形態では、受光単位内の画素値を重み付け加算して読み出し、その受光値から推定画素値を求めてもよい。図21~図28を用いて、この推定画素値の第4の推定手法について説明する。なお、以下では、ベイヤ配列のうちG1画素の推定処理について説明するが、G2画素やR画素、B画素についても同様の推定処理を適用できる。
上述の推定手法では、受光単位内の画素値を単純加算して読み出しているが、本実施形態では、受光単位内の画素値を重み付け加算して読み出し、その受光値から推定画素値を求めてもよい。図21~図28を用いて、この推定画素値の第4の推定手法について説明する。なお、以下では、ベイヤ配列のうちG1画素の推定処理について説明するが、G2画素やR画素、B画素についても同様の推定処理を適用できる。
図21に示すように、加算読み出しの重み係数をc1、c2、c3、c4とする。c1=1とすると、重み係数は下式(20)に示す比率関係のルールをとる(rは、r>1の実数)。
c1=1,c2=1/r,c3=1/r,c4=1/r2
・・・ (20)
c1=1,c2=1/r,c3=1/r,c4=1/r2
・・・ (20)
以下では、説明を簡単にするために、r=2とおき、下式(21)とする。
c1=1、c2=1/2、c3=1/2、c4=1/4
・・・ (21)
c1=1、c2=1/2、c3=1/2、c4=1/4
・・・ (21)
図22(A)に示すように、受光値a00、a20、・・・が撮像により取得され、受光値a10、・・・、a01、a11、・・・が補間処理により求められる。図22(B)に示すように、これらの受光値から中間画素値b00、b10、・・・が求められ、中間画素値b00、b10、・・・から推定画素値v00、v10、・・・が求められる。なお、図22(A)、図22(B)では便宜的に、ijのサフィックスを図14(A)、図14(B)と異ならせている。
まず、中間画素値の推定処理について説明する。図23に示すように、中間画素値の水平方向の最初の行に注目し、重み付け画素加算値をシフト順にa00、a10、a20とすると、下式(22)が成り立つ。
a00=c1v00+c2v01+c3v10+c4v11
a10=c1v10+c2v11+c3v20+c4v21
・・・ (22)
a00=c1v00+c2v01+c3v10+c4v11
a10=c1v10+c2v11+c3v20+c4v21
・・・ (22)
また、下式(23)に示すようにb00、b10、b20を定義し、上式(21)を代入する。
b00=c1v00+c2v01
=v00+(1/2)v01,
b10=c1v10+c2v11
=v10+(1/2)v11,
b20=c1v20+c2v21
=v20+(1/2)v21
・・・ (23)
b00=c1v00+c2v01
=v00+(1/2)v01,
b10=c1v10+c2v11
=v10+(1/2)v11,
b20=c1v20+c2v21
=v20+(1/2)v21
・・・ (23)
次に、上式(21)、(23)を用いて上式(22)を変形すると、下式(24)が成り立つ。
a00=v00+(1/2)v01+
(1/2)v10+(1/4)v11
=b00+(1/2)b10,
a10=v10+(1/2)v11+
(1/2)v20+(1/4)v21
=b10+(1/2)b20
・・・ (24)
a00=v00+(1/2)v01+
(1/2)v10+(1/4)v11
=b00+(1/2)b10,
a10=v10+(1/2)v11+
(1/2)v20+(1/4)v21
=b10+(1/2)b20
・・・ (24)
上式(24)において、a00、a10に所定の係数(所定の重み係数)を掛けて差分δi0を取り、上式(23)を使って変形すると、下式(25)が成り立つ。
δi0=a10-2a00
=(1/2)v20+(1/4)v21-(2v00+v01)
=(1/2)b20-2b00
・・・ (25)
δi0=a10-2a00
=(1/2)v20+(1/4)v21-(2v00+v01)
=(1/2)b20-2b00
・・・ (25)
b00を未知数とすると、下式(26)に示すように、中間画素値b10、b20をb00の関数として求めることができる。
b00=(未知数),
b10=2(a00-b00),
b20=4b00+2δi0
=4b00+2(a10-2a00)
・・・ (26)
b00=(未知数),
b10=2(a00-b00),
b20=4b00+2δi0
=4b00+2(a10-2a00)
・・・ (26)
このように、b00を未知数(初期変数)として高精細な中間画素値{b00,b10,b20}の組合せパターンが求められる。同様にして、2行目、3行目においてもb01、b02を未知数として中間画素値{b01,b11,b21}、{b02,b12,b22}の組合せパターンが求められる。
次に、未知数b00を求める手法について説明する。図24に示すように、受光値パターン{a00,a10}と中間画素値パターン{b00,b10,b20}を比較する。そして、その誤差が最小になる未知数b00を導出し、中間画素値b00として設定する。
このとき、上式(24)に示すように、受光値{a00,a10}は、中間画素値{b00,b10,b20}の異なる重み付けによる隣接値の加算値となる。そのため、単純にこれらを比較しても正しい推定値が得られない。そこで、図24に示すように、中間画素値に重み付けをして比較を行う。具体的には、中間画素値{bij,b(i+1)j}の重み付けが、c3=c1/2、c4=c2/2であることを利用すると、下式(27)が成り立つことが分かる。
aij=bij+(1/2)b(i+1)j ・・・ (27)
aij=bij+(1/2)b(i+1)j ・・・ (27)
この上式(27)による重み付けを考慮すると、下式(28)に示す評価関数Ejが求められる。そして、この評価関数Ejにより、受光値パターン{a00,a10}と中間画素値パターン{b00,b10,b20}の類似性評価を行う。
上式(26)を用いると、評価関数Ejは、b00を初期変数とした関数で表される。したがって、図25に示すように、Ejを最小にする未知数b00(=α)を求め、b00の値を決定できる。そして、推定したb00の値を上式(26)に代入し、b10,b20が求められる。なお、b00が取り得る値の範囲は0≦b00≦a00であるので、この範囲にて評価関数Ejの最小値を求めればよい。同様に、2行目、3行目においても、中間画素値{b01,b11,b21}、{b02,b12,b22}の組合せパターンがb01,b02を未知数として求められる。
次に、求めた中間画素値bijを用いて最終推定画素値vijを求める手法について説明する。以下では、図22(B)に示す左端垂直列(i=0列)を例に説明する。図26に示すように、中間画素値{b01,b01,b02}と最終推定画素値{v00,v01,v02}の関係は、下式(29)で表される。
b00=c1v00+c2v01
=v00+(1/2)v01,
b01=c1v01+c2v02
=v01+(1/2)v02
・・・ (29)
b00=c1v00+c2v01
=v00+(1/2)v01,
b01=c1v01+c2v02
=v01+(1/2)v02
・・・ (29)
b00、b01に所定の係数を掛けて差分δj0を求めると、下式(30)が成り立つ。
δj0=b01-2b00
=(v01+(1/2)v02)-(2v00+v01)
=(1/2)v02-2v00
・・・ (30)
δj0=b01-2b00
=(v01+(1/2)v02)-(2v00+v01)
=(1/2)v02-2v00
・・・ (30)
v00を未知数(初期変数)とすると、上式(29)、(30)を用いて、最終推定画素値v01、v02がv00の関数として求められる。その関数を下式(31)に示す。
v00=(未知数),
v01=2(b00-v00),
v02=4v00+2δj0
=4v00+2(b01-2b00)
・・・ (31)
v00=(未知数),
v01=2(b00-v00),
v02=4v00+2δj0
=4v00+2(b01-2b00)
・・・ (31)
上式(31)の推定画素値パターン{v00,v01,v02}と、中間画素値パターン{b00,b01}を比較し、その誤差Eiが最小になる未知数v00を導出する。このとき、最終推定画素値{vij,v(i+1)j}の重み付けが、c2=c1/2であることを利用すると、下式(32)が成り立つ。
bij=vij+(1/2)vi(j+1)
・・・ (32)
bij=vij+(1/2)vi(j+1)
・・・ (32)
そして、図28に示すように、評価関数Eiを最小にする未知数v00(=β)を求め、求めたv00を上式(31)に代入して最終推定画素値v01、v02を求める。同様に、2列目においても、v10を未知数として最終推定画素値{v10,v11,v12}の組合せパターンを求める。
上記推定手法によれば、図22(A)に示すように、受光単位が撮像素子の複数の画素毎に設定され、その受光単位の各画素値が重み付け加算されて受光単位の受光値として読み出される(例えば、a00=c1v00+c2v01+c3v10+c4v11)。そして、推定演算部(例えば図20に示す画素値推定演算部210)は、重み付け加算読み出しにより得られた受光単位の受光値a00等と、補間処理により得られた仮想受光単位の受光値a10等に基づいて、受光単位の各画素の画素値v00等を推定する。
このようにすれば、受光単位の各画素値を重み付け加算して低解像フレーム画像を取得し、取得した低解像フレーム画像から高解像フレーム画像の画素値を推定できる。これにより、推定処理において、被写体の持つ高周波成分の再現性を向上できる。すなわち、受光単位の画素値を単純加算した場合には、矩形の窓関数を結像にコンボリューションすることになる。一方、受光単位の画素値を重み付け加算した場合には、矩形よりも高周波成分を多く含む窓関数を結像にコンボリューションすることになる。そのため、被写体の持つ高周波成分をより多く含む低解像フレーム画像を取得でき、推定画像での高周波成分の再現性を向上できる。
なお、本実施形態では、受光単位の各画素値が重み付けされず単純加算されて受光単位の受光値として読み出され(例えば、a00=v00+v01+v10+v11)、その加算読み出しにより得られた受光単位の受光値a00等に基づいて、受光単位の各画素の画素値v00等が推定されてもよい。
10.推定画素値の第5の推定手法
上記実施形態では、推定画素値を推定する処理を1回で行う場合について説明したが、本実施形態では、画素数を4倍にする推定処理を複数回繰り返して推定画素値を推定してもよい。図29を用いて、この推定画素値の第5の推定手法について説明する。なお、図29ではフローチャートを用いて説明するが、この処理は、プログラムを実行することで実現されてもよく、ハードウェアにより実現されてもよい。
上記実施形態では、推定画素値を推定する処理を1回で行う場合について説明したが、本実施形態では、画素数を4倍にする推定処理を複数回繰り返して推定画素値を推定してもよい。図29を用いて、この推定画素値の第5の推定手法について説明する。なお、図29ではフローチャートを用いて説明するが、この処理は、プログラムを実行することで実現されてもよく、ハードウェアにより実現されてもよい。
この処理が開始されると、k=0(kはk≧0の整数)に設定し(ステップS1)、N×N画素加算値(Nは自然数)による低解像フレーム画像fxを取得する(ステップS2)。
次に、画像fxに対して水平方向にN/2画素シフトされたN×N画素加算値を補間処理により求め、画像fx_hを生成する(ステップS3)。画像fxに対して垂直方向にN/2画素シフトされたN×N画素加算値を補間処理により求め、画像fx_vを生成する(ステップS4)。画像fxに対して対角斜め方向(水平方向及び垂直方向)にN/2画素シフトされたN×N画素加算値を補間処理により求め、画像fx_dを生成する(ステップS5)。
次に、画像fx、fx_h、fx_v、fx_dを用いて推定処理を行い、高解像フレーム画像Fxを生成する(ステップS6)。kが所定値より小さければ(ステップS7、Yes)、生成した画像Fxを画像fxに設定し(ステップS8)、kをインクリメントし、NにN/2を代入する(ステップS9)。そして、再びステップS3~S6を繰り返す。kが所定値になったら(ステップS7、No)、処理を終了する。ここで、kの所定値は、ステップS3~S6に示す処理の繰り返し回数を表す値であり、推定画素の解像度に応じた値である。例えば、N×N=4×4画素の撮像画像から1画素相当の推定画素を推定する場合、kの所定値は2であり、ステップS3~S6の処理が2回繰り返される。
上記推定手法によれば、ステップS2に示すように、受光単位がN×N画素に設定され、そのN×N画素の画素値が加算されて読み出されてN×N画素の受光単位の受光値(画像fx)が取得される。そして、ステップS3~S5に示すように、補間処理部(例えば図11に示す補間処理部200)は、N×N画素の受光単位がN/2画素だけシフトされたN×N画素の仮想受光単位の受光値(画像fx_h、fx_v、fx_d)を補間処理により求める。ステップS6に示すように、推定演算部(画素値推定演算部210)は、N×N画素の受光単位の受光値(画像fx)とN×N画素の仮想受光単位の受光値(画像fx_h、fx_v、fx_d)に基づいて、N/2×N/2画素の受光単位の受光値(画像Fx)を推定する。
次に、ステップS7~S9及びステップS3~S5に示すように、補間処理部は、N/2×N/2画素の受光単位がN/4画素だけシフトされたN/2×N/2画素の仮想受光単位の受光値(画像fx_h、fx_v、fx_d)を補間処理により求める。そして、推定演算部は、N/2×N/2画素の受光単位の受光値(画像fx)とN/2×N/2画素の仮想受光単位の受光値(画像fx_h、fx_v、fx_d)に基づいて、N/4×N/4画素の受光単位の受光値(画像Fx)を推定する。
このようにすれば、受光単位に含まれる画素数を1/2×1/2倍にする推定処理を繰り返し行うことで、所望の解像度まで段階的に高精細化できる。これにより、受光単位に含まれる画素数を1/N×1/N倍にする推定処理を1回で行う場合に比べて、処理を簡素にできる。例えば、4×4画素の受光単位から1×1画素の推定画素を推定する場合、中間画素値間の関係式に未知数が3つ現れるため、未知数を推定する処理が複雑になってしまう。この点、上記推定処理では、各回の推定処理で未知数は1つであるため、未知数を容易に決定できる。
11.推定画素値の第6の推定手法
上記実施形態では、加算読み出しの際に画素シフトを行わない場合を例に説明したが、本実施形態では、画素シフトしつつ加算読み出しし、複数の推定画像を合成してより高精細な高解像フレーム画像を生成してもよい。図30、図31を用いて、この推定画素値の第6の推定手法について説明する。
上記実施形態では、加算読み出しの際に画素シフトを行わない場合を例に説明したが、本実施形態では、画素シフトしつつ加算読み出しし、複数の推定画像を合成してより高精細な高解像フレーム画像を生成してもよい。図30、図31を用いて、この推定画素値の第6の推定手法について説明する。
図30に示すように、フレームfxにおいて受光値aij(x)が取得され、フレームfx+1において1画素シフトされた受光値ai+1,j(x+1)が取得される。そして、フレームfx+4において再び受光値aij(x)が取得される。次に、取得された受光値を用いて各フレームで補間処理と推定処理が行われ、各フレームにおける高解像推定画像が求められる。次に、4フレーム分(画素シフト1巡)の高解像推定画像に対して動き補償を行い、動き補償された4枚の高解像推定画像を合成して、最終的な高解像フレーム画像を出力する。高解像推定画像の合成は、例えば動き補償された4枚の高解像推定画像の各画素で平均を取る処理により行われる。この高解像フレーム画像は、4フレーム毎に出力されてもよく、各フレームで出力されてもよい。
図31に、この推定処理の詳細なフローチャートを示す。この処理が開始されると、処理対象のフレーム番号xにフレーム番号kを設定し(ステップS101)、低解像フレーム画像fxを取得する(ステップS102)。画像fxに対して1画素シフトされた画像fx_h、fx_v、fx_dを補間処理により求め(ステップS103~S105)、画像fx、fx_h、fx_v、fx_dに基づいて高解像推定画像Fxを推定する(ステップS106)。生成された高解像推定画像Fxが4つ未満の場合には(ステップS107、Yes)、フレーム番号xをインクリメントし(ステップS108)、ステップS102~S106の処理を繰り返す。
生成された高解像推定画像Fxが4つになると(ステップS107、No)、フレーム番号xにフレーム番号kを再び設定する(ステップS109)。そして、高解像推定画像Fxを基準として、高解像推定画像Fx+1、Fx+2、Fx+3に対して動き補償を行う(ステップS110~S112)。動き補償された高解像推定画像Fx、Fx+1、Fx+2、Fx+3を合成して高解像フレーム画像Gxを出力する(ステップS113)。その高解像フレーム画像Gxを記憶装置に記憶したり、表示装置に表示し(ステップS114)、処理を終了する。
上記推定手法によれば、受光単位を重畳しながらシフトする画素シフトが各フレームfx、fx+1、・・・で行われ、画素シフトにより受光単位が複数のポジションaij(x)、ai+1,j(x+1)、・・・に順次設定される。複数のフレーム(fx~fx+3の4フレーム)毎に受光単位が同じポジションaij(x)、aij(x+4)に設定される。
そして、補間処理部(例えば図11に示す補間処理部200)は、各フレームで取得された低解像フレーム画像に基づいて、各フレームにおいて仮想受光単位の受光値ai+1,j(x)、ai+2,j(x+1)、・・・を補間処理により求める。推定演算部(画素値推定演算部210)は、受光単位の受光値と仮想受光単位の受光値に基づいて、各フレームにおいて推定画素値vij(x)、vij(x+1)、・・・を推定する。画像出力部(画像出力部300)は、推定画素値vij(x)、vij(x+1)、・・・に基づいて各フレームでのフレーム画像(高解像推定画像)を求め、複数のフレーム(fx~fx+3)のフレーム画像を合成して高解像フレーム画像を出力する。
このようにすれば、各フレームで画素シフトしつつ取得された複数の低解像フレーム画像から高解像フレーム画像が推定される。これにより、画素シフトによる高周波成分を加えることができるため、画素シフトしない場合に比べて画像の高周波成分の再現性を向上できる。
12.推定画素値の第7の推定手法
上記実施形態では、受光単位が複数の画素を含み、その受光値から撮像素子の解像度相当の画像を推定する場合について説明したが、本実施形態では、受光単位が1画素に設定され、撮像素子の解像度より高解像(高画素数)の画像を推定してもよい。図32(A)図32(B)を用いて、この推定画素値の第7の推定手法について説明する。
上記実施形態では、受光単位が複数の画素を含み、その受光値から撮像素子の解像度相当の画像を推定する場合について説明したが、本実施形態では、受光単位が1画素に設定され、撮像素子の解像度より高解像(高画素数)の画像を推定してもよい。図32(A)図32(B)を用いて、この推定画素値の第7の推定手法について説明する。
図32(A)に示すように、撮像素子の画素ピッチはpであり、受光単位は1画素毎にピッチpで設定される。すなわち、受光単位の受光値は、その受光単位に設定された画素の画素値である。この受光単位から受光値a00が読み出され、補間処理により仮想受光単位の受光値a10、a01、a11が求められる。そして、これらの受光値a00、a10、a01、a11から、ピッチp/2の画素に対応する推定画素値が推定され、高解像フレーム画像が求められる。例えば、この高解像化処理は、デジタルズーム画像やトリミング画像の高精細化への適用が想定される。
図32(B)に、中間画素の説明図を示す。図32(B)に示すように、受光値a00~a11から中間画素値b00~b21を推定する。この中間画素値b00~b21の水平方向(または垂直方向)の画素ピッチはp/2である。中間画素値b00~b21の推定処理や、最終的な推定画素値の推定処理は、上述の推定手法と同様の手法により行われる。
13.撮像装置と画像処理装置の第3の構成例
図33に、デジタルズーム画像の高精細化を行う場合の撮像装置と画像処理装置の第3の構成例を示す。この撮像装置10は、撮像光学系100、光学ローパスフィルタ110、撮像素子120、読み出し制御部130、データ記録部140、表示処理部150、モニター表示部160、フレームバッファ180、ズーム領域選択部195を含む。画像処理装置20は、補間処理部200、画素値推定演算部210、画像出力部300を含む。画像出力部300は、アンチエリアシングフィルタ220,250、ローパスフィルタ230、アンダーサンプリング部240を含む。なお、図11等で説明した構成要素と同一の構成要素には同一の符号を付し、適宜説明を省略する。
図33に、デジタルズーム画像の高精細化を行う場合の撮像装置と画像処理装置の第3の構成例を示す。この撮像装置10は、撮像光学系100、光学ローパスフィルタ110、撮像素子120、読み出し制御部130、データ記録部140、表示処理部150、モニター表示部160、フレームバッファ180、ズーム領域選択部195を含む。画像処理装置20は、補間処理部200、画素値推定演算部210、画像出力部300を含む。画像出力部300は、アンチエリアシングフィルタ220,250、ローパスフィルタ230、アンダーサンプリング部240を含む。なお、図11等で説明した構成要素と同一の構成要素には同一の符号を付し、適宜説明を省略する。
図33に示すように、読み出し制御部130により受光単位が1画素に設定され、撮像素子120(例えば12メガピクセル)の画素値が読み出され、撮像画像(12Mピクセル)が取得される。撮像画像に対してズーム領域が設定され、そのズーム領域の画像(3メガピクセル)が低解像フレーム画像として取得される。このズーム領域は、例えば図示しないユーザインターフェースを介してユーザにより選択される。低解像フレーム画像は、データ記録部140に記憶される。データ記録部140から読み出された低解像フレーム画像に対して補間処理と推定処理が行われ、推定画像(12メガピクセル)が求められる。そして、画像出力部300により推定画像から高精細静止画(12メガピクセル)やハイビジョン動画(2メガピクセル)が生成される。
なお、上記のように本実施形態について詳細に説明したが、本発明の新規事項および効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本発明の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義又は同義な異なる用語(受光単位、仮想受光単位、中間画素値等)と共に記載された用語(加算画素値、補間受光単位、中間推定画素値等)は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。また補間処理部、推定演算部、画像出力部、撮像装置、画像処理装置等の構成、動作も本実施形態で説明したものに限定に限定されず、種々の変形実施が可能である。
10 撮像装置、20 画像処理装置、100 撮像光学系、
110 光学ローパスフィルタ、120 撮像素子、
130 画素加算処理部、140 データ記録部、
150 表示処理部、160 モニター表示部、
170 ベイヤ補間処理部、180 フレームバッファ、
190 データ圧縮処理部、195 ズーム領域選択部、
200 補間処理部、210 画素値推定演算部、
220 アンチエリアシングフィルタ、230 ローパスフィルタ、
240 アンダーサンプリング部、250 アンチエリアシングフィルタ、
260 データ伸張処理部、270 フレームバッファ、
280 フレーム選択部、290 推定用画素加算抽出部、
300 画像出力部、310 アンダーサンプリング部、
320 アンチエリアシングフィルタ、330 ベイヤ補間処理部、
Bk00 推定処理ブロック、a00 受光単位の受光値、
a10,a01,a11 仮想受光単位の受光値、bij 中間画素値、
vij 推定画素値、δi0 差分値、Ei 評価関数、
w0,w1,w2 重み係数、fx フレーム、p 画素ピッチ
110 光学ローパスフィルタ、120 撮像素子、
130 画素加算処理部、140 データ記録部、
150 表示処理部、160 モニター表示部、
170 ベイヤ補間処理部、180 フレームバッファ、
190 データ圧縮処理部、195 ズーム領域選択部、
200 補間処理部、210 画素値推定演算部、
220 アンチエリアシングフィルタ、230 ローパスフィルタ、
240 アンダーサンプリング部、250 アンチエリアシングフィルタ、
260 データ伸張処理部、270 フレームバッファ、
280 フレーム選択部、290 推定用画素加算抽出部、
300 画像出力部、310 アンダーサンプリング部、
320 アンチエリアシングフィルタ、330 ベイヤ補間処理部、
Bk00 推定処理ブロック、a00 受光単位の受光値、
a10,a01,a11 仮想受光単位の受光値、bij 中間画素値、
vij 推定画素値、δi0 差分値、Ei 評価関数、
w0,w1,w2 重み係数、fx フレーム、p 画素ピッチ
Claims (17)
- 受光値を取得する単位である受光単位が撮像素子に設定され、前記受光単位の受光値が読み出されて低解像フレーム画像が取得される場合に、取得された前記低解像フレーム画像を記憶する記憶部と、
前記受光単位のポジションからシフトされたポジションに前記受光単位に重畳して設定される仮想受光単位の受光値を、前記低解像フレーム画像の前記受光単位の受光値に基づく補間処理により求める補間処理部と、
前記受光単位の受光値と前記仮想受光単位の受光値に基づいて、前記低解像フレーム画像の画素ピッチよりも小さい画素ピッチの推定画素値を推定する推定演算部と、
前記推定演算部により推定された画素値に基づいて、前記低解像フレーム画像よりも高解像度の高解像フレーム画像を出力する画像出力部と、
を含むことを特徴とする画像処理装置。 - 請求項1において、
前記推定演算部は、
第1のポジションに設定された前記受光単位または前記仮想受光単位のいずれかである第1の受光単位と、前記第1の受光単位に重畳する第2のポジションに設定された前記仮想受光単位である第2の受光単位との差分値を求め、前記差分値に基づいて前記推定画素値を推定することを特徴とする画像処理装置。 - 請求項2において、
前記推定演算部は、
前記第1の受光単位から重畳領域を除いた第1の受光領域の受光値である第1の中間画素値と、前記第2の受光単位から前記重畳領域を除いた第2の受光領域の受光値である第2の中間画素値との関係式を、前記差分値を用いて表し、
前記関係式を用いて前記第1、第2の中間画素値を推定し、推定した前記第1の中間画素値を用いて前記推定画素値を求めることを特徴とする画像処理装置。 - 請求項3において、
前記推定演算部は、
前記第1、第2の中間画素値を含む連続する中間画素値を中間画素値パターンとする場合に、前記中間画素値パターンに含まれる中間画素値間の関係式を、前記受光単位の受光値及び前記仮想受光単位の受光値を用いて表し、
前記関係式で表された前記中間画素値パターンを、前記受光単位の受光値及び前記仮想受光単位の受光値で表される受光値パターンと比較して類似性を評価し、
前記類似性の評価結果に基づいて、前記類似性が最も高くなるように前記中間画素値パターンに含まれる中間画素値を決定することを特徴とする画像処理装置。 - 請求項4において、
前記推定演算部は、
前記関係式で表された前記中間画素値パターンと、前記受光値パターンとの誤差を表す評価関数を求め、前記評価関数の値が最小となるように前記中間画素値パターンに含まれる中間画素値を決定することを特徴とする画像処理装置。 - 請求項1乃至5のいずれかにおいて、
前記補間処理部は、
前記低解像フレーム画像に含まれる前記受光単位の受光値のうち、前記仮想受光単位の周辺の複数の受光単位の受光値を重み付け加算して前記仮想受光単位の受光値を求めることを特徴とする画像処理装置。 - 請求項1乃至5のいずれかにおいて、
前記受光単位が前記撮像素子の複数の画素毎に設定される場合に、前記受光単位の各画素値が加算されて前記受光単位の受光値として読み出され、
前記推定演算部は、
加算読み出しにより得られた前記受光単位の受光値に基づいて、前記受光単位の各画素の画素値を推定することを特徴とする画像処理装置。 - 請求項1乃至5のいずれかにおいて、
前記受光単位が前記撮像素子の複数の画素毎に設定される場合に、前記受光単位の各画素値が重み付け加算されて前記受光単位の受光値として読み出され、
前記推定演算部は、
重み付け加算読み出しにより得られた前記受光単位の受光値に基づいて、前記受光単位の各画素の画素値を推定することを特徴とする画像処理装置。 - 請求項1乃至5のいずれかにおいて、
前記撮像素子がカラー撮像素子であり、隣接する複数の画素が、画素の色に依らず前記受光単位に設定され、前記受光単位に設定された前記複数の画素の画素値が加算されて読み出されて前記低解像度フレーム画像が取得され、
前記推定演算部は、
前記低解像度フレーム画像の前記受光単位の受光値と、前記補間処理部からの前記仮想受光単位の受光値とに基づいて前記受光単位の各画素の画素値を推定し、
前記画像出力部は、
前記推定演算部により推定された画素値に基づいて、カラーの前記高解像フレーム画像を出力することを特徴とする画像処理装置。 - 請求項1乃至5のいずれかにおいて、
前記撮像素子がカラー撮像素子であり、同じ色の複数の画素が前記受光単位に設定され、前記受光単位に設定された前記複数の画素の画素値が加算されて読み出され、前記低解像度フレーム画像が取得され、
前記推定演算部は、
前記低解像度フレーム画像の前記受光単位の受光値と、前記補間処理部からの前記仮想受光単位の受光値とに基づいて前記受光単位の各画素の画素値を推定し、
前記画像出力部は、
前記推定演算部により推定された画素値に基づいて、カラーの前記高解像フレーム画像を出力することを特徴とする画像処理装置。 - 請求項1乃至5のいずれかにおいて、
前記受光単位がN×N画素に設定され、前記N×N画素の画素値が加算されて読み出されてN×N画素の受光単位の受光値が取得される場合に、
前記補間処理部は、
前記N×N画素の受光単位がN/2画素だけシフトされたN×N画素の仮想受光単位の受光値を補間処理により求め、
前記推定演算部は、
前記N×N画素の受光単位の受光値と前記N×N画素の仮想受光単位の受光値に基づいて、N/2×N/2画素の受光単位の受光値を推定し、
前記補間処理部は、
前記N/2×N/2画素の受光単位がN/4画素だけシフトされたN/2×N/2画素の仮想加算画素の画素値を補間処理により求め、
前記推定演算部は、
前記N/2×N/2画素の受光単位の受光値と前記N/2×N/2画素の仮想受光単位の受光値に基づいて、N/4×N/4画素の受光単位の受光値を推定することを特徴とする画像処理装置。 - 請求項1乃至5のいずれかにおいて、
前記受光単位を重畳しながらシフトする画素シフトが各フレームで行われ、前記画素シフトにより前記受光単位が複数のポジションに順次設定され、複数のフレーム毎に前記受光単位が同じポジションに設定される場合に、
前記補間処理部は、
前記各フレームで取得された前記低解像フレーム画像に基づいて、前記各フレームにおいて前記仮想受光単位の受光値を補間処理により求め、
前記推定演算部は、
前記受光単位の受光値と前記仮想受光単位の受光値に基づいて、前記各フレームにおいて前記推定画素値を推定し、
前記画像出力部は、
前記推定画素値に基づいて前記各フレームでのフレーム画像を求め、前記複数のフレームの前記フレーム画像を合成して前記高解像フレーム画像を出力することを特徴とする画像処理装置。 - 請求項1乃至5のいずれかにおいて、
前記画像出力部は、
前記高解像フレーム画像を解像度変換してハイビジョン動画として出力し、または前記高解像フレーム画像を高解像静止画として出力することを特徴とする画像処理装置。 - 撮像素子と、
受光値を取得する単位である受光単位を前記撮像素子に設定し、前記受光単位の受光値を読み出して低解像フレーム画像を取得する読み出し制御部と、
前記読み出し制御部により取得された前記低解像フレーム画像を記憶する記憶部と、
前記受光単位のポジションからシフトされたポジションに前記受光単位に重畳して設定される仮想受光単位の受光値を、前記低解像フレーム画像の前記受光単位の受光値に基づく補間処理により求める補間処理部と、
前記受光単位の受光値と前記仮想受光単位の受光値に基づいて、前記低解像フレーム画像の画素ピッチよりも小さい画素ピッチの推定画素値を推定する推定演算部と、
前記推定演算部により推定された画素値に基づいて、前記低解像フレーム画像よりも高解像度の高解像フレーム画像を出力する画像出力部と、
を含むことを特徴とする撮像装置。 - 請求項14において、
表示部と、
前記表示部に画像を表示する制御を行う表示制御部と、
を含み、
前記画像出力部は、
前記高解像フレーム画像を解像度変換してハイビジョン動画として出力し、または前記高解像フレーム画像を高解像静止画として出力し、
前記表示制御部は、
前記低解像フレーム画像による動画を表示する制御と、前記ハイビジョン動画を表示する制御と、前記高解像静止画を表示する制御と、を行うことを特徴とする撮像装置。 - 受光値を取得する単位である受光単位が撮像素子に設定され、前記受光単位の受光値が読み出されて低解像フレーム画像が取得される場合に、取得された前記低解像フレーム画像を記憶する記憶部と、
前記受光単位のポジションからシフトされたポジションに前記受光単位に重畳して設定される仮想受光単位の受光値を、前記低解像フレーム画像の前記受光単位の受光値に基づく補間処理により求める補間処理部と、
前記受光単位の受光値と前記仮想受光単位の受光値に基づいて、前記低解像フレーム画像の画素ピッチよりも小さい画素ピッチの推定画素値を推定する推定演算部と、
前記推定演算部により推定された画素値に基づいて、前記低解像フレーム画像よりも高解像度の高解像フレーム画像を出力する画像出力部として、
コンピュータを機能させることを特徴とするプログラム。 - 受光値を取得する単位である受光単位が撮像素子に設定され、前記受光単位の受光値が読み出されて低解像フレーム画像が取得される場合に、取得された前記低解像フレーム画像を記憶し、
前記受光単位のポジションからシフトされたポジションに前記受光単位に重畳して設定される仮想受光単位の受光値を、前記低解像フレーム画像の前記受光単位の受光値に基づく補間処理により求め、
前記受光単位の受光値と前記仮想受光単位の受光値に基づいて、前記低解像フレーム画像の画素ピッチよりも小さい画素ピッチの推定画素値を推定し、
前記推定演算部により推定された画素値に基づいて、前記低解像フレーム画像よりも高解像度の高解像フレーム画像を出力することを特徴とする画像処理方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP11786460.3A EP2579206A1 (en) | 2010-05-26 | 2011-05-02 | Image processing device, image capturing device, program and image processing method |
CN2011800257994A CN103109305A (zh) | 2010-05-26 | 2011-05-02 | 图像处理装置、摄像装置、程序和图像处理方法 |
US13/685,058 US20130083220A1 (en) | 2010-05-26 | 2012-11-26 | Image processing device, imaging device, information storage device, and image processing method |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010-120325 | 2010-05-26 | ||
JP2010120325A JP2011248576A (ja) | 2010-05-26 | 2010-05-26 | 画像処理装置、撮像装置、プログラム及び画像処理方法 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
US13/685,058 Continuation US20130083220A1 (en) | 2010-05-26 | 2012-11-26 | Image processing device, imaging device, information storage device, and image processing method |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2011148760A1 true WO2011148760A1 (ja) | 2011-12-01 |
Family
ID=45003752
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2011/060501 WO2011148760A1 (ja) | 2010-05-26 | 2011-05-02 | 画像処理装置、撮像装置、プログラム及び画像処理方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20130083220A1 (ja) |
EP (1) | EP2579206A1 (ja) |
JP (1) | JP2011248576A (ja) |
CN (1) | CN103109305A (ja) |
WO (1) | WO2011148760A1 (ja) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5220777B2 (ja) * | 2010-01-21 | 2013-06-26 | オリンパス株式会社 | 画像処理装置、撮像装置、プログラム及び画像処理方法 |
JP2012060434A (ja) * | 2010-09-09 | 2012-03-22 | Fuji Xerox Co Ltd | 画素補間装置、画像読取装置、及び画素補間プログラム |
JP6390097B2 (ja) * | 2013-12-25 | 2018-09-19 | 株式会社ニコン | 画像再生装置および撮像装置 |
KR20160141572A (ko) * | 2015-06-01 | 2016-12-09 | 삼성전자주식회사 | 이미지를 촬영하는 전자 장치 및 방법 |
CN106504218B (zh) | 2016-11-29 | 2019-03-12 | Oppo广东移动通信有限公司 | 控制方法、控制装置及电子装置 |
CN106341670B (zh) | 2016-11-29 | 2017-09-22 | 广东欧珀移动通信有限公司 | 控制方法、控制装置及电子装置 |
CN106454054B (zh) | 2016-11-29 | 2019-03-19 | Oppo广东移动通信有限公司 | 控制方法、控制装置及电子装置 |
CN106507068B (zh) | 2016-11-29 | 2018-05-04 | 广东欧珀移动通信有限公司 | 图像处理方法及装置、控制方法及装置、成像及电子装置 |
CN106454288B (zh) * | 2016-11-29 | 2018-01-19 | 广东欧珀移动通信有限公司 | 控制方法、控制装置、成像装置及电子装置 |
CN106604001B (zh) * | 2016-11-29 | 2018-06-29 | 广东欧珀移动通信有限公司 | 图像处理方法、图像处理装置、成像装置及电子装置 |
JP7159057B2 (ja) * | 2017-02-10 | 2022-10-24 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 自由視点映像生成方法及び自由視点映像生成システム |
US20210144483A1 (en) * | 2019-11-07 | 2021-05-13 | Innovative Interface Laboratory Corp. | Single-axis actuator, acoustic wave generator and its array |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11187307A (ja) * | 1997-12-17 | 1999-07-09 | Canon Inc | 撮像装置及び撮像方法 |
JP2001344229A (ja) * | 2000-06-01 | 2001-12-14 | Ricoh Co Ltd | 補間処理装置、補間処理方法およびその方法をコンピュータに実行させるプログラムを格納したコンピュータが読み取り可能な記録媒体 |
JP2003101724A (ja) * | 2001-09-25 | 2003-04-04 | Konica Corp | 画像読取装置及び画像形成装置 |
WO2004088992A1 (ja) * | 2003-03-28 | 2004-10-14 | Olympus Corporation | 画像処理装置及び画像処理プログラム |
JP2006050481A (ja) * | 2004-08-09 | 2006-02-16 | Fuji Xerox Co Ltd | 画像処理装置、画像処理方法及びそのプログラム |
JP2007060437A (ja) * | 2005-08-25 | 2007-03-08 | Canon Inc | 記録再生装置、記録再生方法、及びコンピュータプログラム |
JP2008060893A (ja) * | 2006-08-31 | 2008-03-13 | Dainippon Printing Co Ltd | 補間演算装置 |
JP2008199581A (ja) * | 2007-01-17 | 2008-08-28 | Sony Corp | 固体撮像装置、撮像装置 |
JP2008243037A (ja) | 2007-03-28 | 2008-10-09 | National Univ Corp Shizuoka Univ | 画像処理装置、画像処理方法および画像処理プログラム |
JP2009124621A (ja) | 2007-11-19 | 2009-06-04 | Sanyo Electric Co Ltd | 超解像処理装置及び方法並びに撮像装置 |
-
2010
- 2010-05-26 JP JP2010120325A patent/JP2011248576A/ja not_active Withdrawn
-
2011
- 2011-05-02 EP EP11786460.3A patent/EP2579206A1/en not_active Withdrawn
- 2011-05-02 CN CN2011800257994A patent/CN103109305A/zh active Pending
- 2011-05-02 WO PCT/JP2011/060501 patent/WO2011148760A1/ja active Application Filing
-
2012
- 2012-11-26 US US13/685,058 patent/US20130083220A1/en not_active Abandoned
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11187307A (ja) * | 1997-12-17 | 1999-07-09 | Canon Inc | 撮像装置及び撮像方法 |
JP2001344229A (ja) * | 2000-06-01 | 2001-12-14 | Ricoh Co Ltd | 補間処理装置、補間処理方法およびその方法をコンピュータに実行させるプログラムを格納したコンピュータが読み取り可能な記録媒体 |
JP2003101724A (ja) * | 2001-09-25 | 2003-04-04 | Konica Corp | 画像読取装置及び画像形成装置 |
WO2004088992A1 (ja) * | 2003-03-28 | 2004-10-14 | Olympus Corporation | 画像処理装置及び画像処理プログラム |
JP2006050481A (ja) * | 2004-08-09 | 2006-02-16 | Fuji Xerox Co Ltd | 画像処理装置、画像処理方法及びそのプログラム |
JP2007060437A (ja) * | 2005-08-25 | 2007-03-08 | Canon Inc | 記録再生装置、記録再生方法、及びコンピュータプログラム |
JP2008060893A (ja) * | 2006-08-31 | 2008-03-13 | Dainippon Printing Co Ltd | 補間演算装置 |
JP2008199581A (ja) * | 2007-01-17 | 2008-08-28 | Sony Corp | 固体撮像装置、撮像装置 |
JP2008243037A (ja) | 2007-03-28 | 2008-10-09 | National Univ Corp Shizuoka Univ | 画像処理装置、画像処理方法および画像処理プログラム |
JP2009124621A (ja) | 2007-11-19 | 2009-06-04 | Sanyo Electric Co Ltd | 超解像処理装置及び方法並びに撮像装置 |
Also Published As
Publication number | Publication date |
---|---|
JP2011248576A (ja) | 2011-12-08 |
EP2579206A1 (en) | 2013-04-10 |
US20130083220A1 (en) | 2013-04-04 |
CN103109305A (zh) | 2013-05-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2011148760A1 (ja) | 画像処理装置、撮像装置、プログラム及び画像処理方法 | |
JP5220777B2 (ja) | 画像処理装置、撮像装置、プログラム及び画像処理方法 | |
US9325918B2 (en) | Image processing apparatus, imaging apparatus, solid-state imaging device, image processing method and program | |
JP5341010B2 (ja) | 画像処理装置、撮像装置、プログラム及び画像処理方法 | |
JP5306563B2 (ja) | 撮像装置及び画像生成方法 | |
JP4327246B2 (ja) | 多色画像処理装置及び信号処理装置 | |
JP2009194896A (ja) | 画像処理装置及び方法並びに撮像装置 | |
WO2004068862A1 (ja) | 高解像度カラー画像生成方法,高解像度カラー画像生成装置及び高解像度カラー画像生成プログラム | |
JP2006203463A (ja) | 画像表示方法、画像撮像方法、及び画像合成方法 | |
Hore et al. | An edge-sensing generic demosaicing algorithm with application to image resampling | |
JP2008293185A (ja) | 画像処理装置又は画像処理プログラム | |
WO2012147523A1 (ja) | 撮像装置及び画像生成方法 | |
US20130155272A1 (en) | Image processing device, imaging device, and image processing method | |
JP2009273072A (ja) | 高精細画像処理装置、高精細画像処理方法、およびプログラム | |
JP2012142676A (ja) | 撮像装置及び画像生成方法 | |
WO2012147630A1 (ja) | 撮像装置及び画像生成方法 | |
JPWO2015083502A1 (ja) | 画像処理装置、該方法および該プログラム | |
JP2012253490A (ja) | 固体撮像装置、撮像装置及び画像生成方法 | |
JP2012099870A (ja) | 撮像装置及び撮像方法 | |
JP2013125999A (ja) | 画像処理装置、撮像装置及び画像処理方法 | |
WO2012147631A1 (ja) | 撮像装置及び画像生成方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
WWE | Wipo information: entry into national phase |
Ref document number: 201180025799.4 Country of ref document: CN |
|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 11786460 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
WWE | Wipo information: entry into national phase |
Ref document number: 2011786460 Country of ref document: EP |