WO2005122083A1 - 撮像装置および画像の高解像度化方法 - Google Patents

撮像装置および画像の高解像度化方法 Download PDF

Info

Publication number
WO2005122083A1
WO2005122083A1 PCT/JP2005/010992 JP2005010992W WO2005122083A1 WO 2005122083 A1 WO2005122083 A1 WO 2005122083A1 JP 2005010992 W JP2005010992 W JP 2005010992W WO 2005122083 A1 WO2005122083 A1 WO 2005122083A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
resolution
estimating
frames
unit
Prior art date
Application number
PCT/JP2005/010992
Other languages
English (en)
French (fr)
Inventor
Tomoyuki Nakamura
Takahiro Yano
Original Assignee
Olympus Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corporation filed Critical Olympus Corporation
Priority to US11/628,910 priority Critical patent/US20070177027A1/en
Publication of WO2005122083A1 publication Critical patent/WO2005122083A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • G06T3/4061Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution by injecting details from different spectral ranges

Definitions

  • the present invention relates to an imaging apparatus and an image resolution increasing method for efficiently acquiring a high resolution image from a plurality of low resolution images.
  • an imaging method for generating a high-resolution image by synthesizing images having misalignment of a plurality of frames has been proposed.
  • the displacement between the low-resolution images is detected with an accuracy of less than a pixel unit (in the specification of the present invention, this is sometimes referred to as a subpixel).
  • the present invention has been made in view of the above-described problems, and calculates an amount of displacement between images (hereinafter referred to as motion) by separating images into bands, and performs high-resolution processing. It is an object of the present invention to provide an imaging device and a method for increasing the resolution of an image, which are configured to efficiently perform image processing. Disclosure of the invention
  • An imaging apparatus that electronically obtains an image of a subject, comprising: an optical imaging unit that forms an image of the subject; Means for spatially discretizing an image formed as a spatial image and converting the image signal into a sampled image signal; means for separating the sampled image signal into image signals of a plurality of components according to a spatial frequency; Means for performing interpolation and enlarging processing on low-frequency component images separated by spatial frequency, means for estimating the relative displacement of the subject between each frame, and high-resolution images from multiple frames Means for selecting a frame to be subjected to estimation processing; high-resolution image estimating means for estimating a high-resolution image from high-frequency component images separated from image signals of a plurality of frames; And high-resolution image estimation Means for synthesizing the processed image.
  • the invention of (1) corresponds to the first embodiment shown in FIG.
  • the “optical imaging means for forming an image of a subject” corresponds to the optical system 101.
  • the “means for spatially discretizing an optically formed image and converting it into a sampled image signal” corresponds to the imager 102.
  • the “means for separating a sampled image signal into image signals of a plurality of components by a spatial frequency” corresponds to the band separation processing unit 105.
  • the “means for performing the interpolation enlargement processing on the low-frequency component image separated by the spatial frequency” corresponds to the interpolation enlargement processing unit 109.
  • the “means for estimating the relative displacement of the subject between the frames” corresponds to the motion estimation unit 107.
  • the “means for selecting a frame for performing high-resolution image estimation processing from a plurality of frames” corresponds to the super-resolution target frame selection unit 106.
  • the high-resolution image estimating unit 108 corresponds to “high-resolution image estimating means for estimating a high-resolution image from high-frequency component images respectively separated from image signals of a plurality of frames”.
  • ⁇ Interpolation expansion Means for synthesizing the processed image and the image subjected to the high-resolution image estimation processing corresponds to the synthesis operation processing unit 110.
  • the high-resolution image estimating means performs processing on the image signal that has passed through the means for separating the sampled image signal into a plurality of component image signals based on the spatial frequency. Is going. For this reason, it is not necessary to perform high-resolution image estimation processing with a heavy calculation load on all image data, and the amount of calculation can be reduced, so that the processing can be sped up.
  • the sampled image signal is input to a means for estimating a relative displacement of a subject between the frames.
  • the invention of (2) corresponds to a modification of the first embodiment shown in FIG. That is, as shown in FIG. 7, the means for estimating the relative displacement of the subject between the frames (motion estimation unit 107) includes the image sampled by imager 102. The signal is input before band separation by the band separation processing unit 105. Therefore, the relative displacement of the subject between the frames can be estimated for all of the high-frequency components and low-frequency components of the image signal sampled by the imager 102. Therefore, the accuracy of displacement estimation can be improved.
  • the means for estimating a relative displacement amount of the subject between the frames includes an image signal of at least one component separated into the image signals of the plurality of components. Is used to estimate the relative displacement of the object between frames.
  • the invention of (3) corresponds to the first embodiment shown in FIG.
  • At least one of the image signals separated into a plurality of components by the band separation processing unit 105 is input to the motion estimation unit 107, and the relative displacement of the subject between frames is input. Estimate the amount.
  • the band separation processing unit 105 An image signal of an appropriate component among the image signals separated into a plurality of components can be input to the motion estimating section 107 to estimate the relative displacement of the subject between the frames.
  • An imaging apparatus is an imaging apparatus for electronically obtaining an image of a subject, wherein the imaging apparatus optically forms an image of the subject.
  • High-resolution image estimating means for estimating a high-resolution image from the image signals of the plurality of image signals; and referring to at least one image signal of the image signals of the plurality of components separated by the spatial frequency to obtain image information.
  • Image to determine Information determining means and means for setting an area in the image using information of the image determined by the image information determining means, wherein the high-resolution image estimating means obtains information on the area in the image.
  • a high-resolution image is estimated using the image data.
  • the invention of (4) corresponds to the second embodiment shown in FIG.
  • the “optical imaging means for forming an image of a subject” corresponds to the optical system 101.
  • the “means for spatially discretizing an optically formed image and converting it into a sampled image signal” corresponds to the imager 102.
  • the “means for separating a sampled image signal into image signals of a plurality of components by a spatial frequency” corresponds to the band separation processing unit 105.
  • the “means for estimating the relative displacement of the subject between the frames” corresponds to the motion estimation unit 107.
  • the “image storage means for temporarily storing image signals” corresponds to the memory unit 113.
  • the “means for selecting a frame for performing high-resolution image estimation processing from a plurality of frames” corresponds to the super-resolution target frame selection unit 106.
  • the “high-resolution image estimating unit that estimates a high-resolution image from high-frequency components of image signals of a plurality of frames” corresponds to the high-resolution image estimating unit 108.
  • “Image information discriminating means for discriminating image information by referring to at least one image signal among a plurality of component image signals separated by the spatial frequency” and "Image information discriminating means.
  • the means for setting a region in an image using the information of the image "corresponds to the processing region determination unit 114.
  • the means for performing the interpolation enlargement processing on the low-frequency component of the image separated by the spatial frequency of the invention of (1), and determining the region for performing the high-resolution processing from the image signal Means and means for synthesizing the interpolated and enlarged image and the image subjected to the high-resolution image estimation processing become unnecessary, and the scale of the processing can be reduced.
  • the invention of (4) is characterized in that the image information discriminating means is means for extracting a high-frequency component of an image.
  • the processing area determining unit 114 corresponding to “image information determining means” determines information of only high frequency components in a field image separated into high frequency components and low frequency components. According to this configuration, the motion estimation is performed using only a part of the image that includes many high-frequency components, and the high-resolution image estimation calculation is performed using the motion as the motion of the entire image. be able to.
  • the processing area determining unit 114 corresponds to “image information determining means that refers to luminance information of at least one image signal among image signals of a plurality of components separated by the spatial frequency”. According to this configuration, it is possible to determine and cut out a region having a large number of high-frequency components from the luminance information, and send it to the motion estimating unit 107.
  • the method for increasing the resolution of an image according to the first embodiment of the present invention is as follows.
  • a method for increasing the resolution of a sampled image signal comprising the steps of separating the sampled image signal into image signals of a plurality of components according to a spatial frequency, and separating the sampled image signal into low-frequency signals separated by the spatial frequency.
  • a step of performing an interpolation enlargement process on the component image a step of estimating a relative displacement amount between the frames by a displacement amount estimating unit, and a frame performing a high-resolution image estimation process from a plurality of frames.
  • High-resolution image estimation for estimating a high-resolution image from high-frequency component images separated from image signals of multiple frames, and interpolation-enlarged image and high-resolution image estimation.
  • a step of synthesizing the processed image comprising the steps of separating the sampled image signal into image signals of a plurality of components according to a spatial frequency, and separating the sampled image signal into low-frequency signals separated by the spatial
  • the invention of (7) corresponds to a method for increasing the resolution of an image according to the configuration diagram of FIG.
  • the “step of separating a sampled image signal into image signals of a plurality of components according to a spatial frequency” corresponds to the processing by the band separation processing unit 105.
  • the “step of performing the interpolation enlargement processing on the low-frequency component image separated by the spatial frequency” corresponds to the processing by the interpolation enlargement processing unit 109.
  • the “step of estimating the relative displacement between frames by the displacement estimating means” corresponds to the processing by the motion estimating unit 107.
  • the “step of selecting a frame for performing high-resolution image estimation processing from a plurality of frames” corresponds to the processing by the super-resolution target frame selection unit 106.
  • the “step of high-resolution image estimation for estimating a high-resolution image from high-frequency component images separated from image signals of a plurality of frames” corresponds to the processing by the high-resolution image estimating unit 108.
  • the “step of synthesizing the interpolated and enlarged image and the image subjected to the high-resolution image estimation processing” corresponds to the processing by the synthesis operation processing unit 110.
  • the sampled image signal is input to displacement amount estimating means for estimating a relative displacement amount of a subject between the frames.
  • the invention (8) corresponds to a method for increasing the resolution of an image according to a modification of the first embodiment shown in FIG. According to this configuration, the accuracy of the displacement estimation can be improved when performing the high-resolution image estimation processing by software.
  • the step of estimating the relative displacement of the object between the frames includes at least one of the plurality of image signals separated into image signals. It is characterized by estimating the relative displacement of the subject between the frames using the image signal of the component.
  • the invention of (9) corresponds to the method of increasing the resolution of an image according to the configuration diagram of FIG. According to this configuration, when performing high-resolution image estimation processing by software, an image signal of an appropriate component among image signals separated into a plurality of components is compared with an image signal of an appropriate component in each frame. The relative displacement can be estimated.
  • the method for increasing the resolution of an image according to the second embodiment of the present invention is a method for increasing the resolution of a sampled image signal, wherein a plurality of sampled image signals are separated by a spatial frequency. Separating the image signal into the image signals of the components, estimating the relative displacement between the frames, temporarily storing the image signal in the image storage means, and selecting from the plurality of frames. Selecting a frame to be subjected to high-resolution image estimation processing; high-resolution image estimation for estimating a high-resolution image from image signals of a plurality of frames; and a plurality of components separated by the spatial frequency.
  • Determining at least one image signal of the image signals by referring to at least one of the image signals by the determining means; and setting an area in the image by the determining means.
  • the step of the high-resolution image estimation to estimate a high-resolution image using the information of the area in the image is characterized by that.
  • the invention of (10) corresponds to a method for increasing the resolution of an image according to the configuration diagram of the second embodiment shown in FIG.
  • the “step of separating the sampled image signal into image signals of a plurality of components according to the spatial frequency” corresponds to the processing by the band separation processing unit 105.
  • the “step of estimating the relative displacement between frames” corresponds to the processing by the motion estimating unit 107.
  • the “step of temporarily storing the image signal in the image storage unit” corresponds to the processing by the memory unit 113.
  • the “step of selecting a frame to be subjected to high-resolution image estimation processing from a plurality of frames” corresponds to the processing by the super-resolution target frame selection unit 106.
  • the “step of high-resolution image estimation for estimating a high-resolution image from image signals of a plurality of frames” corresponds to the processing by the high-resolution image estimating unit 108.
  • a step of referring to at least one image signal among the image signals of a plurality of components separated by the spatial frequency and discriminating image information by a discriminating means corresponds to the processing by the processing area determination unit 114.
  • the processing speed when the resolution of an image is increased by software can be further increased.
  • the invention of (10) is characterized in that, in the step of determining information of the image, a high-frequency component of the image is extracted. According to this configuration, when performing high-resolution image estimation processing by software, high-resolution image estimation calculation can be performed by motion estimation using only a part of the image that includes many high-frequency components. .
  • the step of determining the information of the image comprises: at least one image signal among image signals of a plurality of components separated by the spatial frequency.
  • the feature is to refer to the luminance information of This processing corresponds to the processing by the processing area determination unit 114.
  • FIG. 1 is a configuration diagram of the first embodiment.
  • FIG. 2 is a configuration diagram of the band processing unit.
  • FIG. 3 is an explanatory diagram showing an example of an image before band separation.
  • FIG. 4 is an explanatory diagram of an example in which a mouth-to-mouth filter process is performed on the image of FIG.
  • FIG. 5 is an explanatory diagram of an example in which the processes of 1052 and 1053 are performed on the image of FIG.
  • FIG. 6 is a characteristic diagram showing a histogram of the gradation of the image of FIG.
  • FIG. 7 is a configuration diagram of a modified example of the first embodiment of the present invention.
  • FIG. 8 is a flowchart of the motion estimation algorithm.
  • FIG. 9 is a conceptual diagram showing the estimation of the optimal similarity in the motion estimation.
  • FIG. 10 is a conceptual diagram of the high-resolution image calculation area determination.
  • FIG. 11 is a flowchart of the high-resolution image estimation processing algorithm.
  • FIG. 12 is a configuration diagram of the high-resolution image estimation calculation unit.
  • FIG. 13 is a configuration diagram of the synthesis operation processing unit.
  • FIG. 14 is a configuration diagram of the embodiment of the second invention. BEST MODE FOR CARRYING OUT THE INVENTION
  • FIG. 1 is a configuration diagram of the first embodiment.
  • the optical system 101 is an image
  • An optical image is formed on the jar 102, and the imager 102 converts the optically formed image into a sampled image signal by spatially discretizing the image.
  • the image signal sampled by the imager 102 is separated into a high-frequency component image and a low-frequency component image by a band separation processing unit 105 according to a spatial frequency.
  • the super-resolution processing is performed by a motion estimating unit 107 and a high-resolution image estimating unit 108 that estimates image data of a high-resolution pixel array.
  • the high-frequency component image is transmitted to motion estimating section 107 for performing super-resolution processing.
  • the super-resolution processing a plurality of images with misregistration at the sub-pixel level are taken, and these images are combined after canceling factors such as deterioration of the optical system, etc. This is a technique for forming a simple image.
  • the super-resolution target frame selection unit 106 selects a target frame for performing the super-resolution processing. From the low-frequency component images separated by the band separation processing unit 105, a frame corresponding to a target frame on which super-resolution processing is to be performed is selected and transmitted to the interpolation enlargement processing unit 109.
  • the interpolation enlargement processing unit 109 includes an interpolation process using, for example, pi cubic (bicubic), and performs an enlargement process of the low-frequency component image of the target frame.
  • the high-resolution image calculation area determination unit 112 includes the high-frequency component image output from the band separation processing unit 105 and the super-resolution objective From the frame information, the region in the image where the high-resolution image estimation calculation is performed is determined.
  • the high-resolution image estimation calculation unit 108 includes a plurality of motion information including motion information for each frame provided from the motion estimation unit 107 and calculation designation information for each region provided from the high-resolution image estimation calculation region determination unit 112. Performs high-resolution image estimation calculation from frame image data. As a result, the high-resolution image estimation calculation is performed only in the region having the high-frequency component.
  • the configuration of the combining operation processing unit 110 will be described later with reference to FIG. In the configuration shown in FIG.
  • the optical system 101 forms an optical image on the imager 102, and the imager 102 converts the optically formed image into a spatially discretized image signal.
  • the image signals are not limited to those obtained by the optical system 101 and the imager 102. It is also possible to adopt a configuration in which the resolution of an image is increased using a sampled image signal recorded on an appropriate recording medium or the like. In this case, the sampled image signal recorded on the recording medium or the like is input to the band separation processing unit 105 and the super-resolution target frame selection unit 106.
  • the configuration of FIG. 1 can implement the invention of the method for increasing the resolution of an image.
  • FIG. 2 is a configuration diagram showing an example of the configuration of the band separation processing unit 105 described in FIG.
  • the image signal output from the imager 102 is converted to a low-frequency image by a low-pass filter processing unit 1051, and the frame selected by the super-resolution target frame selection unit 106 in the low-frequency component image is interpolated and enlarged by the interpolation processing unit 109.
  • Output to The high-frequency component image is subjected to predetermined Pierce processing in the bias addition processing unit 1052 on the image obtained in the low-pass filter processing unit 1051, and a difference operation with the original image is performed in the difference operation processing unit 1053.
  • the bypass addition processing unit 1052 performs non-negative processing for storing an image of a high-frequency component in a memory having a predetermined unsigned bit width.
  • the bias addition processing unit 1052 receives the signal of the bias level and the signal of the low-pass filter 1051.
  • the signal of the bias addition processing unit 1052 and the image signal output by the imager 102 in FIG. 1 are input to the difference calculation processing unit 1053.
  • the difference calculation processing unit 1053 outputs the output signal of the imager 102 and the signal obtained by adding the bias signal to the signal obtained by passing the output signal of the imager 102 through the low-pass filter 1051.
  • the difference is output.
  • the output signal of the difference calculation processing unit 1053 is input to the motion estimation unit 107 in FIG. 1 as a high-frequency component image.
  • FIGS. 3 to 5 are explanatory diagrams showing examples of images in which band separation processing has been performed on the output signal of the imager 102 by the band separation processing unit 105.
  • FIG. Figure 4 shows an image obtained by performing low-pass filtering on the original image signal ( Figure 3). That is, the image of FIG. 4 is input to the interpolation enlargement processing unit 109 of FIG.
  • FIG. 5 shows a high-frequency component image obtained as a result of the processing performed by the bias addition processing 1052 and the difference calculation processing unit 1053 in FIG.
  • a histogram of the gradation of the image of FIG. 5 is shown in the characteristic diagram of FIG.
  • the horizontal axis represents an 8-bit image signal.
  • the frequency of the difference is expressed in% on the left axis of the vertical axis.
  • the right side of the vertical axis shows the accumulated value (absolute value) of the pixel frequency.
  • a peak value of the difference frequency is formed at 128 around the center of the 8-bit image signal.
  • 99.6% of the pixels are included in the 64 gradations between 96 and 160, and high-frequency component images can be represented by 6 bits.
  • FIG. 7 is a configuration diagram showing a modification of the first embodiment. Only the differences from Fig. 1 will be explained.
  • the signal of the imager 102 is directly input to the motion estimator 107. That is, regarding the motion estimation, the original image signal obtained by spatially discretizing and sampling the image optically formed by the imager 102 without using band separation as shown in FIG. 7 is used. May be.
  • the accuracy of the displacement estimation can be improved.
  • FIG. 8 is a flowchart showing details of the motion estimation algorithm.
  • S1 motion estimation.
  • S2 The reference image is deformed in multiple motions.
  • S3 Read one reference image for motion estimation with the reference image.
  • S4 Calculate the similarity value between the reference image and the image sequence obtained by deforming the reference image.
  • S5 A discrete similarity map is created using the relationship between the parameters of the deformation motion and the calculated similarity value.
  • S 6 By searching the extremum of the similarity map by complementing the discrete similarity map created in S 5, the extremum of the similarity map is obtained.
  • the deformation motion having the extreme value is the estimated motion.
  • Parabolic fitting, spline interpolation, etc. are used to search for extreme values in the similarity map.
  • S7 In all the reference images, it is determined whether or not motion estimation has been performed in all the target reference images.
  • S8 If the motion estimation has not been performed, the process returns to S3 and the reading process of the next image is continued. If motion estimation has been performed on all target reference images, the processing program ends.
  • FIG. 9 is a conceptual diagram showing the estimation of the optimal similarity in the motion estimation performed by motion estimation section 107 described in FIG. Fig. 9 shows an example in which motion estimation is performed by parabolic fitting using the three points of black circles.
  • the vertical axis represents the similarity
  • the horizontal axis represents the deformation motion parameters. The smaller the value on the vertical axis, the higher the similarity.
  • the gray circle with the minimum value on the vertical axis is the extreme value of the similarity.
  • FIG. 10 is a conceptual diagram illustrating a processing example of the high-resolution image calculation area determination unit 112 in FIG.
  • (a) shows the high-frequency component image output from the band separation processing unit 105
  • (b) shows the image obtained from the super-resolution target frame selection unit 106.
  • the high-resolution image calculation area determination unit 112 determines a high-resolution image estimation calculation area in the image from the area having the high-frequency component of (b), and determines the level of “1” in (c) from this area. Generate pixel information. By such a process, the high-resolution image estimation calculation is performed only in the region having the high-frequency component.
  • FIG. 11 is a flowchart showing an algorithm of the high-resolution image estimation processing.
  • Start the processing program S11: Reads n low-resolution images for use in high-resolution image estimation (n ⁇ l).
  • S12 An initial high-resolution image is created by assuming an arbitrary one of a plurality of low-resolution images as a target frame and performing interpolation processing. This step can be optionally omitted.
  • S13 The positional relationship between images is clarified by the motion between the target frame and the images of other frames, which is obtained in advance by some motion estimation method.
  • S14 Obtain a point spread function (PSF: Point Spread Function) that takes into account the optical transfer function (0TF) and imaging characteristics such as the CCD aperture.
  • PSF Point Spread Function
  • PSF uses the Gauss function, for example.
  • S15 Minimize the evaluation function f (z) based on the information of S3 and S4.
  • f (z) is expressed by the following equation. Hmm
  • y is a low-resolution image
  • z is a high-resolution image
  • A is an image conversion matrix representing an imaging system including motion between images, PSF, and the like.
  • g (z) contains constraints such as smoothness of images and color correlation. Is a weighting factor. For example, the steepest descent method is used to minimize the evaluation function.
  • S16 When f (z) obtained in S15 is minimized, the processing ends and a high-resolution image z is obtained.
  • S 17 If f (z) has not been minimized yet, update the high-resolution image z and return to the processing of S 13.
  • FIG. 12 is a configuration diagram of the high-resolution image estimation calculation unit 108 shown in FIG.
  • the high-resolution image estimation processing unit 108 includes an initial image creation unit 1201, a convolution integration unit 1202, a PSF data holding unit 1203, an image comparison unit 1204, a multiplication unit 1205, a combination addition unit 1206, a storage addition unit 1207, and an update image generation. It comprises a unit 1208, an image storage unit 1209, an iterative operation determination unit 1210, and an iterative determination value holding unit 1211.
  • the portion surrounded by a broken line in FIG. 12 is a minimization processing unit 1212 corresponding to the configuration for performing the process of minimizing the evaluation function f (z) described in S15 of FIG.
  • PSF data is data of point spread function.
  • high-frequency image information of a target frame is provided to the initial image creating unit 1201 from the high-resolution image estimation calculation region determining unit 112 of FIG. 1, and the image information given here is interpolated and enlarged, and this is initialized. It becomes an image.
  • This initial image is supplied to the convolution integrator 1202, and is convolved with the PSF data transmitted from the PSF data storage 1203.
  • the PSF data here is given in consideration of the motion of each frame.
  • the initial image data is sent to the image storage unit 1209 at the same time, and is stored in the image storage unit 1209.
  • the image data convolved by the integration unit 1202 is sent to the image comparison unit 1204, and the high-resolution image estimation calculation is performed at an appropriate coordinate position based on the motion of each frame obtained by the motion estimation unit. Captured image and ratio given by area determination unit 1 12
  • the residuals compared by the image comparison unit 1204 are sent to the multiplication unit 1205 and multiplied by the value of each pixel of the PSF data supplied from the PSF data holding unit 1203.
  • the result of this calculation is sent to the combining and adding unit 1206, and is arranged at the corresponding coordinate position.
  • the image data from the multiplying unit 1205 has an overlap and the coordinate position shifts little by little while overlapping, the overlapping portion is added by the combination adding unit 1206.
  • the data is sent to the accumulation adding unit 1207.
  • the accumulating and adding unit 1207 sends the data sequentially until the processing for the number of frames is completed.
  • the image data for each frame is sequentially added according to the estimated motion.
  • the image data added by the accumulation adding unit 1207 is sent to the updated image generating unit 1208.
  • the image data stored in the image storage unit 1209 is given to the update image generation unit 1208, and the two image data are weighted and added to generate the update image data.
  • the generated updated image data is provided to an iterative operation determination unit 1210, and determines whether to repeat the operation based on the iterative determination value provided from the iterative determination value holding unit 1211.
  • the data is sent to the convolution integrator 1202, and the above series of processing is repeated.
  • the generated image data is output. By performing the above series of processing, the image output from the iterative operation determination unit 1210 has a higher resolution than the captured image.
  • the motion for each frame is calculated by the motion estimation unit 107 in FIG. Is to be given.
  • a portion surrounded by a broken line is a minimization processing unit 1212 corresponding to the minimization processing of the evaluation function f (z) performed in S15 of FIG.
  • FIG. 13 is a configuration diagram showing the configuration of the synthesis operation processing unit 110 of FIG.
  • the estimated high-resolution image information is supplied from the high-resolution image estimation calculation unit 108, and the interpolation-enlarged image information is supplied from the interpolation enlargement processing unit 109 to the synthesis operation processing unit 110.
  • the bias level added at the time of band separation in FIG. 2 is subtracted from the high-resolution image given to the synthesis operation processing unit 110.
  • the high-resolution image from which the bias level has been subtracted is added to the low-frequency image at the corresponding coordinate position in the image, so that an image in which only the high-frequency portion such as an edge has a high resolution is obtained. Synthesized.
  • Such a composite image is output from the composite operation processing unit 110.
  • the amount of high-frequency components is small.
  • FIG. 14 is a configuration diagram showing a second embodiment of the present invention.
  • an optical system 101 forms an optical image on an imager 102, and the sampled image data is given to a band separation processing unit 105 and a memory unit 113.
  • the band separation processing unit 105 separates the image into a high-frequency component image and a low-frequency component image, and supplies only the information of the high-frequency component image to the processing area determination unit 114.
  • the processing region determining unit 114 detects and cuts out a region having a large amount of high frequency components in the image, and supplies the region to the motion estimating unit 107.
  • the basic algorithm of motion estimation section 107 is the same as that in the first embodiment.
  • motion estimation is performed using only a part of the image containing a large amount of high-frequency components, and the motion estimation is used as the motion of the entire image to perform high-resolution image estimation.
  • the processing area determination unit 114 specifies one or more high-frequency areas from the high-frequency components of the image, cuts out information on the areas, and sends the information to the motion estimation unit 107. Further, at this time, the processing region determining unit 114 may calculate luminance information of the high frequency component image, determine and cut out a region having a high frequency component from the luminance information, and send the region to the motion estimating unit 107. .
  • the motion estimation data obtained from one region containing many high-frequency components in the image is supplied to the high-resolution image estimation calculation unit 108, and at the same time, the image data temporarily stored in the memory unit 113 is subjected to the high-resolution image estimation calculation. High given to part 108 A resolution image estimation calculation is performed. As a result, a high-resolution estimated image is generated.
  • the details of the motion estimation and the high-resolution image estimation calculation are performed in the same manner as in the first embodiment.
  • the arithmetic processing unit 110 becomes unnecessary. For this reason, it is possible to reduce the scale of processing required to obtain a high-resolution image.
  • an imaging apparatus and a method for increasing the resolution of an image which efficiently perform a high-resolution image estimation operation and a motion estimation operation necessary for the high-resolution image estimation operation.

Landscapes

  • Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Studio Circuits (AREA)
  • Studio Devices (AREA)
  • Television Systems (AREA)

Abstract

光学系(101)はイメ−ジャ(102)に光学像を結像し、画像を空間的に離散化してサンプリングした画像信号に変換してから帯域分離処理部(105)で高周波成分と低周波成分に分離する。超解像目的フレ−ム選択部(106)では、分離された低周波成分画像のうち、超解像処理を行うフレ−ムを選択して補間拡大処理部(109)に伝送する。超解像処理は、モ−ションの推定部(107)と、高解像度の画素配列の画像デ−タを推定する高解像度画像推定部(108)により行う。高解像画像演算領域判定部(112)では、画像中の高解像度画像推定演算を行う領域を判定し、高解像度画像推定演算部(108)の出力は合成演算処理部(110)に送られる。

Description

明 細 書
撮像装置および画像の高解像度化方法
技 術 分 野
本発明は、 複数枚の低解像度画像から高解像度の画像を効率よく取 得する、 撮像装置および画像の高解像度化方法に関するものである。 背 景 技 術
ビデオカメラなどの撮像装置を使用する際に、 複数フ レームの位置ず れを有する画像を合成して、 高解像度な画像を生成する撮像手法が提 案されている。 複数枚の低解像度画像から高解像度の画像を生成する ためには、 各低解像度画像同士の位置ずれを画素単位未満 (本発明の 明細書においては、 サブピクセルということがある) の精度で検出す る必要がある。
この際の計算量を減らすために、 例えば特開平 1 0— 6 9 5 3 7号 公報では、 画像中の各物体について物体の特徴と物体相互の位置関係 などの画像の構造解析を行う。 そして、 構造情報の対応づけを行うこ とで、 フ レーム画像間の相対的な位置ずれを検出し、 画像の高解像化 を行う手法が提案されている。
しかしながら、 特開平 1 0— 6 9 5 3 7号公報に開示されている手 法では、 画像処理手段の一部と して被写体の構造解析手段を備えてい る必要があり、 処理回路規模が大きく なるという問題があった。 また、 被写体の構造に関する情報がある程度事前に分っている必要があり、 対応できる被写体の種類に制約を受けるという問題があった。
本発明は、 上記問題に鑑みてなされたものであり、 画像を帯域で分 離することによって、 各画像間の位置ずれ量 (以下、 モーシ ョ ンとす る) の算出、 高解像化処理を効率的に行う構成と した撮像装置および 画像の高解像度化方法の提供を目的とする。 発 明 の 開 示
( 1 ) 上記目的を達成する本発明の第 1 の実施形態にかかる撮像装 置は、 被写体の像を電子的に得る撮像装置において、 被写体の像を結 像させる光学的結像手段と、 光学的に結像した画像を空間的に離散化 してサンプリ ングした画像信号に変換する手段と、 サンプリ ングされ た画像信号を空間周波数によつて複数の成分の画像信号に分離する手 段と、 空間周波数によつて分離された低周波成分画像を補間拡大処理 を行う手段と、 各フ レーム間の被写体の相対的な変位量を推定する手 段と、 複数フ レームの中から高解像画像推定処理を行うフ レームを選 択する手段と、 複数フ レームの画像信号からそれぞれ分離された高周 波成分画像から高解像度な画像を推定する高解像画像推定手段と、 補 間拡大した画像と高解像化画像推定処理をした画像を合成する手段と を有することを特徴とする。
( 1 ) の発明は、 図 1 に示された第 1 の実施形態例が対応する。 「被写体の像を結像させる光学的結像手段」 は、 光学系 101が該当する。
「光学的に結像した画像を空間的に離散化してサンプリ ングした画像 信号に変換する手段」 は、 イメージャ 102が該当する。 「サンプリ ング された画像信号を空間周波数によつて複数の成分の画像信号に分離す る手段」 は、 帯域分離処理部 105が該当する。 「空間周波数によって分 離された低周波成分画像を補間拡大処理を行う手段」 は、 補間拡大処 理部 109が該当する。 「各フ レーム間の被写体の相対的な変位量を推定 する手段」 は、 モーシ ョ ン推定部 107が該当する。 「複数フ レームの中 から高解像画像推定処理を行うフ レームを選択する手段」 は、 超解像 目的フ レーム選択部 1 06が該当する。 「複数フ レームの画像信号からそ れぞれ分離された高周波成分画像から高解像度な画像を推定する高解 像画像推定手段」 は、 高解像度画像推定部 108が該当する。 「補間拡大 した画像と高解像化画像推定処理をした画像を合成する手段」 は、 合 成演算処理部 110が該当する。
( 1 ) の発明の構成によれば、 サンプリ ングされた画像信号を空間 周波数によつて複数の成分の画像信号に分離する手段を通した画像信 号について、 高解像画像推定手段で処理を行っている。 このため、 全 画像データについて計算負荷の重い高解像度画像推定処理をする必要 がなくなり、 演算量を減らすことができるので、 処理の高速化が可能 となる。
( 2 ) . 前記 ( 1 ) の発明において、 前記サンプリ ングされた画像 信号が、 前記各フ レーム間の被写体の相対的な変位量を推定する手段 に入力されることを特徴とする。
( 2 ) の発明は、 図 7に示された第 1 の実施形態例の変形例が対応 する。 すなわち、 図 7に示されているように、 各フ レーム間の被写体 の相対的な変位量を推定する手段 (モーシ ョ ン推定部 107) には、 ィメ —ジャ 102でサンプリ ングされた画像信号が帯域分離処理部 105で帯域 分離される前に入力される。 このため、 イメージャ 102でサンプリ ング された画像信号の高周波成分および低周波成分すべてについて、 各フ レーム間の被写体の相対的な変位量を推定することができる。 したが つて、 変位量推定の精度を高めることが可能となる。
( 3 ) . 前記 ( 1 ) の発明において、 前記各フ レーム間の被写体の 相対的な変位量を推定する手段は、 前記複数の成分の画像信号に分離 された少なく とも 1つの成分の画像信号を用いて各フ レーム間の被写 体の相対的な変位量を推定することを特徴とする。 (3 ) の発明は、 図 1 に示された第 1の実施形態例が対応する。 モーション推定部 107に は、 帯域分離処理部 105で複数の成分に分離された画像信号の中で、 少 なく とも 1つの成分の画像信号が入力されて各フ レーム間の被写体の 相対的な変位量を推定する。 この構成によれば、 帯域分離処理部 105で 複数の成分に分離された画像信号の中で、 適宜の成分の画像信号をモ ーショ ン推定部 107に入力して、 各フ レーム間の被写体の相対的な変位 量を推定することができる。
( 4 ) . 本発明の第 2の実施形態にかかる撮像装置は、 被写体の像 を電子的に得る撮像装置において、 被写体の像を結像させる光学的結 像手段と、 光学的に結像した画像を空間的に離散化してサンプリ ング した画像信号に変換する手段と、 サンプリ ングされた画像信号を空間 周波数によつて複数の成分の画像信号に分離する手段と、 各フ レーム 間の被写体の相対的な変位量を推定する手段と、 画像信号を一時記憶 させておく画像記憶手段と、 複数フ レームの中から高解像画像推定処 理を行うフ レームを選択する手段と、 複数フ レームの画像信号から高 解像度な画像を推定する高解像画像推定手段と、 前記空間周波数によ つて分離された複数の成分の画像信号のうち少なく とも 1つの画像信 号を参照し、 画像の情報を判別する画像情報判別手段と、 前記画像情 報判別手段により判別された画像の情報を用いて画像中の領域を設定 する手段とを備え、 前記高解像画像推定手段は、 前記画像中の領域の 情報を用いて高解像画像を推定することを特徴とする。
( 4 ) の発明は、 図 1 4に示された第 2の実施形態例が対応する。 「被写体の像を結像させる光学的結像手段」 は、 光学系 101が該当する。 「光学的に結像した画像を空間的に離散化してサンプリ ングした画像 信号に変換する手段」 は、 イメージャ 102が該当する。 「サンプリ ング された画像信号を空間周波数によつて複数の成分の画像信号に分離す る手段」 は、 帯域分離処理部 105が該当する。 「各フ レーム間の被写体 の相対的な変位量を推定する手段」 は、 モーシ ョ ン推定部 107が該当す る。 「画像信号を一時記憶させておく画像記憶手段」 は、 メモリ部 1 13 が該当する。 「複数フ レームの中から高解像画像推定処理を行うフ レ ームを選択する手段」 は、 超解像目的フ レーム選択部 106が該当する。 「複数フ レームの画像信号の高周波成分から高解像度な画像を推定す る高解像画像推定手段」 は、 高解像度画像推定部 108が該当する。 「空 間周波数によつて分離された複数の成分の画像信号のうち少なく とも 1つの画像信号を参照し、 画像の情報を判別する画像情報判別手段」 、 および 「画像情報判別手段により判別された画像の情報を用いて画像 中の領域を設定する手段」 は、 処理領域決定部 114が該当する。
( 4 ) の発明によれば、 ( 1 ) の発明の空間周波数によって分離さ れた画像の低周波成分を補間拡大処理を行う手段、 画像信号から高解 像度化の処理を行う領域を決める手段、 補間拡大した画像と高解像化 画像推定処理をした画像を合成する手段が不要となり、 処理の規模を 縮小することが可能となる。
( 5 ) . ( 4 ) の発明は、 前記画像情報判別手段は、 画像の高周波 成分を抽出する手段であることを特徴とする。 「画像情報判別手段」 に相当する処理領域決定部 114は、 高周波成分と低周波成分に分離した 圃像のなかで、 高周波成分のみの情報を判別する。 この構成によれば、 画像中の高周波成分を多く含む一部の領域のみを用いてモーシ ヨ ン推 定を行い、 それを画像全体のモーシヨ ンと して使用し高解像度画像推 定演算を行うことができる。
( 6 ) . また、 (4 ) の発明は、 前記画像情報判別手段は、 前記空 間周波数によって分離された複数の成分の画像信号のうち、 少なぐと も 1つの画像信号の輝度情報を参照することを特徴とする。 「空間周 波数によって分離された複数の成分の画像信号のうち、 少なく とも 1 つの画像信号の輝度情報を参照する画像情報判別手段」 は、 処理領域 決定部 114が相当する。 この構成によれば、 輝度情報から高周波成分の 多い領域を決定して切り出し、 モ一ション推定部 107に送ることができ る。
( 7 ) . 本発明の第 1 の実施形態にかかる画像の高解像度化方法は、 サンプリ ングされた画像信号の高解像度化を行う方法において、 サン プリ ングされた画像信号を空間周波数によつて複数の成分の画像信号 に分離するステップと、 空間周波数によつて分離された低周波成分画 像に補間拡大処理を行うステップと、 各フ レーム間の相対的な変位量 を変位量推定手段により推定するステップと、 複数フ レームの中から 高解像化画像推定処理を行うフ レームを選択するステップと、 複数フ レームの画像信号からそれぞれ分離された高周波成分画像から高解像 度な画像を推定する高解像画像推定のステップと、 補間拡大した画像 と高解像化画像推定処理をした画像を合成するステツプと、 を有する ことを特徴とする。
( 7 ) の発明は、 図 1 の構成図による画像の高解像度化を行う方法 が対応する。 「サンプリ ングされた画像信号を空間周波数によつて複 数の成分の画像信号に分離するステップ」 は、 帯域分離処理部 105によ る処理が該当する。 「空間周波数によつて分離された低周波成分画像 に補間拡大処理を行うステップ」 は、 補間拡大処理部 109による処理が 該当する。 「各フ レーム間の相対的な変位量を変位量推定手段により 推定するステップ」 は、 モーショ ン推定部 107による処理が該当する。 「複数フ レームの中から高解像化画像推定処理を行うフ レームを選択 するステップ」 は、 超解像目的フ レーム選択部 106による処理が該当す る。 「複数フ レームの画像信号からそれぞれ分離された高周波成分画 像から高解像度な画像を推定する高解像画像推定のステップ」 は、 高 解像度画像推定部 108による処理が該当する。 「補間拡大した画像と高 解像化画像推定処理をした画像を合成するステップ」 は、 合成演算処 理部 1 10による処理が該当する。
( 7 ) の発明によれば、 ソフ トウェアにより高解像度画像推定処理 を行う際に、 全画像についての処理が不要であり、 演算速度を向上さ せることができる。 ( 8 ) . 前記 (7 ) の発明において、 前記サンプリ ングされた画像 信号が、 前記各フ レーム間の被写体の相対的な変位量を推定する変位 量推定手段に入力されることを特徴とする。 (8 ) の発明は、 図 7に 示された第 1 の実施形態例の変形例による画像の高解像度化を行う方 法が対応する。 この構成によれば、 ソフ ト ウェアにより高解像度画像 推定処理を行う際に、 変位量推定の精度を高めることができる。
( 9 ) また、 前記 (7 ) の発明において、 前記各フ レーム間の被写 体の相対的な変位量を推定するステツプは、 前記複数の成分の画像信 号に分離された少なく とも 1 つの成分の画像信号を用いて、 各フ レー ム間の被写体の相対的な変位量を推定することを特徴とする。 (9 ) の発明は、 図 1 の構成図による画像の高解像度化を行う方法が対応す る。 この構成によれば、 ソフ ト ウェアにより高解像度画像推定処理を 行う際に、 複数の成分に分離された画像信号の中で、 適宜の成分の画 像信号に対して各フ レーム間の被写体の相対的な変位量を推定するこ とができる。
( 1 0 ) . 本発明の第 2の実施形態にかかる画像の高解像度化方法 は、 サンプリ ングされた画像信号の高解像度化を行う方法において、 サンプリングされた画像信号を空間周波数によつて複数の成分の画像 信号に分離するステップと、 各フ レーム間の相対的な変位量を推定す るステップと、 画像信号を画像記憶手段に一時記憶させておく ステツ プと、 複数フ レームの中から高解像化画像推定処理を行うフ レームを 選択するステップと、 複数フ レームの画像信号から高解像度な画像を 推定する高解像画像推定のステップと、 前記空間周波数によって分離 された複数の成分の画像信号のうち少なく とも 1つの画像信号を参照 し画像の情報を判別手段により判別するステップと、 前記判別手段に より画像中の領域を設定するステツプとを含み、 前記高解像画像推定 のステップは、 前記画像中の領域の情報を用いて高解像画像を推定す ることを特徴とする。
( 1 0 ) の発明は、 図 1 4に示された第 2の実施形態例の構成図に よる画像の高解像度化を行う方法が対応する。 「サンプリ ングされた 画像信号を空間周波数によって複数の成分の画像信号に分離するステ ップ」 は、 帯域分離処理部 105による処理が該当する。 「各フ レーム間 の相対的な変位量を推定するステップ」 は、 モーショ ン推定部 107によ る処理が該当する。 「画像信号を画像記憶手段に一時記憶させておく ステップ」 は、 メモリ部 113による処理が該当する。 「複数フ レームの 中から高解像化画像推定処理を行うフ レームを選択するステップ」 は、 超解像目的フ レーム選択部 106による処理が該当する。 「複数フ レーム の画像信号から高解像度な画像を推定する高解像画像推定のステツ プ」 は、 高解像度画像推定部 108による処理が該当する。 「前記空間周 波数によって分離された複数の成分の画像信号のうち少なく とも 1つ の画像信号を参照し画像の情報を判別手段により判別するステップ」 、 および 「前記判別手段により画像中の領域を設定するステップ」 は、 処理領域決定部 114による処理が該当する。 ( 1 0 ) の発明によれば、 ソフ ト ウェアにより画像の高解像度化を行う際の処理速度を更に高め ることができる。
( 1 1 ) . 前記 ( 1 0 ) の発明は、 前記画像の情報を判別するステ ップにおいて、 画像の高周波成分を抽出することを特徴とする。 この 構成によれば、 ソフ トウェアにより高解像度画像推定処理を行う際に、 画像中の高周波成分を多く含む一部の領域のみを用いたモーシヨ ン推 定で高解像度画像推定演算を行うことができる。
( 1 2 ) . また、 前記 ( 1 0 ) の発明は、 前記画像の情報を判別す るステップは、 前記空間周波数によつて分離された複数の成分の画像 信号のうち少なく とも 1つの画像信号の輝度情報を参照することを特 徴とする。 この処理は、 処理領域決定部 1 14による処理が相当する。 こ の構成によれば、 ソフ ト ウェアにより高解像度画像推定処理を行う際 に、 輝度情報から高周波成分の多い領域を決定して切り出し、 モーシ ョ ン推定部で各フ レーム間の相対的な変位量を推定することができる。 本発明の撮像装置および画像の高解像度化方法においては、 高解像 度画像推定演算やそのために必要なモ一ショ ン推定演算を効率的に行 うことが可能となる。
図面の簡単な説明
図 1は第 1の実施形態例の構成図である。
図 2は帯域処理部の構成図である。
図 3は帯域分離前の画像の例を示す説明図である。
図 4は図 3の画像に口一パスフィルタ処理を施した例の説明図である。 図 5は図 4の画像に 1052と 1053の処理を行った例の説明図である。 図 6は図 5の画像の階調のヒス トグラムを示す特性図である。
図 7は第 1の発明の実施形態における変形例の構成図である。
図 8はモーション推定アルゴリズムのフローチャートである。
図 9はモーション推定の最適類似度の推定を示す概念図である。
図 1 0は高解像度画像演算領域判定の概念図である。
図 1 1は高解像度画像推定処理アルゴリズムのフローチャートである。 図 1 2は高解像度画像推定演算部の構成図である。
図 1 3は合成演算処理部の構成図である。
図 1 4は第 2の発明の実施の形態の構成図である。 発明を実施するための最良の形態
以下、 本発明の実施の形態について図を参照して説明する。 図 1 は、 第 1の実施形態例の構成図である。 図 1 において、 光学系 101はィメ一 ジャ 102に光学像を結像し、 ィメ一ジャ 102は光学的に結像した画像を 空間的に離散化してサンプリ ングした画像信号に変換する。 ィメ一ジ ャ 102でサンプリ ングされた画像信号は、 帯域分離処理部 105で空間周 波数によって高周波成分画像と低周波成分画像に分離する。
超解像処理は、 モーショ ン推定部 107と、 高解像度の画素配列の画像 データを推定する高解像度画像推定部 108により行う構成としている。 高周波成分画像は超解像処理を行うために、 モーショ ン推定部 107に伝 送される。 ここで、 超解像処理は、 サブピクセルレベルでの位置ずれ のある画像を複数枚撮影し、 これらの画像の光学系等の劣化要因など をキヤンセルした上で合成して、 1枚の高精細な画像を形成する手法 である。
超解像目的フ レーム選択部 106では、 超解像処理を行う目的のフ レー ムを選択する。 帯域分離処理部 105で分離された低周波成分画像のうち、 超解像処理を行う 目的フ レームに相当するフ レームを選択して補間拡 大処理部 1 09に伝送する。 補間拡大処理部 1 09は、 例えばパイキュービ ック (b i cub i c) による補間処理を備え、 目的フ レームの低周波成分画 像の拡大処理を行う。
高解像画像演算領域判定部 1 12では、 例えば図 1 0に示されているよ うに、 帯域分離処理部 105で出力された高周波成分画像と、 超解像目的 フレーム選択部 106から与えられる目的フ レームの情報から、 画像中の 高解像度画像推定演算を行う領域を判定する。 高解像度画像推定演算 部 108では、 モーション推定部 107から与えられる各フ レーム毎のモー ションの情報と、 高解像度画像推定演算領域判断部 1 12から与えられる 領域毎の演算指定情報のついた複数フレームの画像データから、 高解 像度画像推定演算を行う。 これにより、 高周波成分をもつ領域だけで 高解像度画像推定演算が行われる。 合成演算処理部 1 10の構成について は、 図 1 3により後述する。 図 1の構成では、 光学系 101はイメージャ 102に光学像を結像し、 ィ メージャ 102は光学的に結像した画像を空間的に離散化してサンプリ ン グした画像信号に変換している。 本発明においては、 画像信号は光学 系 101、 イメージャ 102で取得されたものには限定されない。 適宜の記 録媒体などに記録されている、 サンプリ ングされた画像信号を用いて、 画像の高解像度化処理を行う構成とすることもできる。 この場合には、 前記記録媒体などに記録されている、 サンプリ ングされた画像信号を、 帯域分離処理部 105と超解像目的フ レーム選択部 106に入力する。 以下、 モーション推定部 107、 高解像度画像推定演算部 108、 補間拡大処理部 109、 合成演算処理部 1 10、 高解像画像演算領域判定部 112により、 前記 したと同様の処理を行う。 すなわち、 図 1の構成により、 画像の高解 像度化法の発明を実施することができる。
図 2は、 図 1で説明した帯域分離処理部 105の構成の一例を示す構成 図である。 イメージャ 102より出力された画像信号は、 ローパスフィル タ処理部 1051で低周波画像に変換され、 低周波成分画像のうち超解像 目的フ レーム選択部 106で選択されたフレームを補間拡大処理部 109に 出力する。 また、 高周波成分画像は、 ローパスフィルタ処理部 1051で 得られた画像に対して、 バイァス加算処理部 1052で所定のパイァス処 理を行い、 差分演算処理部 1053で元の画像との差分演算を行う。 パイ ァス加算処理部 1052は、 高周波成分の画像を所定の符合無しのビッ ト 幅のメモリに保持するための非負化処埋を行う。
前記バイアス加算処理部 1052には、 バイアス レベルの信号と、 ロー パスフィルタ 1051の信号が入力される。 また、 差分演算処理部 1053に は、 バイアス加算処理部 1052の信号と、 図 1のイメージャ 102で出力さ れる画像信号が入力される。 したがって、 差分演算処理部 1053からは、 ィメ一ジャ 102の出力信号と、 ィメージャ 102の出力信号をローバスフ ィルタ 1051で通過させた信号に、 バイァス信号を加算させた信号との 差分が出力される。 差分演算処理部 1053の出力信号は、 高周波成分画 像として図 1 のモーション推定部 107に入力される。
図 3〜図 5は、 帯域分離処理部 105で、 イメージャ 102の出力信号に 対して帯域分離処理をおこなった画像の例を示す説明図である。 元の 画像信号 (図 3 ) に対して、 ローパスフィルタ処理を行った画像は図 4に示されている。 すなわち、 図 4の画像は図 1の補間拡大処理部 109 に入力される。 また、 図 2のバイアス加算処理 1052,差分演算処理部 1053で処理を行った結果の高周波成分画像を、 図 5に示している。
図 5の画像の階調のヒス トグラムを、 図 6の特性図に示している。 図 6において、 横軸は 8ビッ トの画像信号を表している。 また、 縦軸 の左側軸には差分の頻度を%で表している。 更に、 縦軸の右側軸には、 画素頻度の累積値 (絶対値) を示している。 図 6に示されているよう に、 8ビッ トの画像信号の中央付近の 1 2 8に差分の頻度のピーク値 を形成している。 また、 9 6から 1 6 0の間の 6 4階調に 9 9 . 6 % の画素が含まれており、 高周波成分画像を 6ビッ トで表現できる。
図 7は、 第 1の実施形態例の変形例を示す構成図である。 図 1 と相 違するところのみを説明する。 図 7の構成においては、 イメージャ 102 の信号を直接にモーション推定部 107に入力している。 すなわち、 モー シヨン推定に関しては、 図 7に示すように帯域分離を行わずに、 ィメ ージャ 102で光学的に結像した画像を空間的に離散化してサンプリング した元の画像信号を用いるようにしても良い。 図 7の構成とする場合 には、 イメージャ 102の信号をすベてモーション推定しているので、 変 位量推定の精度を高めることができる。
図 7の例においても、 光学系 101、 イメージャ 102で取得された画像 信号に代えて、 適宜の記録媒体などに記録されている、 サンプリング された画像信号を用いて、 画像の高解像度化処理を行う構成とするこ ともできる。 この場合には、 図 1 の例で説明したと同様にして、 図 7 の構成により、 画像の高解像度化法の発明を実施することができる。 図 8は、 モーショ ン推定のァルゴリズムの詳細を示すフローチヤ一 トである。 以下、 アルゴリズムの流れにそって図 8を説明する。 処理 プログラムを開始して、 S 1 : モーショ ン推定の基準となる画像を 1枚 読み込む。 S 2 :基準画像を複数のモーシ ョ ンで変形させる。 S 3 : 基準画像との間のモーション推定を行う参照画像を 1枚読み込む。 S 4 : 基準画像を複数変形させた画像列と参照画像の間の類似度値を算出 する。 S 5 : 変形モーシヨ ンのパラメータと算出した類似度値との関 係を用いて、 離散的な類似度マップを作成する。
S 6 : S 5で作成した離散的な類似度マップを補完することで、 類 似度マップの極値を探索し、 類似度マップの極値を求める。 極値を持 つ変形モーションが推定したモーシヨンとなる。 類似度マップの極値 の探索法にはパラボラフイ ツティ ング、 スプライン補間法等がある。 S 7 : 全ての参照画像において、 対象となる全ての参照画像において モーショ ン推定を行なったかどうかを判定する。 S 8 : モーショ ン推 定を行っていない場合には、 S 3の処理に戻り、 次の画像の読み込み 処理を継続する。 対象となる全ての参照画像においてモーション推定 を行っている場合には、 処理プログラムを終了する。
図 9は、 図 1で説明したモーショ ン推定部 107で行うモ一シヨ ン推定 の最適類似度の推定を示す概念図である。 図 9においては、 黒丸の 3 点を用いてモーシ ョン推定をパラボラフイ ツティ ングで行った例を示 している。 縦軸は類似度を表し、 横軸は変形モーショ ンパラメ一夕を 示している。 縦軸の値が小さいほど類似度が高く、 縦軸の値が最小値 となる灰色の丸は類似度の極値となる。
図 1 0は、 図 1の高解像度画像演算領域判定部 1 12の処理例を示す概 念図である。 図 1 0において、 (a ) は帯域分離処理部 105で出力され た高周波成分画像、 (b ) は超解像目的フ レーム選択部 106から与えら れる目的フ レームの情報である。 高解像度画像演算領域判定部 112は、 ( b ) の高周波成分を有する領域から、 画像中の高解像度画像推定演 算を行う領域を判定し、 この領域から (c ) の 「 1」 の レベルの画素 の情報を生成する。 このような処理により、 高周波成分をもつ領域だ けで高解像度画像推定演算が行われることになる。
図 1 1は、 高解像度画像推定処理のアルゴリ ズムを示すフローチヤ ートである。 処理プログラムを開始する。 S 1 1 : 高解像度画像推定 に用いるため複数枚の低解像度画像 n枚を読み込む(n≥l)。 S 1 2 : 複 数枚の低解像度画像の中の任意の一枚をターゲッ トフ レームと仮定し、 補間処理を行うことで初期の高解像度画像を作成する。 このステップ は場合により省略することができる。 S 1 3 : あらかじめ何らかのモ ーション推定法で求められた、 ターゲッ トフ レームとその他のフレー ムの画像間のモーシヨンにより、 画像間の位置関係を明らかにする。 S 1 4 : 光学伝達関数(0TF)、 CCDアパーチャ等の撮像特性を考慮した 点広がり関数(PSF: Po i nt Spread Funct i on) )を求める。 PSFは例え ば Gauss関数を用いる。 S 1 5 : S 3、 S 4の情報を元に、 評価関数 f (z)の最小化を行う。 ただし、 f (z)は次式で表される。 ん
Figure imgf000016_0001
ここで yは低解像度画像、 zは高解像度画像、 Aは画像間モーショ ン、 PSF等を含めた撮像システムをあらわす画像変換行列である。 g (z)は画 像の滑らかさや色相関を考慮した拘束項等が入る。 は重み係数であ る。 評価関数の最小化には、 例えば最急降下法を用いる。 S 1 6 : S 1 5で求めた f (z)が最小化された場合、 処理を終了し高解像度画像 zを 得る。 S 1 7 : f (z)がまだ最小化されていない場合には、 高解像度画 像 zをアツプデート して S 1 3の処理に戻る。
図 1 2は、 図 1 に示した高解像度画像推定演算部 108の構成図である。 高解像度画像推定処理部 108は、 初期画像作成部 1201、 畳込み積分部 1202、 PSFデータ保持部 1203、 画像比較部 1204、 乗算部 1205、 貼り合せ 加算部 1206、 蓄積加算部 1207、 更新画像生成部 1208、 画像蓄積部 1209、 反復演算判定部 1210、 反復判定値保持部 1211から構成される。 また、 図 1 2で破線で囲んだ部分は、 図 1 1の S 1 5で説明した評価関数 f ( z ) の最小化処理を行う構成に相当する最小化処理部 1212である。 なお、 PSFデータは、 点広がり関数のデータである。
図 1 2において、 図 1の高解像度画像推定演算領域判定部 1 12より 目 的フレームの高周波画像情報が初期画像作成部 1201に与えられ、 ここ で与えられた画像情報は補間拡大されてこれが初期画像となる。 この 初期画像は、 畳込み積分部 1202に与えられ、 PSFデータ保持部 1203より 送信される PSFデータと畳込み積分される。 ここでの PSFデータは、 各 フ レームのモーションも考慮して与えられる。 初期画像データは、 同 時に画像蓄積部 1209に送られ、 画像蓄積部 1209で蓄積される。 畳込み 積分部 1202で畳込み演算された画像データは、 画像比較部 1204に送ら れ、 モーション推定部で求められた各フ レーム毎のモーションを元に、 適切な座標位置で高解像度画像推定演算領域判定部 1 12より与えられる 撮影画像と比
較される。
画像比較部 1204で比較された残差は、 乗算部 1205に送られ PSFデータ 保持部 1203より与えられる PSFデータの各画素毎の値と掛け合わされる。 この演算結果は、 貼り合せ加算部 1206に送られ、 それぞれ対応する座 標位置に配置される。 ここで、 乗算部 1205からの画像データは、 重な りを持ちながら少しずつ座標位置がずれて行く ことになるので、 重な る部分については貼り合せ加算部 1206で加算していく。 撮影画像 1枚分 のデータの貼り合せ加算が終ると、 データは蓄積加算部 1207に送られ る。 蓄積加算部 1207では、 フ レーム数分の処理が終るまで順次送られ てく るデータを蓄積し、 推定されたモーシヨ ンに合わせて各フ レーム 分の画像データ順次加算していく。
蓄積加算部 1207で加算された画像データは、 更新画像生成部 1208に 送られる。 更新画像生成部 1208には、 これと同時に画像蓄積部 1209に 蓄積されていた画像データが与えられ、 この 2つの画像データに重みを つけて加算して更新画像データを生成する。 生成された更新画像デー タは、 反復演算判定部 1210に与えられ、 反復判定値保持部 121 1から与 えられる反復判定値を元に演算を反復するか否かを判断する。 演算を 反復する場合には、 データを畳込み積分部 1202に送り前記の一連の処 理を繰り返し、 反復しない場合は生成された画像データを出力する。 上記一連の処理を行なうことにより、 反復演算判定部 1210から出力 される画像は撮影画像よりも高解像度なものとなっている。 また前記 PSFデータ保持部 1203で保持される PSFデータには、 畳込み積分の際に 適切な座標位置での計算が必要となるので、 図 1のモーション推定部 107より各フ レーム毎のモーションが与えられるようになっている。 図 1 2で、 破線で囲んだ部分は、 図 1 1の S 1 5でなされた評価関数 f (z)の最小化処理に相当する最小化処理部 1212である。
図 1 3は図 1の合成演算処理部 1 10の構成のを示す構成図である。 図 1 3において、 高解像度画像推定演算部 108からは推定された高解像度 画像情報が、 補間拡大処理部 109からは補間拡大画像情報が、 合成演算 処理部 1 10に与えられる。 合成演算処理部 1 10に与えられた高解像度画 像に、 図 2で帯域分離した際に加算した b i asレベルを差し引く。 そし て、 bi asレベルを差し引いた高解像度画像は、 画像中の対応する座標 位置で低周波画像と加算されることにより、 エツジなどの高周波を持 つた部分のみが高解像化された画像が合成される。 このような合成画 像が、 合成演算処理部 1 10から出力される。
以上説明した本発明の第 1の実施形態例により、 高周波成分の少な い画像では全画像データについて計算負荷の重い高解像度画像推定処 理をする必要がなくなり、 演算量を減らすことができるので、 処理の 高速化が可能となる。
図 1 4は、 本発明の第 2の実施形態例を示す構成図である。 図 1 4 において、 光学系 101はイメージャ 102に光学像を結像し、 ここでサン プリ ングされた画像データは帯域分離処理部 105とメモリ部 1 13に与え られる。 帯域分離処理部 105では画像を高周波成分画像と低周波成分画 像に分離し、 このうち高周波成分画像の情報のみを処理領域決定部 1 14 に与える。 処理領域決定部 1 14では画像中で高周波成分の多い領域を検 出して切り出し、 モーショ ン推定部 107に与える。 モーシ ョ ン推定部 107の基本的なアルゴリズムは第 1の実施の形態と同じものとする。
撮影した画像中である特定の物体のみが動いているのではなく、 画 像全体が動いている、 と仮定できる場合には、 画像内のモーショ ンは 均一であると考えられるので、 画像全体でモ一ション推定を行う必要 はなく、 正確なモ一ション推定に寄与する高周波成分を持つ領域の情 報のみを用いてモーシ ョ ン推定を行うことは可能である。 従って、 本 発明の第 2の実施形態例では、 画像中の高周波成分を多く含む一部の 領域のみを用いてモーション推定を行い、 それを画像全体のモーショ ンと して使用し高解像度画像推定演算を行う。 処理領域決定部 1 14では、 画像の高周波成分から高周波の多い領域を一つ以上特定し、 その領 域の情報を切り出してモーション推定部 107に送るものとする。 また、 このときに処理領域決定部 1 14では、 高周波成分画像の輝度情報を算出 し、 その輝度情報から高周波成分の多い領域を決定して切り出し、 モ —ション推定部 107に送るものとしても良い。
画像中の高周波成分を多く含む一領域から得られたモ一ション推定 のデータを高解像度画像推定演算部 108に与え、 同時にメモリ部 1 13に 一時蓄積していた画像データを高解像度画像推定演算部 108に与えて高 解像度画像推定演算を行う。 これにより高解像度推定画像が生成され る。 第 2の実施形態例では、 モーション推定、 高解像度画像推定演算 の詳細は第 1の実施形態例と同様に行うものとする。
図 1 4に示された第 2の実施形態例では、 図 1 に示した第 1の実施形 態例で設けられていた補間拡大処理部 109、 高解像度画像推定演算領域 判断部 1 12、 合成演算処理部 1 10が不要となる。 このため、 高解像度画 像を得るために要する処理の規模を縮小することが可能となる。
図 1 4の例においても、 光学系 101、 イメージャ 102で取得された画 像信号に代えて、 適宜の記録媒体などに記録されている、 サンプリン グされた画像信号を用いて、 画像の高解像度化処理を行う構成とする こともできる。 この場合には、 図 1、 図 7の例で説明したと同様にし て、 図 1 4の構成により、 画像の高解像度化法の発明を実施すること ができる。 産業上の利用可能性
以上説明したように、 本発明によれば、 高解像度画像推定演算やそ のために必要なモーション推定演算を効率的に行う撮像装置および画 像の高解像度化方法を提供をすることができる。

Claims

請 求 の 範 囲
1 . 被写体の像を電子的に得る撮像装置において、
被写体の像を結像させる光学的結像手段と、 光学的に結像した画像 を空間的に離散化してサンプリ ングした画像信号に変換する手段と、 サンプリ ングされた画像信号を空間周波数によつて複数の成分の画像 信号に分離する手段と、 空間周波数によって分離された低周波成分画 像を補間拡大処理を行う手段と、 各フ レーム間の被写体の相対的な変 位量を推定する手段と、 複数フ レームの中から高解像画像推定処理を 行うフ レームを選択する手段と、 複数フ レームの画像信号からそれぞ れ分離された高周波成分画像から高解像度な画像を推定する高解像画 像推定手段と、 補間拡大した画像と高解像化画像推定処理をした画像 を合成する手段とを有することを特徴とする撮像装置。
2 . 前記サンプリ ングされた画像信号が、 前記各フ レーム間の被写 体の相対的な変位量を推定する手段に入力されることを特徴とする、 請求項 1 に記載の撮像装置。
3 . 前記各フ レーム間の被写体の相対的な変位量を推定する手段は、 前記複数の成分の画像信号に分離された少なく とも 1つの成分の画像 信号を用いて各フレーム間の被写体の相対的な変位量を推定すること を特徴とする、 請求項 1 に記載の撮像装置。
4 . 被写体の像を電子的に得る撮像装置において、
被写体の像を結像させる光学的結像手段と、 光学的に結像した画像 を空間的に離散化してサンプリングした画像信号に変換する手段と、 サンプリ ングされた画像信号を空間周波数によって複数の成分の画像 信号に分離する手段と、 各フ レーム間の被写体の相対的な変位量を推 定する手段と、 画像信号を一時記憶させておく画像記憶手段と、 複数 フ レームの中から高解像画像推定処理を行うフ レームを選択する手段 と、 複数フ レームの画像信号から高解像度な画像を推定する高解像画 像推定手段と、 前記空間周波数によって分離された複数の成分の画像 信号のうち少なく とも 1つの画像信号を参照し、 画像の情報を判別す る画像情報判別手段と、 前記画像情報判別手段により判別された画像 の情報を用いて画像中の領域を設定する手段とを備え、 前記高解像画 像推定手段は、 前記画像中の領域の情報を用いて高解像画像を推定す ることを特徴とする撮像装置。
5 . 前記画像情報判別手段は、 画像の高周波成分を抽出する手段で あることを特徴とする、 請求項 4に記載の撮像装置。
6 . 前記画像情報判別手段は、 前記空間周波数によって分離された 複数の成分の画像信号のうち、 少なく とも 1つの画像信号の輝度情報 を参照することを特徴とする、 請求項 4に記載の撮像装置。
7 . サンプリ ングされた画像信号の高解像度化を行う方法において、 サンプリングされた画像信号を空間周波数によつて複数の成分の画像 信号に分離するステップと、 空間周波数によって分離された低周波成 分画像に補間拡大処理を行うステップと、 各フ レーム間の相対的な変 位量を変位量推定手段により推定するステップと、 複数フレームの中 から高解像化画像推定処理を行うフ レームを選択するステップと、 複 数フ レームの画像信号からそれぞれ分離された高周波成分画像から高 解像度な画像を推定する高解像画像推定のステップと、 補間拡大した 画像と高解像化画像推定処理をした画像を合成するステップと、 を有 することを特徴とする画像の高解像度化方法。
8 . 前記サンプリングされた画像信号が、 前記各フ レーム間の被写 体の相対的な変位量を推定する変位量推定手段に入力されることを特 徴とする、 請求項 7に記載の画像の高解像度化方法。
9 . 前記各フレーム間の被写体の相対的な変位量を推定するステツ プは、 前記複数の成分の画像信号に分離された少なく とも 1つの成分 の画像信号を用いて、 各フ レーム間の被写体の相対的な変位量を推定 するこ とを特徴とする、 請求項 7に記載の画像の高解像度化方法。
1 0 . サンプリングされた画像信号の高解像度化を行う方法におい て、 サンプリングされた画像信号を空間周波数によって複数の成分の 画像信号に分離するステップと、 各フ レーム間の相対的な変位量を推 定するステップと、 画像信号を画像記憶手段に一時記憶させておく ス テツプと、 複数フ レームの中から高解像化画像推定処理を行うフ レー ムを選択するステップと、 複数フ レームの画像信号から高解像度な画 像を推定する高解像画像推定のステップと、 前記空間周波数によつて 分離された複数の成分の画像信号のうち少なく とも 1つの画像信号を 参照し画像の情報を判別手段により判別するステップと、 前記判別手 段により画像中の領域を設定するステップとを含み、 前記高解像画像 推定のステツプは、 前記画像中の領域の情報を用いて高解像画像を推 定することを特徴とする画像の高解像度化方法。
1 1 . 前記画像の情報を判別するステップにおいて、 画像の高周波 成分を抽出することを特徴とする、 請求項 1 0に記載の画像の高解像 度化方法。
1 2 . 前記画像の情報を判別するステップは、 前記空間周波数によ つて分離された複数の成分の画像信号のうち少なく とも 1つの画像信 号の輝度情報を参照ることを特徴とする、 請求項 1 0に記載の画像の 高解像度化方法。
PCT/JP2005/010992 2004-06-10 2005-06-09 撮像装置および画像の高解像度化方法 WO2005122083A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US11/628,910 US20070177027A1 (en) 2004-06-10 2005-06-09 Imaging system and process for rendering the resolution of images high

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004-172093 2004-06-10
JP2004172093A JP4429816B2 (ja) 2004-06-10 2004-06-10 撮像装置および画像の高解像度化方法

Publications (1)

Publication Number Publication Date
WO2005122083A1 true WO2005122083A1 (ja) 2005-12-22

Family

ID=35503289

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/010992 WO2005122083A1 (ja) 2004-06-10 2005-06-09 撮像装置および画像の高解像度化方法

Country Status (3)

Country Link
US (1) US20070177027A1 (ja)
JP (1) JP4429816B2 (ja)
WO (1) WO2005122083A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8385665B2 (en) 2006-03-20 2013-02-26 Panasonic Corporation Image processing apparatus, image processing method, program and semiconductor integrated circuit

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7483059B2 (en) * 2004-04-30 2009-01-27 Hewlett-Packard Development Company, L.P. Systems and methods for sampling an image sensor
JP4837615B2 (ja) * 2006-04-11 2011-12-14 パナソニック株式会社 画像処理方法および画像処理装置
US7889264B2 (en) * 2006-05-12 2011-02-15 Ricoh Co., Ltd. End-to-end design of superresolution electro-optic imaging systems
JP5012805B2 (ja) * 2006-09-14 2012-08-29 株式会社ニコン 画像処理装置、電子カメラおよび画像処理プログラム
JP2008077501A (ja) * 2006-09-22 2008-04-03 Olympus Corp 画像処理装置及び画像処理制御プログラム
JPWO2008102898A1 (ja) * 2007-02-19 2010-05-27 国立大学法人東京工業大学 画質改善処理装置、画質改善処理方法及び画質改善処理プログラム
JP4839448B2 (ja) * 2007-03-19 2011-12-21 国立大学法人東京工業大学 複数領域に対応した画質改善処理方法及び画質改善処理プログラム
JP4814840B2 (ja) * 2007-05-23 2011-11-16 オリンパス株式会社 画像処理装置又は画像処理プログラム
JP4834636B2 (ja) * 2007-09-27 2011-12-14 株式会社日立製作所 映像再生装置及び映像再生方法
JP5111088B2 (ja) * 2007-12-14 2012-12-26 三洋電機株式会社 撮像装置及び画像再生装置
US8331714B2 (en) * 2009-02-23 2012-12-11 Sharp Laboratories Of America, Inc. Methods and systems for image processing
JP4991887B2 (ja) * 2010-01-13 2012-08-01 シャープ株式会社 撮像画像処理システム、撮像画像処理システムの制御方法、プログラムおよび記録媒体
JP5790944B2 (ja) 2010-02-26 2015-10-07 日本電気株式会社 画像処理方法、画像処理装置及びプログラム
JP5696560B2 (ja) * 2011-03-28 2015-04-08 株式会社Jvcケンウッド 信号処理装置、信号処理方法、および信号処理プログラム
JP5644626B2 (ja) * 2011-03-28 2014-12-24 株式会社Jvcケンウッド 信号処理装置、信号処理方法、および信号処理プログラム
JP5909865B2 (ja) * 2011-04-18 2016-04-27 株式会社ニコン 画像処理プログラム、画像処理方法、画像処理装置、撮像装置
US10346956B2 (en) * 2015-07-22 2019-07-09 Panasonic Intellectual Property Management Co., Ltd. Image processing device
JP6598365B2 (ja) * 2015-10-20 2019-10-30 日本放送協会 帯域合成装置、帯域分割装置、解像度変換装置、超解像装置およびプログラム
CN116761019A (zh) * 2023-08-24 2023-09-15 瀚博半导体(上海)有限公司 视频处理方法、系统、计算机设备及计算机可读存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05260264A (ja) * 1992-03-12 1993-10-08 Sharp Corp 画像処理装置
JPH0785246A (ja) * 1993-09-10 1995-03-31 Olympus Optical Co Ltd 画像合成装置
JPH1069537A (ja) * 1996-08-28 1998-03-10 Nec Corp 画像合成方法及び画像合成装置
JP2000244814A (ja) * 1999-02-24 2000-09-08 Hitachi Ltd 画像合成装置、画像合成方法が記録された記録媒体
JP2000244851A (ja) * 1999-02-18 2000-09-08 Canon Inc 画像処理装置、方法及びコンピュータ読み取り可能な記憶媒体
JP2000354244A (ja) * 1999-06-11 2000-12-19 Canon Inc 画像処理装置、方法及びコンピュータ読み取り可能な記憶媒体

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6128416A (en) * 1993-09-10 2000-10-03 Olympus Optical Co., Ltd. Image composing technique for optimally composing a single image from a plurality of digital images
CA2289053C (en) * 1998-11-10 2008-07-29 Canon Kabushiki Kaisha Image processing method and apparatus

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05260264A (ja) * 1992-03-12 1993-10-08 Sharp Corp 画像処理装置
JPH0785246A (ja) * 1993-09-10 1995-03-31 Olympus Optical Co Ltd 画像合成装置
JPH1069537A (ja) * 1996-08-28 1998-03-10 Nec Corp 画像合成方法及び画像合成装置
JP2000244851A (ja) * 1999-02-18 2000-09-08 Canon Inc 画像処理装置、方法及びコンピュータ読み取り可能な記憶媒体
JP2000244814A (ja) * 1999-02-24 2000-09-08 Hitachi Ltd 画像合成装置、画像合成方法が記録された記録媒体
JP2000354244A (ja) * 1999-06-11 2000-12-19 Canon Inc 画像処理装置、方法及びコンピュータ読み取り可能な記憶媒体

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8385665B2 (en) 2006-03-20 2013-02-26 Panasonic Corporation Image processing apparatus, image processing method, program and semiconductor integrated circuit
US8682089B2 (en) 2006-03-20 2014-03-25 Panasonic Corporation Image processing apparatus, image processing method, program and semiconductor integrated circuit

Also Published As

Publication number Publication date
JP4429816B2 (ja) 2010-03-10
US20070177027A1 (en) 2007-08-02
JP2005352720A (ja) 2005-12-22

Similar Documents

Publication Publication Date Title
WO2005122083A1 (ja) 撮像装置および画像の高解像度化方法
US7729563B2 (en) Method and device for video image processing, calculating the similarity between video frames, and acquiring a synthesized frame by synthesizing a plurality of contiguous sampled frames
US7978234B2 (en) Image acquisition apparatus, resolution enhancing method, and recording medium
US8896712B2 (en) Determining and correcting for imaging device motion during an exposure
US8213744B2 (en) Image processing apparatus and storage medium storing image processing program
EP2560375B1 (en) Image processing device, image capture device, program, and image processing method
JP4151793B2 (ja) 撮像装置および画像の高解像化方法
US20080170126A1 (en) Method and system for image stabilization
JP4371457B2 (ja) 画像処理装置、方法及びコンピュータ読み取り可能な記憶媒体
US20150334283A1 (en) Tone Mapping For Low-Light Video Frame Enhancement
US20100091131A1 (en) Imaging system and storage medium storing an imaging program
US20140078346A1 (en) Imaging device and image generation method
WO2005122554A1 (ja) 撮像装置
WO2007077730A1 (ja) 撮像システム、画像処理プログラム
JP2008077501A (ja) 画像処理装置及び画像処理制御プログラム
US8121429B2 (en) Image processing apparatus, image-capturing apparatus, image processing method, and program
JP4857933B2 (ja) ノイズリダクション方法、プログラム、装置及び撮像装置

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KM KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NG NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
NENP Non-entry into the national phase

Ref country code: DE

WWW Wipo information: withdrawn in national office

Country of ref document: DE

WWE Wipo information: entry into national phase

Ref document number: 11628910

Country of ref document: US

Ref document number: 2007177027

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 11628910

Country of ref document: US

122 Ep: pct application non-entry in european phase