WO2006046493A1 - 超解像処理の高速化方法 - Google Patents

超解像処理の高速化方法 Download PDF

Info

Publication number
WO2006046493A1
WO2006046493A1 PCT/JP2005/019437 JP2005019437W WO2006046493A1 WO 2006046493 A1 WO2006046493 A1 WO 2006046493A1 JP 2005019437 W JP2005019437 W JP 2005019437W WO 2006046493 A1 WO2006046493 A1 WO 2006046493A1
Authority
WO
WIPO (PCT)
Prior art keywords
super
resolution
resolution processing
speeding
pixel
Prior art date
Application number
PCT/JP2005/019437
Other languages
English (en)
French (fr)
Inventor
Masayuki Tanaka
Masatoshi Okutomi
Original Assignee
Tokyo Institute Of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo Institute Of Technology filed Critical Tokyo Institute Of Technology
Priority to US11/666,605 priority Critical patent/US8009933B2/en
Priority to EP05795779A priority patent/EP1811453A4/en
Publication of WO2006046493A1 publication Critical patent/WO2006046493A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • H04N1/393Enlarging or reducing
    • H04N1/3935Enlarging or reducing with modification of image resolution, i.e. determining the values of picture elements at new relative positions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • G06T3/4069Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution by subpixel displacements

Definitions

  • the present invention relates to a method for speeding up super-resolution processing that speeds up super-resolution processing that estimates one high-resolution image from a plurality of low-resolution images, and in particular, in reconstruction-type super-resolution processing, estimation is performed.
  • the super-resolution processing document speeds up super-resolution processing that estimates one high-resolution image from a plurality of low-resolution images, and in particular, in reconstruction-type super-resolution processing, estimation is performed.
  • the present invention relates to a high-speed method for super-resolution processing that realizes high speed.
  • Non-Patent Document 1 In recent years, there have been many reports on super-resolution processing that estimates one high-resolution image from multiple low-resolution images with misalignment (see Non-Patent Document 1). For example, ML (Maxinrnm-likelihood) method disclosed in Non-Patent Document 2, MAP (Maximum A Posterior) method disclosed in Non-Patent Document 3, and POCS (Projection Onto Various super-resolution processing methods such as the Convex Sets method have been proposed.
  • the ML method uses a square error between the pixel value of the low-resolution image estimated from the high-resolution image and the actually observed pixel value as the evaluation function, and estimates the high-resolution image that minimizes the evaluation function. In other words, this is a super-resolution processing method based on the principle of maximum likelihood estimation.
  • the MAP method is a method of estimating a high-resolution image that minimizes the evaluation function by adding the probability information of the high-resolution image to the square error, that is, using some foresight information for the high-resolution image.
  • it is a super-resolution processing method that estimates a high-resolution image as an optimization problem that maximizes the posterior probability.
  • the POCS method is a super-resolution process that creates high-resolution images by creating simultaneous equations for pixel values of high-resolution images and low-resolution images and solving the equations sequentially. Is the method.
  • any of the above-described super-resolution processing methods first, a high-resolution image is assumed, and a point spread function (PSF function) obtained from a force mela model from the assumed high-resolution image is used for each pixel of all low-resolution images.
  • PSF function point spread function
  • the super-resolution processing method is called a reconfigurable super-resolution processing method.
  • the unknown dimension of the number of pixels in the high-resolution image is very large, so it is not practical to obtain a high-resolution image analytically.
  • the image is estimated. It is well known that the iterative calculation requires estimation for all pixels of the low-resolution image for one iteration, and the calculation cost is high. In other words, the reconfiguration-type super-resolution processing has a large calculation cost, so the reduction of the calculation cost was the main issue of the existing super-resolution processing method.
  • the square error between the estimated value and the observed value is used as an estimation error evaluation function, and a high-resolution image is estimated as the result of the optimization calculation. Therefore, it is necessary to calculate the evaluation function of the square error and the derivative value of the evaluation function for the optimization calculation.
  • the estimation calculation is formulated as a convolution operation with a point spread function (PSF function) corresponding to the transfer function obtained from the camera model, but the convolution operation is performed on all low-resolution images.
  • PSF function point spread function
  • the present invention has been made under the circumstances as described above, and an object of the present invention is to achieve super-resolution processing that achieves high-speed super-resolution processing by reducing the number of convolution operations, which is the number of estimations.
  • the purpose of this is to provide a high-speed method. Disclosure of the invention
  • the present invention relates to a method for speeding up super-resolution processing for speeding up super-resolution processing for estimating one high-resolution image from a plurality of low-resolution images including misalignment.
  • the plurality of low resolution images are aligned in the high resolution image space, and all the pixels of the aligned low resolution images are sampled at unequal intervals in the high resolution image space.
  • the second step of dividing the high-resolution image space into a plurality of small areas having a predetermined size, and the second step A third step of setting an estimated value at a predetermined representative position in the small area as an estimated value of all pixels existing in the small area, or the small area has a square shape.
  • the estimated value in the third step is estimated as a convolution of the point spread function obtained from the camera model and the high resolution image. It is effectively achieved by the value obtained in this way.
  • I is an evaluation function for the small area
  • M is the number of all pixels belonging to the small area
  • fi is the i-th position coordinate (X;, yi) within the small area.
  • (X c , y J represents the representative position of the small region
  • (x e , e ) represents the estimated value of the representative position, or the super solution
  • the evaluation function required for image processing is expressed by the following equation:
  • I is an evaluation function for the small area
  • M is the number of all pixels belonging to the small area
  • f has position coordinates (X i, y;) within the small area represents the observed value of the i th pixel
  • (X c , y) represents the representative position of the small region
  • (,) represents the estimated value of the representative region
  • / represents the pixel in the small region.
  • X c , y; — y J is a weight function, and represents the weight corresponding to the i-th pixel having the position coordinate (X i y i) in the small region, and its value is the position coordinate (X i, y i)
  • the evaluation function necessary for the super-resolution processing is expressed by the following equation: the i-th pixel having a size becomes smaller as the distance from the representative position (X c , yc) increases.
  • I is an evaluation function for the small region
  • M is the number of all pixels belonging to the small region
  • f is a position coordinate
  • X;, yi) represents the observed value of the i th pixel
  • (X c, y c .) Represents the representative position of the small region,) represents the estimated value of the representative position
  • w (xi — X c , yi — y J is a weight function, which represents the weight corresponding to the i-th pixel having the position coordinate (x or y in the small region, and its value is the position coordinate (i having the position coordinate (X i, y J th pixel is the representative position (x c, y c) are UniNatsu'll be less Te ⁇ Tsu the distance from, W is corresponding to each pixel of the small region The sum of the weights, a is more effectively achieved by representing the weighted average of the subregions.
  • FIG. 1 is a schematic diagram for explaining the concept of super-resolution processing by a conventional super-resolution processing method.
  • FIG. 2 is a schematic diagram for explaining the concept of super-resolution processing to which the method for speeding up super-resolution processing according to the present invention is applied.
  • FIG. 3 (A) shows a high-resolution image with true values.
  • Fig. 3 (B) is an enlarged view of one of the low resolution images.
  • Fig. 3 (C) shows the results of super-resolution processing using the conventional super-resolution processing method.
  • FIG. 3 (D) is a diagram showing the result of the super-resolution processing using the method for speeding up the super-resolution processing according to the present invention.
  • FIG. 4 is a diagram showing the relationship between the size of the divided small regions and the calculation time * RMS error in the super-resolution processing using the method for speeding up the super-resolution processing according to the present invention. .
  • FIG. 5 is a diagram showing the super-resolution processing result using the real image (1).
  • Fig. 5 (A) is an enlarged view of the low resolution image to the size of the high resolution image.
  • Fig. 5 (B) shows a high-resolution image estimated by the conventional super-resolution processing method.
  • FIG. 5 (C) is a diagram showing a high-resolution image estimated by the super-resolution processing method of the present invention.
  • FIG. 6 is a diagram showing the super-resolution processing result using the real image (2).
  • Figure 6 (A) is an enlarged view of the low resolution image to the size of the high resolution image.
  • Fig. 6 (B) is a diagram showing a high-resolution image estimated by the conventional super-resolution processing method.
  • Figure 6 (C) shows the results of the super-resolution processing method of the present invention. It is a figure which shows the defined high resolution image.
  • Figure 6 (D) shows a high-resolution image estimated by the conventional super-resolution processing method while taking into account the deformation of the PSF.
  • Super-resolution processing is processing that estimates one high-resolution image from a plurality of low-resolution images that include misalignment, which is an observed image.
  • the “high-resolution image space to be restored” is referred to as a “high-resolution image space”.
  • Fig. 1 (C) After aligning multiple low-resolution images including misalignment in the high-resolution image space, the data for all observed images (that is, all the observed image pixels) are shown in Fig. 1 (C). As can be seen, it can be treated as data sampled at irregular intervals in a high-resolution image space. In other words, a plurality of low-resolution images registered in the high-resolution image space can be considered as pixels sampled at unequal intervals.
  • the position of the i-th data (that is, the i-th pixel after alignment) of multiple observation images (that is, multiple low-resolution images) is coordinated (X i, yi)
  • the pixel value be fi.
  • the pixel value observed in the high-resolution image space (hereinafter simply referred to as the observed value) of the i-th pixel after alignment (hereinafter simply referred to as the i-th pixel) is f;
  • the number of data after alignment of multiple observation images is the number of data sampled at irregular intervals in the high-resolution image space, that is, the number of pixels (number of pixels) of all observation images.
  • the pixel value of the i-th pixel having the position coordinates (X i, y ; ) is the point spread function (PSF function) obtained from the camera model.
  • PSF function point spread function
  • the reconstruction-type super-resolution processing method is the square of the observed value for each pixel and its estimated value for all pixels after alignment of the multiple observed images (the total number of pixels is N). This is a method of adjusting the high-resolution image h (x, y) so that the total error is reduced.
  • N is the number of data sampled at irregular intervals in the high-resolution image space, that is, the total number of pixels in all observed images (low-resolution images).
  • observation value observation data
  • I the estimated value of the i-th pixel with position coordinates (X i, yi) It is.
  • Equation 1 in the conventional super-resolution processing method, in order to compare the observed value (observed data) with the estimated value, for each pixel after alignment of multiple observed images, in other words, it is necessary to estimate from the high-resolution image h (X, y) only N times the number of data sampled at irregular intervals in the high-resolution image space.
  • a plurality of low-resolution images are aligned in a high-resolution image space.
  • the number of observation data that is, all registered low-resolution images
  • the calculation cost required for the estimation is reduced, and thus the super-resolution processing can be speeded up.
  • the positions of a plurality of low-resolution images including misalignments in the high-resolution image space All pixels after the alignment are assumed to be pixels distributed at irregular intervals in the high-resolution image space.
  • the resolution image space is divided into a plurality of small areas having a predetermined size, and for each divided small area, an estimated value of all pixels belonging to the small area is obtained, and a predetermined position in the small area is determined.
  • the maximum number of estimations required for the super-resolution processing can be reduced. It is a feature.
  • the high-resolution image space can be divided into four.
  • the high-resolution image space is divided into small areas of a predetermined size.
  • the estimated values of the pixels are naturally different, but in the present invention, in each divided small region, Assuming that the estimated values of all pixels belonging to the small area do not change, that is, the estimated values of all pixels belonging to the small area are approximated by the representative values of the representative points in the small area.
  • the divided small region for example, the shaded small region in FIG. 2 (B) is the attention region, there are three observation data in the attention region. If you apply the high-speed processing method, this estimation operation is performed once. 1
  • the conventional super-resolution processing method requires three estimation operations, which is the same as the number of observation data, in order to compare these three observation data.
  • the method for speeding up the super-resolution processing according to the present invention it can be expected to be three times faster than the conventional super-resolution processing method. it can.
  • the sum of the square errors related to the region of interest, that is, the evaluation function for the region of interest is expressed by a mathematical formula.
  • the conventional super-resolution processing method is expressed by the following equation 2
  • the super-resolution processing speedup method according to the present invention is expressed by the following equation. 3
  • I is the sum of the square errors between the observed values of all the pixels in the region of interest and the estimated values, that is, the evaluation function for the region of interest.
  • M is the number of data sampled at unequal intervals within the region of interest, that is, the number of all pixels belonging to the region of interest.
  • f represents the observed value (observed data) of the i-th pixel having the position coordinates (X i, yi) within the region of interest.
  • Equation 3 Represents the estimated value of the representative position.
  • the estimated value of the representative position of the attention area is a constant value. That's it.
  • Equation 2 in the conventional super-resolution processing method, the number of observation data is estimated several times within the region of interest (for example, the shaded region of interest in Fig. 2 (B)). In this case, three estimation operations must be performed.
  • the procedure for calculating the evaluation function I necessary for the super-resolution processing (step 1 to step 5 described later) is as follows.
  • the differential value of the evaluation function necessary for the super-resolution processing is also calculated by the same procedure as the evaluation function calculation procedure.
  • step 1
  • the high-resolution image space is divided into a plurality of small areas having a predetermined size.
  • Step 5 Repeat step 3 and step 4 for all sub-regions.
  • the high-resolution image space is divided into a plurality of small regions having a predetermined shape.
  • a high-resolution image space can be divided into a plurality of small square areas.
  • the estimation calculation in the super-resolution processing is expressed as a convolution operation with the PSF (Point Spread Function) obtained from the camera model.
  • PSF Point Spread Function
  • the small area having the square shape is set to 1 / integer of the pixel size of the high resolution image.
  • the small area having a square shape has been described above.
  • the small area is not limited to the shape of a square.
  • the high-resolution image space has another geometric shape such as a rectangle. It is also possible to divide it into small areas with various shapes.
  • I is an evaluation function for the region of interest.
  • M is the number of data sampled at unequal intervals in the attention area, that is, the number of all pixels belonging to the attention area.
  • f i represents the observed value (observed data) of the i-th pixel having the position coordinates (X i, y i) within the region of interest.
  • X y J represents the representative position of the region of interest. Represents the estimated value of the representative region.
  • _ Represents the average of the observed values of the pixels in the region of interest.
  • the estimated value of all pixels belonging to the attention area is constant within the attention area (that is, within a predetermined small area).
  • the reliability of the representative estimate decreases.
  • I is an evaluation function for the region of interest.
  • M is the number of data sampled at unequal intervals in the attention area, that is, the number of all pixels belonging to the attention area.
  • observation value observation of the i-th pixel having the position coordinates (X ;, yi) in the region of interest. Data).
  • (X ⁇ yj represents the representative position of the region of interest.
  • (X c , y c ) represents the estimated value of the representative region.
  • Wi — x c 'yi — yj is the weight function, and the region of interest Represents the weight corresponding to the i th pixel having the position coordinate (X i, y i) in the, and its value is as the i th pixel having the position coordinate (X iiy J is further away from the representative position (X c , y J) Get smaller.
  • Equation 7 when the square error of each pixel in the region of interest is deformed, that is, the following Equation 7 can be obtained except for the constant component of the above Equation 6.
  • the evaluation function I represented by the following formula 7 can also be used.
  • I is an evaluation function for the region of interest.
  • is the number of data sampled at unequal intervals in the region of interest, that is, the number of all pixels belonging to the region of interest.
  • fi represents the observed value (observed data) of the i-th pixel having the position coordinates ( X i , yi) within the region of interest.
  • (X c, y J represents the representative position of the region of interest.
  • C ) represents the estimated value of the representative position.
  • wixi — x ⁇ yi one y c ) is a weight function i with position coordinates (x ⁇ yi) in the region of interest Represents the weight corresponding to the first pixel, and its value decreases as the i-th pixel with position coordinates (X or y) moves away from the representative position (X y c ).
  • the sum of the corresponding weights / represents the weighted average of the region of interest.
  • Equation 7 when an observation image is given and a small region to be divided is set, W and / are uniquely determined, and thus do not change during super-resolution processing.
  • the method for speeding up the super-resolution processing according to the present invention is characterized in that it aims to increase the efficiency of calculation required for each iteration.
  • a plurality of low-resolution images including positional shifts are registered in a high-resolution image space, and a plurality of low-resolution images observed after the registration are aligned.
  • Treat the resolution image as non-uniformly sampled pixels in the high-resolution image space then divide the high-resolution image space into multiple small areas, By approximating that the value estimated from the resolution image is constant, the super-resolution processing is speeded up.
  • Non-Patent Document 5 many methods disclosed in Non-Patent Document 5 are used for matching for alignment of a plurality of low-resolution images including misalignment. Because there are, these existing matching methods can be used.
  • Fig. 3 (A) shows a high-resolution image with a true value
  • Fig. 3 (B) shows an enlarged view of one of the low-resolution images.
  • the magnification of the high-resolution image was 3.2, and a high-resolution image with a size of 2 5 6 X 19 2 was reconstructed using the MAP method.
  • MR F in the vicinity of 4 is assumed (see Non-Patent Document 6), and the constraint parameter ⁇ is set to 0.05.
  • the optimization calculation uses the Fletcher-Reevess conjugate gradient method (see Non-Patent Document 7), and the initial image is obtained by bicubic interpolation. An enlarged image is used.
  • the main calculation conditions are summarized in Table 1.
  • Fig. 3 (C) shows the result of the super-resolution processing by the conventional super-resolution processing method
  • Fig. 3 (D) shows the super-resolution processing applying the super-resolution processing speedup method according to the present invention. The results are shown respectively. 8
  • FIG. 3 (C) and FIG. 3 (D) have improved resolution compared to FIG. 3 (B). Also, there is no difference between Fig. 3 (C) and Fig. 3 (D).
  • the conventional super-resolution processing method (hereinafter also simply referred to as the conventional super-resolution processing method (a)) where sufficient memory can be used, and conventional memory where sufficient memory cannot be used.
  • Super-resolution processing using the super-resolution processing method (hereinafter also referred to simply as the conventional super-resolution processing method (b)) and the super-resolution processing speed-up method according to the present invention
  • the PSF Table 2 shows the pre-processing time required for kernel generation, the time required for iterative optimization, and the RMS error with the true value for quantitative evaluation of the image quality of high-resolution images.
  • Table 2 shows the ratio when the calculation time of super-resolution processing using the high-speed method of super-resolution processing according to the present invention is set to 1 in order to compare the calculation speed. Is also shown. Note that the CPU of the computer used for super-resolution processing was 2.8 [GH z] (Pentium4) (registered trademark).
  • the size of the small area to be approximated by the method for speeding up the super-resolution processing according to the present invention that is, 1 ZL, where L is an integer
  • the reconstructed high-resolution image In order to make a comparison with the calculation time required to calculate a high-resolution image, the same super-resolution processing was performed using the size of the small area (1 / L) as a parameter.
  • Fig. 4 shows the relationship between the RMS value of the true value of the output image (the reconstructed high-resolution image) and the calculation time required to calculate the high-resolution image and the size of the divided small regions. Shown in
  • Non-Patent Document 8 Two-dimensional simultaneous matching disclosed in Non-Patent Document 8 was used.
  • Fig. 5 (A) shows a low resolution image enlarged to the size of a high resolution image
  • Fig. 5 (B) shows a high resolution image estimated by a conventional super-resolution processing method
  • (C) shows high-resolution images estimated by the super-resolution processing method of the present invention.
  • FIGS. 5 (A), 5 (B) and 5 (C) an overall view is shown on the left side, and a partially enlarged view is shown on the right side.
  • Figure 5 (A), Figure 5 (B) and Figure 5 (C) are compared, and both Figure 5 (B) and Figure 5 (C) show the low-resolution image of Figure 5 (A).
  • the resolution is higher than
  • Fig. 5 (B) 'and Fig. 5 (C) are comparable even if they are compared in an enlarged view.
  • the RMS error of the entire image representing the difference between the output image by the conventional super-resolution processing method and the output image by the super-resolution processing method of the present invention was 2.5.
  • the super-resolution processing method of the present invention is 34.1 times as compared with the conventional super-resolution processing method (a). Compared with the super-resolution processing method (b), it is 3.2 times faster.
  • Non-Patent Document 9 For the estimation of alignment, the simultaneous estimation method disclosed in Non-Patent Document 9 was used.
  • PSF which is a transfer function from the high-resolution image to the observed image, must also be deformed strictly in accordance with the projective deformation (see Non-Patent Document 6).
  • the super-resolution processing was performed by the super-resolution processing method of the present invention on the assumption that the projective deformation is so small that the deformation of PS F can be ignored.
  • Fig. 6 (A) shows an enlarged view of the low resolution image to the size of the high resolution image.
  • Fig. 6 (B) shows the high resolution image estimated by the conventional super-resolution processing method.
  • (C) shows high-resolution images estimated by the super-resolution processing method of the present invention.
  • Fig. 6 (D) considers PSF deformation. However, the high-resolution image estimated by the conventional super-resolution processing method is shown. 6 (A), 6 (B), 6 (C) and 6 (D), the left side is an overall view and the right side is a partially enlarged view. is there.
  • FIG. 6 (B), FIG. 6 (C) and FIG. 6 (D) is higher than that of FIG. 6 (A).
  • Table 4 shows a comparison of the calculation time required for the super-resolution processing using the conventional super-resolution processing method and the super-resolution processing method of the present invention using the real image (2) when the PSF deformation is ignored.
  • the super-resolution processing method of the present invention is compared with the conventional super-resolution processing method (a) as in the case of using the real image (1). It is confirmed that the calculation time is shortened by 5 times and 3.1 times compared with the conventional super-resolution processing method (b).
  • the high-resolution image space is divided into a plurality of small regions, and an approximation that the estimated value is constant in each divided small region is performed.
  • the estimated number of representative points of the small area is approximately regarded as the estimated value for all the pixels existing in the small area, thereby reducing the number of estimations. Therefore, the biggest feature is to reduce the calculation cost.
  • the present invention it is possible to compare the estimated value with the pixel value of a pixel in the small area as long as the estimation is performed once for one small area (estimation of the representative point of the small area). . Therefore, the decrease in the number of estimations directly leads to faster super-resolution processing.
  • the high-speed super-resolution processing is realized by applying the super-resolution processing speed-up method according to the present invention to the composite image and the two types of real images. It was confirmed.
  • the method for speeding up the super-resolution processing is not limited to the MAP method, but can also be applied to other super-resolution processing methods such as ML method and POCS method.
  • Industrial applicability is not limited to the MAP method, but can also be applied to other super-resolution processing methods such as ML method and POCS method.
  • the method for speeding up super-resolution processing according to the present invention first, a plurality of low-resolution images including misalignments in a high-resolution image space are aligned, and observation after alignment is performed.
  • the plurality of low-resolution images are treated as non-uniformly sampled pixels in the high-resolution image space, and the high-resolution image space is divided into a plurality of small regions. It is assumed that the value estimated from the high-resolution image is constant. As a result, the super-resolution processing can be speeded up.
  • the high-speed super-resolution processing was realized by applying the high-speed super-resolution processing method according to the present invention to the composite image and the two types of real images.
  • Non-patent document 1
  • Non-patent document 2
  • Non-Patent Document 3 "Resolution off-off high-resolution image by simul- taneous resist-restraint-re-transition un-interpolation-off-low-resolution i main 1 ⁇ Nsu (Reconstruct 1 on of a high- resolution image by simultaneous registration, restoration, and interpolation of low-resolution images) J, profile click. IEEE Lee down the door. co-down-off. Lee menu over di profile Sensing (Proc. IEEE Int. Conf. Image Processing), Volume 2, p.539-542, 1995 Non-Patent Document 3:
  • Patent Document 5 Co-authored by H. Stark and F. Oskoui, “No, Re-Resonance Image, Re-imaged, Image Plane, Arrays, Using, Convex Project, High Resolution Image Recovery from image-plane arrays, using convex projections), J. Opt. Soc. Am. A, Vol. 6, p. 1715-1726, 1989 Patent Document 5:
  • Non-Patent Document 7 “Image Mosaic King And” by D. Capel SUNOI RESOLUTION (Image Mosaicing and Super-resolution) J, Springer, 2003 Non-Patent Document 7:

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Studio Devices (AREA)

Abstract

推定回数である畳み込み演算の回数を減少させることによって超解像処理の高速化を実現した超解像処理の高速化方法を提供する。 位置ずれを含む複数の低解像度画像から一つの高解像度画像を推定する超解像処理を高速化するための超解像処理の高速化方法であって、高解像度画像空間に前記複数の低解像度画像の位置合わせを行い、位置合わせされた前記複数の低解像度画像の全ての画素を、前記高解像度画像空間において不等間隔にサンプリングされた画素とする第1のステップと、前記高解像度画像空間を所定の大きさを有する複数の小領域に分割する第2のステップと、第2のステップで分割された各小領域に対して、当該小領域内の所定の代表位置での推定値を当該小領域に存在する全ての画素の推定値とする第3のステップとを有する。

Description

超解像処理の高速化方法
技術分野
本発明は、 複数の低解像度画明像から一つの高解像度画像を推定する超 解像処理を高速化する超解像処理の高速化方法に関し、 特に、 再構成型 超解像処理において、 推定回数を低減するこ とによって、 超解像処理の 書
高速化を実現させる超解像処理の高速化方法に関する。
背景技術
位置ずれのある複数の低解像度画像よ り一つの高解像度画像を推定す る超解像処理に関しては、 近年数多く の研究で報告されている (非特許 文献 1参照) 。 例えば、 非特許文献 2に開示されている M L (Maxinrnm - likelihood)法、 非特許文献 3 に開示されている M A P (Maximum A Posterior)法や、 非特許文献 4に開示されている P O C S (Projection Onto Convex Sets)法など様々な超解像処理方法が提案されている。
ML法とは、 高解像度画像から推定された低解像度画像の画素値と実 際に観測された画素値の二乗誤差を評価関数と し、 評価関数を最小化す るような高解像度画像を推定画像とする方法で、 つま り、 最尤推定の原 理に基づく超解像処理方法である。
また、 MA P法とは、 二乗誤差に高解像度画像の確率情報を付加した 評価関数を最小化するよ う な高解像度画像を推定する方法で、 つま り、 高解像度画像に対するある先見情報を利用して、 事後確率を最大化する 最適化問題と して高解像度画像を推定する超解像処理方法である。 そして、 P O C S法とは、 高解像度画像と低解像度画像の画素値に関 して連立方程式を作成し、 その方程式を逐次的に解く ことによ り、 高解 像度画像を得る超解像処理方法である。
上述したいずれの超解像処理方法では、 まず、 高解像度画像を仮定し 、 そして仮定した高解像度画像から力メラモデルから得られる点広がり 関数 ( P S F関数) に基づき、 全ての低解像度画像の画素毎に、 その画 素値を推定し、 その推定値と観測された画素値 (観測値) の差が小さく なるよ うな高解像度画像を探索するという共通の特徴を有しており、 こ れらの超解像処理方法は、 再構成型超解像処理方法と呼ばれている。
再構成型超解像処理方法の共通の性質と して、 まず、 高解像度画像の 画素数の未知数があり非常に高次元の問題であり、 そして、 複数の低解 像度画像の全ての画素について高解像度画像から低解像度画像を推定す る必要がある、 という ことが挙げられる。
再構成型超解像、処理方法においては、 高解像度画像の画素数の未知数 の次元が非常に大きいため、 解析的に高解像度画像を求めることは現実 的ではなく 、 繰返し計算によ り高解像度画像が推定されている。 また、 繰返し計算では一度の繰返しに対して、 全ての低解像度画像の画素に対 して推定を行う必要があり、 その計算コス トが大きいという問題がよく 知られている。 つま り、 再構成型超解像処理では、 計算コス トが大きい ので、 計算コス トの低減が既存の超解像処理方法の主な課題であった。
また、 超解像処理では、 推定値と観測値の二乗誤差を推定誤差の評価 関数と して、 その最適化計算の結果と して高解像度画像を推定するよ う にしている。 よって、 その最適化計算のために、 二乗誤差の評価関数や 評価関数の微分値を計算する必要がある。
上述したよ うに、 既存の超解像処理方法では、 二乗誤差の評価関数や その微分値を計算するために、 複数の低解像度画像の全ての画素の観測 値に対応する推定値を算出する必要がある。 従って、 複数の低解像度画 像の総画素数回の推定を行う必要がある。 推定計算は、 カメ ラモデルか ら得られる伝達関数に相当する点広がり 関数 ( P S F関数) との畳み込 み演算と して定式化されているが、 その畳み込み演算を複数の低解像度 画像の全ての画素に対して行う必要があり、 一般的に、 超解像処理に用 いられる複数の低解像度画像の総画素数は 8 0 0 0〜 8 0万にもなり、 推定に必要な計算コス トが非常に大きいという問題が有った。
本発明は、 上述のよ うな事情よ り なされたものであり、 本発明の目的 は、 推定回数である畳み込み演算の回数を減少させることによって超解 像処理の高速化を実現した超解像処理の高速化方法を提供することにあ る。 発明の開示
本発明は、 位置ずれを含む複数の低解像度画像から一つの高解像度画 像を推定する超解像処理を高速化するための超解像処理の高速化方法に 関し、 本発明の上記目的は、 高解像度画像空間に前記複数の低解像度画 像の位置合わせを行い、 位置合わせされた前記複数の低解像度画像の全 ての画素を、 前記高解像度画像空間において不等間隔にサンプリ ングさ れた画素とする第 1 のステップと、 前記高解像度画像空間を所定の大き さを有する複数の小領域に分割する第 2のステップと、 第 2のステップ で分割された各小領域に対して、 当該小領域内の所定の代表位置での推 定値を当該小領域に存在する全ての画素の推定値とする第 3のステップ とを有することによ り、 或いは、 前記小領域は正方形の形状を有するこ とによ り、 或いは、 前記正方形の一辺の大き さは、 前記高解像度画像の ピクセルの大きさの整数分の 1であることによ り、 或いは、 第 3 のステ ップにおける前記推定値は、 カメ ラモデルから得られる点広がり 関数と 前記高解像度画像の畳み込みと して推定して得られた値であることによ つて効果的に達成される。
また、 本発明の上記目的は、 前記超解像処理に必要な評価関数は次の 式で表され、
Figure imgf000006_0001
ただし、 I は前記小領域に対する評価関数であり、 また、 Mは前記小領 域に属する全ての画素の数であり、 f iは前記小領域内の位置座標(X ; , y i )を有する i番目の画素の観測値を表し、 (X c , y Jは前記小領域 の代表位置を表し、 (xee)は前記代表位置の推定値を表すこ とによ り 、 或いは、 前記超解像処理に必要な評価関数は次の式で表され、
Figure imgf000006_0002
ここで、 下記数式が成立し、
Figure imgf000006_0003
ただし、 I は前記小領域に対する評価関数であり、 また、 Mは前記小領 域内に属する全ての画素の数であり 、 f ;は前記小領域内の位置座標( X i , y ; )を有する i 番目の画素の観測値を表し、 ( X c , y 。)は前記小 領域の代表位置を表し、 ( , )は前記代表位置の推定値を表し、 /は前 記小領域内の画素の観測値の平均を表すこ とによ り、 或いは、 前記超解 像処理に必要な評価関数は次の式で表され、
Figure imgf000007_0001
ただし、 I は前記小領域に対する評価関数であり、 また、 Mは前記小領 域に属する全ての画素の数であり、 f iは前記小領域内の位置座標(X i , y i )を有する i 番目の画素の観測値を表し、 (x ^ y jは前記小領域 の代表位置を表し、 は前記代表位置の推定値を表し、 —
X c, y ;— y Jは重み関数で、 前記小領域内の位置座標(X い y i )を有 する i 番目の画素に対応する重みを表し、 その値は位置座標(X i, y i ) を有する i番目の画素が前記代表位置(X c, y c )から離れるに従って小 さ く なるよ うにすることによ り、 或いは、 前記超解像処理に必要な評価 関数は次の式で表され、
Figure imgf000007_0002
ここで、 下記数式が成立し、
Figure imgf000007_0003
一 I M
} 30 ただし、 I は前記小領域に対する評価関数であり、 また、 Mは前記小領 域内に属する全ての画素の数であり 、 f ;は前記小領域内の位置座標(
X ;, y i )を有する i 番目の画素の観測値を表し、 (X c , y c.)は前記小 領域の代表位置を表し、 )は前記代表位置の推定値を表し、 w (x i — X c, y i — y Jは重み関数で、 前記小領域内の位置座標(x い y を有する i 番目の画素に対応する重みを表し、 その値は位置座標(X i, y Jを有する i番目の画素が前記代表位置(x c, y c)から離れるに従つ て小さく なるよ うになつており、 Wは前記小領域内の各画素に対応する 重みの合計であり、 ァは前記小領域の重み付け平均を表すこ とによって 一層効果的に達成される。 図面の簡単な説明
第 1図は、 従来の超解像処理方法による超解像処理の概念を説明する ための模式図である。
第 2図は、 本発明に係る超解像処理の高速化方法を適用した超解像処 理の概念を説明するための模式図である。
第 3図 (A) は真値と した高解像度画像を示す図である。 第 3図 (B ) は低解像度画像の一つを高解像度画像の大きさに拡大した図である。 第 3図 (C ) は従来の超解像処理方法による超解像処理の結果を示す図 である。 第 3図 (D) は本発明に係る超解像処理の高速化方法を適用し た超解像処理の結果を示す図である。
第 4図は、 本発明に係る超解像処理の高速化方法を適用した超解像処 理において、 分割された小領域の大き さと、 計算時間 * RM S誤差との 関係を示す図である。
第 5図は、 実画像 ( 1 ) を用いて超解像処理結果を示す図である。 第 5図 (A) は低解像度画像を高解像度画像の大きさに拡大した図である 。 第 5図 ( B ) は従来の超解像処理方法によって推定された高解像度画 像を示す図である。 第 5図 (C ) は本発明の超解像処理方法によって推 定された高解像度画像を示す図である。
第 6図は、 実画像 ( 2 ) を用いて超解像処理結果を示す図である。 第 6図 (A) は低解像度画像を高解像度画像の大きさに拡大した図である 。 第 6図 (B ) は従来の超解像処理方法によって推定された高解像度画 像を示す図である。 第 6図 (C ) は本発明の超解像処理方法によって推 定された高解像度画像を示す図である。 第 6図 (D ) は P S Fの変形を 考慮しながら従来の超解像処理方法によって推定された高解像度画像を 示す図である。 発明を実施するための最良の形態
以下、 本発明を実施するための最良の形態を図面を参照して説明する 先ず、 本発明の詳細を説明する前に、 従来の超解像処理の概要につい て説明する。
超解像処理とは、 観測画像である位置ずれを含む複数の低解像度画像 から、 一つの高解像度画像を推定する処理である。
なお、 こ こでは、 『復元したい高解像度画像の空間』 を 『高解像度画 像空間』 と称する。
位置ずれを含む複数の低解像度画像の位置合わせを高解像度画像空間 に行った後に、 全ての観測画像のデータ (つま り、 全ての観測画像の画 素) は、 第 1 図 (C ) に示されるよ う に、 高解像度画像空間における不 規則間隔でサンプリ ングされたデータ と して扱う ことができる。 つま り 、 高解像度画像空間に位置合わせされた複数の低解像度画像は、 不等間 隔にサンプリ ングされた画素と考えることができる。
ここで、 複数の観測画像 (つま り、 複数の低解像度画像) の位置合わ せ後の i番目のデータ (つまり、 位置合わせ後の i番目の画素) の位置 を座標(X i , y i )と し、 その画素値を f i とする。 つま り 、 位置合わせ 後の i番目の画素 (以下、 単に i番目の画素と称する) の高解像度画像 空間における観測された画素値 (以下、 単に観測値と称する) は f ;で ある。 複数の観測画像の位置合わせ後のデータの個数は、 高解像度画像空間 における不規則間隔でサンプリングされたデータの個数となり、 つま り 、 全ての観測画像のピクセル数 (画素数) に一致する。
一方、 '高解像度画像を h (x, y )と仮定した場合に、 位置座標(X i, y ; )を有する i 番目の画素の画素値は、 カメ ラモデルから得られる点 広がり 関数 ( P S F関数) と高解像度画像 h ( X, y )の畳み込みと して 推定することができる。 この畳み込み演算によって得られる i番目の画 素の推定画素値 (以下、 単に推定値と称する) を (
Figure imgf000010_0001
とす る。
従って、 再構成型超解像処理方法とは、 複数の観測画像の位置合わせ 後の全ての画素 (総画素数は Nである) に対して、 画素毎の観測値とそ の推定値の二乗誤差の合計が小さく なるよ うに、 高解像度画像 h ( x , y )を調整する方法である。
複数の観測画像の位置合わせ後の全ての画素の観測値とその推定値の 二乗誤差の合計を数式で表せば、 下記数 1 のよ うになる。
【数 1 】
J-ム —/(½ )
/'=1 ただし、 I は、 複数の観測画像の位置合わせ後の全ての画素の観測値 とその推定値との二乗誤差の総和で、 つま り、 再構成型超解像処理にお ける推定誤差を評価するための評価関数である。 また、 Nは、 高解像度 画像空間における不規則間隔でサンプリ ングされたデータの個数であり 、 つま り、 全ての観測画像 (低解像度画像) の総画素数である。 f ;は 、 位置座標( X ; , y i )を有する i 番目の画素の観測値 (観測データ) で ある。 また、 は、 位置座標(X i, y i )を有する i番目の画素の推定値 である。
上記数 1 から分かるよ うに、 従来の超解像処理方法では、 観測値 (観 測データ) と推定値を比較するためには、 複数の観測画像の位置合わせ 後の全ての画素毎に対し、 つまり、 高解像度画像空間における不規則間 隔でサンプリ ングされたデータの個数 N回だけ、 高解像度画像 h ( X, y )から を推定する必要がある。
しかしながら、 高解像度画像 h ( X, y )から .を推定する、 すなわち
、 畳み込み演算の計算コス トが大きいことがよく知られている。
要するに、 上記数 1 に表される評価関数を用いる従来の超解像処理方 法では、 例えば、 第 2図 (A ) に示されたよ うに、 高解像度画像空間に 複数の低解像度画像の位置合わせを行った後に、 高解像度画像空間に観 測された不規則間隔でサンプリ ングされたデータがあった場合に、 前述 の通り、 観測データの個数回 (つまり、 位置合わせされた全ての低解像 度画像の総画素数回) の推定計算 (つまり、 畳み込み演算) が必要とな り、 第 2図 (A ) の場合では、 高解像度画像空間に 8個の観測データが あるので、 評価関数を算出するために、 計 8回の畳み込み演算が必要で ある。
そこで、 本発明では、 推定回数である畳み込み演算の回数を減少させ ることにより、 推定に必要な計算コス トの減少を実現し、 よつて超解像 処理の高速化を可能にした。
次に、 本発明に係る超解像処理の高速化方法について詳細に説明する 本発明に係る超解像処理の高速化方法では、 高解像度画像空間に位置 ずれを含む複数の低解像度画像の位置合わせを行った後の全ての画素を 、 高解像度画像空間における不規則間隔で分布される画素と し、 その高 解像度画像空間を所定の大きさを有する複数の小領域に分割し、 分割さ れる各小領域毎に、 その小領域内に属する全ての画素の推定値を、 その 小領域内の所定の位置を有する代表点 (以下、 単に代表位置とも称する ) の代表推定値 (以下、 単に代表値とも称する) で近似するこ とによ り 、 超解像処理に必要な推定回数を低減させることを最大の特徴と してい る。
ここで、 例えば、 第 2図 (A ) に示されたよ う に、 高解像度画像空間 に 8個の観測データがある場合に、 本発明に係る超解像処理の高速化方 法を適用すると、 例えば、 第 2図 (B ) に示されるよ う に、 高解像度画 像空間を 4分割することができる。 つま り、 高解像度画像空間を所定の 大きさの小領域に分割する。
高解像度画像空間に属する画素が異なれば、 つま り 、 画素の座標(x, y )が異なれば、 当然、 画素の推定値も異なるが、 本発明では、 分割さ れた各小領域の中ではその小領域内に属する全ての画素の推定値が変化 レないと仮定し、 つま り、 その小領域内に属する全ての画素の推定値を その小領域内の代表点の代表値で近似する。
このよ うにすることによ り 、 各小領域に存在する複数の観測データに 対しては、 つま り、 各小領域に属する複数の画素に対しては、 1 回の推 定演算を行うだけで、 観測データと (近似) 推定値との比較を行う こと ができる。 要するに、 一回の畳み込み演算による推定によ り、 ある小領 域内に存在する複数個の観測データの誤差計算、 すなわち評価関数計算 が可能となる。
分割されたある小領域、 例えば、 第 2図 (B ) の網掛けの小領域を注 目領域とすれば、 注目領域内に 3点の観測データがあるが、 本発明に係 る超解像処理の高速化方法を適用すれば、 1回の推定演算によ り 、 この 1
3点の観測データの比較が行える。 つま り、 1回の畳み込み演算によ り 3点の観測データ分の推定を行ったことになる。
一方、 従来の超解像処理方法では、 この 3点の観測データとの比較を 行うためには、 観測データ数と同じ 3回の推定演算が必要である。 つま り、 この注目領域に関しては、 本発明に係る超解像処理の高速化方法を 適用するこ とにより、 従来の超解像処理方法と比べて、' 3倍の高速化を 期待することができる。
注目領域に関する二乗誤差の合計、 つま り、 注目領域に対する評価関 数を数式で表すと、 従来の超解像処理方法が下記数 2、 本発明に係る超 解像処理の高速化方法が下記数 3 となる。
【数 2】
Figure imgf000013_0001
【数 3 】
Figure imgf000013_0002
ただし、 数 2及ぴ数 3において、 I は、 注目領域内の全ての画素の観 測値とその推定値との二乗誤差の総和で、 つま り、 注目領域に対する評 価関数である。 また、 Mは、 注目領域内における不等間隔でサンプリ ン グされたデータの個数であり、 つま り、 注目領域に属する全ての画素の 数である。 f ;は、 注目領域内の位置座標(X i, y i )を有する i番目の 画素の観測値 (観測データ) を表す。 (X,., は、 注目領域内の位置座 標(X i, y i )を有する i番目の画素の推定値を表す。 また、 (x e, y c ) は、 注目領域の代表位置を表す。 ( , )は、 その代表位置の推定値を 表す。 数 3からも分かるよ うに、 本発明では、 注目領域内に観測データの個 数 Mが変化しても、 注目領域の代表位置の推定値は、 一定値であるため 、 推定演算は 1回で済む。 一方、 数 2からも分かるよ う に、 従来の超解 像処理方法では、 注目領域内に観測データの個数回の推定演算、 (例え ば、 第 2図 ( B ) の網掛けの注目領域の場合には、 3回の推定演算) を 行わなければならない。
本発明に係る超解像処理の高速化方法では、 超解像処理に必要な評価 関数 I を算出する際の手順 (後述するステップ 1〜ステップ 5 ) が以下 のよ うになっている。 なお、 本発明では、 超解像処理に必要な評価関数 の微分値も、 評価関数の算出手順と同じよ うな手順で算出される。
ステップ 1 :
高解像度画像空間を複数の所定の大きさを有する小領域に分割する。 ステップ 2 :
評価関数 I の初期値を設定する。 つま り、 1 = 0 とする。
ステップ 3 :
ある小領域に関して、 その小領域に属する画素がある場合に、 つま り 、 その小領域内に観測データがある場合に、 その小領域の代表点 (代表 位置) だけに対して畳み込み演算による推定を行う。 そして、 小領域に 属する全ての画素に対して、 その画素の観測値 (観測データ) と得られ た代表点の推定値との差の二乗を評価関数 I に加えるよ うにする。 一方 、 その小領域内に観測データがない場合に、 評価関数 I に対して何もし ないことにする。
ステップ 4 :
次の小領域に移動する。
ステップ 5 : 分割された全ての小領域に対して、 ステップ 3 とステップ 4を操り返 す。
次に、 本発明において、 小領域の分割方法について説明する。
本発明に係る超解像処理の高速化方法では、 高解像度画像空間を所定 の形状を有する小領域に複数分割するよ うにしている。 例えば、 その一 例と して、 高解像度画像空間を複数の正方形の小領域に分割することが できる。
超解像処理における推定計算は、 カメ ラモデルから得られる P S F (Po int Spread Funct i on: 点広がり 関数)との畳み込み演算と して表 現される。 例えば、 分割される小領域が正方形の形状を有する場合に、 小領域 (正方形) の一辺の大きさが、 高解像度画像のピクセルの大きさ の整数分の 1 (つま り、 1 Z L、 ここで Lは整数である)であれば、 P S Fカーネルの種類は、 ピクセル単位での位置合わせを考慮することによ り 、 L 2であるこ'とが分かる。
従って、 本発明では、 正方形の形状を有する小領域を、 高解像度画像 のピクセルの大きさの整数分の 1 とすることが好ましい。
以上は、 正方形の形状を有する小領域について説明したが、 本発明で は、 小領域が正方形という形状に限定されることがなく 、 例えば、 高解 像度画像空間を長方形などの他の幾何的な形状を有する小領域に分割す ること も可能である。
また、 本発明では、 下記数 4で表す評価関数 I を用いることも可能で め O
【数 4】
I = M\f -f(xc,y 4
ここで、 下記数 5が成立する
【数 5 】
Figure imgf000016_0001
ただし、 数 4及び数 5において、 I は注目領域に対する評価関数であ る。 また、 Mは、 注目領域内における不等間隔でサンプリ ングされたデ ータの個数であり、 つま り、 注目領域に属する全ての画素の数である。 f iは、 注目領域内の位置座標(X i, y i )を有する i 番目の画素の観測 値 (観測データ) を表す。 また、 (X y Jは注目領域の代表位置を表 す。 はその代表位置の推定値を表す。 _ は注目領域内の画素の観 測値の平均を表す。
ところで、 本発明では、 注目領域内 (つま り、 所定のある小領域内) で、 その注目領域に属する全ての画素の推定値は一定であると近似して いるが、 その注目領域に属する画素が注目領域の代表位置から離れるに 従い、 その代表推定値の信頼性は小さく なる。 このことを考慮して、 本 発明では、 注目領域内の各画素の観測値とその推定値との二乗誤差に重 みを付加することによって、 下記数 6で表す評価関数 I を用いることが できる。
【数 6】
M Λ
= ―^, — Λ ) — f(xc, yc )
=1 ただし、 数 6において、 I は注目領域に対する評価関数である。 また 、 Mは、 注目領域内における不等間隔でサンプリ ングされたデータの個 数であり、 つま り 、 注目領域に属する全ての画素の数である。 f ;は、 注目領域内の位置座標(X ;, y i )を有する i 番目の画素の観測値 (観測 データ) を表す。 また、 (x ^ y jは、 注目領域の代表位置を表す。 (xc,yc)は、 その代表位置の推定値を表す。 w i — x c ' y i — y jは 、 重み関数で、 注目領域内の位置座標(X i , y i )を有する i 番目の画素 に対応する重みを表し、 その値は位置座標(X i i y Jを有する i 番目の 画素が代表位置(X c, y Jから離れるに従って小さく なる。
また、 本発明では、 注目領域内の各画素の二乗誤差を変形させると、 つま り、 上記数 6の定数成分を除いて下記数 7を得ることができる。 つ ま り、 本発明では、 下記数 7で表す評価関数 I を用いることも可能であ る。
【数 7】
i = w\f-f(xc,yc)\2
こ こで、 下記数 8及ぴ数 9が成立する。
【数 8】
Figure imgf000017_0001
【数 9】
一 1 Μ
:=^ 2^^ (^— , ― c) .
/=1
ただし、 数 7、 数 8及ぴ数 9において、 I は注目領域に対する評価関 数である。 また、 Μは、 注目領域内における不等間隔でサンプリ ングさ れたデータの個数であり、 つま り、 注目領域に属する全ての画素の数で ある。 f iは、 注目領域内の位置座標(X i, y i )を有する i 番目の画素 の観測値 (観測データ) を表す。 また、 (X c , y Jは注目領域の代表位 置を表す。 , c)は、 その代表位置の推定値を表す。 w i x i — x ^ y i 一 y c )は、 重み関数で、 注目領域内の位置座標(x ^ y i )を有する i 番目の画素に対応する重みを表し、 その値は位置座標(X い y を有す る i番目の画素が代表位置(X y c )から離れるに従って小さく なる。 Wは注目領域内の各画素に対応する重みの合計である。 /は注目領域の 重み付け平均を表す。
また、 観測画像が与えられて、 そして分割される小領域を設定した場 合に、 Wおよび/は一意に決まるので、 超解像処理の間は変化しない。 そして、 数 6 と数 7を比較した場合に、 明らかに数 7の計算量が小さい こ とが分かる。
上述したよ うに、 本発明に係る超解像処理の高速化方法では、 繰返し ごとに必要になる計算の効率化を目指していることが特徴である。
要するに、 本発明に係る超解像処理の高速化方法では、 まず、 高解像 度画像空間に位置ずれを含む複数の低解像度画像の位置合わせを行い、 位置合わせ後の観測された複数の低解像度画像を、 高解像度画像空間に おいて不等間隔にサンプリ ングされた画素と して扱い、 次に、 高解像度 画像空間を複数の小領域に分割し、 分割された各小領域内において高解 像度画像から推定される値は一定であると近似することによ り、 超解像 処理の高速化を図るよ うにしている。
なお、 本発明に係る超解像処理の高速化方法においては、 位置ずれを 含む複数の低解像度画像の位置合わせのためのマッチングに関して、 例 えば非特許文献 5に開示されている多く の方法があるので、 これら既存 のマッチング方法を利用するこ とができる。
次に、 本発明による超解像処理の顕著な高速化効果を確認するために 、 まず、 合成画像に対して、 本発明に係る超解像処理の高速化方法を適 用した超解像処理の結果と、 従来の超解像処理方法による超解像処理の 結果について説明する。 7
従来の超解像処理方法による超解像処理の結果と、 本発明に係る超解 像処理の高速化方法を適用した超解像処理の結果とを比較するために、 I S OZD I S 1 2 6 4 0 ( I S O 4 0 0 )の基準画像の一部を真の高解 像度画像と仮定し、 ガウシアン P S F ( CT = 0. 3 )を仮定して 6 4枚の 合成画像(8 0 X 6 0 )を低解像度画像と した。
第 3図 (A) に真値と した高解像度画像を、 第 3図 (B ) に低解像度 画像の一つを高解像度画像の大きさに拡大した図を、 それぞれ示す。 高 解像度画像の倍率は 3. 2 と し、 2 5 6 X 1 9 2の大き さの高解像度画 像を MA P法によ り高解像度画像を再構成した。 MA P法の拘束項には 4近傍の MR Fを仮定し (非特許文献 6参照) 、 拘束パラメータ αは 0 . 0 5 と した。 また、 最適化計算にはフ レッ チャー · リ ーべス ( Fletcher- Reevess) の共役勾配法を利用し (非特許文献 7参照) 、 初期 画像は基準となる低解像度画像をバイキュービック補間によ り拡大した 画像を利用している。 主な計算の条件は表 1 にまとめる。
【表 1 】 計 算 条 件
Figure imgf000019_0001
第 3図 (C ) に従来の超解像処理方法による超解像処理の結果を、 第 3図 (D) に本発明に係る超解像処理の高速化方法を適用した超解像処 理の結果を、 それぞれ示す。 8
まず、 主観評価と して、 第 3図 (C) 、 第 3図 (D ) ともに、 第 3図 ( B ) と比較して解像感が上がっていることが確認される。 また、 第 3 図 (C) と第 3図 (D) における違いは見られない。
次に、 十分なメ モ リが利用できる従来の超解像処理方法による超解像 処理 (以下、 単に従来の超解像処理方法 ( a ) とも称する) 、 十分なメ モ リ が利用できない従来の超解像処理方法による超解像処理 (以下、 単 に従来の超解像処理方法 ( b ) とも称する) 、 及び本発明に係る超解像 処理の高速化方法を適用した超解像処理 (以下、 単に本発明の超解像処 理方法 ( c ) とも称する) の 3種類超解像処理方法に関して、 P S F力 一ネルの個数、 畳み込み演算の回数、 計算時間を比較するために、 P S Fカーネルの生成に要する前処理時間、 繰返し最適化に要する時間、 お ょぴ高解像度画像の画質を定量的に評価するための真値との RM S誤差 を、 表 2にそれぞれ示す。
【表 2】 従来の超解像処理方法と本発明の超解像処理方法との比較
(合成画像を用いた場合)
Figure imgf000020_0001
また、 表 2には、 計算速度を比較するために、 本発明に係る超解像処 理の高速化方法を適用した超解像処理の計算時間を 1 と したときの比率 も併せて示してある。 なお、 超解像処理に計算機の C P Uは、 2. 8 [G H z ] (Pentium4 ) (登録商標) を使用した。
表 2から計算時間の比較を行う と、 従来の超解像処理方法 ( a ) と比 較して 4 4. 1倍の高速化、 また、 従来の超解像処理方法 ( b ) と比較 して 2. 8倍の高速化が図られていることが分かる。 また、 出力画像 ( S構成された高解像度画像) に関しても、 本発明に係る超解像処理の高 速化方法と従来の超解像処理方法との比較では、 RM S誤差が若干大き く なつているものの、 その差は僅か 0. 1 6 であり、 ほぼ変化していな いことが確認された。
次に、 本発明に係る超解像処理の高速化方法で近似を行う小領域の大 きさ(つまり、 1 ZL、 ここで Lは整数である)と、 再構成された高解像 度画像の精度 ' 高解像度画像の算出に必要な計算時間との'比較を行うた め、 小領域の大きさ ( 1 / L) をパラメータ と して、 同様の超解像処理 を行った。 そのときの出力画像 (再構成された高解像度画像) の真値と の RM S誤差 · 高解像度画像の算出に必要な計算時間と分割される小領 域の大きさ との関係を第 4図に示す。
第 4図から分かるよ うに、 R M S誤差と計算時間には小領域の大きさ をパラメータ と して ト レー ドオフの関係があることが確認された。 また 、 計算時間が L = 6 (要するに、 分割される小領域の大きさ 1 ZL == 1 / 6 ) あたりで収束しているのは、 本発明に係る超解像処理の高速化方 法での畳み込み演算回数が必ず従来の超解像処理方法での畳み込み演算 回数以下であるため、 畳み込み演算回数の上限に達しているためである 。 そして、 RM S誤差に関しても、 L = 6以降での変化は小さレ、こ とも 分かる。
次に、 実画像を用いて、 本発明に係る超解像処理の高速化方法を適用 した超解像処理の結果と、 従来の超解像処理方法による超解像処理の結 果について説明する。
S o n y (登録商標) V X 2 0 0 0 という撮像装置 (カメ ラ) を利用 して動画像を撮影し、 カラー画像を 8 ビッ ト階調のグレースケールに変 換した後に、 表 1 の条件によって超解像処理を行った。 なお、 画像間の 位置ずれが平行移動となるよ うにカメ ラを固定し、 撮影対象を平行に移 動させた。 また、 位置合わせには、 非特許文献 8に開示されている二次 元同時マッチングを利用した。
第 5図 (A) に低解像度画像を高解像度画像の大きさに拡大した図を 、 第 5図 (B ) に従来の超解像処理方法によって推定された高解像度画 像を、 第 5図 (C ) に本発明の超解像処理方法によって推定された高解 像度画像を、 それぞれ示す。 第 5図 (A) 、 第 5図 (B ) 及び第 5図 ( C ) では、 それぞれ左側に全体図を、 右側に一部を拡大した拡大図を示 してある。
第 5図 (A) 、 第 5図 (B ) 及び第 5図 ( C) を比較する と、 第 5図 ( B ) 、 第 5図 ( C) ともに、 第 5図 (A) の低解像度画像に比べて解 像感が上がっている。 主観評価と しては、 第 5図 (B ) 'と第 5図 (C ) では、 拡大図で比較しても同程度である。 真値との比較はできないが、 従来の超解像処理方法による出力画像と本発明の超解像処理方法による 出力画像との違いを表す画像全体の RM S誤差は 2. 5であった。
また、 合成画像を用いて従来の超解像処理方法及ぴ本発明の超解像処 理方法による超解像処理の比較と同様に、 実画像 ( 1 ) を用いて従来の 超解像処理方法及び本発明の超解像処理方法による超解像処理に必要な 計算時間の比較を表 3にまとめる。
【表 3】 2
従来の超解像処理方法と本発明の超角^ [象処理方法との比較
f実画像(1)を用いた場合)
Figure imgf000023_0001
表 3から分かるよ うに、 実画像 ( 1 ) の場合でも、 本発明の超解像処 理方法は、 従来の超解像処理方法 ( a ) と比較して 3 4 . 1倍、 また、 従来の超解像処理方法 ( b ) と比較して 3 . 2倍、 高速になっている。
次に、 手持ちのカメ ラで撮影した動画像に対して、 同様に超解像処理 を行った。 観測画像 (低解像度画像) を撮影した撮像装置は手持ちカメ ラであるので、 観測画像間の位置合わせは、 射影変形を仮定して位置合 わせを行った。
位置合わせの推定には、 非特許文献 9に開示されている同時推定法を 利用した。 射影的な変形を考えた場合に、 高解像度画像から観測画像へ の伝達関数である P S Fも、 射影変形に合わせて厳密には変形させる必 要がある (非特許文献 6参照) 。 しかしながら、 P S Fの変形を無視で きる程度に、 射影的な変形は小さいと仮定して、 本発明の超解像処理方 法によ り超解像処理を行った。
第 6図 (A ) に低解像度画像を高解像度画像の大き さに拡大した図を 、 第 6図 (B ) に従来の超解像処理方法によって推定された高解像度画 像を、 第 6図 (C ) に本発明の超解像処理方法によって推定された高解 像度画像を、 それぞれ示す。 また、 第 6図 (D ) に P S Fの変形を考慮 しながら、 従来の超解像処理方法によって推定された高解像度画像を示 す。 なお、 第 6図 (A) 、 第 6図 (B ) 、 第 6図 (C ) 及び第 6図 (D ) では、 それぞれ左側に全体図を、 右側に一部を拡大した拡大図を示し てある。
実画像 ( 2 ) の場合も同様に、 第 6図 (A) と比較して、 第 6図 (B ) 、 第 6図 (C ) 及び第 6図 (D) は解像感が上がっている。 また、 第 6図 (B ) 、 第 6図 (C) 及び第 6図 (D) のそれぞれの拡大図で比較 しても、 その違いは殆どない。
P S Fの変形を無視した場合に、 実画像 ( 2 ) を用いて従来の超解像 処理方法及び本発明の超解像処理方法による超解像処理に必要な計算時 間の比較を表 4にまとめる。
【表 4】 従来の超解像処理方法と本発明の超解像処理方法との比較
(実画像(2)を用いた場合)
Figure imgf000024_0001
表 4から分かるよ うに、 実画像 ( 1 ) を用いた場合とほぼ同様に、 本 発明の超解像処理方法によ り、 従来の超解像処理方法 ( a ) と比較して 3 2. 5倍、 また、 従来の超解像処理方法 ( b ) と比較して 3. 1倍、 計 算時間が短縮されていることが確認される。
上述したよ うに、 本発明では、 複数の低解像度画像の全ての画素に対 して推定を行うのではなく、 高解像度画像空間を複数の小領域に分割し 、 分割された各小領域内で推定値が一定であるという近似を行う ことで 、 つま り、 その小領域内に含まれている画素座標位置に対しては、 その 小領域の代表点の推定値を近似的に小領域内に存在する全ての画素に対 する推定値とみなすことで、 推定回数を減少させ、 よって計算コス トを 減少させるこ とを最大の特徴と している。
要するに、 本発明では、 一つの小領域に対して一回の推定さえ行えば (その小領域の代表点の推定) 、 小領域内のピクセルの画素値と推定値 を比較することが可能である。 よって、 推定回数の減少分が直接に超解 像処理の高速化につながる。 また、 上記のよ うに、 合成画像及び 2種類 の実画像に対して、 本発明に係る超解像処理の高速化方法を適用するこ とによって、 超解像処理の高速化が実現されたこ とを確認した。
なお、 本発明に係る超解像処理の高速化方法を適用して、 M A P法に 関しての高解像度画像からの低解像度画像の画素の推定の回数を減少さ せることが好ましいが、 本発明に係る超解像処理の高速化方法は、 M A P法への適用に限らず、 他の超解像処理方法、 例えば M L法、 P O C S 法に関しても適用可能である。 産業上の利用可能性
以上のよ うに、 本発明に係る超解像処理の高速化方法を用いれば、 ま ず、 高解像度画像空間に位置ずれを含む複数の低解像度画像の位置合わ せを行い、 位置合わせ後の観測された複数の低解像度画像を、 高解像度 画像空間において不等間隔にサンプリ ングされた画素と して扱い、 そし て、 高解像度画像空間を複数の小領域に分割し、 分割された各小領域内 において高解像度画像から推定される値は一定であると近似するこ とに よ り、 超解像処理の高速化を実現できたという優れた効果を奏する。 また、 合成画像及び 2種類の実画像に対して、 本発明に係る超解像処 理の高速化方法を適用することによって、 超解像処理の高速化が実現さ れたことを確認した。
ぐ参考文献一覧 >
非特許文献 1 :
サング シー . ピー. (Sung C. P. ) ' ミ ン ケィ . ピー . (Min K.P.
) 共著、 「スーパーレゾルーシヨ ン イメージ リ コ ンス ト ラ ク ショ ン
: ァ ー テ ク 二 カ ノレ ーノ 一 ビ ュ ー Super-Resolution Image Reconstruction: A Technical Overviewリ 」 , I E E E シグ ナノレ プ ロ タ . マガジン (IEEE Signal Proc. Magazine) ,第 26 卷,第 3 号, p.21-36, 2003年
非特許文献 2 :
ビ ー . シ ー . ト ム ( B. C. Tom ) ' エ イ . ケ ィ . 力 ト サ ゲ ロ ス (
A. K. Katsaggelos) 共著、 「 リ コ ンス ト ラ ク シ ョ ン オフ ァー ハイ レゾルーショ ン イ メ ージ バイ シマルティ ニァス レジス ト レイ シ ヨ ン レス ト レイ シヨ ン アン ド イ ンターポレイ シヨ ン オフ ロー レゾルーシ ョ ン ィメ 1 ^ンス ( Reconstruct 1 on of a high-resolution image by simultaneous registration, restoration, and interpolation of low-resolution images ) J , プ ロ ク . I E E E イ ン ト . コ ン フ . イ メ ージ プ ロ セ シ ン グ (Proc. IEEE Int. Conf. Image Processing) ,第 2巻, p.539 - 542, 1995年 非特許文献 3 :
アール. アール. シュルツ (R. R. Schulz) · アーノレ. エル. スティブンス ン (R. L. Stevenson) 共著、 「ェクス ト ラク シヨ ン オフ ハイ レゾル一 シ ヨ ン フ レームズ フ ロ ム ビデオ シーケンス ( Extraction of high-resolution frames from video sequences) 」 , I ji E £ トフ ン ス . イメージ プロセシング (IEEE Trans. Image Processing) ,第 5 卷, p.996-1011, 1996年 非特許文献 4 :
ェイチ.スターク (H. Stark) · ピー.ォスコ ウイ (f. Oskoui) 共著、 「 ノ、ィ レゾノレーシヨ ン イメージ リ カノくリ ー フロム イメージプレ ーン アレーズ ユ ーシング コンベックス プロ ジェク シヨ ンズ ( High resolution image recovery from image-plane arrays, using convex projections) 」 ,ジエー. ォプ 卜 . ソク . ェム. エイ ' (J. Opt. Soc. Am. A) ,第 6巻, p.1715 - 1726, 1989年 非特許文献 5 :
ヒ、、一.ジ トーノ (B. Zitova) ' ジエー . フノレッサノレ (J.Flusser) 共著、 「イ メ ージ レジス ト レーシ ヨ ン メ ソ ッ ドズ : ァ サーベイ ( Image registration methods: a survey; 」 , メ 1 ~、ノ ゾ ン 卜 ヒ ン ヨ ン コンピューティ ング (Image and Vision Computing) ,第 21 卷, 第 11号, p.977 1000, 2003年 非特許文献 6 :
ディ ー.ケープル (D. Capel) 著、 「イメージ モザィ キング アン ド スーノ 一レゾ リ ューショ ン (Image Mosaicing and Super-resolut i on) J , スプリ ンガー (Springer) , 2003年 非特許文献 7 :
ダプリ ュ . ェイ チ. プレス (W. H.Pi-ess) ' エス .エイ .テゥコルスカイ ( S. A. Teukolsky) 他共著、 「ニューメ リカル レシピズ イ ン C + + (Numerical Recipes in C++) 」 ., ケンブ リ ッ ジ ュニ ノく一シテ ィ 一 プレス (Cambridge University Press) , 2002年 非特許文献 8 :
清水 · 奥富共著、 「領域ベースマ ッチングのための 2次元同時サブピク セル推定法」 、 信学論(D- 11),第 J87- D- II 巻,第 2 号, p.554- 564, 2004 年 非特許文献 9 :
清水 · 矢野 · 奥富共著、 「 2次元サブピクセル同時推定を拡張した画像 変形 Nパラメータ同時推定」 、 情報処理学会研究報告, 2004- CVIM- 143, 第 2004卷,第 26号, p.81-88, 2004年

Claims

請 求 の 範 囲
1 . 位置ずれを含む複数の低解像度画像から一つの高解像度画像を推定 する超解像処理を高速化するための超解像処理の高速化方法であって、 高解像度画像空間に前記複数の低解像度画像の位置合わせを行い、 位 置合わせされた前記複数の低解像度画像の全ての画素を、 前記高解像度 画像空間において不等間隔にサンプリ ングされた画素とする第 1 のステ ップと、
前記高解像度画像空間を所定の大きさを有する複数の小領域に分割す る第 2のステップと、
第 2のステップで分割された各小領域に対して、 当該小領域内の所定 の代表位置での推定値を当該小領域に存在する全ての画素の推定値とす る第 3 のステップと、
を有することを特徴とする超解像処理の高速化方法。
2 . 前記小領域は正方形の形状を有する請求の範囲第 1項に記載の超解 像処理の高速化方法。
3 . 前記正方形の一辺の大きさは、 前記高解像度画像のピクセルの大き さの整数分の 1である請求の範囲第 2項に記載の超解像処理の高速化方 法。
4 . 第 3のステップにおける前記推定値は、 カメ ラモデルから得られる 点広がり 関数と前記 '高解像度画像の畳み込みと して推定して得られた値 である請求の範固第 1項乃至請求の範囲第 3項のいずれかに記載の超解 像処理の高速化方法。
5 . 前記超解像処理に必要な評価関数は次の式で表され、
Figure imgf000030_0001
ただし、 I は前記小領域に対する評価関数であり、 また、 Μは前記小領 域に属する全ての画素の数であり、 f ;は前記小領域内の位置座標(3C i , y i )を有する i 番目の画素の観測値を表し、 ( X c, y c )は前記小領域 の代表位置を表し、 /( , )は前記代表位置の推定値を表す請求の範囲 第 1項乃至請求の範囲第 4項のいずれかに記載の超解像処理の高速化方 法。
6 . 前記超解像処理に必要な評価関数は次の式で表され、
I = M f - f(xc,yc) ここで、 下記数式が成立し、
U
f=—Y f.
J M ' ただし、 I は前記小領域に対する評価関数であり、 また、 Mは前記小領 域内に属する全ての画素の数であり 、 f iは前記小領域内の位置座標( X i, y ; )を有する i 番目の画素の観測値を表し、 ( X c, y e )は前記小 領域の代表位置を表し、 )は前記代表位置の推定値を表し、 ァは前 記小領域内の画素の観測値の平均を表す請求の範囲第 1項乃至請求の範 囲第 4項のいずれかに記載の超解像処理の高速化方法。
7 . 前記超解像処理に必要な評価関数は次の式で表され
Figure imgf000031_0001
ただし、 I は前記小領域に対する評価関数であり、 また、 Mは前記小領 域に属する全ての画素の数であり、 f ;は前記小領域内の位置座標(χ ; , y ; )を有する i 番目の画素の観測値を表し、 ( X c, y c )は前記小領域 の代表位置を表し、 ( , は前記代表位置の推定値を表し、 w ( X i — X c , y ; - y Jは重み関数で、 前記小領域内の位置座標(X ;, y i )を有 する i 番目の画素に対応する重みを表し、 その値は位置座標(X い y ; ) を有する i番目の画素が前記代表位置( χ c, y c )から離れるに従って小 さ く なるよ う にする請求の範囲第 1項乃至請求の範囲第 4項のいずれか に記載の超解像処理の高速化方法。
8 . 前記超解像処理に必要な評価関数は次の式で表され、
Figure imgf000031_0002
ここで、 下記数式が成立し、
Figure imgf000031_0003
ただし、 I は前記小領域に対する評価関数であり、 また、 Mは前記小領 域内に属する全ての画素の数であ り 、 f ;は前記小領域内の位置座標( x i, y i )を有する i 番目の画素の観測値を表し、 (X c, y 。)は前記小 領域の代表位置を表し、 )は前記代表位置の推定値を表し、 w ( x i 一 X c, y i — y Jは重み関数で、 前記小領域内の位置座標(X ;, y i ) を有する i番目の画素に対応する重みを表し、 その値は位置座標(X i , y を有する i番目の画素が前記代表位置(X c, y e )から離れるに従つ て小さ く なるよ うになっており 、 Wは前記小領域内の各画素に対応する 重みの合計であり、 /は前記小領域の重み付け平均を表す請求の範囲第 1項乃至請求の範囲第 4項のいずれかに記載の超解像処理の高速化方法
PCT/JP2005/019437 2004-10-29 2005-10-17 超解像処理の高速化方法 WO2006046493A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US11/666,605 US8009933B2 (en) 2004-10-29 2005-10-17 Fast method of super-resolution processing
EP05795779A EP1811453A4 (en) 2004-10-29 2005-10-17 METHOD FOR ACCELERATING SUPER-RESOLUTION PROCESSING

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004316154A JP3837575B2 (ja) 2004-10-29 2004-10-29 超解像処理の高速化方法
JP2004-316154 2004-10-29

Publications (1)

Publication Number Publication Date
WO2006046493A1 true WO2006046493A1 (ja) 2006-05-04

Family

ID=36227732

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/019437 WO2006046493A1 (ja) 2004-10-29 2005-10-17 超解像処理の高速化方法

Country Status (4)

Country Link
US (1) US8009933B2 (ja)
EP (1) EP1811453A4 (ja)
JP (1) JP3837575B2 (ja)
WO (1) WO2006046493A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101513033B (zh) * 2006-09-08 2011-09-21 索尼株式会社 图像处理装置和图像处理方法
CN103049885A (zh) * 2012-12-08 2013-04-17 新疆公众信息产业股份有限公司 一种利用分析性稀疏表示的超分辨率图像重建方法

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4126378B2 (ja) 2005-05-02 2008-07-30 国立大学法人東京工業大学 超解像処理の高速化方法
KR100655040B1 (ko) * 2005-11-24 2006-12-06 주식회사 휴맥스 디지털 영상신호 스케일링 방법
KR20070119879A (ko) * 2006-06-16 2007-12-21 삼성전자주식회사 영상의 해상도 변환 방법 및 그 장치
JP4670058B2 (ja) 2006-10-25 2011-04-13 国立大学法人東京工業大学 高解像度画像生成方法
JP2008109477A (ja) * 2006-10-26 2008-05-08 Fuji Electric Holdings Co Ltd 画像生成装置および画像生成方法
JP4646146B2 (ja) * 2006-11-30 2011-03-09 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
JP2008268725A (ja) * 2007-04-24 2008-11-06 Toshiba Corp 情報処理装置および画像データの高解像度化方法
GB0708676D0 (en) * 2007-05-04 2007-06-13 Imec Inter Uni Micro Electr A Method for real-time/on-line performing of multi view multimedia applications
US8126291B2 (en) * 2007-07-16 2012-02-28 Ecole Centrale De Paris System and method for dense image registration using Markov Random Fields and efficient linear programming
JP2009037460A (ja) * 2007-08-02 2009-02-19 Sanyo Electric Co Ltd 画像処理方法、画像処理装置、及びこの画像処理装置を備えた電子機器
JP5238220B2 (ja) * 2007-10-29 2013-07-17 株式会社東芝 解像度変換装置、方法およびプログラム
CN102057398B (zh) * 2008-06-13 2013-11-06 上海惠普有限公司 处理超分辨率目标图像
US8326069B2 (en) * 2008-06-30 2012-12-04 Intel Corporation Computing higher resolution images from multiple lower resolution images
JP5042954B2 (ja) * 2008-09-19 2012-10-03 シャープ株式会社 画像生成装置、画像生成方法、画像生成プログラム、および該プログラムを記録したコンピュータ読み取り可能な記録媒体
KR101634562B1 (ko) 2009-09-22 2016-06-30 삼성전자주식회사 저해상도 비디오로부터 고해상도 비디오를 생성하는 방법
JP5198500B2 (ja) * 2010-03-18 2013-05-15 日本放送協会 信号処理装置及びプログラム
JP5644626B2 (ja) * 2011-03-28 2014-12-24 株式会社Jvcケンウッド 信号処理装置、信号処理方法、および信号処理プログラム
JP5696560B2 (ja) * 2011-03-28 2015-04-08 株式会社Jvcケンウッド 信号処理装置、信号処理方法、および信号処理プログラム
JP5909865B2 (ja) * 2011-04-18 2016-04-27 株式会社ニコン 画像処理プログラム、画像処理方法、画像処理装置、撮像装置
JP2013142775A (ja) * 2012-01-11 2013-07-22 Sony Corp 表示装置、電子機器、表示方法、並びにプログラム
US9014492B2 (en) 2012-10-23 2015-04-21 The Boeing Company Real-time image reconstruction
JP5847228B2 (ja) 2014-04-16 2016-01-20 オリンパス株式会社 画像処理装置、画像処理方法及び画像処理プログラム
JP6545013B2 (ja) 2015-06-17 2019-07-17 キヤノン株式会社 画像形成方法、画像形成装置、および画像形成プログラム
CN105072373B (zh) * 2015-08-28 2018-03-27 中国科学院自动化研究所 基于双向循环卷积网络的视频超分辨率方法和系统
CN110211042B (zh) * 2019-05-10 2021-03-12 北京航空航天大学 增强光谱图像空间分辨率的亚像元定位方法及装置
US11720999B2 (en) * 2019-10-11 2023-08-08 Kayrros Method, device and non-transitory computer-readable storage medium for increasing the resolution and dynamic range of a sequence of respective top view images of a same terrestrial location

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1069537A (ja) * 1996-08-28 1998-03-10 Nec Corp 画像合成方法及び画像合成装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6694064B1 (en) * 1999-11-19 2004-02-17 Positive Systems, Inc. Digital aerial image mosaic method and apparatus
US7110012B2 (en) * 2000-06-12 2006-09-19 Sharp Laboratories Of America, Inc. System for improving display resolution
US7106914B2 (en) * 2003-02-27 2006-09-12 Microsoft Corporation Bayesian image super resolution

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1069537A (ja) * 1996-08-28 1998-03-10 Nec Corp 画像合成方法及び画像合成装置

Non-Patent Citations (11)

* Cited by examiner, † Cited by third party
Title
B. C. TOM; A. K. KATSAGGELOS: "Reconstruction of a high-resolution image by simultaneous registration, restoration, and interpolation of low-resolution images", PROCEEDINGS OF THE IEEE INTERNATIONAL CONFERENCE ON IMAGE PROCESSING, vol. 2, 1995, pages 539 - 542, XP010197025, DOI: doi:10.1109/ICIP.1995.537535
B. ZITOVA; J.FLUSSER: "Image registration methods: a survey", IMAGE AND VISION COMPUTING, vol. 21, no. 11, 2003, pages 977 - 1000, XP001189327, DOI: doi:10.1016/S0262-8856(03)00137-9
D.CAPEL: ""Image Mosaicing and Super-Resolution "", 2003, SPRINGER
H. STARK; P. OSKOUI: "High resolution image recovery from image-plane arrays, using convex projections", JOURNAL OF THE OPTICAL SOCIETY OF AMERICA, SERIES A., vol. 6, 1989, pages 1715 - 1726, XP000081943
M. SHIMIZU; M. OKUTOMI: "Two-Dimensional Simultaneous Sub-Pixel Estimation on Area-Based Image Matching", THE TRANSACTIONS OF THE INSTITUTE OF ELECTRONICS, INFORMATION AND COMMUNICATION ENGINEERS D-II, vol. 87-D-II, no. 2, 2004, pages 554 - 564
M. SHIMIZU; T. YANO; M. OKUTOMI: "Precise Simultaneous Estimation of Deformation N-Parameters Extended from Two-Dimensional Simultaneous Estimation", IPSJSIG NOTES. 2004-CVIM-143, vol. 2004, no. 26, 2004, pages 81 - 88
R. R. SCHULZ; R. L. STEVENSON: "Extraction of high-resolution frames from video sequences", IEEE TRANSACTIONS ON IMAGE PROCESSING, vol. 5, 1996, pages 996 - 1011
SEI S. ET AL: "Mikosei no Ido Camera ni yoru Fukusu Heimen Scene no Chokaizodo Gazo Seisei", THE TRANSACTIONS OF THE INSTITUTE OF ELECTRONICS, INFORMATION AND COMMUNICATION ENGINEERS D-2, vol. J86-D-2, no. 5, 1 May 2003 (2003-05-01), pages 688 - 696, XP003006829 *
SUNG C. P.; MIN. K. P.: "Super-Resolution Image Reconstruction -A Technical Overview", IEEE SIGNAL PROCESSING MAGAZINE, vol. 26, no. 3, 2003, pages 21 - 36, XP011097476, DOI: doi:10.1109/MSP.2003.1203207
TANAKA M. AND OKUTOMI M.: "Saikoseigata Chokaizo Shori no Kosokuka Algorithm", INFORMATION PROCESSING SOCIETY OF JAPAN KENKYU HOKOKU, vol. 2004, no. 113 (CVIM-146), 12 November 2004 (2004-11-12), pages 97 - 104, XP003006830 *
W.H.PRESS AND S.A. TEUKOLSKY ET AL.: ""Numerical Recipes in C++,"", 2002, CAMBRIDGE UNIVERSITY PRESS

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101513033B (zh) * 2006-09-08 2011-09-21 索尼株式会社 图像处理装置和图像处理方法
CN103049885A (zh) * 2012-12-08 2013-04-17 新疆公众信息产业股份有限公司 一种利用分析性稀疏表示的超分辨率图像重建方法

Also Published As

Publication number Publication date
US20090080805A1 (en) 2009-03-26
US8009933B2 (en) 2011-08-30
EP1811453A1 (en) 2007-07-25
JP3837575B2 (ja) 2006-10-25
EP1811453A4 (en) 2009-09-16
JP2006127241A (ja) 2006-05-18

Similar Documents

Publication Publication Date Title
WO2006046493A1 (ja) 超解像処理の高速化方法
JP5294343B2 (ja) 画像位置合わせ処理装置、領域拡張処理装置及び画質改善処理装置
US8687923B2 (en) Robust patch regression based on in-place self-similarity for image upscaling
JP4126378B2 (ja) 超解像処理の高速化方法
Zhu et al. Efficient single image super-resolution via hybrid residual feature learning with compact back-projection network
CN111626927B (zh) 采用视差约束的双目图像超分辨率方法、系统及装置
CN105761233A (zh) 一种基于fpga的实时全景图像拼接方法
Guan et al. Srdgan: learning the noise prior for super resolution with dual generative adversarial networks
Shima et al. Comparison of image alignment on hexagonal and square lattices
CN111815690B (zh) 一种用于显微图像实时拼接的方法、系统和计算机设备
Koo et al. An image resolution enhancing technique using adaptive sub-pixel interpolation for digital still camera system
CN109754381A (zh) 一种图像处理方法及系统
Karybali et al. An efficient spatial domain technique for subpixel image registration
Vandewalle et al. Double resolution from a set of aliased images
CN107767342B (zh) 一种基于积分平差模型的小波变换超分辨率图像重建方法
Tanaka et al. A fast MAP-based super-resolution algorithm for general motion
JP4724826B2 (ja) 超解像処理のパラメータ設計方法
Li et al. Clustering based multiple branches deep networks for single image super-resolution
CN115018707B (zh) 基于九曲面片双四次拟合的图像放大方法和装置
Yu et al. An improved neighbor embedding method to super-resolution reconstruction of a single image
CN107230185A (zh) 用于超光谱成像平台中双相机图像的对齐方法
Park et al. Low-complexity 1D-convolutional Neural Network for Super Resolution
Jiang et al. Recursive inception network for super-resolution
Li et al. Local-adaptive and outlier-tolerant image alignment using RBF approximation
CN102999748A (zh) 一种优化人脸图像超分辨率重构方法

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BW BY BZ CA CH CN CO CR CU CZ DK DM DZ EC EE EG ES FI GB GD GE GM HR HU ID IL IN IS KE KG KM KP KZ LC LK LR LS LT LU LV LY MA MG MK MN MW MX MZ NA NG NI NZ OM PG PH PL PT RO RU SC SD SE SK SL SM SY TJ TM TN TR TT TZ UA US UZ VC VN YU ZA ZM

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GM KE LS MW MZ NA SD SZ TZ UG ZM ZW AM AZ BY KG MD RU TJ TM AT BE BG CH CY DE DK EE ES FI FR GB GR HU IE IS IT LU LV MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 11666605

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2005795779

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 2005795779

Country of ref document: EP