WO2012132183A1 - 画像処理装置、画像処理方法、画像処理のためのコンピュータプログラム及び記録媒体 - Google Patents

画像処理装置、画像処理方法、画像処理のためのコンピュータプログラム及び記録媒体 Download PDF

Info

Publication number
WO2012132183A1
WO2012132183A1 PCT/JP2012/000604 JP2012000604W WO2012132183A1 WO 2012132183 A1 WO2012132183 A1 WO 2012132183A1 JP 2012000604 W JP2012000604 W JP 2012000604W WO 2012132183 A1 WO2012132183 A1 WO 2012132183A1
Authority
WO
WIPO (PCT)
Prior art keywords
resolution image
pixel
image
value
low
Prior art date
Application number
PCT/JP2012/000604
Other languages
English (en)
French (fr)
Inventor
忠則 手塚
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to CN201280010784.5A priority Critical patent/CN103403758B/zh
Priority to JP2013507087A priority patent/JP5837572B2/ja
Priority to US13/983,171 priority patent/US9153010B2/en
Publication of WO2012132183A1 publication Critical patent/WO2012132183A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4007Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • H04N1/40068Modification of image resolution, i.e. determining the values of picture elements at new relative positions

Definitions

  • the present invention relates to an image processing technique for generating a high resolution image from a low resolution image.
  • Non-Patent Document 1 discloses a representative technique of the super-resolution technique.
  • Equation 1 an equation representing the relationship between a plurality of low resolution images and high resolution images is defined, and Equation 1 is solved to generate a high resolution image.
  • iterative processing is performed until the error becomes a certain value or less by iterative processing using a gradient method or the like.
  • h is the vector representation of the high-resolution image
  • is the noise deviation of the observed value
  • b (xi, yi) is the vector representation of the PSF (point spread function) kernel corresponding to the position (xi, yi).
  • C represents a matrix representing prior information of the high resolution image
  • represents a constraint parameter representing the strength of the constraint.
  • Nl represents the total number of pixels of a plurality of low resolution images.
  • the relationship between the desired high-resolution image and the low-resolution image is described as an equation, and by solving this, the high-resolution image Get.
  • an equation that models this degradation is important, and the key to super-resolution technology is how to create a degradation model that estimates the degradation process of low resolution.
  • Non-Patent Document 2 introduces a super-resolution technique in which robustness is improved by adding a system noise term generated in a deterioration model other than an image input process such as PSF.
  • a degradation model such as Equation 2 is defined, and a high-resolution image is generated by solving this equation.
  • X is an input image
  • Hatm is blur due to the atmosphere
  • Fk is degradation due to A / D conversion
  • Hcam is blur due to the camera
  • Dk is degradation due to downsampling
  • Vk is system noise. Since Formula 2 is modeled including system noise, robustness is secured against noise other than normal image degradation.
  • the present invention provides noise generated due to a difference between an actual degradation process and a degradation model even when the actual degradation process and the degradation model of the acquired low-resolution image are misaligned.
  • An object is to provide an image processing apparatus, an image processing method, a computer program for image processing, and a recording medium that can generate a high-resolution image while suppressing the above-described problem.
  • the present invention provides an image processing apparatus for generating a high resolution image from a low resolution image, an acquisition means for acquiring a low resolution image, and performing interpolation on the acquired low resolution image.
  • the low-resolution image by enlarging interpolation means for generating a first high-resolution image having a higher resolution than the low-resolution image, and a degradation model that estimates a process in which the high-resolution image is degraded to become a low-resolution image in the reverse direction.
  • Super resolution processing means for generating a second high resolution image having the same resolution as the first high resolution image from the resolution image, and the position of each pixel of the first high resolution image using the low resolution image Difference between a value of the pixel and a value of the corresponding pixel in the second high-resolution image for each pixel in the first high-resolution image; Difference calculating means for calculating the difference, the adjusting means for correcting the calculated difference value of each pixel using the generated feature value, and calculating the corrected difference value, and each pixel of the first high-resolution image Adding a correction difference value corresponding to the pixel to the value to generate a third high-resolution image.
  • the image processing apparatus of the present invention performs different enlargement processing on the low resolution image by the enlargement interpolation means and the super resolution processing means, and applies each of the low resolution image to each pixel of the first high resolution image.
  • a corresponding feature amount is generated, and a difference value between pixels of the first high-resolution image and the second high-resolution image is corrected using the generated feature amount.
  • the difference value between the first high-resolution image and the second high-resolution image includes a noise component generated by super-resolution processing, and the difference value is corrected using a feature amount generated based on the low-resolution image.
  • An image processing apparatus includes a display device that increases the resolution of an input low-resolution image in accordance with the resolution of the display device, an image output device such as a printer that expands and outputs a low-resolution image,
  • the present invention is effectively used in an apparatus for increasing the resolution of a low-resolution image, such as an imaging apparatus that generates a still image by enlarging a single image.
  • FIG. 1 is a block diagram showing a configuration of an image processing apparatus 10 as an embodiment according to the present invention.
  • 2 is a block diagram illustrating a configuration of an image processing unit 100.
  • FIG. An example of the arrangement of one central pixel 401 to be arranged in the first high-resolution image and 36 peripheral pixels 411 to 415 in the low-resolution image is shown.
  • Four regions 502, 503, 504, and 505 centered on the pixel 501 are shown.
  • the relationship between the positions of MAX1, MAX2, MAX3, MAX4 and the position of the pixel of interest 501 is shown.
  • the relationship between the positions of MIN1, MIN2, MIN3, and MIN4 and the position of the pixel of interest 501 is shown.
  • An example of a pixel value change 1101, a maximum allowable amplitude change 1102, and a minimum value change 1103 of a plurality of pixels arranged in the x-axis direction in the second high-resolution image is shown.
  • An example of a change 1201 of pixel values of a plurality of arranged pixels is shown.
  • 4 is a flowchart showing mainly the operation of the image processing unit 100 among the operations of the image processing apparatus 10.
  • 5 is a flowchart showing the operation of an enlargement interpolation unit 105.
  • One embodiment of the present invention is an image processing device that generates a high-resolution image from a low-resolution image, the acquisition means for acquiring a low-resolution image, and enlargement interpolation of the acquired low-resolution image so that the low-resolution image is obtained.
  • interpolation means for generating a first high-resolution image having a resolution higher than that of the resolution image, and a degradation model that estimates a process in which the high-resolution image is degraded to become a low-resolution image, in the reverse direction
  • the super-resolution processing means for generating a second high-resolution image having the same resolution as the first high-resolution image, and using the low-resolution image, the feature at the position of each pixel of the first high-resolution image. For each pixel in the first high-resolution image, a difference value between the value of the pixel and the value of the corresponding pixel in the second high-resolution image is calculated.
  • a fraction calculation means an adjustment means for correcting the calculated difference value of each pixel using the generated feature value, and calculating a corrected difference value; and a value of each pixel of the first high-resolution image. Adding a correction difference value corresponding to the pixel to generate a third high-resolution image.
  • the feature amount generation unit generates, as the feature amount, gradient information indicating a gradient of a value of a pixel in the image region of the low resolution image corresponding to a peripheral pixel of each pixel of the first high resolution image. Then, the adjustment means may correct the difference value using the generated gradient information.
  • the adjustment means may calculate the correction difference value by calculating a gain that increases or decreases depending on the gradient information, and multiplying the difference value by the calculated gain.
  • the feature amount analyzing means generates, as the feature amount, an allowable range that the value of the pixel can take from the image region of the low resolution image corresponding to the peripheral pixel of each pixel of the first high resolution image.
  • the adjusting unit may correct the difference value for each pixel of the second high-resolution image having a value exceeding the allowable range.
  • Another embodiment of the present invention is an image processing method used in an image processing apparatus that generates a high resolution image from a low resolution image, an acquisition step of acquiring a low resolution image, and the acquired low resolution image Is expanded and interpolated to generate a first high-resolution image having a higher resolution than the low-resolution image, and a deterioration model that estimates the process of deterioration of the high-resolution image to become a low-resolution image is traced in the reverse direction.
  • a difference calculating step for calculating a difference value between pixel values in the resolution image; an adjustment step for calculating a corrected difference value by correcting the calculated difference value of each pixel using the generated feature amount;
  • Another embodiment of the present invention is a computer program for image processing used in an image processing apparatus that generates a high-resolution image from a low-resolution image, the acquisition step of acquiring a low-resolution image in a computer; Magnifying and interpolating the acquired low-resolution image to generate a first high-resolution image having a higher resolution than the low-resolution image, and estimating a process in which the high-resolution image deteriorates to become a low-resolution image
  • a feature amount generating step for generating a feature amount indicating a feature at a position of each pixel of the first high-resolution image; and each pixel in the first high-resolution image.
  • a difference calculation step for calculating a difference value between the pixel value and the corresponding pixel value in the second high-resolution image, and using the generated feature value, the calculated difference value of each pixel.
  • An adjustment step for correcting and calculating a correction difference value, and a synthesis step for generating a third high-resolution image by adding a correction difference value corresponding to the pixel to the value of each pixel of the first high-resolution image Is a computer program for executing.
  • Another embodiment of the present invention is a computer-readable recording medium recording a computer program for image processing used in an image processing apparatus that generates a high-resolution image from a low-resolution image.
  • an acquisition step for acquiring a low resolution image an enlargement interpolation step for enlarging and interpolating the acquired low resolution image to generate a first high resolution image having a higher resolution than the low resolution image, and deterioration of the high resolution image
  • the super-resolution for generating the second high-resolution image having the same resolution as the first high-resolution image from the low-resolution image by tracing the degradation model in which the process of becoming the low-resolution image is estimated in the reverse direction
  • a feature quantity generator that generates a feature quantity indicating a feature at the position of each pixel of the first high resolution image using the processing step and the low resolution image.
  • a difference calculation step for calculating a difference value between the pixel value in the first high-resolution image and a corresponding pixel value in the second high-resolution image, and a difference between the calculated pixels An adjustment step for correcting the value using the generated feature value to calculate a correction difference value, and adding a correction difference value corresponding to the pixel to the value of each pixel of the first high-resolution image
  • Image processing apparatus 10 As shown in FIG. 1, the image processing apparatus 10 includes an input unit 201, a tuner 202, an external terminal 203, a memory 205, a processor 206, a decoding unit 207, a display control unit 208, a video driver 209, and a hard disk 210. .
  • a display device 211 using liquid crystal, plasma, CRT or the like is connected to the image processing apparatus 10, and a memory card 204 is attached to the image processing apparatus 10.
  • the image processing apparatus 10 is, for example, a hard disk recorder, stores programs received by digital broadcasting therein, reproduces the stored programs, and outputs them to the display device 211 in accordance with a user instruction.
  • the display device 211 is a large television display device having a high resolution, and displays a program.
  • the tuner 202 outputs a TV signal extracted from the received broadcast wave to the input unit 201.
  • This TV signal includes image data.
  • the external terminal 203 receives a video signal from another video playback device (not shown) such as a DVD playback device, and outputs the received video signal to the input unit 201.
  • This video signal includes image data.
  • the memory card 204 records moving images and still images, and is an SD card as an example. These moving images and still images include image data.
  • the input unit 201 receives image data (hereinafter referred to as a low resolution image) from the tuner 202, the external terminal 203, or the memory card 204.
  • the low resolution image means an image having a lower resolution than the resolution of the display device 211.
  • the memory 205 is used as a primary storage device of the image processing apparatus 10 and is composed of a DRAM or the like.
  • the processor 206 controls the entire image processing apparatus 10.
  • the hard disk 210 is a secondary storage device for accumulating images and the like, and accumulates low-resolution images input by the input unit 201.
  • the decoding unit 207 decodes the compressed image when the low resolution image received by the input unit 201 is a compressed image, or when the low resolution image stored in the hard disk 210 is a compressed image.
  • the decoded image is sent to the display control unit 208 directly or via the memory 205.
  • the display control unit 208 converts the received image into an image having a resolution matching the display device 211 (hereinafter referred to as a third high resolution image), and outputs the third high resolution image to the video driver 209.
  • the video driver 209 outputs the third high resolution image to the display device 211 and controls the display of the third high resolution image on the display device 211.
  • the image processing apparatus 10 includes the tuner 202, but is not limited to this.
  • the image processing apparatus 10 may not include the tuner 202, and a digital broadcast receiving apparatus having a tuner may be connected to the image processing apparatus 10.
  • the display control unit 208 includes the image processing unit 100 shown in FIG. 2 in order to generate a third high resolution image by increasing the resolution of the received low resolution image in accordance with the resolution of the display device 211.
  • the display control unit 208 extracts the pixel number inXS in the horizontal direction and the pixel number inYS in the vertical direction of the low-resolution image from the decoded low-resolution image. Further, the video driver 209 receives the horizontal pixel number outXS and the vertical pixel number outYS of the third high-resolution image to be displayed on the display device 211.
  • the image processing unit 100 is implemented as hardware, but may be implemented as software processing in the processor 206. In either case, the generated third high-resolution image can be encoded again and written back to the hard disk 210 or the like.
  • Image processing unit 100 As illustrated in FIG. 2, the image processing unit 100 includes a feature amount generation unit 103, a super-resolution enlargement unit 104, an enlargement interpolation unit 105, a difference calculation unit 106, an adjustment unit 107, and a synthesis unit 108.
  • the image processing unit 100 receives a low resolution image.
  • the enlargement interpolation unit 105 enlarges and interpolates the received low resolution image to generate a first high resolution image having a higher resolution than the low resolution image.
  • the super-resolution enlargement unit 104 traces the degradation model in which the high-resolution image is deteriorated to become a low-resolution image in the reverse direction, and thus the same as the first high-resolution image from the received low-resolution image.
  • a second high-resolution image having a resolution of is generated.
  • the feature amount generation unit 103 generates a feature amount indicating a feature at the position of each pixel of the first high resolution image, using the received low resolution image.
  • the difference calculation unit 106 calculates, for each pixel in the first high resolution image, a difference value between the pixel value and the corresponding pixel value in the second high resolution image.
  • the adjustment unit 107 corrects the calculated difference value of each pixel using the generated feature amount, and calculates a corrected difference value.
  • the synthesizing unit 108 adds the correction difference value corresponding to the pixel to the value of each pixel of the first high resolution image to generate and output a third high resolution image.
  • the image processing unit 100 receives the horizontal pixel number inXS and the vertical pixel number inYS of the low resolution image, and receives the horizontal pixel number outXS and the vertical pixel number outYS of the high resolution image.
  • the enlargement interpolation unit 105 generates a first high-resolution image as described below.
  • the resolution of the first high-resolution image, the number of pixels in the horizontal direction, and the number of pixels in the vertical direction are respectively the resolution of the third high-resolution image to be displayed on the display device 211, the number of pixels in the horizontal direction, and the number of pixels in the vertical direction. Equal to the number of pixels.
  • the enlargement interpolation unit 105 receives a low resolution image.
  • the horizontal pixel number inXS and the vertical pixel number inYS of the low resolution image are received, and the horizontal pixel number outXS and the vertical pixel number outYS of the third high resolution image are received.
  • the enlargement interpolation unit 105 uses the number of pixels inXS, inYS, outXS, and outYS to calculate the horizontal interpolation interval dx and the vertical interpolation interval dy according to Equations 3 and 4.
  • Horizontal interpolation interval dx inDX / outDX (Formula 3)
  • Vertical interpolation interval dy inDY / outDY (Formula 4)
  • the thus calculated horizontal interpolation interval dx and vertical interpolation interval dy define the positions of the pixels included in the first high-resolution image. That is, the pixels included in the first high-resolution image are arranged at a position that is an integral multiple of the interpolation interval dx in the horizontal direction in the horizontal direction, and at a position that is an integral multiple of the interpolation interval dy in the vertical direction in the vertical direction. Arranged.
  • dx and dy are values less than 1.
  • the enlargement interpolation unit 105 repeats the following processes (a) to (c) for all pixel positions to be arranged in the first high resolution image.
  • the enlargement interpolation unit 105 includes a plurality of pixels included in the low resolution image.
  • a total of 36 pixels (referred to as peripheral pixels) arranged in rows and columns in the horizontal direction and in the vertical direction are referred to as peripheral pixels, and the above-mentioned center position is approximately at the center of the peripheral pixels.
  • the pixel values of the selected peripheral pixels are acquired.
  • FIG. 3 shows an arrangement of one central pixel 401 to be arranged in the first high-resolution image and 36 peripheral pixels 411, 412, 413,..., 414,. An example is shown. As shown in this figure, there is a central pixel 401 at a substantially central position of peripheral pixels 411, 412, 413,..., 414,. .
  • the coordinates (x, y) of the center pixel 401 are (3.4, 3.5) as an example.
  • the decimal points px and py are components in the x-axis direction and the y-axis direction of the distance between the peripheral pixel 414 closest to the central pixel 401 and the central pixel 401.
  • the pixel value of the center pixel at the center position is calculated using the enlargement interpolation method using the pixel values of the acquired peripheral pixels and the decimal points px and py, and the calculated pixel value is set to the first high value. Store at the center of the resolution image.
  • the conventional bilinear method As the enlargement interpolation method, the conventional bilinear method, bicubic convolution method, Lanczos method, or the like can be used.
  • the bicubic convolution method uses 4 ⁇ 4 pixels around the point (x, y). Interpolation calculation is performed.
  • the pixel value out of the center pixel is calculated by the following expression 5.
  • Equation 6 is the weighting factor in the x direction at the l location, and wym is the weighting factor in the y direction. is there.
  • Equation 6 Each weighting coefficient is expressed by the following Equation 6 in the case of bicubic interpolation, where d is the distance in the x or y direction from the interpolation pixel position indicated by px, py.
  • w is expressed by the following formula 7.
  • the degradation function H includes a reduction process for converting the second high resolution image into a low resolution image, a PSF (point spread function), and the like.
  • the super-resolution enlargement unit 104 performs processing for obtaining X, that is, the second high-resolution image by performing the inverse operation of Expression 8.
  • Y HX + V (Formula 9)
  • the second high-resolution image X is provisionally determined
  • Y ′ is calculated according to Equation 8 or Equation 9, and these calculations are performed until the difference from the input image is less than or equal to the threshold value. repeat.
  • As a simple method there is a method of obtaining X by deconvolution.
  • image degradation is estimated by some method, and the inverse function is obtained to generate a second high-resolution image.
  • the pixel positions of the first and second high-resolution images generated by the enlargement interpolation unit 105 and the super-resolution enlargement unit 104 are replaced with the pixel positions of the low-resolution image (X and Y in FIG. 3). , Expressed as phase.
  • the pixel position (interpolation position x, y, dx, dy) of the first high-resolution image of the enlargement interpolation unit 105 and the pixel position of the second high-resolution image of the super-resolution enlargement unit 104 Should be the same.
  • the feature quantity generation unit 103 receives a low resolution image, calculates a feature quantity corresponding to each pixel of the first high resolution image, and outputs it. Therefore, the feature amount output as a result of the feature amount analysis by the feature amount generation unit 103 is also in phase with the first and second high-resolution images that are the outputs of the enlargement interpolation unit 105 and the super-resolution enlargement unit 104. It becomes a shape.
  • the feature value generation unit 103 repeats the following processes (a) to (b) for all pixel positions to be arranged in the first high-resolution image.
  • the feature amount generation unit 103 has a plurality of positions included in the low-resolution image with respect to the position (referred to as the target position) of one pixel (referred to as the target pixel) to be arranged in the first high-resolution image.
  • the target position the position of one pixel (referred to as the target pixel) to be arranged in the first high-resolution image.
  • N pixels in the horizontal direction, M pixels in the vertical direction, and a total of N ⁇ M pixels arranged in a matrix (a region including these pixels is referred to as a region S) is described above.
  • the attention position is selected so as to be arranged in the approximate center of the region S, and the pixel values of the selected peripheral pixels are acquired.
  • the feature value generation unit 103 calculates the gradient of the region S centering on the target pixel and the allowable amplitude of the region S as the feature value.
  • the region S is N ⁇ M pixels centered on the interpolation phase (x, y) of the low-resolution image, and is 2 ⁇ 2 pixels in the minimum.
  • N and M are preferably about 3 to 6.
  • ⁇ u ⁇ can be calculated by, for example, the following Expression 10 or Expression 11.
  • the feature amount generation unit 103 may obtain a difference between the maximum value and the minimum value in the region S.
  • the feature quantity generation unit 103 calculates the gradient in the region S and outputs this as one of the feature quantities. (Calculation of allowable amplitude)
  • the allowable amplitude indicates the allowable amount of the change range of the target pixel.
  • the feature quantity generation unit 103 calculates the allowable amplitude from the gradient information in the region S and the like.
  • the feature value generation unit 103 calculates the maximum value in the region S as the maximum value of the allowable amplitude, and calculates the minimum value in the region S as the minimum value of the allowable amplitude.
  • a pixel 501 is a pixel (target pixel) of the first high-resolution image that is a target for calculating the allowable amplitude. Further, a total of 36 low-resolution image pixels 511, 512, 513, 514,. , 519,..., 519, and a total of 36 low-resolution image pixels 511, 512, 513, 514,..., 519 constitute a region S (500).
  • the feature amount generation unit 103 includes a total of 36 low-resolution image pixels 511, 512, 513, 514,... Included in the region S (500) so that the pixel 501 that is the target pixel is arranged at the center. 519 is selected. Next, the region S (500) is divided into four regions 502, 503, 504, and 505. The areas 502, 503, 504, and 505 each include a total of nine low-resolution image pixels arranged in a matrix form with three in the horizontal direction and three in the vertical direction.
  • the region 502 is adjacent to the upper left side of the pixel 501
  • the region 503 is adjacent to the upper right side of the pixel 501
  • the region 504 is adjacent to the lower left side of the pixel 501
  • the region 505 is adjacent to the lower right side of the pixel 501.
  • the pixel 515 is disposed at a position closest to the pixel 501
  • the pixel 516 includes Among the nine low-resolution image pixels included in the region 504 that are arranged closest to the pixel 501, the nine low-resolution images included in the region 505 where the pixel 517 is arranged closest to the pixel 501.
  • the pixel 518 is disposed at a position closest to the pixel 501.
  • the feature value generation unit 103 selects a pixel having the maximum pixel value from nine low-resolution image pixels included in the region 502, and sets the pixel value to MAX1. In addition, a pixel having the minimum pixel value is selected from the nine low-resolution image pixels included in the region 502, and the pixel value is set to MIN1. In this way, a set of the maximum value MAX1 and the minimum value MIN1 is calculated from the area 502. Similarly, the feature quantity generation unit 103 calculates a set of the maximum value MAX2 and the minimum value MIN2 from the area 503, calculates a set of the maximum value MAX3 and the minimum value MIN3 from the area 504, and sets the maximum value MAX4 from the area 505. A set of minimum values MIN4 is calculated.
  • the set of the maximum value MAX1 and the minimum value MIN1 is considered to represent the region 502, and the maximum value MAX1 and the minimum value MIN1 are the same positions in the region 502 as the positions where the pixels 515 are arranged. It shall be arranged in.
  • the maximum value MAX2 and the minimum value MIN2 are arranged at the same position in the region 503 as the pixel 516 is arranged, and the maximum value MAX3 and the minimum value MIN3 are inside the region 504.
  • the maximum value MAX4 and the minimum value MIN4 are arranged in the same position as the position where the pixel 518 is arranged in the region 505. It shall be.
  • the positional relationship between the maximum values MAX1, MAX2, MAX3, MAX4 and the pixel 501 is as shown in FIG. 5, and the positional relationship between the minimum values MIN1, MIN2, MIN3, MIN4 and the pixel 501 is as shown in FIG. As shown.
  • the feature amount generation unit 103 uses the positional relationship between the maximum values MAX1, MAX2, MAX3, MAX4, the pixel 501, and the decimal point components px, py of the interpolation phase of the pixel of interest 501 as MAX1.
  • MAX2, MAX3, MAX4 are linearly interpolated to calculate the maximum allowable value MAX of the target pixel 501.
  • the feature value generation unit 103 uses the positional relationship between the minimum values MIN1, MIN2, MIN3, MIN4 and the pixel 501, and the decimal point components px and py of the interpolation phase of the target pixel 501.
  • MIN1, MIN2, MIN3, and MIN4 are linearly interpolated to calculate the minimum value MIN of the allowable amplitude of the target pixel 501.
  • the maximum value MAX and the minimum value MIN of the allowable amplitude are calculated for all the pixels in the first high-resolution image.
  • the feature amount generation unit 103 corrects the maximum value MAX and the minimum value MIN of the amplitude calculated in the first example of the allowable amplitude by the convexity determination of the region S.
  • FIGS. 7 and 8 Examples of changes in the pixel value in the x-axis direction of the region S are shown in FIGS.
  • FIG. 7 in the region S, the pixel values of a plurality of pixels arranged in the x-axis direction change in a concave shape along the x-axis.
  • FIG. 8 in the region S, the pixel values of a plurality of pixels arranged in the x-axis direction change in a convex shape along the x-axis. 7 and 8, only the change in the pixel value in the X-axis direction is shown for simplification, but in each case, the pixel values of a plurality of pixels arranged in the Y-axis direction are also shown. It may be changed as well. Further, in the space of the entire region S, the pixel values of a plurality of pixels in the region S may be changed to a concave shape or a convex shape.
  • the feature value generation unit 103 determines whether the pixel values of a plurality of pixels arranged in the region S are changed in a concave shape or a convex shape in the entire space of the region S.
  • the feature amount generation unit 103 When it is determined that the pixel value changes in a concave shape in the entire space of the region S, the feature amount generation unit 103, as shown in Expression 12, allows the allowable amplitude calculated in the first example of the allowable amplitude.
  • the minimum value MIN ′ after correction is calculated by multiplying the minimum value MIN of the amplitude by a coefficient ⁇ of 1 or less.
  • the feature amount generation unit 103 calculates with the first example of the allowable amplitude as shown in Expression 13.
  • the corrected maximum value MAX ′ is calculated by multiplying the maximum value MAX of the allowable amplitude by a coefficient ⁇ of 1 or more.
  • f (u) (Formula 14)
  • may be obtained from the Laplacian result of the region S.
  • may be obtained from the ratio between the pixel value obtained by applying the low-pass filter to the pixel value in the region S and each pixel value in the region S.
  • the coefficient ⁇ may be determined by multiplying the result of the Laplacian filter by an appropriate coefficient ⁇ .
  • the pixel value (when expressing the pixel value, any value from 0 to 255 may be taken.
  • the pixel value is normalized and expressed, it is expressed by 0 to 1.0. , 0 indicates black, 1.0 indicates white) and ⁇ may be too large depending on the coefficient ⁇ . If ⁇ is too large or too small, ⁇ is clipped by multiplying ⁇ by the clip value.
  • the clip value for example, 0.5 times to 1.5 times, 0.25 times to 1.75 times, and the like can be considered. The clip value is not limited to this range.
  • the ratio (B / A) may be ⁇ .
  • clipping equivalent to Laplacian may be performed.
  • the corrected minimum value and maximum value are calculated as the allowable amplitude based on the unevenness degree of the region S.
  • the difference calculation unit 106 receives the first high-resolution image from the enlargement interpolation unit 105 and receives the second high-resolution image from the super-resolution enlargement unit 104.
  • the difference calculation unit 106 calculates the pixel values of the corresponding pixels of the first high-resolution image and the second high-resolution image according to Equation 13 for all the pixels included in the first high-resolution image and the second high-resolution image. And the difference value obtained by the calculation is output to the adjustment unit 107.
  • Difference value (x, y) pixel value of pixel (x, y) of second high-resolution image ⁇ pixel value of pixel (x, y) of first high-resolution image (Formula 15)
  • the difference calculation unit 106 outputs the received second high resolution image to the adjustment unit 107.
  • Adjustment unit 107 receives all the calculated difference values (x, y) from the difference calculation unit 106, receives the second high-resolution image from the difference calculation unit 106, and receives the feature amount from the feature amount generation unit 103.
  • the feature amount is gradient information, allowable amplitude, or gradient information and allowable amplitude for all pixels of the first high-resolution image.
  • the adjustment unit 107 corrects the difference value (x, y) calculated by the difference calculation unit 106 by using the following equation 16 for all received difference values (x, y) to obtain a corrected difference value ( x, y).
  • Correction difference value (x, y) difference value (x, y) ⁇ gain ⁇ (Expression 16)
  • the adjustment unit 107 outputs all the calculated correction difference values (x, y) to the synthesis unit 108.
  • the adjustment unit 107 may correct the difference value using gradient information that is a feature amount received from the feature amount generation unit 103.
  • the difference value is corrected according to the magnitude of the gradient.
  • the adjustment unit 107 stores a correspondence table (not shown) indicating the correspondence between the gradient and the gain ⁇ in advance.
  • the correspondence table includes a plurality of correspondence data, and each correspondence data includes a gradient and a gain ⁇ .
  • the gradient included in the same correspondence data corresponds to the gain ⁇ , and when the gradient is designated, the gain ⁇ corresponding to the designated gradient is used.
  • the gain ⁇ is set within a range of about 0 to 16 times.
  • the adjustment unit 107 acquires the gain ⁇ corresponding to the gradient indicated by the gradient information that is the feature amount by reading it from the correspondence table.
  • the gain ⁇ corresponding to the gradient indicated by the gradient information may be calculated by linear interpolation using a plurality of correspondence data included in the correspondence table. .
  • the adjustment unit 107 does not have a correspondence table, may hold an arithmetic expression indicating the correspondence between the gradient and the gain ⁇ , and may calculate the gain ⁇ corresponding to the gradient using this arithmetic expression.
  • the adjustment unit 107 acquires the gain ⁇ in this way, and calculates the corrected difference value by multiplying the acquired gain ⁇ by the difference value as shown in Expression 16.
  • FIG. 9A shows a first specific example of the correspondence between the gradient and the gain ⁇ in the correspondence table.
  • a graph 600 shown in FIG. 9A represents the correspondence between the gradient and the gain ⁇ , the horizontal axis represents the gradient, and the vertical axis represents the gain.
  • the gain ⁇ is set to be smaller than the gain value 612 and the gain ⁇ is set to a substantially constant value.
  • the gain ⁇ is set to be larger than the gain value 612, and the gain ⁇ increases as the gradient increases.
  • the gain ⁇ is reduced in the small gradient range, and the gain ⁇ is set larger as the gradient increases in the large gradient range.
  • the small gain ⁇ is used to correct the difference value, in other words, the difference value correction is extremely small.
  • the stronger edge component can be corrected using a larger gain ⁇ , in other words, only the strong edge component can be corrected. In this way, only the edge component can be emphasized in the image without enhancing the noise component included in the small amplitude.
  • FIG. 9B shows a second specific example of the correspondence relationship between the gradient and the gain ⁇ in the correspondence table.
  • a graph 620 illustrated in FIG. 9B represents the correspondence between the gradient and the gain ⁇ , the horizontal axis represents the gradient, and the vertical axis represents the gain.
  • the gain ⁇ is set to be smaller than the gain value 641, and the gain ⁇ is set to a substantially constant value.
  • the gain ⁇ is set to increase once and then decrease.
  • the gain beta increases sharply from the gain value 641 to the gain value 643, the gain value 643 to the peak value, then decreases rapidly from the gain value 643 to the gain value 642 ing.
  • the gain ⁇ is thus being set so as to decrease gradually, in FIG. 9 (b), in the small range of the gradient The gain ⁇ is decreased, the gain ⁇ is increased for a range where there is a little gradient, and the gain ⁇ is set again smaller for a range where the gradient is large.
  • the image includes a fine texture in the range 622. Therefore, the gain in the range 622 is increased. Thus, the effect of the fine texture portion can be left, and the effects in the range 621 and the range 623 other than the range 622 can be reduced.
  • the gain ⁇ is determined according to the gradient of the region S, that is, the flatness of the region S, and the corrected difference value is obtained by multiplying the difference value by the gain ⁇ . In this way, the difference value is corrected.
  • the gain ⁇ is basically a value of 1 or less, but by setting it to 1 or more, it is possible to emphasize a region of a certain gradient.
  • the gain ⁇ may be set within a range of about 0 to 16 times.
  • the adjustment unit 107 may correct the difference value using the allowable amplitude that is the feature amount received from the feature amount generation unit 103.
  • correction is performed for a portion exceeding the allowable amplitude.
  • the adjustment unit 107 repeats the following (i) to (v) for all the pixels of the received second high resolution image.
  • the horizontal axis represents the x coordinate and the vertical axis represents the pixel value.
  • a change 1101 is shown.
  • the pixel values of the pixels indicated by the specific y-coordinate values and x-coordinate values 701, 702, 703, 706, and 707 are within the range of the maximum value and the minimum value of the corresponding position. . However, the pixel value of the pixel at the position indicated by the specific y coordinate value and x coordinate value 704 and 705, respectively, is greater than the maximum value of the corresponding position.
  • the adjustment unit 107 calculates the correction difference value by multiplying the calculated difference value by the gain ⁇ for the position indicated by the specific y coordinate value and the x coordinate values 704 and 705, respectively.
  • the corrected difference value is output.
  • the adjustment unit 107 outputs the original difference value as the correction difference value for the positions indicated by the specific y coordinate value and x coordinate value 701, 702, 703, 706 and 707, respectively.
  • the composition unit 108 described later uses the correction difference value calculated in this way to generate and outputs a second high-resolution image.
  • the horizontal axis represents the x coordinate
  • the vertical axis represents the pixel value.
  • specific y coordinate values and x coordinate values 701, 702, ..., 707 shows a change 1201 in the pixel value of the pixel arranged at each position.
  • the third high-resolution image is compared with the second high-resolution image at the pixel values of the third high-resolution image at positions indicated by specific y-coordinate values and x-coordinate values 704 and 705, respectively. Has been revised downward. That is, the pixel value is corrected to be small.
  • the adjustment unit 107 corrects the difference value for the portion exceeding the allowable amplitude.
  • the gain ⁇ 1 and the gain ⁇ 2 are calculated individually by the first correction method and the second correction method, respectively, and the gain ⁇ 1 and the gain ⁇ 2 are added.
  • Gain ⁇ Gain ⁇ 1 + Gain ⁇ 2
  • a correction difference value is calculated by multiplying the gain ⁇ obtained by the difference value.
  • correction may be made as follows.
  • the correction difference value is calculated by the first correction method described above, the calculated correction difference value is output, and the synthesis unit 108 generates a third high-resolution image using the correction difference value and the first high-resolution image.
  • the adjustment unit 107 determines whether or not the allowable amplitude is exceeded for the third high-resolution image by the second correction method, and further adds a second correction difference value to the pixel that exceeds the allowable amplitude.
  • the double correction difference value is calculated by multiplying the gain of the correction method.
  • the synthesizing unit 108 adds the double correction difference value to the third high-resolution image for the pixels exceeding the allowable amplitude, generates a fourth high-resolution image, and outputs the generated fourth high-resolution image. To do.
  • Synthesis unit 108 receives the first high resolution image from the enlargement interpolation unit 105, receives the correction difference value from the adjustment unit 107, and adds the corresponding correction difference value to the pixel values of all the pixels of the first high resolution image. A third high resolution image is generated, and the generated third high resolution image is output.
  • Third high-resolution image (x, y) first high-resolution image (x, y) + corrected difference value (x, y)
  • the correction difference value is obtained by correcting the difference value of each pixel of the first high-resolution image and the second high-resolution image. Therefore, the correction difference value is added to the pixel value of each pixel of the first high-resolution image. The result of the corrected super-resolution processing can be obtained.
  • the input unit 201 acquires a low-resolution image (step S101), the enlargement interpolation unit 105 performs enlargement interpolation processing to generate a first high-resolution image (step S102), and the super-resolution enlargement unit 104
  • a resolution enlargement process is performed to generate a second high-resolution image (step S103)
  • the feature amount generation unit 103 generates a feature amount (step S104)
  • the difference calculation unit 106 calculates a difference value (step S104).
  • the adjustment unit 107 calculates a correction difference value (step S106)
  • the synthesis unit 108 adds the correction difference value to the first high resolution image to generate a third high resolution image (step S107).
  • the generated third high-resolution image is output (step S108).
  • the enlargement interpolation unit 105 determines the horizontal and vertical directions from the horizontal and vertical pixel numbers inXS and inYS of the low-resolution image and the horizontal and vertical pixel numbers outXS and outYS of the third high-resolution image to be output.
  • the interpolation intervals dx and dy are calculated according to equations 3 and 4 (S302).
  • the enlargement interpolation unit 105 initializes the variable y to 0 (S303), initializes the variable x to 0 (S304), and acquires the values of peripheral pixels centered on the coordinates (x, y) from the low-resolution image ( S305). Next, the decimal point parts px and py of x and y are calculated (S306).
  • the enlargement interpolation unit 105 performs enlargement interpolation processing using pixel values of pixels adjacent to the low resolution pixel centered at the point (x, y) and px, py (S307), and is output by the enlargement interpolation processing.
  • the obtained pixel value is stored as an output pixel value (S308), and then dx is added to the variable x (S309). If the variable x does not exceed the horizontal pixel count outXS (No in S310), the process returns to S305 and the process is repeated. If the variable x exceeds outXS (Yes in S310), dy is added to the variable y (S311).
  • variable y does not exceed outYS (No in S312), the process returns to S304 for processing. repeat. If exceeded (Yes in S312), the pixel values of all the pixels of the first high-resolution image have been output, and the process is terminated.
  • the super-resolution processing result is corrected.
  • correction using gradient information for example, noise generated in a flat portion of a pixel value included in an image or noise generated in a portion with a large gradient, such as an edge, can be suppressed. it can.
  • the correction using the allowable amplitude it is possible to correct a portion where noise that protrudes from the pixel value of the pixel of the low-resolution image that is the input image has occurred.
  • noise generated in the super-resolution process can be suppressed and a visually good image can be obtained.
  • the difference calculation unit 106 may calculate the difference value (x, y) by Expression 17 instead of Expression 15.
  • Difference value (x, y) pixel value of pixel (x, y) of first high-resolution image ⁇ pixel value of pixel (x, y) of second high-resolution image (Expression 17)
  • the synthesizing unit 108 generates a third high-resolution image using Expression 18.
  • Third high-resolution image (x, y) first high-resolution image (x, y) ⁇ correction difference value (x, y) (Formula 18) (2)
  • the super-resolution enlargement unit 104 may use the super-resolution enlargement processing method disclosed in Non-Patent Document 1 or Non-Patent Document 2.
  • One embodiment of the present invention is an image processing device that generates a high-resolution image from a low-resolution image, an acquisition circuit that acquires the low-resolution image, and an enlarged interpolation of the acquired low-resolution image, and the low-resolution image From the low resolution image, by following an enlargement interpolation circuit that generates a first high resolution image having a higher resolution than the image, and a degradation model that estimates a process in which the high resolution image is degraded to become a low resolution image, in the reverse direction, A super-resolution processing circuit that generates a second high-resolution image having the same resolution as the first high-resolution image, and a feature at the position of each pixel of the first high-resolution image using the low-resolution image A feature amount generation circuit that generates a feature amount, and a difference for calculating a difference value between the pixel value and the corresponding pixel value in the second high-resolution image for each pixel in the first high-resolution image An arithmetic circuit,
  • Another embodiment of the present invention is an image processing apparatus that generates a high-resolution image from a low-resolution image, and a memory unit that stores a computer program configured by combining a plurality of computer instructions; A computer instruction is read from the computer program stored in the memory unit one by one, decoded, and a processor that operates according to the decoded result.
  • the computer program has an acquisition step of acquiring a low resolution image in the image processing apparatus, which is a computer, and enlargement interpolation of the acquired low resolution image to obtain a first high resolution image having a higher resolution than the low resolution image.
  • the same interpolation resolution step as the first high-resolution image is obtained from the low-resolution image by tracing in a reverse direction an enlargement interpolation step to be generated and a degradation model that estimates a process in which the high-resolution image deteriorates to become a low-resolution image.
  • another embodiment of the present invention is a computer-readable non-transitory recording medium that records a computer program used in an image processing apparatus that generates a high-resolution image from a low-resolution image.
  • the computer program generates a first high-resolution image having a higher resolution than the low-resolution image by acquiring an acquisition step of acquiring a low-resolution image in an image processing apparatus that is a computer and enlarging and interpolating the acquired low-resolution image.
  • a first model having the same resolution as the first high-resolution image is obtained from the low-resolution image.
  • a super-resolution processing step for generating a high-resolution image a feature amount generation step for generating a feature amount indicating a feature at a position of each pixel of the first high-resolution image using the low-resolution image, For each pixel in one high-resolution image, a difference calculation that calculates a difference value between the value of the pixel and the corresponding pixel value in the second high-resolution image The step of correcting the difference value of each calculated pixel using the generated feature value, and calculating the corrected difference value; and the value of each pixel of the first high-resolution image, A correction step of adding a correction difference value corresponding to a pixel to generate a third high-resolution image is performed.
  • the above apparatus may be a computer system including a microprocessor, a ROM, a RAM, a hard disk unit, and the like.
  • a computer program is stored in the RAM or the hard disk unit.
  • Each device achieves its function by the microprocessor operating according to the computer program.
  • the computer program is configured by combining a plurality of instruction codes indicating instructions for the computer in order to achieve a predetermined function.
  • the present invention may be an image processing method used in an image processing apparatus. Further, the present invention may be a computer program that realizes these methods by a computer, or may be a digital signal composed of the computer program.
  • the present invention also provides a computer-readable recording medium such as a flexible disk, hard disk, CD-ROM, MO, DVD, DVD-ROM, DVD-RAM, BD (Blu-ray Disc). ), Recorded in a semiconductor memory or the like. Further, the present invention may be the computer program or the digital signal recorded on these recording media.
  • the computer program or the digital signal may be transmitted via an electric communication line, a wireless or wired communication line, a network represented by the Internet, a data broadcast, or the like.
  • the present invention may also be a computer system including a microprocessor and a memory.
  • the memory may store the computer program, and the microprocessor may operate according to the computer program.
  • the program or the digital signal is recorded on the recording medium and transferred, or the program or the digital signal is transferred via the network or the like, and is executed by another independent computer system. It is good.
  • the image processing apparatus suppresses the occurrence of noise when the deterioration model used in the super-resolution processing is different from the actual deterioration process of the acquired low-resolution image, and provides a high resolution that is visually good.
  • An image can be obtained, which is suitable for an image processing technique for generating a high resolution image from a low resolution image.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

 劣化過程と劣化モデルの違いによりノイズの発生を抑制することができる画像処理装置を提供する。画像処理装置は、低解像度画像より高い解像度の第1高解像度画像を生成する拡大補間部と、劣化モデルに基づいて、前記低解像度画像を用いて第2高解像度画像を生成する超解像処理部と、前記低解像度画像を用いて特徴量を生成する特徴量生成部と、各画素の値の差分値を算出する差分演算部と、前記差分値を前記特徴量を用いて補正して、補正差分値を算出する調整部と、前記第1高解像度画像の各画素の値に、当該画素に対応する補正差分値を加算して、第3高解像度画像を生成する合成部とを備える。

Description

画像処理装置、画像処理方法、画像処理のためのコンピュータプログラム及び記録媒体
 本発明は、低解像度画像から高解像度画像を生成する画像処理技術に関する。
 従来、低解像度画像を高解像度画像に変換する手法として、超解像技術が提案されており、例えば、非特許文献1には、超解像技術の代表的な手法が開示されている。この文献によると、式1に示すように、複数の低解像度画像と高解像度画像の関係を表した方程式を定義し、式1を解くことにより、高解像度画像を生成する。式1を解く際には、勾配法等を用いた反復処理により、誤差が一定以下になるまで繰り返し演算が行われる。
Figure JPOXMLDOC01-appb-M000001
 ここで、hは高解像度画像のベクトル表現を、σは観測値のノイズの偏差を、b(xi ,yi )は位置(xi ,yi )に対応するPSF(点広がり関数)カーネルのベクトル表現を、Cは高解像度画像の事前情報をあらわす行列を、αは拘束の強さを表す拘束パラメータをそれぞれ表す。また、Nl は、複数の低解像度画像の総画素数を表す。
 従来の超解像技術では、高解像度画像が何らかの劣化により低解像度画像になっているとして、目的とする高解像度画像と低解像度画像の関係を方程式として記述し、これを解くことで高解像度画像を得る。良好な高解像度画像を得るためには、この劣化をモデル化した方程式が重要であり、低解像度の劣化過程を推定する劣化のモデルをどう作るかが超解像技術のポイントとなる。
 劣化モデルが取得された低解像度画像の現実の劣化過程と異なる場合、劣化モデルと現実の劣化過程との差により、得られた高解像度画像にノイズが生じる。これを解決するために、劣化モデルに、PSFなどの画像の入力過程以外に発生するシステムノイズ項を加えることにより、ロバスト性を高めた超解像技術が非特許文献2で紹介されている。非特許文献2の技術では、式2のような劣化モデルを定義し、この式を解くことで高解像度画像を生成する。
Figure JPOXMLDOC01-appb-M000002
 ここで、Xは入力画像、Hatm は大気によるボケ、Fk はA/D変換による劣化、Hcam はカメラによるボケ、Dk はダウンサンプリングよる劣化、そしてVk はシステムノイズである。式2では、システムノイズを含めてモデル化されているため、通常の画像劣化以外のノイズに対してロバスト性を確保している。
田中正行、奥富正敏、再構成型超解像処理の高速化アルゴリズムとその精度評価、電子情報通信学会論文誌 D-II Vol.J88-D-II, No.11,pp.2200-2209,2005 Sina Farsiu他、Fast and Robust Multiframe Super Resolution,IEEE Transactions on Image Processing,vol.13,NO.10,OCTOBER 2004.
 しかしながら、例えばTV放送により放送される画像に超解像処理を適用しようとした場合、放送されている数々の番組の劣化モデルを推定することは現実的には不可能であり、非特許文献1により開示された技術を用いて、あらかじめ用意した劣化モデルによる超解像処理を行った場合には、得られた高解像度画像にノイズが生じ、好ましくない結果となってしまう。また、非特許文献2により開示された技術を適用する場合には、得られる結果は、ある程度のロバスト性を持つこととなるが、ロバスト性を確保するための反復処理が式2の演算に組み込まれているため、演算処理量が大きくなるという問題がある。
 上記問題点を解決するために、本発明は、取得した低解像度画像の現実の劣化過程と劣化モデルとがずれている場合であっても、現実の劣化過程と劣化モデルの違いにより発生するノイズを抑制しつつ、高解像度画像を生成することができる画像処理装置、画像処理方法、画像処理のためのコンピュータプログラム及び記録媒体を提供することを目的とする。
 上記目的を達成するために、本発明は、低解像度画像から高解像度画像を生成する画像処理装置であって、低解像度画像を取得する取得手段と、取得した前記低解像度画像を拡大補間して、前記低解像度画像より高い解像度の第1高解像度画像を生成する拡大補間手段と、高解像度画像が劣化して低解像度画像となる過程を推定した劣化モデルを逆方向に辿ることにより、前記低解像度画像から、前記第1高解像度画像と同一の解像度を有する第2高解像度画像を生成する超解像処理手段と、前記低解像度画像を用いて、前記第1高解像度画像の各画素の位置における特徴を示す特徴量を生成する特徴量生成手段と、前記第1高解像度画像における各画素について、当該画素の値と、対応する前記第2高解像度画像における画素の値の差分値を算出する差分演算手段と、算出された各画素の差分値を、生成された前記特徴量を用いて補正して、補正差分値を算出する調整手段と、前記第1高解像度画像の各画素の値に、当該画素に対応する補正差分値を加算して、第3高解像度画像を生成する合成手段とを備えることを特徴とする。
 上記のように、本発明の画像処理装置は、低解像度画像に対して、拡大補間手段と超解像処理手段によりそれぞれ異なる拡大処理を行い、低解像度画像から第1高解像度画像の各画素に対応する特徴量を生成し、生成した特徴量を用いて第1高解像度画像と第2高解像度画像の画素の差分値の補正を行う。第1高解像度画像と第2高解像度画像の差分値には、超解像処理により生じたノイズ成分が含まれており、差分値を低解像度画像を基に生成した特徴量を用いて補正して、得られた補正差分値を第1高解像度画像に加算することにより、知覚しやすいノイズを抑制することができる。
 こうして、超解像処理で利用する上記の劣化モデルが、取得した低解像度画像の現実の劣化過程と異なる場合に、ノイズの発生を抑制し、視覚的に良好な高解像度画像を得ることができるという優れた効果を奏する。
 本発明の画像処理装置は、入力された低解像度画像を表示デバイスの解像度に合わせて高解像度化する表示装置や、低解像度の画像を拡大して出力するプリンタ等の画像出力装置、動画像中の一枚の画像を拡大して静止画像を生成する撮影装置等、低解像度の画像を高解像度化する装置において、有効に利用される。
本発明に係る一の実施の形態としての画像処理装置10の構成を示すブロック図である。 画像処理部100の構成を示すブロック図である。 第1高解像度画像に配されるべき1個の中心画素401及び低解像度画像の36個の周辺画素411、・・・、415の配置の一例を示す。 画素501を中心とする4つの領域502、503、504、505を示す。 MAX1、MAX2、MAX3、MAX4の位置と、注目画素501の位置との関係を示す。 MIN1、MIN2、MIN3、MIN4の位置と、注目画素501の位置との関係を示す。 領域Sにおいてx軸方向に配列された複数の画素の画素値が凹状に変化する場合の一例を示す。 領域Sにおいてx軸方向に配列された複数の画素の画素値が凸状に変化する場合の一例を示す。 調整部107が有する対応テーブルにおける勾配とゲインβの関係を示す。(a)勾配とゲインβの関係についての第1の具体例を示す。(b)勾配とゲインβの関係についての第2の具体例を示す。 第2高解像度画像においてx軸方向に配列された複数の画素の画素値の変化1101、許容振幅の最大値の変化1102及び最小値の変化1103の一例を示す。 第2高解像度画像においてx軸方向に配列された複数の画素の画素値の変化1101、許容振幅の最大値の変化1102及び最小値の変化1103、並びに、第3高解像度画像においてx軸方向に配列された複数の画素の画素値の変化1201の一例を示す。 画像処理装置10の動作のうち、画像処理部100の動作を中心として示すフローチャートである。 拡大補間部105の動作を示すフローチャートである。
 本発明の一の実施態様は、低解像度画像から高解像度画像を生成する画像処理装置であって、低解像度画像を取得する取得手段と、取得した前記低解像度画像を拡大補間して、前記低解像度画像より高い解像度の第1高解像度画像を生成する拡大補間手段と、高解像度画像が劣化して低解像度画像となる過程を推定した劣化モデルを逆方向に辿ることにより、前記低解像度画像から、前記第1高解像度画像と同一の解像度を有する第2高解像度画像を生成する超解像処理手段と、前記低解像度画像を用いて、前記第1高解像度画像の各画素の位置における特徴を示す特徴量を生成する特徴量生成手段と、前記第1高解像度画像における各画素について、当該画素の値と、対応する前記第2高解像度画像における画素の値の差分値を算出する差分演算手段と、算出された各画素の差分値を、生成された前記特徴量を用いて補正して、補正差分値を算出する調整手段と、前記第1高解像度画像の各画素の値に、当該画素に対応する補正差分値を加算して、第3高解像度画像を生成する合成手段とを備えることを特徴とする。
 ここで、前記特徴量生成手段は、前記特徴量として、前記第1高解像度画像の各画素の周辺画素に対応する前記低解像度画像の画像領域内の画素の値の勾配を示す勾配情報を生成し、前記調整手段は、生成された前記勾配情報を用いて、前記差分値を補正するとしてもよい。
 ここで、前記調整手段は、前記勾配情報に依存して増減する利得を算出し、算出した利得を前記差分値に乗ずることにより、前記補正差分値を算出するとしてもよい。
 ここで、前記特徴量解析手段は、前記特徴量として、前記第1高解像度画像の各画素の周辺画素に対応する前記低解像度画像の画像領域から、当該画素の値の取り得る許容範囲を生成し、前記調整手段は、前記許容範囲を超える値を有する前記第2高解像度画像の各画素について、前記差分値を補正するとしてもよい。
 また、本発明の別の実施態様は、低解像度画像から高解像度画像を生成する画像処理装置で用いられる画像処理方法であって、低解像度画像を取得する取得ステップと、取得した前記低解像度画像を拡大補間して、前記低解像度画像より高い解像度の第1高解像度画像を生成する拡大補間ステップと、高解像度画像が劣化して低解像度画像となる過程を推定した劣化モデルを逆方向に辿ることにより、前記低解像度画像から、前記第1高解像度画像と同一の解像度を有する第2高解像度画像を生成する超解像処理ステップと、前記低解像度画像を用いて、前記第1高解像度画像の各画素の位置における特徴を示す特徴量を生成する特徴量生成ステップと、前記第1高解像度画像における各画素について、当該画素の値と、対応する前記第2高解像度画像における画素の値の差分値を算出する差分演算ステップと、算出された各画素の差分値を、生成された前記特徴量を用いて補正して、補正差分値を算出する調整ステップと、前記第1高解像度画像の各画素の値に、当該画素に対応する補正差分値を加算して、第3高解像度画像を生成する合成ステップとを含むことを特徴とする。
 また、本発明の別の実施態様は、低解像度画像から高解像度画像を生成する画像処理装置で用いられる画像処理のためのコンピュータプログラムであって、コンピュータに、低解像度画像を取得する取得ステップと、取得した前記低解像度画像を拡大補間して、前記低解像度画像より高い解像度の第1高解像度画像を生成する拡大補間ステップと、高解像度画像が劣化して低解像度画像となる過程を推定した劣化モデルを逆方向に辿ることにより、前記低解像度画像から、前記第1高解像度画像と同一の解像度を有する第2高解像度画像を生成する超解像処理ステップと、前記低解像度画像を用いて、前記第1高解像度画像の各画素の位置における特徴を示す特徴量を生成する特徴量生成ステップと、前記第1高解像度画像における各画素について、当該画素の値と、対応する前記第2高解像度画像における画素の値の差分値を算出する差分演算ステップと、算出された各画素の差分値を、生成された前記特徴量を用いて補正して、補正差分値を算出する調整ステップと、前記第1高解像度画像の各画素の値に、当該画素に対応する補正差分値を加算して、第3高解像度画像を生成する合成ステップとを実行させるためのコンピュータプログラムである。
 また、本発明の別の実施態様は、低解像度画像から高解像度画像を生成する画像処理装置で用いられる画像処理のためのコンピュータプログラムを記録しているコンピュータ読み取り可能な記録媒体であって、コンピュータに、低解像度画像を取得する取得ステップと、取得した前記低解像度画像を拡大補間して、前記低解像度画像より高い解像度の第1高解像度画像を生成する拡大補間ステップと、高解像度画像が劣化して低解像度画像となる過程を推定した劣化モデルを逆方向に辿ることにより、前記低解像度画像から、前記第1高解像度画像と同一の解像度を有する第2高解像度画像を生成する超解像処理ステップと、前記低解像度画像を用いて、前記第1高解像度画像の各画素の位置における特徴を示す特徴量を生成する特徴量生成ステップと、前記第1高解像度画像における各画素について、当該画素の値と、対応する前記第2高解像度画像における画素の値の差分値を算出する差分演算ステップと、算出された各画素の差分値を、生成された前記特徴量を用いて補正して、補正差分値を算出する調整ステップと、前記第1高解像度画像の各画素の値に、当該画素に対応する補正差分値を加算して、第3高解像度画像を生成する合成ステップとを実行させるためのコンピュータプログラムを記録している記録媒体である。
 (実施の形態)
 以下、本発明に係る一の実施の形態としての画像処理装置10について、図面を参照しながら説明する。
 1.画像処理装置10
 画像処理装置10は、図1に示すように、入力部201、チューナ202、外部端子203、メモリ205、プロセッサ206、復号部207、表示制御部208、ビデオドライバ209及びハードディスク210から構成されている。画像処理装置10には、液晶、プラズマ、CRTなどを利用した表示デバイス211が接続され、また、画像処理装置10には、メモリカード204が装着される。
 画像処理装置10は、一例として、ハードディスクレコーダであり、デジタル放送により受信した番組を内部に蓄積し、利用者の指示に応じて、蓄積している番組を再生して表示デバイス211へ出力する。表示デバイス211は、一例として、高い解像度を有する大型のテレビジョン表示装置であり、番組を表示する。
 チューナ202は、受信した放送波から抽出したTV信号を入力部201へ出力する。このTV信号は、画像データを含んでいる。外部端子203は、例えば、DVD再生装置等の他の映像再生装置(図示していない)から、映像信号を受信し、受信した映像信号を入力部201へ出力する。この映像信号は、画像データを含んでいる。また、メモリカード204は、動画や静止画を記録しており、一例としてSDカードである。これらの動画や静止画は、画像データを含んでいる。
 入力部201は、チューナ202、外部端子203又はメモリカード204から画像データ(以下、低解像度画像と呼ぶ。)を受信する。ここで、低解像度画像は、表示デバイス211が有する解像度と比較して低い解像度を有する画像を意味している。メモリ205は、画像処理装置10の一次記憶装置として利用され、DRAMなどから構成されている。プロセッサ206は、画像処理装置10全体を制御する。ハードディスク210は、画像等を蓄積するための二次記憶装置であり、入力部201により入力された低解像度画像を蓄積する。
 復号部207は、入力部201が受信した低解像度画像が圧縮画像である場合に、又は、ハードディスク210に蓄積されている低解像度画像が圧縮画像である場合に、圧縮画像の復号を行う。復号された画像は、直接又はメモリ205を介して表示制御部208に送られる。表示制御部208は、受け取った画像を表示デバイス211に合わせた解像度の画像(以下、第3高解像度画像と呼ぶ。)に変換し、第3高解像度画像をビデオドライバ209へ出力する。ビデオドライバ209は、第3高解像度画像を表示デバイス211へ出力して、表示デバイス211への第3高解像度画像の表示を制御する。
 なお、画像処理装置10は、チューナ202を含んでいるとしているが、これには限定されない。画像処理装置10は、チューナ202を含まず、画像処理装置10には、チューナを有するデジタル放送受信装置が接続されているとしてもよい。
 表示制御部208は、表示デバイス211の解像度に合わせて、受け取った低解像度画像を高解像度化して第3高解像度画像を生成するため、図2に示す画像処理部100を含んでいる。
 表示制御部208は、復号された低解像度画像から、当該低解像度画像の水平方向の画素数inXS及び垂直方向の画素数inYSを抽出する。また、ビデオドライバ209から、表示デバイス211に表示されるべき第3高解像度画像の水平方向の画素数outXS及び垂直方向の画素数outYSを受け取る。
 ここで、画像処理部100は、ハードウェアとして実装されるが、プロセッサ206におけるソフトウェア処理として実装されるとしてもよい。なお、どちらの実装の場合でも、生成された第3高解像度画像を再び符号化してハードディスク210等に書き戻す等の用途に利用することも可能である。
 2.画像処理部100
 画像処理部100は、図2に示すように、特徴量生成部103、超解像拡大部104、拡大補間部105、差分演算部106、調整部107及び合成部108から構成される。
 画像処理部100は、低解像度画像を受け取る。
 拡大補間部105は、受け取った前記低解像度画像を拡大補間して、前記低解像度画像より高い解像度の第1高解像度画像を生成する。超解像拡大部104は、高解像度画像が劣化して低解像度画像となる過程を推定した劣化モデルを逆方向に辿ることにより、受け取った前記低解像度画像から、前記第1高解像度画像と同一の解像度を有する第2高解像度画像を生成する。特徴量生成部103は、受け取った前記低解像度画像を用いて、前記第1高解像度画像の各画素の位置における特徴を示す特徴量を生成する。差分演算部106は、前記第1高解像度画像における各画素について、当該画素の値と、対応する前記第2高解像度画像における画素の値の差分値を算出する。調整部107は、算出された各画素の差分値を、生成された前記特徴量を用いて補正して、補正差分値を算出する。合成部108は、前記第1高解像度画像の各画素の値に、当該画素に対応する補正差分値を加算して、第3高解像度画像を生成して出力する。
 画像処理部100は、低解像度画像の水平方向の画素数inXS及び垂直方向の画素数inYSを受け取り、高解像度画像の水平方向の画素数outXS及び垂直方向の画素数outYSを受け取る。
 (1)拡大補間部105
 拡大補間部105は、以下に示すようにして、第1高解像度画像を生成する。なお、第1高解像度画像の解像度、水平方向の画素数及び垂直方向の画素数は、それぞれ、表示デバイス211に表示されるべき第3高解像度画像の解像度、水平方向の画素数及び垂直方向の画素数に等しい。
 拡大補間部105は、低解像度画像を受け取る。また、低解像度画像の水平方向の画素数inXS及び垂直方向の画素数inYSを受け取り、第3高解像度画像の水平方向の画素数outXS及び垂直方向の画素数outYSを受け取る。
 次に、拡大補間部105は、画素数inXS、inYS、outXS及びoutYSを用いて、式3及び式4により、水平方向の補間間隔dx及び垂直方向の補間間隔dyを算出する。
  水平方向の補間間隔dx=inDX/outDX         (式3)
  垂直方向の補間間隔dy=inDY/outDY         (式4)
 こうして算出された水平方向の補間間隔dx及び垂直方向の補間間隔dyは、第1高解像度画像に含まれる画素の位置を規定することとなる。つまり、第1高解像度画像に含まれる画素は、水平方向には、水平方向の補間間隔dxの整数倍の位置に配され、垂直方向には、垂直方向の補間間隔dyの整数倍の位置に配される。
 なお、低解像度画像の解像度は、第3高解像度画像の解像度より、低いので、dx及びdyは、1未満の値となる。
 次に、拡大補間部105は、第1高解像度画像に配されるべき全ての画素の位置について、次の処理(a)~(c)を繰り返す。
 (a)第1高解像度画像に配されるべき1個の画素(中心画素と呼ぶ。)の位置(中心位置と呼ぶ。)について、拡大補間部105は、低解像度画像に含まれる複数の画素のうち、一例として、水平方向に6個、垂直方向に6個、行列状に配された合計36個の画素(周辺画素と呼ぶ。)を、上記の中心位置が、周辺画素のほぼ中央に配されるように、選択し、選択した周辺画素の画素値を取得する。
 図3には、第1高解像度画像に配されるべき1個の中心画素401及び低解像度画像の36個の周辺画素411、412、413、・・・、414、・・・、415の配置の一例を示す。この図に示すように、6行6列の行列状に配された周辺画素411、412、413、・・・、414、・・・、415のほぼ中央の位置に、中心画素401が存在する。
 この図においては、中心画素401の座標(x、y)は、一例として、(3.4、3.5)である。
 (b)次に、中心位置のx座標及びy座標のそれぞれの小数点部px及びpyを算出する。
 ここで、図3に示すように、小数点部px及びpyは、中心画素401に最も近い周辺画素414と、中心画素401との距離のx軸方向及びy軸方向の成分である。なお、この図において、一例として、px=0.4、py=0.5である。
 (c)次に、取得した周辺画素の画素値並びに小数点部px及びpyを用いて、中心位置における中心画素の画素値を、拡大補間法を用いて算出し、算出した画素値を第1高解像度画像の中心位置に格納する。
 拡大補間法としては、従来技術であるバイリニア法やバイキュービックコンボリューション法、Lanczos法などを用いることができ、例えばバイキュービックコンボリューション法では点(x、y)の周辺4×4画素を用いて補間計算が行われる。
 一例として、次の式5により、上記の中心画素の画素値outが算出される。
Figure JPOXMLDOC01-appb-M000003
 ここで、outは出力画素値、I(l,m)は4×4画素の(l,m)位置の画素値、wxl はl位置のx方向の重み係数、wym はy方向の重み係数である。なお、各重み係数は、px,pyで示される補間画素位置とのxまたはy方向の距離をdとすると、バイキュービック補間の場合は以下の式6で表される。
Figure JPOXMLDOC01-appb-M000004
 また、Lanczos法の場合には、wは、以下の式7となる。
Figure JPOXMLDOC01-appb-M000005
 (2)超解像拡大部104
 Yを入力される低解像度画像、Xを未知の正しい第2高解像度画像としたとき、入力画像Yは劣化関数Hによって劣化したものと考えることができる。この関係を次の式8に示す。
 Y=HX                          (式8)
 なお、劣化関数Hには、第2高解像度画像を低解像度画像に変換する縮小処理やPSF(点広がり関数)等を含む。
 超解像拡大部104は、式8の逆演算を行うことでX、つまり、第2高解像度画像を求める処理を行う。
 なお、式8に対して、さらに劣化以外の雑音や拘束条件Vを加えて式9のように定義することもできる。
 Y=HX+V                        (式9)
 この逆問題を解くため、一般的には、第2高解像度画像Xを仮に決め、式8又は式9に従って、Y'を計算し、入力画像との差が閾値以下になるまで、これらの演算を繰り返す。また、低解像度画像として入力される動画像の複数のフレームを用いXを計算する方法などもある。また、単純な方法としてはデコンボリューションによりXを求める方法などもある。
 いずれの処理の場合であっても、ここで用いられる超解像拡大処理では、画像の劣化を何らかの方法で推定し、その逆関数を求める処理を行い、第2高解像度画像を生成する。
 以下では、拡大補間部105及び超解像拡大部104によりそれぞれ生成される第1及び第2高解像度画像の画素位置を低解像度画像の画素位置に置き換えたもの(図3のX,Y)を、位相と表現する。
 拡大補間部105の出力である第1高解像度画像と超解像拡大部104の出力である第2高解像度画像の位相が異なる場合、高解像度画像の同じ位置の画素の値がずれてしまうため、以降の処理が正しく行えなくなる。このため、拡大補間部105及び超解像拡大部104の出力の位相を合わせておく必要がある。出力の位相を合わせるためには、拡大補間部105の第1高解像度画像の画素位置(補間位置x,y,dx,dy)と、超解像拡大部104の第2高解像度画像の画素位置を同一にしておけばよい。
 (3)特徴量生成部103
 上記の劣化関数Hを正しく推定することは重要であり、Hにより出来上がった第2高解像度画像の品質が変化する。なお、放送などの場合、劣化関数Hを正しく推定することは難しく、関数Hが異なることで、意図しないノイズ成分等が発生してしまう。本実施の形態の以降の処理では、この意図しないノイズ成分を抑制する。
 特徴量生成部103は、低解像度画像を入力とし、第1高解像度画像の各画素に対応する特徴量を計算し出力する。このため、特徴量生成部103による特徴量解析の結果として出力される特徴量も、拡大補間部105及び超解像拡大部104の出力である第1及び第2高解像度画像と位相を合わせた形となる。
 特徴量生成部103は、第1高解像度画像に配されるべき全ての画素の位置について、次の処理(a)~(b)を繰り返す。
 (a)特徴量生成部103は、第1高解像度画像に配されるべき1個の画素(注目画素と呼ぶ。)の位置(注目位置と呼ぶ。)について、低解像度画像に含まれる複数の画素のうち、一例として、水平方向にN個、垂直方向にM個、行列状に配された合計N×M個の画素(これらの画素からなる領域を領域Sと呼ぶ。)を、上記の注目位置が、領域Sのほぼ中央に配されるように、選択し、選択した周辺画素の画素値を取得する。
 (b)特徴量生成部103は、注目画素を中心とする領域Sの勾配及び領域Sの許容振幅を、上記の特徴量として算出する。
 なお、領域Sは、低解像度画像の補間位相(x、y)を中心としたN×M画素であり、最小の場合、2×2画素である。処理量と特徴量の精度を考慮した場合、N、Mは3~6程度が望ましい。
(領域Sの勾配の算出)
 特徴量生成部103は、領域Sの勾配を、領域S内の画素値を、領域S内の離散値ではなく、領域S内で連続して変化する値とみなして、関数uと表現する場合、∥∇u∥を計算することにより算出する。
 ∥∇u∥は、例えば、次の式10又は式11等により計算することができる。
Figure JPOXMLDOC01-appb-M000006
Figure JPOXMLDOC01-appb-M000007
 また、∥∇u∥を簡易的に計算するため、特徴量生成部103は、領域S内の最大値と最小値の差を求めるとしてもよい。
 いずれの方法を用いる場合においても、特徴量生成部103は、領域S内の勾配を計算し、これを特徴量の1つとして出力する。
(許容振幅の算出)
 許容振幅は、注目画素の変化の範囲の許容量を示している。特徴量生成部103は、許容振幅を、領域S内の勾配情報などから計算する。
 (i)許容振幅の簡単な計算方法
 特徴量生成部103は、領域S内の最大値を許容振幅の最大値として算出し、領域S内の最小値を許容振幅の最小値として算出する。
 (ii)許容振幅の別の計算方法
 ここでは、許容振幅の別の計算方法について説明する。
  (ii-1)第1の例
 許容振幅の計算の第1の例について、図4~図6を用いて説明する。
 図4において、画素501は、許容振幅を計算する対象となる第1高解像度画像の画素(注目画素)である。また、画素501をほぼ中央として、水平方向に6個、垂直方向に6個、行列状に配された合計36個の低解像度画像の画素511、512、513、514、・・・、515、516、517、518、・・・、519が存在し、合計36個の低解像度画像の画素511、512、513、514、・・・、519は、領域S(500)を構成している。
 特徴量生成部103は、注目画素である画素501が中心に配されるように、領域S(500)に含まれる合計36個の低解像度画像の画素511、512、513、514、・・・、519を選択する。次に、領域S(500)を4つの領域502、503、504、505に分割する。領域502、503、504、505は、それぞれ、水平方向に3個、垂直方向に3個、行列状に配された合計9個の低解像度画像の画素を含む。領域502は、画素501の左上側に隣接し、領域503は、画素501の右上側に隣接し、領域504は、画素501の左下側に隣接し、領域505は、画素501の右下側に隣接する。なお、領域502に含まれる9個の低解像度画像の画素のうち、画素515が画素501に最も近い位置に配置され、領域503に含まれる9個の低解像度画像の画素のうち、画素516が画素501に最も近い位置に配置され、領域504に含まれる9個の低解像度画像の画素のうち、画素517が画素501に最も近い位置に配置され、領域505に含まれる9個の低解像度画像の画素のうち、画素518が画素501に最も近い位置に配置されている。
 特徴量生成部103は、領域502内に含まれる9個の低解像度画像の画素から、最大の画素値を有する画素を選択し、その画素値をMAX1とする。また、領域502内に含まれる9個の低解像度画像の画素から、最小の画素値を有する画素を選択し、その画素値をMIN1とする。このように、領域502から最大値MAX1と最小値MIN1の組を算出する。同様にして、特徴量生成部103は、領域503から最大値MAX2と最小値MIN2の組を算出し、領域504から最大値MAX3と最小値MIN3の組を算出し、領域505から最大値MAX4と最小値MIN4の組を算出する。
 ここで、最大値MAX1と最小値MIN1の組は、領域502を代表していると考え、最大値MAX1と最小値MIN1とは、領域502内において、画素515が配置されている位置と同じ位置に配置されているものとする。同様に、最大値MAX2と最小値MIN2とは、領域503内において、画素516が配置されている位置と同じ位置に配置されているものとし、最大値MAX3と最小値MIN3とは、領域504内において、画素517が配置されている位置と同じ位置に配置されているものとし、最大値MAX4と最小値MIN4とは、領域505内において、画素518が配置されている位置と同じ位置に配置されているものとする。
 このように考えると、最大値MAX1、MAX2、MAX3、MAX4及び画素501の位置関係は、図5に示すようになり、最小値MIN1、MIN2、MIN3、MIN4及び画素501の位置関係は、図6に示すようになる。
 特徴量生成部103は、図5に一例として示すように、最大値MAX1、MAX2、MAX3、MAX4及び画素501の位置関係、注目画素501の補間位相の少数点成分px、pyを用いて、MAX1、MAX2、MAX3、MAX4を線形補間することにより、注目画素501の許容振幅の最大値MAXを算出する。
 また、特徴量生成部103は、図6に一例として示すように、最小値MIN1、MIN2、MIN3、MIN4及び画素501の位置関係、注目画素501の補間位相の少数点成分px、pyを用いて、MIN1、MIN2、MIN3、MIN4を線形補間することにより、注目画素501の許容振幅の最小値MINを算出する。
 以上説明したようにして、第1高解像度画像内の全ての画素について、許容振幅の最大値MAX及び最小値MINを算出する。
  (ii-2)第2の例
 許容振幅の計算の第2の例について、図7~図8を用いて説明する。
 許容振幅の計算の第2の例では、特徴量生成部103は、許容振幅の第1の例で計算した振幅の最大値MAXおよび最小値MINを、領域Sの凸度判定により補正する。
 領域Sのx軸方向の画素値の変化の例を図7及び図8に示す。図7においては、領域Sにおいて、x軸方向に配置された複数の画素の画素値は、x軸に沿って凹状に変化している。また、図8においては、領域Sにおいて、x軸方向に配置された複数の画素の画素値は、x軸に沿って凸状に変化している。なお、図7及び図8においては、簡略化のために、X軸方向の画素値の変化のみを示しているが、それぞれの場合において、Y軸方向に配置された複数の画素の画素値も同様に変化しているとしてもよい。また、領域S全体の空間において、領域S内の複数の画素の画素値が凹状又は凸状に変化しているとしてもよい。
 特徴量生成部103は、領域S全体の空間において、領域S内に配置される複数の画素の画素値が凹状に変化しているか、又は凸状に変化しているかを判断する。
 領域S全体の空間において、画素値が凹状に変化していると判断される場合には、特徴量生成部103は、式12に示すように、許容振幅の第1の例で計算された許容振幅の最小値MINに対して、1以下の係数αを乗じて、補正後の最小値MIN’を算出する。
 MIN’=α×MIN              (式12)
 また、領域S全体の空間において、画素値が凸状に変化していると判断される場合には、特徴量生成部103は、式13に示すように、許容振幅の第1の例で計算された許容振幅の最大値MAXに対して、1以上の係数αを乗じて、補正後の最大値MAX’を算出する。
 MAX’=α×MAX              (式13)
 このように、領域S全体の空間における画素値の凹凸に合わせて、MIN及びMAXを補正することで、許容振幅を低解像度画像の特徴に合わせて調整する。これにより、低解像度画像において、画素値が凸状に変化する部分について、最大値を大きく、画素値が凹状に変化する部分について、最小値を小さくし、低解像度画像の注目画素の周辺画素値の最大値及び最小値を超えた振幅制限を実現することができる。
 なお、係数αは、領域Sの凹凸による関数で式14のように表現される。
 α=f(u)                  (式14)
 関数fでは、例えば、領域Sのラプラシアンの結果からαを求めるとしてもよい。また、領域S内の画素値にローパスフィルタを施した結果の画素値と、領域Sの各画素値の比からαを求めるとしてもよい。
 具体的には、ラプラシアンフィルタの結果に適当な係数βを掛け合わせることで、係数αを決定してもよい。この場合に、画素値(画素値を表現する場合に、0~255のいずれかの値を取るとしてもよい。画素値を正規化して表現すると、0~1.0により表現される。このとき、0は、黒を示し、1.0は、白を示している。)や係数β次第では、αが大きくなりすぎる場合がある。αが大きくなりすぎる場合、又は、小さくなりすぎる場合には、αにクリップ値を乗じることにより、αをクリップする。クリップ値としては、例えば、0.5倍~1.5倍、0.25倍~1.75倍などが考えられる。なお、クリップ値はこの範囲に制限されるものではない。
 また、ローパスフィルタを施した結果得られた画素値をA、領域Sの各小領域の各画素値をBとした場合、比(B/A)をαとしてもよい。なお、この場合もラプラシアンと同等のクリッピングを行ってもよい。
 以上により、許容振幅計算の第2の例では、領域Sの凹凸度により、許容振幅として、補正された最小値及び最大値が計算される。
 (4)差分演算部106
 差分演算部106は、拡大補間部105から第1高解像度画像を受け取り、超解像拡大部104から第2高解像度画像を受け取る。
 次に、差分演算部106は、第1高解像度画像及び第2高解像度画像に含まれる全ての画素について、式13により、第1高解像度画像と第2高解像度画像の対応する画素の画素値の差分値を計算し、計算して得られた差分値を調整部107へ出力する。
 差分値(x,y)=第2高解像度画像の画素(x,y)の画素値-第1高解像度画像の画素(x,y)の画素値                  (式15)
 また、差分演算部106は、受け取った第2高解像度画像を調整部107へ出力する。
 上記のようにして差分値を算出することにより、超解像拡大部104の出力である第2高解像度画像と、拡大補間部105の出力である第1高解像度画像との間の変化する部分を抽出できる。超解像処理によるノイズは、この差分値に含まれるため、以下の処理で、この差分値を補正することでノイズを抑制する。
 (5)調整部107
 調整部107は、差分演算部106から、算出された全ての差分値(x,y)を受け取り、差分演算部106から第2高解像度画像を受け取り、特徴量生成部103から特徴量を受け取る。ここで、特徴量は、上述したように、第1高解像度画像の全ての画素についての勾配情報、許容振幅、又は勾配情報及び許容振幅である。
 次に、調整部107は、受け取った全ての差分値(x,y)について、次の式16により、差分演算部106により算出された差分値(x,y)を補正して補正差分値(x,y)を得る。
 補正差分値(x,y)=差分値(x,y)×ゲインβ  (式16)
 次に、調整部107は、算出した全ての補正差分値(x,y)を合成部108へ出力する。
 以下において、差分値(x,y)の補正方法の詳細について説明する。
 (a)第1の補正方法
 調整部107は、第1の補正方法として、特徴量生成部103から受け取った特徴量である勾配情報を用いて差分値を補正してもよい。勾配情報を用いた補正では、勾配の大きさにより差分値の補正を行う。
 調整部107は、勾配とゲインβの対応関係を示す対応テーブル(図示していない)を予め記憶している。対応テーブルは、複数の対応データを含み、各対応データは、勾配とゲインβを含む。同一の対応データに含まれる勾配とゲインβとが対応しており、勾配が指定された場合に、指定された勾配に対応するゲインβを用いることを表している。ゲインβは、0倍~16倍程度の範囲内で設定される。
 調整部107は、特徴量である勾配情報により示される勾配に対応するゲインβを、対応テーブルから読み出すことにより、取得する。勾配情報により示される勾配が対応テーブルに存在しない場合には、対応テーブルに含まれる複数の対応データを用いて、線形補間により、勾配情報により示される勾配に対応するゲインβを算出してもよい。
 なお、調整部107は、対応テーブルを有せず、勾配とゲインβの対応関係を示す演算式を保持し、この演算式を用いて、勾配に対応するゲインβを演算するとしてもよい。
 調整部107は、こうしてゲインβを取得し、式16に示すように、取得したゲインβを差分値に乗ずることにより、補正差分値を算出する。
 (勾配とゲインβの対応関係についての第1の具体例)
 ここで、対応テーブルにおける勾配とゲインβの対応関係についての第1の具体例を図9(a)に示す。図9(a)に示すグラフ600は、勾配とゲインβの対応関係を表しており、横軸は、勾配を表し、縦軸は、ゲインを表している。グラフ600においては、勾配値611より小さい勾配の範囲601においては、ゲインβがゲイン値612より小さく、かつ、ゲインβがほぼ一定値となるように設定されている。一方、勾配値611より大きい勾配の範囲602においては、ゲインβがゲイン値612より大きく、かつ、勾配が大きくなるに従って、ゲインβが大きくなるように設定されている。
 このように、図9(a)においては、小さい勾配の範囲において、ゲインβを小さくし、大きい勾配の範囲において、勾配が大きくなるに従って、ゲインβを大きく設定している。
 勾配が小さい範囲、例えば、グラフ600の範囲601内においては、画像内に細かいテクスチャが存在し、勾配が大きい範囲、例えば、グラフ600の範囲602内においては、画像内にエッジ成分が存在すると考えられる。
 図9(a)に示すように、勾配とゲインβの対応関係を設定することにより、細かなテクスチャについては、小さいゲインβを用いて差分値を補正、言い換えると、差分値の補正をごく小さくし、一方、エッジ成分については、強いエッジ成分ほど、大きいゲインβを用いて補正、言い換えると、強いエッジ成分のみ補正を行うことができる。こうして、画像内において、小さい振幅に含まれるノイズ成分を強調することなく、エッジ成分だけを強調させることができる。
 (勾配とゲインβの対応関係についての第2の具体例)
 次に、対応テーブルにおける勾配とゲインβの対応関係についての第2の具体例を図9(b)に示す。図9(b)に示すグラフ620は、勾配とゲインβの対応関係を表しており、横軸は、勾配を表し、縦軸は、ゲインを表している。グラフ620において、勾配値631より小さい勾配の範囲621においては、ゲインβがゲイン値641より小さく、かつ、ゲインβがほぼ一定値となるように設定されている。また、勾配値631より大きく、勾配値632より小さい勾配の範囲622においては、ゲインβが一旦増加し、その後減少するように設定されている。つまり、範囲622において、勾配の増加に従って、ゲインβは、ゲイン値641からゲイン値643まで急激に増加し、ゲイン値643をピーク値とし、その後、ゲイン値643からゲイン値642まで急激に減少している。さらに、勾配値632より大きい勾配の範囲623においては、勾配の増加に従って、ゲインβがなだらかに減少するように設定されている
 このように、図9(b)においては、勾配の小さな範囲においては、ゲインβを小さくし、勾配が少し存在する範囲については、ゲインβを大きくし、勾配の大きい範囲については、再び、ゲインβを小さく設定している。
 図9(b)に示すように、勾配とゲインβの対応関係を設定することにより、範囲622においては、画像が細かなテクスチャを含むと考えることができるので、範囲622のゲインを大きくすることにより、細かなテクスチャの部分の効果を残し、範囲622以外の範囲621及び範囲623における効果を小さくすることができる。
 以上説明したように、勾配情報による差分値の補正では、領域Sの勾配、つまり領域Sの平坦度に応じてゲインβを決め、差分値にゲインβを乗じることで、補正差分値を得る。こうして、差分値の補正を行う。
 なお、ゲインβは基本的には1以下の値であるが、1以上に設定することにより、ある勾配の領域を強調することも可能である。ゲインβは、0倍~16倍程度の範囲内で設定してもよい。
 (b)第2の補正方法
 調整部107は、第2の補正方法として、特徴量生成部103から受け取った特徴量である許容振幅を用いて差分値を補正してもよい。許容振幅を用いた補正では、許容振幅を超えた部分について補正を行う。
 調整部107は、受け取った第2高解像度画像の全ての画素について、以下の(i )~(v)を繰り返す。
 (i )第2高解像度画像から、一つの画素を選択し、選択した画素の画素値を抽出する。
 (ii)受け取った許容振幅から、選択した画素に対応する許容振幅(最大値及び最小値)を選択する。
 (iii)抽出した画素値が、選択した最大値及び最小値により定まる範囲内の値であるか否かを判断する。つまり、抽出した画素値が、選択した最大値に等しい又は小さく、かつ、抽出した画素値が選択した最小値に等しい又は大きい否かを判断する。
 (iv)抽出した画素抽出が、範囲外である場合に、選択した画素に対応する差分値に対して、ゲインβを乗じて、補正差分値を算出し、算出した補正差分値を出力する。
 (v )抽出した画素抽出が、範囲内である場合に、選択した画素に対応する差分値に対して、ゲインβを乗じることなく、元の差分値を出力する。
 以下に、第2の補正方法について、図10及び図11を用いて説明する。
 図10において、横軸にx座標を、縦軸に画素値を表している。また、超解像拡大部104から出力された第2高解像度画像において、特定のy座標値及びx座標値701、702、・・・、707によりそれぞれ示される位置に配された画素の画素値の変化1101を示している。また、特定のy座標値及びx座標値701、702、・・・、707によりそれぞれ示される位置における許容振幅の最大値の変化1102及び最小値の変化1103をも示している。
 図10において、特定のy座標値及びx座標値701、702、703、706及び707によりそれぞれ示される位置の画素の画素値は、対応する位置の最大値及び最小値の範囲内に収まっている。しかし、特定のy座標値及びx座標値704及び705によりそれぞれ示される位置の画素の画素値は、対応する位置の最大値より大きい。
 このため、調整部107は、特定のy座標値及びx座標値704及び705によりそれぞれ示される位置について、算出された差分値に対して、ゲインβを乗じて、補正差分値を算出し、算出した補正差分値を出力する。
 また、調整部107は、特定のy座標値及びx座標値701、702、703、706及び707によりそれぞれ示される位置について、補正差分値として元の差分値を出力する。
 このようにして算出された補正差分値を用いて、後述する合成部108は、第2高解像度画像を生成して出力する。
 図11において、横軸にx座標を、縦軸に画素値を表している。また、図11においては、図10に示す変化1101、変化1102及び変化1103に加えて、合成部108により生成された第3高解像度画像において、特定のy座標値及びx座標値701、702、・・・、707によりそれぞれ示される位置に配された画素の画素値の変化1201を示している。
 図11に示すように、第3高解像度画像は、第2高解像度画像と比較すると、特定のy座標値及びx座標値704及び705によりそれぞれ示される位置について、第3高解像度画像の画素値が、下方に修正されている。つまり、その画素値が小さくなるように修正されている。
 このように、調整部107は、許容振幅を超えた部分について、差分値を補正する。
 (c)その他の補正方法
 次に示すようにして補正してもよい。
 上記の第1の補正方法及び第2の補正方法により、それぞれ、個別にゲインβ1及びゲインβ2を算出し、ゲインβ1及びゲインβ2を加算する。
 ゲインβ=ゲインβ1+ゲインβ2
 次に、差分値に得られたゲインβを乗じて、補正差分値を算出する。
 また、次に示すようにして補正してもよい。
 上記の第1の補正方法により、補正差分値を算出し、算出した補正差分値を出力し、合成部108は、補正差分値と第1高解像度画像を用いて、第3高解像度画像を生成する。次に、調整部107は、第2の補正方法により、第3高解像度画像に対して、許容振幅を超えるかどうかの判定を行い、許容振幅を超える画素について、補正差分値にさらに第2の補正方法のゲインを乗じて、二重補正差分値を算出する。次に、合成部108は、許容振幅を超える画素について、第3高解像度画像に、二重補正差分値を加算して、第4高解像度画像を生成し、生成した第4高解像度画像を出力する。
 (6)合成部108
 合成部108は、拡大補間部105から第1高解像度画像を受け取り、調整部107から補正差分値を受け取り、第1高解像度画像の全ての画素の画素値に、対応する補正差分値を加算して、第3高解像度画像を生成し、生成した第3高解像度画像を出力する。
 第3高解像度画像(x,y)=第1高解像度画像(x,y)+補正差分値(x,y)
 補正差分値は、第1高解像度画像と第2高解像度画像の各画素の差分値を補正したものであるため、補正差分値を第1高解像度画像の各画素の画素値に加算することで、補正された超解像処理の結果を得ることができる。
 3.動作
 画像処理装置10の動作について説明する。
 (1)画像処理装置10の動作
 ここでは、画像処理装置10の動作について、特に画像処理部100の動作を中心として、図12に示すフローチャートを用いて説明する。
 入力部201は、低解像度画像を取得し(ステップS101)、拡大補間部105は、拡大補間処理を行って第1高解像度画像を生成し(ステップS102)、超解像拡大部104は、超解像拡大処理を行って第2高解像度画像を生成し(ステップS103)、特徴量生成部103は、特徴量を生成し(ステップS104)、差分演算部106は、差分値を算出し(ステップS105)、調整部107は、補正差分値を算出し(ステップS106)、合成部108は、第1高解像度画像に補正差分値を加算して第3高解像度画像を生成し(ステップS107)、生成された第3高解像度画像を出力する(ステップS108)。
 (2)拡大補間部105の動作
 ここでは、拡大補間部105の動作について、図13に示すフローチャートを用いて説明する。
 拡大補間部105は、低解像度画像の水平方向及び垂直方向の画素数inXS、inYSと、出力すべき第3高解像度画像の水平方向及び垂直方向の画素数outXS、outYSから、水平方向及び垂直方向の補間間隔dx、dyを式3及び式4により計算する(S302)。
 拡大補間部105は、変数yを0に初期化し(S303)、変数xを0に初期化し(S304)、座標(x、y)を中心とする周辺画素の値を低解像度画像から取得する(S305)。次に、x、yの少数点部px、pyを計算する(S306)。
 次に、拡大補間部105は、点(x、y)を中心とする低解像度画素の隣接画素の画素値とpx、pyを用いて拡大補間処理を行い(S307)、拡大補間処理により出力された画素値を出力画素値として格納し(S308)、次に変数xにdxを加算する(S309)。ここで、変数xが水平方向の画素数outXSを超えない場合には(S310でNo)、S305へ戻って、処理を繰り返す。また、変数xがoutXSを超えた場合には(S310でYes)、変数yにdyを加算し(S311)、変数yがoutYSを超えない場合には(S312でNo)、S304へ戻って処理を繰り返す。超えた場合には(S312でYes)、第1高解像度画像の全ての画素の画素値が出力されたので処理を終了する。
 4.まとめ
 以上の処理を行うことで、超解像処理結果が補正される。勾配情報を用いた補正では、例えば画像に含まれる画素の画素値の変化が平坦な部分で発生しているノイズや、勾配の大きな部分、例えばエッジなどで発生しているノイズを抑制することができる。また、許容振幅を用いた補正により、入力画像である低解像度画像の画素の画素値に対して突出したノイズが発生した部分について補正を行うことができる。これらの補正処理により、超解像処理で発生したノイズを抑制し、視覚的に良好な画像を得ることができる。
 (その他の変形例)
 なお、本発明を上記の実施の形態に基づいて説明してきたが、本発明は、上記の実施の形態に限定されないのはもちろんである。以下のような場合も本発明に含まれる。
 (1)差分演算部106は、式15に代えて、式17により差分値(x,y)を算出してもよい。
 差分値(x,y)=第1高解像度画像の画素(x,y)の画素値-第2高解像度画像の画素(x,y)の画素値                  (式17)
 この場合に、合成部108は、式18により、第3高解像度画像を生成する。
 第3高解像度画像(x,y)=第1高解像度画像(x,y)-補正差分値(x,y)
                             (式18)
 (2)超解像拡大部104は、非特許文献1又は非特許文献2により開示された超解像拡大処理方法を用いるとしてもよい。
 (3)次に示すように構成してもよい。
 本発明の一実施態様は、低解像度画像から高解像度画像を生成する画像処理装置であって、低解像度画像を取得する取得回路と、取得した前記低解像度画像を拡大補間して、前記低解像度画像より高い解像度の第1高解像度画像を生成する拡大補間回路と、高解像度画像が劣化して低解像度画像となる過程を推定した劣化モデルを逆方向に辿ることにより、前記低解像度画像から、前記第1高解像度画像と同一の解像度を有する第2高解像度画像を生成する超解像処理回路と、前記低解像度画像を用いて、前記第1高解像度画像の各画素の位置における特徴を示す特徴量を生成する特徴量生成回路と、前記第1高解像度画像における各画素について、当該画素の値と、対応する前記第2高解像度画像における画素の値の差分値を算出する差分演算回路と、算出された各画素の差分値を、生成された前記特徴量を用いて補正して、補正差分値を算出する調整回路と、前記第1高解像度画像の各画素の値に、当該画素に対応する補正差分値を加算して、第3高解像度画像を生成する合成回路とを備えることを特徴とする。
 また、本発明の別の実施態様は、低解像度画像から高解像度画像を生成する画像処理装置であって、複数のコンピュータ命令が組み合わされて構成されるコンピュータプログラムを記憶しているメモリ部と、前記メモリ部に記憶されている前記コンピュータプログラムから1個ずつコンピュータ命令を読み出し、解読し、その解読結果に応じて動作するプロセッサとを備える。前記コンピュータプログラムは、コンピュータである前記画像処理装置に、低解像度画像を取得する取得ステップと、取得した前記低解像度画像を拡大補間して、前記低解像度画像より高い解像度の第1高解像度画像を生成する拡大補間ステップと、高解像度画像が劣化して低解像度画像となる過程を推定した劣化モデルを逆方向に辿ることにより、前記低解像度画像から、前記第1高解像度画像と同一の解像度を有する第2高解像度画像を生成する超解像処理ステップと、前記低解像度画像を用いて、前記第1高解像度画像の各画素の位置における特徴を示す特徴量を生成する特徴量生成ステップと、前記第1高解像度画像における各画素について、当該画素の値と、対応する前記第2高解像度画像における画素の値の差分値を算出する差分演算ステップと、算出された各画素の差分値を、生成された前記特徴量を用いて補正して、補正差分値を算出する調整ステップと、前記第1高解像度画像の各画素の値に、当該画素に対応する補正差分値を加算して、第3高解像度画像を生成する合成ステップとを実行させることを特徴とする。
 また、本発明の別の実施態様は、低解像度画像から高解像度画像を生成する画像処理装置において用いられるコンピュータプログラムを記録しているコンピュータ読み取り可能な非一時的記録媒体である。前記コンピュータプログラムは、コンピュータである画像処理装置に低解像度画像を取得する取得ステップと、取得した前記低解像度画像を拡大補間して、前記低解像度画像より高い解像度の第1高解像度画像を生成する拡大補間ステップと、高解像度画像が劣化して低解像度画像となる過程を推定した劣化モデルを逆方向に辿ることにより、前記低解像度画像から、前記第1高解像度画像と同一の解像度を有する第2高解像度画像を生成する超解像処理ステップと、前記低解像度画像を用いて、前記第1高解像度画像の各画素の位置における特徴を示す特徴量を生成する特徴量生成ステップと、前記第1高解像度画像における各画素について、当該画素の値と、対応する前記第2高解像度画像における画素の値の差分値を算出する差分演算ステップと、算出された各画素の差分値を、生成された前記特徴量を用いて補正して、補正差分値を算出する調整ステップと、前記第1高解像度画像の各画素の値に、当該画素に対応する補正差分値を加算して、第3高解像度画像を生成する合成ステップとを実行させることを特徴とする。
 (4)上記の装置は、具体的には、マイクロプロセッサ、ROM、RAM、ハードディスクユニットなどから構成されるコンピュータシステムであるとしてもよい。前記RAM又は前記ハードディスクユニットには、コンピュータプログラムが記憶されている。前記マイクロプロセッサが、前記コンピュータプログラムに従って動作することにより、各装置は、その機能を達成する。ここで、コンピュータプログラムは、所定の機能を達成するために、コンピュータに対する指令を示す命令コードが複数個組み合わされて構成されたものである。
 (5)本発明は、画像処理装置で用いられる画像処理方法であるとしてもよい。また、これらの方法をコンピュータにより実現するコンピュータプログラムであるとしてもよいし、前記コンピュータプログラムからなるデジタル信号であるとしてもよい。
 また、本発明は、前記コンピュータプログラム又は前記デジタル信号をコンピュータ読み取り可能な記録媒体、例えば、フレキシブルディスク、ハードディスク、CD―ROM、MO、DVD、DVD-ROM、DVD-RAM、BD(Blu-ray Disc)、半導体メモリなど、に記録したものとしてもよい。また、これらの記録媒体に記録されている前記コンピュータプログラム又は前記デジタル信号であるとしてもよい。
 また、本発明は、前記コンピュータプログラム又は前記デジタル信号を、電気通信回線、無線又は有線通信回線、インターネットを代表とするネットワーク、データ放送等を経由して伝送するものとしてもよい。
 また、本発明は、マイクロプロセッサとメモリとを備えたコンピュータシステムであって、前記メモリは、上記コンピュータプログラムを記憶しており、前記マイクロプロセッサは、前記コンピュータプログラムに従って動作するとしてもよい。
 また、前記プログラム又は前記デジタル信号を前記記録媒体に記録して移送することにより、又は前記プログラム又は前記デジタル信号を前記ネットワーク等を経由して移送することにより、独立した他のコンピュータシステムにより実施するとしてもよい。
 (6)上記実施の形態及び上記変形例をそれぞれ組み合わせるとしてもよい。
 本発明に係る画像処理装置は、超解像処理で利用する劣化モデルが、取得した低解像度画像の現実の劣化過程と異なる場合に、ノイズの発生を抑制して、視覚的に良好な高解像度画像を得ることができ、低解像度画像から高解像度画像を生成する画像処理技術に好適である。
 101 低解像度画像
 102 第3高解像度画像
 103 特徴量生成部
 104 超解像拡大部
 105 拡大補間部
 106 差分演算部
 107 調整部
 108 合成部
 201 入力部
 202 チューナ
 203 外部端子
 204 メモリカード
 205 メモリ
 206 プロセッサ
 207 復号部
 208 表示制御部
 209 ビデオドライバ
 210 ハードディスク
 211 表示デバイス

Claims (7)

  1.  低解像度画像から高解像度画像を生成する画像処理装置であって、
     低解像度画像を取得する取得手段と、
     取得した前記低解像度画像を拡大補間して、前記低解像度画像より高い解像度の第1高解像度画像を生成する拡大補間手段と、
     高解像度画像が劣化して低解像度画像となる過程を推定した劣化モデルを逆方向に辿ることにより、前記低解像度画像から、前記第1高解像度画像と同一の解像度を有する第2高解像度画像を生成する超解像処理手段と、
     前記低解像度画像を用いて、前記第1高解像度画像の各画素の位置における特徴を示す特徴量を生成する特徴量生成手段と、
     前記第1高解像度画像における各画素について、当該画素の値と、対応する前記第2高解像度画像における画素の値の差分値を算出する差分演算手段と、
     算出された各画素の差分値を、生成された前記特徴量を用いて補正して、補正差分値を算出する調整手段と、
     前記第1高解像度画像の各画素の値に、当該画素に対応する補正差分値を加算して、第3高解像度画像を生成する合成手段と
     を備えることを特徴とする画像処理装置。
  2.  前記特徴量生成手段は、前記特徴量として、前記第1高解像度画像の各画素の周辺画素に対応する前記低解像度画像の画像領域内の画素の値の勾配を示す勾配情報を生成し、
     前記調整手段は、生成された前記勾配情報を用いて、前記差分値を補正する
     ことを特徴とする請求項1に記載の画像処理装置。
  3.  前記調整手段は、前記勾配情報に依存して増減する利得を算出し、算出した利得を前記差分値に乗ずることにより、前記補正差分値を算出する
     ことを特徴とする請求項2に記載の画像処理装置。
  4.  前記特徴量解析手段は、前記特徴量として、前記第1高解像度画像の各画素の周辺画素に対応する前記低解像度画像の画像領域から、当該画素の値の取り得る許容範囲を生成し、
     前記調整手段は、前記許容範囲を超える値を有する前記第2高解像度画像の各画素について、前記差分値を補正する
     ことを特徴とする請求項1又は2に記載の画像処理装置。
  5.  低解像度画像から高解像度画像を生成する画像処理装置で用いられる画像処理方法であって、
     低解像度画像を取得する取得ステップと、
     取得した前記低解像度画像を拡大補間して、前記低解像度画像より高い解像度の第1高解像度画像を生成する拡大補間ステップと、
     高解像度画像が劣化して低解像度画像となる過程を推定した劣化モデルを逆方向に辿ることにより、前記低解像度画像から、前記第1高解像度画像と同一の解像度を有する第2高解像度画像を生成する超解像処理ステップと、
     前記低解像度画像を用いて、前記第1高解像度画像の各画素の位置における特徴を示す特徴量を生成する特徴量生成ステップと、
     前記第1高解像度画像における各画素について、当該画素の値と、対応する前記第2高解像度画像における画素の値の差分値を算出する差分演算ステップと、
     算出された各画素の差分値を、生成された前記特徴量を用いて補正して、補正差分値を算出する調整ステップと、
     前記第1高解像度画像の各画素の値に、当該画素に対応する補正差分値を加算して、第3高解像度画像を生成する合成ステップと
     を含むことを特徴とする画像処理方法。
  6.  低解像度画像から高解像度画像を生成する画像処理装置で用いられる画像処理のためのコンピュータプログラムであって、
     コンピュータに、
     低解像度画像を取得する取得ステップと、
     取得した前記低解像度画像を拡大補間して、前記低解像度画像より高い解像度の第1高解像度画像を生成する拡大補間ステップと、
     高解像度画像が劣化して低解像度画像となる過程を推定した劣化モデルを逆方向に辿ることにより、前記低解像度画像から、前記第1高解像度画像と同一の解像度を有する第2高解像度画像を生成する超解像処理ステップと、
     前記低解像度画像を用いて、前記第1高解像度画像の各画素の位置における特徴を示す特徴量を生成する特徴量生成ステップと、
     前記第1高解像度画像における各画素について、当該画素の値と、対応する前記第2高解像度画像における画素の値の差分値を算出する差分演算ステップと、
     算出された各画素の差分値を、生成された前記特徴量を用いて補正して、補正差分値を算出する調整ステップと、
     前記第1高解像度画像の各画素の値に、当該画素に対応する補正差分値を加算して、第3高解像度画像を生成する合成ステップと
     を実行させるためのコンピュータプログラム。
  7.  低解像度画像から高解像度画像を生成する画像処理装置で用いられる画像処理のためのコンピュータプログラムを記録しているコンピュータ読み取り可能な記録媒体であって、
     コンピュータに、
     低解像度画像を取得する取得ステップと、
     取得した前記低解像度画像を拡大補間して、前記低解像度画像より高い解像度の第1高解像度画像を生成する拡大補間ステップと、
     高解像度画像が劣化して低解像度画像となる過程を推定した劣化モデルを逆方向に辿ることにより、前記低解像度画像から、前記第1高解像度画像と同一の解像度を有する第2高解像度画像を生成する超解像処理ステップと、
     前記低解像度画像を用いて、前記第1高解像度画像の各画素の位置における特徴を示す特徴量を生成する特徴量生成ステップと、
     前記第1高解像度画像における各画素について、当該画素の値と、対応する前記第2高解像度画像における画素の値の差分値を算出する差分演算ステップと、
     算出された各画素の差分値を、生成された前記特徴量を用いて補正して、補正差分値を算出する調整ステップと、
     前記第1高解像度画像の各画素の値に、当該画素に対応する補正差分値を加算して、第3高解像度画像を生成する合成ステップと
     を実行させるためのコンピュータプログラムを記録している記録媒体。
PCT/JP2012/000604 2011-03-28 2012-01-31 画像処理装置、画像処理方法、画像処理のためのコンピュータプログラム及び記録媒体 WO2012132183A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201280010784.5A CN103403758B (zh) 2011-03-28 2012-01-31 图像处理装置、图像处理方法、用于图像处理的计算机程序及记录介质
JP2013507087A JP5837572B2 (ja) 2011-03-28 2012-01-31 画像処理装置、画像処理方法、画像処理のためのコンピュータプログラム及び記録媒体
US13/983,171 US9153010B2 (en) 2011-03-28 2012-01-31 Image processing device and image processing method generating a high-resolution image from a low-resolution image

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011-069668 2011-03-28
JP2011069668 2011-03-28

Publications (1)

Publication Number Publication Date
WO2012132183A1 true WO2012132183A1 (ja) 2012-10-04

Family

ID=46929980

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/000604 WO2012132183A1 (ja) 2011-03-28 2012-01-31 画像処理装置、画像処理方法、画像処理のためのコンピュータプログラム及び記録媒体

Country Status (4)

Country Link
US (1) US9153010B2 (ja)
JP (1) JP5837572B2 (ja)
CN (1) CN103403758B (ja)
WO (1) WO2012132183A1 (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102881000B (zh) * 2012-09-07 2016-05-18 华为技术有限公司 一种视频图像的超分辨率方法、装置和设备
US10303945B2 (en) 2012-12-27 2019-05-28 Panasonic Intellectual Property Corporation Of America Display method and display apparatus
US10410398B2 (en) * 2015-02-20 2019-09-10 Qualcomm Incorporated Systems and methods for reducing memory bandwidth using low quality tiles
JP6545013B2 (ja) * 2015-06-17 2019-07-17 キヤノン株式会社 画像形成方法、画像形成装置、および画像形成プログラム
CN107343392B (zh) * 2015-12-17 2020-10-30 松下电器(美国)知识产权公司 显示方法以及显示装置
CN108780569B (zh) * 2016-01-08 2023-05-05 特利丹菲力尔有限责任公司 用于图像分辨率增强的系统和方法
US9848141B2 (en) * 2016-05-10 2017-12-19 Semiconductor Components Industries, Llc Image pixels having processed signal storage capabilities
JP6668278B2 (ja) * 2017-02-20 2020-03-18 株式会社日立ハイテク 試料観察装置および試料観察方法
EP3610453B1 (en) * 2017-05-16 2023-05-10 Apple Inc. Synthetic long exposure image with optional enhancement using a guide image
WO2019008693A1 (ja) * 2017-07-05 2019-01-10 オリンパス株式会社 画像処理装置、撮像装置、画像処理方法、画像処理プログラムおよび記憶媒体
WO2019008692A1 (ja) * 2017-07-05 2019-01-10 オリンパス株式会社 画像処理装置、撮像装置、画像処理方法、画像処理プログラムおよび記憶媒体
US10540749B2 (en) * 2018-03-29 2020-01-21 Mitsubishi Electric Research Laboratories, Inc. System and method for learning-based image super-resolution
CN110070489A (zh) * 2019-04-30 2019-07-30 中国人民解放军国防科技大学 一种基于视差注意力机制的双目图像超分辨方法
CN110889809B9 (zh) * 2019-11-28 2023-06-23 RealMe重庆移动通信有限公司 图像处理方法及装置、电子设备、存储介质
JP7159486B2 (ja) 2019-12-04 2022-10-24 オリンパス株式会社 撮像装置
CN111932462B (zh) * 2020-08-18 2023-01-03 Oppo(重庆)智能科技有限公司 图像降质模型的训练方法、装置和电子设备、存储介质
CN114612294A (zh) * 2020-12-08 2022-06-10 武汉Tcl集团工业研究院有限公司 一种图像超分辨率处理方法和计算机设备
CN115578260B (zh) * 2022-10-08 2023-07-25 苏州大学 针对图像超分辨率的方向解耦的注意力方法和系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001177719A (ja) * 1999-12-21 2001-06-29 Hitachi Ltd 画像処理装置と印刷システムおよび画像表示システム
JP2006222493A (ja) * 2005-02-08 2006-08-24 Seiko Epson Corp 複数の低解像度画像を用いた高解像度画像の生成
JP2009093442A (ja) * 2007-10-10 2009-04-30 Hitachi Ltd 画像信号処理方法、装置、及びそれを用いた画像表示装置
WO2009078437A1 (ja) * 2007-12-17 2009-06-25 Sharp Kabushiki Kaisha 画像処理装置及び撮像制御装置
JP2009217658A (ja) * 2008-03-12 2009-09-24 Hitachi Ltd 表示装置および画像処理回路
JP2010063088A (ja) * 2008-08-08 2010-03-18 Sanyo Electric Co Ltd 撮像装置
WO2010073582A1 (ja) * 2008-12-22 2010-07-01 パナソニック株式会社 画像拡大装置、方法、集積回路及びプログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4600011B2 (ja) 2004-11-29 2010-12-15 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
US8422788B2 (en) * 2008-08-26 2013-04-16 Microsoft Corporation Automatic image straightening

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001177719A (ja) * 1999-12-21 2001-06-29 Hitachi Ltd 画像処理装置と印刷システムおよび画像表示システム
JP2006222493A (ja) * 2005-02-08 2006-08-24 Seiko Epson Corp 複数の低解像度画像を用いた高解像度画像の生成
JP2009093442A (ja) * 2007-10-10 2009-04-30 Hitachi Ltd 画像信号処理方法、装置、及びそれを用いた画像表示装置
WO2009078437A1 (ja) * 2007-12-17 2009-06-25 Sharp Kabushiki Kaisha 画像処理装置及び撮像制御装置
JP2009217658A (ja) * 2008-03-12 2009-09-24 Hitachi Ltd 表示装置および画像処理回路
JP2010063088A (ja) * 2008-08-08 2010-03-18 Sanyo Electric Co Ltd 撮像装置
WO2010073582A1 (ja) * 2008-12-22 2010-07-01 パナソニック株式会社 画像拡大装置、方法、集積回路及びプログラム

Also Published As

Publication number Publication date
US20130308877A1 (en) 2013-11-21
CN103403758A (zh) 2013-11-20
US9153010B2 (en) 2015-10-06
JPWO2012132183A1 (ja) 2014-07-24
CN103403758B (zh) 2018-01-05
JP5837572B2 (ja) 2015-12-24

Similar Documents

Publication Publication Date Title
JP5837572B2 (ja) 画像処理装置、画像処理方法、画像処理のためのコンピュータプログラム及び記録媒体
US7876979B2 (en) Resolution-converting apparatus and method
WO2011033619A1 (ja) 画像処理装置、画像処理方法、画像処理プログラム、及び、記憶媒体
US9245316B2 (en) Image processing device, image processing method and non-transitory computer readable medium
JP2008091979A (ja) 画像高画質化装置、及びその方法、並びに画像表示装置
JP2012060517A (ja) 画像処理装置、画像処理方法
JP2010034964A (ja) 画像合成装置、画像合成方法及び画像合成プログラム
WO2011018878A1 (ja) 画像処理システム、画像処理方法および画像処理用プログラム
JP5968088B2 (ja) 画像処理装置、画像処理方法、および、プログラム
JP2010212782A (ja) 画像鮮鋭化装置、画像鮮鋭化方法
JP2011119824A (ja) 画像処理装置及び画像処理プログラム
JPWO2017203941A1 (ja) 画像処理装置、および画像処理方法、並びにプログラム
US20130120461A1 (en) Image processor and image processing method
US10424055B2 (en) Image processing apparatus and method for controlling the same
US20070121126A1 (en) Image conversion apparatus and image conversion method
JP4720626B2 (ja) 画像処理システム、画像処理方法及びプログラム
US20150063726A1 (en) Image processing method and image processing apparatus
JP4714062B2 (ja) 高解像度画像を生成する画像拡大装置、その画像拡大方法及びその画像拡大プログラムを記録した記録媒体
JP4267159B2 (ja) 画像処理方法および装置並びに記録媒体
JP5521641B2 (ja) 画像処理用データの圧縮方法および圧縮装置とこれを備えた撮像装置
JP4827137B2 (ja) 解像度変換処理方法、画像処理装置、画像表示装置及びプログラム
KR101332030B1 (ko) 영상 확대방법 및 이를 수행하는 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체
JP5410231B2 (ja) 不等間隔標本化装置、そのプログラム、及び、多次元不等間隔標本化装置
JP5085589B2 (ja) 画像処理装置および方法
JP2005136891A (ja) 画像符号化方法、装置、プログラム、及びこれを記憶した記憶媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12763601

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 13983171

Country of ref document: US

ENP Entry into the national phase

Ref document number: 2013507087

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12763601

Country of ref document: EP

Kind code of ref document: A1