WO2011018878A1 - 画像処理システム、画像処理方法および画像処理用プログラム - Google Patents

画像処理システム、画像処理方法および画像処理用プログラム Download PDF

Info

Publication number
WO2011018878A1
WO2011018878A1 PCT/JP2010/004686 JP2010004686W WO2011018878A1 WO 2011018878 A1 WO2011018878 A1 WO 2011018878A1 JP 2010004686 W JP2010004686 W JP 2010004686W WO 2011018878 A1 WO2011018878 A1 WO 2011018878A1
Authority
WO
WIPO (PCT)
Prior art keywords
resolution image
super
current frame
image
low
Prior art date
Application number
PCT/JP2010/004686
Other languages
English (en)
French (fr)
Inventor
池谷彰彦
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to US13/390,012 priority Critical patent/US8712175B2/en
Priority to JP2011526682A priority patent/JPWO2011018878A1/ja
Publication of WO2011018878A1 publication Critical patent/WO2011018878A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0125Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level one of the standards being a high definition standard

Definitions

  • the present invention relates to an image processing system, an image processing method, and an image processing program, and more particularly to an image processing system, an image processing method, and an image processing program that can improve the quality of moving images.
  • the moving image super-resolution technology is used for up-conversion for displaying, for example, an image shot with SD (Standard Definition) resolution on a television receiver with HD (High Definition) resolution.
  • SD Standard Definition
  • HD High Definition
  • Patent Document 1 describes a high-resolution image generation method for generating a high-resolution image from a plurality of low-resolution images with positional deviation.
  • each pixel of a plurality of low resolution images is associated with a certain position in the high resolution image space.
  • the plurality of low resolution images are pixels sampled at unequal intervals in the high resolution space.
  • pixel positions sampled at unequal intervals (referred to as observation pixel positions) are approximated by pixel positions of a high-resolution image. At this time, there may be a plurality of observation pixel positions approximated to a certain high-resolution pixel position, or they may not exist.
  • a Kalman filter is known as a method for estimating the state of various systems.
  • the Kalman filter is described in Non-Patent Document 1, for example.
  • the noises w t and v t follow the normal distribution given by the following expressions (1) and (2), state prediction and updating are repeated sequentially. To calculate a least squares solution.
  • JP 2008-109375 A paragraphs 0022-0034
  • Patent Document 1 has a problem that the image quality of the super-resolution image is lowered when the alignment of the low-resolution image fails.
  • the present invention provides an image processing system, an image processing method, and an image processing system that can solve the problem that the image quality of a high resolution image is deteriorated due to the failure of image alignment when the resolution of a moving image is increased.
  • An object is to provide an image processing program.
  • An image processing system calculates a geometric transformation parameter representing a geometric transformation of an image from a previous frame to a current frame, and generates a geometric transformation parameter calculation means for calculating a reliability of the geometric transformation parameter, and generates it in the previous frame.
  • a super-resolution image prediction means for generating a prediction of the super-resolution image of the current frame by deforming the super-resolution image based on the geometric transformation parameter, and a prediction result of the super-resolution image of the current frame
  • the low-resolution image is calculated by simulation, the difference between the low-resolution image that is the input image of the current frame and the low-resolution image calculated by the simulation is calculated, and the difference is the same number of pixels as the super-resolution image.
  • the image processing method calculates a geometric transformation parameter representing a geometric transformation of an image from the previous frame to the current frame, calculates a reliability of the geometric transformation parameter, and generates a super solution generated in the previous frame.
  • the image image is transformed based on the geometric transformation parameters to generate a prediction of the super resolution image of the current frame, and the low resolution image of the current frame is calculated by simulation from the prediction result of the super resolution image of the current frame,
  • the difference between the low-resolution image that is the input image of the current frame and the low-resolution image calculated by simulation is calculated, and the difference is upsampled to the same number of pixels as the super-resolution image.
  • the image processing program calculates a geometric transformation parameter that represents a geometric transformation of an image from the previous frame to the current frame, and calculates a reliability of the geometric transformation parameter.
  • a super-resolution image prediction process for generating a prediction of a super-resolution image of the current frame by transforming the super-resolution image generated in the previous frame based on a geometric transformation parameter; and a super-resolution of the current frame
  • the low resolution image of the current frame is calculated from the prediction result of the image by simulation, and the difference between the low resolution image that is the input image of the current frame and the low resolution image calculated by the simulation is calculated.
  • the present invention in the case of increasing the resolution of a moving image, it is possible to solve the problem that the image quality of a high resolution image is deteriorated due to the failure of image alignment.
  • step S5 It is a flowchart which shows the example of the process progress of the prediction result update (step S5) of the super-resolution image in 1st Embodiment. It is a block diagram which shows the example of the image processing system of the 2nd Embodiment of this invention. It is a flowchart which shows the example of the process progress in 2nd Embodiment. It is a flowchart which shows the example of the process progress of the prediction result update (step S44) of the super-resolution image in 2nd Embodiment. It is a block diagram which shows the specific structural example of the image processing system by this invention. It is a block diagram which shows the minimum structure of this invention.
  • FIG. FIG. 1 is an explanatory diagram showing the relationship between an input low resolution image and an output super resolution image in the present invention.
  • the image processing system of the present invention receives a low-resolution image sequence and outputs a super-resolution image sequence obtained by the super-resolution processing.
  • the image processing system of the present invention receives, for example, an SD resolution image and outputs an HD resolution image.
  • SD and HD are examples of resolution, and images of other resolutions may be input / output.
  • the low resolution image is represented by y
  • the super resolution image is represented by x.
  • the low resolution image y and the super resolution image x are obtained by storing pixel values in an image in a column vector in raster scan order.
  • a symbol y representing a low resolution image and a symbol x representing a super resolution image are represented by subscripts representing frames.
  • the current frame to be processed is represented by t
  • the previous frame is represented by t-1.
  • M t, t -1 from the super-resolution image x t-1 in the frame t-1, is a matrix representing the geometric conversion to super-resolution image x t in the frame t.
  • w t is a vector representing noise (predictive noise) independent of geometric transformation.
  • the relationship between the low-resolution image y t and the super-resolution image x t in the current frame t can be represented by the formula (4) shown below.
  • B is a matrix representing a blur in the low-resolution image y t generation.
  • D is a matrix representing downsampling when the low-resolution image yt is generated.
  • v t is a vector representing noise (observation noise).
  • FIG. 2 shows an example of an image to be blurred
  • FIG. 2 illustrates an image of 5 ⁇ 5 pixels.
  • the pixel values a 22 and the pixel values a 11 of its neighboring pixels a 12, a 13, a 21, a 23, a 31 , A 32 , a 33 with the average value.
  • FIG. 3 is a column vector representing the image illustrated in FIG.
  • FIG. 4 is an example of the matrix B representing blurring. However, in FIG. 4, elements for two rows of the matrix B are shown, and the other rows are not shown. In FIG. 4, of the two specifically shown rows, the first row is referred to as the k-th row for convenience and the next row is referred to as the (k + 1) -th row.
  • the first condition is that each row corresponds to each pixel in the image.
  • the second condition is that when the number of pixels used for the average calculation is n, the value of each component in each row is the pixel corresponding to the row whose pixel value is multiplied by that component and the pixels in the vicinity thereof. If it is a value, it is set to 1 / n, and is set to 0 if the pixel value to be multiplied is a pixel value of a pixel other than the pixel corresponding to the row and its neighboring pixels. Note that this condition is an example. For example, instead of making the values of the rows of the matrix B uniform, the matrix B may be determined so as to satisfy other conditions such as setting based on a normal distribution.
  • the matrix D indicating downsampling may be determined so as to satisfy the following condition, for example.
  • the first condition is that each row corresponds to each pixel of the image after downsampling.
  • the second condition is that the value of each component in each row is 1 if the pixel value multiplied by the component is the pixel value of the pixel that remains after downsampling, and 0 if the pixel value of the pixel to be thinned out. It is.
  • This condition is an example, and the matrix D may be determined so as to satisfy other conditions.
  • the image processing system of the present invention predicts the super-resolution image in the current frame from the known x t-1 (ie, the super-resolution image in the previous frame).
  • the image processing system of the present invention performs a calculation using the low-resolution image y t in the current frame, and the calculation result by performing a weighted calculation in the prediction result of the super-resolution image, the super-resolution An image is generated.
  • the image processing system of the present invention performs low-resolution image simulation by simulating an imaging process when photographing a subject in the real world with a camera on the prediction result of the super-resolution image. Is generated.
  • the image processing system of the present invention the difference between the low-resolution image obtained by the simulation and the low-resolution image y t in the current frame is calculated, and upsampling the difference.
  • a super-resolution image is generated as a weighted calculation result between the calculation result and the prediction result of the super-resolution image.
  • the prediction result of the super-resolution image represented as x p, the super-resolution image determined expressed as x r, are denoted with subscript indicating the frame, respectively.
  • the prediction result of the super-resolution image of the current frame t is expressed as x p, t, represents the super-resolution image determined in the current frame t x r, and t.
  • a super-resolution image determined in the previous frame is represented as xr, t-1 .
  • X p and x r in each frame are also expressed as column vectors in which pixel values in the image are arranged in raster scan order.
  • a low-resolution image is obtained by simulation from the prediction result xp, t of the super-resolution image
  • conversion corresponding to blurring and downsampling may be performed on xp , t .
  • B is a matrix representing blur
  • D is a matrix representing downsampling.
  • an example in which a low-resolution image is calculated from the prediction result xp, t of the super-resolution image using the matrices B and D in this way is taken as an example.
  • the method of obtaining the low-resolution image using the matrices B and D is an example of simulation. If the simulation represents the imaging process of the subject, the low-resolution image is derived from x p, t by another simulation. May be.
  • FIG. 7 is a block diagram showing an example of the image processing system according to the first embodiment of the present invention.
  • the image processing system 20 according to the first embodiment includes a geometric transformation matrix calculation unit 21, a super-resolution image prediction unit 22, a super-resolution image update unit 23, and an error parameter setting unit 24.
  • the geometric transformation matrix calculation means 21 calculates a transformation matrix representing a geometrical transformation from the super-resolution image in the previous frame to the super-resolution image in the current frame.
  • this transformation matrix is referred to as a geometric transformation matrix and denoted as M t, t ⁇ 1 .
  • M t, t-1 is the geometric deformation corresponding to the geometric deformation of the low-resolution image y t-1 in the previous frame t-1 to the low-resolution image y t in the current frame t
  • This is a transformation matrix realized between super-resolution images.
  • M t, t ⁇ 1 is a transformation matrix that realizes a translation of 5s pixels.
  • the geometric transformation matrix calculation means 21 calculates the reliability of prediction based on the geometric transformation matrix M t, t ⁇ 1 . That is, the reliability of the prediction result when the super-resolution image of the current frame is predicted using the geometric transformation matrix M t, t ⁇ 1 is calculated.
  • this reliability can be referred to as the reliability of geometric transformation by M t, t ⁇ 1 , and is hereinafter referred to as geometric transformation reliability.
  • the super-resolution image predicting means 22 uses the M t, t ⁇ 1 calculated by the geometric transformation matrix calculating means 21 to use the super-resolution image x r, t ⁇ generated in the previous frame t ⁇ 1. 1 is generated to generate a prediction x p, t of the super-resolution image of the current frame t. Further, the super-resolution image prediction unit 22 calculates a prior error matrix.
  • the prior error matrix is an error related to the super-resolution image x t of the current frame, and represents an error estimated from the past observation history (ie, y 1 , y 2 ,..., Y t ⁇ 1 ). It is a matrix.
  • the pre-error matrix denoted as P b, further, subjecting the subscript represents the frame to the code.
  • the prior error matrix P b, t in the current frame t represents an error related to x t estimated from each low resolution image from y 1 to y t ⁇ 1 .
  • the super-resolution image predicting means 22 may calculate the prior error matrix P b, t in the current frame t by the following equation (5).
  • M t, t ⁇ 1 T is a transposed matrix of M t, t ⁇ 1 .
  • Q is a covariance matrix representing a normal distribution with respect to the prediction noise w t in Equation (3). It can be said that the covariance matrix Q is a parameter for calculating the prior error matrix P b, t .
  • the covariance matrix Q is determined by the error parameter setting unit 24 based on the geometric transformation reliability.
  • the super-resolution image updating unit 23 performs a simulation on the prediction result x p, t of the super-resolution image, and calculates a low-resolution image of the current frame t in a simulated manner. Further, super-resolution image updating means 23 calculates a low-resolution image y t in the current frame t, the difference between the low-resolution image obtained by the simulation. Further, the super-resolution image updating unit 23 calculates the Kalman gain, and uses the calculated difference, the Kalman gain, and the prediction result x p, t of the super-resolution image, and weights the difference and x p, t. Calculate the average. This calculation result is a super-resolution image x r, t in the current frame t.
  • the super-resolution image prediction means 22 uses the super-resolution image prediction means 22 to generate a predicted x p, t + 1 of frame t + 1 of the super-resolution image.
  • the super-resolution image updating unit 23 calculates a posterior error matrix.
  • the posterior error matrix is an error relating to the super-resolution image x t of the current frame, and is a past observation history (ie, y 1 , y 2 ,..., Y t ⁇ 1 ) and a low value of the current frame t. is a matrix representing the error estimated from resolution image y t.
  • the prior error matrix P a, t in the current frame t represents an error related to x t estimated from the low resolution images from y 1 to y t .
  • the posterior error matrix P a, t ⁇ 1 in the immediately preceding frame represents an error related to x t estimated from the low resolution images from y 1 to y t ⁇ 1 .
  • a method for calculating the posterior error matrix will be described later.
  • the super-resolution image updating unit 23 may calculate the Kalman gain K t by calculating the following equation (6), where K t is the Kalman gain in the current frame t.
  • Equation (6) P b, t T is a transposed matrix of P b, t , and similarly, (DB) T is a transposed matrix of (DB). Further, “ ⁇ 1” in Equation (6) represents an inverse matrix.
  • R is a covariance matrix representing a normal distribution with respect to the observation noise v t in equation (4). Covariance matrix R can be considered to be a parameter for calculating the Kalman gain K t. The covariance matrix R is determined by the error parameter setting unit 24 based on the geometric transformation reliability.
  • B is a matrix representing blurring
  • D is a matrix representing downsampling.
  • the error parameter setting means 24 is based on the geometric transformation reliability calculated by the geometric transformation matrix calculating means 21, and the covariance matrix Q representing the normal distribution with respect to the prediction noise w t and the covariance representing the normal distribution with respect to the observation noise v t. Set the variance matrix R. In other words, the error parameter setting means 24 determines the parameter Q used when calculating the prior error matrix P b, t and the parameter R used when calculating the Kalman gain K t based on the geometric transformation reliability. .
  • Geometric transformation matrix calculation means 21, super-resolution image prediction means 22, super-resolution image update means 23, and error parameter setting means 24 are realized by, for example, a CPU of a computer that operates according to an image processing program.
  • the CPU reads an image processing program stored in a program storage means (not shown) of the computer, and the CPU follows the program according to the geometric transformation matrix calculation means 21, super-resolution image prediction means 22, and super-resolution image update. It operates as means 23 and error parameter setting means 24.
  • the geometric transformation matrix calculation unit 21, the super-resolution image prediction unit 22, the super-resolution image update unit 23, and the error parameter setting unit 24 may be realized as separate circuits.
  • FIG. 8 is a flowchart illustrating an example of processing progress in the first embodiment.
  • the image processing system 20 receives a low resolution image forming a low resolution moving image in time order.
  • the geometric transformation matrix calculation unit 21 the geometric transformation matrix M t, and calculates the t-1 (step S1).
  • step S1 the geometric transformation matrix calculation unit 21 uses a low-resolution image y t-1 of the previous frame of the current frame, and a low-resolution image y t of the current frame t, geometric transformation matrix M t and t ⁇ 1 are calculated.
  • the geometric transformation matrix calculation unit 21 enlarges the low resolution images y t ⁇ 1 and y t to an image having the same number of pixels as the super resolution image.
  • the low resolution images y t ⁇ 1 and y t are enlarged at an enlargement ratio from the low resolution image to the super resolution image.
  • This enlargement process may be performed by, for example, bilinear interpolation or bicubic interpolation.
  • An image obtained by enlarging a low-resolution image y t-1 and Y t-1 mark the image obtained by enlarging a low-resolution image y t and Y t.
  • Y t-1 can be regarded as approximating the super-resolution image in the frame t ⁇ 1
  • the geometric transformation matrix calculation means 21, M t, M t in which the difference between t-1 by Y t-1 the result of the conversion and Y t is minimized may be calculated to t-1. That is, the geometric transformation matrix calculation means 21, M t, will change the t-1, M t, may be specified to t-1 when the value of formula (7) below is minimized.
  • This method is called the gradient method. Note that the calculation method of M t, t ⁇ 1 shown here is an example, and M t, t ⁇ 1 may be calculated by other methods.
  • the geometric transformation matrix calculation means 21 calculates the geometric transformation reliability (step S2).
  • An example of the calculation method of geometric transformation reliability is shown.
  • a geometric transformation reliability may be determined.
  • the geometric transformation matrix calculating means 21 calculates the pixel for each corresponding pixel of Y ′ and the reference image Y t.
  • the absolute value of the difference between the values (luminance values) is calculated, the reciprocal of the average value of the absolute values in the entire image is calculated, and the value is used as the geometric transformation reliability. Note that this geometric transformation reliability calculation method is merely an example, and the geometric transformation matrix calculation means 21 may calculate the geometric transformation reliability by another method.
  • the error parameter setting means 24 After the geometric transformation reliability is calculated, the error parameter setting means 24, according to the geometric transformation reliability, the covariance matrix Q representing the normal distribution with respect to the prediction noise w t and the covariance representing the normal distribution with respect to the observation noise v t.
  • a dispersion matrix R is set (step S3).
  • the geometric transformation reliability is represented by r. Further, it is assumed that the geometric transformation reliability r is normalized so as to be a value in the range from 0 to 1.
  • the geometric transformation reliability r may be normalized by, for example, the geometric transformation matrix calculation means 21.
  • the error parameter setting unit 24 may perform this.
  • the error parameter setting means 24 derives a new covariance matrix Q by performing the following equation (8) for Q calculated in the previous frame. That is, a result obtained by multiplying Q calculated in the previous frame by (1-r) is set as a new Q.
  • the error parameter setting means 24 derives a new covariance matrix R by performing the following equation (9) for R calculated in the previous frame. In other words, a result obtained by multiplying R calculated in the previous frame by r is set as a new R.
  • the super-resolution image predicting means 22 transforms the super-resolution image x r, t-1 generated in the previous frame t-1 using the geometric transformation matrix M t, t-1 .
  • the prediction xp, t of the super-resolution image of the current frame t is generated (step S4).
  • the super-resolution image predicting means 22 converts the column vector representing the super-resolution image x r, t ⁇ 1 into the geometric transformation matrix M t, t ⁇ 1 as shown in the following equation (10). The multiplication from the right side is performed to generate a predicted xp, t of the super-resolution image.
  • the super-resolution image predicting means 22 also calculates the prior error matrix P b, t when generating x p, t in step S4.
  • the super-resolution image predicting means 22 may calculate the prior error matrix P b, t in the current frame t by the above-described equation (5).
  • the super-resolution image predicting unit 22 uses the covariance matrix Q set by the error parameter setting unit 24 in step S3, and P b, t Is calculated.
  • step S4 the super-resolution image updating means 23 updates the super-resolution image x r, t in the current frame by updating the prediction result x p, t of the super-resolution image calculated in step S4. Calculate (step S5).
  • FIG. 9 is a flowchart illustrating an example of a process progress of the super-resolution image prediction result update (step S5) in the first embodiment.
  • B used in Equation (6) is a matrix representing blurring
  • D is a matrix representing downsampling.
  • the super-resolution image updating means 23 the prediction result x p of the super-resolution image of the current frame t calculated in In step S4 (see FIG. 8), by simulation from t, the low resolution of the current frame t An image is generated. Then, the super-resolution image updating unit 23 calculates a difference between the low-resolution image y t actually input in the current frame t and the low-resolution image generated from x p, t by simulation (step S32). ). In this example, the super-resolution image updating unit 23 obtains a low-resolution image by calculating DBx p, t by simulation using a matrix B representing blurring and a matrix D representing downsampling. Then, the difference between y t, may be determined by calculating the (y t -DBx p, t) .
  • Equation (11) the Kalman gain K t is a matrix that performs upsampling and weighting on (y t ⁇ DBx p, t ).
  • the weighted addition represented by Expression (11) is an aspect of calculating the weighted average of x p, t and (y t ⁇ DBx p, t ).
  • the super-resolution image updating unit 23 calculates a posterior error matrix Pa, t in the current frame t (step S34).
  • the super-resolution image updating unit 23 may calculate P a, t by performing the following equation (12).
  • I is a unit matrix.
  • the super-resolution image updating unit 23 passes x r, t and P a, t calculated in the current frame t to the super-resolution image prediction unit 22.
  • step S4 of the next frame t + 1 processing is performed using this xr, t as a super-resolution image of the previous frame.
  • step S33 of the next frame t + 1 this P a, t is used when calculating the prior error matrix P b, t + 1 .
  • the image processing system 20 performs the processing of steps S1 to S5 each time a low resolution image of each frame is input. As a result, a super-resolution image is obtained for each frame. A sequence of super-resolution images for each frame becomes a super-resolution moving image. Therefore, the image processing system 20 can generate a super-resolution moving image from a low-resolution moving image. The image processing system 20 outputs super-resolution images in the order of frames.
  • the super-resolution image prediction means 22 calculates the prior error matrix P b, t using this Q
  • the super-resolution image update means 23 calculates the Kalman gain using the P b, t and R. To do.
  • the super-resolution image updating unit 23 calculates the super-resolution image x r, t in the current frame using the Kalman gain. Therefore, the image processing system 20 sets the parameters Q and R according to the case even when the alignment of the images Y t ⁇ 1 and Y t fails, and sets the super-resolution image x r, t . Since the calculation is performed, it is possible to prevent deterioration of the image quality of the super-resolution image.
  • the image processing system 20 uses the low resolution input in the current frame t when the reliability of prediction of the super resolution image using the geometric transformation matrix M t, t ⁇ 1 is low. It is possible to increase the weight for the image y t.
  • the reliability of super-resolution image prediction using the geometric transformation matrix M t, t-1 is high , the weight for the prediction result x p, t of the super-resolution image can be increased. As a result, it is possible to prevent the super-resolution image from failing even when the prediction of the super-resolution image by the geometric transformation matrix M t, t ⁇ 1 fails.
  • the super-resolution image updating unit 23 updates the prediction result of the super-resolution image of the current frame t in step S33 using the difference calculated in step S32. Therefore, the accuracy of the super-resolution image can be increased. Specifically, when the resolution is reduced by reducing the super-resolution image, an image having a small difference from the original low-resolution image is obtained. This means that the generated super-resolution image has high accuracy.
  • the first frame an image obtained by up-sampling the low-resolution image of the first frame to the same number of pixels as the super-resolution image is regarded as a super-resolution image, and the processing shown in FIG. 8 is performed.
  • the posterior error matrix Pa , 1 in the first frame is, for example, a unit matrix.
  • the same image as the low-resolution image of the first frame is used as the low-resolution image in the frame immediately before the first frame, and the low-resolution image of the first frame is upsampled.
  • the processing shown in FIG. 8 may be performed from the first frame by regarding the image as the super-resolution image in the frame immediately before the first frame. Also in this case, it may be assumed that the posterior error matrix in the frame immediately before the first frame is, for example, a unit matrix.
  • the image may be completely different between the current frame t and the previous frame t-1.
  • the error parameter setting unit 24 sets all the components of the covariance matrix Q related to the prediction noise to 0, and the image processing system 30 may generate a super-resolution image from only the low-resolution image of the current frame t. Good.
  • the super-resolution image prediction unit 22 may use an image obtained by enlarging the low-resolution image of the current frame t as the prediction of the super-resolution image of the current frame t. Other operations are the same as those in the first embodiment.
  • Whether or not a scene change has occurred may be determined based on whether or not the geometric transformation reliability is equal to or less than a predetermined threshold.
  • This threshold value may be determined as a small value such that a value equal to or less than the threshold value can be regarded as zero. Then, for example, the error parameter setting unit 24 determines that a scene change has occurred if the geometric transformation reliability is equal to or less than a threshold value, and determines that no scene change has occurred if the geometric transformation reliability is greater than the threshold value. That's fine.
  • the error parameter setting unit 24 determines, for each pixel, the absolute value of the difference between corresponding pixels between the low resolution image of the current frame t and the low resolution image of the previous frame t ⁇ 1.
  • the error parameter setting unit 24 determines that a scene change has occurred if the sum of absolute values of differences obtained for the entire image (all pixels) is equal to or greater than a threshold value, and determines that a scene change has occurred if the absolute sum of differences is less than the threshold value. It may be determined that no has occurred.
  • a super-resolution image is generated by advancing the processing sequence from the previous frame to the previous frame instead of proceeding from the previous frame. Also good. That is, the image processing system of the present invention predicts the super-resolution image of the current frame t based on the geometric transformation from the super-resolution image of the previous frame t + 1 in terms of time, and inputs the prediction result. updated based on the low resolution image y t, it may be generated super-resolution image of the current frame t.
  • the low-resolution image y t in the current frame t, x p, low-resolution image DBx p was determined by simulation from t, the difference between t (y t -DBx p, t ) with respect to
  • a matrix for performing upsampling and weighting for example, Kalman gain K t
  • Matrix for performing up-sampling and weighting may be other than the Kalman gain K t.
  • Embodiment 2 In the first embodiment, the case where weighting calculation using the Kalman gain is performed is shown.
  • a super-resolution image in the current frame is calculated by performing the following equation (13) instead of equation (11) using the geometric transformation reliability that is a scalar as a weighting factor.
  • x r, t is calculated.
  • r is the geometric transformation reliability. However, it is assumed that the geometric transformation reliability r is normalized so as to be a value in the range from 0 to 1.
  • U is a matrix indicating that (y t ⁇ DBx p, t ) is up-sampled to the same number of pixels as the super-resolution image by bilinear interpolation or bicubic interpolation, for example.
  • FIG. 10 is a block diagram showing an example of an image processing system according to the second embodiment of the present invention.
  • the image processing system 30 according to the second embodiment includes a geometric transformation matrix calculation unit 21, a super-resolution image prediction unit 22, and a super-resolution image update unit 33. Constituent elements similar to those in the first embodiment are denoted by the same reference numerals as those in FIG. 7, and detailed description thereof is omitted.
  • the super-resolution image prediction means 22 does not calculate the prior error matrix.
  • the error parameter setting unit 24 is not provided, and the geometric transformation matrix calculation unit 21 inputs the calculated geometric transformation reliability to the super-resolution image update unit 33.
  • the super-resolution image updating unit 33 does not calculate the posterior error matrix and the Kalman gain.
  • the geometric transformation matrix calculation unit 21, the super-resolution image prediction unit 22, and the super-resolution image update unit 33 are realized by a CPU of a computer that operates according to an image processing program, for example.
  • the CPU reads an image processing program stored in program storage means (not shown) of the computer, and the CPU follows the program according to the geometric transformation matrix calculation means 21, super-resolution image prediction means 22, and super-resolution image update. Operates as means 33.
  • the geometric transformation matrix calculation unit 21, the super-resolution image prediction unit 22, and the super-resolution image update unit 33 may be realized as separate circuits.
  • FIG. 11 is a flowchart illustrating an example of processing progress of the present embodiment.
  • the image processing system 30 receives a low-resolution image forming a low-resolution moving image in order of time.
  • the geometric transformation matrix calculation means 21 calculates a geometric transformation matrix M t, t ⁇ 1 (step S41).
  • the operation in step S41 is the same as step S1 in the first embodiment (see FIG. 8).
  • the geometric transformation matrix calculation unit 21 generates an image Y t-1 obtained by enlarging the low resolution image y t-1 and an image Y obtained by enlarging the low resolution image y t. t is generated.
  • Y t ⁇ 1 and Y t are images having the same number of pixels as the super-resolution image.
  • the geometric transformation matrix calculation means 21 may specify M t, t ⁇ 1 when the value of Equation (7) is minimum.
  • step S42 calculates the geometric transformation reliability (step S42).
  • the operation in step S42 is the same as that in step S2 (see FIG. 8) in the first embodiment. That is, the geometric transformation matrix calculation unit 21, among the M t, the image was enlarged from Teikai image image at t-1 calculated Y t-1, Y t, based on the image Y t corresponding to the current frame, Y t ⁇ 1 is converted with the geometric transformation matrix M t, t ⁇ 1 and the difference between the reference image Y t and the geometric transformation reliability decreases, and the smaller the difference, the higher the geometric transformation reliability.
  • the geometric transformation reliability may be determined.
  • the geometric transformation matrix calculation means 21 normalizes the geometric transformation reliability r so that the value of the geometric transformation reliability r becomes a value in the range from 0 to 1.
  • the geometric transformation matrix calculating unit 21 inputs the calculated geometric transformation reliability to the super-resolution image updating unit 33.
  • the super-resolution image predicting means 22 transforms the super-resolution image x r, t-1 generated in the previous frame t-1 using the geometric transformation matrix M t, t-1 .
  • the prediction xp, t of the super-resolution image of the current frame t is generated (step S43).
  • the operation in step S43 is the same as the xp , t generation operation in step S4 (see FIG. 8). That is, the super-resolution image prediction unit 22 may obtain the prediction x p, t of the super-resolution image of the current frame t by performing the calculation of the above-described equation (10).
  • the super-resolution image updating unit 33 updates the super-resolution image x r, t in the current frame by updating the prediction result x p, t of the super-resolution image calculated in step S43. Calculate (step S44). This mode of operation is different from that of the first embodiment.
  • FIG. 12 is a flowchart illustrating an example of processing progress of the super-resolution image prediction result update (step S44) in the second embodiment.
  • step S44 the super-resolution image updating unit 33, the prediction result x p of the super-resolution image of the current frame t calculated in step S43, the simulation from t, the low of the current frame t A resolution image is generated. Then, the super-resolution image updating unit 33 calculates a difference between the low-resolution image y t actually input in the current frame t and the low-resolution image generated from x p, t by simulation (step S51). ).
  • the process of step S51 is the same as that of step S32 (refer FIG. 9) in 1st Embodiment.
  • the super-resolution image updating unit 33 obtains a low-resolution image by calculating DBx p, t by simulation using a matrix B representing blurring and a matrix D representing downsampling. Then, the difference between y t, may be determined by calculating the (y t -DBx p, t) .
  • the super-resolution image updating unit 33 calculates a weighted average between the prediction result x p, t of the super-resolution image of the current frame t and the difference (y t ⁇ DBx p, t ) calculated in step S51. Calculate (step S52). Specifically, the super-resolution image updating unit 33 sets the geometric transformation reliability r input to the geometric transformation matrix calculating unit 21 as the weighting coefficient on the x p, t side, and sets (1-r) as the difference (y t ⁇ DBx p, t ) side weighting coefficient.
  • the super-resolution image updating unit 33 performs the calculation of the above-described equation (13) using the weighting factors r and (1-r) in this way.
  • the super-resolution image updating unit 33 performs a loop process of steps S51 to S54. After step S52, the super-resolution image updating unit 33 determines whether or not to end this loop process (step S53). For example, the super-resolution image updating means 33, and x r, t obtained in step S52 immediately before, x r were determined in the previous step S52, if the difference between t is equal to or less than the threshold value, x r, What is necessary is just to determine that t has converged and to end the loop processing.
  • step S52 the x r, t obtained in step S52 immediately before, x r were determined in the previous step S52, is larger than the difference threshold between t, is regarded as x r, t has not converged, loop Can be determined to continue.
  • the super-resolution image updating unit 33 updates the prediction result x p, t of the super-resolution image to x r, t obtained in the immediately preceding step S52 (Ste S54). Then, the super-resolution image updating unit 33 repeats the loop processing from step S51 onward using the prediction x p, t of the new super-resolution image.
  • step S53 may be performed by another method. For example, if the number of executions of the loop processing in steps S51 to S54 is determined in advance and the number of executions of the process of calculating xr, t (step S52) reaches a predetermined number, the super-resolution image updating unit 33 It may be determined that the loop process is finished.
  • the same effect as in the first embodiment can be obtained, and a highly accurate super-resolution image can be generated. That is, when the geometric transformation reliability r is low , the accuracy of xr , t can be prevented from decreasing by adjusting the weight of U (y t ⁇ DBx p, t ) to be high.
  • FIG. 13 shows a specific configuration example of the image processing system according to the present invention.
  • the computer 40 is provided with an image input means 41 for sequentially inputting the low resolution image for each frame as a moving image of the low resolution image.
  • the computer 40 is provided with image output means 42 for sequentially outputting the super-resolution image for each frame as a moving image of the super-resolution image.
  • the computer 40 further includes a storage medium 43 that stores an image processing program.
  • the storage medium 43 is realized by a storage device such as a magnetic disk or a semiconductor memory, for example, but the aspect of the storage medium 43 is not particularly limited.
  • the storage medium 43 may be a storage medium that is removable from the computer.
  • a CPU (not shown) of the computer 40 reads an image processing program from the storage medium 43 and, for example, the image processing system 20 (see FIG. 7) of the first embodiment or the second embodiment according to the program.
  • the image processing system 30 (see FIG. 10) operates.
  • the geometric transformation parameter calculation means 51 calculates a geometric transformation parameter (for example, a geometric transformation matrix M t, t-1 ) representing the geometric transformation of the image from the previous frame to the current frame. Then, the reliability of the geometric transformation parameter (for example, the geometric transformation reliability) is calculated.
  • a geometric transformation parameter for example, a geometric transformation matrix M t, t-1
  • the resolution image prediction means 52 (for example, the super resolution image prediction means 22) predicts the super resolution image of the current frame by deforming the super resolution image generated in the previous frame based on the geometric transformation parameter. Is generated.
  • a geometric transformation parameter for example, a geometric transformation matrix M t, t-1 ) representing a geometric transformation of an image from the previous frame to the current frame is calculated, and a reliability of the geometric transformation parameter (for example, a geometric transformation reliability) )
  • a reliability of the geometric transformation parameter for example, a geometric transformation reliability
  • the super-resolution image generation means calculates the low-resolution image of the current frame by simulation from the prediction result of the super-resolution image of the current frame.
  • the difference between the low resolution image (for example, y t ) that is the input image of the current frame and the low resolution image (for example, DBx p, t ) calculated by simulation, and applying the Kalman filter The weighted average of the result of up-sampling the difference (for example, (y t ⁇ DBx p, t )) to the same number of pixels as the super-resolution image and the prediction result of the super-resolution image of the current frame is calculated.
  • An image processing system that uses the calculation result of the weighted average as a super-resolution image of the current frame.
  • the Kalman gain the difference between the low-resolution image calculated by the low-resolution image and simulation is the input image of the current frame (e.g., (y t -dbx p, )) Multiplied by, by adding the prediction result of the super-resolution image of the current frame, the difference between the results obtained by up-sampling the same number of pixels and the super-resolution image, the prediction result of the super-resolution image of the current frame
  • r is the super-resolution image of the current frame.
  • the weighted average is calculated using 1 ⁇ r as the weighting coefficient of the prediction result of the current frame, and 1 ⁇ r as the weighting coefficient of the upsampling result of the difference between the low resolution image that is the input image of the current frame and the low resolution image calculated by the simulation Image processing system.
  • the super-resolution image generation means performs simulation calculation representing the imaging process (for example, blurring and down-sampling) of the subject on the prediction result of the super-resolution image of the current frame, thereby reducing the current frame
  • An image processing system for calculating a resolution image An image processing system for calculating a resolution image.
  • the present invention can be suitably applied to an image processing system that converts a moving image of a low resolution image into a moving image of a high resolution image.
  • an image processing system that converts a moving image of a low resolution image into a moving image of a high resolution image.
  • NTSC National Television System Committee
  • it can be applied to an image processing system that saves while converting in real time to an image quality equivalent to high definition or a resolution equivalent to high definition.
  • a video signal recorded in the NTSC format is played back by a playback device, it can also be applied to an image processing system that outputs to a display device while converting in real time to an image quality equivalent to high definition or a resolution equivalent to high definition.
  • receiving and displaying NTSC video with a high-definition television receiver it can also be applied to a television receiver that displays images converted in real time to the same image quality or resolution equivalent to high-definition. It is.
  • Geometric transformation matrix calculation means 22 Super-resolution image prediction means 23, 33 Super-resolution image update means 24 Error parameter setting means

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Television Systems (AREA)

Abstract

 幾何変換パラメータ算出手段は、前フレームから現フレームへの画像の幾何変換を表す幾何変換パラメータを算出し、その幾何変換パラメータの信頼度を計算する。解像画像予測手段は、前フレームの超解像画像を幾何変換パラメータに基づいて変形することで現フレームの超解像画像の予測を生成する。超解像画像生成手段は、現フレームの超解像画像の予測結果から現フレームの低解像画像をシミュレーションにより計算し、現フレームの入力画像である低解像画像と、シミュレーション結果との差分を計算し、当該差分のアップサンプリング結果と、現フレームの超解像画像の予測結果との重み付き平均を計算する。このとき、幾何変換パラメータの信頼度に基づいて重み付き平均を計算する。

Description

画像処理システム、画像処理方法および画像処理用プログラム
 本発明は、画像処理システム、画像処理方法および画像処理用プログラムに関し、特に、動画像を高画質化できる画像処理システム、画像処理方法および画像処理用プログラムに関する。
 同じ被写体を撮影した複数枚の低解像画像から、より高い解像度をもつ高解像画像を生成する技術が種々提案されている(例えば、特許文献1参照)。この高解像画像は、超解像画像と呼ばれる。なお、低解像画像は、低解像度画像と呼ばれることもある。高解像画像は高解像度画像と呼ばれることもある。
 近年では、静止画像だけでなく、動画像にも同技術を適用し、低解像の動画像から、より高い解像度の動画像を生成する動画超解像技術に対するニーズが高まっている。動画超解像技術は、例えば、SD(Standard Definition )解像度で撮影された映像を、HD(High Definition )解像度のテレビジョン受像機で表示するためのアップコンバートに利用される。
 特許文献1には、位置ずれのある複数の低解像度画像から高解像度画像を生成する高解像度画像生成方法が記載されている。特許文献1に記載の方法では、複数の低解像度画像の各画素は、高解像度画像空間のある位置に対応付けられる。つまり、位置合わせの後では、複数の低解像度画像は、高解像度空間内で不等間隔にサンプリングされた画素であるとする。特許文献1に記載の方法では、この不等間隔にサンプリングされた画素位置(観測画素位置と称する)を高解像度画像の画素位置で近似する。このとき、ある高解像度画素位置に近似される観測画素位置は、複数あったり、あるいは、存在しなかったりすることも考えられる。特許文献1に記載の方法では、各高解像度画素位置に近似された複数の観測画素の平均画素値をそれぞれ計算することにより、1つの画像を生成する。特許文献1に記載の方法では、この画像を「平均画像」と称している。また、各高解像度画素位置に近似された観測画素も、同様に1つの画像となる。特許文献1では、この画像を「重み画像」と称している。特許文献1に記載の方法では、複数の低解像度画像と、位置合わせによって得られた低解像度画像の位置ずれ情報から、平均画像および重み画像を生成する。そして、生成された平均画像に含まれている未定義画素の画素値を推定することにより、高解像度画像を生成する。また、特許文献1に記載の方法では、低解像度画像が取得される毎に、平均画像および重み画像を更新し、逐次的に高解像度画像を生成する。
 また、種々のシステム等の状態を推定する手法として、カルマンフィルタが知られている。カルマンフィルタは、例えば、非特許文献1に記載されている。非特許文献1に記載されたカルマンフィルタでは、ノイズw,vが以下に示す式(1)、式(2)で与えられる正規分布に従う場合に、状態の予測と更新を逐次的に繰り返すことにより、最小二乗解を計算する。
 w~N(0,Q)     式(1)
 v~N(0,R)     式(2)
特開2008-109375号公報(段落0022-0034)
Greg Welch, Gray Bishop, "An Introduction to the Kalman Filter," Technical Report TR 95-041, University of North Carolina, Department of Computer Science, 1995.
 特許文献1に記載された方法では、低解像度画像の位置合わせに失敗した場合において、超解像画像の画質が低くなってしまうという問題があった。
 そこで、本発明は、動画の高解像度化を行う場合において、画像の位置合わせが失敗することによって高解像画像の画質低下が生じるという問題を解決することができる画像処理システム、画像処理方法および画像処理用プログラムを提供することを目的とする。
 本発明による画像処理システムは、前のフレームから現フレームへの画像の幾何変換を表す幾何変換パラメータを算出し、幾何変換パラメータの信頼度を計算する幾何変換パラメータ算出手段と、前のフレームに生成された超解像画像を幾何変換パラメータに基づいて変形することで現フレームの超解像画像の予測を生成する超解像画像予測手段と、現フレームの超解像画像の予測結果から現フレームの低解像画像をシミュレーションにより計算し、現フレームの入力画像である低解像画像と、シミュレーションで計算した低解像画像との差分を計算し、当該差分を超解像画像と同画素数にアップサンプリングした結果と、現フレームの超解像画像の予測結果との重み付き平均を計算することによって、現フレームの超解像画像を生成する超解像画像生成手段とを備え、超解像画像生成手段は、幾何変換パラメータの信頼度に基づいて重み付き平均を計算することを特徴とする。
 また、本発明による画像処理方法は、前のフレームから現フレームへの画像の幾何変換を表す幾何変換パラメータを算出し、幾何変換パラメータの信頼度を計算し、前のフレームに生成された超解像画像を幾何変換パラメータに基づいて変形することで現フレームの超解像画像の予測を生成し、現フレームの超解像画像の予測結果から現フレームの低解像画像をシミュレーションにより計算し、現フレームの入力画像である低解像画像と、シミュレーションで計算した低解像画像との差分を計算し、当該差分を超解像画像と同画素数にアップサンプリングした結果と、現フレームの超解像画像の予測結果との重み付き平均を計算することによって、現フレームの超解像画像を生成し、重み付き平均を計算する際に、幾何変換パラメータの信頼度に基づいて重み付き平均を計算することを特徴とする。
 また、本発明による画像処理用プログラムは、コンピュータに、前のフレームから現フレームへの画像の幾何変換を表す幾何変換パラメータを算出し、当該幾何変換パラメータの信頼度を計算する幾何変換パラメータ算出処理、前のフレームに生成された超解像画像を幾何変換パラメータに基づいて変形することで現フレームの超解像画像の予測を生成する超解像画像予測処理、および、現フレームの超解像画像の予測結果から現フレームの低解像画像をシミュレーションにより計算し、現フレームの入力画像である低解像画像と、シミュレーションで計算した低解像画像との差分を計算し、当該差分を超解像画像と同画素数にアップサンプリングした結果と、現フレームの超解像画像の予測結果との重み付き平均を計算することによって、現フレームの超解像画像を生成する超解像画像生成処理を実行させ、超解像画像生成処理で、幾何変換パラメータの信頼度に基づいて重み付き平均を計算させることを特徴とする。
 本発明によれば、動画の高解像度化を行う場合において、画像の位置合わせが失敗することによって高解像画像の画質低下が生じるという問題を解決することができる。
本発明において入力される低解像画像と出力される超解像画像との関係を示す説明図である。 ぼかしの対象となる画像の例を示す説明図である。 図2に例示する画像を表す列ベクトルを示す説明図である。 ぼかしを表す行列Bの例を示す説明図である。 ダウンサンプリング後の画像の例を示す説明図である。 ダウンサンプリングを表す行列Dの例を示す説明図である。 本発明の第1の実施形態の画像処理システムの例を示すブロック図である。 第1の実施形態における処理経過の例を示すフローチャートである。 第1の実施形態における超解像画像の予測結果更新(ステップS5)の処理経過の例を示すフローチャートである。 本発明の第2の実施形態の画像処理システムの例を示すブロック図である。 第2の実施形態における処理経過の例を示すフローチャートである。 第2の実施形態における超解像画像の予測結果更新(ステップS44)の処理経過の例を示すフローチャートである。 本発明による画像処理システムの具体的な構成例を示すブロック図である。 本発明の最小構成を示すブロック図である。
 以下、本発明の実施形態を図面を参照して説明する。
実施形態1.
 図1は、本発明において、入力される低解像画像と出力される超解像画像との関係を示す説明図である。本発明の画像処理システムには、低解像画像のシーケンスが入力され、超解像処理によって得られた超解像画像のシーケンスを出力する。本発明の画像処理システムは、例えば、SD解像度の画像を入力され、HD解像度の画像を出力する。ただし、SD、HDは解像度の例示であり、他の解像度の画像を入出力してもよい。また、以下の説明では、低解像画像をyで表し、超解像画像をxで表す。低解像画像yおよび超解像画像xは、画像中の画素値をラスタスキャン順に列ベクトルに格納したものである。また、低解像画像を表す符号yや、超解像画像を表す符号xには、フレームを表す添え字を付して表す。そして、処理対象とする現フレームをtで表し、その1つ前のフレームをt-1で表す。
 現フレームtにおける超解像画像xと、その1つ前のフレームt-1における超解像画像xt-1との関係は、以下に示す式(3)で示すことができる。
 x=Mt,t-1t-1+w     式(3)
 式(3)において、Mt,t-1は、フレームt-1における超解像画像xt-1から、フレームtにおける超解像画像xへの幾何変換を表す行列である。wは、幾何変換に独立なノイズ(予測ノイズ)を表すベクトルである。
 また、現フレームtにおける低解像画像yと超解像画像xとの関係は、以下に示す式(4)で示すことができる。
 y=DBx+v     式(4)
 Bは、低解像画像y生成時におけるぼかしを表す行列である。Dは、低解像画像y生成時におけるダウンサンプリングを表す行列である。vは、ノイズ(観測ノイズ)を表すベクトルである。
 図2ないし図4を用いて、ぼかしの模擬の例を説明する。ぼかしは、画像内の画素毎に、画素値を、近傍の他の画素の画素値との平均値で置き換えることで模擬できる。図2は、ぼかしの対象となる画像の例を示し、図2では、5×5画素の画像を例示している。例えば、画素値a22の画素に着目した場合、その着目画素の画素値を、その画素値a22およびその近傍画素の画素値a11,a12,a13,a21,a23,a31,a32,a33の平均値で置き換える。また、例えば、画素値a23の画素に着目した場合、その着目画素の画素値を、その画素値a23およびその近傍画素の画素値a12,a13,a14,a22,a24,a32,a33,a34の平均値で置き換える。他の画素についても、同様に画素値の置換を行うことで、ぼかしを模擬できる。図3は、図2に例示する画像を表す列ベクトルである。図4は、ぼかしを表す行列Bの例である。ただし、図4では、行列Bの2行分の要素を示し、他の行の図示は省略している。図4において、具体的に示した2行のうち、最初の行を便宜的にk行目と称し、その次の行をk+1行目と称することとする。
 図2に示す画像は、図3に示す列ベクトルで表すことができる。従って、この列ベクトルに乗じる行列Bとして、図4に例示する行列を用いればよい。図4に示すk行目は、画素値a22の置換に用いる行列成分である。また、図4に示すk+1行目は、画素値a23の置換に用いる行列成分である。なお、上述のように、図4では他の行を省略している。図4に示す行列Bの右側から、図3に示す列ベクトルを乗じれば、各画素の平均値を計算することができる。図4に示す行列Bの他の行の計算に関しても同様である。従って、ぼかしを示す行列Bは、例えば、以下の条件を満たすように定めておけばよい。第1の条件は、各行が画像中の各画素に対応していることである。第2の条件は、平均計算に用いる画素の個数をnとしたときに、各行の個々の成分の値を、その成分に乗じられる画素値がその行に対応する画素およびその近傍の画素の画素値である場合には1/nとし、その乗じられる画素値がその行に対応する画素およびその近傍の画素以外の画素の画素値である場合には0とすることである。なお、この条件は一例であり、例えば、行列Bの各行の値を均等とするかわりに、正規分布に基づいて設定するなど、他の条件を満足するように行列Bを定めてもよい。
 図5および図6を用いて、ダウンサンプリングの模擬の例を説明する。図5は、ダウンサンプリング後の画像の例を示す説明図である。図6は、ダウンサンプリングを表す行列Dの例である。ここでは、図2に例示する画像を、図5に例示する画像にダウンサンプリングする場合を例にして説明する。ダウンサンプリングでは、画像の画素値を間引けばよい。例えば、図6に示す行列Dに、図3に示す画像の列ベクトルを右側から乗じれば、画素値a11,a13,a15,a31,a33,a35,a51,a53,a55を含む画像(図5参照)を得ることができる。従って、ダウンサンプリングを示す行列Dは、例えば、以下の条件を満たすように定めておけばよい。第1の条件は、各行がダウンサンプリング後の画像の各画素と対応していることである。第2の条件は、各行の個々の成分の値を、その成分に乗じられる画素値がダウンサンプリング後も残す画素の画素値であれば1とし、間引く画素の画素値であれば0とすることである。なお、この条件は一例であり、他の条件を満足するように行列Dを定めてもよい。
 式(3)および式(4)において、yを「観測結果」、xを「直接観測できない状態」と捉えると、式(3)および式(4)は、それぞれ状態観測モデルにおける状態方程式、観測方程式に該当すると言える。
 本発明の画像処理システムは、既知のxt-1(すなわち前のフレームにおける超解像画像)から現フレームにおける超解像画像を予測する。また、本発明の画像処理システムは、現フレームにおける低解像画像yを用いた演算を行い、その演算結果と、超解像画像の予測結果とで重み付き演算を行うことによって、超解像画像を生成する。具体的には、本発明の画像処理システムは、超解像画像の予測結果に対して、実世界中の被写体をカメラで撮影する際の撮像プロセスを模擬するシミュレーションを行うことにより低解像画像を生成する。そして、本発明の画像処理システムは、現フレームにおける低解像画像yとシミュレーションで得た低解像画像との差分を計算し、その差分をアップサンプリングする。この演算結果と、超解像画像の予測結果との重み付き演算結果として、超解像画像を生成する。
 以下の説明では、超解像画像の予測結果をxと表し、確定した超解像画像をxと表し、それぞれフレームを示す添え字を付して示す。例えば、現フレームtの超解像画像の予測結果はxp,tと表し、現フレームtで確定した超解像画像をxr,tと表す。また、例えば、1つ前のフレームにおいて確定した超解像画像をxr,t-1と表す。各フレームにおけるx,xも、画像中の画素値をラスタスキャン順に並べた列ベクトルとして表現される。
 超解像画像の予測結果xp,tからシミュレーションにより低解像画像を得る場合、例えば、xp,tに対して、ぼかしおよびダウンサンプリングに相当する変換を行えばよい。具体的には、DBxp,tを計算することによって、予測結果xp,tから模擬的に低解像画像を得ることができる。既に説明したように、Bはぼかしを表す行列であり、Dはダウンサンプリングを表す行列である。以下の説明では、このように行列B,Dを用いて超解像画像の予測結果xp,tから低解像画像を計算する場合を例にする。ただし、行列B,Dを用いて低解像画像を得る方法は、シミュレーションの一例であり、被写体の撮像プロセスを表すシミュレーションであれば、他のシミュレーションによってxp,tから低解像画像を導出してもよい。
 既に説明したように、式(3)および式(4)は、それぞれ状態観測モデルにおける状態方程式、観測方程式に該当すると言うことができる。そして、カルマンフィルタによれば、状態空間モデルで表現された問題において、前の時刻における状態と、現在の観測結果から、現在の時刻の状態を推定することができる。式(3)および式(4)で表される状態空間モデルにおける状態(超解像画像)を求めるために、カルマンフィルタを適用することができる。以下、本発明にカルマンフィルタを適用した場合を例にして説明する。
 図7は、本発明の第1の実施形態の画像処理システムの例を示すブロック図である。第1の実施形態の画像処理システム20は、幾何変換行列算出手段21と、超解像画像予測手段22と、超解像画像更新手段23と、誤差パラメータ設定手段24とを備える。
 幾何変換行列算出手段21は、1つ前のフレームにおける超解像画像から現フレームの超解像画像への幾何的な変形を表す変換行列を算出する。以下、この変換行列を幾何変換行列と呼び、Mt,t-1と記す。具体的は、Mt,t-1は、1つ前のフレームt-1における低解像画像yt-1から現フレームtにおける低解像画像yへの幾何変形に相当する幾何変形を、超解像画像間で実現する変換行列である。例えば、低解像画像yt-1から低解像画像yへの幾何変形が5画素分の平行移動であったとする。また、低解像画像から超解像画像への拡大率がsであるとする。この場合、Mt,t-1は、5s画素分の平行移動を実現する変換行列となる。
 さらに、幾何変換行列算出手段21は、幾何変換行列Mt,t-1による予測の信頼度を計算する。すなわち、幾何変換行列Mt,t-1を用いて現フレームの超解像画像を予測したときにおける、その予測結果の信頼度を計算する。以下、この信頼度は、Mt,t-1による幾何変換の信頼度ということができ、以下、幾何変換信頼度と記す。
 超解像画像予測手段22は、幾何変換行列算出手段21によって算出されたMt,t-1を用いて、1つ前のフレームt-1で生成された超解像画像xr,t-1を変形させることによって、現フレームtの超解像画像の予測xp,tを生成する。さらに、超解像画像予測手段22は、事前誤差行列を計算する。
 事前誤差行列とは、現フレームの超解像画像xに関する誤差であって、過去の観測の履歴(すなわち、y,y,・・・,yt-1)から推定した誤差を表す行列である。以下、事前誤差行列をPと記し、さらに、その符号にフレームを表す添え字を付す。現フレームtにおける事前誤差行列Pb,tは、yからyt-1までの各低解像画像から推定したxに関する誤差を表している。
 超解像画像予測手段22は、現フレームtにおける事前誤差行列Pb,tを、以下に示す式(5)により計算すればよい。
 Pb,t=Mt,t-1a,t-1t,t-1 +Q     式(5)
 式(5)において、Mt,t-1 はMt,t-1の転置行列である。また、Qは、式(3)における予測ノイズwに関する正規分布を表す共分散行列である。共分散行列Qは、事前誤差行列Pb,tを計算するためのパラメータであるということができる。共分散行列Qは、幾何変換信頼度に基づいて、誤差パラメータ設定手段24によって定められる。
 超解像画像更新手段23は、超解像画像の予測結果xp,tに対するシミュレーションを行い、現フレームtの低解像画像を模擬的に算出する。さらに、超解像画像更新手段23は、現フレームtにおける低解像画像yと、シミュレーションで得た低解像画像との差分を計算する。また、超解像画像更新手段23は、カルマンゲインを計算し、計算した差分、カルマンゲイン、および超解像画像の予測結果xp,tを用いて、差分とxp,tとの重み付き平均を計算する。この計算結果が、現フレームtにおける超解像画像xr,tである。そして、次のフレームt+1に関する処理では、xr,tは、超解像画像予測手段22がフレームt+1の超解像画像の予測xp,t+1を生成する際に用いられる。また、超解像画像更新手段23は、事後誤差行列を計算する。
 事後誤差行列とは、現フレームの超解像画像xに関する誤差であって、過去の観測の履歴(すなわち、y,y,・・・,yt-1)および現フレームtの低解像画像yから推定した誤差を表す行列である。以下、事後誤差行列をPと記し、さらに、その符号にフレームを表す添え字を付す。現フレームtにおける事前誤差行列Pa,tは、yからyまでの各低解像画像から推定したxに関する誤差を表している。また、その1つ前のフレームにおける事後誤差行列Pa,t-1は、yからyt-1までの各低解像画像から推定したxに関する誤差を表している。事後誤差行列の計算方法については、後述する。
 超解像画像更新手段23は、現フレームtにおけるカルマンゲインをKとすると、以下に示す式(6)の計算を行うことによってカルマンゲインKを計算すればよい。
 K=Pb,t (DB)(DBPb,t (DB)+R)-1   式(6)
 式(6)において、Pb,t はPb,tの転置行列であり、同様に、(DB)は(DB)の転置行列である。また、式(6)における“-1”は逆行列を表す。また、Rは、式(4)における観測ノイズvに関する正規分布を表す共分散行列である。共分散行列Rは、カルマンゲインKを計算するためのパラメータであるということができる。共分散行列Rは、幾何変換信頼度に基づいて、誤差パラメータ設定手段24によって定められる。また、Bはぼかしを表す行列であり、Dはダウンサンプリングを表す行列である。
 誤差パラメータ設定手段24は、幾何変換行列算出手段21によって算出された幾何変換信頼度に基づいて、予測ノイズwに関する正規分布を表す共分散行列Q、および観測ノイズvに関する正規分布を表す共分散行列Rを設定する。換言すれば、誤差パラメータ設定手段24は、事前誤差行列Pb,tを計算する際に用いるパラメータQと、カルマンゲインKを計算する際に用いるパラメータRを、幾何変換信頼度に基づいて定める。
 幾何変換行列算出手段21、超解像画像予測手段22、超解像画像更新手段23および誤差パラメータ設定手段24は、例えば、画像処理用プログラムに従って動作するコンピュータのCPUによって実現される。例えば、コンピュータのプログラム記憶手段(図示略)に記憶された画像処理用プログラムをCPUが読み込み、CPUがそのプログラムに従って、幾何変換行列算出手段21、超解像画像予測手段22、超解像画像更新手段23および誤差パラメータ設定手段24として動作する。また、幾何変換行列算出手段21、超解像画像予測手段22、超解像画像更新手段23および誤差パラメータ設定手段24がそれぞれ別々の回路として実現されていてもよい。
 次に、動作について説明する。
 図8は、第1の実施形態における処理経過の例を示すフローチャートである。画像処理システム20には、低解像の動画像をなす低解像画像が時間順に入力される。処理対象とする現フレームtの低解像画像yが入力されると、幾何変換行列算出手段21は、幾何変換行列Mt,t-1を算出する(ステップS1)。
 ステップS1では、幾何変換行列算出手段21は、現フレームの1つ前のフレームの低解像画像yt-1と、現フレームtの低解像画像yとを用いて、幾何変換行列Mt,t-1を算出する。このとき、幾何変換行列算出手段21は、低解像画像yt-1およびyを、超解像画像と同画素数の画像に拡大する。言い換えれば、低解像画像から超解像画像への拡大率で低解像画像yt-1およびyを拡大する。この拡大処理は、例えば、バイリニア補間やバイキュービック補間によって行えばよい。低解像画像yt-1を拡大した画像をYt-1とし、低解像画像yを拡大した画像をYと記す。ここで、Yt-1は、フレームt-1における超解像画像に近似し、Yは、現フレームtにおける超解像画像に近似しているとみなすことができ、幾何変換行列算出手段21は、Yt-1からYへの幾何的な変形を表す変換行列をMt,t-1として算出する。
 また、幾何変換行列算出手段21は、Mt,t-1によってYt-1を変換した結果とYとの差が最小となるMt,t-1を求めればよい。すなわち、幾何変換行列算出手段21は、Mt,t-1を変更していき、以下に示す式(7)の値が最小となるときのMt,t-1を特定すればよい。
Figure JPOXMLDOC01-appb-M000001
 この方法は、勾配法と呼ばれる。なお、ここで示したMt,t-1の算出方法は例示であり、他の方法でMt,t-1を計算してもよい。
 続いて、幾何変換行列算出手段21は、幾何変換信頼度を算出する(ステップS2)。幾何変換信頼度の算出方法の一例を示す。幾何変換行列算出手段21は、Mt,t-1算出時に低解像画像から拡大した画像Yt-1,Yのうち、現フレームに対応する画像Yを基準として、Yt-1を幾何変換行列Mt,t-1で変換した結果と、基準画像Yとの差が大きいほど、幾何変換信頼度が小さくなり、その差が小さいほど幾何変換信頼度が大きくなるように、幾何変換信頼度を定めればよい。例えば、Yt-1を幾何変換行列Mt,t-1で変換した結果をY’とすると、幾何変換行列算出手段21は、Y’および基準画像Yの対応する各画素同士に関して、画素値(輝度値)の差の絶対値を計算し、その絶対値の画像全体における平均値の逆数を算出し、その値を幾何変換信頼度とすればよい。なお、この幾何変換信頼度の算出方法は例示であり、幾何変換行列算出手段21は、他の方法で幾何変換信頼度を算出してもよい。
 幾何変換信頼度が算出された後、誤差パラメータ設定手段24は、幾何変換信頼度に応じて、予測ノイズwに関する正規分布を表す共分散行列Q、および観測ノイズvに関する正規分布を表す共分散行列Rを設定する(ステップS3)。
 ステップS3では、誤差パラメータ設定手段24は、幾何変換信頼度が大きくなるほど、Qの各成分の値が小さくなり、Rの各成分の値が大きくなるようにし、幾何変換信頼度が小さくなるほど、Qの各成分の値が大きくなり、Rの各成分の値が小さくなるように、共分散行列Q,Rを設定する。ここで、Qの各成分とはQの全ての成分を意味する。同様に、Rの各成分とはRの全ての成分を意味する。
 幾何変換信頼度に応じたQ,Rの設定の一例を示す。以下、幾何変換信頼度をrで表す。また、幾何変換信頼度rは0から1までの範囲の値となるように正規化されているものとする。幾何変換信頼度rの正規化は、例えば幾何変換行列算出手段21が行ってもよい。あるいは、誤差パラメータ設定手段24が行ってもよい。誤差パラメータ設定手段24は、前のフレームで算出したQに対して、以下に示す式(8)の計算を行うことによって、新たに共分散行列Qを導出する。すなわち、前のフレームで算出したQに(1-r)を乗じた結果を、新たなQとする。
 Q←(1-r)×Q      式(8)
 同様に、誤差パラメータ設定手段24は、前のフレームで算出したRに対して、以下に示す式(9)の計算を行うことによって、新たに共分散行列Rを導出する。すなわち、前のフレームで算出したRにrを乗じた結果を、新たなRとする。
 R←r×R     式(9)
 なお、最初に式(8)、式(9)の演算を行う場合のために、Q,Rの初期値を予め定めておけばよい。そして、最初に式(8)、式(9)の演算を行う場合には、Q,Rの初期値を用いればよい。
 次に、超解像画像予測手段22は、1つ前のフレームt-1で生成された超解像画像xr,t-1を、幾何変換行列Mt,t-1を用いて変形させることで、現フレームtの超解像画像の予測xp,tを生成する(ステップS4)。具体的には、超解像画像予測手段22は、以下に示す式(10)のように、超解像画像xr,t-1を表す列ベクトルを幾何変換行列Mt,t-1に右側から乗じる演算を行って、超解像画像の予測xp,tを生成する。
 xp,t=Mt,t-1r,t-1     式(10)
 また、超解像画像予測手段22は、ステップS4でxp,tを生成する際に、事前誤差行列Pb,tも合わせて計算する。超解像画像予測手段22は、ステップS4で、現フレームtにおける事前誤差行列Pb,tを、前述の式(5)により計算すればよい。ただし、式(5)の計算でPb,tを算出する際に、超解像画像予測手段22は、誤差パラメータ設定手段24がステップS3で設定した共分散行列Qを用いてPb,tを算出する。
 ステップS4の次に、超解像画像更新手段23は、ステップS4で計算された超解像画像の予測結果xp,tを更新することによって、現フレームにおける超解像画像xr,tを計算する(ステップS5)。図9は、第1の実施形態における超解像画像の予測結果更新(ステップS5)の処理経過の例を示すフローチャートである。
 ステップS5において、超解像画像更新手段23は、まず、現フレームtにおけるカルマンゲインKを計算する(ステップS31)。超解像画像更新手段23は、ステップS31で、現フレームtにおけるカルマンゲインKを、前述の式(6)の計算を行うことにより計算すればよい。ただし、式(6)の計算でKを算出する際に、超解像画像更新手段23は、誤差パラメータ設定手段24がステップS3で設定した共分散行列Rを用いてKを算出する。
 また、式(6)で用いるBはぼかしを表す行列であり、Dはダウンサンプリングを表す行列である。このB,Dは、後述のステップS32で、超解像画像の予測結果に対するシミュレーションを行うときに用いる行列B,Dと同一の行列である。
 ステップS31の後、超解像画像更新手段23は、ステップS4(図8参照)で計算された現フレームtの超解像画像の予測結果xp,tからシミュレーションによって、現フレームtの低解像画像を生成する。そして、超解像画像更新手段23は、実際に現フレームtにおいて入力された低解像画像yと、シミュレーションによってxp,tから生成した低解像画像との差分を計算する(ステップS32)。本例では、超解像画像更新手段23は、ぼかしを表す行列Bおよびダウンサンプリングを表す行列Dを用いたシミュレーションにより、低解像画像を、DBxp,tの計算により求める。そして、yとの差分を、(y-DBxp,t)の計算によって求めればよい。
 次に、超解像画像更新手段23は、現フレームtの超解像画像の予測結果xp,tと、ステップS32で計算した差分(y-DBxp,t)との重み付き平均を計算することによって、現フレームにおける超解像画像xr,tを計算する(ステップS33)。具体的には、超解像画像更新手段23は、ステップS31で計算したカルマンゲインKを用いて、以下の式(11)に示す計算を行えばよい。
r,t=xp,t+K(y-DBxp,t)     式(11)
 式(11)において、カルマンゲインKは、(y-DBxp,t)に対するアップサンプリングおよび重み付けを行う行列である。式(11)で表される重み付き加算は、xp,tと(y-DBxp,t)との重み付き平均の計算の一態様である。
 また、カルマンゲインKは、共分散行列Q,Rを用いて計算されているので、幾何変換信頼度がカルマンゲインKに反映されている。
 ステップS33の後、超解像画像更新手段23は、現フレームtにおける事後誤差行列Pa,tを計算する(ステップS34)。超解像画像更新手段23は、以下に示す式(12)の計算を行うことでPa,tを算出すればよい。
 Pa,t=(I-KDB)Pb,t     式(12)
 式(12)においてIは単位行列である。
 超解像画像更新手段23は、現フレームtで計算したxr,tおよびPa,tを超解像画像予測手段22に渡す。次のフレームt+1のステップS4では、1つ前のフレームの超解像画像として、このxr,tを用いて処理を行う。また、次のフレームt+1のステップS33では、事前誤差行列Pb,t+1を計算する場合に、このPa,tを用いる。
 画像処理システム20は、ステップS1~S5の処理を、各フレームの低解像画像が入力されるたびに行う。この結果、フレーム毎に超解像画像が得られる。そして、フレーム毎の超解像画像のシーケンスが超解像動画像となる。よって、画像処理システム20によって、低解像の動画像から超解像動画像を生成することができる。画像処理システム20は、フレーム順に超解像画像を出力する。
 本実施形態によれば、幾何変換行列算出手段21が、ステップS1で、低解像画像yt-1およびyを超解像画像と同画素数の画像Yt-1,Yに拡大し、Yt-1からYへの幾何的な変形を表す変換行列をMt,t-1を算出し、さらに幾何変換信頼度を計算する。幾何変換信頼度の値が小さい場合は、変換の信頼度が低く、画像の位置合わせがうまくいっていないことを意味する。逆に、幾何変換信頼度の値が大きい場合は、変換の信頼度が高く、画像の位置合わせがうまくいっていることを意味する。本実施形態では、誤差パラメータ設定手段24が、幾何変換信頼度に基づいて共分散行列Q,Rを設定する。そして、超解像画像予測手段22は、このQを用いて事前誤差行列Pb,tを計算し、超解像画像更新手段23は、そのPb,tおよびRを用いてカルマンゲインを計算する。さらに、超解像画像更新手段23は、そのカルマンゲインを用いて現フレームにおける超解像画像xr,tを計算する。従って、画像処理システム20は、画像Yt-1,Yの位置合わせに失敗するような場合でも、その場合に応じたパラメータQ,Rを設定して、超解像画像xr,tを計算するので、超解像画像の画質低下を防止することができる。
 すなわち、超解像画像更新手段23が、フレーム毎に、重み付けを行うための行列としてカルマンゲインを計算するが、このカルマンゲインに、幾何変換信頼度が反映されている。この結果、フレーム毎に適切な重みが設定されるので、超解像画像の画質を向上させることができる。
 より具体的に説明すると、画像処理システム20は、幾何変換行列Mt,t-1を用いた超解像画像の予測の信頼性が低い場合には、現フレームtに入力された低解像画像yに関する重みを大きくすることができる。逆に、幾何変換行列Mt,t-1を用いた超解像画像の予測の信頼性が高い場合には、超解像画像の予測結果xp,tに対する重みを大きくすることができる。その結果、幾何変換行列Mt,t-1による超解像画像の予測に失敗することがあっても、超解像画像が破綻することを防ぐことができる。
 また、本発明では、超解像画像更新手段23が、ステップS32で計算した差分を用いて、ステップS33で現フレームtの超解像画像の予測結果を更新する。従って、超解像画像の精度を高めることができる。具体的には、超解像画像を縮小して低解像度化した場合に、元の低解像画像との差が小さい画像が得られる。このことは、生成した超解像画像の精度が高いことを意味する。
 なお、画像シーケンスにおける第1のフレーム(最初のフレーム)には、その1つ前のフレームが存在しない。そこで、第1のフレームに関しては、第1のフレームの低解像画像を超解像画像の画素数と同じ画素数にアップサンプリングした画像を、超解像画像とみなし、図8に示す処理を第2のフレームから行ってもよい。この場合、第2のフレームに関して式(5)の計算を行う場合には、第1のフレームにおける事後誤差行列Pa,1が例えば単位行列であると仮定してよい。
 また、第1のフレームの1つ前のフレームにおける低解像画像として、第1のフレームの低解像画像と同一の画像を用い、また、第1のフレームの低解像画像をアップサンプリングした画像を、第1のフレームの1つ前のフレームにおける超解像画像をみなして、第1のフレームから図8に示す処理を行ってもよい。この場合にも、第1のフレームの1つ前のフレームにおける事後誤差行列が例えば単位行列であると仮定すればよい。
 また、シーンチェンジ直後のように、現フレームtと、その前のフレームt-1とで画像が完全に異なる場合がある。この場合には、誤差パラメータ設定手段24は、予測ノイズに関する共分散行列Qの成分を全て0とし、画像処理システム30は現フレームtの低解像画像だけから超解像画像を生成してもよい。この場合、超解像画像予測手段22は、現フレームtの低解像画像を拡大した画像を現フレームtの超解像画像の予測とすればよい。他の動作は、上記の第1の実施形態と同様である。
 シーンチェンジがあったか否かの判定は、幾何変換信頼度が予め定めた閾値以下となっているか否かにより判定すればよい。この閾値は、閾値以下の値が0と見なせる程度の小さな値として定めておけばよい。そして、例えば、誤差パラメータ設定手段24が、幾何変換信頼度が閾値以下であるならば、シーンチェンジが生じたと判定し、幾何変換信頼度が閾値より大きければ、シーンチェンジは生じていないと判定すればよい。
 また、シーンチェンジの他の判定方法として、以下の方法を採用してもよい。例えば、誤差パラメータ設定手段24が、現フレームtの低解像画像と、前のフレームt-1の低解像画像とで、対応する画素同士の差分の絶対値を画素毎に判定する。誤差パラメータ設定手段24は、画像全体(全画素)について求めた差分の絶対値の総和が閾値以上であれば、シーンチェンジが生じたと判定し、差分の絶対の総和が閾値未満であればシーンチェンジが生じていないと判定してもよい。
 なお、ここでは、誤差パラメータ設定手段24がシーンチェンジの有無の判定を行う場合を例にしたが、他の構成要素がシーンチェンジの有無を判定してもよい。
 また、現フレームtがシーンチェンジ直後と判定された場合、処理の順序を過去のフレームから進めるのではなく、時間的に後のフレームから前のフレームに進めることで超解像画像を生成してもよい。すなわち、本発明の画像処理システムは、時間的に先のフレームt+1の超解像画像からの幾何変換に基づいて、現フレームtの超解像画像を予測し、その予測結果を、入力された低解像画像yに基づいて更新して、現フレームtの超解像画像を生成してもよい。
 次に、第1の実施形態の変形例について説明する。
 上記の説明では、式(3)および式(4)で表される状態空間モデルにおける状態(超解像画像)を求めるためにカルマンフィルタを適用する場合を示した。カルマンフィルタの代わりに他のフィルタを用いてもよい。例えば、以下に示す参考文献等に記載されたパーティクルフィルタを適用してもよい。
[参考文献]
 M.Sanjeev Arulampalam, Simon Maskell, Neil Gordon, Tim Clapp, "A Tutorial on Particle Filters for Online Nonlinear/Non-Gaussian Bayesian Tracking," IEEE Transactions on Signal Processing Vol.50, No.2, pp.174-188, 2002.
 また、上記の例では、現フレームtにおける低解像画像yと、xp,tからシミュレーションで求めた低解像画像DBxp,tとの差分(y-DBxp,t)に対して、アップサンプリングおよび重み付けを行うための行列(例えばカルマンゲインK)を乗算する場合を説明した。アップサンプリングおよび重み付けを行うための行列は、カルマンゲインK以外であってもよい。
実施形態2.
 第1の実施形態では、カルマンゲインを用いた重み付け計算を行う場合を示した。第2の実施形態では、スカラである幾何変換信頼度を重み係数として用いて、式(11)の代わりに、以下に示す式(13)の計算を行うことによって、現フレームにおける超解像画像xr,tを計算する。
 xr,t=r×xp,t+(1-r)U(y-DBxp,t)     式(13)
 式(13)において、rは、幾何変換信頼度である。ただし、幾何変換信頼度rは0から1までの範囲の値となるように正規化されているものとする。Uは、例えばバイリニア補間またはバイキュービック補間等により、(y-DBxp,t)を超解像画像と同画素数にアップサンプリングすることを表す行列である。
 図10は、本発明の第2の実施形態の画像処理システムの例を示すブロック図である。第2の実施形態の画像処理システム30は、幾何変換行列算出手段21と、超解像画像予測手段22と、超解像画像更新手段33とを備える。第1の実施形態と同様の構成要素については、図7と同一の符号を付し、詳細な説明を省略する。ただし、超解像画像予測手段22は事前誤差行列を算出しない。また、本実施形態では、誤差パラメータ設定手段24を備えず、幾何変換行列算出手段21は、計算した幾何変換信頼度を超解像画像更新手段33に入力する。
 超解像画像更新手段33は、超解像画像の予測結果xp,tに対するシミュレーションを行い、現フレームtの低解像画像を模擬的に算出する。さらに、超解像画像更新手段33は、現フレームtにおける低解像画像yと、シミュレーションで得た低解像画像との差分を計算する。この処理は、第1の実施形態における超解像画像構成手段23の処理と同様である。ただし、超解像画像更新手段33は、計算した差分と、現フレームにおける超解像画像の予測結果xp,tとの重み付き平均を計算して、現フレームtにおける超解像画像xr,tを計算する場合に、幾何変換信頼度rと、(1-r)とをそれぞれ重み係数として、前述の式(13)に示す重み付き平均の計算を行う。
 従って、本実施形態では、超解像画像更新手段33は、事後誤差行列およびカルマンゲインを算出しない。
 幾何変換行列算出手段21、超解像画像予測手段22および超解像画像更新手段33は、例えば、画像処理用プログラムに従って動作するコンピュータのCPUによって実現される。例えば、コンピュータのプログラム記憶手段(図示略)に記憶された画像処理用プログラムをCPUが読み込み、CPUがそのプログラムに従って、幾何変換行列算出手段21、超解像画像予測手段22および超解像画像更新手段33として動作する。また、幾何変換行列算出手段21、超解像画像予測手段22および超解像画像更新手段33がそれぞれ別々の回路として実現されていてもよい。
 次に、本実施形態の動作について説明する。図11は、本実施形態の処理経過の例を示すフローチャートである。
 画像処理システム30には、低解像の動画像をなす低解像画像が時間順に入力される。処理対象とする現フレームtの低解像画像が入力されると、幾何変換行列算出手段21は、幾何変換行列Mt,t-1を算出する(ステップS41)。ステップS41の動作は、第1の実施形態のステップS1(図8参照)と同様である。例えば、幾何変換行列算出手段21は、第1の実施形態と同様に、低解像画像yt-1を拡大した画像Yt-1を生成し、低解像画像yを拡大した画像Yを生成する。Yt-1,Yは、超解像画像と同画素数の画像である。そして、幾何変換行列算出手段21は、前述の式(7)の値が最小となるときのMt,t-1を特定してもよい。
 次に、幾何変換行列算出手段21は、幾何変換信頼度を算出する(ステップS42)。ステップS42の動作は、第1の実施形態のステップS2(図8参照)と同様である。すなわち、幾何変換行列算出手段21は、Mt,t-1算出時に低解像画像から拡大した画像Yt-1,Yのうち、現フレームに対応する画像Yを基準として、Yt-1を幾何変換行列Mt,t-1で変換した結果と、基準画像Yとの差が大きいほど、幾何変換信頼度が小さくなり、その差が小さいほど幾何変換信頼度が大きくなるように、幾何変換信頼度を定めればよい。ただし、幾何変換行列算出手段21は、幾何変換信頼度rの値が0から1までの範囲の値となるように幾何変換信頼度rを正規化する。幾何変換行列算出手段21は、計算した幾何変換信頼度を超解像画像更新手段33に入力する。
 次に、超解像画像予測手段22は、1つ前のフレームt-1で生成された超解像画像xr,t-1を、幾何変換行列Mt,t-1を用いて変形させることで、現フレームtの超解像画像の予測xp,tを生成する(ステップS43)。ステップS43の動作は、ステップS4(図8参照)におけるxp,t生成動作と同様である。すなわち、超解像画像予測手段22は、前述の式(10)の計算を行うことによって、現フレームtの超解像画像の予測xp,tを求めればよい。
 ステップS43の次に、超解像画像更新手段33は、ステップS43で計算された超解像画像の予測結果xp,tを更新することによって、現フレームにおける超解像画像xr,tを計算する(ステップS44)。この動作の態様は、上述の第1の実施形態と異なる。図12は、第2の実施形態における超解像画像の予測結果更新(ステップS44)の処理経過の例を示すフローチャートである。
 第2の実施形態では、ステップS44において、超解像画像更新手段33は、ステップS43で計算された現フレームtの超解像画像の予測結果xp,tからシミュレーションによって、現フレームtの低解像画像を生成する。そして、超解像画像更新手段33は、実際に現フレームtにおいて入力された低解像画像yと、シミュレーションによってxp,tから生成した低解像画像との差分を計算する(ステップS51)。ステップS51の処理は、第1の実施形態におけるステップS32(図9参照)と同様である。例えば、超解像画像更新手段33は、ぼかしを表す行列Bおよびダウンサンプリングを表す行列Dを用いたシミュレーションにより、低解像画像を、DBxp,tの計算により求める。そして、yとの差分を、(y-DBxp,t)の計算によって求めればよい。
 次に、超解像画像更新手段33は、現フレームtの超解像画像の予測結果xp,tと、ステップS51で計算した差分(y-DBxp,t)との重み付き平均を計算する(ステップS52)。具体的には、超解像画像更新手段33は、幾何変換行列算出手段21に入力された幾何変換信頼度rをxp,t側の重み係数とし、(1-r)を、差分(y-DBxp,t)側の重み係数とする。ただし、xp,t側と、(y-DBxp,t)とは、画素数が異なっているので、(y-DBxp,t)にU(アップサンプリングを表す行列)を乗じ、その結果に(1-r)を乗じる。超解像画像更新手段33は、このように重み係数r、(1-r)を用いて、前述の式(13)の計算を行う。
 図12に示すように、超解像画像更新手段33は、ステップS51~S54のループ処理を行う。ステップS52の次には、超解像画像更新手段33は、このループ処理を終了するか否かを判定する(ステップS53)。例えば、超解像画像更新手段33は、直前のステップS52で求めたxr,tと、前回のステップS52で求めたxr,tとの差が閾値以下になったならば、xr,tが収束したとみなし、ループ処理を終了すると判定すればよい。また、直前のステップS52で求めたxr,tと、前回のステップS52で求めたxr,tとの差が閾値より大きければ、xr,tが収束していないとみなして、ループ処理を続行すると判定すればよい。
 ループ処理を続行する場合(ステップS53のN)、超解像画像更新手段33は、超解像画像の予測結果xp,tを、直前のステップS52で求めたxr,tに更新する(ステップS54)。そして、超解像画像更新手段33は、その新たな超解像画像の予測xp,tを用いて、ステップS51以降のループ処理を繰り返す。
 ループ処理を終了すると判定した場合(ステップS53のY)、超解像画像更新手段33は、直前のステップS52で計算されたxr,tを現フレームtの超解像画像として出力する。
 なお、ステップS53の終了判定は、他の方法で行ってもよい。例えば、ステップS51~S54のループ処理の実行回数を予め定めておき、xr,tを計算する処理(ステップS52)の実施回数が所定回数に達したならば、超解像画像更新手段33は、ループ処理を終了すると判定してもよい。
 第2の実施形態においても、第1の実施形態と同様の効果が得られ、精度の高い超解像画像を生成することができる。すなわち、幾何変換信頼度rが低い場合には、U(y-DBxp,t)の重みを高くするように調整することで、xr,tの精度低下を防止することができる。
 なお、カルマンフィルタを適用した第1の実施形態と、第2の実施形態とを比較すると、カルマンフィルタを適用した場合の方が、ループ処理を繰り返す必要がなく、演算時間を短縮できる。よって、第1の実施形態のようにカルマンフィルタを適用して処理を行うことが好ましい。
 図13は、本発明による画像処理システムの具体的な構成例を示す。コンピュータ40には、低解像画像の動画として、フレーム毎の低解像画像が順次入力される画像入力手段41が設けられる。同様に、コンピュータ40には、超解像画像の動画として、フレーム毎の超解像画像を順次出力する画像出力手段42が設けられる。さらに、コンピュータ40は、画像処理用プログラムを記憶する記憶媒体43を備える。記憶媒体43は、例えば、磁気ディスク、半導体メモリ等の記憶装置によって実現されるが、記憶媒体43の態様は特に限定されない。記憶媒体43は、コンピュータに着脱可能な記憶媒体であってもよい。コンピュータ40のCPU(図示略)は、記憶媒体43から画像処理用プログラムを読み込み、そのプログラムに従って、例えば、第1の実施形態の画像処理システム20(図7参照)、または、第2の実施形態の画像処理システム30(図10参照)として、動作する。
 次に、本発明の最小構成について説明する。図14は、本発明の最小構成を示すブロック図である。本発明の画像処理システムは、幾何変換パラメータ算出手段51と、超解像画像予測手段52と、超解像画像生成手段53とを備える。
 幾何変換パラメータ算出手段51(例えば、幾何変換行列算出手段21)は、前のフレームから現フレームへの画像の幾何変換を表す幾何変換パラメータ(例えば、幾何変換行列Mt,t-1)を算出し、当該幾何変換パラメータの信頼度(例えば、幾何変換信頼度)を計算する。
 解像画像予測手段52(例えば、超解像画像予測手段22)は、前のフレームに生成された超解像画像を幾何変換パラメータに基づいて変形することで現フレームの超解像画像の予測を生成する。
 超解像画像生成手段53(例えば、超解像画像更新手段23,33)は、現フレームの超解像画像の予測結果から現フレームの低解像画像をシミュレーションにより計算し、現フレームの入力画像である低解像画像と、シミュレーションで計算した低解像画像との差分を計算し、当該差分を超解像画像と同画素数にアップサンプリングした結果と、現フレームの超解像画像の予測結果との重み付き平均を計算することによって、現フレームの超解像画像を生成する。そして、超解像画像生成手段53は、重み付き平均を計算する際に、幾何変換パラメータの信頼度に基づいて重み付き平均を計算する。
 そのような構成によれば、動画の高解像度化を行う場合において、画像の位置合わせが失敗することによって高解像画像の画質低下が生じるという問題を解決することができる。
 また、上記の実施形態には、以下の(1)~(5)に示す構成の画像処理システムが開示されている。
(1)前のフレームから現フレームへの画像の幾何変換を表す幾何変換パラメータ(例えば、幾何変換行列Mt,t-1)を算出し、幾何変換パラメータの信頼度(例えば、幾何変換信頼度)を計算する幾何変換パラメータ算出手段(例えば、幾何変換行列算出手段21)と、前のフレームに生成された超解像画像を幾何変換パラメータに基づいて変形することで現フレームの超解像画像の予測(例えば、xp,t)を生成する超解像画像予測手段(例えば、超解像画像予測手段22)と、現フレームの超解像画像の予測結果から現フレームの低解像画像をシミュレーションにより計算し、現フレームの入力画像である低解像画像(例えば、y)と、シミュレーションで計算した低解像画像(例えば、DBxp,t)との差分を計算し、当該差分(例えば、(y-DBxp,t))を超解像画像と同画素数にアップサンプリングした結果と、現フレームの超解像画像の予測結果との重み付き平均を計算することによって、現フレームの超解像画像を生成する超解像画像生成手段(例えば、超解像画像更新手段23,33)とを備え、超解像画像生成手段が、幾何変換パラメータの信頼度に基づいて重み付き平均を計算することを特徴とする画像処理システム。
(2)超解像画像生成手段(例えば、第1の実施形態における超解像画像更新手段23)が、現フレームの超解像画像の予測結果から現フレームの低解像画像をシミュレーションにより計算し、現フレームの入力画像である低解像画像(例えば、y)と、シミュレーションで計算した低解像画像(例えば、DBxp,t)との差分を計算し、カルマンフィルタを適用することによって、当該差分(例えば、(y-DBxp,t))を超解像画像と同画素数にアップサンプリングした結果と、現フレームの超解像画像の予測結果との重み付き平均を計算し、当該重み付き平均の計算結果を現フレームの超解像画像とする画像処理システム。
(3)前のフレームの超解像画像に基づいて現フレームの超解像画像を表す場合におけるノイズ(例えば、w)を表す第1の誤差パラメータ(例えば、共分散行列Q)と、現フレームの超解像画像に基づいて現フレームの低解像画像を表す場合におけるノイズ(例えば、v)を表す第2の誤差パラメータ(例えば、共分散行列R)とを、幾何変換パラメータの信頼度に基づいて設定する誤差パラメータ設定手段(例えば、誤差パラメータ設定手段24)を備え、超解像画像生成手段が、第1の誤差パラメータと第2の誤差パラメータとに基づくカルマンゲイン(例えば、K)を計算し、カルマンゲインに、現フレームの入力画像である低解像画像とシミュレーションで計算した低解像画像との差分(例えば、(y-DBxp,t))を乗じ、現フレームの超解像画像の予測結果に加算することで、差分を超解像画像と同画素数にアップサンプリングした結果と、現フレームの超解像画像の予測結果との重み付き平均を計算する画像処理システム。
(4)超解像画像生成手段(例えば、第2の実施形態における超解像画像更新手段33)が、幾何変換パラメータの信頼度をrとしたときに、rを現フレームの超解像画像の予測結果の重み係数とし、1-rを、現フレームの入力画像である低解像画像とシミュレーションで計算した低解像画像との差分のアップサンプリング結果の重み係数として重み付き平均を計算する画像処理システム。
(5)超解像画像生成手段が、現フレームの超解像画像の予測結果に対して、被写体の撮像プロセス(例えば、ぼかしおよびダウンサンプリング)を表すシミュレーション計算を行うことにより、現フレームの低解像画像を算出する画像処理システム。
 以上、実施形態及び実施例を参照して本願発明を説明したが、本願発明は上記実施形態および実施例に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 この出願は、2009年8月13日に出願された日本特許出願2009-187768を基礎とする優先権を主張し、その開示の全てをここに取り込む。
 本発明は、低解像画像の動画を高解像画像の動画に変換する画像処理システムに好適に適用できる。例えば、NTSC(National Television System Committee)方式のビデオカメラで撮影された動画像を録画する際に、ハイビジョンと同等の画質やハイビジョンと同等の解像度にリアルタイムに変換しながら保存する画像処理システムに適用できる。また、NTSC方式で録画されたビデオ信号を再生機で再生する際に、ハイビジョンと同等の画質やハイビジョンと同等の解像度にリアルタイムに変換しながら表示機器に出力する画像処理システムにも適用可能である。また、ハイビジョン対応のテレビジョン受像機でNTSC方式の映像を受信し、表示する際に、ハイビジョンと同等の画質やハイビジョンと同等の解像度にリアルタイムに変換しながら表示するテレビジョン受像機にも適用可能である。
 21 幾何変換行列算出手段
 22 超解像画像予測手段
 23,33 超解像画像更新手段
 24 誤差パラメータ設定手段

Claims (15)

  1.  前のフレームから現フレームへの画像の幾何変換を表す幾何変換パラメータを算出し、当該幾何変換パラメータの信頼度を計算する幾何変換パラメータ算出手段と、
     前のフレームに生成された超解像画像を前記幾何変換パラメータに基づいて変形することで現フレームの超解像画像の予測を生成する超解像画像予測手段と、
     現フレームの超解像画像の予測結果から現フレームの低解像画像をシミュレーションにより計算し、現フレームの入力画像である低解像画像と、シミュレーションで計算した低解像画像との差分を計算し、当該差分を超解像画像と同画素数にアップサンプリングした結果と、現フレームの超解像画像の予測結果との重み付き平均を計算することによって、現フレームの超解像画像を生成する超解像画像生成手段とを備え、
     超解像画像生成手段は、前記幾何変換パラメータの信頼度に基づいて前記重み付き平均を計算する
     ことを特徴とする画像処理システム。
  2.  超解像画像生成手段は、現フレームの超解像画像の予測結果から現フレームの低解像画像をシミュレーションにより計算し、現フレームの入力画像である低解像画像と、シミュレーションで計算した低解像画像との差分を計算し、カルマンフィルタを適用することによって、当該差分を超解像画像と同画素数にアップサンプリングした結果と、現フレームの超解像画像の予測結果との重み付き平均を計算し、当該重み付き平均の計算結果を現フレームの超解像画像とする
     請求項1に記載の画像処理システム。
  3.  前のフレームの超解像画像に基づいて現フレームの超解像画像を表す場合におけるノイズを表す第1の誤差パラメータと、現フレームの超解像画像に基づいて現フレームの低解像画像を表す場合におけるノイズを表す第2の誤差パラメータとを、幾何変換パラメータの信頼度に基づいて設定する誤差パラメータ設定手段を備え、
     超解像画像生成手段は、
     前記第1の誤差パラメータと前記第2の誤差パラメータとに基づくカルマンゲインを計算し、カルマンゲインに、現フレームの入力画像である低解像画像とシミュレーションで計算した低解像画像との差分を乗じ、現フレームの超解像画像の予測結果に加算することで、前記差分を超解像画像と同画素数にアップサンプリングした結果と、現フレームの超解像画像の予測結果との重み付き平均を計算する
     請求項2に記載の画像処理システム。
  4.  超解像画像生成手段は、幾何変換パラメータの信頼度をrとしたときに、rを現フレームの超解像画像の予測結果の重み係数とし、1-rを、現フレームの入力画像である低解像画像とシミュレーションで計算した低解像画像との差分のアップサンプリング結果の重み係数として重み付き平均を計算する
     請求項1に記載の画像処理システム。
  5.  超解像画像生成手段は、現フレームの超解像画像の予測結果に対して、被写体の撮像プロセスを表すシミュレーション計算を行うことにより、現フレームの低解像画像を算出する
     請求項1から請求項4のうちのいずれか1項に記載の画像処理システム。
  6.  前のフレームから現フレームへの画像の幾何変換を表す幾何変換パラメータを算出し、
     当該幾何変換パラメータの信頼度を計算し、
     前のフレームに生成された超解像画像を前記幾何変換パラメータに基づいて変形することで現フレームの超解像画像の予測を生成し、
     現フレームの超解像画像の予測結果から現フレームの低解像画像をシミュレーションにより計算し、現フレームの入力画像である低解像画像と、シミュレーションで計算した低解像画像との差分を計算し、当該差分を超解像画像と同画素数にアップサンプリングした結果と、現フレームの超解像画像の予測結果との重み付き平均を計算することによって、現フレームの超解像画像を生成し、
     前記重み付き平均を計算する際に、前記幾何変換パラメータの信頼度に基づいて重み付き平均を計算する
     ことを特徴とする画像処理方法。
  7.  現フレームの超解像画像の予測結果から現フレームの低解像画像をシミュレーションにより計算し、現フレームの入力画像である低解像画像と、シミュレーションで計算した低解像画像との差分を計算し、カルマンフィルタを適用することによって、当該差分を超解像画像と同画素数にアップサンプリングした結果と、現フレームの超解像画像の予測結果との重み付き平均を計算し、当該重み付き平均の計算結果を現フレームの超解像画像とする
     請求項6に記載の画像処理方法。
  8.  前のフレームの超解像画像に基づいて現フレームの超解像画像を表す場合におけるノイズを表す第1の誤差パラメータと、現フレームの超解像画像に基づいて現フレームの低解像画像を表す場合におけるノイズを表す第2の誤差パラメータとを、幾何変換パラメータの信頼度に基づいて設定し、
     前記第1の誤差パラメータと前記第2の誤差パラメータとに基づくカルマンゲインを計算し、
     カルマンゲインに、現フレームの入力画像である低解像画像とシミュレーションで計算した低解像画像との差分を乗じ、現フレームの超解像画像の予測結果に加算することで、前記差分を超解像画像と同画素数にアップサンプリングした結果と、現フレームの超解像画像の予測結果との重み付き平均を計算する
     請求項7に記載の画像処理方法。
  9.  幾何変換パラメータの信頼度をrとしたときに、rを現フレームの超解像画像の予測結果の重み係数とし、1-rを、現フレームの入力画像である低解像画像とシミュレーションで計算した低解像画像との差分のアップサンプリング結果の重み係数として重み付き平均を計算する
     請求項6に記載の画像処理方法。
  10.  現フレームの超解像画像の予測結果に対して、被写体の撮像プロセスを表すシミュレーション計算を行うことにより、現フレームの低解像画像を算出する
     請求項6から請求項9のうちのいずれか1項に記載の画像処理方法。
  11.  コンピュータに、
     前のフレームから現フレームへの画像の幾何変換を表す幾何変換パラメータを算出し、当該幾何変換パラメータの信頼度を計算する幾何変換パラメータ算出処理、
     前のフレームに生成された超解像画像を前記幾何変換パラメータに基づいて変形することで現フレームの超解像画像の予測を生成する超解像画像予測処理、および、
     現フレームの超解像画像の予測結果から現フレームの低解像画像をシミュレーションにより計算し、現フレームの入力画像である低解像画像と、シミュレーションで計算した低解像画像との差分を計算し、当該差分を超解像画像と同画素数にアップサンプリングした結果と、現フレームの超解像画像の予測結果との重み付き平均を計算することによって、現フレームの超解像画像を生成する超解像画像生成処理を実行させ、
     前記超解像画像生成処理で、前記幾何変換パラメータの信頼度に基づいて前記重み付き平均を計算させる
     ための画像処理用プログラム。
  12.  コンピュータに、
     超解像画像生成処理で、
     現フレームの超解像画像の予測結果から現フレームの低解像画像をシミュレーションにより計算し、現フレームの入力画像である低解像画像と、シミュレーションで計算した低解像画像との差分を計算し、カルマンフィルタを適用することによって、当該差分を超解像画像と同画素数にアップサンプリングした結果と、現フレームの超解像画像の予測結果との重み付き平均を計算し、当該重み付き平均の計算結果を現フレームの超解像画像とさせる
     請求項11に記載の画像処理用プログラム。
  13.  コンピュータに、
     前のフレームの超解像画像に基づいて現フレームの超解像画像を表す場合におけるノイズを表す第1の誤差パラメータと、現フレームの超解像画像に基づいて現フレームの低解像画像を表す場合におけるノイズを表す第2の誤差パラメータとを、幾何変換パラメータの信頼度に基づいて設定する誤差パラメータ設定処理を実行させ、
     超解像画像生成処理で、
     前記第1の誤差パラメータと前記第2の誤差パラメータとに基づくカルマンゲインを計算させ、
     カルマンゲインに、現フレームの入力画像である低解像画像とシミュレーションで計算した低解像画像との差分を乗じ、現フレームの超解像画像の予測結果に加算することで、前記差分を超解像画像と同画素数にアップサンプリングした結果と、現フレームの超解像画像の予測結果との重み付き平均を計算させる
     請求項12に記載の画像処理用プログラム。
  14.  コンピュータに、
     超解像画像生成処理で、幾何変換パラメータの信頼度をrとしたときに、rを現フレームの超解像画像の予測結果の重み係数とし、1-rを、現フレームの入力画像である低解像画像とシミュレーションで計算した低解像画像との差分のアップサンプリング結果の重み係数として重み付き平均を計算させる
     請求項11に記載の画像処理用プログラム。
  15.  コンピュータに、
     超解像画像生成処理で、現フレームの超解像画像の予測結果に対して、被写体の撮像プロセスを表すシミュレーション計算を行うことにより、現フレームの低解像画像を算出させる
     請求項11から請求項14のうちのいずれか1項に記載の画像処理用プログラム。
PCT/JP2010/004686 2009-08-13 2010-07-22 画像処理システム、画像処理方法および画像処理用プログラム WO2011018878A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US13/390,012 US8712175B2 (en) 2009-08-13 2010-07-22 Image processing system, image processing method and program for image processing
JP2011526682A JPWO2011018878A1 (ja) 2009-08-13 2010-07-22 画像処理システム、画像処理方法および画像処理用プログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009-187768 2009-08-13
JP2009187768 2009-08-13

Publications (1)

Publication Number Publication Date
WO2011018878A1 true WO2011018878A1 (ja) 2011-02-17

Family

ID=43586061

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/004686 WO2011018878A1 (ja) 2009-08-13 2010-07-22 画像処理システム、画像処理方法および画像処理用プログラム

Country Status (3)

Country Link
US (1) US8712175B2 (ja)
JP (1) JPWO2011018878A1 (ja)
WO (1) WO2011018878A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111738924A (zh) * 2020-06-22 2020-10-02 北京字节跳动网络技术有限公司 图像处理方法及装置

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9001895B2 (en) * 2011-06-08 2015-04-07 Panasonic Intellectual Property Management Co., Ltd. Image display device and image processing device
GB201313682D0 (en) * 2013-07-31 2013-12-18 Mbda Uk Ltd Method and apparatus for tracking an object
GB201313681D0 (en) * 2013-07-31 2014-01-08 Mbda Uk Ltd Image processing
US10554713B2 (en) 2015-06-19 2020-02-04 Microsoft Technology Licensing, Llc Low latency application streaming using temporal frame transformation
US10366480B2 (en) 2016-07-01 2019-07-30 Analytical Mechanics Associates, Inc. Super-resolution systems and methods
US10867375B2 (en) * 2019-01-30 2020-12-15 Siemens Healthcare Gmbh Forecasting images for image processing

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004272751A (ja) * 2003-03-11 2004-09-30 Seiko Epson Corp 複数のフレーム画像からの静止画像の生成
WO2005024723A1 (ja) * 2003-09-08 2005-03-17 Nec Corporation 画像合成システム、画像合成方法及びプログラム
JP2007052672A (ja) * 2005-08-18 2007-03-01 Sony Corp 画像処理方法、画像処理装置、プログラムおよび記録媒体
WO2007122911A1 (ja) * 2006-03-30 2007-11-01 Nec Corporation 画像処理装置、画像処理システム、画像処理方法および画像処理用プログラム
JP2008140012A (ja) * 2006-11-30 2008-06-19 Sony Corp 画像処理装置、画像処理方法、およびプログラム
JP2010134582A (ja) * 2008-12-03 2010-06-17 Tokyo Institute Of Technology 画像処理装置及び画像処理方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060247070A1 (en) * 2001-06-11 2006-11-02 Recognition Insight, Llc Swing position recognition and reinforcement
US7119816B2 (en) * 2003-03-31 2006-10-10 Microsoft Corp. System and method for whiteboard scanning to obtain a high resolution image
US7555143B2 (en) * 2005-02-09 2009-06-30 Lawrence Livermore National Security, Llc Real-time geo-registration of imagery using COTS graphics processors
WO2007027893A2 (en) * 2005-08-30 2007-03-08 The Regents Of The University Of California, Santa Cruz Kernel regression for image processing and reconstruction
JP4670058B2 (ja) 2006-10-25 2011-04-13 国立大学法人東京工業大学 高解像度画像生成方法
US7705889B2 (en) * 2007-06-15 2010-04-27 Sony Corporation Shutter time compensation

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004272751A (ja) * 2003-03-11 2004-09-30 Seiko Epson Corp 複数のフレーム画像からの静止画像の生成
WO2005024723A1 (ja) * 2003-09-08 2005-03-17 Nec Corporation 画像合成システム、画像合成方法及びプログラム
JP2007052672A (ja) * 2005-08-18 2007-03-01 Sony Corp 画像処理方法、画像処理装置、プログラムおよび記録媒体
WO2007122911A1 (ja) * 2006-03-30 2007-11-01 Nec Corporation 画像処理装置、画像処理システム、画像処理方法および画像処理用プログラム
JP2008140012A (ja) * 2006-11-30 2008-06-19 Sony Corp 画像処理装置、画像処理方法、およびプログラム
JP2010134582A (ja) * 2008-12-03 2010-06-17 Tokyo Institute Of Technology 画像処理装置及び画像処理方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
B.B. READY ET AL.: "A Kalman- filter based method for creation of super- resolved mosaicks", PROCEEDINGS OF THE 2006 IEEE INTERNATIONAL CONFERENCE ON ROBOTICS AND AUTOMATION, 19 May 2006 (2006-05-19), pages 3417 - 3422, XP010921786, DOI: doi:10.1109/ROBOT.2006.1642224 *
S. FARSIU ET AL.: "Video-to- video dynamic super-resolution for grayscale and color sequences", EURASIP JOURNAL ON APPLIED SIGNAL PROCESSING, vol. 2006, no. 61859, 31 January 2006 (2006-01-31), pages 1 - 15 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111738924A (zh) * 2020-06-22 2020-10-02 北京字节跳动网络技术有限公司 图像处理方法及装置

Also Published As

Publication number Publication date
US8712175B2 (en) 2014-04-29
US20120141042A1 (en) 2012-06-07
JPWO2011018878A1 (ja) 2013-01-17

Similar Documents

Publication Publication Date Title
WO2011018878A1 (ja) 画像処理システム、画像処理方法および画像処理用プログラム
JP4968259B2 (ja) 画像高解像度化装置及び画像高解像度化方法並びにプログラム
JP4600209B2 (ja) 画像処理方法、画像処理装置、プログラムおよび記録媒体
US9258518B2 (en) Method and apparatus for performing super-resolution
US7440619B2 (en) Image matching method and image interpolation method using the same
US8913822B2 (en) Learning apparatus and method, image processing apparatus and method, program, and recording medium
EP2688282B1 (en) Image processing device, image processing method, and image processing program
JP5497066B2 (ja) ビデオに含まれるノイズを低減する方法、装置およびプログラム
JP5837572B2 (ja) 画像処理装置、画像処理方法、画像処理のためのコンピュータプログラム及び記録媒体
JP5687553B2 (ja) 画像合成装置、画像合成方法及び画像合成プログラム
JP2013021635A (ja) 画像処理装置、画像処理方法、プログラム、及び記録媒体
JP2011180798A (ja) 画像処理装置、および画像処理方法、並びにプログラム
US8233748B2 (en) Image-resolution-improvement apparatus and method
JP2021184594A (ja) ビデオフレームの補間装置及び方法
JP2020027557A (ja) 超解像装置およびそのプログラム
JP2020086891A (ja) 画像処理装置、画像処理システム、撮像装置、画像処理方法、プログラム、および、記憶媒体
US20130120461A1 (en) Image processor and image processing method
JP2000354244A (ja) 画像処理装置、方法及びコンピュータ読み取り可能な記憶媒体
JP5181345B2 (ja) 画像処理装置及び画像処理方法
US9462293B1 (en) Super resolution weighting blending
JP5435242B2 (ja) 画像処理方法、画像処理装置及び画像処理プログラム
JP6671975B2 (ja) 画像処理装置、撮像装置、画像処理方法およびコンピュータプログラム
JP2011248475A (ja) 画像処理装置、画像処理方法
JP4714062B2 (ja) 高解像度画像を生成する画像拡大装置、その画像拡大方法及びその画像拡大プログラムを記録した記録媒体
van Eekeren et al. Evaluation of turbulence mitigation methods

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10808064

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2011526682

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 13390012

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 10808064

Country of ref document: EP

Kind code of ref document: A1