JP2014086813A - Frame interpolation device and program - Google Patents
Frame interpolation device and program Download PDFInfo
- Publication number
- JP2014086813A JP2014086813A JP2012233134A JP2012233134A JP2014086813A JP 2014086813 A JP2014086813 A JP 2014086813A JP 2012233134 A JP2012233134 A JP 2012233134A JP 2012233134 A JP2012233134 A JP 2012233134A JP 2014086813 A JP2014086813 A JP 2014086813A
- Authority
- JP
- Japan
- Prior art keywords
- frame
- motion
- interpolation
- motion compensation
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Controls And Circuits For Display Device (AREA)
- Television Systems (AREA)
Abstract
Description
本発明は、入力フレーム群のうちの複数のフレームを参照して補間フレーム画像を生成し、フレームを時間方向に補間するフレーム補間装置及びそのプログラムに関する。 The present invention relates to a frame interpolating apparatus that generates an interpolated frame image with reference to a plurality of frames in an input frame group and interpolates the frames in a time direction, and a program therefor.
従来、フレームを時間方向に補間して補間フレームを生成する手法として、補間対象時刻の前後のいずれかのフレームを補間フレームとして複数回提示する手法が知られている。しかし、同一フレームを複数回提示する手法では、映像の動きがぎこちなくなってしまう。 Conventionally, as a method of generating an interpolation frame by interpolating frames in the time direction, a method of presenting any frame before or after the interpolation target time as an interpolation frame a plurality of times is known. However, in the method of presenting the same frame multiple times, the movement of the video becomes awkward.
そこで、補間対象時刻の前後フレームを平均又は重み付き平均した画像を補間フレームとする手法や、補間対象時刻の前後フレームから動きベクトルを求め、動き補償を行うことで補間フレームを生成する手法が知られている(例えば、特許文献1参照)。 Therefore, there are known methods that use an average or weighted average of frames before and after the interpolation target time as an interpolation frame, and methods that generate motion vectors from the frames before and after the interpolation target time and generate the interpolation frame by performing motion compensation. (For example, refer to Patent Document 1).
しかし、従来の前後フレームの平均又は重み付き平均を用いる手法や、特許文献1に記載されたような動き補償を用いる従来の手法では、映像中の被写体が等速直線運動しているとの仮定の下で動き補償を行うため、加速度的な運動などの非線形な運動をする被写体では動きがぎこちなくなるという問題があった。
However, in the conventional method using the average of the previous and subsequent frames or the weighted average or the conventional method using motion compensation as described in
かかる事情に鑑みてなされた本発明の目的は、入力映像内の被写体が等速直線運動以外の移動をする場合であっても高精度な動き補償を行うことができ、補間フレームの画質を向上させることが可能なフレーム補間装置及びそのプログラムを提供することにある。 The object of the present invention made in view of such circumstances is that even if the subject in the input video moves other than the constant-velocity linear motion, high-precision motion compensation can be performed, and the image quality of the interpolation frame is improved. It is an object of the present invention to provide a frame interpolating apparatus and a program thereof that can be performed.
上記課題を解決するため、本発明に係るフレーム補間装置は、入力フレーム群のうちの複数のフレームを参照して補間フレーム画像を生成するフレーム補間装置であって、入力フレーム群から動き推定元フレーム及び2以上の動き推定先フレームを選択するフレーム選択部と、前記動き推定元フレームから前記動き推定先フレームの各々への第1の動きベクトルを求める照合部と、前記照合部により得られた複数の第1の動きベクトルに非線形関数を当てはめて、前記入力フレーム群から選択された動き補償元フレームから、補間フレームへの第2の動きベクトルを求めるパラメータ推定部と、前記動き補償元フレームを前記第2の動きベクトルに基づいて動き補償して補間フレーム画像を生成する動き補償部と、を備えることを特徴とする。 In order to solve the above-described problem, a frame interpolation device according to the present invention is a frame interpolation device that generates an interpolation frame image with reference to a plurality of frames in an input frame group, and includes a motion estimation source frame from the input frame group. A frame selection unit that selects two or more motion estimation destination frames, a collation unit that obtains a first motion vector from each of the motion estimation source frames to each of the motion estimation destination frames, and a plurality of frames obtained by the collation unit A parameter estimation unit that applies a nonlinear function to the first motion vector and obtains a second motion vector from the motion compensation source frame selected from the input frame group to the interpolation frame; and A motion compensation unit that generates an interpolated frame image by performing motion compensation based on the second motion vector.
さらに、本発明に係るフレーム補間装置において、前記パラメータ推定部は、前記非線形関数の当てはめを誤差最小化により行うことを特徴とする。 Furthermore, in the frame interpolation apparatus according to the present invention, the parameter estimation unit performs the fitting of the nonlinear function by error minimization.
さらに、本発明に係るフレーム補間装置において、前記パラメータ推定部は、前記非線形関数を2次以上の多項式とし、二乗誤差最小化による当てはめの問題を線形化して解析的に求解することを特徴とする。 Furthermore, in the frame interpolating apparatus according to the present invention, the parameter estimation unit uses the nonlinear function as a second-order or higher-order polynomial, and linearly solves the fitting problem due to the square error minimization, thereby solving analytically. .
さらに、本発明に係るフレーム補間装置において、前記パラメータ推定部は、前記非線形関数をスプライン曲線又はベジエ曲線により定義することを特徴とする。 Furthermore, in the frame interpolation apparatus according to the present invention, the parameter estimation unit defines the nonlinear function by a spline curve or a Bezier curve.
さらに、本発明に係るフレーム補間装置において、前記画像重畳部は、前記動き補償部は、前記第2の動きベクトルにより前記動き補償元フレームの複数の画素が前記補間フレームの同位置に対応付けられた場合には、該複数の画素の値の平均値を補間フレームの画素値とすることを特徴とする。 Furthermore, in the frame interpolation device according to the present invention, the image superimposing unit, the motion compensation unit, and the second motion vector associate a plurality of pixels of the motion compensation source frame with the same position of the interpolation frame. In this case, the average value of the values of the plurality of pixels is used as the pixel value of the interpolation frame.
さらに、本発明に係るフレーム補間装置において、前記補間フレームにおいて、前記動き補償元フレームの画素が対応付けられなかった画素の値を、該画素位置における1以上の入力フレームの重み付け和とすることを特徴とする。 Furthermore, in the frame interpolating device according to the present invention, a value of a pixel that is not associated with a pixel of the motion compensation source frame in the interpolation frame is set as a weighted sum of one or more input frames at the pixel position. Features.
また、上記課題を解決するため、本発明に係るプログラムは、コンピュータを、上記フレーム補間装置として機能させることを特徴とする。 In order to solve the above problem, a program according to the present invention causes a computer to function as the frame interpolation device.
本発明によれば、入力映像内の被写体が等速直線運動以外の移動をする場合であっても高精度な動き補償を行うことができ、補間フレームの画質を向上させることが可能となる。 According to the present invention, even when the subject in the input video moves other than the constant-velocity linear motion, highly accurate motion compensation can be performed, and the image quality of the interpolation frame can be improved.
以下、本発明によるフレーム補間装置の一実施形態について、図面を参照して詳細に説明する。本明細書では、入力フレーム群(入力映像)をIとし、そのフレーム番号fのフレームをI(f)と記し、フレームI(f)の画像座標(x,y)における画素値をI(f,x,y)と記す。また、生成する補間フレームをJとし、そのフレーム番号fのフレームをJ(f)と記し、補間フレームJ(f)の画像座標(x,y)における画素値をJ(f,x,y)と記す。また、フレーム時刻位置をフレーム番号で表すものとする。 Hereinafter, an embodiment of a frame interpolation device according to the present invention will be described in detail with reference to the drawings. In this specification, the input frame group (input video) is I, the frame of the frame number f is denoted as I (f), and the pixel value at the image coordinates (x, y) of the frame I (f) is denoted by I (f , X, y). Also, the generated interpolation frame is J, the frame of frame number f is written as J (f), and the pixel value at the image coordinates (x, y) of the interpolation frame J (f) is J (f, x, y). . The frame time position is represented by a frame number.
図1は、本発明の一実施形態に係るフレーム補間装置の構成例を示すブロック図である。図1に示すように、フレーム補間装置1は、フレーム選択部11と、走査部12と、複数の照合部13と、パラメータ推定部14と、動き補償部15とを備える。図1に示す実施形態では、照合部13を3つ(13−1乃至13−3)備えるものとして、以下説明する。
FIG. 1 is a block diagram showing a configuration example of a frame interpolation apparatus according to an embodiment of the present invention. As illustrated in FIG. 1, the
フレーム補間装置1は、入力フレーム群Iのうちの複数のフレームを参照して、フレーム時刻位置fにおける補間フレーム画像J(f)を生成する。なお、フレーム時刻位置fは整数時刻位置であっても、非整数時刻位置であっても構わない。例えば、f=3.25は、フレーム番号3のフレームの時刻位置と、フレーム番号4のフレームの時刻位置を1:3に内分した時刻位置を指す。
The
フレーム選択部11は、入力フレーム群Iから動き推定元フレーム及び2以上の動き推定先フレームを選択して記憶する。図1に示すフレーム選択部11は、動き推定元フレームI(a)、及び3つの動き推定先フレームI(b1),I(b2),I(b3)を選択し記憶する。なお、フレーム番号a,b1,b2,b3は、互いに異なる番号であれば、その順序を問わない。 The frame selection unit 11 selects and stores a motion estimation source frame and two or more motion estimation destination frames from the input frame group I. The frame selection unit 11 shown in FIG. 1 selects and stores the motion estimation source frame I (a) and the three motion estimation destination frames I (b 1 ), I (b 2 ), and I (b 3 ). The frame numbers a, b 1 , b 2 , and b 3 may be in any order as long as they are different from each other.
走査部12は、動き推定元フレームI(a)上に部分領域を順次設定するため、走査の第kステップ(kは0≦k<Sx・Syなる整数、Sx及びSyは走査の水平及び垂直方向の標本点数を表す自然数)において座標(pk,qk)を順次生成するカウンタである。そして、座標(pk,qk)を照合部13及び動き補償部15に出力する。例えば、走査部12は、次式(1)で表される座標(pk,qk)を順次出力する。
Since the
式(1)において、k%SxはkをSxで除したときの剰余を表す。また、
は、kをSxで除したときの値を超えない最大の整数を表す。また、Wx及びWyはフレームI(a)上における水平方向及び垂直方向の標本化間隔を表す自然数である。さらに、(P0,Q0)はフレームI(a)上における水平方向及び垂直方向の標本化の始点の画像座標である。
In equation (1), k% S x represents the remainder when k is divided by S x . Also,
Represents the largest integer that does not exceed the value obtained by dividing k by S x . W x and W y are natural numbers representing sampling intervals in the horizontal direction and the vertical direction on the frame I (a). Further, (P 0 , Q 0 ) is the image coordinates of the sampling start point in the horizontal direction and the vertical direction on the frame I (a).
例えば、走査部12が、1920画素×1080画素のフレームI(a)を、水平16画素、垂直8画素の間隔で、左上原点を始点として水平120点、垂直135点標本化すべくラスタ走査する場合には、Sx=120、Sy=135、Wx=16、Wy=8、P0=0、及びQ0=0となる。
For example, when the
照合部13は、動き推定元フレーム及び動き推定先フレームを参照して、動き推定元フレームから各動き推定先フレームへの動きベクトルV1(第1の動きベクトル)を求め、パラメータ推定部14に出力する。図1に示す実施形態では、各照合部13−s(sはS以下の自然数;Sは2以上の自然数;図1の例ではS=3)が参照する動き推定元フレームはフレームI(a)で共通である一方、動き推定先フレームは全て異なるフレームI(bs)とする。以下では、一つの照合部13に注目し、動き推定元フレームをI(a)、動き推定先フレームをI(b)としてその動作を説明する。
The matching unit 13 refers to the motion estimation source frame and the motion estimation destination frame to obtain a motion vector V 1 (first motion vector) from the motion estimation source frame to each motion estimation destination frame, and sends the motion estimation source frame to the
図2は、照合部13の処理内容を説明するための図であり、動き推定元フレームI(a)及び動き推定先フレームをI(b1),I(b2),I(b3)を示している。図2に示す部分領域Bkは、走査部12により指定される座標(pk,qk)に基づいて設定される領域であり、本実施形態では(pk,qk)を左上座標とする幅Ax、高さAyの矩形領域とする。このとき、部分領域Bkは次式(2)で表される。
FIG. 2 is a diagram for explaining the processing contents of the collation unit 13, and shows the motion estimation source frame I (a) and the motion estimation destination frame as I (b 1 ), I (b 2 ), I (b 3 ). Is shown. A partial region B k shown in FIG. 2 is a region set based on the coordinates (p k , q k ) designated by the
照合部13は、動き推定元フレーム及び動き推定先フレーム間の対応付けを、部分領域Bkごとに実行する。つまり、照合部13は、動き推定元フレームI(a)の部分領域Bkの画素値パターンと類似する領域を動き推定先フレームI(b)内において探索し、動き推定元フレームI(a)及び動き推定先フレームI(b)間の対応付けを行う動きベクトルV1(a,b)=(uk(a,b),vk(a,b))を求める。例えば、照合部13が差分絶対値和(SAD;Sum of Absolute Difference)の最小化に基づき照合を行う場合には、動きベクトルV1(a,b)=(uk(a,b),vk(a,b))を次式(3)により求める。ここで、領域Dは動きベクトルの探索範囲を表す。 The collation unit 13 performs association between the motion estimation source frame and the motion estimation destination frame for each partial region Bk . That is, the collation unit 13 searches the motion estimation source frame I (a) for a region similar to the pixel value pattern of the partial region Bk of the motion estimation source frame I (a) in the motion estimation destination frame I (b). And a motion vector V 1 (a, b) = (u k (a, b), v k (a, b)) for performing association between the motion estimation destination frames I (b). For example, when the collation unit 13 performs collation based on the minimization of the sum of absolute differences (SAD), the motion vector V 1 (a, b) = (u k (a, b), v k (a, b)) is obtained by the following equation (3). Here, a region D represents a search range of motion vectors.
なお、照合部13は、差分絶対値和の最小化の代わりに、例えば、差分二乗和(SSD;Sum of Squared Difference)の最小化、相互相関(正規化相互相関を含む)の最大化、領域内の画素値ヒストグラム間のBhattacharrya距離の最小化など、任意の照合方法により動きベクトルを求めることができる。また、照合部13は照合前にエッジ検出、平滑化、ノイズ除去等のフィルタ処理や特徴抽出を行ってもよい。 Note that the collation unit 13 may, for example, minimize a sum of squared differences (SSD), maximize a cross-correlation (including a normalized cross-correlation), region, instead of minimizing the sum of absolute differences. The motion vector can be obtained by any matching method such as minimizing the Bhattacharrya distance between the pixel value histograms. Further, the matching unit 13 may perform filter processing such as edge detection, smoothing, noise removal, and feature extraction before matching.
パラメータ推定部14は、照合部13−sにより求められた複数の動きベクトルV1(a,bs)=(uk(a,bs),vk(a,bs))の水平成分及び垂直成分に対して、非線形関数g(θ;t)及びh(θ;t)を当てはめ、入力フレーム群Iから選択された動き補償元フレームから補間フレームJ(c)へ至るフレーム補間用の動きベクトルV2(第2の動きベクトル)を算出し、動き補償部15に出力する。θは非線形関数の形状を変化させるパラメータであり、tは時刻(フレーム)を表す。
The
図3は、パラメータ推定部14の処理内容を説明するための図であり、動き推定元フレームI(a)、動き推定先フレームをI(b1),I(b2),I(b3)、及び補間フレームJ(c)を示している。図3では、動き補償元フレームを動き推定元フレームI(a)とし、動き補償元I(a)から補間フレームJ(c)へのフレーム補間用の動きベクトルV2(a,c)=((u^k(a,c),v^k(a,c))を求める例を示している。
FIG. 3 is a diagram for explaining the processing contents of the
まず、パラメータ推定部14は、動きベクトルV1(a,bs)=(uk(a,bs),vk(a,bs))に非線形関数g(θ;t),h(θ;t)を二乗誤差最小化や絶対値誤差最小化などの誤差最小化により当てはめ、予測曲線Pを求める。例えば、二乗誤差最小化による当てはめを行う場合には、次式(4)によって当てはめ結果のパラメータθ^kを導出する。また、絶対値誤差最小化による当てはめを行う場合には、次式(5)によって当てはめ結果のパラメータθ^kを導出する。 First, the parameter estimation unit 14 adds a nonlinear function g (θ; t), h () to the motion vector V 1 (a, b s ) = (u k (a, b s ), v k (a, b s )). θ; t) is applied by error minimization such as square error minimization or absolute value error minimization to obtain a prediction curve P. For example, in the case of performing the fitting by minimizing the square error, the parameter θ ^ k of the fitting result is derived by the following equation (4). In addition, when fitting by absolute value error minimization, the parameter θ ^ k of the fitting result is derived by the following equation (5).
式(4)の当てはめには、例えば、繰り返し演算による非線形最小二乗法を用いることができる。既知の繰り返し演算による非線形最小二乗法としては、例えばLevenberg-Marquardt法を用いることができる。 For the fitting of equation (4), for example, a non-linear least square method by iterative calculation can be used. For example, the Levenberg-Marquardt method can be used as the non-linear least square method by known iterative calculation.
なお、パラメータ推定部14は、非線形関数g(θ;t),h(θ;t)を2次以上の多項式関数とすることで、二乗誤差最小化による当てはめの問題を線形化して解析的に求解することができる。この場合、非線形関数として次式(6)に示すN次関数(Nは2以上の自然数)及びM次関数(Mは2以上の自然数)を用いることができる。ここで、αk (n)及びβk (n)はパラメータθkを構成する要素である。
Note that the
このとき、式(6)の当てはめは、S≧NかつS≧Mであれば、繰り返し演算によることなく次式(7)により解析的に解くことができる。 At this time, the fitting of the equation (6) can be solved analytically by the following equation (7) without performing repetitive calculation if S ≧ N and S ≧ M.
ここで、
は、αk (1),αk (2),…,αk (N),βk (1),βk (2),…,βk (M)の最適化結果である。
here,
Is, α k (1), α k (2), ..., α k (N), β k (1), β k (2), ..., the optimization results of β k (M).
あるいは、非線形関数g(θ;t),h(θ;t)を次式(8)のように定義し、パラメータθを次式(9)のように定義した場合には、次式(10)に示すように、解析的に当てはめ結果のパラメータθ^kを導出することができる。 Alternatively, when the nonlinear functions g (θ; t) and h (θ; t) are defined as in the following equation (8) and the parameter θ is defined as in the following equation (9), the following equation (10 ), The parameter θ ^ k of the fitting result can be derived analytically.
このほか、パラメータ推定部14は、非線形関数g及び非線形関数hを、点列(uk(a,bs),vk(a,bs))(s=1,2,…,S)を通過するようなベジエ曲線又はスプライン曲線として定義してもよい。
In addition, the
続いて、パラメータ推定部14は、最適化したパラメータを設定した非線形関数に補間対象の時刻cを代入することで、フレーム補間用の動きベクトルV2(a,c)=(u^k(a,c),v^k(a,c))を得る。すなわち、パラメータ推定部14は、次式(11)に示す演算を行う。
Subsequently, the
動き補償部15は、動き補償元フレーム(本実施形態ではI(a))の部分領域Bkをフレーム補間用の動きベクトルV2によって動き補償し、補間フレームJ(c)の画像を生成する。例えば、動き補償部15は、次式(12)で表されるように、動き補償元フレームI(a)の各部分領域Bkの画素値パターンをフレーム補間用の動きベクトルV2(a,c)=(u^k(a,c),v^k(a,c))に基づいて移動させて補間フレームJ(c)上に貼り付ける演算を実行する。
ここで、式(12)の演算により全てのkについて貼り付け操作を行うと、フレーム補間用の動きベクトルV2の如何によっては、同じ画素位置に重複して貼り付け操作をすることも考えられる。この場合、式(12)によれば最後に貼り付けた画素が補間フレームJ(c)の画像に反映されることとなる。一方で、重複して貼り付け操作が行われた画素については、それら複数の貼り付け結果の平均値を補間フレームJ(c)の画素値として採用することも可能である。この場合には、動き補償部15は、次式(13)で表されるように、動き補償元フレームI(a)の各部分領域Bkの画素値パターンをフレーム補間用の動きベクトルV2に基づいて移動させて補間フレームJ(c)上に重ね合わせる演算を実行する。ここで、Kは部分領域Bkの総数Sx・Syである。
Here, if the paste operation is performed for all k by the calculation of Expression (12), the paste operation may be performed repeatedly at the same pixel position depending on the motion vector V 2 for frame interpolation. . In this case, according to Expression (12), the pixel pasted last is reflected in the image of the interpolation frame J (c). On the other hand, with respect to pixels on which the pasting operation has been performed in duplicate, the average value of the pasting results can be used as the pixel value of the interpolation frame J (c). In this case, the
式(13)におけるQ(k)は、貼り付けの際に領域が互いに重複した画素についてはそれらの画素値の総和を画素位置毎に算出するためのバッファ(画像)である。R(k)は、各画素位置に何回貼り付け操作が行われたかをカウントするためのバッファである。K個の全部分領域につき貼り付け操作を行った後、その結果であるQ(K-1)をR(K-1)によって画素位置毎に除することにより、複数の貼り付け結果の平均値を得る。 Q (k ) in Expression (13) is a buffer (image) for calculating the sum of the pixel values for each pixel position for pixels whose regions overlap each other at the time of pasting. R (k) is a buffer for counting how many times the pasting operation has been performed at each pixel position. After pasting operation for all K partial areas, the result Q (K-1) is divided by R (K-1) for each pixel position, thereby obtaining an average value of a plurality of pasting results. Get.
式(13)における画像Pは、補間フレームJ(c)上において、動き補償元フレームI(a)の画素値パターンが一度も重ね合わされなかった領域を埋め合わせるための画像である。例えば、次式(14)に示すように、ある入力フレーム(ここでは動き補償元フレームI(a))と同一とすることや、次式(15)に示すように複数の入力フレームの重みづけ和(ここでは重みws)とすることができる。 The image P in Expression (13) is an image for filling a region in which the pixel value pattern of the motion compensation source frame I (a) has never been superimposed on the interpolation frame J (c). For example, as shown in the following equation (14), it may be the same as a certain input frame (here, motion compensation source frame I (a)), or a plurality of input frames may be weighted as shown in the following equation (15). It can be the sum (here, weight w s ).
上述した実施形態では、図3に示すように動き補償部15が入力フレームI(a)を動き補償元フレームとして補間フレームJ(c)の画像を生成するものとして説明した。しかし、動き補償の対象となる動き補償元フレームは入力フレームI(a)に限定されるものではない。例えば、図4に示すように、動き補償部15が入力フレームI(bs)(図4ではs=2の場合を例示)上における対応部分領域Bkをフレーム補間用の動きベクトルV2によって動き補償して補間フレームJ(c)の画像を生成してもよい。
In the above-described embodiment, as illustrated in FIG. 3, the
以上説明したように、フレーム補間装置1は、まずフレーム選択部11により、入力フレーム群から動き推定元フレーム及び2以上の動き推定先フレームを選択する。次に、照合部13により、動き推定元フレームから各動き推定先フレームへの動きベクトルV1を求める。そして、パラメータ推定部14により、照合部13にて得られた複数の動きベクトルV1に非線形関数を当てはめて、入力フレーム群Iから選択した動き補償元フレームから補間フレームへのフレーム補間用の動きベクトルV2を求める。最後に、動き補償部15により、動き補償元フレームをフレーム補間用の動きベクトルV2に基づいて動き補償して補間フレーム画像を生成する。このため、本発明に係るフレーム補間装置1によれば、入力映像内の被写体が等速直線運動以外の移動をする場合であっても高精度な動き補償を行うことができ、補間フレームの画質向上させることが可能となる。
As described above, in the
なお、上述したフレーム補間装置1として機能させるためにコンピュータを好適に用いることができ、そのようなコンピュータは、フレーム補間装置1の各機能を実現する処理内容を記述したプログラムを、当該コンピュータの記憶部に格納しておき、当該コンピュータのCPUによってこのプログラムを読み出して実行させることで実現することができる。
It should be noted that a computer can be suitably used to cause the above-described
上述の実施形態は、代表的な例として説明したが、本発明の趣旨及び範囲内で、多くの変更及び置換ができることは当業者に明らかである。したがって、本発明は、上述の実施形態によって制限するものと解するべきではなく、特許請求の範囲から逸脱することなく、種々の変形や変更が可能である。例えば、実施形態に記載の構成ブロックは複数を1つに組み合わせたり、あるいは分割したりすることが可能である。 Although the above embodiments have been described as representative examples, it will be apparent to those skilled in the art that many changes and substitutions can be made within the spirit and scope of the invention. Therefore, the present invention should not be construed as being limited by the above-described embodiments, and various modifications and changes can be made without departing from the scope of the claims. For example, a plurality of constituent blocks described in the embodiments can be combined into one or divided.
このように、本発明によれば、補間フレームの画質を向上させることができるので、入力フレーム群の補間フレームを生成する任意の用途に有用である。 As described above, according to the present invention, since the image quality of the interpolation frame can be improved, it is useful for any application for generating the interpolation frame of the input frame group.
1 フレーム補間装置
11 フレーム選択部
12 走査部
13 照合部
14 パラメータ推定部
15 動き補償部
DESCRIPTION OF
Claims (7)
入力フレーム群から動き推定元フレーム及び2以上の動き推定先フレームを選択するフレーム選択部と、
前記動き推定元フレームから前記動き推定先フレームの各々への第1の動きベクトルを求める照合部と、
前記照合部により得られた複数の第1の動きベクトルに非線形関数を当てはめて、前記入力フレーム群から選択された動き補償元フレームから補間フレームへの第2の動きベクトルを求めるパラメータ推定部と、
前記動き補償元フレームを前記第2の動きベクトルに基づいて動き補償して補間フレーム画像を生成する動き補償部と、
を備えることを特徴とするフレーム補間装置。 A frame interpolation device that generates an interpolation frame image with reference to a plurality of frames in an input frame group,
A frame selection unit that selects a motion estimation source frame and two or more motion estimation destination frames from an input frame group;
A matching unit for obtaining a first motion vector from each of the motion estimation source frame to each of the motion estimation destination frames;
A parameter estimation unit that applies a non-linear function to the plurality of first motion vectors obtained by the collation unit to obtain a second motion vector from the motion compensation source frame selected from the input frame group to the interpolation frame;
A motion compensation unit configured to generate an interpolated frame image by performing motion compensation on the motion compensation source frame based on the second motion vector;
A frame interpolation apparatus comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012233134A JP2014086813A (en) | 2012-10-22 | 2012-10-22 | Frame interpolation device and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012233134A JP2014086813A (en) | 2012-10-22 | 2012-10-22 | Frame interpolation device and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014086813A true JP2014086813A (en) | 2014-05-12 |
Family
ID=50789521
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012233134A Pending JP2014086813A (en) | 2012-10-22 | 2012-10-22 | Frame interpolation device and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014086813A (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005006275A (en) * | 2002-11-22 | 2005-01-06 | Matsushita Electric Ind Co Ltd | Device, method, and program for generating interpolation frame |
JP2007536817A (en) * | 2004-05-04 | 2007-12-13 | クゥアルコム・インコーポレイテッド | Method and apparatus for motion compensated frame rate upconversion |
US20070291844A1 (en) * | 2006-06-16 | 2007-12-20 | International Business Machines Corporation | Method and system for non-linear motion estimaftion |
JP2008148315A (en) * | 2006-12-08 | 2008-06-26 | Matsushita Electric Ind Co Ltd | Method and apparatus for reconstructing image |
-
2012
- 2012-10-22 JP JP2012233134A patent/JP2014086813A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005006275A (en) * | 2002-11-22 | 2005-01-06 | Matsushita Electric Ind Co Ltd | Device, method, and program for generating interpolation frame |
JP2007536817A (en) * | 2004-05-04 | 2007-12-13 | クゥアルコム・インコーポレイテッド | Method and apparatus for motion compensated frame rate upconversion |
US20070291844A1 (en) * | 2006-06-16 | 2007-12-20 | International Business Machines Corporation | Method and system for non-linear motion estimaftion |
JP2008148315A (en) * | 2006-12-08 | 2008-06-26 | Matsushita Electric Ind Co Ltd | Method and apparatus for reconstructing image |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5906493B2 (en) | Image processing apparatus, image processing method, image processing program, and recording medium | |
JP2576771B2 (en) | Motion compensation prediction device | |
EP1843294A1 (en) | Motion vector calculation method, hand-movement correction device using the method, imaging device, and motion picture generation device | |
US9245316B2 (en) | Image processing device, image processing method and non-transitory computer readable medium | |
KR20140135968A (en) | Method and apparatus for performing super-resolution | |
JP5166156B2 (en) | Resolution conversion apparatus, method and program | |
JP4872836B2 (en) | Information processing system | |
JP5809575B2 (en) | Image processing apparatus and method, distortion correction map creating apparatus and method, and semiconductor measurement apparatus | |
US20170069072A1 (en) | Image processing apparatus, image processing system, and image processing method | |
JP4385077B1 (en) | Motion vector detection device and image processing device | |
JP5936955B2 (en) | Data harmony analysis method and data analysis apparatus | |
JP5034554B2 (en) | Correlation calculation device, correlation calculation method and program | |
JP5712925B2 (en) | Image conversion parameter calculation apparatus, image conversion parameter calculation method, and program | |
US9270883B2 (en) | Image processing apparatus, image pickup apparatus, image pickup system, image processing method, and non-transitory computer-readable storage medium | |
JP2010108205A (en) | Super resolution image creating method | |
JP2014086813A (en) | Frame interpolation device and program | |
JPWO2015133572A1 (en) | Movie processing method, movie processing apparatus, and movie processing program | |
JP6604783B2 (en) | Image processing apparatus, imaging apparatus, and image processing program | |
JP6059899B2 (en) | Frame interpolation apparatus and program | |
CN103618904A (en) | Motion estimation method and device based on pixels | |
JP2009118456A (en) | Image interpolation apparatus and method | |
JP6313588B2 (en) | Frame interpolation apparatus and program | |
JP6854629B2 (en) | Image processing device, image processing method | |
Shukla et al. | Unsteady camera zoom stabilization using slope estimation over interest warping vectors | |
JP2017059048A (en) | Arithmetic unit and operation method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150901 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160629 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160719 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160906 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161213 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20171003 |