JP2014086813A - Frame interpolation device and program - Google Patents

Frame interpolation device and program Download PDF

Info

Publication number
JP2014086813A
JP2014086813A JP2012233134A JP2012233134A JP2014086813A JP 2014086813 A JP2014086813 A JP 2014086813A JP 2012233134 A JP2012233134 A JP 2012233134A JP 2012233134 A JP2012233134 A JP 2012233134A JP 2014086813 A JP2014086813 A JP 2014086813A
Authority
JP
Japan
Prior art keywords
frame
motion
interpolation
motion compensation
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012233134A
Other languages
Japanese (ja)
Inventor
Toshie Misu
俊枝 三須
Yasutaka Matsuo
康孝 松尾
Shinichi Sakaida
慎一 境田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2012233134A priority Critical patent/JP2014086813A/en
Publication of JP2014086813A publication Critical patent/JP2014086813A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • Television Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve picture quality of an interpolation frame by performing high-precision motion compensation even when a subject in an input video image performs movement other than constant velocity linear motion.SOLUTION: A frame interpolation device 1 comprises: a frame selection section 11 which selects a motion estimation source frame and two or more motion estimation destination frames from an input frame group; a collation section 13 which determines a first motion vector with respect to each of the motion estimation destination frames from the motion estimation source frame; a parameter estimation section 14 which substitutes a nonlinear function to a plurality of first motion vectors obtained by the collation section 13 to determine a second motion vector with respect to an interpolation frame from a motion compensation source frame selected from the input frame group; and a motion compensation section 15 which performs motion compensation on the motion compensation source frame on the basis of the second motion vector to generate an image of the interpolation frame.

Description

本発明は、入力フレーム群のうちの複数のフレームを参照して補間フレーム画像を生成し、フレームを時間方向に補間するフレーム補間装置及びそのプログラムに関する。   The present invention relates to a frame interpolating apparatus that generates an interpolated frame image with reference to a plurality of frames in an input frame group and interpolates the frames in a time direction, and a program therefor.

従来、フレームを時間方向に補間して補間フレームを生成する手法として、補間対象時刻の前後のいずれかのフレームを補間フレームとして複数回提示する手法が知られている。しかし、同一フレームを複数回提示する手法では、映像の動きがぎこちなくなってしまう。   Conventionally, as a method of generating an interpolation frame by interpolating frames in the time direction, a method of presenting any frame before or after the interpolation target time as an interpolation frame a plurality of times is known. However, in the method of presenting the same frame multiple times, the movement of the video becomes awkward.

そこで、補間対象時刻の前後フレームを平均又は重み付き平均した画像を補間フレームとする手法や、補間対象時刻の前後フレームから動きベクトルを求め、動き補償を行うことで補間フレームを生成する手法が知られている(例えば、特許文献1参照)。   Therefore, there are known methods that use an average or weighted average of frames before and after the interpolation target time as an interpolation frame, and methods that generate motion vectors from the frames before and after the interpolation target time and generate the interpolation frame by performing motion compensation. (For example, refer to Patent Document 1).

特許第3495485号公報Japanese Patent No. 3495485

しかし、従来の前後フレームの平均又は重み付き平均を用いる手法や、特許文献1に記載されたような動き補償を用いる従来の手法では、映像中の被写体が等速直線運動しているとの仮定の下で動き補償を行うため、加速度的な運動などの非線形な運動をする被写体では動きがぎこちなくなるという問題があった。   However, in the conventional method using the average of the previous and subsequent frames or the weighted average or the conventional method using motion compensation as described in Patent Document 1, it is assumed that the subject in the video is moving at a constant linear velocity. Since the motion compensation is performed under the object, there is a problem that the motion becomes awkward in a subject that performs nonlinear motion such as acceleration motion.

かかる事情に鑑みてなされた本発明の目的は、入力映像内の被写体が等速直線運動以外の移動をする場合であっても高精度な動き補償を行うことができ、補間フレームの画質を向上させることが可能なフレーム補間装置及びそのプログラムを提供することにある。   The object of the present invention made in view of such circumstances is that even if the subject in the input video moves other than the constant-velocity linear motion, high-precision motion compensation can be performed, and the image quality of the interpolation frame is improved. It is an object of the present invention to provide a frame interpolating apparatus and a program thereof that can be performed.

上記課題を解決するため、本発明に係るフレーム補間装置は、入力フレーム群のうちの複数のフレームを参照して補間フレーム画像を生成するフレーム補間装置であって、入力フレーム群から動き推定元フレーム及び2以上の動き推定先フレームを選択するフレーム選択部と、前記動き推定元フレームから前記動き推定先フレームの各々への第1の動きベクトルを求める照合部と、前記照合部により得られた複数の第1の動きベクトルに非線形関数を当てはめて、前記入力フレーム群から選択された動き補償元フレームから、補間フレームへの第2の動きベクトルを求めるパラメータ推定部と、前記動き補償元フレームを前記第2の動きベクトルに基づいて動き補償して補間フレーム画像を生成する動き補償部と、を備えることを特徴とする。   In order to solve the above-described problem, a frame interpolation device according to the present invention is a frame interpolation device that generates an interpolation frame image with reference to a plurality of frames in an input frame group, and includes a motion estimation source frame from the input frame group. A frame selection unit that selects two or more motion estimation destination frames, a collation unit that obtains a first motion vector from each of the motion estimation source frames to each of the motion estimation destination frames, and a plurality of frames obtained by the collation unit A parameter estimation unit that applies a nonlinear function to the first motion vector and obtains a second motion vector from the motion compensation source frame selected from the input frame group to the interpolation frame; and A motion compensation unit that generates an interpolated frame image by performing motion compensation based on the second motion vector.

さらに、本発明に係るフレーム補間装置において、前記パラメータ推定部は、前記非線形関数の当てはめを誤差最小化により行うことを特徴とする。   Furthermore, in the frame interpolation apparatus according to the present invention, the parameter estimation unit performs the fitting of the nonlinear function by error minimization.

さらに、本発明に係るフレーム補間装置において、前記パラメータ推定部は、前記非線形関数を2次以上の多項式とし、二乗誤差最小化による当てはめの問題を線形化して解析的に求解することを特徴とする。   Furthermore, in the frame interpolating apparatus according to the present invention, the parameter estimation unit uses the nonlinear function as a second-order or higher-order polynomial, and linearly solves the fitting problem due to the square error minimization, thereby solving analytically. .

さらに、本発明に係るフレーム補間装置において、前記パラメータ推定部は、前記非線形関数をスプライン曲線又はベジエ曲線により定義することを特徴とする。   Furthermore, in the frame interpolation apparatus according to the present invention, the parameter estimation unit defines the nonlinear function by a spline curve or a Bezier curve.

さらに、本発明に係るフレーム補間装置において、前記画像重畳部は、前記動き補償部は、前記第2の動きベクトルにより前記動き補償元フレームの複数の画素が前記補間フレームの同位置に対応付けられた場合には、該複数の画素の値の平均値を補間フレームの画素値とすることを特徴とする。   Furthermore, in the frame interpolation device according to the present invention, the image superimposing unit, the motion compensation unit, and the second motion vector associate a plurality of pixels of the motion compensation source frame with the same position of the interpolation frame. In this case, the average value of the values of the plurality of pixels is used as the pixel value of the interpolation frame.

さらに、本発明に係るフレーム補間装置において、前記補間フレームにおいて、前記動き補償元フレームの画素が対応付けられなかった画素の値を、該画素位置における1以上の入力フレームの重み付け和とすることを特徴とする。   Furthermore, in the frame interpolating device according to the present invention, a value of a pixel that is not associated with a pixel of the motion compensation source frame in the interpolation frame is set as a weighted sum of one or more input frames at the pixel position. Features.

また、上記課題を解決するため、本発明に係るプログラムは、コンピュータを、上記フレーム補間装置として機能させることを特徴とする。   In order to solve the above problem, a program according to the present invention causes a computer to function as the frame interpolation device.

本発明によれば、入力映像内の被写体が等速直線運動以外の移動をする場合であっても高精度な動き補償を行うことができ、補間フレームの画質を向上させることが可能となる。   According to the present invention, even when the subject in the input video moves other than the constant-velocity linear motion, highly accurate motion compensation can be performed, and the image quality of the interpolation frame can be improved.

本発明の一実施形態に係るフレーム補間装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the frame interpolation apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係るフレーム補間装置における照合部の処理例を説明するための図である。It is a figure for demonstrating the process example of the collation part in the frame interpolation apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係るフレーム補間装置におけるパラメータ推定部の第1の処理例を説明するための図である。It is a figure for demonstrating the 1st process example of the parameter estimation part in the frame interpolation apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係るフレーム補間装置におけるパラメータ推定部の第2の処理例を説明するための図である。It is a figure for demonstrating the 2nd processing example of the parameter estimation part in the frame interpolation apparatus which concerns on one Embodiment of this invention.

以下、本発明によるフレーム補間装置の一実施形態について、図面を参照して詳細に説明する。本明細書では、入力フレーム群(入力映像)をIとし、そのフレーム番号fのフレームをI(f)と記し、フレームI(f)の画像座標(x,y)における画素値をI(f,x,y)と記す。また、生成する補間フレームをJとし、そのフレーム番号fのフレームをJ(f)と記し、補間フレームJ(f)の画像座標(x,y)における画素値をJ(f,x,y)と記す。また、フレーム時刻位置をフレーム番号で表すものとする。   Hereinafter, an embodiment of a frame interpolation device according to the present invention will be described in detail with reference to the drawings. In this specification, the input frame group (input video) is I, the frame of the frame number f is denoted as I (f), and the pixel value at the image coordinates (x, y) of the frame I (f) is denoted by I (f , X, y). Also, the generated interpolation frame is J, the frame of frame number f is written as J (f), and the pixel value at the image coordinates (x, y) of the interpolation frame J (f) is J (f, x, y). . The frame time position is represented by a frame number.

図1は、本発明の一実施形態に係るフレーム補間装置の構成例を示すブロック図である。図1に示すように、フレーム補間装置1は、フレーム選択部11と、走査部12と、複数の照合部13と、パラメータ推定部14と、動き補償部15とを備える。図1に示す実施形態では、照合部13を3つ(13−1乃至13−3)備えるものとして、以下説明する。   FIG. 1 is a block diagram showing a configuration example of a frame interpolation apparatus according to an embodiment of the present invention. As illustrated in FIG. 1, the frame interpolation device 1 includes a frame selection unit 11, a scanning unit 12, a plurality of matching units 13, a parameter estimation unit 14, and a motion compensation unit 15. In the embodiment shown in FIG. 1, the following description will be given assuming that three verification units 13 (13-1 to 13-3) are provided.

フレーム補間装置1は、入力フレーム群Iのうちの複数のフレームを参照して、フレーム時刻位置fにおける補間フレーム画像J(f)を生成する。なお、フレーム時刻位置fは整数時刻位置であっても、非整数時刻位置であっても構わない。例えば、f=3.25は、フレーム番号3のフレームの時刻位置と、フレーム番号4のフレームの時刻位置を1:3に内分した時刻位置を指す。   The frame interpolation device 1 refers to a plurality of frames in the input frame group I and generates an interpolation frame image J (f) at the frame time position f. The frame time position f may be an integer time position or a non-integer time position. For example, f = 3.25 indicates a time position obtained by internally dividing the time position of the frame of frame number 3 and the time position of the frame of frame number 4 into 1: 3.

フレーム選択部11は、入力フレーム群Iから動き推定元フレーム及び2以上の動き推定先フレームを選択して記憶する。図1に示すフレーム選択部11は、動き推定元フレームI(a)、及び3つの動き推定先フレームI(b),I(b),I(b)を選択し記憶する。なお、フレーム番号a,b,b,bは、互いに異なる番号であれば、その順序を問わない。 The frame selection unit 11 selects and stores a motion estimation source frame and two or more motion estimation destination frames from the input frame group I. The frame selection unit 11 shown in FIG. 1 selects and stores the motion estimation source frame I (a) and the three motion estimation destination frames I (b 1 ), I (b 2 ), and I (b 3 ). The frame numbers a, b 1 , b 2 , and b 3 may be in any order as long as they are different from each other.

走査部12は、動き推定元フレームI(a)上に部分領域を順次設定するため、走査の第kステップ(kは0≦k<S・Sなる整数、S及びSは走査の水平及び垂直方向の標本点数を表す自然数)において座標(p,q)を順次生成するカウンタである。そして、座標(p,q)を照合部13及び動き補償部15に出力する。例えば、走査部12は、次式(1)で表される座標(p,q)を順次出力する。 Since the scanning unit 12 sequentially sets partial regions on the motion estimation source frame I (a), the k-th scanning step (k is an integer satisfying 0 ≦ k <S x · S y , S x and S y are scanning) Are natural numbers representing the number of sample points in the horizontal and vertical directions), and sequentially generate coordinates (p k , q k ). Then, the coordinates (p k , q k ) are output to the collation unit 13 and the motion compensation unit 15. For example, the scanning unit 12 sequentially outputs coordinates (p k , q k ) represented by the following formula (1).

Figure 2014086813
Figure 2014086813

式(1)において、k%SはkをSで除したときの剰余を表す。また、

Figure 2014086813
は、kをSで除したときの値を超えない最大の整数を表す。また、W及びWはフレームI(a)上における水平方向及び垂直方向の標本化間隔を表す自然数である。さらに、(P,Q)はフレームI(a)上における水平方向及び垂直方向の標本化の始点の画像座標である。 In equation (1), k% S x represents the remainder when k is divided by S x . Also,
Figure 2014086813
Represents the largest integer that does not exceed the value obtained by dividing k by S x . W x and W y are natural numbers representing sampling intervals in the horizontal direction and the vertical direction on the frame I (a). Further, (P 0 , Q 0 ) is the image coordinates of the sampling start point in the horizontal direction and the vertical direction on the frame I (a).

例えば、走査部12が、1920画素×1080画素のフレームI(a)を、水平16画素、垂直8画素の間隔で、左上原点を始点として水平120点、垂直135点標本化すべくラスタ走査する場合には、S=120、S=135、W=16、W=8、P=0、及びQ=0となる。 For example, when the scanning unit 12 raster scans a frame I (a) of 1920 pixels × 1080 pixels at an interval of 16 horizontal pixels and 8 vertical pixels to sample 120 horizontal points and 135 vertical points starting from the upper left origin. S x = 120, S y = 135, W x = 16, W y = 8, P 0 = 0, and Q 0 = 0.

照合部13は、動き推定元フレーム及び動き推定先フレームを参照して、動き推定元フレームから各動き推定先フレームへの動きベクトルV(第1の動きベクトル)を求め、パラメータ推定部14に出力する。図1に示す実施形態では、各照合部13−s(sはS以下の自然数;Sは2以上の自然数;図1の例ではS=3)が参照する動き推定元フレームはフレームI(a)で共通である一方、動き推定先フレームは全て異なるフレームI(b)とする。以下では、一つの照合部13に注目し、動き推定元フレームをI(a)、動き推定先フレームをI(b)としてその動作を説明する。 The matching unit 13 refers to the motion estimation source frame and the motion estimation destination frame to obtain a motion vector V 1 (first motion vector) from the motion estimation source frame to each motion estimation destination frame, and sends the motion estimation source frame to the parameter estimation unit 14. Output. In the embodiment shown in FIG. 1, the motion estimation source frame referred to by each matching unit 13-s (s is a natural number equal to or smaller than S; S is a natural number equal to or larger than 2; S = 3 in the example of FIG. 1) is the frame I (a ), The motion estimation destination frames are all different frames I (b s ). In the following, focusing on one collating unit 13, the operation will be described assuming that the motion estimation source frame is I (a) and the motion estimation destination frame is I (b).

図2は、照合部13の処理内容を説明するための図であり、動き推定元フレームI(a)及び動き推定先フレームをI(b),I(b),I(b)を示している。図2に示す部分領域Bは、走査部12により指定される座標(p,q)に基づいて設定される領域であり、本実施形態では(p,q)を左上座標とする幅A、高さAの矩形領域とする。このとき、部分領域Bは次式(2)で表される。 FIG. 2 is a diagram for explaining the processing contents of the collation unit 13, and shows the motion estimation source frame I (a) and the motion estimation destination frame as I (b 1 ), I (b 2 ), I (b 3 ). Is shown. A partial region B k shown in FIG. 2 is a region set based on the coordinates (p k , q k ) designated by the scanning unit 12. In this embodiment, (p k , q k ) is set as the upper left coordinate. A rectangular area having a width A x and a height A y is set. At this time, the partial region B k is expressed by the following equation (2).

Figure 2014086813
Figure 2014086813

照合部13は、動き推定元フレーム及び動き推定先フレーム間の対応付けを、部分領域Bごとに実行する。つまり、照合部13は、動き推定元フレームI(a)の部分領域Bの画素値パターンと類似する領域を動き推定先フレームI(b)内において探索し、動き推定元フレームI(a)及び動き推定先フレームI(b)間の対応付けを行う動きベクトルV(a,b)=(u(a,b),v(a,b))を求める。例えば、照合部13が差分絶対値和(SAD;Sum of Absolute Difference)の最小化に基づき照合を行う場合には、動きベクトルV(a,b)=(u(a,b),v(a,b))を次式(3)により求める。ここで、領域Dは動きベクトルの探索範囲を表す。 The collation unit 13 performs association between the motion estimation source frame and the motion estimation destination frame for each partial region Bk . That is, the collation unit 13 searches the motion estimation source frame I (a) for a region similar to the pixel value pattern of the partial region Bk of the motion estimation source frame I (a) in the motion estimation destination frame I (b). And a motion vector V 1 (a, b) = (u k (a, b), v k (a, b)) for performing association between the motion estimation destination frames I (b). For example, when the collation unit 13 performs collation based on the minimization of the sum of absolute differences (SAD), the motion vector V 1 (a, b) = (u k (a, b), v k (a, b)) is obtained by the following equation (3). Here, a region D represents a search range of motion vectors.

Figure 2014086813
Figure 2014086813

なお、照合部13は、差分絶対値和の最小化の代わりに、例えば、差分二乗和(SSD;Sum of Squared Difference)の最小化、相互相関(正規化相互相関を含む)の最大化、領域内の画素値ヒストグラム間のBhattacharrya距離の最小化など、任意の照合方法により動きベクトルを求めることができる。また、照合部13は照合前にエッジ検出、平滑化、ノイズ除去等のフィルタ処理や特徴抽出を行ってもよい。   Note that the collation unit 13 may, for example, minimize a sum of squared differences (SSD), maximize a cross-correlation (including a normalized cross-correlation), region, instead of minimizing the sum of absolute differences. The motion vector can be obtained by any matching method such as minimizing the Bhattacharrya distance between the pixel value histograms. Further, the matching unit 13 may perform filter processing such as edge detection, smoothing, noise removal, and feature extraction before matching.

パラメータ推定部14は、照合部13−sにより求められた複数の動きベクトルV(a,b)=(u(a,b),v(a,b))の水平成分及び垂直成分に対して、非線形関数g(θ;t)及びh(θ;t)を当てはめ、入力フレーム群Iから選択された動き補償元フレームから補間フレームJ(c)へ至るフレーム補間用の動きベクトルV(第2の動きベクトル)を算出し、動き補償部15に出力する。θは非線形関数の形状を変化させるパラメータであり、tは時刻(フレーム)を表す。 The parameter estimation unit 14 includes horizontal components of a plurality of motion vectors V 1 (a, b s ) = (u k (a, b s ), v k (a, b s )) obtained by the collation unit 13-s. And non-linear functions g (θ; t) and h (θ; t) are applied to the vertical component, and for frame interpolation from the motion compensation source frame selected from the input frame group I to the interpolation frame J (c). A motion vector V 2 (second motion vector) is calculated and output to the motion compensation unit 15. θ is a parameter for changing the shape of the nonlinear function, and t represents time (frame).

図3は、パラメータ推定部14の処理内容を説明するための図であり、動き推定元フレームI(a)、動き推定先フレームをI(b),I(b),I(b)、及び補間フレームJ(c)を示している。図3では、動き補償元フレームを動き推定元フレームI(a)とし、動き補償元I(a)から補間フレームJ(c)へのフレーム補間用の動きベクトルV(a,c)=((u^(a,c),v^(a,c))を求める例を示している。 FIG. 3 is a diagram for explaining the processing contents of the parameter estimation unit 14, and shows the motion estimation source frame I (a) and the motion estimation destination frame as I (b 1 ), I (b 2 ), I (b 3 ) And an interpolation frame J (c). In FIG. 3, the motion compensation source frame is a motion estimation source frame I (a), and a motion vector V 2 (a, c) = (for frame interpolation from the motion compensation source I (a) to the interpolation frame J (c) = ( In this example, (u ^ k (a, c), v ^ k (a, c)) is obtained.

まず、パラメータ推定部14は、動きベクトルV(a,b)=(u(a,b),v(a,b))に非線形関数g(θ;t),h(θ;t)を二乗誤差最小化や絶対値誤差最小化などの誤差最小化により当てはめ、予測曲線Pを求める。例えば、二乗誤差最小化による当てはめを行う場合には、次式(4)によって当てはめ結果のパラメータθ^を導出する。また、絶対値誤差最小化による当てはめを行う場合には、次式(5)によって当てはめ結果のパラメータθ^を導出する。 First, the parameter estimation unit 14 adds a nonlinear function g (θ; t), h () to the motion vector V 1 (a, b s ) = (u k (a, b s ), v k (a, b s )). θ; t) is applied by error minimization such as square error minimization or absolute value error minimization to obtain a prediction curve P. For example, in the case of performing the fitting by minimizing the square error, the parameter θ ^ k of the fitting result is derived by the following equation (4). In addition, when fitting by absolute value error minimization, the parameter θ ^ k of the fitting result is derived by the following equation (5).

Figure 2014086813
Figure 2014086813

Figure 2014086813
Figure 2014086813

式(4)の当てはめには、例えば、繰り返し演算による非線形最小二乗法を用いることができる。既知の繰り返し演算による非線形最小二乗法としては、例えばLevenberg-Marquardt法を用いることができる。   For the fitting of equation (4), for example, a non-linear least square method by iterative calculation can be used. For example, the Levenberg-Marquardt method can be used as the non-linear least square method by known iterative calculation.

なお、パラメータ推定部14は、非線形関数g(θ;t),h(θ;t)を2次以上の多項式関数とすることで、二乗誤差最小化による当てはめの問題を線形化して解析的に求解することができる。この場合、非線形関数として次式(6)に示すN次関数(Nは2以上の自然数)及びM次関数(Mは2以上の自然数)を用いることができる。ここで、α (n)及びβ (n)はパラメータθを構成する要素である。 Note that the parameter estimation unit 14 linearly solves the fitting problem by minimizing the square error by analytically analyzing the nonlinear functions g (θ; t) and h (θ; t) by using second-order or higher-order polynomial functions. Can be solved. In this case, an N-order function (N is a natural number of 2 or more) and an M-order function (M is a natural number of 2 or more) shown in the following equation (6) can be used as the nonlinear function. Here, α k (n) and β k (n) are elements constituting the parameter θ k .

Figure 2014086813
Figure 2014086813

このとき、式(6)の当てはめは、S≧NかつS≧Mであれば、繰り返し演算によることなく次式(7)により解析的に解くことができる。   At this time, the fitting of the equation (6) can be solved analytically by the following equation (7) without performing repetitive calculation if S ≧ N and S ≧ M.

Figure 2014086813
Figure 2014086813

ここで、

Figure 2014086813
は、α (1),α (2),…,α (N),β (1),β (2),…,β (M)の最適化結果である。 here,
Figure 2014086813
Is, α k (1), α k (2), ..., α k (N), β k (1), β k (2), ..., the optimization results of β k (M).

あるいは、非線形関数g(θ;t),h(θ;t)を次式(8)のように定義し、パラメータθを次式(9)のように定義した場合には、次式(10)に示すように、解析的に当てはめ結果のパラメータθ^を導出することができる。 Alternatively, when the nonlinear functions g (θ; t) and h (θ; t) are defined as in the following equation (8) and the parameter θ is defined as in the following equation (9), the following equation (10 ), The parameter θ ^ k of the fitting result can be derived analytically.

Figure 2014086813
Figure 2014086813

Figure 2014086813
Figure 2014086813

Figure 2014086813
Figure 2014086813

このほか、パラメータ推定部14は、非線形関数g及び非線形関数hを、点列(u(a,b),v(a,b))(s=1,2,…,S)を通過するようなベジエ曲線又はスプライン曲線として定義してもよい。 In addition, the parameter estimation unit 14 converts the nonlinear function g and the nonlinear function h into a sequence of points (u k (a, b s ), v k (a, b s )) (s = 1, 2,..., S). May be defined as a Bezier curve or a spline curve that passes through.

続いて、パラメータ推定部14は、最適化したパラメータを設定した非線形関数に補間対象の時刻cを代入することで、フレーム補間用の動きベクトルV(a,c)=(u^(a,c),v^(a,c))を得る。すなわち、パラメータ推定部14は、次式(11)に示す演算を行う。 Subsequently, the parameter estimation unit 14 substitutes the time c to be interpolated into the nonlinear function in which the optimized parameters are set, so that the motion vector for frame interpolation V 2 (a, c) = (u k (a , C), v ^ k (a, c)). That is, the parameter estimation unit 14 performs the calculation shown in the following equation (11).

Figure 2014086813
Figure 2014086813

動き補償部15は、動き補償元フレーム(本実施形態ではI(a))の部分領域Bをフレーム補間用の動きベクトルVによって動き補償し、補間フレームJ(c)の画像を生成する。例えば、動き補償部15は、次式(12)で表されるように、動き補償元フレームI(a)の各部分領域Bの画素値パターンをフレーム補間用の動きベクトルV(a,c)=(u^(a,c),v^(a,c))に基づいて移動させて補間フレームJ(c)上に貼り付ける演算を実行する。 Motion compensation unit 15, motion compensation by the motion compensation based on the frame motion vector V 2 partial region B k for frame interpolation (in this embodiment I (a)), to generate an image of the interpolation frame J (c) . For example, as represented by the following equation (12), the motion compensation unit 15 converts the pixel value pattern of each partial region B k of the motion compensation source frame I (a) into a motion vector V 2 (a, c) = (u ^ k (a, c), v ^ k (a, c)) is moved and pasted on the interpolation frame J (c).

Figure 2014086813
Figure 2014086813

ここで、式(12)の演算により全てのkについて貼り付け操作を行うと、フレーム補間用の動きベクトルVの如何によっては、同じ画素位置に重複して貼り付け操作をすることも考えられる。この場合、式(12)によれば最後に貼り付けた画素が補間フレームJ(c)の画像に反映されることとなる。一方で、重複して貼り付け操作が行われた画素については、それら複数の貼り付け結果の平均値を補間フレームJ(c)の画素値として採用することも可能である。この場合には、動き補償部15は、次式(13)で表されるように、動き補償元フレームI(a)の各部分領域Bの画素値パターンをフレーム補間用の動きベクトルVに基づいて移動させて補間フレームJ(c)上に重ね合わせる演算を実行する。ここで、Kは部分領域Bの総数S・Sである。 Here, if the paste operation is performed for all k by the calculation of Expression (12), the paste operation may be performed repeatedly at the same pixel position depending on the motion vector V 2 for frame interpolation. . In this case, according to Expression (12), the pixel pasted last is reflected in the image of the interpolation frame J (c). On the other hand, with respect to pixels on which the pasting operation has been performed in duplicate, the average value of the pasting results can be used as the pixel value of the interpolation frame J (c). In this case, the motion compensation unit 15 converts the pixel value pattern of each partial region Bk of the motion compensation source frame I (a) to the motion vector V 2 for frame interpolation as represented by the following equation (13). The calculation is performed based on the above and superimposed on the interpolation frame J (c). Here, K is the total number S x · S y of the partial regions B k .

Figure 2014086813
Figure 2014086813

式(13)におけるQ(k)は、貼り付けの際に領域が互いに重複した画素についてはそれらの画素値の総和を画素位置毎に算出するためのバッファ(画像)である。R(k)は、各画素位置に何回貼り付け操作が行われたかをカウントするためのバッファである。K個の全部分領域につき貼り付け操作を行った後、その結果であるQ(K-1)をR(K-1)によって画素位置毎に除することにより、複数の貼り付け結果の平均値を得る。 Q (k ) in Expression (13) is a buffer (image) for calculating the sum of the pixel values for each pixel position for pixels whose regions overlap each other at the time of pasting. R (k) is a buffer for counting how many times the pasting operation has been performed at each pixel position. After pasting operation for all K partial areas, the result Q (K-1) is divided by R (K-1) for each pixel position, thereby obtaining an average value of a plurality of pasting results. Get.

式(13)における画像Pは、補間フレームJ(c)上において、動き補償元フレームI(a)の画素値パターンが一度も重ね合わされなかった領域を埋め合わせるための画像である。例えば、次式(14)に示すように、ある入力フレーム(ここでは動き補償元フレームI(a))と同一とすることや、次式(15)に示すように複数の入力フレームの重みづけ和(ここでは重みw)とすることができる。 The image P in Expression (13) is an image for filling a region in which the pixel value pattern of the motion compensation source frame I (a) has never been superimposed on the interpolation frame J (c). For example, as shown in the following equation (14), it may be the same as a certain input frame (here, motion compensation source frame I (a)), or a plurality of input frames may be weighted as shown in the following equation (15). It can be the sum (here, weight w s ).

Figure 2014086813
Figure 2014086813

Figure 2014086813
Figure 2014086813

上述した実施形態では、図3に示すように動き補償部15が入力フレームI(a)を動き補償元フレームとして補間フレームJ(c)の画像を生成するものとして説明した。しかし、動き補償の対象となる動き補償元フレームは入力フレームI(a)に限定されるものではない。例えば、図4に示すように、動き補償部15が入力フレームI(b)(図4ではs=2の場合を例示)上における対応部分領域Bをフレーム補間用の動きベクトルVによって動き補償して補間フレームJ(c)の画像を生成してもよい。 In the above-described embodiment, as illustrated in FIG. 3, the motion compensation unit 15 has been described as generating the image of the interpolation frame J (c) using the input frame I (a) as the motion compensation source frame. However, the motion compensation source frame subject to motion compensation is not limited to the input frame I (a). For example, as shown in FIG. 4, the motion compensation unit 15 converts the corresponding partial region B k on the input frame I (b s ) (example of s = 2 in FIG. 4) by the motion vector V 2 for frame interpolation. An image of the interpolation frame J (c) may be generated by performing motion compensation.

以上説明したように、フレーム補間装置1は、まずフレーム選択部11により、入力フレーム群から動き推定元フレーム及び2以上の動き推定先フレームを選択する。次に、照合部13により、動き推定元フレームから各動き推定先フレームへの動きベクトルVを求める。そして、パラメータ推定部14により、照合部13にて得られた複数の動きベクトルVに非線形関数を当てはめて、入力フレーム群Iから選択した動き補償元フレームから補間フレームへのフレーム補間用の動きベクトルVを求める。最後に、動き補償部15により、動き補償元フレームをフレーム補間用の動きベクトルVに基づいて動き補償して補間フレーム画像を生成する。このため、本発明に係るフレーム補間装置1によれば、入力映像内の被写体が等速直線運動以外の移動をする場合であっても高精度な動き補償を行うことができ、補間フレームの画質向上させることが可能となる。 As described above, in the frame interpolation device 1, the frame selection unit 11 first selects a motion estimation source frame and two or more motion estimation destination frames from the input frame group. Next, the matching unit 13 determines a motion vector V 1 from the motion estimation source frame to each motion estimation destination frame. Then, the parameter estimation unit 14 applies a non-linear function to the plurality of motion vectors V 1 obtained by the collation unit 13 and performs motion for frame interpolation from the motion compensation source frame selected from the input frame group I to the interpolation frame. determine the vector V 2. Finally, the motion compensation unit 15, motion compensation to generate an interpolated frame image based on the motion compensation based on a frame the motion vector V 2 for frame interpolation. Therefore, according to the frame interpolation device 1 of the present invention, it is possible to perform highly accurate motion compensation even when the subject in the input video moves other than the uniform linear motion, and the image quality of the interpolation frame It becomes possible to improve.

なお、上述したフレーム補間装置1として機能させるためにコンピュータを好適に用いることができ、そのようなコンピュータは、フレーム補間装置1の各機能を実現する処理内容を記述したプログラムを、当該コンピュータの記憶部に格納しておき、当該コンピュータのCPUによってこのプログラムを読み出して実行させることで実現することができる。   It should be noted that a computer can be suitably used to cause the above-described frame interpolation device 1 to function, and such a computer stores a program describing processing contents for realizing each function of the frame interpolation device 1 in the storage of the computer. The program can be realized by reading out and executing the program by the CPU of the computer.

上述の実施形態は、代表的な例として説明したが、本発明の趣旨及び範囲内で、多くの変更及び置換ができることは当業者に明らかである。したがって、本発明は、上述の実施形態によって制限するものと解するべきではなく、特許請求の範囲から逸脱することなく、種々の変形や変更が可能である。例えば、実施形態に記載の構成ブロックは複数を1つに組み合わせたり、あるいは分割したりすることが可能である。   Although the above embodiments have been described as representative examples, it will be apparent to those skilled in the art that many changes and substitutions can be made within the spirit and scope of the invention. Therefore, the present invention should not be construed as being limited by the above-described embodiments, and various modifications and changes can be made without departing from the scope of the claims. For example, a plurality of constituent blocks described in the embodiments can be combined into one or divided.

このように、本発明によれば、補間フレームの画質を向上させることができるので、入力フレーム群の補間フレームを生成する任意の用途に有用である。   As described above, according to the present invention, since the image quality of the interpolation frame can be improved, it is useful for any application for generating the interpolation frame of the input frame group.

1 フレーム補間装置
11 フレーム選択部
12 走査部
13 照合部
14 パラメータ推定部
15 動き補償部
DESCRIPTION OF SYMBOLS 1 Frame interpolation apparatus 11 Frame selection part 12 Scan part 13 Collation part 14 Parameter estimation part 15 Motion compensation part

Claims (7)

入力フレーム群のうちの複数のフレームを参照して補間フレーム画像を生成するフレーム補間装置であって、
入力フレーム群から動き推定元フレーム及び2以上の動き推定先フレームを選択するフレーム選択部と、
前記動き推定元フレームから前記動き推定先フレームの各々への第1の動きベクトルを求める照合部と、
前記照合部により得られた複数の第1の動きベクトルに非線形関数を当てはめて、前記入力フレーム群から選択された動き補償元フレームから補間フレームへの第2の動きベクトルを求めるパラメータ推定部と、
前記動き補償元フレームを前記第2の動きベクトルに基づいて動き補償して補間フレーム画像を生成する動き補償部と、
を備えることを特徴とするフレーム補間装置。
A frame interpolation device that generates an interpolation frame image with reference to a plurality of frames in an input frame group,
A frame selection unit that selects a motion estimation source frame and two or more motion estimation destination frames from an input frame group;
A matching unit for obtaining a first motion vector from each of the motion estimation source frame to each of the motion estimation destination frames;
A parameter estimation unit that applies a non-linear function to the plurality of first motion vectors obtained by the collation unit to obtain a second motion vector from the motion compensation source frame selected from the input frame group to the interpolation frame;
A motion compensation unit configured to generate an interpolated frame image by performing motion compensation on the motion compensation source frame based on the second motion vector;
A frame interpolation apparatus comprising:
前記パラメータ推定部は、前記非線形関数の当てはめを誤差最小化により行うことを特徴とする、請求項1に記載のフレーム補間装置。   The frame interpolation apparatus according to claim 1, wherein the parameter estimation unit performs the fitting of the nonlinear function by error minimization. 前記パラメータ推定部は、前記非線形関数を2次以上の多項式とし、二乗誤差最小化による当てはめの問題を線形化して解析的に求解することを特徴とする、請求項2に記載のフレーム補間装置。   3. The frame interpolating apparatus according to claim 2, wherein the parameter estimation unit uses the nonlinear function as a second-order or higher-order polynomial, and linearly solves the fitting problem due to square error minimization to solve it analytically. 前記パラメータ推定部は、前記非線形関数をスプライン曲線又はベジエ曲線により定義することを特徴とする、請求項1に記載のフレーム補間装置。   The frame interpolation device according to claim 1, wherein the parameter estimation unit defines the nonlinear function by a spline curve or a Bezier curve. 前記動き補償部は、前記第2の動きベクトルにより前記動き補償元フレームの複数の画素が前記補間フレームの同位置に対応付けられた場合には、該複数の画素の値の平均値を補間フレームの画素値とすることを特徴とする、請求項1から4のいずれか一項に記載のフレーム補間装置。   When the plurality of pixels of the motion compensation source frame are associated with the same position of the interpolation frame by the second motion vector, the motion compensation unit calculates an average value of the plurality of pixels as an interpolation frame. The frame interpolating apparatus according to claim 1, wherein the frame interpolating apparatus has a pixel value of the following. 前記動き補償部は、前記補間フレームにおいて、前記動き補償元フレームの画素が対応付けられなかった画素の値を、該画素位置における1以上の入力フレームの重み付け和とすることを特徴とする、請求項1から5のいずれか一項に記載のフレーム補間装置。   The motion compensation unit is characterized in that, in the interpolation frame, a value of a pixel to which a pixel of the motion compensation source frame is not associated is set as a weighted sum of one or more input frames at the pixel position. Item 6. The frame interpolation device according to any one of Items 1 to 5. コンピュータを、請求項1から6のいずれか一項に記載のフレーム補間装置として機能させるためのプログラム。   A program for causing a computer to function as the frame interpolating device according to any one of claims 1 to 6.
JP2012233134A 2012-10-22 2012-10-22 Frame interpolation device and program Pending JP2014086813A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012233134A JP2014086813A (en) 2012-10-22 2012-10-22 Frame interpolation device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012233134A JP2014086813A (en) 2012-10-22 2012-10-22 Frame interpolation device and program

Publications (1)

Publication Number Publication Date
JP2014086813A true JP2014086813A (en) 2014-05-12

Family

ID=50789521

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012233134A Pending JP2014086813A (en) 2012-10-22 2012-10-22 Frame interpolation device and program

Country Status (1)

Country Link
JP (1) JP2014086813A (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005006275A (en) * 2002-11-22 2005-01-06 Matsushita Electric Ind Co Ltd Device, method, and program for generating interpolation frame
JP2007536817A (en) * 2004-05-04 2007-12-13 クゥアルコム・インコーポレイテッド Method and apparatus for motion compensated frame rate upconversion
US20070291844A1 (en) * 2006-06-16 2007-12-20 International Business Machines Corporation Method and system for non-linear motion estimaftion
JP2008148315A (en) * 2006-12-08 2008-06-26 Matsushita Electric Ind Co Ltd Method and apparatus for reconstructing image

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005006275A (en) * 2002-11-22 2005-01-06 Matsushita Electric Ind Co Ltd Device, method, and program for generating interpolation frame
JP2007536817A (en) * 2004-05-04 2007-12-13 クゥアルコム・インコーポレイテッド Method and apparatus for motion compensated frame rate upconversion
US20070291844A1 (en) * 2006-06-16 2007-12-20 International Business Machines Corporation Method and system for non-linear motion estimaftion
JP2008148315A (en) * 2006-12-08 2008-06-26 Matsushita Electric Ind Co Ltd Method and apparatus for reconstructing image

Similar Documents

Publication Publication Date Title
JP5906493B2 (en) Image processing apparatus, image processing method, image processing program, and recording medium
JP2576771B2 (en) Motion compensation prediction device
EP1843294A1 (en) Motion vector calculation method, hand-movement correction device using the method, imaging device, and motion picture generation device
US9245316B2 (en) Image processing device, image processing method and non-transitory computer readable medium
KR20140135968A (en) Method and apparatus for performing super-resolution
JP5166156B2 (en) Resolution conversion apparatus, method and program
JP4872836B2 (en) Information processing system
JP5809575B2 (en) Image processing apparatus and method, distortion correction map creating apparatus and method, and semiconductor measurement apparatus
US20170069072A1 (en) Image processing apparatus, image processing system, and image processing method
JP4385077B1 (en) Motion vector detection device and image processing device
JP5936955B2 (en) Data harmony analysis method and data analysis apparatus
JP5034554B2 (en) Correlation calculation device, correlation calculation method and program
JP5712925B2 (en) Image conversion parameter calculation apparatus, image conversion parameter calculation method, and program
US9270883B2 (en) Image processing apparatus, image pickup apparatus, image pickup system, image processing method, and non-transitory computer-readable storage medium
JP2010108205A (en) Super resolution image creating method
JP2014086813A (en) Frame interpolation device and program
JPWO2015133572A1 (en) Movie processing method, movie processing apparatus, and movie processing program
JP6604783B2 (en) Image processing apparatus, imaging apparatus, and image processing program
JP6059899B2 (en) Frame interpolation apparatus and program
CN103618904A (en) Motion estimation method and device based on pixels
JP2009118456A (en) Image interpolation apparatus and method
JP6313588B2 (en) Frame interpolation apparatus and program
JP6854629B2 (en) Image processing device, image processing method
Shukla et al. Unsteady camera zoom stabilization using slope estimation over interest warping vectors
JP2017059048A (en) Arithmetic unit and operation method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150901

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160719

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160906

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161213

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20171003