JP2014007658A - Motion vector derivation device, method and program - Google Patents

Motion vector derivation device, method and program Download PDF

Info

Publication number
JP2014007658A
JP2014007658A JP2012143336A JP2012143336A JP2014007658A JP 2014007658 A JP2014007658 A JP 2014007658A JP 2012143336 A JP2012143336 A JP 2012143336A JP 2012143336 A JP2012143336 A JP 2012143336A JP 2014007658 A JP2014007658 A JP 2014007658A
Authority
JP
Japan
Prior art keywords
block
motion vector
texture
candidate
luminance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012143336A
Other languages
Japanese (ja)
Inventor
Kunio Yamada
邦男 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2012143336A priority Critical patent/JP2014007658A/en
Publication of JP2014007658A publication Critical patent/JP2014007658A/en
Pending legal-status Critical Current

Links

Landscapes

  • Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To derive a motion vector for minimizing image quality deterioration, with high precision, from among a plurality of motion vectors, even if a plurality of motion vector candidates exist for some block.SOLUTION: A motion vector derivation unit 14 derives a motion vector between corresponding blocks in two image frames. A candidate vector generation unit 20 generates a plurality of candidate vectors for a calculation object block of motion vector. A block texture extraction unit 22 extracts a block texture in an image frame where a candidate vector is generated. A motion vector selection unit 26 selects, as the motion vector of an object block, a candidate vector generated from a block texture having a highest degree of matching of local spatial structure of intensity change, between corresponding blocks out of a plurality of block textures thus extracted.

Description

本発明は、動画像内の連続するフレーム間で動きベクトルを求める技術に関する。   The present invention relates to a technique for obtaining a motion vector between consecutive frames in a moving image.

液晶パネルを使用した薄型表示装置が大画面化すると、残像によるぼやけやぶれなどが目立つようになるという問題が生じる。これに対処するには、薄型表示装置で再生される動画像のフレームレートを高めることが有効である。一般的なフレームレート変換技術では、ある時点のフレームと時間的に一つ前または後のフレームとの間において、所定の大きさのブロック単位で動きベクトルを導出する。そして導出した動きベクトルを利用した動き補償によって両フレームの中間フレームを作成する。フレームレート変換後に滑らかな動画像を実現するためには、動きベクトルを正確に求めることが重要である。   When a thin display device using a liquid crystal panel has a large screen, blurring or blurring due to an afterimage becomes noticeable. In order to cope with this, it is effective to increase the frame rate of a moving image reproduced by a thin display device. In a general frame rate conversion technique, a motion vector is derived in units of blocks of a predetermined size between a frame at a certain point in time and a frame immediately before or after in time. Then, an intermediate frame between both frames is created by motion compensation using the derived motion vector. In order to realize a smooth moving image after frame rate conversion, it is important to accurately obtain a motion vector.

一般的に、動きベクトルの導出は、両フレーム内のブロック間でブロックマッチングを実行して、輝度値の絶対値誤差または二乗誤差が最小となるブロックのペアを探索し、このペア同士を結ぶベクトルを動きベクトルとして採用するという手順で行われる。しかしながら、実用上は、複数のブロックのペアにおける輝度値の絶対値誤差または二乗誤差が同程度の大きさになることが多い。このような場合に、単に誤差が最小であるという理由で動きベクトルを決定してしまうと、フレーム間の連続性の観点からは不適切な動きベクトルを選択してしまうことがある。   In general, motion vectors are derived by performing block matching between blocks in both frames, searching for a pair of blocks that minimize the absolute value error or square error of the luminance value, and a vector connecting these pairs. Is adopted as a motion vector. However, in practice, the absolute value error or the square error of the luminance values in a plurality of block pairs often has the same magnitude. In such a case, if a motion vector is determined simply because the error is minimal, an inappropriate motion vector may be selected from the viewpoint of continuity between frames.

ブロックマッチングのみに基づき動きベクトルを決定するのではなく、隣接ブロック間での動きベクトルの相関性を利用してより正確な動きベクトルを選択する技術も知られている。例えば、入力される映像信号の現在フレームの基準ブロックの位置が、動作量が少ない映像領域と隣接した事物の境界領域であるか否かに基づき、基準ブロックの動作ベクトルをメディアンフィルタリングする動作ベクトル検出装置が提案されている(例えば、特許文献1参照)。   There is also known a technique for selecting a more accurate motion vector by using the correlation of motion vectors between adjacent blocks, instead of determining a motion vector based only on block matching. For example, motion vector detection that performs median filtering on the motion vector of the reference block based on whether or not the position of the reference block in the current frame of the input video signal is a boundary region between a video region with a small amount of motion and an adjacent thing An apparatus has been proposed (see, for example, Patent Document 1).

特開2005−033788号JP-A-2005-033788

上述のメディアンフィルタリングする動作ベクトル検出装置では、基準ブロックの複数の動作ベクトル間で大きさが中位のものを選択し、他のものは考慮されないので、正しい動きベクトルが棄却されてしまうおそれがある。   In the above-described motion vector detection device that performs median filtering, a medium motion having a medium size is selected between a plurality of motion vectors of a reference block, and the other motion vectors are not taken into account, so that a correct motion vector may be rejected. .

本発明はこうした状況に鑑みてなされたものであり、その目的は、時間的に連続する二つのフレーム間でのブロックマッチングの結果、ある対象ブロックについて動きベクトルの候補が複数存在する場合においても、その複数の動きベクトルの中から画質劣化を最小とする動きベクトルを精度良く導出する技術を提供することにある。   The present invention has been made in view of such a situation, and the object thereof is as a result of block matching between two temporally continuous frames, even when a plurality of motion vector candidates exist for a certain target block. It is an object of the present invention to provide a technique for accurately deriving a motion vector that minimizes image quality degradation from the plurality of motion vectors.

本発明のある態様の動きベクトル導出装置は、時間的に連続する二つの画像フレーム内の対応するブロック間の動きベクトルを導出する装置であって、動きベクトルの計算対象である対象ブロックの動きベクトルの候補である複数の候補ベクトルを生成する候補ベクトル生成部と、前記候補ベクトルが生成された画像フレーム内のブロックをブロックテクスチャとして抽出するブロックテクスチャ抽出部と、前記ブロックテクスチャ抽出部で抽出された複数のブロックテクスチャのうち、対応するブロック間の、輝度変化の局所的な空間的構造のマッチング度合いが最も高いブロックテクスチャから生成された候補ベクトルを、前記対象ブロックの動きベクトルとして選択する動きベクトル選択部と、を備える。   A motion vector deriving device according to an aspect of the present invention is a device for deriving a motion vector between corresponding blocks in two temporally continuous image frames, and a motion vector of a target block which is a motion vector calculation target. A candidate vector generating unit that generates a plurality of candidate vectors that are candidates, a block texture extracting unit that extracts a block in an image frame in which the candidate vector is generated as a block texture, and a block texture extracting unit Motion vector selection for selecting a candidate vector generated from a block texture having the highest matching degree of local spatial structure of luminance change among corresponding blocks among a plurality of block textures as a motion vector of the target block A section.

なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。   It should be noted that any combination of the above-described constituent elements and a conversion of the expression of the present invention between a method, an apparatus, a system, a recording medium, a computer program, etc. are also effective as an aspect of the present invention.

本発明によれば、時間的に連続する二つのフレーム間でのブロックマッチングの結果、ある対象ブロックについて動きベクトルの候補が複数存在する場合においても、その複数の動きベクトルの中から画質劣化を最小とする動きベクトルを精度良く導出することができる。   According to the present invention, even when a plurality of motion vector candidates exist for a certain target block as a result of block matching between two temporally continuous frames, image quality degradation is minimized among the plurality of motion vectors. Can be derived with high accuracy.

本発明の一実施形態に係るフレームレート変換装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the frame rate conversion apparatus which concerns on one Embodiment of this invention. 被補間フレームを作成する方法を説明する図である。It is a figure explaining the method to produce an interpolated frame. 被補間フレームにおいてオブジェクトが交差する場合を示す図である。It is a figure which shows the case where an object cross | intersects in an interpolated frame. 動きベクトル導出部の詳細な構成を示すブロック図である。It is a block diagram which shows the detailed structure of a motion vector derivation | leading-out part. ブロックテクスチャを示す図である。It is a figure which shows a block texture. 本実施形態における動きベクトル導出のフローチャートである。It is a flowchart of motion vector derivation in this embodiment. 輝度値変化の局所的構造を表現するための関数を示す図である。It is a figure which shows the function for expressing the local structure of a luminance value change. ブロックサイズが8x8の場合の相関判定に使用する画素を示す図である。It is a figure which shows the pixel used for the correlation determination in case a block size is 8x8.

図1は、本発明の一実施形態に係るフレームレート変換装置10の概略構成を示すブロック図である。この構成は、ハードウェア的には、任意のコンピュータのCPU、メモリ、その他のLSIで実現でき、ソフトウェア的にはメモリにロードされたプログラムなどによって実現されるが、ここではそれらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは、当業者には理解されるところである。   FIG. 1 is a block diagram showing a schematic configuration of a frame rate conversion apparatus 10 according to an embodiment of the present invention. This configuration can be realized in terms of hardware by a CPU, memory, or other LSI of an arbitrary computer, and in terms of software, it is realized by a program loaded in the memory. Draw functional blocks. Accordingly, those skilled in the art will understand that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof.

フレームレート変換装置10は、入力される動画像のフレームレートを変換して出力する装置である。本実施形態では、入力動画像のフレームレートを二倍に変換して出力する倍速変換について説明する。   The frame rate conversion device 10 is a device that converts the frame rate of an input moving image and outputs it. In the present embodiment, double-speed conversion in which the frame rate of an input moving image is doubled and output will be described.

フレーム選択部12は、動画像から時間的に連続する二つのフレームを取り出す。この二つのフレームのうち時間的に後のものを「現フレーム」、時間的に前のものを「遅延フレーム」と呼ぶ。フレーム選択部12は、所定のタイミングで一フレームずつずらしながら二つのフレームを連続的に動画像から取り出し、動きベクトル導出部14に順次出力する。   The frame selection unit 12 extracts two temporally continuous frames from the moving image. Of these two frames, the temporally subsequent one is called the “current frame”, and the temporally previous one is called the “delayed frame”. The frame selection unit 12 continuously extracts two frames from the moving image while shifting the frames one frame at a predetermined timing, and sequentially outputs them to the motion vector deriving unit 14.

動きベクトル導出部14は、入力された現フレームと遅延フレームをそれぞれ所定の大きさのブロック(例えば、16×16画素のマクロブロック)に分割する。続いて、動きベクトル導出部14は、現フレームと遅延フレームとの間でブロックマッチングを実行し、ブロック毎に一つの動きベクトルを導出する。導出された各ブロックの動きベクトルは被補間フレーム作成部16に供給される。   The motion vector deriving unit 14 divides the input current frame and delay frame into blocks each having a predetermined size (for example, a 16 × 16 pixel macroblock). Subsequently, the motion vector deriving unit 14 performs block matching between the current frame and the delayed frame, and derives one motion vector for each block. The derived motion vector of each block is supplied to the interpolated frame creation unit 16.

被補間フレーム作成部16は、動きベクトル導出部14により供給された動きベクトルを使用して周知の動き補償を行い、現フレームと遅延フレームの中間の被補間フレームを作成する。   The interpolated frame creating unit 16 performs known motion compensation using the motion vector supplied from the motion vector deriving unit 14 and creates an interpolated frame intermediate between the current frame and the delayed frame.

図2は、被補間フレームを作成する方法を説明する図である。図中、F1が現フレーム、F2が遅延フレームであり、二つのフレームF1とF2の中間時点の被補間フレームF3を作成することを考える。フレームレート変換装置10から出力される動画像では、フレームF1、F3、F2の順に再生される。   FIG. 2 is a diagram for explaining a method of creating an interpolated frame. In the figure, F1 is the current frame, F2 is a delay frame, and it is assumed that an interpolated frame F3 at an intermediate point between the two frames F1 and F2 is created. The moving image output from the frame rate conversion apparatus 10 is played back in the order of frames F1, F3, and F2.

動きベクトル導出部14は、被補間フレームF3を所定のサイズのブロックに分割する。被補間フレーム内のあるブロック(ブロックB3)の左上隅の座標(x、y)を通過する直線を考え、この直線が現フレームF1および遅延フレームF2上でそれぞれ左上隅を通過するブロックB1およびブロックB2の間でブロックマッチングを実行する。このブロックマッチングを現フレームF1および遅延フレームF2の全体にわたり実行し、ブロック間の類似性を評価するために各ブロックに対して輝度差の絶対値の総和を計算する。図2の例において、現フレームF1上で左上隅の座標が(x+i,y+j)であるブロックB1と、遅延フレームF2上で左上隅の座標が(x−i,y−j)であるブロックB2とでブロックマッチングを実行した場合、両者を結ぶ動きベクトルは(i,j)で表される。   The motion vector deriving unit 14 divides the interpolated frame F3 into blocks of a predetermined size. Consider a straight line that passes through the coordinates (x, y) of the upper left corner of a block (block B3) in the interpolated frame, and this straight line passes through the upper left corner on the current frame F1 and the delayed frame F2, respectively. Perform block matching between B2. This block matching is performed over the entire current frame F1 and delayed frame F2, and the sum of absolute values of luminance differences is calculated for each block in order to evaluate the similarity between the blocks. In the example of FIG. 2, the block B1 whose upper left corner coordinates are (x + i, y + j) on the current frame F1, and the block B2 whose upper left corner coordinates are (x-i, y-j) on the delayed frame F2. When the block matching is executed in the above, the motion vector connecting the two is represented by (i, j).

動きベクトル(i,j)が最適と判定された場合、被補間フレーム作成部16は、遅延フレームF2におけるブロックB2(または現フレームF1におけるブロックB1)のテクスチャを、被補間フレームF3におけるブロックB3に入れ込む。このような処理を被補間フレームF3内の全ブロックについて繰り返すことで、被補間フレームF3を作成することができる。   When it is determined that the motion vector (i, j) is optimal, the interpolated frame creation unit 16 changes the texture of the block B2 in the delay frame F2 (or the block B1 in the current frame F1) to the block B3 in the interpolated frame F3. Put in. By repeating such processing for all blocks in the interpolated frame F3, the interpolated frame F3 can be created.

なお、ブロックマッチングおよび被補間フレームの作成は当業者にとって周知であるため、これ以上の詳細な説明は省略する。   Since block matching and creation of an interpolated frame are well known to those skilled in the art, further detailed description is omitted.

動画像内に移動するオブジェクトが複数存在する場合には、被補間フレームF3の作成位置でオブジェクトの交差が発生することがある。図3に示すように、オブジェクトC1がフレーム内を左上から右下方向に移動し、オブジェクトC2がフレーム内を左下から右上方向に移動するとき、被補間フレームF3の中央付近で両オブジェクトが交差することになる。オブジェクトC1、C2を含むブロックの動きベクトルがそれぞれ求められたとしても、被補間フレームF3においていずれのオブジェクトを手前側に配置すべきかの情報を得ることはできない。   When there are a plurality of moving objects in the moving image, the objects may cross each other at the position where the interpolated frame F3 is created. As shown in FIG. 3, when the object C1 moves from the upper left to the lower right in the frame and the object C2 moves from the lower left to the upper right in the frame, the two objects intersect near the center of the interpolated frame F3. It will be. Even if the motion vectors of the blocks including the objects C1 and C2 are respectively obtained, it is not possible to obtain information about which object should be arranged on the near side in the interpolated frame F3.

そこで、本実施形態では、被補間フレームにおいてオブジェクトの交差が発生したと考えられる場合に、最適なオブジェクトを手前側に配置するように動きベクトルを選択できるようにする。   Therefore, in this embodiment, when it is considered that an object crossing has occurred in the interpolated frame, a motion vector can be selected so that an optimal object is arranged on the near side.

図4は、動きベクトル導出部14の詳細な構成を示すブロック図である。動きベクトル導出部14は、候補ベクトル生成部20、ブロックテクスチャ抽出部22、隣接画素間輝度差判定部24、動きベクトル選択部26、相関判定部28および輝度差計算部30を含む。   FIG. 4 is a block diagram showing a detailed configuration of the motion vector deriving unit 14. The motion vector derivation unit 14 includes a candidate vector generation unit 20, a block texture extraction unit 22, a luminance difference determination unit 24 between adjacent pixels, a motion vector selection unit 26, a correlation determination unit 28, and a luminance difference calculation unit 30.

候補ベクトル生成部20は、現フレームと遅延フレームとを受け取り、被補間フレーム内のブロック毎に図2で説明したブロックマッチングを実行する。そして、マッチングを実行した現フレームのブロックと遅延フレームのブロックの組合せ毎に、輝度差の絶対値の総和(または輝度差の二乗和)を計算する。この総和が十分に小さくなるブロックの組合せを選び出し、それぞれの動きベクトルを求める。「十分に小さくなるブロックの組合せを選び出し」とは、例えば、その総和が所定のしきい値以下となるブロックの組合せを選び出すことを言う。または、その総和が小さい順にソートし、(A−Ai−1)/(Ai+1)が所定値(例えば1/100)以下になるとき、Aまでの全てのブロックの組合せを選び出すことを言う。ここでAは先頭からi番目の値を表している。選び出されたブロックの組合せについて求められた動きベクトルを「候補ベクトル」と呼ぶ。 The candidate vector generation unit 20 receives the current frame and the delayed frame, and executes the block matching described with reference to FIG. 2 for each block in the interpolated frame. Then, the sum of absolute values of luminance differences (or the sum of squares of luminance differences) is calculated for each combination of blocks of the current frame and delayed frames for which matching has been performed. A combination of blocks in which the sum is sufficiently small is selected, and each motion vector is obtained. “Selecting a sufficiently small block combination” means, for example, selecting a block combination whose sum is equal to or less than a predetermined threshold value. Alternatively, sorting is performed in ascending order of the sum, and when (A i −A i−1 ) / (A i + 1 ) is a predetermined value (for example, 1/100) or less, all block combinations up to A i are selected. Say. Here, A i represents the i-th value from the top. The motion vector obtained for the selected combination of blocks is referred to as a “candidate vector”.

本実施形態では、候補ベクトル生成部20により生成された候補ベクトルが二つ以上存在する場合を想定している。これ以外の場合、例えばあるブロックの組合せにおける輝度差の総和の最小値が、二番目に小さい値の1/100である場合のように、最小値が際だって小さいときには、候補ベクトルを生成せずに、輝度差の総和が最小であるブロックの組合せから動きベクトルを直接求めれば十分である。   In the present embodiment, it is assumed that there are two or more candidate vectors generated by the candidate vector generation unit 20. In other cases, when the minimum value is extremely small, for example, when the minimum value of the sum of luminance differences in a certain block combination is 1/100 of the second smallest value, the candidate vector is not generated. In addition, it is sufficient to directly obtain a motion vector from a combination of blocks having the smallest sum of luminance differences.

ブロックテクスチャ抽出部22は、候補ベクトル生成部20により生成された候補ベクトルに対応する遅延フレーム内の複数のブロックをそれぞれ抽出する。以下、これらを「抽出ブロックテクスチャ」と呼ぶ。図5は、抽出ブロックテクスチャを示す。なお、テクスチャはp×p画素のサイズであるとする。   The block texture extraction unit 22 extracts a plurality of blocks in the delay frame corresponding to the candidate vector generated by the candidate vector generation unit 20. Hereinafter, these are referred to as “extracted block texture”. FIG. 5 shows the extracted block texture. It is assumed that the texture has a size of p × p pixels.

輝度差計算部30は、抽出ブロックテクスチャのそれぞれについて、隣接する画素間の輝度差の累積値Zを下記(式1)のように計算する。
ここで、Y(i,j)は画素(i,j)の輝度値を表す。
The luminance difference calculation unit 30 calculates the accumulated value Z of luminance differences between adjacent pixels for each of the extracted block textures as shown in the following (Equation 1).
Here, Y (i, j) represents the luminance value of the pixel (i, j).

一方、隣接画素間輝度差判定部24は、抽出ブロックテクスチャのそれぞれの画素について、周囲の画素との輝度差を計算して、輝度値変化の局所的な空間的構造を概略的に表現する。相関判定部28は、対応する2つのブロックにつき輝度の大小の相関性を計算する。    On the other hand, the luminance difference determining unit 24 between adjacent pixels calculates the luminance difference with the surrounding pixels for each pixel of the extracted block texture, and roughly represents the local spatial structure of the luminance value change. The correlation determination unit 28 calculates the correlation between the magnitudes of the luminance for the two corresponding blocks.

動きベクトル選択部26は、輝度差計算部30によって計算された複数の抽出ブロックテクスチャの輝度差累積値Zを比較する。輝度差累積値Zの最大値が残りのものよりも所定倍以上(例えば、二倍以上)大きい場合、動きベクトル選択部26は、輝度差累積値Zが最大の抽出ブロックテクスチャについて求められた候補ベクトルを、対象ブロックの動きベクトルとして選択する。輝度差累積値Zの最大値が残りのものより所定倍未満の場合、動きベクトル選択部26は、相関判定部28で計算された相関性が、最も大きいまたは相対的に大きい抽出ブロックテクスチャについて求められた候補ベクトルを、対象ブロックの動きベクトルとして選択する。即ち、現フレームと遅延フレームの対応するブロック間の輝度変化の局所的な空間的構造のマッチング度合いが、最も大きいまたは相対的に大きい抽出ブロックテクスチャについて求められた候補ベクトルを、対象ブロックの動きベクトルとして選択する。   The motion vector selection unit 26 compares the luminance difference accumulated values Z of the plurality of extracted block textures calculated by the luminance difference calculation unit 30. If the maximum value of the luminance difference accumulated value Z is larger than the remaining one by a predetermined value (for example, twice or more), the motion vector selection unit 26 determines the candidate obtained for the extracted block texture having the largest luminance difference accumulated value Z. The vector is selected as the motion vector of the target block. When the maximum value of the luminance difference accumulated value Z is less than a predetermined value than the remaining one, the motion vector selection unit 26 obtains the extracted block texture having the largest or relatively large correlation calculated by the correlation determination unit 28. The obtained candidate vector is selected as the motion vector of the target block. That is, the candidate vector obtained for the extracted block texture having the largest or relatively large local spatial structure matching degree of luminance change between corresponding blocks of the current frame and the delayed frame is used as the motion vector of the target block. Choose as.

上記のようにする理由は、以下の知見に基づく。すなわち、輝度差累積値Zが大きい抽出ブロックテクスチャの動きベクトルを選択するのは、順光環境下では近景側のオブジェクトの方が遠景側のオブジェクトよりも高精細であり、高域成分を多く含む確率が高いと考えられるためである。また、高域成分を多く含むブロックテクスチャは情報量が多いため、精度が高い動きベクトル推定が行われている可能性が高いためである。   The reason for the above is based on the following knowledge. That is, the motion vector of the extracted block texture having a large accumulated luminance difference value Z is selected because the object on the foreground side is higher in definition than the object on the far side in a front light environment, and includes more high frequency components. This is because the probability is considered high. Moreover, since the block texture containing many high frequency components has a large amount of information, there is a high possibility that highly accurate motion vector estimation is performed.

輝度値変化の局所構造の相関性が高い抽出ブロックテクスチャの動きベクトルを選択するのは、輝度値変化の局所構造は照明状態や撮影条件などの微妙な変化に対して影響を受けずに正しい照合が行われる可能性が高いためである。この点、ブロック間の輝度差の絶対値の総和(または輝度差の二乗和)を計算する一般的なブロックマッチングは、照明状態や撮影条件などの微妙な変化の影響を受ける。例えば、現フレームと遅延フレームとの間で照明状態が異なる場合、局所的な空間的構造がほぼ一致していても、輝度差の絶対値の総和(または輝度差の二乗和)が大きくなる可能性がある。つまりマッチング度合いが実際より低く判定される場合がある。この点、輝度値変化の局所構造の相関性をもとにマッチング度合いを判定すると、フレーム間における照明状態や撮影条件の違いの影響を受けにくくなる。   Extraction block texture motion vector with high correlation of local structure of brightness value change is selected because the local structure of brightness value change is correct without being affected by subtle changes such as lighting conditions and shooting conditions. This is because there is a high possibility that In this regard, general block matching for calculating the sum of absolute values of luminance differences between blocks (or the sum of squares of luminance differences) is affected by subtle changes such as illumination conditions and photographing conditions. For example, if the lighting conditions are different between the current frame and the delayed frame, the sum of absolute values of luminance differences (or the sum of squares of luminance differences) can be large even if the local spatial structure is almost the same. There is sex. That is, the matching degree may be determined to be lower than actual. In this regard, if the matching degree is determined based on the correlation of the local structure of the luminance value change, it is less likely to be affected by the difference in illumination state and photographing conditions between frames.

このように、被補間フレームにおけるオブジェクトの前後関係を考慮に入れて、対象ブロックの動きベクトルを選択することができる。また照明状態や撮影条件などの影響を受けにくい高精度な相関判定を行うことができる。   In this manner, the motion vector of the target block can be selected in consideration of the object context in the interpolated frame. In addition, it is possible to perform highly accurate correlation determination that is not easily affected by illumination conditions or imaging conditions.

図6は、本実施形態における動きベクトル導出のフローチャートである。まず、候補ベクトル生成部20が、現フレームと遅延フレーム内のブロック間のブロックマッチングを行って、複数の候補ベクトルを生成する(S10)。ブロックテクスチャ抽出部22は、候補ベクトル生成部20で選び出された複数のブロックの組合せのうち、遅延フレーム内のブロックのテクスチャをそれぞれ抽出する(S12)。輝度差計算部30は、抽出ブロックテクスチャのそれぞれについて、隣接する画素間の輝度差の累積値Zを計算する(S14)。隣接画素間輝度差判定部24は、抽出ブロックテクスチャのそれぞれの構成画素について周囲の隣接画素との輝度値の大小を比較する(S16)。相関判定部28は、抽出ブロックテクスチャのそれぞれについて、上記の大小関係の相関性を判定する(S18)。   FIG. 6 is a flowchart of motion vector derivation in this embodiment. First, the candidate vector generation unit 20 performs block matching between blocks in the current frame and the delay frame to generate a plurality of candidate vectors (S10). The block texture extraction unit 22 extracts the textures of the blocks in the delay frame from among a plurality of combinations of blocks selected by the candidate vector generation unit 20 (S12). The luminance difference calculation unit 30 calculates a cumulative value Z of luminance differences between adjacent pixels for each of the extracted block textures (S14). The luminance difference determining unit 24 between adjacent pixels compares the luminance values of the neighboring pixels with each of the constituent pixels of the extracted block texture (S16). The correlation determination unit 28 determines the correlation of the above-described magnitude relationship for each of the extracted block textures (S18).

動きベクトル選択部26は、輝度差計算部30によって計算された、複数の抽出ブロックテクスチャの輝度差累積値Zを比較する(S20)。輝度差累積値Zの最大値が残りのものよりも所定倍以上(例えば、二倍以上)大きい場合(S22のY)、動きベクトル選択部26は、輝度差累積値Zが最大の抽出ブロックテクスチャについて求められた候補ベクトルを、対象ブロックの動きベクトルとして選択する(S24)。輝度差累積値Zの最大値が残りのものより所定倍未満の場合(S22のN)、動きベクトル選択部26は、相関判定部28で計算された、相関性が最大の抽出ブロックテクスチャについて求められた候補ベクトルを対象ブロックの動きベクトルとして選択する(S26)。   The motion vector selection unit 26 compares the luminance difference accumulated values Z of the plurality of extracted block textures calculated by the luminance difference calculation unit 30 (S20). When the maximum value of the luminance difference accumulated value Z is larger than the remaining one by a predetermined value (for example, twice or more) (Y in S22), the motion vector selection unit 26 extracts the extracted block texture having the largest luminance difference accumulated value Z. The candidate vector obtained for is selected as the motion vector of the target block (S24). When the maximum value of the luminance difference accumulated value Z is less than a predetermined value than the remaining one (N in S22), the motion vector selection unit 26 obtains the extracted block texture having the maximum correlation calculated by the correlation determination unit 28. The obtained candidate vector is selected as the motion vector of the target block (S26).

次に、隣接画素間輝度差判定部24での処理につき詳説する。輝度変化の局所的な空間的構造を概略的に表現するために、図7に示すような関数str[m]を導入する。これは輝度値Y[i, j]の周囲8画素に対する大小関係を表現するものであり、m=0で左上、m=1で上、m=2で右上、m=3で左、m=4で右、m=5で左下、m=6で左下、m=7で左下との大小関係が表現される。thはノイズなどによる影響を軽減するための閾値で、8ビット処理の場合、例えば5から10程度に設定する。基本的に中心画素の画素値のほうが小さいときに0、同等のときに1、大きいときに2が出力される。   Next, processing in the adjacent pixel luminance difference determination unit 24 will be described in detail. In order to schematically represent the local spatial structure of the luminance change, a function str [m] as shown in FIG. 7 is introduced. This expresses the magnitude relationship for the surrounding 8 pixels of the luminance value Y [i, j], m = 0 for the upper left, m = 1 for the upper, m = 2 for the upper right, m = 3 for the left, m = The size relationship is expressed as 4 for right, m = 5 for lower left, m = 6 for lower left, and m = 7 for lower left. th is a threshold value for reducing the influence of noise or the like, and is set to, for example, about 5 to 10 in the case of 8-bit processing. Basically, 0 is output when the pixel value of the central pixel is smaller, 1 when the pixel value is equal, and 2 when it is larger.

相関判定部28における具体的な処理としては、1画素についての局所的な空間的構造表現である上記str[m]をブロックテクスチャに展開することにより実現される。隣接画素との計算を行う都合上、str[m]はブロックの最外周では計算できない。図8に示すようにブロックサイズが8x8の場合、画素番号を付記した6x6=36画素について計算を行う。画素番号を(n=0,1,...35)とする場合、任意のブロックAの画素nについてstr[m]を適用したものを、strblkA[n][m]のように記述する(m=0,1,...7)。同様に任意のブロックBについて適用したものを、strblkB[n][m]のように記述する。両ブロックテクスチャの局所構造の相関性は下記(式2)のように記述できる。
但し、f(0)= 1, f(1)= 0, f(2)= -1とする。これが意味するところは、ブロックAとブロックBの対応する画素の対応する隣接画素との画素値の大小関係において、一致する組み合わせの場合はカウントアップし、増加と減少というように矛盾する組み合わせの場合はカウントダウンし、増加または減少と、変化なしというような組み合わせはカウントしないということである。したがって上記(式2)の関数の値が大きいほど、ブロックAとブロックBの局所構造の相関性が高いことを示す。
Specific processing in the correlation determination unit 28 is realized by expanding the str [m], which is a local spatial structure expression for one pixel, into a block texture. For convenience of calculation with adjacent pixels, str [m] cannot be calculated at the outermost periphery of the block. As shown in FIG. 8, when the block size is 8 × 8, calculation is performed for 6 × 6 = 36 pixels with pixel numbers. When the pixel number is (n = 0, 1,... 35), the str [m] applied to the pixel n of any block A is described as strblkA [n] [m] ( m = 0,1, ... 7). Similarly, what is applied to an arbitrary block B is described as strblkB [n] [m]. The correlation between the local structures of both block textures can be described as (Equation 2) below.
However, f (0) = 1, f (1) = 0, and f (2) =-1. This means that, in the magnitude relationship of the pixel values of the corresponding adjacent pixels of the corresponding pixels of block A and block B, the matching combination counts up, and the contradictory combination such as increase and decrease Is counted down, and combinations such as increase or decrease and no change are not counted. Therefore, it shows that the correlation of the local structure of the block A and the block B is so high that the value of the function of said (Formula 2) is large.

以上説明したように、本実施形態によれば、時間的に連続する二つのフレーム間でのブロックマッチングの結果、被補間フレーム内のあるブロックについて動きベクトルの候補が複数存在する場合、その複数の動きベクトルの中から最適な動きベクトルを選択できる。即ち、ブロック間の輝度変化の局所的な空間的構造のマッチング度合いを判定することにより、照明状態や撮影条件などの影響を受けにくい高精度なブロックマッチングを実現できる。また、高域成分を多く含むブロックテクスチャの動きベクトルを選択することにより、対象ブロックの場所でオブジェクトの交差が発生している場合でも、手前側に位置するオブジェクトに対応する動きベクトルを選択できる。これらにより、被補間フレームにおいて誤った動きベクトルが使用される可能性が低くなり、フレームレート変換後にも正確な動画像を得ることができる。   As described above, according to the present embodiment, when a plurality of motion vector candidates exist for a certain block in the interpolated frame as a result of block matching between two temporally continuous frames, An optimal motion vector can be selected from the motion vectors. That is, by determining the local spatial structure matching degree of the luminance change between the blocks, it is possible to realize highly accurate block matching that is not easily affected by the illumination state or the photographing condition. In addition, by selecting a motion vector of a block texture that contains a lot of high-frequency components, a motion vector corresponding to an object located on the near side can be selected even when an object crossing occurs at the location of the target block. Accordingly, the possibility that an erroneous motion vector is used in the interpolated frame is reduced, and an accurate moving image can be obtained even after frame rate conversion.

以上、本発明を実施形態をもとに説明した。この実施形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。   The present invention has been described based on the embodiments. This embodiment is an exemplification, and it will be understood by those skilled in the art that various modifications can be made to the combination of each component and each processing process, and such modifications are also within the scope of the present invention. .

実施形態では、隣接画素間輝度差判定部24は、ブロックテクスチャの対象画素の輝度値と、その対象画素の周囲に隣接する8画素の輝度値とのそれぞれの大小関係を判定した。この点、大小関係を判定する画素は、周囲に隣接する8画素に限らない。例えば、その8画素の外周の16画素を加えて合計24画素と比較してもよい。大小関係を判定する画素数が多いほど精度が上がるが、演算量が多くなる。設計者はこのトレードオフ関係を考慮して、大小関係を判定する画素を決定することができる。   In the embodiment, the luminance difference determining unit 24 between adjacent pixels determines the magnitude relationship between the luminance value of the target pixel of the block texture and the luminance values of eight pixels adjacent to the periphery of the target pixel. In this regard, the pixels for determining the magnitude relationship are not limited to the eight pixels adjacent to the surroundings. For example, 16 pixels on the outer periphery of the 8 pixels may be added and compared with a total of 24 pixels. Although the accuracy increases as the number of pixels for determining the magnitude relationship increases, the amount of calculation increases. The designer can determine the pixel for determining the magnitude relationship in consideration of this trade-off relationship.

実施形態では、現フレームと遅延フレームとの中間時点の被補間フレームを生成する場合について説明したが、同様の手法により、現フレームと遅延フレームを二等分、三等分(またはそれ以上)する複数の被補間フレームを作成できることは当業者であれば明らかである。   In the embodiment, the case where the interpolated frame at the intermediate point between the current frame and the delay frame is generated has been described. However, the current frame and the delay frame are divided into two equal parts and three equal parts (or more) by the same method. It will be apparent to those skilled in the art that a plurality of interpolated frames can be created.

実施形態では、フレームレート変化において被補間フレームを作成する場合の動きベクトルの導出に本発明を適用することを説明したが、本発明の方法を動画像符号化時の動きベクトルの導出にも適用することができる。本発明の方法を用いて導出された動きベクトルを動画像符号化に用いることで、符号量は通常の手法よりも増大する可能性はあるものの、画質を向上させることができる。   In the embodiment, it has been described that the present invention is applied to the derivation of a motion vector when an interpolated frame is generated at a change in the frame rate. However, the method of the present invention is also applied to the derivation of a motion vector at the time of video encoding. can do. By using the motion vector derived by using the method of the present invention for moving picture coding, the amount of code may be increased as compared with a normal method, but the image quality can be improved.

さらに上記のような時系列な画像の補間のみならず、複数視点画像の中間的な仮想視点画像の生成などにも適用可能である。   Furthermore, it is applicable not only to the above-described interpolation of time-series images but also to generation of an intermediate virtual viewpoint image among a plurality of viewpoint images.

10 フレームレート変換装置、 12 フレーム選択部、 14 動きベクトル導出部、 16 被補間フレーム作成部、 20 候補ベクトル生成部、 22 ブロックテクスチャ抽出部、 24 隣接画素間輝度差判定部、 26 動きベクトル選択部、 28 相関判定部、 30 輝度差計算部。   DESCRIPTION OF SYMBOLS 10 Frame rate conversion apparatus, 12 Frame selection part, 14 Motion vector derivation part, 16 Interpolated frame production part, 20 Candidate vector generation part, 22 Block texture extraction part, 24 Brightness difference determination part between adjacent pixels, 26 Motion vector selection part 28 correlation determination unit, 30 luminance difference calculation unit.

Claims (6)

時間的に連続する二つの画像フレーム内の対応するブロック間の動きベクトルを導出する装置であって、
動きベクトルの計算対象である対象ブロックの動きベクトルの候補である複数の候補ベクトルを生成する候補ベクトル生成部と、
前記候補ベクトルが生成された画像フレーム内のブロックをブロックテクスチャとして抽出するブロックテクスチャ抽出部と、
前記ブロックテクスチャ抽出部で抽出された複数のブロックテクスチャのうち、対応するブロック間の、輝度変化の局所的な空間的構造のマッチング度合いが最も高いブロックテクスチャから生成された候補ベクトルを、前記対象ブロックの動きベクトルとして選択する動きベクトル選択部と、
を備えることを特徴とする動きベクトル導出装置。
An apparatus for deriving a motion vector between corresponding blocks in two temporally consecutive image frames,
A candidate vector generation unit that generates a plurality of candidate vectors that are motion vector candidates of a target block that is a motion vector calculation target;
A block texture extraction unit for extracting a block in the image frame in which the candidate vector is generated as a block texture;
Among the plurality of block textures extracted by the block texture extraction unit, candidate vectors generated from block textures having the highest matching degree of local spatial structure of luminance change between corresponding blocks are selected as the target block. A motion vector selection unit that selects the motion vector of
A motion vector deriving device comprising:
前記ブロックテクスチャ抽出部で抽出された複数のブロックテクスチャのそれぞれについて、ブロックテクスチャを構成する画素の輝度と、その周囲の画素の輝度との大小を判定する画素間輝度差判定部と、
前記輝度の大小の一致および不一致をもとに、対応するブロック間の相関性を評価する相関判定部と、をさらに備え、
前記動きベクトル選択部は、相関の最大値が得られたブロックテクスチャから生成された候補ベクトルを前記対象ブロックの動きベクトルとして選択することを特徴とする請求項1に記載の動きベクトル導出装置。
For each of the plurality of block textures extracted by the block texture extraction unit, an inter-pixel luminance difference determination unit that determines the magnitude of the luminance of the pixels constituting the block texture and the luminance of surrounding pixels,
A correlation determining unit that evaluates the correlation between corresponding blocks based on the magnitude matching and mismatching of the luminance,
The motion vector deriving device according to claim 1, wherein the motion vector selection unit selects a candidate vector generated from a block texture having a maximum correlation value as a motion vector of the target block.
前記画素間輝度差判定部は、前記ブロックテクスチャを構成する画素の輝度と、その周囲に隣接する8画素の輝度との大小をそれぞれ判定することを特徴とする請求項2に記載の動きベクトル導出装置。   The motion vector derivation according to claim 2, wherein the inter-pixel luminance difference determination unit determines the magnitudes of the luminance of pixels constituting the block texture and the luminance of eight pixels adjacent to the block texture. apparatus. 前記ブロックテクスチャ抽出部で抽出された複数のブロックテクスチャのそれぞれについて、ブロックテクスチャを構成する画素の隣接画素間の輝度差の累積値を計算する輝度差計算部を、さらに備え、
前記動きベクトル選択部は、前記累積値の最大値が残りの累積値よりも所定倍以上の大きさであるとき、前記累積値の最大値が得られたブロックテクスチャから生成された候補ベクトルを前記対象ブロックの動きベクトルとして選択し、前記累積値の最大値が残りの累積値よりも所定倍未満の大きさであるとき、前記相関の最大値が得られたブロックテクスチャから生成された候補ベクトルを選択することを特徴とする請求項2または3に記載の動きベクトル導出装置。
For each of the plurality of block textures extracted by the block texture extraction unit, further comprising a luminance difference calculation unit for calculating a cumulative value of luminance differences between adjacent pixels of the pixels constituting the block texture,
The motion vector selection unit selects a candidate vector generated from the block texture from which the maximum value of the cumulative value is obtained when the maximum value of the cumulative value is a predetermined multiple or more larger than the remaining cumulative value. A candidate vector generated from the block texture from which the maximum value of the correlation is obtained, when selected as a motion vector of the target block, and the maximum value of the cumulative value is less than a predetermined multiple of the remaining cumulative value 4. The motion vector deriving device according to claim 2, wherein the motion vector deriving device is selected.
時間的に連続する二つの画像フレーム内の対応するブロック間の動きベクトルを導出する方法であって、
動きベクトルの計算対象である対象ブロックの動きベクトルの候補である複数の候補ベクトルを生成し、
前記候補ベクトルが生成された画像フレーム内のブロックをブロックテクスチャとして抽出し、
抽出された複数のブロックテクスチャのうち、対応するブロック間の、輝度変化の局所的な空間的構造のマッチング度合いが最も高いブロックテクスチャから生成された候補ベクトルを、前記対象ブロックの動きベクトルとして選択する、
ことを特徴とする動きベクトル導出方法。
A method of deriving a motion vector between corresponding blocks in two temporally consecutive image frames,
Generating a plurality of candidate vectors that are motion vector candidates of a target block that is a target of motion vector calculation;
Extracting a block in the image frame in which the candidate vector is generated as a block texture;
A candidate vector generated from a block texture having the highest matching degree of the local spatial structure of luminance change between corresponding blocks among the plurality of extracted block textures is selected as a motion vector of the target block. ,
A motion vector derivation method characterized by the above.
時間的に連続する二つの画像フレーム内の対応するブロック間の動きベクトルを導出するプログラムであって、
動きベクトルの計算対象である対象ブロックの動きベクトルの候補である複数の候補ベクトルを生成する処理と、
前記候補ベクトルが生成された画像フレーム内のブロックをブロックテクスチャとして抽出する処理と、
抽出された複数のブロックテクスチャのうち、対応するブロック間の、輝度変化の局所的な空間的構造のマッチング度合いが最も高いブロックテクスチャから生成された候補ベクトルを、前記対象ブロックの動きベクトルとして選択する処理と、
をコンピュータに実現させることを特徴とする動きベクトル導出プログラム。
A program for deriving a motion vector between corresponding blocks in two temporally consecutive image frames,
A process of generating a plurality of candidate vectors that are motion vector candidates of a target block that is a motion vector calculation target;
A process of extracting a block in the image frame in which the candidate vector is generated as a block texture;
A candidate vector generated from a block texture having the highest matching degree of the local spatial structure of luminance change between corresponding blocks among the plurality of extracted block textures is selected as a motion vector of the target block. Processing,
A motion vector derivation program characterized by having a computer realize the above.
JP2012143336A 2012-06-26 2012-06-26 Motion vector derivation device, method and program Pending JP2014007658A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012143336A JP2014007658A (en) 2012-06-26 2012-06-26 Motion vector derivation device, method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012143336A JP2014007658A (en) 2012-06-26 2012-06-26 Motion vector derivation device, method and program

Publications (1)

Publication Number Publication Date
JP2014007658A true JP2014007658A (en) 2014-01-16

Family

ID=50105009

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012143336A Pending JP2014007658A (en) 2012-06-26 2012-06-26 Motion vector derivation device, method and program

Country Status (1)

Country Link
JP (1) JP2014007658A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111754429A (en) * 2020-06-16 2020-10-09 Oppo广东移动通信有限公司 Motion vector post-processing method and device, electronic device and storage medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1091793A (en) * 1996-09-13 1998-04-10 Oki Electric Ind Co Ltd Optical flow calculation method and device
JP2005252359A (en) * 2004-03-01 2005-09-15 Sony Corp Motion vector detecting apparatus, motion vector detection method and computer program
JP2012113362A (en) * 2010-11-19 2012-06-14 Toshiba Corp Image processing method, image processing apparatus, and image processing program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1091793A (en) * 1996-09-13 1998-04-10 Oki Electric Ind Co Ltd Optical flow calculation method and device
JP2005252359A (en) * 2004-03-01 2005-09-15 Sony Corp Motion vector detecting apparatus, motion vector detection method and computer program
JP2012113362A (en) * 2010-11-19 2012-06-14 Toshiba Corp Image processing method, image processing apparatus, and image processing program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111754429A (en) * 2020-06-16 2020-10-09 Oppo广东移动通信有限公司 Motion vector post-processing method and device, electronic device and storage medium

Similar Documents

Publication Publication Date Title
TWI455588B (en) Bi-directional, local and global motion estimation based frame rate conversion
US7936950B2 (en) Apparatus for creating interpolation frame
US7899122B2 (en) Method, apparatus and computer program product for generating interpolation frame
RU2461979C2 (en) Video display device
US8045620B2 (en) Image processing apparatus, image processing method and computer readable medium
US20180144485A1 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
JP5887764B2 (en) Motion compensation frame generation apparatus and method
JP2010147538A (en) Image processing apparatus, method, and program
JP5737072B2 (en) Motion compensation frame generation apparatus and method
JP4525064B2 (en) Motion vector detection apparatus, motion vector detection method, and computer program
JP2014007658A (en) Motion vector derivation device, method and program
JP5824937B2 (en) Motion vector deriving apparatus and method
JP4250598B2 (en) Motion compensation IP conversion processing apparatus and motion compensation IP conversion processing method
JP2006215657A (en) Method, apparatus, program and program storage medium for detecting motion vector
US8405767B2 (en) Image processing device
JP2005250561A (en) Motion vector detecting device, motion vector detecting method and computer program
JP4207764B2 (en) Motion vector detection apparatus, motion vector detection method, and computer program
US10063880B2 (en) Motion detecting apparatus, motion detecting method and program
JP5887763B2 (en) Motion compensation frame generation apparatus and method
JP4207763B2 (en) Motion vector detection apparatus, motion vector detection method, and computer program
JP2013030838A (en) Motion vector derivation device and method
TWI733188B (en) Apparatus and method for motion estimation of isolated objects
WO2016111239A1 (en) Image processing device, image processing method and program recording medium
RU2308817C1 (en) Method and device for scaling a dynamic video-image
JP2010219715A (en) Image processor, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140930

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150608

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150707

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160105