JP2015177341A - Frame interpolation device and frame interpolation method - Google Patents

Frame interpolation device and frame interpolation method Download PDF

Info

Publication number
JP2015177341A
JP2015177341A JP2014052208A JP2014052208A JP2015177341A JP 2015177341 A JP2015177341 A JP 2015177341A JP 2014052208 A JP2014052208 A JP 2014052208A JP 2014052208 A JP2014052208 A JP 2014052208A JP 2015177341 A JP2015177341 A JP 2015177341A
Authority
JP
Japan
Prior art keywords
interpolation
frame
motion
image
motion vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP2014052208A
Other languages
Japanese (ja)
Inventor
貴也 小川
Takaya Ogawa
貴也 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2014052208A priority Critical patent/JP2015177341A/en
Priority to US14/461,693 priority patent/US20150264385A1/en
Publication of JP2015177341A publication Critical patent/JP2015177341A/en
Ceased legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/521Processing of motion vectors for estimating the reliability of the determined motion vectors or motion vector field, e.g. for smoothing the motion vector field or for correcting motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/553Motion estimation dealing with occlusions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/587Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal sub-sampling or interpolation, e.g. decimation or subsequent interpolation of pictures in a video sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Television Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a frame interpolation device or the like for generating an interpolation frame of a natural image.SOLUTION: The frame interpolation device includes: a motion vector interpolation part for allocating an interpolated motion vector which is calculated on the basis of a motion vector indicating a motion of an image between frames and a time position of an interpolation frame to be inserted between two frames, to the interpolation frame for each unit region; a motion compensated image generation part for generating a forward motion compensated image and a backward motion compensated image on the basis of the interpolated motion vector; and an interpolation frame generation part for generating the interpolation frame by mutually averaging corresponding regions in the forward motion compensated image and the backward motion compensated image with weights being different in a normal region to which one or a pair of interpolated motion vectors are allocated for each unit region, and an abnormal region formed from at least either a collision region or a perforated region.

Description

本発明の実施態様は、フレーム補間装置、及びフレーム補間方法に関する。   Embodiments described herein relate generally to a frame interpolation apparatus and a frame interpolation method.

フレーム間に補間フレームを挿入して映像を滑らかにする技術が知られている。補間フレームを生成する装置は、通常、映像を探索して得られた動きベクトルに基づいて補間フレームを生成する。   A technique for smoothing an image by inserting an interpolation frame between frames is known. An apparatus for generating an interpolation frame usually generates an interpolation frame based on a motion vector obtained by searching for a video.

特開2010−166386号公報JP 2010-166386 A 特開平9−214899号公報JP-A-9-214899 特開2005−204066号公報JP 2005-204066 A

動く物体が撮影された映像には、多くの場合、陰面領域が発生する。「陰面領域」とは、オブジェクトとその背後にある背景等が重なって、一時的に、オブジェクトの背後にある背景等が見えなくなっている領域である。陰面領域では、オブジェクトの背後にある背景等の画像情報が失われているため、正しい動きベクトルが求まらないことが多い。正しい動きベクトルが求まらない場合、補間フレームを生成する装置が生成する補間フレームは不自然な画像となる。   In many cases, a hidden surface area is generated in an image in which a moving object is captured. The “hidden area” is an area where the object and the background behind the object overlap, and the background behind the object is temporarily invisible. In the hidden surface area, image information such as the background behind the object is lost, and therefore, a correct motion vector is often not obtained. When a correct motion vector cannot be obtained, the interpolation frame generated by the device that generates the interpolation frame becomes an unnatural image.

本発明が解決しようとする課題は、自然な画像の補間フレームを生成するフレーム補間装置、及びフレーム補間方法を提供することである。   The problem to be solved by the present invention is to provide a frame interpolation apparatus and a frame interpolation method for generating an interpolation frame of a natural image.

上記課題を達成するために、実施形態のフレーム補間装置は、2枚のフレーム間の画像の動きを示す動きベクトルと前記2枚のフレームの間に挿入する補間フレームの時間位置とに基づいて、前記2枚のフレームと前記補間フレームとの間の画像の動きを示す補間動きベクトルを算出し、算出した前記補間動きベクトルを単位領域毎に前記補間フレームに割り当てる動きベクトル補間部と、前記2枚のフレームのうちの順方向側にあるフレームの画像情報と前記補間動きベクトルとに基づき生成される順方向動き補償画像と、前記2枚のフレームのうちの逆方向側にあるフレームの画像情報と前記補間動きベクトルとに基づき生成される逆方向動き補償画像と、を生成する動き補償画像生成部と、前記単位領域毎に1つの若しくは1対の前記補間動きベクトルが割り当てられた通常領域と、前記単位領域毎に複数の若しくは複数対の前記補間動きベクトルが割り当てられた衝突領域及び前記補間動きベクトルが割り当てられなかった穴あき領域の少なくとも一方の領域から構成される非通常領域と、で異なる重みで前記順方向動き補償画像及び前記逆方向動き補償画像の対応する領域同士を平均することにより前記補間フレームを生成する補間フレーム生成部と、を備える。   To achieve the above object, the frame interpolation device according to the embodiment is based on a motion vector indicating the motion of an image between two frames and a time position of an interpolation frame inserted between the two frames. A motion vector interpolator that calculates an interpolated motion vector indicating an image motion between the two frames and the interpolated frame, and assigns the calculated interpolated motion vector to the interpolated frame for each unit region; A forward motion compensated image generated based on image information of a frame on the forward direction side of the frame and the interpolated motion vector, image information of a frame on the reverse side of the two frames, and A backward motion compensated image generated based on the interpolated motion vector, a motion compensated image generating unit for generating, and one or a pair of the unit regions for each unit region At least one of a normal area to which an inter-motion vector is assigned, a collision area to which a plurality or a plurality of pairs of interpolation motion vectors are assigned for each unit area, and a perforated area to which no interpolation motion vector is assigned An interpolation frame generation unit that generates the interpolation frame by averaging the corresponding areas of the forward motion compensation image and the backward motion compensation image with different weights. .

実施形態のフレーム補間装置のブロック図である。It is a block diagram of the frame interpolation apparatus of an embodiment. 実施形態の動き探索処理を示すフローチャートである。It is a flowchart which shows the motion search process of embodiment. 基準フレームが複数のブロックに分割される様子を示す図である。It is a figure which shows a mode that a reference | standard frame is divided | segmented into a some block. 探索対象ブロックの類似部分が参照フレームの中から探索される様子を示す図である。It is a figure which shows a mode that the similar part of a search object block is searched from a reference frame. 入力フレーム(参照フレームと基準フレーム)の一例を示す図である。It is a figure which shows an example of an input frame (a reference frame and a reference | standard frame). 図5に示す入力フレームの部分拡大図である。FIG. 6 is a partially enlarged view of the input frame shown in FIG. 5. 基準フレームに動きベクトルが割り当てられた様子を示す図である。It is a figure which shows a mode that the motion vector was allocated to the reference | standard frame. フレーム補間装置が備える動き補償部の機能を示す機能ブロック図である。It is a functional block diagram which shows the function of the motion compensation part with which a frame interpolation apparatus is provided. 2枚の入力フレームの間に3枚の補間フレームが挿入された様子を示す図である。It is a figure which shows a mode that three interpolation frames were inserted between two input frames. 動きベクトルと補間動きベクトルの関係を示す図である。It is a figure which shows the relationship between a motion vector and an interpolation motion vector. 実施形態の動き補償処理を示すフローチャートである。It is a flowchart which shows the motion compensation process of embodiment. 実施形態の動きベクトル補間処理を示すフローチャートである。It is a flowchart which shows the motion vector interpolation process of embodiment. 基準フレームに割り当てられた動きベクトルに基づいて補間動きベクトルが算出される様子を示す図である。It is a figure which shows a mode that an interpolation motion vector is calculated based on the motion vector allocated to the reference | standard frame. 穴あき領域と衝突領域を示す図である。It is a figure which shows a perforated area | region and a collision area | region. 補間フレームに補間動きベクトルが割り当てられた様子を示す図である。It is a figure which shows a mode that the interpolation motion vector was allocated to the interpolation frame. 実施形態の動き補償画像生成処理を示すフローチャートである。It is a flowchart which shows the motion compensation image generation process of embodiment. 逆方向動き補償画像が生成される様子を示す図である。It is a figure which shows a mode that a reverse direction motion compensation image is produced | generated. 逆方向動き補償画像の一例を示す図である。It is a figure which shows an example of a reverse direction motion compensation image. 順方向動き補償画像が生成される様子を示す図である。It is a figure which shows a mode that a forward direction motion compensation image is produced | generated. 順方向動き補償画像の一例を示す図である。It is a figure which shows an example of a forward direction motion compensation image. 実施形態の補間フレーム生成処理を示すフローチャートである。It is a flowchart which shows the interpolation frame production | generation process of embodiment. 非通常領域の平均に使用する重み係数をシフトさせなかった場合に生成される補間フレームの一例を示す図である。It is a figure which shows an example of the interpolation frame produced | generated when the weighting coefficient used for the average of a non-normal area | region is not shifted. 近傍画素の一例を示す図である。It is a figure which shows an example of a neighboring pixel. 確信度と重み係数との関係を示す図である。It is a figure which shows the relationship between a certainty factor and a weighting coefficient. 非通常領域の平均に使用する重み係数をシフトさせた場合に生成される補間フレームの一例を示す図である。It is a figure which shows an example of the interpolation frame produced | generated when the weighting coefficient used for the average of a non-normal area | region is shifted. 近傍画素の比率と確信度との関係を示す図である。It is a figure which shows the relationship between the ratio of a neighboring pixel, and reliability.

以下、発明を実施するための形態について図面を参照しながら説明する。なお、図中、同一または同等の部分には同一の符号を付す。   Hereinafter, embodiments for carrying out the invention will be described with reference to the drawings. In the drawings, the same or equivalent parts are denoted by the same reference numerals.

図1は、本実施形態のフレーム補間装置100のブロック図である。フレーム補間装置100は、映像を構成する複数のフレーム(以下、「入力フレーム」という。)の間に挿入するフレーム(以下、「補間フレーム」という。)を生成する。フレーム補間装置100は、制御部110と、記憶部120と、入力部130と、動き探索部140と、動き補償部150と、出力部160と、を備える。   FIG. 1 is a block diagram of a frame interpolation device 100 of the present embodiment. The frame interpolation apparatus 100 generates a frame (hereinafter referred to as “interpolation frame”) to be inserted between a plurality of frames (hereinafter referred to as “input frame”) constituting the video. The frame interpolation apparatus 100 includes a control unit 110, a storage unit 120, an input unit 130, a motion search unit 140, a motion compensation unit 150, and an output unit 160.

制御部110は、プロセッサ等の処理装置から構成される。制御部110は不図示のROM(Read Only Memory)やRAM(Random Access Memory)に格納されているプログラムに従って動作することで、フレーム補間装置100の各部を制御する。   The control unit 110 includes a processing device such as a processor. The control unit 110 controls each unit of the frame interpolation device 100 by operating according to a program stored in a ROM (Read Only Memory) or a RAM (Random Access Memory) (not shown).

記憶部120は、DRAM(Dynamic Random Access Memory)、SRAM(Static Random Access Memory)、半導体メモリ、ハードディスク等のデータ読み書き可能な記憶装置から構成される。記憶部120は、フレームメモリ領域121、動きベクトル記憶領域122、補間フレーム記憶領域123等の各種記憶領域を含む。フレームメモリ領域121は、入力部130で取得する映像信号を格納する。また、動きベクトル記憶領域122は、動き探索部140で生成される探索結果を記憶する。また、補間フレーム記憶領域123は、動き補償部150で生成される補間フレームを格納する。   The storage unit 120 includes a storage device capable of reading and writing data such as a dynamic random access memory (DRAM), a static random access memory (SRAM), a semiconductor memory, and a hard disk. The storage unit 120 includes various storage areas such as a frame memory area 121, a motion vector storage area 122, and an interpolation frame storage area 123. The frame memory area 121 stores a video signal acquired by the input unit 130. In addition, the motion vector storage area 122 stores search results generated by the motion search unit 140. The interpolation frame storage area 123 stores the interpolation frame generated by the motion compensation unit 150.

入力部130は、シリアルインタフェース、パラレルインタフェース等の入力インタフェースから構成される。入力部130は、入力された映像信号をフレームメモリ領域121に格納する。映像信号は、例えば0.1秒間隔の入力フレームから構成されているものとする。なお、以下の説明では、理解を容易にするため、入力フレームには、F[0]、F[1]、F[2]、・・・・と、時間順にフレーム番号が付されているものとする。   The input unit 130 includes an input interface such as a serial interface or a parallel interface. The input unit 130 stores the input video signal in the frame memory area 121. It is assumed that the video signal is composed of input frames at intervals of 0.1 seconds, for example. In the following description, in order to facilitate understanding, frame numbers are assigned to input frames in order of time, such as F [0], F [1], F [2],. And

動き探索部140は、入力フレームの動き探索を実行する。探索方法としては、例えばブロックマッチング法や勾配法などが使用可能である。動き探索部140は、動きベクトルや評価値等の探索結果を動きベクトル記憶領域122に格納する。   The motion search unit 140 performs a motion search of the input frame. As a search method, for example, a block matching method or a gradient method can be used. The motion search unit 140 stores search results such as motion vectors and evaluation values in the motion vector storage area 122.

動き補償部150は不図示のROMやRAMに格納されているプログラムに従って動作することで、「動き補償処理」を含む種々の動作を実現する。動き補償処理は、動き探索部140の探索結果に基づいて補間フレームを生成する。動き補償部150は、生成された補間フレームを補間フレーム記憶領域123に格納する。なお、動き補償部150は、その機能を1つのプロセッサで実現してもよいし、複数のプロセッサの協働により実現してもよい。   The motion compensation unit 150 operates in accordance with a program stored in a ROM or RAM (not shown), thereby realizing various operations including “motion compensation processing”. In the motion compensation process, an interpolation frame is generated based on the search result of the motion search unit 140. The motion compensation unit 150 stores the generated interpolation frame in the interpolation frame storage area 123. Note that the motion compensation unit 150 may realize its function with a single processor, or with the cooperation of a plurality of processors.

出力部160は、シリアルインタフェース、パラレルインタフェース等の出力インタフェースから構成される。出力部160は、補間フレーム記憶領域123に格納にされている補間フレームを出力する。   The output unit 160 includes an output interface such as a serial interface or a parallel interface. The output unit 160 outputs the interpolation frame stored in the interpolation frame storage area 123.

次に、フレーム補間装置100の動作について説明する。
フレーム補間装置100の動作は、動き探索部140で実行される「動き探索処理」と、動き補償部150で実行される「動き補償処理」と、に分けられる。最初に、動き探索処理について説明する。
Next, the operation of the frame interpolation apparatus 100 will be described.
The operation of the frame interpolation apparatus 100 is divided into a “motion search process” executed by the motion search unit 140 and a “motion compensation process” executed by the motion compensation unit 150. First, the motion search process will be described.

動き探索部140は、制御部110から動き探索処理の開始が命令されると、処理を開始する。動き探索部140は、2枚の入力フレームの間の画像の動きを探索する。なお、以下の説明では、動き探索処理の開始命令と同時に、制御部110から探索対象となる2枚の入力フレームのフレーム番号が指定されるものとする。このとき、制御部110から指定されるフレーム番号は、F[n−1]及びF[n]であるものとする。   The motion search unit 140 starts processing when the control unit 110 is instructed to start motion search processing. The motion search unit 140 searches for image motion between two input frames. In the following description, it is assumed that the frame numbers of two input frames to be searched are specified from the control unit 110 at the same time as the motion search processing start command. At this time, the frame numbers specified by the control unit 110 are F [n−1] and F [n].

図2は、動き探索部140の動作を示すフローチャートである。動き探索部140は、指定された2枚の入力フレームをフレームメモリ領域121から取得する(S101)。なお、以下の説明では、フレームF[n]を基準フレーム、フレームF[n−1]を参照フレームと呼ぶ。   FIG. 2 is a flowchart showing the operation of the motion search unit 140. The motion search unit 140 acquires two designated input frames from the frame memory area 121 (S101). In the following description, the frame F [n] is referred to as a reference frame, and the frame F [n−1] is referred to as a reference frame.

動き探索部140は、基準フレームF[n]を複数のブロックに分割する(S102)。ブロックサイズは任意である。図3は、基準フレームF[n]を8×8画素のブロックサイズに分割した例である。   The motion search unit 140 divides the reference frame F [n] into a plurality of blocks (S102). The block size is arbitrary. FIG. 3 shows an example in which the reference frame F [n] is divided into block sizes of 8 × 8 pixels.

動き探索部140は、基準フレームF[n]から、未だ探索が実行されていないブロックを1つ、探索対象ブロックとして選択する(S103)。   The motion search unit 140 selects one block that has not been searched yet from the reference frame F [n] as a search target block (S103).

続いて、動き探索部140は、参照フレームF[n−1]の中から探索対象ブロックと類似している部分を探索する(S104)。探索方法は、ブロックマッチング法や勾配法などの既知の探索方法であってもよいし、装置製作者が独自に改良を重ねた探索方法であってもよい。探索終了後、動き探索部140は、探索対象ブロックと類似部分との評価値を取得する。評価値は、探索対象ブロックと類似部分との一致の度合いを示す。なお、動き探索部140の探索範囲は、必ずしも参照フレームF[n−1]の全体でなくてもよい。探索範囲は、参照フレームF[n−1]の一定の範囲、例えば探索対象ブロックに対応する座標を中心とした予め設定された範囲であってもよい。図4は、探索範囲を64×64画素とする例を示している。   Subsequently, the motion search unit 140 searches for a portion similar to the search target block from the reference frame F [n−1] (S104). The search method may be a known search method such as a block matching method or a gradient method, or may be a search method that has been independently improved by a device manufacturer. After the search is completed, the motion search unit 140 acquires evaluation values of the search target block and the similar part. The evaluation value indicates the degree of matching between the search target block and the similar part. Note that the search range of the motion search unit 140 does not necessarily have to be the entire reference frame F [n−1]. The search range may be a certain range of the reference frame F [n−1], for example, a preset range centered on coordinates corresponding to the search target block. FIG. 4 shows an example in which the search range is 64 × 64 pixels.

ここで、具体例を使ってステップS104の動作を説明する。図5は、背景に波線が描かれたx×y画素の画像である。図5には、背景の波線に加えて、波線の手前で図面右から左に動く“T”の字が描かれている。この“T”の字は0.1秒間あたり8画素の速度で動いている。図6は、S104の動作を視認容易にするため、図5のブロックa及びbで示す破線部分をそれぞれ拡大した図である。中央の黒く塗り潰された部分が“T”の字の縦棒部分である。この例の場合、縦棒の幅は10画素である。   Here, the operation of step S104 will be described using a specific example. FIG. 5 is an image of x × y pixels with wavy lines drawn in the background. In FIG. 5, in addition to the wavy lines in the background, a letter “T” that moves from the right to the left in the drawing in front of the wavy lines is drawn. The letter “T” moves at a rate of 8 pixels per 0.1 second. FIG. 6 is an enlarged view of broken line portions indicated by blocks a and b in FIG. 5 in order to make the operation of S104 easy to see. The black portion at the center is the vertical bar portion of the letter “T”. In this example, the width of the vertical bar is 10 pixels.

まず、図6に示す基準フレームF[n]のブロックaに着目する。ブロックaには、背景となった波線の一部が描かれている。ブロックaの画像は、参照フレームF[n−1]中の同一座標の画像、すなわちブロックeの画像と完全に一致している。そのため、動き探索部140は、ブロックaの類似部分をブロックeの画像と判別する。   First, attention is focused on the block a of the reference frame F [n] shown in FIG. Part of the wavy line that is the background is drawn in the block a. The image of the block a completely matches the image of the same coordinate in the reference frame F [n−1], that is, the image of the block e. Therefore, the motion search unit 140 determines a similar part of the block a as an image of the block e.

次に、基準フレームF[n]のブロックbに着目する。ブロックbには、右から左へ移動する“T”の字の一部が描かれている。ブロックbの画像は、X軸のプラス方向に8画素ほど移動した部分(ブロックf)にある参照フレームF[n−1]の画像と完全に一致している。そのため、動き探索部140は、ブロックbの類似部分をブロックfの画像と判別する。   Next, attention is focused on block b of reference frame F [n]. A part of the letter “T” moving from right to left is drawn in the block b. The image of the block b completely coincides with the image of the reference frame F [n−1] in the portion (block f) moved about 8 pixels in the plus direction of the X axis. Therefore, the motion search unit 140 determines a similar part of the block b as an image of the block f.

続いて、基準フレームF[n]のブロックcに着目する。ブロックcには、一部が“T”の字で隠された背景が描かれている。ブロックcの背景部分は、参照フレームF[n−1]では“T”の字の陰面となっている。そのため、ブロックcの背景部分の画像情報は、参照フレームF[n−1]中には存在しない。しかしながら、ブロックcは部分的に、参照フレームF[n−1]のブロックgの画像と一致している。そのため、動き探索部140は、ブロックcの類似部分をブロックgの画像と判別する。   Subsequently, attention is focused on the block c of the reference frame F [n]. In the block c, a background partially hidden by a letter “T” is drawn. The background portion of the block c is the hidden surface of the letter “T” in the reference frame F [n−1]. Therefore, the image information of the background portion of the block c does not exist in the reference frame F [n−1]. However, the block c partially matches the image of the block g of the reference frame F [n−1]. Therefore, the motion search unit 140 determines a similar part of the block c as an image of the block g.

最後に、基準フレームF[n]のブロックdに着目する。ブロックdには、背景となった波線の一部が描かれている。ブロックdと同一座標にある参照フレームF[n−1]のブロックgの画像は、背景の一部が“T”の字で隠されており、ブロックdの画像とは完全には一致していない。しかしながら、ブロックdとブロックgの画像は、画像の大半(“T”の字以外の背景部分)が一致している。そのため、動き探索部140は、ブロックdの類似部分をブロックgの画像と判別する。図6の例では、背景が単純な波線のみであるが、より複雑な絵柄の背景の場合には、ブロックdとブロックgとの関係に関する評価値は、ブロックcとブロックgとの関係のように、背景画像が陰面となることにより画像の大部分が一致しない場合と比べれば高い。   Finally, attention is focused on the block d of the reference frame F [n]. Part of the wavy line that is the background is drawn in block d. In the image of the block g of the reference frame F [n−1] at the same coordinates as the block d, a part of the background is hidden by the letter “T”, and the image of the block d completely matches. Absent. However, most of the images of the block d and the block g are the same (background portion other than the letter “T”). Therefore, the motion search unit 140 determines a similar part of the block d as an image of the block g. In the example of FIG. 6, the background is only a simple wavy line, but in the case of a background with a more complicated pattern, the evaluation value regarding the relationship between the block d and the block g is like the relationship between the block c and the block g. In addition, it is higher than the case where most of the images do not match due to the hidden background image.

なお、図6の例では、参照フレームF[n−1]の類似部分の画像境界(ブロックe〜ブロックgの画像境界)が基準フレームF[n]のブロック境界と一致しているが、類似部分の画像境界は必ずしもブロック境界と一致していなくてもよい。   In the example of FIG. 6, the image boundary of the similar portion of the reference frame F [n−1] (the image boundary of the block e to the block g) matches the block boundary of the reference frame F [n]. The image boundary of the part does not necessarily coincide with the block boundary.

動き探索部140は、S104の探索結果に基づいて探索対象ブロックの動きベクトルを生成する(S105)。図7は、図6の画像を一次元形式で表現したものである。具体的には、図7は、図6に示す基準フレームF[n]及び参照フレームF[n−1]を、それぞれ、A−A’線、B−B’線で切り取った図である。図面の太線の部分は“T”字及び波線部分である。図7に示すように、ブロックaについてはブロックeに向かう動きベクトルが生成され、ブロックbについては、ブロックfに向かう動きベクトルが生成される。また、ブロックc,dについてはブロックgに向かう動きベクトルが生成される。   The motion search unit 140 generates a motion vector of the search target block based on the search result of S104 (S105). FIG. 7 represents the image of FIG. 6 in a one-dimensional format. Specifically, FIG. 7 is a diagram in which the base frame F [n] and the reference frame F [n−1] illustrated in FIG. 6 are cut along the A-A ′ line and the B-B ′ line, respectively. The thick line portion in the drawing is a “T” character and a wavy line portion. As shown in FIG. 7, a motion vector toward the block e is generated for the block a, and a motion vector toward the block f is generated for the block b. For blocks c and d, a motion vector directed to block g is generated.

なお、動きベクトルの表現形式は特定の表現形式に限定されず、さまざまな表現形式が使用可能である。例えば、動きベクトルは座標形式で表現されてもよい。図7の例であれば、ブロックa,dの類似部分は参照フレームF[n−1]中の同じ座標位置にあるので、動きベクトルは(0,0)と表現される。また、ブロックb,cの類似部分はX軸のプラス方向へ8画素ほど移動した位置にあるので、動きベクトルは(+8,0)と表現される。動き探索部140は、生成した動きベクトルをS104で算出した評価値ととともにRAMに保存する。   The motion vector expression format is not limited to a specific expression format, and various expression formats can be used. For example, the motion vector may be expressed in a coordinate format. In the example of FIG. 7, since the similar parts of the blocks a and d are at the same coordinate position in the reference frame F [n−1], the motion vector is expressed as (0, 0). Further, since the similar part of the blocks b and c is at a position moved by about 8 pixels in the positive direction of the X axis, the motion vector is expressed as (+8, 0). The motion search unit 140 stores the generated motion vector in the RAM together with the evaluation value calculated in S104.

続いて、動き探索部140は、基準フレームF[n]の全てのブロックの探索が完了したか判別する(S106)。全てのブロックの探索が完了してない場合(S106:No)、動き探索部140は、全てのブロックの探索が完了するまでS103からS106までの処理を繰り返す。全てのブロックの探索が完了した場合(S106:Yes)、動き探索部140は、S107に進む。   Subsequently, the motion search unit 140 determines whether or not the search for all the blocks of the reference frame F [n] has been completed (S106). When the search for all the blocks is not completed (S106: No), the motion search unit 140 repeats the processes from S103 to S106 until the search for all the blocks is completed. When the search for all the blocks is completed (S106: Yes), the motion search unit 140 proceeds to S107.

動き探索部140は、全てのブロックの動きベクトルを基準フレームF[n]のフレーム番号と評価値を関連付けて動きベクトル記憶領域122に保存し(S107)、処理を終了する。   The motion search unit 140 stores the motion vectors of all the blocks in the motion vector storage area 122 in association with the frame number of the reference frame F [n] and the evaluation value (S107), and ends the process.

次に、動き補償部150が実行する動き補償処理について説明する。図8は、動き補償部150のブロック図である。動き補償部150は、動き補償処理を実行することで、動きベクトル補間部151、動き補償画像生成部152、補間フレーム生成部153として機能する。なお、以下の説明では、理解を容易にするため、フレーム補間装置100が補間フレームを挿入する映像は、例えばスロー再生により、フレーム間隔が0.1秒間隔となっているものとする。また、フレーム補間装置100は、例えば図9に示すように、2枚の入力フレームの間に、等間隔に(すなわち0.025秒間隔に)、3枚の補間フレームを挿入するものとする。   Next, the motion compensation process executed by the motion compensation unit 150 will be described. FIG. 8 is a block diagram of the motion compensation unit 150. The motion compensation unit 150 functions as a motion vector interpolation unit 151, a motion compensated image generation unit 152, and an interpolation frame generation unit 153 by executing motion compensation processing. In the following description, in order to facilitate understanding, it is assumed that the frame interval of the video into which the frame interpolation device 100 inserts the interpolation frame is 0.1 seconds by slow reproduction, for example. Further, for example, as shown in FIG. 9, the frame interpolation apparatus 100 inserts three interpolation frames at equal intervals (that is, at intervals of 0.025 seconds) between two input frames.

動き補償部150は、制御部110から動き補償処理の開始が命令されると、処理を開始する。動き補償部150は、動き探索処理で生成された動きベクトルに基づいて、2枚の入力フレームの間に挿入する補間フレームを生成する。なお、以下の説明では、動き探索処理の開始命令と同時に、制御部110から、補間フレームの挿入対象となる2枚の入力フレームF[n]及びF[n−1]と、挿入する補間フレームI[n][m]と、が指定されるものとする。mは、1以上の整数である。図9の場合、m=1〜3である。さらに、制御部110から補間フレームI[n][m]の挿入位置が指定されるものとする。挿入位置は、例えば、2枚の入力フレームに対する相対的な時間位置Tとして指定される。図91は、動きベクトルと補間動きベクトルの関係を示す図である。時間の進行方向を「順方向」、その反対方向を「逆方向」とする。以下では、補間フレームI[n][1]を例に説明する。補間フレームI[n][1]の挿入位置は、図10に示すように、入力フレームF[n−1]より順方向に0.025秒進んだ位置であるものとする。この場合、時間位置Tは0.25(=0.025秒/0.1秒)となる。   The motion compensation unit 150 starts processing when the control unit 110 instructs to start motion compensation processing. The motion compensation unit 150 generates an interpolation frame to be inserted between the two input frames based on the motion vector generated by the motion search process. In the following description, two input frames F [n] and F [n−1] to be inserted into the interpolation frame and the interpolation frame to be inserted from the control unit 110 simultaneously with the motion search process start command. Let I [n] [m] be specified. m is an integer of 1 or more. In the case of FIG. 9, m = 1-3. Furthermore, it is assumed that the insertion position of the interpolation frame I [n] [m] is designated from the control unit 110. The insertion position is specified as a relative time position T with respect to two input frames, for example. FIG. 91 is a diagram illustrating a relationship between a motion vector and an interpolation motion vector. The traveling direction of time is “forward direction”, and the opposite direction is “reverse direction”. Hereinafter, the interpolation frame I [n] [1] will be described as an example. As shown in FIG. 10, the insertion position of the interpolation frame I [n] [1] is assumed to be a position advanced by 0.025 seconds in the forward direction from the input frame F [n−1]. In this case, the time position T is 0.25 (= 0.025 seconds / 0.1 seconds).

図11は、動き補償部150の動作を説明するフローチャートである。動き補償部150は、最初に、動きベクトル補間処理を実行する(S210)。動きベクトル補間処理は、動きベクトル補間部151で実行される。動きベクトル補間部151は、動き探索処理で生成された動きベクトルに基づいて、補間フレームI[n][1]に補間動きベクトルを割り当てる。補間動きベクトルは2枚の入力フレームF[n],F[n−1]と補間フレームI[n][1]との間の画像の動きを示す動きベクトルである。   FIG. 11 is a flowchart for explaining the operation of the motion compensation unit 150. First, the motion compensation unit 150 performs a motion vector interpolation process (S210). The motion vector interpolation process is executed by the motion vector interpolation unit 151. The motion vector interpolation unit 151 assigns an interpolation motion vector to the interpolation frame I [n] [1] based on the motion vector generated by the motion search process. The interpolated motion vector is a motion vector indicating the motion of the image between the two input frames F [n], F [n−1] and the interpolated frame I [n] [1].

図12は、動きベクトル補間部151の動作を説明するフローチャートである。動きベクトル補間部151は、動きベクトル記憶領域122から、入力フレームF[n]とF[n−1]との間の動きベクトルを取得する。そして、取得した動きベクトルと、補間フレームI[n][1]の時間位置Tと、に基づいて、ブロック毎に、補間動きベクトルを算出する(S211)。補間動きベクトルは、逆方向動きベクトルMVa及び順方向動きベクトルMVbから構成される。逆方向動きベクトルMVaは、入力フレームF[n−1]と補間フレームI[n][1]との間の動きベクトルである。また、順方向動きベクトルMVbは、入力フレームF[n]と補間フレームI[n][1]との間の動きベクトルである。   FIG. 12 is a flowchart for explaining the operation of the motion vector interpolation unit 151. The motion vector interpolation unit 151 acquires a motion vector between the input frames F [n] and F [n−1] from the motion vector storage area 122. Then, an interpolation motion vector is calculated for each block based on the acquired motion vector and the time position T of the interpolation frame I [n] [1] (S211). The interpolated motion vector is composed of a backward motion vector MVa and a forward motion vector MVb. The backward motion vector MVa is a motion vector between the input frame F [n-1] and the interpolation frame I [n] [1]. The forward motion vector MVb is a motion vector between the input frame F [n] and the interpolation frame I [n] [1].

具体的には、動きベクトル補間部151は、下記式(1)及び式(2)に基づいて逆方向動きベクトルMVa及び順方向動きベクトルMVbを算出する。なお、下記の式において、MVは入力フレームF[n]とF[n−1]との間の動きベクトルであり、Tは補間フレームI[n][1]の2枚の入力フレームに対する相対的な時間位置である。
MVa = MV×T ・・・・・・・・(1)
MVb = −MV×(1−T) ・・・(2)
Specifically, the motion vector interpolation unit 151 calculates a backward motion vector MVa and a forward motion vector MVb based on the following equations (1) and (2). In the following equation, MV is a motion vector between the input frames F [n] and F [n−1], and T is a relative value for the two input frames of the interpolation frame I [n] [1]. Time position.
MVa = MV × T (1)
MVb = −MV × (1-T) (2)

ここで、具体例を使って逆方向動きベクトルMVaと順方向動きベクトルMVbとを説明する。図13は、入力フレームF[n]とF[n−1]との間の動きベクトルに基づいて補間動きベクトルが算出される様子を示す図である。図7に示すように、ブロックbの動きベクトルMVが(+8,0)である場合、動きベクトル補間部151は、式(1)に基づいて、逆方向動きベクトルMVa(+2,0)を算出する。また、動きベクトル補間部151は、式(2)に基づいて順方向動きベクトルMVb(−6,0)を算出する。また、ブロックcの動きベクトルMVは(+8,0)であるので、動きベクトル補間部151は、逆方向動きベクトルMVa(+2,0)、順方向動きベクトルMVb(−6,0)を算出する。ブロックa,dの動きベクトルMVは両方とも(0,0)であるので、動きベクトル補間部151は、逆方向動きベクトルMVaと順方向動きベクトルMVbとを共に(0,0)と算出する。   Here, the backward motion vector MVa and the forward motion vector MVb will be described using a specific example. FIG. 13 is a diagram illustrating how an interpolation motion vector is calculated based on a motion vector between input frames F [n] and F [n−1]. As shown in FIG. 7, when the motion vector MV of the block b is (+8, 0), the motion vector interpolation unit 151 calculates the backward motion vector MVa (+2, 0) based on the equation (1). To do. In addition, the motion vector interpolation unit 151 calculates a forward motion vector MVb (−6, 0) based on Expression (2). Since the motion vector MV of the block c is (+8, 0), the motion vector interpolation unit 151 calculates the backward motion vector MVa (+2, 0) and the forward motion vector MVb (−6, 0). . Since the motion vectors MV of the blocks a and d are both (0, 0), the motion vector interpolation unit 151 calculates both the backward motion vector MVa and the forward motion vector MVb as (0, 0).

動きベクトル補間部151は、S211で算出した補間動きベクトルを補間フレームI[n][1]に割り当てる(S212)。このとき、動きベクトル補間部151は、単位領域毎に、補間フレームI[n][1]に補間動きベクトルを割り当てる。単位領域は複数画素から構成されてもよいし、1画素から構成されていてもよい。以下の説明では、単位領域は1画素であるものとして説明する。   The motion vector interpolation unit 151 assigns the interpolation motion vector calculated in S211 to the interpolation frame I [n] [1] (S212). At this time, the motion vector interpolation unit 151 assigns an interpolation motion vector to the interpolation frame I [n] [1] for each unit region. The unit region may be composed of a plurality of pixels or may be composed of one pixel. In the following description, the unit area is assumed to be one pixel.

図14は、補間動きベクトルが画素毎に補間フレームI[n][1]に割り当てられた様子を示す図である。補間フレームI[n][1]には、複数対の補間動きベクトルが割り当てられている画素(Q領域にある画素)と、1つも補間動きベクトルが割り当てられていない画素(P領域にある画素)とを含む。以下の説明では、複数対の補間動きベクトルが割り当てられている画素を「衝突画素」、1つも補間動きベクトルが割り当てられていない画素を「穴あき画素」と呼ぶ。また、衝突画素から構成される領域を「衝突領域」、穴あき画素から構成される領域を「穴あき領域」と呼ぶ。さらに、衝突領域と穴あき領域を総称して「非通常領域」と呼ぶ。非通常領域は、衝突領域及び穴あき領域の双方の領域から構成されていてもよいし、衝突領域及び穴あき領域のいずれか一方の領域から構成されていてもよい。   FIG. 14 is a diagram illustrating a state in which the interpolation motion vector is assigned to the interpolation frame I [n] [1] for each pixel. In the interpolation frame I [n] [1], a pixel to which a plurality of pairs of interpolation motion vectors are assigned (a pixel in the Q region) and a pixel to which no interpolation motion vector is assigned (a pixel in the P region) ). In the following description, a pixel to which a plurality of pairs of interpolation motion vectors are assigned is referred to as a “collision pixel”, and a pixel to which no interpolation motion vector is assigned is referred to as a “hole pixel”. An area composed of collision pixels is called a “collision area”, and an area composed of perforated pixels is called a “perforated area”. Furthermore, the collision area and the perforated area are collectively referred to as “non-normal area”. The non-normal area may be composed of both the collision area and the perforated area, or may be composed of either one of the collision area or the perforated area.

動きベクトル補間部151は、各衝突画素について、割り当てられた複数対の補間動きベクトルの中から、いずれか1対の補間動きベクトルを選択する(S213)。このとき、動きベクトル補間部151は、動き探索部140が算出した評価値に基づいて補間動きベクトルを選択する。具体的には、動きベクトル補間部151は、評価値が最も大きい動きベクトルMVに基づいて生成された補間動きベクトルを衝突画素の補間動きベクトルとして選択する。   The motion vector interpolation unit 151 selects one pair of interpolated motion vectors from among a plurality of pairs of interpolated motion vectors assigned to each collision pixel (S213). At this time, the motion vector interpolation unit 151 selects an interpolation motion vector based on the evaluation value calculated by the motion search unit 140. Specifically, the motion vector interpolation unit 151 selects an interpolation motion vector generated based on the motion vector MV having the largest evaluation value as the interpolation motion vector of the collision pixel.

図14の場合、衝突領域Qの画素それぞれに、「ブロックcとブロックgに向かう補間動きベクトル」及び「ブロックdとブロックgに向かう補間動きベクトル」の補間動きベクトルが割り当てられている。図6に示した例では、ブロックdからブロックgに向かう動きベクトルの評価値は、ブロックcからブロックgに向かう動きベクトルの評価値より大きい。そのため、動きベクトル補間部151は、「ブロックdとブロックgに向かう補間動きベクトル」を衝突領域Qの画素の補間動きベクトルとして選択する。   In the case of FIG. 14, interpolation motion vectors of “interpolation motion vector toward block c and block g” and “interpolation motion vector toward block d and block g” are assigned to each pixel in the collision region Q. In the example shown in FIG. 6, the evaluation value of the motion vector from the block d to the block g is larger than the evaluation value of the motion vector from the block c to the block g. Therefore, the motion vector interpolation unit 151 selects “interpolated motion vectors toward the blocks d and g” as the interpolation motion vectors of the pixels in the collision area Q.

動きベクトル補間部151は、穴あき画素それぞれに補間動きベクトルを1対ずつ割り当てる(S214)。このとき、動きベクトル補間部151は、穴あき画素の周辺の、予め設定された範囲にある複数の画素に最も多く割り当てられている補間動きベクトルをそのまま穴あき画素の補間動きベクトルとする。例えば、動きベクトル補間部151は、穴あき画素を中心とした63×63画素の範囲にある複数の画素それぞれに割り当てられている補間動きベクトルを取得する。このとき、その範囲内の画素に補間動きベクトルが割り当たっていない場合にはその画素を無視し、補間動きベクトルの割り当たっている画素のみから補間動きベクトルを取得する。そして、動きベクトル補間部151は、取得した複数対の補間動きベクトルの中から、最も多く同じ値を持つ補間動きベクトルを抽出し、抽出した補間動きベクトルを穴あき画素の補間動きベクトルとする。   The motion vector interpolation unit 151 assigns a pair of interpolation motion vectors to each holed pixel (S214). At this time, the motion vector interpolation unit 151 directly uses the interpolated motion vector assigned to the plurality of pixels in the preset range around the perforated pixel as an interpolated motion vector of the perforated pixel. For example, the motion vector interpolation unit 151 acquires an interpolation motion vector assigned to each of a plurality of pixels in a range of 63 × 63 pixels centered on a perforated pixel. At this time, when an interpolation motion vector is not assigned to a pixel within the range, the pixel is ignored and an interpolation motion vector is acquired only from the pixel to which the interpolation motion vector is assigned. Then, the motion vector interpolation unit 151 extracts an interpolation motion vector having the same value from the plurality of pairs of acquired interpolation motion vectors, and sets the extracted interpolation motion vector as an interpolation motion vector of a perforated pixel.

図14の場合、穴あき領域Pの画素には補間動きベクトルが1つも割り当てられていない。一般的に、映像は背景部分の画像が最も多くなる。そのため、図14の場合も、穴あき領域Pの画素周辺には、背景の画素が最も多くなると考えられる。この場合、背景部分は動いていないので、穴あき領域Pの画素周辺には、動きがないことを示す動きベクトル(0,0)の画素が最も多くなる。動きベクトル(0,0)からは、補間動きベクトルとして、順方向補間動きベクトルMVb(0,0)、逆方向補間動きベクトルMVa(0,0)が生成される。動きベクトル補間部151は、穴あき領域Pの画素それぞれに、順方向補間動きベクトルMVb(0,0)、逆方向補間動きベクトルMVa(0,0)を割り当てる。図15は、動きベクトル補間処理により、補間フレームに補間動きベクトルが割り当てられた様子を示す図である。   In the case of FIG. 14, no interpolated motion vector is assigned to the pixels in the perforated region P. In general, the image has the largest number of background images. Therefore, also in the case of FIG. 14, it is considered that the number of background pixels is the largest around the pixels in the perforated region P. In this case, since the background portion is not moving, there are the largest number of pixels of the motion vector (0, 0) indicating no motion around the pixels in the perforated region P. From the motion vector (0, 0), a forward interpolation motion vector MVb (0, 0) and a backward interpolation motion vector MVa (0, 0) are generated as interpolation motion vectors. The motion vector interpolation unit 151 assigns the forward interpolation motion vector MVb (0, 0) and the backward interpolation motion vector MVa (0, 0) to each pixel in the perforated region P. FIG. 15 is a diagram illustrating a state in which an interpolation motion vector is assigned to an interpolation frame by the motion vector interpolation process.

S210の補間動きベクトルの補間処理が完了したら、動き補償部150は、動き補償画像生成処理を実行する(S220)。動きベクトル補間処理は、動き補償画像生成部152で実行される。動き補償画像生成部152は、動きベクトル補間処理で生成された補間動きベクトルに基づいて、動き補償画像を生成する。「動き補償画像」は補間フレーム生成処理で使用する画像であり、順方向動き補償画像と逆方向動き補償画像とから構成される。   When the interpolation processing of the interpolation motion vector in S210 is completed, the motion compensation unit 150 executes a motion compensated image generation process (S220). The motion vector interpolation process is executed by the motion compensated image generation unit 152. The motion compensated image generation unit 152 generates a motion compensated image based on the interpolated motion vector generated by the motion vector interpolation process. The “motion compensated image” is an image used in the interpolation frame generation process, and includes a forward direction motion compensated image and a backward direction motion compensated image.

図16は、動き補償画像生成部152の動作を説明するフローチャートである。動き補償画像生成部152は、補間フレームI[n][1]から見て逆方向側にある入力フレームF[n−1]の画像情報と逆方向補間動きベクトルMVaとに基づいて、逆方向動き補償画像を生成する(S221)。動き補償画像生成部152は、逆方向補間動きベクトルMVaの矢印の先にある画素を矢印の元の座標に貼り付けることにより逆方向動き補償画像を生成する。図17に、逆方向動き補償画像が生成される様子を示す。この場合、生成される逆方向動き補償画像は例えば図18に示されるような画像となる。10画素であった“T”の字の縦棒の幅が衝突領域Qに向かって広がっていることが分かる。   FIG. 16 is a flowchart for explaining the operation of the motion compensated image generation unit 152. The motion compensated image generation unit 152 performs the reverse direction based on the image information of the input frame F [n−1] on the reverse direction side when viewed from the interpolation frame I [n] [1] and the reverse interpolation motion vector MVa. A motion compensated image is generated (S221). The motion compensated image generation unit 152 generates a backward motion compensated image by pasting the pixel ahead of the arrow of the backward interpolation motion vector MVa to the original coordinates of the arrow. FIG. 17 shows how the backward motion compensation image is generated. In this case, the generated backward motion compensated image is, for example, an image as shown in FIG. It can be seen that the width of the vertical bar of “T”, which was 10 pixels, widens toward the collision area Q.

動き補償画像生成部152は、補間フレームI[n][1]から見て順方向側にある入力フレームF[n]の画像情報と順方向補間動きベクトルMVbとに基づいて、順方向動き補償画像を生成する(S222)。動き補償画像生成部152は、順方向補間動きベクトルMVbの矢印の先にある画素を矢印の元の座標に貼り付けることにより順方向動き補償画像を生成する。図19に、順方向動き補償画像が生成される様子を示す。この場合、生成される順方向動き補償画像は例えば図20に示されるような画像となる。10画素であった“T”の字の縦棒の幅が穴あき領域Pに向かって大きく広がっていることが分かる。   The motion compensation image generation unit 152 performs forward motion compensation based on the image information of the input frame F [n] on the forward direction side when viewed from the interpolation frame I [n] [1] and the forward interpolation motion vector MVb. An image is generated (S222). The motion compensated image generation unit 152 generates a forward motion compensated image by pasting the pixel ahead of the arrow of the forward interpolation motion vector MVb to the original coordinates of the arrow. FIG. 19 shows how a forward motion compensation image is generated. In this case, the generated forward motion compensated image is, for example, an image as shown in FIG. It can be seen that the width of the vertical bar of “T”, which was 10 pixels, widens toward the perforated region P.

S220の動き補償画像の生成が完了したら、動き補償部150は、補間フレーム生成処理を実行する(S230)。補間フレーム生成処理は、図8に示す補間フレーム生成部153で実行される。補間フレーム生成部153は、動き補償画像生成処理で生成された2枚の動き補償画像を平均することにより、2枚の入力フレームの間に挿入する補間フレームI[n][1]を生成する。   When the generation of the motion compensated image in S220 is completed, the motion compensation unit 150 executes an interpolation frame generation process (S230). The interpolation frame generation process is executed by the interpolation frame generation unit 153 shown in FIG. The interpolation frame generation unit 153 generates an interpolation frame I [n] [1] to be inserted between the two input frames by averaging the two motion compensation images generated by the motion compensation image generation processing. .

図21は、補間フレーム生成部153の動作を説明するフローチャートである。補間フレーム生成部153は、最初に、基準重み係数Wrを算出する(S231)。基準重み係数Wrは、2枚の動き補償画像内の通常領域を平均する際に使用する重み係数である。「通常領域」は、補間動きベクトルが1対のみ割り当てられた通常画素から構成される。基準重み係数Wrは、0〜1間の数値である。逆方向動き補償画像の重みを強める場合は、基準重み係数Wrは0に近い値となり、順方向動き補償画像の重みを強める場合は、基準重み係数Wrは1に近い値となる。補間フレーム生成部153は、補間フレームI[n][1]の挿入位置に基づき基準重み係数Wrを算出する。具体的には、補間フレーム生成部153は、補間フレームI[n][1]の時間位置Tに基づき基準重み係数Wrを算出する。本実施形態の場合、時間位置Tは0〜1間の数値となっているので、補間フレーム生成部153は、時間位置Tをそのまま基準重み係数Wrとして算出する。   FIG. 21 is a flowchart for explaining the operation of the interpolation frame generation unit 153. The interpolation frame generation unit 153 first calculates a reference weight coefficient Wr (S231). The reference weighting factor Wr is a weighting factor used when averaging the normal areas in the two motion compensation images. The “normal area” is composed of normal pixels to which only one pair of interpolation motion vectors is assigned. The reference weight coefficient Wr is a numerical value between 0 and 1. When the weight of the backward motion compensated image is increased, the reference weight coefficient Wr is a value close to 0, and when the weight of the forward motion compensated image is increased, the reference weight coefficient Wr is a value close to 1. The interpolation frame generation unit 153 calculates the reference weight coefficient Wr based on the insertion position of the interpolation frame I [n] [1]. Specifically, the interpolation frame generation unit 153 calculates the reference weight coefficient Wr based on the time position T of the interpolation frame I [n] [1]. In the present embodiment, since the time position T is a numerical value between 0 and 1, the interpolation frame generation unit 153 directly calculates the time position T as the reference weight coefficient Wr.

図22は、図18に示す逆方向動き補償画像と図20に示す順方向動き補償画像とを、基準重み係数Wrを使って平均した画像である。全ての領域を基準重み係数Wrを使って平均した場合、本来あるはずのない残像が非通常領域(穴あき領域Pと衝突領域Q)に色濃く現れることがある。そこで、S232〜S237において、補間フレーム生成部153は通常領域と非通常領域とで異なる重み係数を使って画像を平均する。   FIG. 22 is an image obtained by averaging the backward motion compensated image shown in FIG. 18 and the forward motion compensated image shown in FIG. 20 using the reference weight coefficient Wr. When all regions are averaged using the reference weighting coefficient Wr, an afterimage that should not exist may appear darkly in the non-normal region (the perforated region P and the collision region Q). Therefore, in S232 to S237, the interpolation frame generation unit 153 averages the images using different weighting factors in the normal region and the non-normal region.

まず、補間フレーム生成部153は、補間フレームI[n][1]を構成する複数の画素の中から、未だ画素値が割り当てられていない画素を1つ選択する(S232)。   First, the interpolation frame generation unit 153 selects one pixel that has not yet been assigned a pixel value from among a plurality of pixels constituting the interpolation frame I [n] [1] (S232).

補間フレーム生成部153は、S232で選択された画素(以下、「選択画素」という。)が通常画素か否か判別する(S233)。選択画素が通常画素の場合(S233:Yes)、補間フレーム生成部153は、S236に進む。選択された画素が通常画素でない場合(S233:No)、すなわち、選択画素が衝突画素若しくは穴あき画素である場合、補間フレーム生成部153は、S234に進む。   The interpolation frame generation unit 153 determines whether or not the pixel selected in S232 (hereinafter referred to as “selected pixel”) is a normal pixel (S233). When the selected pixel is a normal pixel (S233: Yes), the interpolation frame generation unit 153 proceeds to S236. If the selected pixel is not a normal pixel (S233: No), that is, if the selected pixel is a collision pixel or a holed pixel, the interpolation frame generation unit 153 proceeds to S234.

選択画素が通常画素でない場合(S233:No)、補間フレーム生成部153は、選択画素が陰面領域である可能性の高さを示す確信度を算出する(S234)。陰面領域は、オブジェクトとその背後にある背景若しくはオブジェクトとが重なって、一時的にオブジェクトの背後にある背景若しくはオブジェクトが見えなくなっている。図6の例であれば、基準フレームF[n]と参照フレームF[n−1]の“T”字部分が陰面領域である。   When the selected pixel is not a normal pixel (S233: No), the interpolation frame generation unit 153 calculates a certainty factor indicating a high possibility that the selected pixel is a hidden surface area (S234). In the hidden surface area, the object and the background or object behind the object overlap, and the background or object behind the object is temporarily invisible. In the example of FIG. 6, the “T” character portion of the base frame F [n] and the reference frame F [n−1] is the hidden surface area.

具体的には、補間フレーム生成部153は、下記式(3)及び式(4)に基づき確信度Ap若しくは確信度Aqを算出する。確信度Apは選択画素が穴あき画素の場合の確信度であり、確信度Aqは選択画素が衝突画素の場合の確信度である。
Ap = Rp ・・・・・・・・(3)
Aq = Rq ・・・・・・・・(4)
Specifically, the interpolation frame generation unit 153 calculates the certainty factor Ap or the certainty factor Aq based on the following formulas (3) and (4). The certainty factor Ap is the certainty factor when the selected pixel is a perforated pixel, and the certainty factor Aq is the certainty factor when the selected pixel is a collision pixel.
Ap = Rp (3)
Aq = Rq (4)

このとき、Rpは選択画素の近傍画素に占める穴あき画素の比率であり、Rqは選択画素の近傍画素に占める衝突画素の比率である。近傍画素は、選択画素を基点にして決定される予め設定された範囲に位置する。図23は、近傍画素の一例を示す図である。近傍画素は、選択画素を中心とした、例えば5×5画素の正方形の範囲にある24画素である。図23の場合、選択画素1周囲の24画素のうち21画素が穴あき画素であるので、Rpは0.875(=21/24)と算出される。また、選択画素2周囲の24画素のうち18画素が衝突画素であるので、Rqは0.75(=18/24)と算出される。   At this time, Rp is the ratio of perforated pixels in the neighboring pixels of the selected pixel, and Rq is the ratio of collision pixels in the neighboring pixels of the selected pixel. The neighboring pixels are located in a preset range that is determined based on the selected pixel. FIG. 23 is a diagram illustrating an example of neighboring pixels. The neighboring pixels are 24 pixels in the square range of 5 × 5 pixels, for example, with the selected pixel as the center. In the case of FIG. 23, 21 pixels out of 24 pixels around the selected pixel 1 are perforated pixels, so Rp is calculated as 0.875 (= 21/24). In addition, since 18 of the 24 pixels around the selected pixel 2 are collision pixels, Rq is calculated as 0.75 (= 18/24).

続いて、補間フレーム生成部153は、算出した確信度Ap若しくは確信度Aqに基づいて補正重み係数を算出する(S235)。補正重み係数は、2枚の動き補償画像の内の非通常領域を平均する際に使用する。補間フレーム生成部153は、基準重み係数Wrに基づいて補正重み係数を算出する。具体的には、補間フレーム生成部153は、基準重み係数Wrの値を基点にして順方向動き補償画像及び逆方向動き補償画像のいずれか一方の側に重みをシフトすることにより補正重み係数を算出する。   Subsequently, the interpolation frame generation unit 153 calculates a correction weighting coefficient based on the calculated certainty factor Ap or certainty factor Aq (S235). The correction weighting coefficient is used when averaging the non-normal regions in the two motion compensation images. The interpolation frame generation unit 153 calculates a correction weighting factor based on the reference weighting factor Wr. Specifically, the interpolated frame generation unit 153 shifts the weight to either one of the forward motion compensation image and the backward motion compensation image based on the value of the reference weight coefficient Wr, thereby obtaining the correction weight coefficient. calculate.

一般的に、穴あき領域Pは、背景が動く物体により隠されていく領域と考えられる。そのため、穴あき領域Pの画像を生成する場合は、逆方向側の画像F[n−1]に基づいて画像を生成した方がより自然な画像が生成できると考えられる。一方で、衝突領域Qは、動く物体により隠されていた背景が現れてくる領域と考えられる。そのため、衝突領域Qの画像を生成する場合は、順方向側の画像F[n]に基づいて画像を生成した方がより自然な画像が生成できると考えられる。そこで、補間フレーム生成部153は、選択画素が穴あき画素であった場合は、基準重み係数Wrを基点にして逆方向動き補償画像の側に重みをシフトし、一方で、選択画素が衝突画素であった場合は、基準重み係数Wrを基点にして順方向動き補償画像の側に重みをシフトする。   Generally, the perforated area P is considered as an area hidden by an object whose background moves. Therefore, when generating an image of the perforated region P, it is considered that a more natural image can be generated by generating an image based on the reverse image F [n−1]. On the other hand, the collision area Q is considered to be an area where the background hidden by the moving object appears. Therefore, when an image of the collision area Q is generated, it is considered that a more natural image can be generated by generating an image based on the forward image F [n]. Therefore, when the selected pixel is a perforated pixel, the interpolation frame generation unit 153 shifts the weight toward the backward motion compensated image with the reference weight coefficient Wr as a base point, while the selected pixel is a collision pixel. If it is, the weight is shifted toward the forward motion compensated image with the reference weight coefficient Wr as a base point.

この場合、補間フレーム生成部153は、現れる残像の変化をなだらかにするため、基準重み係数Wrを基点にして、値を0若しくは1に向けてリニアに変化させる。図24は、確信度と重み係数との関係を示す図である。より具体的には、補間フレーム生成部153は、下記式(5)及び式(6)に基づき補正重み係数Wp若しくは補正重み係数Wqを算出する。Wpは、穴あき領域を平均する際に使用する補正重み係数であり、Wqは衝突領域を平均する際に使用する補正重み係数を補正重み係数である。
Wp =Wr×(1−Ap) ・・・・・・(5)
Wq =Wr×(1−Aq)+Aq ・・・(6)
In this case, the interpolation frame generation unit 153 linearly changes the value toward 0 or 1 with the reference weight coefficient Wr as a base point in order to smooth the change in the afterimage that appears. FIG. 24 is a diagram illustrating a relationship between the certainty factor and the weighting factor. More specifically, the interpolation frame generation unit 153 calculates the correction weighting coefficient Wp or the correction weighting coefficient Wq based on the following formulas (5) and (6). Wp is a correction weighting coefficient used when averaging the perforated areas, and Wq is a correction weighting coefficient used when averaging the collision areas.
Wp = Wr × (1-Ap) (5)
Wq = Wr × (1-Aq) + Aq (6)

補間フレーム生成部153は、逆方向動き補償画像と順方向動き補償画像の同一座標の画素同士を重み付き平均することにより、補間フレームI[n][1]の選択画素の画素値Vを算出する(S236)。具体的には、補間フレーム生成部153は、下記式(7)〜式(9)に基づき補間フレームI[n][1]の選択画素の画素値Vを算出する。式(7)は選択画素が穴あき画素であった場合に使用され、式(8)は選択画素が衝突画素であった場合に使用される。また、式(9)は選択画素が通常画素であった場合に使用される。
V=Va×(1−Wp)+Vb×Wp・・・(7)
V=Va×(1−Wq)+Vb×Wq・・・(8)
V=Va×(1−Wr)+Vb×Wr・・・(9)
The interpolation frame generation unit 153 calculates the pixel value V of the selected pixel of the interpolation frame I [n] [1] by performing weighted averaging of pixels at the same coordinates in the backward motion compensation image and the forward motion compensation image. (S236). Specifically, the interpolation frame generation unit 153 calculates the pixel value V of the selected pixel of the interpolation frame I [n] [1] based on the following formulas (7) to (9). Expression (7) is used when the selected pixel is a holed pixel, and Expression (8) is used when the selected pixel is a collision pixel. Equation (9) is used when the selected pixel is a normal pixel.
V = Va × (1−Wp) + Vb × Wp (7)
V = Va × (1−Wq) + Vb × Wq (8)
V = Va * (1-Wr) + Vb * Wr (9)

なお、Vaは、逆方向動き補償画像中の選択画素の画素値であり、Vbは、順方向動き補償画像の選択画素の画素値である。画素値Vの算出が完了したら、補間フレーム生成部153は、画素値Vを補間フレームの選択画素に割り当てる。   Note that Va is the pixel value of the selected pixel in the backward motion compensated image, and Vb is the pixel value of the selected pixel of the forward motion compensated image. When the calculation of the pixel value V is completed, the interpolation frame generation unit 153 assigns the pixel value V to the selected pixel of the interpolation frame.

続いて、補間フレーム生成部153は、全ての画素を平均したか判別する(S237)。全ての画素を平均していない場合(S237:No)、補間フレーム生成部153は、S232に戻り、全ての画素を平均するまでS232〜S237を繰り返す。全ての画素を平均した場合(S237:Yes)、補間フレーム生成部153は、S238に進む。   Subsequently, the interpolation frame generation unit 153 determines whether all the pixels are averaged (S237). When all the pixels are not averaged (S237: No), the interpolation frame generation unit 153 returns to S232, and repeats S232 to S237 until all the pixels are averaged. When all the pixels are averaged (S237: Yes), the interpolation frame generation unit 153 proceeds to S238.

全ての画素を平均した場合(S237:Yes)、補間フレーム生成部153は、画素値を割り当てた補間フレームI[n][1]を補間フレーム記憶領域123に保存する(S238)。図18と図20に示す例の場合、補間フレーム記憶領域123に保存される画像は、図25に示す画像となる。図22に示した補正重み係数をシフトさせなかった場合の画像と比較して、非通常領域(穴あき領域Pと衝突領域Q)の残像が薄くなる。   When all the pixels are averaged (S237: Yes), the interpolation frame generation unit 153 stores the interpolation frame I [n] [1] to which the pixel value is assigned in the interpolation frame storage area 123 (S238). In the example shown in FIGS. 18 and 20, the image stored in the interpolation frame storage area 123 is the image shown in FIG. Compared with the image when the correction weighting coefficient shown in FIG. 22 is not shifted, the afterimage of the non-normal area (the perforated area P and the collision area Q) becomes lighter.

補間フレームの保存が完了したら、動き補償部150は、動き補償処理を終了する。制御部110は、補間フレーム記憶領域123に保存された補間フレームI[n][1]を、随時、外部の装置に送信する。   When the storage of the interpolation frame is completed, the motion compensation unit 150 ends the motion compensation process. The control unit 110 transmits the interpolation frame I [n] [1] stored in the interpolation frame storage area 123 to an external device as needed.

本実施形態によれば、通常領域と非通常領域とで異なる重みを使って画像を平均しているので、陰面領域に生じる不自然な残像、特に、動きのある物体と背景との境界付近に生じる不自然な残像を薄くできる。しかも、フレーム補間装置100は、穴あき領域を平均する際に使用する重みを逆方向動き補償画像の側にシフトさせているので、陰面領域のうちの背景が隠されていく領域で自然な画像を生成できる。また、フレーム補間装置100は、衝突領域を平均する際に使用する重みを順方向動き補償画像の側にシフトさせているので、陰面領域のうちの背景が現れてくる領域で自然な画像を生成できる。   According to this embodiment, images are averaged using different weights in the normal area and the non-normal area, so that an unnatural afterimage generated in the hidden surface area, in particular, near the boundary between the moving object and the background. The resulting unnatural afterimage can be thinned. In addition, since the frame interpolation device 100 shifts the weight used when averaging the perforated regions to the backward motion compensated image side, a natural image in the hidden surface region in which the background is hidden. Can be generated. In addition, since the frame interpolation apparatus 100 shifts the weight used when averaging the collision areas to the forward motion compensated image side, a natural image is generated in the area where the background appears in the hidden surface area. it can.

また、フレーム補間装置100は、選択画素の近傍画素に占める穴あき画素若しくは衝突画素の比率に基づいて補正重み係数を算出している。より具体的には、近傍画素に占める穴あき画素の比率に基づいて算出された確信度Ap若しくは近傍画素に占める衝突画素の比率に基づいて算出された確信度Aqに基づいて補正重み係数を算出している。物体や背景の移動が完全な平行移動でない映像等、映像によっては小さな穴あき領域や衝突領域が画像中に点在することがある。選択画素が陰面領域の画素でなく画像中に点在する穴あき画素や衝突画素であった場合、確信度、すなわち上記比率は低い値となり、その結果、補正重み係数は基準重み係数に近い値となると考えられる。そのため、フレーム補間装置100は、選択画素が画像中に点在する穴あき画素や衝突画素の場合、基準重み係数に近い重み係数で2枚の動き補償画像の選択画素同士を平均できるので、補間フレーム中に、周辺の画素値とは大きく異なる値の画素が唐突に発生することが少なくなる。その結果、フレーム補間装置100は、より自然な補間フレームを生成できる。   In addition, the frame interpolation device 100 calculates a correction weighting coefficient based on the ratio of perforated pixels or collision pixels in the neighboring pixels of the selected pixel. More specifically, the correction weighting coefficient is calculated based on the certainty factor Ap calculated based on the ratio of the perforated pixels in the neighboring pixels or the certainty factor Aq calculated based on the ratio of the collision pixels in the neighboring pixels. doing. Depending on the image, such as an image in which the movement of the object or background is not completely parallel, small perforated areas and collision areas may be scattered in the image. If the selected pixel is not a pixel in the hidden surface area but a holed pixel or a collision pixel scattered in the image, the certainty factor, that is, the ratio is low, and as a result, the correction weighting factor is a value close to the reference weighting factor. It is thought that it becomes. Therefore, when the selected pixel is a holed pixel or a collision pixel scattered in the image, the frame interpolation device 100 can average the selected pixels of the two motion compensated images with a weighting factor close to the reference weighting factor. It is less likely that pixels having values significantly different from the surrounding pixel values occur suddenly in the frame. As a result, the frame interpolation device 100 can generate a more natural interpolation frame.

なお、上述の実施形態は一例であり、種々の変更及び応用が可能である。例えば、上述の実施形態では、近傍画素に占める穴あき画素の比率Rpをそのまま確信度Apとして取得したが、確信度Apの値は必ずしも比率Rpと一致する値でなくてもよい。例えば、補間フレーム生成部153は、比率Rpが予め設定された値sより大きな値であった場合は、選択画素が陰面領域の画素であるとみなして確信度Apを1としてもよい。図26は、近傍画素の比率と確信度との関係の一例を示す図である。そして、補間フレーム生成部153は、式(5)に基づいて、補正重み係数Wpを算出する。これにより、選択画素が陰面領域の画素である可能性が高い場合は、逆方向補償画像の画素をそのまま補間フレームの画素とできるので、補間フレーム生成部153は、残像をさらに薄くできる。その結果、補間フレーム生成部153は、より自然な補間フレームを生成できる。   The above-described embodiment is an example, and various changes and applications are possible. For example, in the above-described embodiment, the ratio Rp of the perforated pixels occupying the neighboring pixels is directly acquired as the certainty factor Ap, but the value of the certainty factor Ap is not necessarily a value that matches the ratio Rp. For example, when the ratio Rp is larger than the preset value s, the interpolation frame generation unit 153 may regard the selected pixel as a hidden surface area pixel and set the certainty factor Ap to 1. FIG. 26 is a diagram illustrating an example of the relationship between the ratio of neighboring pixels and the certainty factor. Then, the interpolation frame generation unit 153 calculates the correction weighting coefficient Wp based on Expression (5). Thereby, when there is a high possibility that the selected pixel is a pixel in the hidden surface area, the pixel in the reverse direction compensation image can be used as the pixel in the interpolation frame as it is, so that the interpolation frame generation unit 153 can further reduce the afterimage. As a result, the interpolation frame generation unit 153 can generate a more natural interpolation frame.

また、フレーム補間装置100は、比率Rpが予め設定された値dより小さな値であった場合は、選択画素が陰面領域の画素ではなく、画像に点在する穴あき画素であるとみなして確信度Apを0としてもよい。そして、補間フレーム生成部153は、式(5)に基づいて、補正重み係数Wpを算出する。これにより、選択画素が陰面領域の画素でなく画像中に点在する穴あき画素である可能性が高い場合は、基準重み係数Wrを使用して算出された画素値を補間フレームの選択画素の値とすることができるので、選択画素の画素値をより周辺の画素値に近い値とすることができる。その結果、補間フレーム生成部153は、より自然な補間フレームを生成できる。   In addition, when the ratio Rp is smaller than the preset value d, the frame interpolation device 100 regards the selected pixel as not a hidden area pixel but a perforated pixel scattered in the image. The degree Ap may be 0. Then, the interpolation frame generation unit 153 calculates the correction weighting coefficient Wp based on Expression (5). As a result, when there is a high possibility that the selected pixel is not a pixel in the hidden surface area but a perforated pixel scattered in the image, the pixel value calculated using the reference weight coefficient Wr is used as the selected pixel of the interpolation frame. Since the value can be a value, the pixel value of the selected pixel can be a value closer to the surrounding pixel values. As a result, the interpolation frame generation unit 153 can generate a more natural interpolation frame.

また、上述の実施形態では、近傍画素に占める衝突画素の比率Rqをそのまま確信度Aqとして取得したが、確信度Aqの値は必ずしも比率Rqと一致する値でなくてもよい。例えば、フレーム補間装置100は、比率Rqが予め設定された値sより大きな値であった場合は、選択画素が陰面領域の画素であるとみなして確信度Apを1としてもよい。そして、補間フレーム生成部153は、式(6)に基づいて、補正重み係数Wqを算出する。これにより、選択画素が陰面領域の画素である可能性が高い場合は、順方向補償画像の画素をそのまま補間フレームの画素とできるので、補間フレーム生成部153は、補間フレームに発生する残像をさらに薄くできる。その結果、補間フレーム生成部153は、より自然な補間フレームを生成できる。   In the above-described embodiment, the ratio Rq of the collision pixels occupying the neighboring pixels is directly acquired as the certainty factor Aq. However, the value of the certainty factor Aq is not necessarily a value that matches the ratio Rq. For example, if the ratio Rq is larger than the preset value s, the frame interpolation apparatus 100 may regard the selected pixel as a hidden surface area pixel and set the certainty factor Ap to 1. Then, the interpolation frame generation unit 153 calculates the correction weighting coefficient Wq based on Expression (6). Thereby, when there is a high possibility that the selected pixel is a pixel of the hidden surface area, the pixel of the forward compensation image can be used as it is as the pixel of the interpolation frame, so that the interpolation frame generation unit 153 further increases the afterimage generated in the interpolation frame. Can be thin. As a result, the interpolation frame generation unit 153 can generate a more natural interpolation frame.

また、フレーム補間装置100は、比率Rqが予め設定された値dより小さな値であった場合は、選択画素が陰面領域の画素ではなく、画像に点在する衝突画素であるとみなして確信度Aqを0としてもよい。そして、補間フレーム生成部153は、式(6)に基づいて、補正重み係数Wqを算出する。これにより、選択画素が陰面領域の画素でなく画像中に点在する衝突画素である可能性が高い場合は、基準重み係数Wrを使用して算出された画素値を補間フレームの選択画素の値とすることができるので、選択画素の画素値をより周辺の画素値に近い値とすることができる。その結果、補間フレーム生成部153は、より自然な補間フレームを生成できる。   Further, when the ratio Rq is smaller than the preset value d, the frame interpolation apparatus 100 regards the selected pixel as a collision pixel scattered in the image, not a pixel in the hidden surface area, and the certainty factor. Aq may be 0. Then, the interpolation frame generation unit 153 calculates the correction weighting coefficient Wq based on Expression (6). As a result, when there is a high possibility that the selected pixel is not a pixel in the hidden surface area but a collision pixel scattered in the image, the pixel value calculated using the reference weight coefficient Wr is used as the value of the selected pixel in the interpolation frame. Therefore, the pixel value of the selected pixel can be made closer to the peripheral pixel values. As a result, the interpolation frame generation unit 153 can generate a more natural interpolation frame.

また、上述の実施の形態では、近傍画素は選択画素を中心とした5×5画素の正方形の範囲にある画素であるものとしたが、近傍画素の範囲は5×5画素の正方形の範囲に限定されない。また、近傍画素の範囲は正方形の範囲に限定されず、近傍画素の範囲は、例えば選択画素を中心とした長方形や菱形等の四角形の範囲であってもよい。また、近傍画素の範囲は、四角形の範囲に限定されず、例えば、円形や楕円形の範囲であってもよい。また、選択画素の位置は、範囲の中心でなくもよい。例えば、選択画素は、範囲の端に位置していてもよい。   In the above-described embodiment, the neighboring pixels are pixels in a 5 × 5 pixel square range centered on the selected pixel. However, the neighboring pixel range is in a 5 × 5 pixel square range. It is not limited. Further, the range of neighboring pixels is not limited to a square range, and the range of neighboring pixels may be a rectangular range such as a rectangle or rhombus centered on the selected pixel. Further, the range of neighboring pixels is not limited to a rectangular range, and may be, for example, a circular or elliptical range. Further, the position of the selected pixel may not be the center of the range. For example, the selected pixel may be located at the end of the range.

また、上述の実施形態では、補間フレーム生成部153は、選択画素が穴あき画素であった場合は逆方向動き補償画像の側に重みをシフトさせたが、シフト方向は逆方向側に限定されない。補間フレーム生成部153は、映像の性質に応じて、適宜、順方向動き補償画像の側に重みをシフトさせてもよい。   In the above-described embodiment, the interpolation frame generation unit 153 shifts the weight to the backward motion compensation image side when the selected pixel is a perforated pixel, but the shift direction is not limited to the backward direction side. . The interpolation frame generation unit 153 may appropriately shift the weight to the forward motion compensated image side according to the nature of the video.

また、上述の実施形態では、補間フレーム生成部153は、選択画素が衝突画素であった場合は順方向動き補償画像の側に重みをシフトさせたが、シフト方向は順方向側に限定されない。補間フレーム生成部153は、映像の性質に応じて、適宜、逆方向動き補償画像の側に重みをシフトさせてもよい。   In the above-described embodiment, the interpolation frame generation unit 153 shifts the weight to the forward motion compensation image side when the selected pixel is a collision pixel, but the shift direction is not limited to the forward direction side. The interpolated frame generation unit 153 may appropriately shift the weight toward the backward motion compensated image according to the nature of the video.

また、上述の実施形態では、補間フレームの生成に使用する入力フレームを補間フレームの直前及び直後の入力フレームF[n−1]、F[n]としたが、補間フレームの生成に使用する入力フレームは直前及び直後の入力フレームに限定されない。入力フレームは、補間フレームより2フレーム以上離れた位置にある入力フレームであってもよい。   In the above-described embodiment, the input frames used for generating the interpolation frame are the input frames F [n−1] and F [n] immediately before and after the interpolation frame. The frame is not limited to the input frame immediately before and immediately after. The input frame may be an input frame located at a position two frames or more away from the interpolation frame.

また、上述の実施形態では、補間フレーム生成部153は、補間フレームの時間位置Tに基づいて基準重み係数Wrを算出したが、補間フレーム生成部153は時間位置Tを使用せずに基準重み係数Wrを算出してもよい。例えば、補間フレーム生成部153は基準重み係数Wrを一律に0.5として、通常領域を一律に単純平均してもよい。   Further, in the above-described embodiment, the interpolation frame generation unit 153 calculates the reference weight coefficient Wr based on the time position T of the interpolation frame. However, the interpolation frame generation unit 153 does not use the time position T, and the reference weight coefficient Wr may be calculated. For example, the interpolation frame generation unit 153 may set the reference weight coefficient Wr uniformly to 0.5, and simply average the normal areas uniformly.

また、上述の実施形態では、単位領域を1画素の領域であるものとして説明したが、単位領域は複数画素から構成される領域であってもよい。この場合、穴あき画素、衝突画素、非通常画素は、それぞれ、穴あき単位領域、衝突単位領域、非通常単位領域と言い換えることができる。なお、穴あき単位領域は穴あき画素を含む概念であり、衝突単位領域は衝突画素を含む概念である。また、非通常単位領域は非通常画素を含む概念である。   In the above-described embodiment, the unit area has been described as one pixel area. However, the unit area may be an area composed of a plurality of pixels. In this case, the perforated pixel, the collision pixel, and the non-normal pixel can be rephrased as the perforated unit area, the collision unit area, and the non-normal unit area, respectively. The perforated unit area is a concept including a perforated pixel, and the collision unit area is a concept including a collision pixel. Further, the unusual unit area is a concept including unusual pixels.

また、上述の実施形態では、動き補償部150は、動き補償画像生成処理で動き補償画像(逆方向動き補償画像及び順方向動き補償画像)の生成が完了してから、補間フレーム生成処理を実行したが、動き補償部150は、動き補償画像の生成が完了する前に補間フレーム生成処理を実行してもよい。動き補償部150は、一定範囲の動き補償画像(例えば、1ブロック分の動き補償画像)の生成と一定範囲の補間フレーム(例えば、1ブロック分の補間フレーム)の生成とを繰り返すことにより補間フレームを生成してもよい。また、動き補償部150は、1画素分の動き補償画像の生成と1画素分の補間フレームの生成とを繰り返すことにより補間フレームを生成してもよい。   In the above-described embodiment, the motion compensation unit 150 executes the interpolation frame generation process after the generation of the motion compensated image (reverse direction motion compensated image and forward direction motion compensated image) is completed in the motion compensated image generation process. However, the motion compensation unit 150 may perform the interpolation frame generation process before the generation of the motion compensated image is completed. The motion compensation unit 150 repeats generation of a certain range of motion compensated images (for example, one block of motion compensated images) and generation of a certain range of interpolated frames (for example, one block of interpolated frames), thereby interpolating frames. May be generated. The motion compensation unit 150 may generate an interpolation frame by repeating the generation of a motion compensated image for one pixel and the generation of an interpolation frame for one pixel.

また、上述の実施形態では、補間動きベクトルは、逆方向補間動きベクトルMVa及び順方向補間動きベクトルMVbの1対の補間動きベクトルから構成されるものとして説明したが、補間動きベクトルは必ずしも1対の補間動きベクトルから構成されていなくてもよい。補間動きベクトルは、補間動きベクトルは逆方向補間動きベクトルMVa及び順方向補間動きベクトルMVbのいずれか1つの補間動きベクトルから構成されていてもよい。この場合、補間動きベクトルは、逆方向補間動きベクトルMVa及び順方向補間動きベクトルMVbのいずれか一方の補間動きベクトルの情報と動きベクトルMVの情報とに基づいて、随時、他方の補間動きベクトルを特定してもよい。   In the above-described embodiment, the interpolated motion vector is described as being composed of a pair of interpolated motion vectors of the backward interpolated motion vector MVa and the forward interpolated motion vector MVb. The interpolation motion vector may not be configured. The interpolation motion vector may be composed of any one of the backward interpolation motion vector MVa and the forward interpolation motion vector MVb. In this case, the interpolated motion vector is determined based on the information on one of the interpolated motion vector MVa and the forward interpolated motion vector MVb and the information on the motion vector MV at any time. You may specify.

また、上述の実施形態では、フレーム補間装置100が補間フレームを挿入する映像はスロー再生映像であるものとして説明したが、フレーム補間装置100が補間フレームを挿入する映像はスロー再生映像に限定されない。例えば、フレーム補間装置100が補間フレームを挿入する映像は通常再生速度の映像であってもよい。   In the above-described embodiment, the video in which the frame interpolation device 100 inserts the interpolation frame has been described as a slow playback video. However, the video in which the frame interpolation device 100 inserts the interpolation frame is not limited to the slow playback video. For example, the video into which the frame interpolation device 100 inserts the interpolation frame may be a normal playback speed video.

また、上述の実施形態では、フレーム補間装置100は生成した補間フレームを外部の装置に出力するよう構成されていたが、フレーム補間装置100は再生機能を備え、生成した補間フレームと入力フレームとに基づいて生成された映像を表示装置に出力するよう構成されていてもよい。この場合、フレーム補間装置100は、出力部160から映像信号を出力できるよう構成されていてもよいし、映像を表示する表示部を備え、表示部に映像を出力するよう構成されていてもよい。勿論、フレーム補間装置100は、映像再生機能を備えずに、補間フレームを生成するだけの装置であってもよい。   In the above-described embodiment, the frame interpolation device 100 is configured to output the generated interpolation frame to an external device. However, the frame interpolation device 100 has a reproduction function, and generates the generated interpolation frame and the input frame. It may be configured to output the video generated based on the display device. In this case, the frame interpolation device 100 may be configured to output a video signal from the output unit 160, or may be configured to include a display unit that displays video and output video to the display unit. . Of course, the frame interpolation device 100 may be a device that does not have a video reproduction function and only generates an interpolation frame.

なお、フレーム補間装置100は、例えば、テレビ、レコーダ、パーソナルコンピュータ、固定電話機、携帯電話機、スマートフォン、タブレット端末、PDA(Personal Digital Assistant)、ゲーム機等の完成品として捉えることができる。また、フレーム補間装置100は、完成品に搭載される部品、例えば、半導体、半導体基板等として捉えることもできる。   The frame interpolation device 100 can be regarded as a finished product such as a television, a recorder, a personal computer, a fixed telephone, a mobile phone, a smartphone, a tablet terminal, a PDA (Personal Digital Assistant), a game machine, and the like. Further, the frame interpolation apparatus 100 can be regarded as a component mounted on a finished product, for example, a semiconductor, a semiconductor substrate, or the like.

本実施形態に係るフレーム補間装置100は、専用のシステムにより実現してもよいし、通常のコンピュータシステムにより実現してもよい。例えば、上述の動作を実行するためのプログラムを、光ディスク、半導体メモリ、磁気テープ、フレキシブルディスク等のコンピュータ読み取り可能な記録媒体に格納して配布し、該プログラムをコンピュータにインストールして、上述の処理を実行することによってフレーム補間装置100を構成してもよい。また、上記プログラムをインターネット等のネットワーク上のサーバ装置が備えるディスク装置に格納しておき、コンピュータにダウンロード等できるようにしてもよい。また、上述の機能を、OS(Operating System)とアプリケーションソフトとの協働により実現してもよい。この場合には、OS以外の部分を媒体に格納して配布してもよいし、OS以外の部分をサーバ装置に格納しておき、コンピュータにダウンロード等できるようにしてもよい。   The frame interpolation apparatus 100 according to the present embodiment may be realized by a dedicated system or an ordinary computer system. For example, a program for executing the above-described operation is stored and distributed in a computer-readable recording medium such as an optical disk, a semiconductor memory, a magnetic tape, or a flexible disk, the program is installed in the computer, and the above-described processing is performed. The frame interpolation apparatus 100 may be configured by executing the above. Further, the program may be stored in a disk device provided in a server device on a network such as the Internet so that it can be downloaded to a computer. Further, the above-described functions may be realized by cooperation between an OS (Operating System) and application software. In this case, a part other than the OS may be stored and distributed in a medium, or a part other than the OS may be stored in a server device and downloaded to a computer.

本発明の実施形態を説明したが、この実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。この新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことが出来る。この実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   Although the embodiment of the present invention has been described, this embodiment is presented as an example and is not intended to limit the scope of the invention. The novel embodiment can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. This embodiment and its modifications are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

100…フレーム補間装置
110…制御部
120…記憶部
121…フレームメモリ領域
122…動きベクトル記憶領域
123…補間フレーム記憶領域
130…入力部
140…動き探索部
150…動き補償部
151…動きベクトル補間部
152…動き補償画像生成部
153…補間フレーム生成部
160…出力部
DESCRIPTION OF SYMBOLS 100 ... Frame interpolation apparatus 110 ... Control part 120 ... Storage part 121 ... Frame memory area 122 ... Motion vector storage area 123 ... Interpolation frame storage area 130 ... Input part 140 ... Motion search part 150 ... Motion compensation part 151 ... Motion vector interpolation part 152 ... Motion compensated image generation unit 153 ... Interpolation frame generation unit 160 ... Output unit

Claims (5)

2枚のフレーム間の画像の動きを示す動きベクトルと前記2枚のフレームの間に挿入する補間フレームの時間位置とに基づいて、前記2枚のフレームと前記補間フレームとの間の画像の動きを示す補間動きベクトルを算出し、算出した前記補間動きベクトルを単位領域毎に前記補間フレームに割り当てる動きベクトル補間部と、
前記2枚のフレームのうちの順方向側にあるフレームの画像情報と前記補間動きベクトルとに基づき生成される順方向動き補償画像と、前記2枚のフレームのうちの逆方向側にあるフレームの画像情報と前記補間動きベクトルとに基づき生成される逆方向動き補償画像と、を生成する動き補償画像生成部と、
前記単位領域毎に1つの若しくは1対の前記補間動きベクトルが割り当てられた通常領域と、前記単位領域毎に複数の若しくは複数対の前記補間動きベクトルが割り当てられた衝突領域及び前記補間動きベクトルが割り当てられなかった穴あき領域の少なくとも一方の領域から構成される非通常領域と、で異なる重みで前記順方向動き補償画像及び前記逆方向動き補償画像の対応する領域同士を平均することにより前記補間フレームを生成する補間フレーム生成部と、を備える、
フレーム補間装置。
The motion of the image between the two frames and the interpolated frame based on the motion vector indicating the motion of the image between the two frames and the time position of the interpolated frame inserted between the two frames A motion vector interpolation unit that calculates an interpolated motion vector indicating the calculated motion vector and assigns the calculated interpolated motion vector to the interpolated frame for each unit region;
A forward motion compensated image generated based on image information of a frame on the forward direction side of the two frames and the interpolated motion vector, and a frame on the reverse side of the two frames. A motion compensation image generation unit that generates a backward motion compensation image generated based on the image information and the interpolation motion vector;
A normal region in which one or a pair of the interpolated motion vectors is assigned to each unit region, a collision region in which a plurality of or a plurality of pairs of the interpolated motion vectors are assigned to each unit region, and the interpolated motion vectors. The interpolation is performed by averaging the corresponding regions of the forward motion compensation image and the backward motion compensation image with different weights from the non-normal region composed of at least one of the perforated regions not assigned. An interpolation frame generation unit for generating a frame,
Frame interpolation device.
前記補間フレーム生成部は、
前記通常領域を平均する際に使用する重み係数である基準重み係数の値を基点にして前記順方向動き補償画像及び前記逆方向動き補償画像のいずれか一方の側に重みをシフトすることにより算出される補正重み係数に基づいて、前記順方向動き補償画像の前記非通常領域と前記逆方向動き補償画像の前記非通常領域とを重み付き平均する、
請求項1に記載のフレーム補間装置。
The interpolation frame generation unit
Calculated by shifting the weight to either one of the forward motion compensated image and the backward motion compensated image based on the value of the reference weight coefficient that is a weight coefficient used when averaging the normal region A weighted average of the non-normal region of the forward motion compensated image and the non-normal region of the reverse motion compensated image based on the correction weighting factor to be
The frame interpolation apparatus according to claim 1.
前記非通常領域には、前記穴あき領域が含まれ、
前記補間フレーム生成部は、前記基準重み係数の値を基点に前記逆方向動き補償画像の側に重みをシフトすることにより算出される前記補正重み係数に基づいて、前記順方向動き補償画像の前記穴あき領域と前記逆方向動き補償画像の前記穴あき領域とを重み付き平均する、
請求項2に記載のフレーム補間装置。
The non-normal area includes the perforated area,
The interpolation frame generation unit is configured to generate the forward motion compensation image based on the correction weighting factor calculated by shifting a weight to the backward motion compensation image side based on a value of the reference weighting factor. A weighted average of the perforated region and the perforated region of the reverse motion compensated image;
The frame interpolation apparatus according to claim 2.
前記非通常領域には、前記衝突領域が含まれ、
前記補間フレーム生成部は、前記基準重み係数の値を基点に前記順方向動き補償画像の側に重みをシフトすることにより算出される前記補正重み係数に基づいて、前記順方向動き補償画像の前記衝突領域と前記逆方向動き補償画像の前記衝突領域とを重み付き平均する、
請求項2又は3に記載のフレーム補間装置。
The non-normal area includes the collision area,
The interpolation frame generation unit is configured to generate the forward motion compensated image based on the correction weight coefficient calculated by shifting a weight toward the forward motion compensated image from the reference weight coefficient value. A weighted average of the collision area and the collision area of the reverse motion compensated image;
The frame interpolation device according to claim 2 or 3.
フレーム間の画像の動きを示す動きベクトルと2枚のフレームの間に挿入する補間フレームの時間位置とに基づいて、前記2枚のフレームと前記補間フレームとの間の画像の動きを示す補間動きベクトルを算出し、算出した前記補間動きベクトルを単位領域毎に前記補間フレームに割り当てる動きベクトル補間ステップと、
前記2枚のフレームのうちの順方向側にあるフレームの画像情報と前記補間動きベクトルとに基づき生成される順方向動き補償画像と、前記2枚のフレームのうちの逆方向側にあるフレームの画像情報と前記補間動きベクトルとに基づき生成される逆方向動き補償画像と、を生成する動き補償画像生成ステップと、
前記単位領域1つにつき1つの若しくは1対の前記補間動きベクトルが割り当てられた通常領域と、前記単位領域1つにつき複数の若しくは複数対の前記補間動きベクトルが割り当てられた衝突領域及び前記補間動きベクトルが割り当てられなかった穴あき領域の少なくとも一方の領域から構成される非通常領域と、で異なる重みで前記順方向動き補償画像及び前記逆方向動き補償画像の対応する領域同士を平均することにより前記補間フレームを生成する補間フレーム生成ステップと、を有する、
フレーム補間方法。
Interpolated motion indicating the motion of the image between the two frames and the interpolated frame based on the motion vector indicating the motion of the image between the frames and the time position of the interpolated frame inserted between the two frames A motion vector interpolation step of calculating a vector and assigning the calculated interpolation motion vector to the interpolation frame for each unit region;
A forward motion compensated image generated based on image information of a frame on the forward direction side of the two frames and the interpolated motion vector, and a frame on the reverse side of the two frames. A motion compensation image generating step for generating a backward motion compensation image generated based on the image information and the interpolated motion vector;
A normal region to which one or a pair of the interpolated motion vectors are assigned per unit region, a collision region to which a plurality of or a plurality of pairs of the interpolated motion vectors are assigned to the unit region, and the interpolated motion By averaging the corresponding regions of the forward motion compensation image and the backward motion compensation image with different weights in the non-normal region composed of at least one of the perforated regions to which no vector is assigned. An interpolation frame generation step for generating the interpolation frame,
Frame interpolation method.
JP2014052208A 2014-03-14 2014-03-14 Frame interpolation device and frame interpolation method Ceased JP2015177341A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014052208A JP2015177341A (en) 2014-03-14 2014-03-14 Frame interpolation device and frame interpolation method
US14/461,693 US20150264385A1 (en) 2014-03-14 2014-08-18 Frame interpolation device, frame interpolation method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014052208A JP2015177341A (en) 2014-03-14 2014-03-14 Frame interpolation device and frame interpolation method

Publications (1)

Publication Number Publication Date
JP2015177341A true JP2015177341A (en) 2015-10-05

Family

ID=54070446

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014052208A Ceased JP2015177341A (en) 2014-03-14 2014-03-14 Frame interpolation device and frame interpolation method

Country Status (2)

Country Link
US (1) US20150264385A1 (en)
JP (1) JP2015177341A (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7809145B2 (en) * 2006-05-04 2010-10-05 Sony Computer Entertainment Inc. Ultra small microphone array
JP2015056695A (en) 2013-09-10 2015-03-23 株式会社東芝 Moving image reproducing device
US10805627B2 (en) * 2015-10-15 2020-10-13 Cisco Technology, Inc. Low-complexity method for generating synthetic reference frames in video coding
CN106101716B (en) * 2016-07-11 2019-05-07 北京大学 A kind of video frame rate upconversion method
US10776688B2 (en) 2017-11-06 2020-09-15 Nvidia Corporation Multi-frame video interpolation using optical flow
ES2943093T3 (en) * 2018-03-26 2023-06-08 Huawei Tech Co Ltd Method and electronic device for recording video
CN109068083B (en) * 2018-09-10 2021-06-01 河海大学 Adaptive motion vector field smoothing method based on square
US10958869B1 (en) * 2019-11-14 2021-03-23 Huawei Technologies Co., Ltd. System, device and method for video frame interpolation using a structured neural network
CN114339313A (en) * 2021-12-28 2022-04-12 维沃移动通信有限公司 Frame insertion method and device and electronic equipment

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010067519A1 (en) * 2008-12-10 2010-06-17 パナソニック株式会社 Video processing device and video processing method
JP2012034327A (en) * 2010-07-06 2012-02-16 Mitsubishi Electric Corp Frame interpolation device and method, program, and recording medium

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8254444B2 (en) * 2007-05-14 2012-08-28 Samsung Electronics Co., Ltd. System and method for phase adaptive occlusion detection based on motion vector field in digital video

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010067519A1 (en) * 2008-12-10 2010-06-17 パナソニック株式会社 Video processing device and video processing method
JP2012034327A (en) * 2010-07-06 2012-02-16 Mitsubishi Electric Corp Frame interpolation device and method, program, and recording medium

Also Published As

Publication number Publication date
US20150264385A1 (en) 2015-09-17

Similar Documents

Publication Publication Date Title
JP2015177341A (en) Frame interpolation device and frame interpolation method
US8717390B2 (en) Art-directable retargeting for streaming video
CN105843577B (en) A kind of vehicle-carrying display screen and its display methods
KR20140037425A (en) Apparatus and method for reconstructing intermediate view, recording medium thereof
US8873886B2 (en) Apparatus and method for displaying a region of an image in an enlarged manner, and program therefor
US9936107B2 (en) Apparatus and method for generating sensory effect metadata
US8373802B1 (en) Art-directable retargeting for streaming video
US20170032819A1 (en) Automated Looping Video Creation
JP2010148037A (en) Moving image playback apparatus, moving image playback method and moving image playback program
WO2023160617A9 (en) Video frame interpolation processing method, video frame interpolation processing device, and readable storage medium
US8744127B2 (en) Image processing apparatus and method for improving frame rate while maintaining natural movement of object on images
JP6412819B2 (en) Image processing apparatus, image processing method, and image processing program
JP5289540B2 (en) Image processing apparatus and image processing method
JP4055908B2 (en) Wipe pattern generator
JP2005108105A (en) Image processing device and method
JP5975791B2 (en) Image processing apparatus and method, and image display apparatus and method
JP2013026826A (en) Image processing method, image processing device and display device
WO2023145411A1 (en) Information processing system, information processing method, and computer-readable non-temporary storage medium
JP5735395B2 (en) Image processing method, image processing apparatus, and image processing program
KR20130135460A (en) Depth image interpolation apparatus and method using color defference
TWI672946B (en) Method and device for playing video
JP2018084997A (en) Image processing device, and image processing method
JP5701816B2 (en) Image processing apparatus, image processing program, and image processing method
JP2017058978A (en) Information processing device and program
KR101824178B1 (en) Method and apparatus for controlling transparency based on view on 3 dimension rendering device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161104

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161115

A045 Written measure of dismissal of application [lapsed due to lack of payment]

Free format text: JAPANESE INTERMEDIATE CODE: A045

Effective date: 20170328