JP2007060192A - Interpolating frame generator, its method, image display system and program and recording medium - Google Patents

Interpolating frame generator, its method, image display system and program and recording medium Download PDF

Info

Publication number
JP2007060192A
JP2007060192A JP2005242058A JP2005242058A JP2007060192A JP 2007060192 A JP2007060192 A JP 2007060192A JP 2005242058 A JP2005242058 A JP 2005242058A JP 2005242058 A JP2005242058 A JP 2005242058A JP 2007060192 A JP2007060192 A JP 2007060192A
Authority
JP
Japan
Prior art keywords
image
background
frame
background image
interpolation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005242058A
Other languages
Japanese (ja)
Inventor
Toshiji Hanaoka
利治 花岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2005242058A priority Critical patent/JP2007060192A/en
Publication of JP2007060192A publication Critical patent/JP2007060192A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Television Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an interpolating frame generator which provides a technique allocating an accurate motion vector in an occlusion region, and displays a background image more distinctly. <P>SOLUTION: The whole image motion vector is detected from a plurality of reference frames approaching with time in an image, and the motion vector on an interpolating frame is generated from the reference frames. A background decision evaluation is conducted from a past background reference image, the reference frames, and the whole image motion vector from the reference frames. A new background image is synthesized from the result of the evaluation, the reference frames, and the background reference image, and stored while an interpolating-frame image is generated from the images of the reference frames and the background reference image by using the whole image motion vector, an interpolating-frame motion vector, and the result of the background decision evaluation. Consequently, an interpolating image is generated even in a region in which a correspondence is difficult only by the images of the reference frames. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、補間フレーム生成装置、その方法、画像表示システム、並びに、プログラムおよび記録媒体に関し、具体的には、動画像の再生に当たって表示フレーム間隔を短くするために隣接フレーム間に少なくとも一つの補間フレームを内挿補間する技術に関する。   The present invention relates to an interpolation frame generation apparatus, a method thereof, an image display system, a program, and a recording medium. Specifically, at least one interpolation is performed between adjacent frames in order to shorten a display frame interval in reproducing a moving image. The present invention relates to a technique for interpolating a frame.

液晶ディスプレイやエレクトロルミネッセンスディスプレイのように、新たに画像の書き込みが行われるまで前フレームの表示を保持し続けるホールド型画像表示装置では、動画表示に際して動体の動きに観察者の眼が追随することによるボケ現象の発生と、コマ数の少ない動画を表示する場合に不自然な動きが生じるという問題がある。   In a hold-type image display device that keeps displaying the previous frame until a new image is written, such as a liquid crystal display or an electroluminescence display, the observer's eyes follow the movement of the moving object when displaying a moving image. There is a problem that blurring occurs and an unnatural movement occurs when a moving image with a small number of frames is displayed.

この問題の解決には、表示のフレーム間隔を短くする方法がある。その具体的な手法として、図4のような構成をとり、動き補正を利用して補間フレームを作成し、その補間フレームを隣接するフレーム間に内挿補間するテレビジョン方式変換などがある。
この動き補正によるテレビジョン方式変換装置としては、特許文献1、特許文献2、非特許文献1または非特許文献2などに記載された技術が提案されている。
To solve this problem, there is a method of shortening the display frame interval. As a specific method, there is a television system conversion that takes the configuration as shown in FIG. 4, creates an interpolation frame using motion correction, and interpolates the interpolation frame between adjacent frames.
As a television system conversion device using this motion correction, techniques described in Patent Document 1, Patent Document 2, Non-Patent Document 1, Non-Patent Document 2, and the like have been proposed.

このような動き補正を用いるフレーム補間手法では、図5のように動き補正によって補間フレームを生成する際に、まず第1参照フレームと第2参照フレーム間で求められた動きベクトルABを補間フレーム面における動きベクトルAPに変換するスケール変換と呼ばれる操作を行う。   In such a frame interpolation method using motion correction, when generating an interpolation frame by motion correction as shown in FIG. 5, first, the motion vector AB obtained between the first reference frame and the second reference frame is used as the interpolation frame plane. An operation called scale conversion for converting into a motion vector AP is performed.

そして、スケール変換により得られた動きベクトルを用いて動き補正を行うことにより、補間フレームを生成する。補間フレームは、いくつかの補間ブロックSに分割されており、補間フレームの生成はこのブロック単位で行われる。
具体的には、補間フレーム上の補間対象ブロックを通る動きベクトルを探索し、その動きベクトルが第1参照フレームと第2参照フレーム上で指し示す画像ブロックの画像データを、補間フレーム面上の補間対象ブロックの位置に合成してコピーする。
Then, an interpolation frame is generated by performing motion correction using the motion vector obtained by the scale conversion. The interpolation frame is divided into several interpolation blocks S, and the generation of the interpolation frame is performed in units of these blocks.
Specifically, a motion vector passing through the interpolation target block on the interpolation frame is searched, and the image data of the image block indicated by the motion vector on the first reference frame and the second reference frame is interpolated on the interpolation frame surface. Composite and copy to block position.

この手法では、スケール変換によって得られる動きベクトルは必ずしも補間フレーム面上のすべての補間ブロックを通過するとは限らないことから、そのままでは補間フレームに画像の存在しない隙間ができてしまったり、補間画像が重なる領域ができてしまう。   In this method, the motion vector obtained by the scale conversion does not necessarily pass through all the interpolation blocks on the interpolation frame plane. Overlapping areas are created.

そこで、画像補間の前段階として、すべての補間ブロックを通過する動きベクトルを検索した後に、通過する動きベクトルが割り当てられなかった領域に対してゼロベクトルを割り当てたり、複数の動きベクトルが割り当てられた領域に対して動きベクトルの選定を行うなどの処理が必要となる。
例えば、動きベクトルの選定では、その動きベクトルの確からしさの指標としてDFD(directed frame difference)などを用いる。DFDは、次の式(1)により求められる。
Therefore, as a pre-stage of image interpolation, after searching for motion vectors that pass through all the interpolation blocks, a zero vector was assigned to an area that was not assigned a passing motion vector, or multiple motion vectors were assigned Processing such as selecting a motion vector for the region is required.
For example, in selecting a motion vector, a DFD (directed frame difference) or the like is used as an index of the certainty of the motion vector. The DFD is obtained by the following equation (1).

Figure 2007060192
Figure 2007060192

ここで、(x,y)は補間ブロックの座標、(dx,dy)はスケール変換前の動きベクトル、f()はフレーム輝度データ、nはフレーム番号、Sh,Svは補間ブロックの大きさを表す定数で、Shは水平方向、Svは垂直方向の大きさとなる。ここで、第1参照フレームはfn-1(x,y)、第2参照フレームはfn(x,y)に相当する。
DFDを用いたベクトル選定では、この値が最小となる値を選定することになり、これを式で表すと、式(2)のようになる。
Here, (x, y) is the coordinates of the interpolation block, (dx, dy) is the motion vector before scale conversion, f () is the frame luminance data, n is the frame number, and Sh and Sv are the sizes of the interpolation block. In this constant, Sh is the horizontal size, and Sv is the vertical size. Here, the first reference frame corresponds to fn-1 (x, y), and the second reference frame corresponds to fn (x, y).
In vector selection using DFD, a value that minimizes this value is selected. When this is expressed by an equation, equation (2) is obtained.

Figure 2007060192
Figure 2007060192

ここで、v、(dx,dy)は、選定された動きベクトルを、Vは選定対象となる動きベクトル群を表す。
特開平01−309597号公報 特開平03−280681号公報 テレビジョン学会誌、第45巻、第12号、1991年発行、p.1534〜1543 テレビジョン学会全国大会における予稿集、20−5、1989年
Here, v and (dx v , dy v ) represent selected motion vectors, and V represents a motion vector group to be selected.
Japanese Laid-Open Patent Publication No. 01-309597 Japanese Patent Laid-Open No. 03-280681 The Television Society Journal, Vol. 45, No. 12, published in 1991, p. 1534-1543 Proceedings at the annual conference of the Institute of Television Engineers of Japan, 20-5, 1989

しかしながら、上記の手法では、オクリュージョンを含むような映像の場合、その領域では動きベクトルが正確に得られなくなるため、画像に歪みが発生してしまうという問題がある。例えば、オクリュージョン領域は、多くの場合背景とオブジェクトの間に発生し、特にテレビジョンのスタジオ映像などではカメラが固定されていることが多く、静止している背景と動いているオブジェクトによってオクリュージョンが発生することが多い。   However, in the above method, in the case of an image including occlusion, there is a problem in that an image is distorted because a motion vector cannot be accurately obtained in that region. For example, the occlusion area often occurs between the background and the object, and the camera is often fixed, especially in a television studio video, and so on. In many cases, a resolution occurs.

オクリュージョンとは、図6のように第1参照フレームではオブジェクトに隠れていて見えていなかった背景などが、第2参照フレームになってオブジェクトの移動などにより見えるようになった領域をさす。逆に、見えていた背景が次のフレームで隠れたりする場合も同様であるが、ここでは特に前者が問題となる。   The occlusion refers to an area in which a background or the like hidden behind an object in the first reference frame as shown in FIG. 6 becomes visible due to movement of the object in the second reference frame. On the contrary, the same is true when the visible background is hidden in the next frame, but the former is particularly problematic here.

このような領域は、第1参照フレームと第2参照フレームの間に全く相関がなく、結果として動きベクトルを求めることができない。すると、補間フレーム上では動きベクトルが設定できず、ゼロベクトルや異常なベクトルが選定されてしてしまい、結果としてオブジェクトの周りの画像に歪みが発生することになる。   In such a region, there is no correlation between the first reference frame and the second reference frame, and as a result, a motion vector cannot be obtained. Then, a motion vector cannot be set on the interpolation frame, and a zero vector or an abnormal vector is selected. As a result, distortion occurs in an image around the object.

また、フレーム数を変換するような補間フレーム生成方法の場合、補間フレームは元のフレームの間に挟まれているため、単発的な画像歪みは視認しづらい状態にある。そのため、特に解決する必要があるのは連続的に発生するオクリュージョンが問題となる。例えば、連続的に発生するオクリュージョンとしては、エンドロールなどのテロップが挙げられる。   Further, in the case of an interpolated frame generation method in which the number of frames is converted, the interpolated frame is sandwiched between the original frames, so that the single image distortion is difficult to visually recognize. For this reason, it is particularly necessary to solve the problem of continuous occlusion. For example, continuous occlusion includes telops such as end rolls.

本発明は、上述の実情を考慮してなされたものであって、オクリュージョン領域に正確な動きベクトルを割り当てる手法を提供し、背景画像をより鮮明に表示することができる補間フレーム生成装置、その方法、画像表示システム、並びに、プログラムおよび記録媒体を提供することを目的とする。   The present invention has been made in consideration of the above-described circumstances, and provides a method for assigning an accurate motion vector to an occlusion region, and an interpolation frame generation device capable of displaying a background image more clearly, It is an object to provide a method, an image display system, a program, and a recording medium.

上記課題を解決するために、本発明は次のような構成をとる。
時間的に連続した複数のフレームから構成される画像を用いて、存在するフレームの情報から存在しない新たな補間フレームを生成するような補間フレーム生成装置において、一部の存在するフレームから背景画像を抽出して背景画像を合成する背景画像抽出・合成手段と、生成した背景画像を蓄積する背景画像蓄積手段とを有し、存在するフレームの中から取り出したふたつ以上の参照フレームにおけるオクリュージョン領域を検出するようにしたものである。
In order to solve the above problems, the present invention has the following configuration.
In an interpolated frame generation apparatus that generates a new interpolated frame that does not exist from information of existing frames using an image composed of a plurality of temporally continuous frames, a background image is generated from some existing frames. An occlusion area in two or more reference frames extracted from existing frames, having background image extraction / synthesis means for extracting and synthesizing a background image and background image storage means for storing the generated background image Is to be detected.

また、時間的に連続した複数のフレームから構成される画像を用いて、存在するフレームの情報から存在しない新たな補間フレームを生成するような補間フレーム生成装置において、一部の存在するフレームから背景画像を抽出して背景画像を合成する背景画像抽出・合成手段と、生成した背景画像を蓄積する背景画像蓄積手段とを有し、存在するフレームの中から取り出したふたつ以上の参照フレームから新たな補間フレームを生成するときに、オクリュージョンなどの理由により前記参照フレームからでは動きベクトル検出が困難な部分に関しても正確な動きベクトルが求められるようにしたものである。   In addition, in an interpolated frame generation apparatus that generates a new interpolated frame that does not exist from information of existing frames using an image composed of a plurality of temporally continuous frames, a background from some existing frames A background image extracting / synthesizing means for extracting an image and synthesizing a background image; and a background image accumulating means for accumulating the generated background image. A new image is extracted from two or more reference frames extracted from existing frames. When generating an interpolated frame, an accurate motion vector is obtained even for a portion in which it is difficult to detect a motion vector from the reference frame due to occlusion or the like.

あるいは、時間的に連続した複数のフレームから構成される画像を用いて、存在するフレームの情報から存在しない新たな補間フレームを生成するような補間フレーム生成装置において、一部の存在するフレームから背景画像を抽出して背景画像を合成する背景画像抽出・合成手段と、生成した背景画像を蓄積する背景画像蓄積手段とを有し、存在するフレームの中から取り出したふたつ以上の参照フレームから新たな補間フレームを生成するときに、オクリュージョンなどの理由により前記参照フレームからでは補間が困難な背景画像を前記背景画像蓄積手段を用いて補間するようにしたものである。   Alternatively, in an interpolated frame generation apparatus that generates a new interpolated frame that does not exist from the information of existing frames using an image composed of a plurality of temporally continuous frames, the background from some existing frames A background image extracting / synthesizing means for extracting an image and synthesizing a background image; and a background image accumulating means for accumulating the generated background image. A new image is extracted from two or more reference frames extracted from existing frames. When generating an interpolated frame, a background image that is difficult to interpolate from the reference frame for reasons such as occlusion is interpolated using the background image accumulating means.

ここで、存在するフレームの中から取り出したふたつ以上の参照フレームから新たな補間フレームを生成するときには、前記背景画像蓄積手段に蓄積されている背景画像を用いて、参照フレームの画像を背景画像とそれ以外の動いている物体の画像に分割するようにした。   Here, when generating a new interpolation frame from two or more reference frames taken out from existing frames, the background image stored in the background image storage means is used to convert the image of the reference frame as a background image. The image is divided into other moving objects.

さらに、画像の時間的に近接する複数の参照フレームから補間フレームを生成する補間フレーム生成装置において、前記参照フレームから画面全体の動きベクトル(以降、全画像動きベクトルとよぶ)を検出する画面全体動き検出手段と、前記補間フレーム上における動きベクトルを、前記参照フレームから生成する補間フレーム動きベクトル生成手段と、前記参照フレームより過去の背景画像を蓄積的に保存している背景画像蓄積手段と、前記背景画像蓄積手段のもつ背景参照画像と前記参照フレームと前記全画像動きベクトルから、背景判定評価を行う背景判定手段と、前記背景判定評価の結果と前記参照フレーム、前記背景参照画像から新しい背景画像を合成する背景画像抽出・合成手段と、前記全画像動きベクトルと前記補間フレーム動きベクトルと、前記背景判定手段の背景判定評価の結果を用いて、前記参照フレームの画像と背景参照画像から補間フレーム画像を生成する補間フレーム生成手段からなり、前記参照フレームの画像だけでは対応付けが困難な領域においても補間画像の生成を可能としたものである。   Furthermore, in an interpolated frame generation apparatus that generates an interpolated frame from a plurality of reference frames that are temporally close to each other in the image, the entire screen motion that detects a motion vector of the entire screen (hereinafter referred to as an all-image motion vector) from the reference frame Detecting means; interpolated frame motion vector generating means for generating a motion vector on the interpolated frame from the reference frame; background image accumulating means for accumulatively storing past background images from the reference frame; Background determination means for performing background determination evaluation from the background reference image, the reference frame, and the whole image motion vector possessed by the background image storage means, a result of the background determination evaluation, the reference frame, and a new background image from the background reference image A background image extracting / synthesizing means for synthesizing the whole image motion vector and the interpolation frame It comprises interpolation frame generation means for generating an interpolation frame image from the reference frame image and the background reference image using the motion vector and the result of the background determination evaluation of the background determination means. This makes it possible to generate an interpolated image even in a region where it is difficult.

ここで、図4のように静動領域判定手段を用いることも可能である。
静動領域判定手段は、前記背景画像蓄積手段の有する背景参照画像と参照フレームの画像を用いて、画素または補間ブロック毎に輝度を比較するなどの手段により、画像の中の動きの少ない静領域とそれ以外の動領域をより正確に区別できるようにし、その結果を用いて前記背景判定手段や前記背景画像抽出・合成手段の処理をより正確に実現することができる。
Here, it is also possible to use a static region determination means as shown in FIG.
The static motion area determination means uses a background reference image and a reference frame image that the background image storage means has, and compares the brightness for each pixel or interpolation block, etc. And the other moving regions can be more accurately distinguished, and the processing of the background determination unit and the background image extraction / combination unit can be more accurately realized using the result.

また、前記背景画像抽出・合成手段は、背景参照画像と複数の参照フレームの画像から、都度新しい背景画像を生成している。さらに、ここで画像の高解像度化技術を用いて、より高精細な高解像度背景画像を生成することも可能である。
あるいはまた、前記背景画像抽出・合成手段は、シーンチェンジ(参照フレーム間の差が大きいときなど)を検出した場合や背景参照画像と参照フレームの間で大きな差が発生した場合に、背景画像蓄積手段の内容クリアするようにしてもよい。
The background image extraction / combination means generates a new background image each time from the background reference image and the images of the plurality of reference frames. Furthermore, it is also possible to generate a high-definition high-resolution background image using a technique for increasing the resolution of the image.
Alternatively, the background image extracting / synthesizing means stores the background image when a scene change (such as when the difference between the reference frames is large) is detected or when a large difference occurs between the background reference image and the reference frame. You may make it clear the content of a means.

また、上記補間フレーム生成装置によって生成された補間フレームと参照フレームとを時間的に連続するように表示する画像表示システムによっても、上記課題を解決することができる。
また、本発明は、コンピュータで、上述した構成の補間フレーム生成装置あるいは画像表示システムの機能を実現させるためのプログラム、またはそのプログラムを記録したコンピュータ読み取り可能な記録媒体によっても上記課題を解決することができる。
The above problem can also be solved by an image display system that displays the interpolated frame and the reference frame generated by the interpolated frame generating apparatus so as to be temporally continuous.
The present invention also solves the above-described problems by a program for realizing the functions of the interpolation frame generating apparatus or the image display system having the above-described configuration on a computer, or a computer-readable recording medium storing the program. Can do.

本発明によれば、映像を背景画像と動くオブジェクトの動画像に分離し、映像ストリームの中で背景画像を蓄積することで、背景参照画像を準備し、これを複数の参照フレームと比較することによりオクリュージョンの動きベクトルを正確に求めることができるようになる。これにより背景画像をより鮮明に表示することができる。
また、背景参照画像を実際の画像より高精細な画像とすることにより、静止画領域の画質改善にも効果をもたらすことができる。
According to the present invention, a background reference image is prepared by separating a video into a background image and a moving image of a moving object, and storing the background image in a video stream, and comparing this with a plurality of reference frames. Thus, the occlusion motion vector can be accurately obtained. As a result, the background image can be displayed more clearly.
Further, by making the background reference image a finer image than the actual image, it is possible to bring about an effect in improving the image quality of the still image region.

以下、図面を参照して本発明の好適な実施形態について詳細に説明する。   DESCRIPTION OF EMBODIMENTS Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明の実施形態に係る補間フレーム生成装置の全体構成を示すブロック図であり、図2は、本発明の実施形態に係る補間フレーム生成装置の機能構成を示すブロック図であり、同図において、補間フレーム生成装置は、第1フレームバッファ部1、フレームディレイ2、第2フレームバッファ部3、画面全体動き検出部4、静動領域判定部5、補間フレーム動きベクトル生成部6、背景判定部7、補間フレーム生成部8、背景画像抽出・合成部9、背景画像蓄積部10から構成される。   FIG. 1 is a block diagram showing an overall configuration of an interpolation frame generation device according to an embodiment of the present invention. FIG. 2 is a block diagram showing a functional configuration of the interpolation frame generation device according to an embodiment of the present invention. In the figure, the interpolation frame generation device includes a first frame buffer unit 1, a frame delay 2, a second frame buffer unit 3, a whole screen motion detection unit 4, a static region determination unit 5, an interpolation frame motion vector generation unit 6, The background determination unit 7, the interpolation frame generation unit 8, the background image extraction / synthesis unit 9, and the background image storage unit 10 are configured.

第1フレームバッファ部1、第2フレームバッファ部3は、それぞれ入力画像の第1参照フレームと第2参照フレームを保存するバッファであり、補間フレームはこの間のフレームを生成することになる。フレームディレイ2は、第1参照フレームを時間的に近接したフレーム分遅延させる回路であり、第1参照フレームは第2参照フレームから時間的に近接したフレーム分後の参照フレームを表している。   The first frame buffer unit 1 and the second frame buffer unit 3 are buffers for storing the first reference frame and the second reference frame of the input image, respectively. The interpolated frame generates a frame between them. The frame delay 2 is a circuit that delays the first reference frame by a frame that is temporally close, and the first reference frame represents a reference frame that is a frame that is temporally close to the second reference frame.

画面全体動き検出部4は、画面全体の動きベクトル(gx,gy)を算出する動き検出部で、これを実現するアルゴリズムはいくつか存在するので後に説明する。画面全体の動きベクトルは、基本的には動きの少ない静領域の動きベクトルとほぼ一致するようにする。 The entire screen motion detection unit 4 is a motion detection unit that calculates a motion vector (g x , g y ) of the entire screen, and there are several algorithms for realizing this, and will be described later. Basically, the motion vector of the entire screen is made to substantially coincide with the motion vector of the static region with little motion.

静動領域判定部5は、第1参照フレームと第2参照フレームから、このフレーム間における動きの少ない静領域とそれ以外の動領域を算出する。この算出は補間ブロックのサイズで行っても良いし画素ごとに行ってもよい。
静動領域の判定方法はいくつか存在するが、以下では勾配法を用いた算出方法を紹介する。勾配法によると連続する画像データには以下のような関係式が成り立つ。
The static motion area determination unit 5 calculates a static area with less motion and other motion areas between the first reference frame and the second reference frame. This calculation may be performed with the size of the interpolation block or may be performed for each pixel.
There are several methods for determining the static region, but the following introduces a calculation method using the gradient method. According to the gradient method, the following relational expression holds for continuous image data.

Figure 2007060192
Figure 2007060192

ここで、vn(x,y)は、座標(x,y)における第1参照フレームと第2参照フレーム間の動きベクトルを表している。
この式を動きベクトルの大きさに着目して変換すると
Here, v n (x, y) represents a motion vector between the first reference frame and the second reference frame at coordinates (x, y).
Converting this formula by focusing on the magnitude of the motion vector

Figure 2007060192
Figure 2007060192

となる。ここで、 It becomes. here,

Figure 2007060192
Figure 2007060192

は、第1参照フレームの水平方向の勾配と垂直方向の勾配を表し、
n(x,y)−fn-1(x,y)
は第1参照フレームと第2参照フレームのフレーム差分となる。これらの値は、簡単な演算で求めることができる。つまり、式(3)を静動領域判定部5にて処理することは充分可能であるので、静動領域の判定にこの式(3)を採用できる。
ここで、さらに画面全体の動きベクトル(gx,gy)を考慮すると、式(3)は以下の式(4)のように書き換えられる。
Represents the horizontal and vertical gradients of the first reference frame,
f n (x, y) −f n−1 (x, y)
Is the frame difference between the first reference frame and the second reference frame. These values can be obtained by a simple calculation. That is, since it is sufficiently possible to process the equation (3) by the static region determination unit 5, this equation (3) can be adopted for the determination of the static region.
Here, when the motion vector (g x , g y ) of the entire screen is further taken into consideration, the equation (3) can be rewritten as the following equation (4).

Figure 2007060192
Figure 2007060192

これにより、静動領域判定部5では式(4)の値がある閾値より大きければ動領域、小さければ静領域と判定する。閾値については、実際に回路を作成し画像の状態を見ながら調整する必要があることが経験的に知られている。これらのことを式に表すと以下の式(5)のようになる。   As a result, the static motion region determination unit 5 determines that the value is the motion region if the value of the expression (4) is larger than a certain threshold value, and the static region if the value is smaller. It is empirically known that the threshold value needs to be adjusted while actually creating a circuit and viewing the state of the image. These can be expressed by the following equation (5).

Figure 2007060192
Figure 2007060192

ここで、hn(x,y)は、座標(x,y)における静動判定値であり、静動領域判定部5の出力に相当する。hn(x,y)は静領域ではnull、動領域では通常の値をもつ。vthは静動判定の閾値を表す。この閾値より画像の動きが大きい場合は動領域に、それ以外の場合は静領域と判定する。また、k()は変換関数であり、式(4)の結果を単純な数値に置き換える関数である。
この変換関数k()の内容は、本発明に直接関係するものではないので深く言及はしないが、これは|v|の値そのものを静動領域判定部5から出力するとデータ量が多くなってしまうために、この値をたとえば16段階の4ビット表現などに変換するために使われるものである。
Here, h n (x, y) is a static motion determination value at the coordinates (x, y) and corresponds to the output of the static motion region determination unit 5. h n (x, y) has a null value in the static region and a normal value in the dynamic region. v th represents a threshold value for determining static motion. When the motion of the image is larger than this threshold, it is determined as a moving region, and otherwise it is determined as a static region. K () is a conversion function, and is a function that replaces the result of Expression (4) with a simple numerical value.
The contents of the conversion function k () are not directly related to the present invention and will not be described in detail. However, if the value of | v | itself is output from the static region determination unit 5, the amount of data increases. Therefore, this value is used to convert the value into, for example, a 16-bit 4-bit representation.

補間フレーム動きベクトル生成部6は、補間フレーム上の補間ブロック毎の動きベクトルを求める処理部であり、第1参照フレームと第2フレームの間で求めた動きベクトルをスケール変換によって補間フレーム上に割り当てる。さらに、複数割り当てられた補間ブロックからより正確な動きブロックを選択するために式(1)、式(2)で表される処理を行う。   The interpolation frame motion vector generation unit 6 is a processing unit that obtains a motion vector for each interpolation block on the interpolation frame, and allocates the motion vector obtained between the first reference frame and the second frame on the interpolation frame by scale conversion. . Furthermore, in order to select a more accurate motion block from a plurality of assigned interpolation blocks, processing represented by Expression (1) and Expression (2) is performed.

背景判定部7は、背景参照画像と第1参照フレームまたは第2参照フレームの間で評価を行い、第1参照フレームとの判定値DUDFと、第2参照フレームとの判定値DUDBを算出して背景判定値として出力する。背景参照画像との評価は、例えば以下の式(6)と式(7)を使用する。   The background determination unit 7 evaluates between the background reference image and the first reference frame or the second reference frame, and calculates a determination value DUDF for the first reference frame and a determination value DUDB for the second reference frame. Output as background judgment value. The evaluation with the background reference image uses, for example, the following formulas (6) and (7).

Figure 2007060192
Figure 2007060192

これらの式(6)と式(7)は、全画面動きベクトル(gx,gy)を考慮したものになっているが、動きが微細であるとして考慮しなくともよい。
ここで、Un(x,y)は背景参照画像を表している。ux、uyは背景参照画像のオフセットを表す値であり、パンなどによって第1参照フレームと背景参照画像の位置がずれたときに補正するための変換係数である。ここでは、簡単のために平行移動のみが行われたと考えて、ux,uyのみで補正している。実際はいくつかの背景画像の移動を検出し射影変換行列を求めてそれを変換係数とする方法がある。
These equations (6) and (7) are based on the full-screen motion vector (g x , g y ), but may not be considered because the motion is fine.
Here, U n (x, y) represents a background reference image. “ux” and “uy” are values representing the offset of the background reference image, and are conversion coefficients for correction when the positions of the first reference frame and the background reference image are shifted due to panning or the like. Here, for the sake of simplicity, it is assumed that only parallel movement has been performed, and correction is performed using only ux and ui. Actually, there is a method of detecting a movement of several background images, obtaining a projective transformation matrix, and using it as a transformation coefficient.

変換係数ux,uyは、フレームごとに加算されてゆく、例えば平行移動のみと仮定するとux,uyは、nをフレーム番号として次のように求めることができる。   The conversion coefficients ux and ui are added for each frame. For example, assuming only parallel movement, ux and uy can be obtained as follows using n as a frame number.

ux=uxn−1+g
uy=uyn−1+g
ux n = ux n-1 + g x
uy n = uy n-1 + g y

本発明の補間フレーム生成部8では背景判定部7の出力を加味して、式(2)で求められた動きベクトルによるDFDの値と式(6)、式(7)の値を比較し、最も小さい値のものを補間画像として採用する。   In the interpolated frame generation unit 8 of the present invention, the output of the background determination unit 7 is taken into account, and the value of the DFD based on the motion vector obtained by Equation (2) is compared with the values of Equation (6) and Equation (7). The smallest value is adopted as the interpolation image.

但し、式(6)、式(7)の背景判定値を採用するには条件があり、式中で参照されている背景参照画像Un(x,y)がすべて存在する場合に限られる。データが存在しない場合は、Un(x,y)=nullで表される。そのような場合は背景判定値もnullとなる。 However, there are conditions for adopting the background determination values of Expressions (6) and (7), and only when all the background reference images U n (x, y) referenced in the expressions exist. When there is no data, it is expressed as U n (x, y) = null. In such a case, the background determination value is also null.

また、式(6)や式(7)の値が最も小さい値として選択された場合には、画像の補間には背景参照画像が用いられる。式(6)の場合には背景参照画像と第1参照フレームが、式(7)の場合には背景参照画像と第2参照フレームが用いられることになる。   In addition, when the values of Equation (6) and Equation (7) are selected as the smallest value, the background reference image is used for image interpolation. In the case of Expression (6), the background reference image and the first reference frame are used, and in the case of Expression (7), the background reference image and the second reference frame are used.

オクリュージョン領域におけるこれらの処理を考えると、従来技術における補間フレーム動きベクトル生成部6では、第1、第2参照フレームからは動きベクトルを算出不可能なため、式(2)の評価で使用する補間ブロックに割り当てられる動きベクトルの中に正しい動きベクトルが存在せず、式(2)の値が最も小さくなる動きベクトルを選出しても、それは誤った動きベクトルであった。そのため、従来技術においてはこの間違えた動きベクトルを用いた補間を行っていた。   Considering these processes in the occlusion region, the interpolated frame motion vector generation unit 6 in the prior art cannot calculate a motion vector from the first and second reference frames, and is used in the evaluation of Expression (2). Even when a correct motion vector does not exist among the motion vectors assigned to the interpolation block to be selected and a motion vector having the smallest value of the expression (2) is selected, it is an incorrect motion vector. Therefore, in the prior art, interpolation using the wrong motion vector has been performed.

しかし,本発明においては、第2参照フレーム以前のフレームにおいて蓄積された背景参照画像を用いて比較を行い、オクリュージョン領域では式(6)、式(7)が式(2)の評価値より必ず低くなるため、背景参照画像との間で正しい補間が行えるようになっている。   However, in the present invention, the comparison is performed using the background reference image accumulated in the frame before the second reference frame, and in the occlusion area, the expressions (6) and (7) are evaluated values of the expression (2). Since it is always lower, correct interpolation with the background reference image can be performed.

背景画像抽出・合成部9は、背景参照画像の生成を行うために静領域の画像データを第1参照フレームから読み出して、すでに蓄積されている背景参照画像にそれらの画像データを合成する処理を行う。これらの処理は例えば以下の式(8)で表すことができる。   The background image extraction / synthesis unit 9 reads out still area image data from the first reference frame in order to generate a background reference image, and synthesizes the image data with the background reference image already stored. Do. These processes can be expressed by, for example, the following formula (8).

Figure 2007060192
Figure 2007060192

ここで、Un+1(x,y)は,次の補間フレーム生成時に使用される背景参照画像を示しており、背景画像抽出・合成部9から背景画像蓄積部10に蓄積されるデータを表している。また、G(I,U)は第1参照フレームの画像Iと背景参照画像Uを合成する合成関数を表しており、例えば、第1参照フレームの輝度が背景参照画像と大きくかけ離れる場合は第1参照フレームの値をそのまま使い、ある程度の範囲内の差となる場合は双方の和の平均値を取るなどの処理を行う。ux,uyは背景判定部から値を得る。
また、In(x,y)=nullの条件は、第1参照フレームの座標(x,y)が静動領域判定部5により動領域と判定されたことを表しており、式(8)ではこの条件に一致する場合は背景画像抽出・合成部9では処理は行わず、現在の背景画像蓄積部10に保存されている値を保持することを示している。
Here, U n + 1 (x, y) indicates a background reference image used when the next interpolation frame is generated, and the data accumulated in the background image accumulation unit 10 from the background image extraction / synthesis unit 9 Represents. G (I, U) represents a synthesis function for synthesizing the image I of the first reference frame and the background reference image U. For example, when the luminance of the first reference frame is significantly different from the background reference image, The value of one reference frame is used as it is, and when the difference is within a certain range, the average value of the sum of both is taken. ux and ui are obtained from the background determination unit.
Further, the condition of I n (x, y) = null indicates that the coordinate (x, y) of the first reference frame has been determined as a moving area by the static movement area determining unit 5, and Expression (8) In the case where the above condition is met, the background image extracting / synthesizing unit 9 does not perform processing, and the current value stored in the background image accumulating unit 10 is retained.

第1参照フレームが先頭フレームである場合や、シーンチェンジ(フレーム間相関全くなくなる)が起こった場合などは、Un+1(x,y)はすべてnullとする。これにより、次のフレームで第1参照フレームと第2参照フレームの静領域はすべて背景参照画像に新しく登録されることになる。そのため、シーンチェンジ直後のオクリュージョン領域では、背景参照画像がnullであるため一時的に本発明の効果は無くなる。しかし、このような単発的な現象は視認困難であるため全体として動画の劣化にはつながらない。 When the first reference frame is the first frame or when a scene change (no correlation between frames occurs), U n + 1 (x, y) is all null. As a result, all the static regions of the first reference frame and the second reference frame are newly registered in the background reference image in the next frame. Therefore, in the occlusion area immediately after the scene change, since the background reference image is null, the effect of the present invention is temporarily lost. However, since such a single phenomenon is difficult to visually recognize, it does not lead to deterioration of the moving image as a whole.

式(8)では、静領域かどうかの静動領域判定部5からの出力hn(x、y)を用いて説明しているが、この条件は動きベクトルVn(x,y)を直接用いても良い。これは、式(5)からも明らかである。このような場合のブロック図は、図3のように静動領域判定部5が省略される場合もある。静動領域判定は、動きベクトル演算と独立に行う場合もあるので、図2のようなブロック図になることもある。   In Expression (8), the output hn (x, y) from the static motion region determination unit 5 as to whether or not it is a static region has been described. This condition uses the motion vector Vn (x, y) directly. Also good. This is also clear from equation (5). In the block diagram in such a case, the static region determination unit 5 may be omitted as shown in FIG. Since the static region determination may be performed independently of the motion vector calculation, the block diagram as shown in FIG. 2 may be used.

補間フレーム生成部8では、第1参照フレーム、第2参照フレームと背景参照画像より、すべての補間ブロックに対して補間フレーム画像を生成する。補間フレームの生成方法は、補間ブロックごとに静動領域判定部5の出力である静動判定値hn(x,y)を元に切り替える。
まず、hn(x,y)がnullでない場合は動領域として、従来どおり第1参照フレームと第2参照フレームの画像から補間フレーム動きベクトルから得た動きベクトルv(x,y)を使って補間により画像を生成する。これを簡単な直線内挿の式で表すと、次のような式(9)のようになる。
The interpolation frame generation unit 8 generates interpolation frame images for all interpolation blocks from the first reference frame, the second reference frame, and the background reference image. The interpolation frame generation method is switched based on the static motion determination value h n (x, y) that is the output of the static motion region determination unit 5 for each interpolation block.
First, when h n (x, y) is not null, the motion vector v (x, y) obtained from the interpolated frame motion vector from the images of the first reference frame and the second reference frame is used as a moving region as before. An image is generated by interpolation. When this is expressed by a simple linear interpolation formula, the following formula (9) is obtained.

(x,y)=m・f(x+v,y+v)+n・fn−1(x,y) …(9) Z n (x, y) = m · f n (x + v x , y + v y ) + n · f n−1 (x, y) (9)

ここで、Zn(x,y)は補間フレーム生成部8が出力する補間フレーム画像を表す。
また、mとnは補間フレームの内挿比をあらわし、m+n=1となる値である。
次に、hn(x,y)がnullの場合は静領域として、背景画像と第1参照フレームまたは第2参照フレームとの補間を行う。例えば、直線内挿によりフレーム補間を行うと、次のような式(10)〜(12)となる。
Here, Z n (x, y) represents an interpolated frame image output from the interpolated frame generation unit 8.
M and n represent interpolation ratios of interpolation frames, and m + n = 1.
Next, when h n (x, y) is null, interpolation is performed between the background image and the first reference frame or the second reference frame as a static region. For example, when frame interpolation is performed by linear interpolation, the following equations (10) to (12) are obtained.

(x,y)=m・U(ux+x+g,uy+y+g)+n・fn−1(x,y) …(10)
(x,y)=m・f(x,y)+n・U(ux+x,uy+y) …(11)
(x,y)=m・f(x,y)+n・fn−1(x,y) …(12)
Z n (x, y) = m · U n (ux + x + g x , uy + y + g y ) + n · f n−1 (x, y) (10)
Z n (x, y) = m · f n (x, y) + n · U n (ux + x, uy + y) (11)
Z n (x, y) = m · f n (x, y) + n · f n−1 (x, y) (12)

式(10)は、DUDFが存在し、且つ動きベクトル判定値(式(2)のDFD値)よりDUDFが小さい場合の直線内挿の例であり、式(11)はDUDBが存在し、且つ動きベクトル判定値(式(2)のDFD値)よりDUDBが小さい場合の直線内挿の例である。動きベクトル判定値よりDUDFもDUDBも同様に小さい場合には、DUDFとDUDBの小さい方の式が採用される。
また、式(12)は、上記の判定にもれた場合の直線内挿の例である。また、式(10)、式(11)は背景が平行移動する場合の例である。もし、それ以外の動きを考慮するのであれば、背景参照画像から値を得るときに変換行列を考慮に入れる必要がある。
Expression (10) is an example of linear interpolation when DUDF exists and DUDF is smaller than the motion vector determination value (DFD value of Expression (2)), Expression (11) has DUDB, and It is an example of linear interpolation when DUDB is smaller than the motion vector determination value (DFD value of Expression (2)). When DUDF and DUDB are similarly smaller than the motion vector determination value, the smaller of DUDF and DUDB is used.
Expression (12) is an example of linear interpolation when the above determination is lost. Expressions (10) and (11) are examples when the background moves in parallel. If other motions are considered, it is necessary to take the transformation matrix into consideration when obtaining values from the background reference image.

式(9)から式(12)は実用的には、これらの式のままではブロック境界で輝度のばらつきが発生してしまうので改善が必要である。例えば、fn(x,y)などの画像を参照箇所に関して、(x,y)周辺輝度の影響が伝わるように重み付け設定するなどの改善が考えられる。つまり、 Practically, equations (9) to (12) need to be improved because luminance variations occur at block boundaries if these equations are left as they are. For example, it is conceivable that an image such as f n (x, y) is weighted so that the influence of the (x, y) peripheral luminance is transmitted with respect to the reference location. That means

Figure 2007060192
Figure 2007060192

とするなどの工夫をする。ここで、w(i,j)は重み付け関数であり、 Devise such as. Where w (i, j) is a weighting function,

Figure 2007060192
Figure 2007060192

が成立する関数である。これはフィルタの設計手法などを使ってどのような値にするのかを決定するのが一般的である。これを式(10)に適用すると、 Is a function that holds. This is generally determined by using a filter design method or the like. Applying this to equation (10),

Figure 2007060192
Figure 2007060192

となる。他の式に関しても同様である。
式(9)から式(13)によって補完された補間ブロックを合わせると補間フレーム生成部8からの補間フレーム出力となる。
It becomes. The same applies to other equations.
When the interpolation blocks complemented by the equations (9) to (13) are combined, an interpolation frame output from the interpolation frame generation unit 8 is obtained.

画像全体の動きを検出する方法はいくつか考えられる。
例えば、BBC RD 1987/11の“TELEVISION MOTION MEASUREMENT FOR DATV AND OTHER APPLICATIONS”では、位相相関法を用いた動きベクトル検出を行っている。この手法を画面全体に用いると、画面内で一番領域の大きな部分、つまり背景と思われる部分の動きベクトルは、相関平面上で一番ピークの高い点の座標から得ることができる。
There are several methods for detecting the movement of the entire image.
For example, “TELEVISION MOTION MEASUREMENT FOR DATV AND OTHER APPLICATIONS” of BBC RD 1987/11 performs motion vector detection using a phase correlation method. When this method is used for the entire screen, the motion vector of the largest region in the screen, that is, the portion considered to be the background, can be obtained from the coordinates of the highest peak on the correlation plane.

また、IEEE Transaction on CE,Vol.50,No.2,MAY 2004の“Motion Compensated Frame Interpolation by new Block-based Motion Estimation Algorithm”によれば、以下の式から画面全体の動きベクトルを求めることができる。   Also, according to “Motion Compensated Frame Interpolation by new Block-based Motion Estimation Algorithm” of IEEE Transaction on CE, Vol.50, No.2, MAY 2004, the motion vector of the entire screen can be calculated from .

Figure 2007060192
Figure 2007060192

ここに、g,gはそれぞれ動きベクトルのx成分とy成分、Hn(h)は座標x=hに存在する画素の輝度平均、つまり垂直に並ぶ画素の輝度平均、Vn(v)は座標y=vに存在する水平画素の輝度平均、Sh,Svは探索範囲を表す。 Here, g x and g y are the x component and y component of the motion vector, respectively, H n (h) is the luminance average of the pixels existing at the coordinate x = h, that is, the luminance average of the pixels arranged vertically, V n (v ) Represents the average luminance of horizontal pixels existing at the coordinate y = v, and S h and S v represent the search range.

以上の様に、画面全体の動きベクトルを求める方法はいくつも提案されている。本発明では、これらの技術を用いて画面全体の動き検出を行うものとする。   As described above, various methods for obtaining the motion vector of the entire screen have been proposed. In the present invention, motion detection of the entire screen is performed using these techniques.

別の実施形態として、補間フレーム生成部の静動領域判定において、式(9)か式(10)〜(12)のどちらを使用するか判定するときに、動静領域判定値hn(x,y)だけでなく、DUDFやDUDBを判定に使用し、DUDFやDUDBがある閾値以下である場合は強制的に静領域として式(10)〜(12)を使用して補間画像を生成してもよい。 As another embodiment, when determining which of Equation (9) and Equations (10) to (12) is used in the static region determination of the interpolation frame generation unit, the static and static region determination value h n (x, y) Not only DUDF or DUDB is used for determination, but if DUDF or DUDB is below a certain threshold, an interpolation image is forcibly generated as a static region using equations (10) to (12) Also good.

さらに、別の実施形態として、背景参照画像の生成において、以下の式を用いることもできる。   Furthermore, as another embodiment, the following expression can be used in the generation of the background reference image.

Figure 2007060192
Figure 2007060192

つまり、背景参照画像を生成する場合に第1参照フレームばかりではなく、第2参照フレームの同じ背景画像に相当する部分の画素を合成する方法である。より複雑には双方の参照フレームをフィルタリングするなどして生成する方法もある。   That is, when a background reference image is generated, not only the first reference frame but also a portion of pixels corresponding to the same background image in the second reference frame is synthesized. More complicatedly, there is a method of generating by filtering both reference frames.

また、本発明は、上記の実施形態で説明した補間フレーム生成装置を用いて画像表示システムを構成することができる。
この画像表示システムでは、入力画像信号が補間フレーム生成装置に入力され、これまで述べた手法によって補間フレーム画像信号が作成される。この補間フレーム画像信号あるいは入力画像信号のいずれかを出力するように制御して、ホールド型画像表示装置へ出力する。表示装置では、出力画像信号に含まれる同期信号に対応して、リフレッシュレートを変えて画像の表示が行われる。
Further, according to the present invention, an image display system can be configured using the interpolation frame generation device described in the above embodiment.
In this image display system, an input image signal is input to an interpolation frame generation device, and an interpolation frame image signal is created by the method described so far. Control is performed to output either the interpolated frame image signal or the input image signal, and the image is output to the hold-type image display device. In the display device, an image is displayed by changing the refresh rate in accordance with the synchronization signal included in the output image signal.

なお、本発明の補間フレーム生成装置および画像表示システムの各機能を実現させるコンピュータプログラムとしても構成できる。このプログラムは、コンピュータで読み取り可能な記録媒体に格納されており、各処理は上記プログラムによって実現される。
この記録媒体として、メインメモリそのものがプログラムメディアであってもよいし、また外部記憶装置としてプログラム読み取り装置が設けられ、そこに記録媒体を挿入することで読み取り可能なプログラムメディアであってもよい。
Note that the present invention can also be configured as a computer program for realizing the functions of the interpolation frame generation apparatus and the image display system of the present invention. This program is stored in a computer-readable recording medium, and each process is realized by the program.
As the recording medium, the main memory itself may be a program medium, or a program medium provided with a program reading device as an external storage device and readable by inserting the recording medium therein.

ここで、上記プログラムメディアは、磁気テープやカセットテープなどのテープ系、フレキシブルディスクやハードディスク等の磁気ディスクやCD−ROM/MO/MD/DVDなどの光ディスクなどのディスク系、ICカード(メモリカードを含む)や光カード等のカード系、あるいはマスクROM、FPROM、EEPROM、フラッシュROM等による半導体メモリを含めた固定的にプログラムを担持する媒体など、いずれであってもよい。   Here, the program medium includes a tape system such as a magnetic tape and a cassette tape, a disk system such as a magnetic disk such as a flexible disk and a hard disk, an optical disk such as a CD-ROM / MO / MD / DVD, and an IC card (memory card). Or a card system such as an optical card, or a medium carrying a fixed program including a semiconductor memory such as a mask ROM, FPROM, EEPROM, flash ROM, or the like.

また、本実施形態においては、ネットワークに接続可能な構成であることから、記憶装置に格納された上記プログラムを、ネットワークを介してサーバコンピュータから直接供給を受けるようにしてもよい。この場合、このサーバコンピュータの記憶装置も本発明の記録媒体に含まれる。
このように、上述した実施形態の各機能をプログラム化して流通させることによって、コストの低廉化、および可搬性や汎用性を向上させることができる。
Further, in the present embodiment, since the configuration is connectable to a network, the program stored in the storage device may be directly supplied from the server computer via the network. In this case, the storage device of this server computer is also included in the recording medium of the present invention.
As described above, by programming and distributing the functions of the above-described embodiments, the cost can be reduced, and the portability and versatility can be improved.

本発明の実施形態に係るフレーム補間生成装置の全体構成を示すブロック図である。It is a block diagram which shows the whole structure of the frame interpolation production | generation apparatus which concerns on embodiment of this invention. 本発明の実施形態に係るフレーム補間生成装置の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the frame interpolation production | generation apparatus which concerns on embodiment of this invention. 本発明の実施形態に係るフレーム補間生成装置の他の機能構成を示すブロック図である。It is a block diagram which shows the other function structure of the frame interpolation production | generation apparatus which concerns on embodiment of this invention. 従来技術のフレーム補間生成装置の構成を示すブロック図である。It is a block diagram which shows the structure of the frame interpolation production | generation apparatus of a prior art. 補間フレームと動きベクトルの関係を説明するための図である。It is a figure for demonstrating the relationship between an interpolation frame and a motion vector. オクリュージョン領域を説明するための図である。It is a figure for demonstrating an occlusion area | region.

符号の説明Explanation of symbols

1…第1フレームバッファ部、2…フレームディレイ、3…第2フレームバッファ部、4…画面全体動き検出部、5…静動領域判定部、6…補間フレーム動きベクトル生成部、7…背景判定部、8…補間フレーム生成部、9…背景画像抽出・合成部、10…背景画像蓄積部。 DESCRIPTION OF SYMBOLS 1 ... 1st frame buffer part, 2 ... Frame delay, 3 ... 2nd frame buffer part, 4 ... Whole screen motion detection part, 5 ... Static motion area determination part, 6 ... Interpolation frame motion vector generation part, 7 ... Background determination 8 is an interpolation frame generation unit, 9 is a background image extraction / synthesis unit, 10 is a background image storage unit.

Claims (20)

時間的に連続した複数のフレームから構成される画像を用いて、存在するフレームの情報から存在しない新たな補間フレームを生成するような補間フレーム生成装置において、一部の存在するフレームから背景画像を抽出して背景画像を合成する背景画像抽出・合成手段と、生成した背景画像を蓄積する背景画像蓄積手段とを有し、存在するフレームの中から取り出したふたつ以上の参照フレームにおけるオクリュージョン領域を検出することを特徴とする補間フレーム生成装置。   In an interpolated frame generation apparatus that generates a new interpolated frame that does not exist from information of existing frames using an image composed of a plurality of temporally continuous frames, a background image is generated from some existing frames. An occlusion area in two or more reference frames extracted from existing frames, having background image extraction / synthesis means for extracting and synthesizing a background image and background image storage means for storing the generated background image An interpolated frame generating device characterized by 時間的に連続した複数のフレームから構成される画像を用いて、存在するフレームの情報から存在しない新たな補間フレームを生成するような補間フレーム生成方法において、一部の存在するフレームから背景画像を抽出して背景画像を合成し、背景画像蓄積手段に生成した背景画像を蓄積する背景画像抽出・合成工程を有し、存在するフレームの中から取り出したふたつ以上の参照フレームにおけるオクリュージョン領域を検出することを特徴とする補間フレーム生成方法。   In an interpolation frame generation method that generates a new interpolation frame that does not exist from information of existing frames using an image composed of a plurality of temporally continuous frames, a background image is obtained from some existing frames. Extracting and synthesizing the background image, and having a background image extraction / synthesizing process for accumulating the background image generated in the background image accumulating means, the occlusion area in two or more reference frames extracted from existing frames An interpolation frame generation method characterized by detecting. 時間的に連続した複数のフレームから構成される画像を用いて、存在するフレームの情報から存在しない新たな補間フレームを生成するような補間フレーム生成装置において、一部の存在するフレームから背景画像を抽出して背景画像を合成する背景画像抽出・合成手段と、生成した背景画像を蓄積する背景画像蓄積手段とを有し、存在するフレームの中から取り出したふたつ以上の参照フレームから新たな補間フレームを生成するときに、オクリュージョンなどの理由により前記参照フレームからでは動きベクトル検出が困難な部分に関しても正確な動きベクトルが求められることを特徴とする補間フレーム生成装置。   In an interpolated frame generation apparatus that generates a new interpolated frame that does not exist from information of existing frames using an image composed of a plurality of temporally continuous frames, a background image is generated from some existing frames. A new interpolated frame from two or more reference frames extracted from existing frames, having a background image extracting / synthesizing unit for extracting and synthesizing a background image and a background image accumulating unit for accumulating the generated background image An interpolated frame generation apparatus characterized in that an accurate motion vector is obtained even for a portion in which motion vector detection is difficult from the reference frame due to occlusion or the like. 時間的に連続した複数のフレームから構成される画像を用いて、存在するフレームの情報から存在しない新たな補間フレームを生成するような補間フレーム生成方法において、一部の存在するフレームから背景画像を抽出して背景画像を合成し、背景画像蓄積手段に生成した背景画像を蓄積する背景画像抽出・合成工程を有し、存在するフレームの中から取り出したふたつ以上の参照フレームから新たな補間フレームを生成するときに、オクリュージョンなどの理由により前記参照フレームからでは動きベクトル検出が困難な部分に関しても正確な動きベクトルが求められることを特徴とする補間フレーム生成方法。   In an interpolation frame generation method that generates a new interpolation frame that does not exist from information of existing frames using an image composed of a plurality of temporally continuous frames, a background image is obtained from some existing frames. It has a background image extraction and synthesis process that extracts and synthesizes the background image and accumulates the background image generated in the background image accumulation means, and creates a new interpolation frame from two or more reference frames extracted from existing frames. An interpolation frame generation method characterized in that, when generating, an accurate motion vector is obtained even for a portion where it is difficult to detect a motion vector from the reference frame for reasons such as occlusion. 時間的に連続した複数のフレームから構成される画像を用いて、存在するフレームの情報から存在しない新たな補間フレームを生成するような補間フレーム生成装置において、一部の存在するフレームから背景画像を抽出して背景画像を合成する背景画像抽出・合成手段と、生成した背景画像を蓄積する背景画像蓄積手段とを有し、存在するフレームの中から取り出したふたつ以上の参照フレームから新たな補間フレームを生成するときに、オクリュージョンなどの理由により前記参照フレームからでは補間が困難な背景画像を、前記背景画像蓄積手段を用いて補間することを特徴とする補間フレーム生成装置。   In an interpolated frame generation apparatus that generates a new interpolated frame that does not exist from information of existing frames using an image composed of a plurality of temporally continuous frames, a background image is generated from some existing frames. A new interpolated frame from two or more reference frames extracted from existing frames, having a background image extracting / synthesizing unit for extracting and synthesizing a background image and a background image accumulating unit for accumulating the generated background image An interpolated frame generating apparatus that interpolates a background image that is difficult to interpolate from the reference frame for reasons such as occlusion using the background image storage means. 請求項5に記載の補間フレーム生成装置において、存在するフレームの中から取り出したふたつ以上の参照フレームから新たな補間フレームを生成するときに、前記背景画像蓄積手段に蓄積されている背景画像を用いて、参照フレームの画像を背景画像とそれ以外の動いている物体の画像に分割することを特徴とする補間フレーム生成装置。   6. The interpolated frame generating apparatus according to claim 5, wherein when a new interpolated frame is generated from two or more reference frames extracted from existing frames, the background image stored in the background image storing means is used. An interpolated frame generation apparatus that divides an image of a reference frame into a background image and an image of a moving object other than the background image. 時間的に連続した複数のフレームから構成される画像を用いて、存在するフレームの情報から存在しない新たな補間フレームを生成するような補間フレーム生成方法において、一部の存在するフレームから背景画像を抽出して背景画像を合成し、生成した背景画像を背景画像蓄積手段に蓄積する背景画像抽出・合成手段を有し、存在するフレームの中から取り出したふたつ以上の参照フレームから新たな補間フレームを生成するときに、オクリュージョンなどの理由により前記参照フレームからでは補間が困難な背景画像を、前記背景画像蓄積手段を用いて補間することを特徴とする補間フレーム生成方法。   In an interpolation frame generation method that generates a new interpolation frame that does not exist from information of existing frames using an image composed of a plurality of temporally continuous frames, a background image is obtained from some existing frames. It has a background image extraction / synthesis unit that extracts and synthesizes the background image and stores the generated background image in the background image storage unit, and creates a new interpolation frame from two or more reference frames extracted from existing frames. A method of generating an interpolated frame, comprising: interpolating a background image, which is difficult to interpolate from the reference frame for reasons such as occlusion, using the background image storage means. 請求項7に記載の補間フレーム生成方法において、存在するフレームの中から取り出したふたつ以上の参照フレームから新たな補間フレームを生成するときに、前記背景画像蓄積手段に蓄積されている背景画像を用いて、参照フレームの画像を背景画像とそれ以外の動いている物体の画像に分割することを特徴とする補間フレーム生成方法。   8. The interpolation frame generation method according to claim 7, wherein when a new interpolation frame is generated from two or more reference frames extracted from existing frames, the background image stored in the background image storage means is used. Then, an interpolation frame generation method characterized by dividing an image of a reference frame into a background image and an image of a moving object other than the background image. 画像の時間的に近接する複数の参照フレームから補間フレームを生成する補間フレーム生成装置において、前記参照フレームから画面全体の動きベクトル(以降、全画像動きベクトルとよぶ)を検出する画面全体動き検出手段と、前記補間フレーム上における動きベクトルを、前記参照フレームから生成する補間フレーム動きベクトル生成手段と、前記参照フレームより過去の背景画像を蓄積的に保存している背景画像蓄積手段と、前記背景画像蓄積手段のもつ背景参照画像と前記参照フレームと前記全画像動きベクトルから、背景判定評価を行う背景判定手段と、前記背景判定評価の結果と前記参照フレーム、前記背景参照画像から新しい背景画像を合成する背景画像抽出・合成手段と、前記全画像動きベクトルと前記補間フレーム動きベクトルと、前記背景判定手段の背景判定評価の結果を用いて、前記参照フレームの画像と背景参照画像から補間フレーム画像を生成する補間フレーム生成手段からなり、前記参照フレームの画像だけでは対応付けが困難な領域においても補間画像の生成を可能としたことを特徴とする補間フレーム生成装置。   In an interpolation frame generation apparatus for generating an interpolation frame from a plurality of reference frames that are temporally close to each other in an image, an entire screen motion detection unit that detects a motion vector of the entire screen (hereinafter referred to as an all image motion vector) from the reference frame Interpolated frame motion vector generating means for generating a motion vector on the interpolated frame from the reference frame, background image accumulating means for accumulatively storing background images past the reference frame, and the background image Background determination means for performing background determination evaluation from the background reference image, the reference frame, and the whole image motion vector of the storage means, and a new background image is synthesized from the result of the background determination evaluation, the reference frame, and the background reference image Background image extraction / combination means, the whole image motion vector and the interpolated frame motion vector And an interpolated frame generating means for generating an interpolated frame image from the reference frame image and the background reference image using the result of the background determination evaluation of the background determining means. An interpolation frame generation device characterized in that an interpolation image can be generated even in a difficult region. 請求項9に記載の補間フレーム生成装置において、前記背景画像蓄積手段の有する背景参照画像と参照フレームの画像を用いて、画素または補間ブロック毎に輝度を比較するなどの手段により、画像の中の動きの少ない静領域とそれ以外の動領域をより正確に区別できる静動領域判定手段をさらに有し、その結果を用いて前記背景判定手段や前記背景画像抽出・合成手段の処理をより正確に実現することを特徴とする補間フレーム生成装置。   The interpolation frame generation device according to claim 9, wherein the background reference image and the reference frame image of the background image storage unit are used to compare the luminance for each pixel or each interpolation block. It further has a static area determination means that can more accurately distinguish a static area with less movement from other dynamic areas, and using the result, the processing of the background determination means and the background image extraction / synthesis means is more accurately performed. An interpolated frame generation device characterized by being realized. 請求項9に記載の補間フレーム生成装置において、前記背景画像抽出・合成手段は、背景参照画像と複数の参照フレームの画像から、画像の高解像度化技術を用いて、より高精細な高解像度背景画像を生成することを特徴とする補間フレーム生成装置。   10. The interpolated frame generation apparatus according to claim 9, wherein the background image extraction / combination means uses a background resolution image and a plurality of reference frame images to increase the resolution of the high-resolution background using an image resolution enhancement technique. An interpolation frame generation apparatus characterized by generating an image. 請求項9に記載の補間フレーム生成装置において、前記背景画像抽出・合成手段は、シーンチェンジを検出した場合や背景参照画像と参照フレームの間で大きな差が発生した場合に、背景画像蓄積手段の内容クリアすることを特徴とする補間フレーム生成装置。   10. The interpolated frame generation apparatus according to claim 9, wherein the background image extraction / combination means includes a background image storage means when a scene change is detected or when a large difference occurs between the background reference image and the reference frame. An interpolated frame generation apparatus characterized by clearing the contents. 画像の時間的に近接する複数の参照フレームから補間フレームを生成する補間フレーム生成方法において、前記参照フレームから画面全体の動きベクトル(以降、全画像動きベクトルとよぶ)を検出する画面全体動き検出工程と、前記補間フレーム上における動きベクトルを、前記参照フレームから生成する補間フレーム動きベクトル生成工程と、前記参照フレームより過去の背景画像を蓄積的に保存している背景画像蓄積手段のもつ背景参照画像と前記参照フレームと前記全画像動きベクトルから、背景判定評価をおこなう背景判定工程と、前記背景判定評価の結果と前記参照フレーム、前記背景参照画像から新しい背景画像を合成する背景画像抽出・合成工程と、前記全画像動きベクトルと前記補間フレーム動きベクトルと、前記背景判定工程の背景判定評価の結果を用いて、前記参照フレームの画像と背景参照画像から補間フレーム画像を生成する補間フレーム生成工程からなり、前記参照フレームの画像だけでは対応付けが困難な領域においても補間画像の生成を可能としたことを特徴とする補間フレーム生成方法。   In the interpolation frame generation method for generating an interpolation frame from a plurality of reference frames that are temporally close to each other in an image, an entire screen motion detection step of detecting a motion vector of the entire screen (hereinafter referred to as an all image motion vector) from the reference frame An interpolated frame motion vector generating step for generating a motion vector on the interpolated frame from the reference frame, and a background reference image possessed by a background image accumulating means for accumulatively storing past background images from the reference frame A background determination step of performing a background determination evaluation from the reference frame and the whole image motion vector, and a background image extraction / synthesis step of combining a new background image from the result of the background determination evaluation, the reference frame, and the background reference image The whole image motion vector, the interpolated frame motion vector, and the background image. An interpolation frame generation step of generating an interpolated frame image from the reference frame image and the background reference image using the result of the background judgment evaluation of the process, and interpolation is performed even in a region that is difficult to associate with the reference frame image alone An interpolation frame generation method characterized by enabling generation of an image. 請求項13に記載の補間フレーム生成方法において、前記背景画像蓄積手段の有する背景参照画像と参照フレームの画像を用いて、画素または補間ブロック毎に輝度を比較するなどにより、画像の中の動きの少ない静領域とそれ以外の動領域をより正確に区別できる静動領域判定工程をさらに有し、その結果を用いて前記背景判定工程や前記背景画像抽出・合成工程の処理をより正確に実現することを特徴とする補間フレーム生成方法。   14. The method of generating an interpolation frame according to claim 13, wherein brightness of each pixel or interpolation block is compared by using a background reference image and a reference frame image of the background image storage means, for example. It further has a static motion region determination step that can more accurately distinguish a small number of static regions and other motion regions, and using the result, the background determination step and the background image extraction / synthesis process are more accurately realized. An interpolation frame generation method characterized by the above. 請求項13に記載の補間フレーム生成方法において、前記背景画像抽出・合成工程は、背景参照画像と複数の参照フレームの画像から、画像の高解像度化技術を用いて、より高精細な高解像度背景画像を生成することを特徴とする補間フレーム生成方法。   14. The interpolation frame generation method according to claim 13, wherein the background image extraction / synthesis step uses a background reference image and images of a plurality of reference frames to obtain a high-definition high-resolution background using an image resolution enhancement technique. An interpolation frame generation method characterized by generating an image. 請求項13に記載の補間フレーム生成方法において、前記背景画像抽出・合成工程は、シーンチェンジを検出した場合や背景参照画像と参照フレームの間で大きな差が発生した場合に、背景画像蓄積手段の内容クリアすることを特徴とする補間フレーム生成方法。   14. The method of generating an interpolated frame according to claim 13, wherein the background image extracting / synthesizing step is performed by the background image accumulating unit when a scene change is detected or when a large difference occurs between the background reference image and the reference frame. An interpolation frame generation method characterized by clearing the contents. 請求項1、3、5、6、9、10、11または12に記載の補間フレーム生成装置によって生成された補間フレームと参照フレームとを時間的に連続するように表示する画像表示システム。   An image display system for displaying an interpolated frame and a reference frame generated by the interpolated frame generating apparatus according to claim 1, 3, 5, 6, 9, 10, 11, or 12 so as to be temporally continuous. コンピュータに、請求項1、3、5、6、9、10、11または12に記載の補間フレーム生成装置の機能、または、請求項17に記載の画像表示システムの機能を実現するプログラム。   The program which implement | achieves the function of the interpolation frame production | generation apparatus of Claim 1, 3, 5, 6, 9, 10, 11 or 12 in a computer, or the function of the image display system of Claim 17. 請求項2、4、7、8、13、14、15または16に記載の補間フレーム生成方法の処理工程をコンピュータに実行させるためのプログラム。   A program for causing a computer to execute the processing steps of the interpolation frame generation method according to claim 2, 4, 7, 8, 13, 14, 15 or 16. コンピュータが読み取り可能な記録媒体であって、請求項18または19に記載のプログラムを記録したことを特徴とする記録媒体。   A computer-readable recording medium on which the program according to claim 18 or 19 is recorded.
JP2005242058A 2005-08-24 2005-08-24 Interpolating frame generator, its method, image display system and program and recording medium Pending JP2007060192A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005242058A JP2007060192A (en) 2005-08-24 2005-08-24 Interpolating frame generator, its method, image display system and program and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005242058A JP2007060192A (en) 2005-08-24 2005-08-24 Interpolating frame generator, its method, image display system and program and recording medium

Publications (1)

Publication Number Publication Date
JP2007060192A true JP2007060192A (en) 2007-03-08

Family

ID=37923291

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005242058A Pending JP2007060192A (en) 2005-08-24 2005-08-24 Interpolating frame generator, its method, image display system and program and recording medium

Country Status (1)

Country Link
JP (1) JP2007060192A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101016199B1 (en) 2009-03-18 2011-02-24 (주)씨앤에스 테크놀로지 Appratus and method for generating the midterm image frame using plural reference frames
US8159605B2 (en) 2007-07-13 2012-04-17 Fujitsu Limited Frame interpolating apparatus and method
US8204124B2 (en) 2007-08-27 2012-06-19 Sony Corporation Image processing apparatus, method thereof, and program
US8432973B2 (en) 2007-12-26 2013-04-30 Kabushiki Kaisha Toshiba Interpolation frame generation apparatus, interpolation frame generation method, and broadcast receiving apparatus
US8433156B2 (en) 2010-03-01 2013-04-30 Kabushiki Kaisha Toshiba Interpolation frame generating apparatus and method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8159605B2 (en) 2007-07-13 2012-04-17 Fujitsu Limited Frame interpolating apparatus and method
US8204124B2 (en) 2007-08-27 2012-06-19 Sony Corporation Image processing apparatus, method thereof, and program
US8432973B2 (en) 2007-12-26 2013-04-30 Kabushiki Kaisha Toshiba Interpolation frame generation apparatus, interpolation frame generation method, and broadcast receiving apparatus
KR101016199B1 (en) 2009-03-18 2011-02-24 (주)씨앤에스 테크놀로지 Appratus and method for generating the midterm image frame using plural reference frames
US8433156B2 (en) 2010-03-01 2013-04-30 Kabushiki Kaisha Toshiba Interpolation frame generating apparatus and method

Similar Documents

Publication Publication Date Title
JP4198608B2 (en) Interpolated image generation method and apparatus
JP4157579B2 (en) Image display apparatus and method, image processing apparatus and method
JP4220284B2 (en) Frame interpolation method, apparatus, and image display system using the same
US8144255B2 (en) Still subtitle detection apparatus and image processing method therefor
TWI455588B (en) Bi-directional, local and global motion estimation based frame rate conversion
US7936950B2 (en) Apparatus for creating interpolation frame
US8437398B2 (en) Method and apparatus for adaptively converting frame rate based on motion vector, and display device with adaptive frame rate conversion function
US20060222077A1 (en) Method, apparatus and computer program product for generating interpolation frame
JP3840129B2 (en) Motion vector detection method and apparatus, interpolation image generation method and apparatus, and image display system
EP2161687B1 (en) Video signal processing device, video signal processing method, and video signal processing program
JP5669523B2 (en) Frame interpolation apparatus and method, program, and recording medium
JP2006195525A (en) Apparatus and program for adding video object locus
JP2007060192A (en) Interpolating frame generator, its method, image display system and program and recording medium
JP2004128702A (en) Frame interpolation method
JP4355347B2 (en) Image display apparatus and method, image processing apparatus and method
JP5197374B2 (en) Motion estimation
JP2009181067A (en) Image display device and method, and image processing device and method
JP2009182865A (en) Image display device and method, image processor, and image processing method
JP2006215657A (en) Method, apparatus, program and program storage medium for detecting motion vector
JP2008193730A (en) Image display device and method, and image processing device and method
JP2009065283A (en) Image shake correction apparatus
JP2008109628A (en) Image display apparatus and method, image processor and method
JP4157587B2 (en) Image display apparatus and method, image processing apparatus and method
JP2006146823A (en) Video object trajectory adding system and video object trajectory adding program
JP4181189B2 (en) Motion vector detection method and apparatus, interpolation image generation method and apparatus, and image display system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070822

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090526

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090630

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20091110