JP2008227928A - Frame rate converter and video display device - Google Patents

Frame rate converter and video display device Download PDF

Info

Publication number
JP2008227928A
JP2008227928A JP2007063455A JP2007063455A JP2008227928A JP 2008227928 A JP2008227928 A JP 2008227928A JP 2007063455 A JP2007063455 A JP 2007063455A JP 2007063455 A JP2007063455 A JP 2007063455A JP 2008227928 A JP2008227928 A JP 2008227928A
Authority
JP
Japan
Prior art keywords
frame
correlation
interpolation
frames
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007063455A
Other languages
Japanese (ja)
Other versions
JP4956239B2 (en
Inventor
Yoshinao Hiranuma
義直 平沼
Masutaka Inoue
益孝 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2007063455A priority Critical patent/JP4956239B2/en
Publication of JP2008227928A publication Critical patent/JP2008227928A/en
Application granted granted Critical
Publication of JP4956239B2 publication Critical patent/JP4956239B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a frame rate converter, along with a video display device, capable of generating an appropriate interpolating video for smooth video reproduction even at such points as video content significantly changes, for example at a scene change. <P>SOLUTION: The frame rate converter comprises a correlation judging means which judges whether there exists correlation between adjoining, or succeeding, frames, a first interpolating frame generating means which, if judged that there exists correlation, generates interpolation information for generating an interpolating frame that is inserted between the frames based on that frames, and generates the interpolating frame based on the acquired interpolation information, and a second interpolating frame generating means which, if judged there exists no correlation, predicts the interpolation information for generating a current interpolating frame based on the interpolation information used for the previous interpolating frame, and generates an interpolating frame based on the predicted interpolation information. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

この発明は、フレームレート変換装置および映像表示装置に関する。   The present invention relates to a frame rate conversion device and a video display device.

既存のコンテンツのフレームレートよりも高いフレームレートでコンテンツを表示できる映像表示装置が開発されている。例えば、液晶テレビにおいては、動く画像がぼけるのを防止するために、毎秒60フレームの映像を毎秒120フレームの映像に変換し、得られた毎秒120フレームの映像を液晶表示器に表示させるものが開発されている。このような映像表示装置にコンテンツを表示する場合、同じフレームの映像を単に複数回出力するのではなく、信号処理によってフレーム間の補間映像を生成し、それをフレーム間に挿入することによって、滑らかな再生映像を得るようにしている。   Video display devices capable of displaying content at a frame rate higher than that of existing content have been developed. For example, in a liquid crystal television, in order to prevent a moving image from being blurred, an image of 60 frames per second is converted into an image of 120 frames per second, and the obtained 120 frames of images are displayed on a liquid crystal display. Has been developed. When displaying content on such a video display device, the video of the same frame is not simply output a plurality of times, but interpolated video between frames is generated by signal processing and inserted between the frames to smoothly To get a good playback video.

補間映像は通常、その前後のフレーム映像を用いて生成されるが、シーンチェンジなどの映像内容が大きく変化する箇所においては、良好な補間映像が得られないという問題がある。   The interpolated video is normally generated using the frame video before and after the interpolated video, but there is a problem that a good interpolated video cannot be obtained at a location where the video content changes greatly, such as a scene change.

特開2006−270823号公報に記載された「画像レート変換方法及び画像レート変換装置」では、前後のフレームに相関がないところでは、(1)前フレームの画像をそのまま当てはめるか、または(2)前後のフレーム間の動きベクトルを利用して、前フレームのみから片方向に動き補償を行なって補間フレームを生成するようにしている。   In the “image rate conversion method and image rate conversion device” described in Japanese Patent Laid-Open No. 2006-270823, (1) the image of the previous frame is applied as it is, or (2) where there is no correlation between the previous and next frames. By using motion vectors between the previous and next frames, motion compensation is performed in only one direction from the previous frame to generate an interpolation frame.

しかしながら、上記(1)では、シーンチェンジの瞬間にガタツキが発生してしまう。また、上記(2)では、シーンチェンジをまたがるフレームを使って生成された不正確な動きベクトルを利用しているため、前フレームの画像のみから補間フレームを生成したとしても、歪んだ画像になってしまう。
特開2006−270823号公報
However, in (1) above, rattling occurs at the moment of the scene change. In the above (2), since an inaccurate motion vector generated using a frame across scene changes is used, even if an interpolation frame is generated only from the image of the previous frame, the image is distorted. End up.
JP 2006-270823 A

この発明は、シーンチェンジなどの映像内容が大きく変化する箇所においても、好適な補間フレームを生成でき、滑らかな再生映像を表示できる、フレームレート変換装置および映像表示装置を提供することを目的とする。   An object of the present invention is to provide a frame rate conversion device and a video display device capable of generating a suitable interpolation frame and displaying a smooth reproduced video even at a location where video content changes greatly, such as a scene change. .

この発明は、フェードインまたはフェードアウトのような場面においても、滑らかな補間フレームを生成することかできるフレームレート変換装置および映像表示装置を提供することを目的とする。   An object of the present invention is to provide a frame rate conversion device and a video display device capable of generating a smooth interpolation frame even in a scene such as fade-in or fade-out.

請求項1に記載の発明は、フレームレート変換装置において、隣り合う前後フレームの間に相関があるかないかを判定する相関判定手段、相関があると判定された場合には、上記両フレームから、上記両フレームの間に挿入する補間フレームを生成するための補間情報を生成し、得られた補間情報に基づいて補間フレームを生成する第1の補間フレーム生成手段、ならびに相関がないと判定された場合には、前回の補間フレーム生成のための使用された補間情報に基づいて、今回の補間フレームを生成するための補間情報を予測し、予測した補間情報に基づいて補間フレームを生成する第2の補間フレーム生成手段を備えていることを特徴とする。   According to the first aspect of the present invention, in the frame rate conversion apparatus, a correlation determination unit that determines whether there is a correlation between adjacent front and rear frames. First interpolation frame generation means for generating interpolation information for generating an interpolation frame to be inserted between the two frames and generating an interpolation frame based on the obtained interpolation information, and determined to have no correlation In this case, second interpolation information is generated based on the interpolation information used to generate the current interpolation frame based on the interpolation information used for generating the previous interpolation frame, and the interpolation frame is generated based on the predicted interpolation information. The interpolation frame generating means is provided.

請求項2に記載の発明は、請求項1に記載のフレームレート変換装置において、第2の補間フレーム生成手段は、上記両フレームのうちの前フレームのみを用いて、補間フレームを生成するものであることを特徴とする。   According to a second aspect of the present invention, in the frame rate conversion apparatus according to the first aspect, the second interpolation frame generation means generates an interpolation frame using only the previous frame of the two frames. It is characterized by being.

請求項3に記載の発明は、隣り合う前後フレームの間に相関があるかないかを判定する第1の相関判定手段、第1の相関判定手段によって相関がないと判別された場合には、上記両フレームの輝度レベルを揃えた後に、両フレーム間に相関があるかないかを判定する第2の相関判定手段、ならびに第2の相関判定手段によって、相関があると判定された場合には、輝度レベルが揃えられた後の両フレームから、上記両フレームの間に挿入する補間フレームを生成するための補間情報を生成し、得られた補間情報に基づいて補間フレームを生成する手段を備えていることを特徴とする。   In the third aspect of the present invention, when it is determined that there is no correlation by the first correlation determination unit and the first correlation determination unit that determine whether or not there is a correlation between adjacent frames. After the brightness levels of both frames are aligned, the second correlation determining unit that determines whether there is a correlation between the frames and the second correlation determining unit determine that there is a correlation. Interpolation information for generating an interpolation frame to be inserted between both frames after the level has been aligned is generated, and an interpolation frame is generated based on the obtained interpolation information It is characterized by that.

請求項4に記載の発明は、請求項3に記載のフレームレート変換装置において、第1の相関判定手段によって、相関があると判定された場合には、上記両フレームから、上記両フレームの間に挿入する補間フレームを生成するための補間情報を生成し、得られた補間情報に基づいて補間フレームを生成する手段、ならびに第2の相関判定手段によって、相関がないと判定された場合には、前回の補間フレーム生成のための使用された補間情報に基づいて、今回の補間フレームを生成するための補間情報を予測し、予測した補間情報に基づいて補間フレームを生成する手段を備えていることを特徴とする。   According to a fourth aspect of the present invention, in the frame rate conversion apparatus according to the third aspect, when the first correlation determining unit determines that there is a correlation, the frame is converted from the two frames to the interval between the two frames. When it is determined that there is no correlation by means for generating interpolation information for generating an interpolation frame to be inserted into the frame, and by means for generating an interpolation frame based on the obtained interpolation information and the second correlation determination means And means for predicting the interpolation information for generating the current interpolation frame based on the interpolation information used for generating the previous interpolation frame, and generating the interpolation frame based on the predicted interpolation information. It is characterized by that.

請求項5に記載の発明は、映像表示装置において、請求項1乃至4に記載のフレームレート変換装置を備えていることを特徴とする。   According to a fifth aspect of the present invention, in the video display device, the frame rate conversion device according to any one of the first to fourth aspects is provided.

この発明によれば、シーンチェンジなどの映像内容が大きく変化する箇所においても、好適な補間フレームを生成でき、滑らかな再生映像を表示できるようになる。   According to the present invention, it is possible to generate a suitable interpolation frame and display a smooth reproduced video even at a location where the video content changes greatly, such as a scene change.

また、この発明によれば、フェードインまたはフェードアウトのような場面においても、滑らかな補間フレームを生成することかできるようになる。   Also, according to the present invention, a smooth interpolation frame can be generated even in a scene such as fade-in or fade-out.

以下、図面を参照して、この発明を、液晶表示装置内に設けられた毎秒60フレームの映像を毎秒120フレームの映像に変換するためのフレームレート変換装置に適用した場合の実施例について説明する。   DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments in the case where the present invention is applied to a frame rate conversion device for converting 60 frames per second video into a 120 frames per second provided in a liquid crystal display device will be described below with reference to the drawings. .

〔1〕実施例1の基本的な考え方についての説明 [1] Explanation of basic concept of Example 1

この明細書においては、図1に示すように、前後2つのフレームF(N)、F(N+1)とに基づいて補間フレームFc(N)を生成する場合において、時間的に旧いフレーム(N)を前フレームまたは現フレームといい、時間的に新しいフレームF(N+1)を後フレームまたは参照フレームということにする。   In this specification, as shown in FIG. 1, when an interpolation frame Fc (N) is generated based on two frames F (N) and F (N + 1) before and after, the temporally old frame (N) Is referred to as a previous frame or a current frame, and a temporally new frame F (N + 1) is referred to as a subsequent frame or a reference frame.

図2を参照して、実施例1の基本的な考え方について説明する。   With reference to FIG. 2, the basic concept of the first embodiment will be described.

実施例1では、隣接する2つのフレームに相関がある場合と、隣接する2つのフレームに相関がない場合とで、補間フレームの生成方法を変えている。図2には、隣接する2つのフレームF(N)、F(N+1)には相関があり、隣接する2つのフレームF(N+1)、F(N+2)には相関がない例が示されている。   In the first embodiment, the interpolation frame generation method is changed between the case where there is a correlation between two adjacent frames and the case where there is no correlation between two adjacent frames. FIG. 2 shows an example in which two adjacent frames F (N) and F (N + 1) have a correlation and two adjacent frames F (N + 1) and F (N + 2) have no correlation. .

互いに相関がある2つのフレームF(N)、F(N+1)から補間フレームFc(N)を生成する場合には、両フレームF(N)、F(N+1)の映像に基づいて、動きがあるエリア(動きエリア:図2の中段の図では斜線で示されている領域)を特定するとともに、映像エリアを分割することにより設定された複数のブロック毎に動きベクトル(図2の中段の図では、0または→で示されている)を求める。動きエリアに関する情報と動きベクトルとが補間フレームを生成するための補間情報となる。動きエリアの特定は、画素毎に映像の変化があるか否かを判別し、映像の変化がある画素の集合体を動きエリアとして特定することによって行なわれる。   When the interpolated frame Fc (N) is generated from the two frames F (N) and F (N + 1) that are correlated with each other, there is motion based on the images of both the frames F (N) and F (N + 1). An area (motion area: an area indicated by diagonal lines in the middle diagram in FIG. 2) is specified, and a motion vector (in the middle diagram in FIG. 2) is set for each of a plurality of blocks set by dividing the video area. , 0 or →). The information on the motion area and the motion vector become interpolation information for generating an interpolation frame. The movement area is specified by determining whether or not there is a video change for each pixel, and specifying an aggregate of pixels having a video change as the movement area.

動きのないエリアに含まれる画素については、前後フレームのうちの一方のフレームの対応する対象画素の画像をそのまま補間画像として用いる。なお、動きのないエリアに含まれる画素について、前フレームF(N)の対応する対象画素の画像と後フレームF(N+1)の対応する対象画素の画像との平均を補間画像として用いていもよい。動きのあるエリアに含まれる画素については、前後フレームF(N)、F(N+1)の一方または両方から、その対象画素に対する動きベクトルに基づいて決定される画素位置の画像を抽出して補間画像として使用する。   For pixels included in an area where there is no motion, the image of the corresponding target pixel in one of the previous and subsequent frames is used as an interpolated image as it is. For the pixels included in the non-motion area, the average of the corresponding target pixel image in the previous frame F (N) and the corresponding target pixel image in the subsequent frame F (N + 1) may be used as the interpolation image. . For pixels included in an area with motion, an interpolated image is extracted from one or both of the preceding and following frames F (N) and F (N + 1) by extracting an image at a pixel position determined based on the motion vector for the target pixel. Use as

互いに相関がない2つのフレームF(N+1)、F(N+2)から補間フレームFc(N+1)を生成する場合には、両フレームF(N+1)、F(N+2)から補間フレームFc(N+1)を生成するための動きエリアと動きベクトルを求めるのではなく、前回求められた動きエリアと動きベクトルに基づいて、補間フレームFc(N+1)を生成するための動きエリアと動きベクトルを予測する。   When generating an interpolated frame Fc (N + 1) from two frames F (N + 1) and F (N + 2) that are not correlated with each other, an interpolated frame Fc (N + 1) is generated from both frames F (N + 1) and F (N + 2). The motion area and the motion vector for generating the interpolation frame Fc (N + 1) are predicted based on the motion area and the motion vector obtained last time, instead of obtaining the motion area and the motion vector for performing the motion.

そして、予測した動きエリアと動きベクトルとに基づいて、補間フレームFc(N+1)を生成する。つまり、動きのないエリアに含まれる画素については、前フレームF(N+1)の対応する対象画素の画像をそのまま補間画像として用いる。動きのあるエリアに含まれる画素については、前フレームF(N+1)から、その対象画素に対する動きベクトルに基づいて決定される画素位置の画像を抽出して補間画像として使用する。   Then, an interpolated frame Fc (N + 1) is generated based on the predicted motion area and motion vector. That is, for the pixels included in the non-motion area, the corresponding target pixel image of the previous frame F (N + 1) is used as an interpolation image as it is. For pixels included in an area with motion, an image at a pixel position determined based on the motion vector for the target pixel is extracted from the previous frame F (N + 1) and used as an interpolated image.

このように、互いに相関がない2つのフレーム(N+1)、(N+2)から補間フレームFc(N+1)を生成する場合には、補間フレームFc(N)は、前フレームのみから生成される。
〔2〕フレームレート変換装置の電気的構成についての説明
As described above, when the interpolation frame Fc (N + 1) is generated from the two frames (N + 1) and (N + 2) that are not correlated with each other, the interpolation frame Fc (N) is generated only from the previous frame.
[2] Description of electrical configuration of frame rate conversion device

図3は、フレームレート変換装置の電気的構成を示している。   FIG. 3 shows an electrical configuration of the frame rate conversion apparatus.

入力映像信号は、遅延回路1、フレーム相関判定部2、動きエリア生成部3、動きベクトル生成部4および補間フレーム合成部6に送られる。遅延回路1に送られた入力映像信号は、1フレーム期間だけ遅延せしめられた後、フレーム相関判定部2、動きエリア生成部3、動きベクトル生成部4および補間フレーム合成部6に送られる。   The input video signal is sent to the delay circuit 1, the frame correlation determination unit 2, the motion area generation unit 3, the motion vector generation unit 4, and the interpolation frame synthesis unit 6. The input video signal sent to the delay circuit 1 is delayed by one frame period, and then sent to the frame correlation determination unit 2, motion area generation unit 3, motion vector generation unit 4 and interpolation frame synthesis unit 6.

遅延回路1に入力されるフレームをF(N+1)で表し、遅延回路1から出力されるフレームをF(N)で表すことにする。F(N)とF(N+1)とから補間フレームFc(N)を生成するので、F(N)を前フレーム(現フレーム)といい、F(N+1)を後フレーム(参照フレーム)ということにする。   A frame input to the delay circuit 1 is represented by F (N + 1), and a frame output from the delay circuit 1 is represented by F (N). Since the interpolated frame Fc (N) is generated from F (N) and F (N + 1), F (N) is referred to as the previous frame (current frame), and F (N + 1) is referred to as the subsequent frame (reference frame). To do.

フレーム相関判定部2は、F(N+1)とF(N)との間に相関があるか否かを判定する。F(N+1)とF(N)との間に相関があるか否かは、公知の技術を用いて行なうことができる。例えば、特開2006−270823号公報に記載されているように、ブロックマッチング誤差量DM およびMVのブロック間相関Dv の一方または両方の値を用いて、F(N+1)とF(N)との間に相関があるか否かを判定してもよい。 The frame correlation determination unit 2 determines whether or not there is a correlation between F (N + 1) and F (N). Whether there is a correlation between F (N + 1) and F (N) can be performed using a known technique. For example, as described in JP-A-2006-270823, by using the values of one or both of the inter-block correlation D v of the block matching error amount D M and MV, F (N + 1) and F (N) It may be determined whether or not there is a correlation.

フレーム相関判定部2は、相関があるか否かの判定結果を表す信号rを、動きエリア・動きベクトル補正部5および補間フレーム合成部6に送る。この例では、相関ありの場合にはr=1となり、相関なしの場合にはr=0となる。   The frame correlation determination unit 2 sends a signal r representing the determination result of whether or not there is a correlation to the motion area / motion vector correction unit 5 and the interpolated frame synthesis unit 6. In this example, r = 1 when there is a correlation, and r = 0 when there is no correlation.

動きエリア生成部3は、F(N+1)とF(N)との間で、映像に変化のある画素を特定する。つまり、画素毎にF(N+1)とF(N)との間の差分の絶対値を求め、差分の絶対値が所定の閾値以上である場合には、その画素を変化のある画素(動きのある画素)とみなす。動きエリア生成部3は、画素毎に動きがあるエリアか否かを表す情報からなる動きエリア情報M’(N)を生成して、動きエリア・動きベクトル補正部5に送る。   The motion area generation unit 3 identifies a pixel having a change in the video between F (N + 1) and F (N). That is, the absolute value of the difference between F (N + 1) and F (N) is obtained for each pixel, and when the absolute value of the difference is equal to or greater than a predetermined threshold, the pixel is changed to a pixel with a change (motion A certain pixel). The motion area generation unit 3 generates motion area information M ′ (N) including information indicating whether or not each pixel has a motion and sends the motion area information M ′ (N) to the motion area / motion vector correction unit 5.

動きベクトル生成部4は、F(N+1)とF(N)との間の動きベクトルを算出する。具体的には、動きベクトル生成部4は、ブロックマッチングなどの既存手法を用いて、映像エリアを分割することにより設定される複数のブロック毎に動きベクトルを求める。動きベクトル生成部4は、各ブロック毎に求めた動きベクトルV’(N)を生成して、動きエリア・動きベクトル補正部5に送る。   The motion vector generation unit 4 calculates a motion vector between F (N + 1) and F (N). Specifically, the motion vector generation unit 4 obtains a motion vector for each of a plurality of blocks set by dividing a video area using an existing method such as block matching. The motion vector generation unit 4 generates a motion vector V ′ (N) obtained for each block and sends it to the motion area / motion vector correction unit 5.

図4は、動きエリア・動きベクトル補正部5の電気的構成を示している。   FIG. 4 shows an electrical configuration of the motion area / motion vector correction unit 5.

動きエリア・動きベクトル補正部5は、信号切替回路51、遅延回路52および動きエリア・動きベクトル予測部53を備えている。   The motion area / motion vector correction unit 5 includes a signal switching circuit 51, a delay circuit 52, and a motion area / motion vector prediction unit 53.

信号切替回路51には、動きエリア情報として、動きエリア生成部3によって生成された動きエリア情報M’(N)と動きエリア・動きベクトル予測部53によって生成された動きエリアの予測情報M”(N)とが入力されている。また、信号切替回路51には、ブロック毎の動きベクトルとして、動きベクトル生成部4によって生成された動きベクトルV’(N)と動きエリア・動きベクトル予測部53によって生成された動きベクトルの予測値V”(N)が入力している。   The signal switching circuit 51 includes, as motion area information, motion area information M ′ (N) generated by the motion area generation unit 3 and motion area prediction information M ″ generated by the motion area / motion vector prediction unit 53 ( Further, the signal switching circuit 51 receives the motion vector V ′ (N) generated by the motion vector generation unit 4 and the motion area / motion vector prediction unit 53 as a motion vector for each block. The predicted value V ″ (N) of the motion vector generated by is input.

信号切替回路51は、フレーム相関判定部2から送られてくる信号rに基づいて、入力信号を切り替える。つまり、フレーム相関判定部2によって2つのフレームF(N)、F(N+1)間に相関があると判定された場合(r=1)には、信号切替回路51は、動きエリア生成部3によって生成された動きエリア情報M’(N)を動きエリア情報M(N)として出力するとともに、動きベクトル生成部4によって生成された動きベクトルV’(N)を動きベクトルV(N)として出力する。   The signal switching circuit 51 switches the input signal based on the signal r sent from the frame correlation determination unit 2. That is, when the frame correlation determination unit 2 determines that there is a correlation between the two frames F (N) and F (N + 1) (r = 1), the signal switching circuit 51 is The generated motion area information M ′ (N) is output as motion area information M (N), and the motion vector V ′ (N) generated by the motion vector generation unit 4 is output as a motion vector V (N). .

フレーム相関判定部2によって2つのフレームF(N)、F(N+1)間に相関がないと判定された場合(r=0)には、動きエリア・動きベクトル予測部53によって生成された動きエリアの予測情報M”(N)を動きエリア情報M(N)として出力するとともに、動きエリア・動きベクトル予測部53によって生成された動きベクトルの予測値V”(N)を動きベクトルV(N)として出力する。   When the frame correlation determination unit 2 determines that there is no correlation between the two frames F (N) and F (N + 1) (r = 0), the motion area generated by the motion area / motion vector prediction unit 53 Is output as motion area information M (N), and the motion vector prediction value V ″ (N) generated by the motion area / motion vector prediction unit 53 is used as the motion vector V (N). Output as.

信号切替回路51から出力される動きエリア情報M(N)および動きベクトルV(N)は、遅延回路52に送られるとともに、補間フレーム合成部6に送られる。補間フレーム合成部6は、信号切替回路51から送られてきた動きエリア情報M(N)および動きベクトルV(N)に基づいて、補間フレームFc(N)を生成する。補間フレーム合成部6によって行なわれる処理の詳細については後述する。   The motion area information M (N) and motion vector V (N) output from the signal switching circuit 51 are sent to the delay circuit 52 and also sent to the interpolation frame synthesis unit 6. The interpolation frame synthesis unit 6 generates an interpolation frame Fc (N) based on the motion area information M (N) and the motion vector V (N) sent from the signal switching circuit 51. Details of the processing performed by the interpolation frame synthesis unit 6 will be described later.

遅延回路52は、信号切替回路51から送られてきた動きエリア情報M(N)および動きベクトルV(N)を、1フレーム期間だけ遅延させた後、動きエリア・動きベクトル予測部53に送る。動きエリア・動きベクトル予測部53は、遅延回路52から送られてきた(N−1)番目のフレームに対する動きエリア情報M(N−1)および(N−1)番目のフレームに対する動きベクトルV(N−1)に基づいて、N番目のフレームに対する動きエリアおよび動きベクトルを予測して、M”(N)およびV”(N)として出力する。この場合には、動きエリア情報M(N−1)および動きベクトルV(N−1)が、請求項1における「前回の補間フレーム生成のために使用された補間情報」に相当する。   The delay circuit 52 delays the motion area information M (N) and the motion vector V (N) sent from the signal switching circuit 51 by one frame period, and then sends them to the motion area / motion vector prediction unit 53. The motion area / motion vector prediction unit 53 receives the motion area information M (N−1) for the (N−1) th frame and the motion vector V ((N−1) th frame) sent from the delay circuit 52 ( Based on (N-1), the motion area and motion vector for the Nth frame are predicted and output as M ″ (N) and V ″ (N). In this case, the motion area information M (N−1) and the motion vector V (N−1) correspond to “interpolation information used for generating the previous interpolation frame” in claim 1.

図5は、動きエリア・動きベクトル予測部53によって実行される予測処理手順を示している。   FIG. 5 shows a prediction processing procedure executed by the motion area / motion vector prediction unit 53.

図6に示すように、映像エリアがm×n個のブロックに分割されており、各ブロック毎に動きベクトルV’(N)が算出されているものとする。各ブロックの位置は、1からm×nまでを表す変数bで表される。あるフレーム番号における各ブロックは、図6に示すように、B(b,フレーム番号)で表すことにする。例えば、B(1,N−1)は、(N−1)番目のフレームの先頭のブロックを示している。   As shown in FIG. 6, it is assumed that the video area is divided into m × n blocks, and a motion vector V ′ (N) is calculated for each block. The position of each block is represented by a variable b representing 1 to m × n. Each block in a certain frame number is represented by B (b, frame number) as shown in FIG. For example, B (1, N-1) indicates the first block of the (N-1) th frame.

また、あるフレーム番号における各ブロックに対応する動きエリア情報は、図7に示すように、M(b,フレーム番号)で表される。例えば、M(1,N−1)は、(N−1)番目のフレームの先頭のブロックに対応する動きエリア情報を示している。この動きエリア情報M(1,N−1)は、当該ブロック内の各画素毎に動きがあるエリアか否かを表す情報から構成されている。なお、図7において、ハッチングは、(N−1)番目のフレームの動きエリア情報M(N−1)によって表されている動きエリアを示している。   Further, the motion area information corresponding to each block in a certain frame number is represented by M (b, frame number) as shown in FIG. For example, M (1, N−1) indicates motion area information corresponding to the first block of the (N−1) th frame. The motion area information M (1, N-1) is configured by information indicating whether or not there is a motion area for each pixel in the block. In FIG. 7, hatching indicates a motion area represented by the motion area information M (N−1) of the (N−1) th frame.

あるフレーム番号における各ブロックに対応する動きベクトルは、V(b,フレーム番号)で表される。例えば、V(1,N−1)は、(N−1)番目のフレームの先頭のブロックに対応する動きベクトルを示している。   A motion vector corresponding to each block in a certain frame number is represented by V (b, frame number). For example, V (1, N−1) indicates a motion vector corresponding to the first block of the (N−1) th frame.

図5に戻り、まず、初期設定を行なう(ステップS1)。つまり、各ブロック毎の動きベクトルの予測値V”(b,N)の初期値を0に設定するとともに、動きエリアの予測情報M”(N)の初期値として全画素に0(動き無し領域)を設定する。   Returning to FIG. 5, first, initial setting is performed (step S1). That is, the initial value of the motion vector prediction value V ″ (b, N) for each block is set to 0, and the initial value of the motion area prediction information M ″ (N) is set to 0 (no motion region). ) Is set.

初期設定の後、ブロックの位置を表す変数bに1を設定する(ステップS2)。そして、処理対象ブロックB(b,N−1)内に動きエリアを含んでおりかつ当該ブロックの動きベクトルV(b,N−1)が0でないという条件を満たしているか否かを判別する(ステップS3)。処理対象ブロックB(b,N−1)内に動きエリアを含んでいるか否かは、当該ブロックに対応する動きエリア情報M(b,N−1)に基づいて判別する。   After the initial setting, 1 is set to the variable b representing the block position (step S2). Then, it is determined whether or not the condition that the processing target block B (b, N−1) includes a motion area and the motion vector V (b, N−1) of the block is not 0 is satisfied ( Step S3). Whether or not the processing target block B (b, N-1) includes a motion area is determined based on the motion area information M (b, N-1) corresponding to the block.

上記条件を満たしていない場合には、全てのブロック位置に対する処理が終了したか否かを判別する(ステップS9)。つまり、b=m×nであるか否かを判別する。b=m×nでなければ、全てのブロック位置に対する処理が終了していないと判別し、bを1だけインクリメントした後(ステップS10)、ステップS3に戻る。   If the above condition is not satisfied, it is determined whether or not the processing for all the block positions has been completed (step S9). That is, it is determined whether or not b = m × n. If b = m × n is not satisfied, it is determined that processing for all the block positions is not completed, b is incremented by 1 (step S10), and the process returns to step S3.

上記ステップS3において、処理対象ブロックB(b,N−1)内に動きエリアを含んでおりかつ当該ブロックの動きベクトルV(b,N−1)が0でないという条件を満たしていると判別した場合には、処理対象ブロックに対応する動きエリア情報M(b,N−1)を動きベクトルV(b,N−1)の方向にその動きベクトルの大きさ分だけシフトさせた後の内容に、動きエリアの予測情報M”(N)を更新させる(ステップS4)。   In step S3, it is determined that the condition that the processing target block B (b, N-1) includes a motion area and the motion vector V (b, N-1) of the block is not 0 is satisfied. In such a case, the motion area information M (b, N-1) corresponding to the processing target block is shifted to the content of the motion vector V (b, N-1) by the magnitude of the motion vector. The motion area prediction information M ″ (N) is updated (step S4).

つまり、更新後の予測情報M”(N)は、処理対象ブロックB(b,N−1)内の動きエリアを、当該ブロックに対応する動きベクトルV(b,N−1)の方向にその動きベクトルの大きさ分だけ移動させた後の動きエリアを表す情報となる。   That is, the updated prediction information M ″ (N) indicates the motion area in the processing target block B (b, N−1) in the direction of the motion vector V (b, N−1) corresponding to the block. This is information representing the motion area after being moved by the magnitude of the motion vector.

次に、上記シフトによって、処理対象ブロックB(b,N−1)内にあった動きエリアの少なくとも一部が、処理対象ブロックB(b,N−1)に隣接するブロック内に移動したか否かを判別する(ステップS5)。隣接ブロック内に動きエリアが移動したと判別した場合には、動きエリアが移動してきた隣接ブロックに対応する動きベクトル予測値V”(N)に、処理対象ブロックB(b,N−1)の動きベクトルV(b,N−1)を設定する(ステップS6)。そして、ステップS7に移行する。上記ステップS5において、隣接ブロックに動きエリアが移動していないと判別した場合には、ステップS7に移行する。   Next, whether or not at least a part of the moving area in the processing target block B (b, N-1) has moved into a block adjacent to the processing target block B (b, N-1) by the shift. It is determined whether or not (step S5). When it is determined that the motion area has moved within the adjacent block, the motion vector prediction value V ″ (N) corresponding to the adjacent block to which the motion area has moved is added to the processing block B (b, N−1). The motion vector V (b, N-1) is set (step S6), and the process proceeds to step S7, and if it is determined in step S5 that the motion area has not moved to the adjacent block, step S7 is performed. Migrate to

ステップS7では、上記ステップS4で更新された動きエリアの予測情報M”(N)のうち、ブロック位置bに対応する予測情報M”(b,N)内に動きエリアが含まれているか否かを判別する。つまり、上記ステップS4で動きエリア情報M(b,N−1)をシフトさせた場合、そのシフト後において当該ブロックに動きエリアが残っているか否かを判別する。   In step S7, it is determined whether or not the motion area is included in the prediction information M ″ (b, N) corresponding to the block position b among the motion area prediction information M ″ (N) updated in step S4. Is determined. That is, when the motion area information M (b, N-1) is shifted in step S4, it is determined whether or not a motion area remains in the block after the shift.

動きエリアの予測情報M”(b,N)内に動きエリアが含まれている場合には、処理対象ブロックB(b,N−1)に対応する動きベクトル予測値V”(b,N)に、処理対象ブロックB(b,N−1)に対応する動きベクトルV(b,N−1)を設定する(ステップS8)。そして、ステップS9に移行する。上記ステップS7において、動きエリアの予測情報M”(b,N)内に動きエリアが含まれてないと判別した場合には、ステップS9に移行する。この場合には、処理対象ブロックB(b,N−1)に対応する動きベクトルの予測値V”(b,N)は、0(初期値)となり、V(b,N−1)とは異なるベクトルとなる。   When the motion area is included in the motion area prediction information M ″ (b, N), the motion vector prediction value V ″ (b, N) corresponding to the processing target block B (b, N−1). Then, the motion vector V (b, N-1) corresponding to the processing target block B (b, N-1) is set (step S8). Then, the process proceeds to step S9. If it is determined in step S7 that the motion area is not included in the motion area prediction information M ″ (b, N), the process proceeds to step S9. In this case, the processing target block B (b , N−1), the motion vector predicted value V ″ (b, N) is 0 (initial value), which is a vector different from V (b, N−1).

ステップS9では、全てのブロックに対する処理が終了したか否かを判別する。つまり、b=m×nであるか否かを判別する。b=m×nでなければ、全てのブロックに対する処理が終了していないと判別し、bを1だけインクリメントした後(ステップS10)、ステップS3に戻る。   In step S9, it is determined whether or not processing for all blocks has been completed. That is, it is determined whether or not b = m × n. If b = m × n is not satisfied, it is determined that processing for all the blocks has not been completed, b is incremented by 1 (step S10), and the process returns to step S3.

図8は、補間フレーム合成部6によって行なわれる補間フレーム合成処理手順を示している。   FIG. 8 shows an interpolation frame synthesis process procedure performed by the interpolation frame synthesis unit 6.

画素をP(=(x,y))で表すことにする。まず、最初の画素(0,0)を選択する(ステップS21)。   A pixel is represented by P (= (x, y)). First, the first pixel (0, 0) is selected (step S21).

対象画素Pは動きエリアに含まれているか否かを判別する(ステップS22)。この判別は、動きエリア・動きベクトル補正部5によって補間フレーム合成部6に与えられる動きエリア情報M(N)に基づいて行なわれる。   It is determined whether or not the target pixel P is included in the motion area (step S22). This determination is performed based on the motion area information M (N) given to the interpolated frame synthesis unit 6 by the motion area / motion vector correction unit 5.

対象画素Pが動きエリアに含まれていない場合には、次式(1)に基づいて、対象画素Pに対応する補間画素値Fc(P,N)を算出して、補間画素値Fc(P,N)として設定する(ステップS23)。   When the target pixel P is not included in the motion area, the interpolation pixel value Fc (P, N) corresponding to the target pixel P is calculated based on the following equation (1), and the interpolation pixel value Fc (P , N) (step S23).

Fc(P,N)=F(P,N) …(1)   Fc (P, N) = F (P, N) (1)

上記式(1)において、F(P,N)は、現フレーム(N)の対象画素Pに対応する画素値F(P,N)である。 In the above equation (1), F (P, N) is a pixel value F (P, N) corresponding to the target pixel P of the current frame (N).

ステップS23の処理が終了すると、全ての画素に対する処理が終了したか否かを判別する(ステップS28)。全ての画素に対する処理が終了していない場合には、対象画素Pを次画素に更新した後(ステップS29)、ステップS22に戻る。   When the process of step S23 is completed, it is determined whether or not the process for all the pixels has been completed (step S28). If the processing for all the pixels has not been completed, the target pixel P is updated to the next pixel (step S29), and the process returns to step S22.

上記ステップS22において、対象画素Pが動きエリアに含まれていると判別された場合には、動きエリア・動きベクトル補正部5によって補間フレーム合成部6に与えられる各ブロック毎の動きベクトルV(N)のうち、対象画素Pを含むブロックの動きベクトルを、対象画素Pに対応する動きベクトルv(=(vx,vy))として設定する(ステップS24)。   If it is determined in step S22 that the target pixel P is included in the motion area, the motion vector V (N (N) for each block given to the interpolated frame synthesis unit 6 by the motion area / motion vector correction unit 5 is determined. ), The motion vector of the block including the target pixel P is set as a motion vector v (= (vx, vy)) corresponding to the target pixel P (step S24).

また、フレーム相関判定部2によって補間フレーム合成部6に与えられる相関判定結果rが1であるか否かを判別する(ステップS25)。r=1である場合、つまり、現フレームと参照フレームとの間に相関があると判別されている場合には、次式(2)に基づいて、対象画素Pに対応する補間画素値Fc(P,N)を算出して、補間画素値Fc(P,N)として設定する(ステップS26)。そして、ステップS28に移行する。   Further, it is determined whether or not the correlation determination result r given to the interpolated frame synthesis unit 6 by the frame correlation determination unit 2 is 1 (step S25). When r = 1, that is, when it is determined that there is a correlation between the current frame and the reference frame, the interpolated pixel value Fc (corresponding to the target pixel P is calculated based on the following equation (2). P, N) is calculated and set as the interpolated pixel value Fc (P, N) (step S26). Then, the process proceeds to step S28.

Fc(P,N)=(1/2)・F(P−v/2,N)
+(1/2)・F(P+v/2,N+1) …(2)
Fc (P, N) = (1/2) · F (P−v / 2, N)
+ (1/2) · F (P + v / 2, N + 1) (2)

上記式(2)において、F(P−v/2,N)は、現フレーム(N)の対象画素Pに対して、対象画素Pに対応する動きベクトルvの大きさの1/2だけ、動きベクトルvの方向と逆方向にある位置の画素値を表している。また、F(P+v/2,N+1)は、参照フレーム(N+1)の対象画素Pに対して、対象画素Pに対応する動きベクトルvの大きさの1/2だけ、動きベクトルvの方向にある位置の画素値を表している。   In the above equation (2), F (P−v / 2, N) is ½ of the magnitude of the motion vector v corresponding to the target pixel P with respect to the target pixel P of the current frame (N). The pixel value at a position in the direction opposite to the direction of the motion vector v is represented. Further, F (P + v / 2, N + 1) is in the direction of the motion vector v by 1/2 of the magnitude of the motion vector v corresponding to the target pixel P with respect to the target pixel P of the reference frame (N + 1). It represents the pixel value of the position.

上記ステップS25において、r=0であると判別した場合、つまり、現フレームと参照フレームとの間に相関がないと判別されている場合には、次式(3)に基づいて、対象画素Pに対応する補間画素値Fc(P,N)を算出して、補間画素値Fc(P,N)として設定する(ステップS27)。そして、ステップS28に移行する。   If it is determined in step S25 that r = 0, that is, if it is determined that there is no correlation between the current frame and the reference frame, the target pixel P is calculated based on the following equation (3). The interpolation pixel value Fc (P, N) corresponding to is calculated and set as the interpolation pixel value Fc (P, N) (step S27). Then, the process proceeds to step S28.

Fc(P,N)=F(P−v/2,N) …(3)   Fc (P, N) = F (P−v / 2, N) (3)

上記式(3)において、F(P−v/2,N)は、現フレーム(N)の対象画素Pに対して、対象画素Pに対応する動きベクトルvの大きさの1/2だけ、動きベクトルvの方向と逆方向にある位置の画素値を表している。   In the above equation (3), F (P−v / 2, N) is ½ of the magnitude of the motion vector v corresponding to the target pixel P with respect to the target pixel P of the current frame (N), The pixel value at a position in the direction opposite to the direction of the motion vector v is represented.

全ての画素に対して、補間画素値Fc(P,N)が設定されると、ステップS28でYESとなり、今回の補間フレーム合成処理を終了する。   When the interpolated pixel value Fc (P, N) is set for all the pixels, the result of step S28 is YES, and the current interpolated frame synthesis process is terminated.

〔1〕実施例2の基本的な考え方についての説明
実施例2においても、基本的には実施例1と同様な方法で補間フレームを生成することを前提としている。
[1] Description of Basic Concept of Second Embodiment Also in the second embodiment, it is basically assumed that an interpolation frame is generated by the same method as in the first embodiment.

シーンチェンジの直前においてフェイドアウト(全体輝度を徐々に低下させる)させたり、シーンチェンジの直後においてフェイドイン(全体輝度を徐々に上昇させる)させたりする場合がある。   There is a case where fade-out (the overall luminance is gradually decreased) immediately before the scene change, or fade-in (an overall luminance is gradually increased) immediately after the scene change.

図9に示すように、フェイドアウト(またはフェイドイン)の途中においては、隣接する2つのフレームF(N)、F(N+1)間では、それらが連続的な画像であっても、全体輝度が異なるため、相関がないと判定されてしまう可能性が高い。そうすると、両フレームF(N)、F(N+1)の間には、実質的には相関性があっても、両フレームF(N)、F(N+1)の相関を利用して補間フレームが作成されなくなる。   As shown in FIG. 9, during the fade-out (or fade-in), the overall luminance differs between two adjacent frames F (N) and F (N + 1) even if they are continuous images. Therefore, there is a high possibility that it is determined that there is no correlation. Then, even if there is a substantial correlation between both frames F (N) and F (N + 1), an interpolated frame is created using the correlation between both frames F (N) and F (N + 1). It will not be done.

そこで、実施例2では、両フレームF(N)、F(N+1)に相関がないと判別された場合には、両フレームF(N)、F(N+1)の全体輝度を揃えた上で、相関があるか否かを再度、チェックする。そして、相関があると判別された場合には、全体輝度が揃えられた両フレームF(N)、F(N+1)に基づいて補間フレームを生成する。そして、得られた補間フレームの全体輝度を両フレームF(N)、F(N+1)の中間の輝度に調整する。   Therefore, in the second embodiment, when it is determined that there is no correlation between both frames F (N) and F (N + 1), the entire luminance of both frames F (N) and F (N + 1) is aligned, Check again whether there is a correlation. If it is determined that there is a correlation, an interpolated frame is generated based on both frames F (N) and F (N + 1) in which the overall luminance is uniform. Then, the overall luminance of the obtained interpolation frame is adjusted to an intermediate luminance between both frames F (N) and F (N + 1).

〔2〕フレームレート変換装置の電気的構成についての説明 [2] Description of electrical configuration of frame rate conversion device

図10は、フレームレート変換装置の電気的構成を示している。   FIG. 10 shows an electrical configuration of the frame rate conversion apparatus.

入力映像信号は、遅延回路1、フレーム相関判定部2および輝度補正部7に送られる。遅延回路1に送られた入力映像信号は、1フレーム期間だけ遅延せしめられた後、フレーム相関判定部2、輝度補正部7、動きエリア生成部3、動きベクトル生成部4および補間フレーム合成部6に送られる。   The input video signal is sent to the delay circuit 1, the frame correlation determination unit 2 and the luminance correction unit 7. After the input video signal sent to the delay circuit 1 is delayed by one frame period, the frame correlation determination unit 2, the luminance correction unit 7, the motion area generation unit 3, the motion vector generation unit 4, and the interpolated frame synthesis unit 6 Sent to.

遅延回路1に入力される映像をF(N+1)で表し、遅延回路1から出力される映像をF(N)で表すことにする。   An image input to the delay circuit 1 is represented by F (N + 1), and an image output from the delay circuit 1 is represented by F (N).

フレーム相関判定部2は、F(N+1)とF(N)との間に相関があるか否かを判定する。フレーム相関判定部2は、相関があるか否かの判定結果rを、輝度補正部7に送る。この例では、相関ありの場合にはr=1となり、相関なしの場合にはr=0となる。   The frame correlation determination unit 2 determines whether there is a correlation between F (N + 1) and F (N). The frame correlation determination unit 2 sends a determination result r on whether there is a correlation to the luminance correction unit 7. In this example, r = 1 when there is a correlation, and r = 0 when there is no correlation.

図11は、輝度補正部7の電気的構成を示している。   FIG. 11 shows an electrical configuration of the luminance correction unit 7.

輝度補正部7は、全体輝度差検出部71、全体輝度調整部72、フレーム相関判定部73、OR回路74および信号切替部75を備えている。   The luminance correction unit 7 includes an overall luminance difference detection unit 71, an overall luminance adjustment unit 72, a frame correlation determination unit 73, an OR circuit 74, and a signal switching unit 75.

全体輝度差検出部71は、フレームF(N)とF(N+1)の間の輝度差を検出する。具体的には、F(N)の平均輝度をYN とし、F(N+1)の平均輝度をYN+1 とすると、次式(4)に基づいて、F(N)とF(N+1)の間の輝度差Y’を算出する。 The overall brightness difference detection unit 71 detects a brightness difference between the frames F (N) and F (N + 1). Specifically, assuming that the average luminance of F (N) is Y N and the average luminance of F (N + 1) is Y N + 1 , F (N) and F (N + 1) based on the following equation (4) The luminance difference Y ′ is calculated.

Y’=YN −YN+1 …(4) Y ′ = Y N −Y N + 1 (4)

全体輝度調整部72は、F(N+1)の平均輝度をF(N)の平均輝度YN に揃えるために、F(N+1)の各画素の輝度に、輝度差Y’を加算する。 The overall luminance adjustment unit 72 adds a luminance difference Y ′ to the luminance of each pixel of F (N + 1) in order to align the average luminance of F (N + 1) with the average luminance Y N of F (N).

フレーム相関判定部73は、F(N)と輝度調整後のF”(N+1)との間に相関があるか否かを判定する。フレーム相関判定部73は、判定結果r”をOR回路74に出力する。この例では、相関があると判定した場合には、r”=1となり、相関がないと判定した場合には、r”=0となる。   The frame correlation determination unit 73 determines whether or not there is a correlation between F (N) and F ″ (N + 1) after luminance adjustment. The frame correlation determination unit 73 determines the determination result r ″ as an OR circuit 74. Output to. In this example, r ″ = 1 when it is determined that there is a correlation, and r ″ = 0 when it is determined that there is no correlation.

OR回路74には、フレーム相関判定部2からの判定結果rが送られている。r=1である場合には、OR回路74の加算結果r’は常に1となる。r=0である場合には、OR回路74の加算結果r’は、フレーム相関判定部73の判定結果r”と同じ値となる。   A determination result r from the frame correlation determination unit 2 is sent to the OR circuit 74. When r = 1, the addition result r ′ of the OR circuit 74 is always 1. When r = 0, the addition result r ′ of the OR circuit 74 has the same value as the determination result r ″ of the frame correlation determination unit 73.

信号切替部75には、輝度差を表す入力信号として、0の値と全体輝度差検出部71によって検出された輝度差Y’とが入力されているとともに、F(N+1)を表す信号として、輝度調整前のF(N+1)と輝度調整後のF”(N+1)とが入力されている。   The signal switching unit 75 is input with a value of 0 and the luminance difference Y ′ detected by the overall luminance difference detecting unit 71 as an input signal representing the luminance difference, and as a signal representing F (N + 1), F (N + 1) before luminance adjustment and F ″ (N + 1) after luminance adjustment are input.

信号切替部75は、フレーム相関判定部2から送られてくる相関判定結果rに基づいて、入力信号を切り替える。つまり、フレーム相関判定部2によってF(N)とF(N+1)の間に相関があると判定された場合(r=1)には、信号切替部75は、0の値を輝度差を表す信号Yとして出力するとともに、輝度調整前のF(N+1)を参照フレームの画像F’(N+1)として出力する。一方、フレーム相関判定部2によってF(N)とF(N+1)の間に相関がないと判定された場合(r=0)には、信号切替部75は、全体輝度差検出部71によって検出された輝度差Y’を輝度差を表す信号Yとして出力するとともに、輝度調整後のF”(N+1)を参照フレームの画像F’(N+1)として出力する。   The signal switching unit 75 switches the input signal based on the correlation determination result r sent from the frame correlation determination unit 2. That is, when the frame correlation determining unit 2 determines that there is a correlation between F (N) and F (N + 1) (r = 1), the signal switching unit 75 represents a luminance difference with a value of 0. While outputting as the signal Y, F (N + 1) before luminance adjustment is output as the image F ′ (N + 1) of the reference frame. On the other hand, when the frame correlation determination unit 2 determines that there is no correlation between F (N) and F (N + 1) (r = 0), the signal switching unit 75 is detected by the overall luminance difference detection unit 71. The luminance difference Y ′ thus output is output as a signal Y representing the luminance difference, and F ″ (N + 1) after the luminance adjustment is output as an image F ′ (N + 1) of the reference frame.

図10に戻り、動きエリア生成部3は、F(N)と輝度補正部7から出力されたF’(N+1)との間で、映像に変化のある画素を特定する。つまり、画素毎にF(N)とF’(N+1)との間の差分の絶対値を求め、差分の絶対値が所定の閾値以上である場合には、その画素を変化のある画素(動きのある画素)とみなす。動きエリア生成部3は、画素毎に動きがあるエリアか否かを表す情報からなる動きエリア情報M’(N)を生成して、動きエリア・動きベクトル補正部5に送る。   Returning to FIG. 10, the motion area generation unit 3 identifies a pixel having a change in the image between F (N) and F ′ (N + 1) output from the luminance correction unit 7. That is, the absolute value of the difference between F (N) and F ′ (N + 1) is obtained for each pixel, and when the absolute value of the difference is equal to or greater than a predetermined threshold, the pixel is changed to a pixel (motion) Pixel). The motion area generation unit 3 generates motion area information M ′ (N) including information indicating whether or not each pixel has a motion and sends the motion area information M ′ (N) to the motion area / motion vector correction unit 5.

動きベクトル生成部4は、F(N)と輝度補正部7から出力されたF’(N+1)との間の動きベクトルを算出する。具体的には、動きベクトル生成部4は、ブロックマッチングなどの既存手法を用いて、映像エリアを分割することにより設定される複数のブロック毎に動きベクトルを求める。動きベクトル生成部4は、各ブロック毎に求めた動きベクトルV’(N)を生成して、動きエリア・動きベクトル補正部5に送る。   The motion vector generation unit 4 calculates a motion vector between F (N) and F ′ (N + 1) output from the luminance correction unit 7. Specifically, the motion vector generation unit 4 obtains a motion vector for each of a plurality of blocks set by dividing a video area using an existing method such as block matching. The motion vector generation unit 4 generates a motion vector V ′ (N) obtained for each block and sends it to the motion area / motion vector correction unit 5.

動きエリア・動きベクトル補正部5の構成は、実施例1で説明した構成(図4)と同じである。ただし、実施例1では図4の信号切替回路51に対して、フレーム相関判定部2の判定結果rが切替制御信号として与えられていたが、実施例2では、信号切替回路51に対して、輝度補正部7によって生成された信号r’が切替制御信号として与えられている。   The configuration of the motion area / motion vector correction unit 5 is the same as the configuration described in the first embodiment (FIG. 4). However, in the first embodiment, the determination result r of the frame correlation determination unit 2 is given as the switching control signal to the signal switching circuit 51 in FIG. A signal r ′ generated by the luminance correction unit 7 is given as a switching control signal.

補間フレーム合成部6は、実施例1と同様な処理(図8に示す処理)を行なって補間フレームを合成する。ただし、実施例1の参照フレームF(N+1)の代わりに、輝度補正部7から出力された参照フレームF’(N+1)が用いられ、実施例1の判定結果rの代わりに輝度補正部7によって生成された信号r’が用いられる。   The interpolated frame synthesis unit 6 performs the same process (the process shown in FIG. 8) as in the first embodiment to synthesize an interpolated frame. However, the reference frame F ′ (N + 1) output from the luminance correction unit 7 is used instead of the reference frame F (N + 1) of the first embodiment, and the luminance correction unit 7 replaces the determination result r of the first embodiment. The generated signal r ′ is used.

補間フレーム合成部6によって生成され補間フレーム(実施例2では、Fc’(N)で表すことにする)は、全体輝度調整部8に送られる。全体輝度調整部8には、輝度補正部7から輝度差Yが与えられている。全体輝度調整部8は、補間フレーム合成部6によって生成され補間フレームFc’(N)の各画素の輝度を、輝度差Yの1/2だけ低減させることにより、最終的な補間フレームFc(N)を得る。   The interpolated frame (denoted by Fc ′ (N) in the second embodiment) generated by the interpolated frame synthesizing unit 6 is sent to the overall luminance adjusting unit 8. A luminance difference Y is given to the overall luminance adjustment unit 8 from the luminance correction unit 7. The overall luminance adjustment unit 8 reduces the luminance of each pixel of the interpolation frame Fc ′ (N) generated by the interpolation frame synthesis unit 6 by ½ of the luminance difference Y, so that the final interpolation frame Fc (N )

現フレームF(N)の平均輝度をYN 、参照フレームF(N+1)の平均輝度をYN+1 とすると、輝度差YはY=YN −YN+1 となる。フェードイン(フェードアウト)時には、参照フレームF(N+1)の全体輝度が、現フレームF(N)の全体輝度YN と等しくなるように輝度調整された後に、補間フレームFc’(N)が生成されるので、補間フレームFc’(N)の平均輝度はYN となる。 If the average luminance of the current frame F (N) is Y N and the average luminance of the reference frame F (N + 1) is Y N + 1 , the luminance difference Y is Y = Y N −Y N + 1 . At the time of fade-in (fade-out), the inter-frame Fc ′ (N) is generated after the luminance is adjusted so that the overall luminance of the reference frame F (N + 1) becomes equal to the overall luminance Y N of the current frame F (N). Therefore, the average luminance of the interpolation frame Fc ′ (N) is Y N.

そこで、補間フレームFc’(N)の平均輝度を、現フレームF(N)と参照フレームF(N+1)の中間の輝度{(YN +YN+1 )/2}にさせるために、補間フレームFc’(N)の各画素の輝度を、輝度差Y(=YN −YN+1 )の1/2だけ低減させている。 Therefore, in order to set the average luminance of the interpolation frame Fc ′ (N) to an intermediate luminance {(Y N + Y N + 1 ) / 2} between the current frame F (N) and the reference frame F (N + 1), the interpolation frame The brightness of each pixel of Fc ′ (N) is reduced by ½ of the brightness difference Y (= Y N −Y N + 1 ).

つまり、補間フレームFc’(N)の平均輝度をYN とすると、輝度補正後の補間フレームFc(N)の平均輝度Ycは、次式(4)で示すように、{(YN +YN+1 )/2}となる。 That is, assuming that the average luminance of the interpolation frame Fc ′ (N) is Y N , the average luminance Yc of the interpolation frame Fc (N) after luminance correction is represented by {(Y N + Y N +1 ) / 2}.

Yc=YN −Y/2=YN −(YN −YN+1 )/2=(YN +YN+1 )/2
…(4)
Yc = Y N -Y / 2 = Y N - (Y N -Y N + 1) / 2 = (Y N + Y N + 1) / 2
(4)

現フレーム(N)と、参照フレームF(N+1)と、それらのフレームから生成されるめ補間フレームFc(N)とを示す模式図である。It is a schematic diagram which shows the present flame | frame (N), the reference frame F (N + 1), and the interpolated frame Fc (N) produced | generated from those frames. 実施例1の基本的な考え方について説明するための模式図である。FIG. 3 is a schematic diagram for explaining a basic concept of the first embodiment. フレームレート変換装置の電気的構成を示すブロック図である。It is a block diagram which shows the electrical structure of a frame rate conversion apparatus. 動きエリア・動きベクトル補正部5の電気的構成を示すブロック図である。3 is a block diagram showing an electrical configuration of a motion area / motion vector correction unit 5. FIG. 動きエリア・動きベクトル予測部53によって実行される予測処理手順を示すフローチャートである。11 is a flowchart showing a prediction processing procedure executed by a motion area / motion vector prediction unit 53. 映像エリア内に設定されたm×n個のブロック示す模式図である。It is a schematic diagram showing m × n blocks set in the video area. あるフレーム番号における各ブロックに対応する動きエリア情報は、M(b,フレーム番号)で表されることを示す模式図である。It is a schematic diagram which shows that the motion area information corresponding to each block in a certain frame number is represented by M (b, frame number). 補間フレーム合成部6によって実行される補間フレーム合成処理手順を示すフローチャートである。5 is a flowchart showing an interpolation frame synthesis processing procedure executed by an interpolation frame synthesis unit 6. 実施例2の基本的な考え方について説明するための模式図である。FIG. 6 is a schematic diagram for explaining a basic concept of Example 2. フレームレート変換装置の電気的構成を示すブロック図である。It is a block diagram which shows the electric constitution of a frame rate conversion apparatus. 輝度補正部7の電気的構成を示を示すブロック図である。3 is a block diagram illustrating an electrical configuration of a luminance correction unit 7. FIG.

符号の説明Explanation of symbols

1 遅延回路
2 フレーム相関判定部
3 動きエリア生成部
4 動きベクトル生成部
5 動きエリア・動きベクトル補正部
6 補間フレーム合成部
7 輝度補正部
8 全体輝度調整部
DESCRIPTION OF SYMBOLS 1 Delay circuit 2 Frame correlation determination part 3 Motion area production | generation part 4 Motion vector production | generation part 5 Motion area and motion vector correction | amendment part 6 Interpolation frame synthetic | combination part 7 Brightness correction part 8 Overall brightness adjustment part

Claims (5)

隣り合う前後フレームの間に相関があるかないかを判定する相関判定手段、
相関があると判定された場合には、上記両フレームから、上記両フレームの間に挿入する補間フレームを生成するための補間情報を生成し、得られた補間情報に基づいて補間フレームを生成する第1の補間フレーム生成手段、ならびに
相関がないと判定された場合には、前回の補間フレーム生成のための使用された補間情報に基づいて、今回の補間フレームを生成するための補間情報を予測し、予測した補間情報に基づいて補間フレームを生成する第2の補間フレーム生成手段、
を備えていることを特徴とするフレームレート変換装置。
Correlation determination means for determining whether there is a correlation between adjacent front and rear frames,
When it is determined that there is a correlation, interpolation information for generating an interpolation frame to be inserted between the both frames is generated from the both frames, and an interpolation frame is generated based on the obtained interpolation information The first interpolation frame generation means, and when it is determined that there is no correlation, the interpolation information for generating the current interpolation frame is predicted based on the interpolation information used for the previous interpolation frame generation. Second interpolation frame generation means for generating an interpolation frame based on the predicted interpolation information,
A frame rate conversion apparatus comprising:
第2の補間フレーム生成手段は、上記両フレームのうちの前フレームのみを用いて、補間フレームを生成するものであることを特徴とする請求項1に記載のフレームレート変換装置。 2. The frame rate conversion apparatus according to claim 1, wherein the second interpolation frame generation means generates an interpolation frame using only the previous frame of the two frames. 隣り合う前後フレームの間に相関があるかないかを判定する第1の相関判定手段、
第1の相関判定手段によって相関がないと判別された場合には、上記両フレームの輝度レベルを揃えた後に、両フレーム間に相関があるかないかを判定する第2の相関判定手段、ならびに
第2の相関判定手段によって、相関があると判定された場合には、輝度レベルが揃えられた後の両フレームから、上記両フレームの間に挿入する補間フレームを生成するための補間情報を生成し、得られた補間情報に基づいて補間フレームを生成する手段、
を備えていることを特徴とするフレームレート変換装置。
First correlation determination means for determining whether or not there is a correlation between adjacent front and rear frames;
When the first correlation determining means determines that there is no correlation, the second correlation determining means for determining whether or not there is a correlation between both frames after aligning the luminance levels of the two frames, and If the correlation determination unit 2 determines that there is a correlation, interpolation information for generating an interpolation frame to be inserted between the frames is generated from both frames after the luminance levels are aligned. Means for generating an interpolation frame based on the obtained interpolation information;
A frame rate conversion apparatus comprising:
第1の相関判定手段によって、相関があると判定された場合には、上記両フレームから、上記両フレームの間に挿入する補間フレームを生成するための補間情報を生成し、得られた補間情報に基づいて補間フレームを生成する手段、ならびに
第2の相関判定手段によって、相関がないと判定された場合には、前回の補間フレーム生成のための使用された補間情報に基づいて、今回の補間フレームを生成するための補間情報を予測し、予測した補間情報に基づいて補間フレームを生成する手段、
を備えていることを特徴とする請求項3に記載のフレームレート変換装置。
When the first correlation determination unit determines that there is a correlation, the interpolation information for generating an interpolation frame to be inserted between the both frames is generated from the both frames, and the obtained interpolation information is obtained. If the second correlation determination unit determines that there is no correlation based on the interpolation information used for generating the previous interpolation frame, the current interpolation is generated. Means for predicting interpolation information for generating a frame and generating an interpolation frame based on the predicted interpolation information;
The frame rate conversion apparatus according to claim 3, comprising:
請求項1乃至4に記載のフレームレート変換装置を備えていることを特徴とする映像表示装置。 An image display device comprising the frame rate conversion device according to claim 1.
JP2007063455A 2007-03-13 2007-03-13 Frame rate conversion device and video display device Active JP4956239B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007063455A JP4956239B2 (en) 2007-03-13 2007-03-13 Frame rate conversion device and video display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007063455A JP4956239B2 (en) 2007-03-13 2007-03-13 Frame rate conversion device and video display device

Publications (2)

Publication Number Publication Date
JP2008227928A true JP2008227928A (en) 2008-09-25
JP4956239B2 JP4956239B2 (en) 2012-06-20

Family

ID=39846003

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007063455A Active JP4956239B2 (en) 2007-03-13 2007-03-13 Frame rate conversion device and video display device

Country Status (1)

Country Link
JP (1) JP4956239B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010257100A (en) * 2009-04-23 2010-11-11 Canon Inc Image processing apparatus and image processing method
CN111885336A (en) * 2020-06-19 2020-11-03 成都东方盛行电子有限责任公司 Non-frame-coding rate conversion method under frame mode

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11112940A (en) * 1997-10-07 1999-04-23 Hitachi Ltd Generation method for motion vector and device therefor
JP3189292B2 (en) * 1991-05-09 2001-07-16 松下電器産業株式会社 Scan line interpolator
JP3363541B2 (en) * 1993-09-28 2003-01-08 キヤノン株式会社 Image signal reproducing device and image processing device
JP2005318621A (en) * 2004-04-30 2005-11-10 Matsushita Electric Ind Co Ltd Ticker process in video sequence
JP2006270823A (en) * 2005-03-25 2006-10-05 Tama Tlo Kk Method and device for image rate conversion
JP2006331136A (en) * 2005-05-27 2006-12-07 Victor Co Of Japan Ltd Moving vector detection apparatus
JP2008011439A (en) * 2006-06-30 2008-01-17 Toshiba Corp Apparatus for generating interpolated image

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3189292B2 (en) * 1991-05-09 2001-07-16 松下電器産業株式会社 Scan line interpolator
JP3363541B2 (en) * 1993-09-28 2003-01-08 キヤノン株式会社 Image signal reproducing device and image processing device
JPH11112940A (en) * 1997-10-07 1999-04-23 Hitachi Ltd Generation method for motion vector and device therefor
JP2005318621A (en) * 2004-04-30 2005-11-10 Matsushita Electric Ind Co Ltd Ticker process in video sequence
JP2006270823A (en) * 2005-03-25 2006-10-05 Tama Tlo Kk Method and device for image rate conversion
JP2006331136A (en) * 2005-05-27 2006-12-07 Victor Co Of Japan Ltd Moving vector detection apparatus
JP2008011439A (en) * 2006-06-30 2008-01-17 Toshiba Corp Apparatus for generating interpolated image

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010257100A (en) * 2009-04-23 2010-11-11 Canon Inc Image processing apparatus and image processing method
CN111885336A (en) * 2020-06-19 2020-11-03 成都东方盛行电子有限责任公司 Non-frame-coding rate conversion method under frame mode
CN111885336B (en) * 2020-06-19 2022-03-29 成都东方盛行电子有限责任公司 Non-frame-coding rate conversion method under frame mode

Also Published As

Publication number Publication date
JP4956239B2 (en) 2012-06-20

Similar Documents

Publication Publication Date Title
JP4198608B2 (en) Interpolated image generation method and apparatus
JP2004297719A (en) Frame interpolation method and image display system using the same
JPH11112939A (en) Image signal system conversion method and device therefor
JP2005318621A (en) Ticker process in video sequence
WO2008056451A1 (en) Image display device and image display method, and image processing device and image processing method
JP2005318586A (en) Motion vector detection with improved motion vector selection
JP2010278871A (en) Image processing apparatus and image processing method
JPH0884293A (en) Method and apparatus for reducing conversion artifact
US7295245B2 (en) Method and apparatus for converting frame rate using time shifting and motion compensation
JP4991360B2 (en) Frame rate conversion device and video display device
JPH11112940A (en) Generation method for motion vector and device therefor
JP2006331136A (en) Moving vector detection apparatus
JP2005318622A (en) Reverse film mode extrapolation method
JP3993159B2 (en) Motion detection apparatus and method
US7683971B2 (en) Image conversion apparatus to perform motion compensation and method thereof
KR100968642B1 (en) Method and interpolation device for calculating a motion vector, display device comprising the interpolation device, and computer program
JP4956239B2 (en) Frame rate conversion device and video display device
JP4339237B2 (en) Sequential scan converter
JP2009239698A (en) Video image converting device, and video image converting method
JP2005236937A (en) Image processing apparatus, image processing method and image processing program
JP2004147281A (en) Special video effect creation apparatus, special video effect creation method, and special video effect creation program
JP2009081561A (en) Frame interpolation device, frame interpolation program, frame interpolation method and portable terminal
JP2007288483A (en) Image converting apparatus
KR20080032741A (en) Display apparatus and control method thereof
JP5300568B2 (en) Video processing apparatus and control method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100120

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111101

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111117

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120223

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120316

R151 Written notification of patent or utility model registration

Ref document number: 4956239

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150323

Year of fee payment: 3