JP2008227928A - Frame rate converter and video display device - Google Patents
Frame rate converter and video display device Download PDFInfo
- Publication number
- JP2008227928A JP2008227928A JP2007063455A JP2007063455A JP2008227928A JP 2008227928 A JP2008227928 A JP 2008227928A JP 2007063455 A JP2007063455 A JP 2007063455A JP 2007063455 A JP2007063455 A JP 2007063455A JP 2008227928 A JP2008227928 A JP 2008227928A
- Authority
- JP
- Japan
- Prior art keywords
- frame
- correlation
- interpolation
- frames
- motion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Television Systems (AREA)
Abstract
Description
この発明は、フレームレート変換装置および映像表示装置に関する。 The present invention relates to a frame rate conversion device and a video display device.
既存のコンテンツのフレームレートよりも高いフレームレートでコンテンツを表示できる映像表示装置が開発されている。例えば、液晶テレビにおいては、動く画像がぼけるのを防止するために、毎秒60フレームの映像を毎秒120フレームの映像に変換し、得られた毎秒120フレームの映像を液晶表示器に表示させるものが開発されている。このような映像表示装置にコンテンツを表示する場合、同じフレームの映像を単に複数回出力するのではなく、信号処理によってフレーム間の補間映像を生成し、それをフレーム間に挿入することによって、滑らかな再生映像を得るようにしている。 Video display devices capable of displaying content at a frame rate higher than that of existing content have been developed. For example, in a liquid crystal television, in order to prevent a moving image from being blurred, an image of 60 frames per second is converted into an image of 120 frames per second, and the obtained 120 frames of images are displayed on a liquid crystal display. Has been developed. When displaying content on such a video display device, the video of the same frame is not simply output a plurality of times, but interpolated video between frames is generated by signal processing and inserted between the frames to smoothly To get a good playback video.
補間映像は通常、その前後のフレーム映像を用いて生成されるが、シーンチェンジなどの映像内容が大きく変化する箇所においては、良好な補間映像が得られないという問題がある。 The interpolated video is normally generated using the frame video before and after the interpolated video, but there is a problem that a good interpolated video cannot be obtained at a location where the video content changes greatly, such as a scene change.
特開2006−270823号公報に記載された「画像レート変換方法及び画像レート変換装置」では、前後のフレームに相関がないところでは、(1)前フレームの画像をそのまま当てはめるか、または(2)前後のフレーム間の動きベクトルを利用して、前フレームのみから片方向に動き補償を行なって補間フレームを生成するようにしている。 In the “image rate conversion method and image rate conversion device” described in Japanese Patent Laid-Open No. 2006-270823, (1) the image of the previous frame is applied as it is, or (2) where there is no correlation between the previous and next frames. By using motion vectors between the previous and next frames, motion compensation is performed in only one direction from the previous frame to generate an interpolation frame.
しかしながら、上記(1)では、シーンチェンジの瞬間にガタツキが発生してしまう。また、上記(2)では、シーンチェンジをまたがるフレームを使って生成された不正確な動きベクトルを利用しているため、前フレームの画像のみから補間フレームを生成したとしても、歪んだ画像になってしまう。
この発明は、シーンチェンジなどの映像内容が大きく変化する箇所においても、好適な補間フレームを生成でき、滑らかな再生映像を表示できる、フレームレート変換装置および映像表示装置を提供することを目的とする。 An object of the present invention is to provide a frame rate conversion device and a video display device capable of generating a suitable interpolation frame and displaying a smooth reproduced video even at a location where video content changes greatly, such as a scene change. .
この発明は、フェードインまたはフェードアウトのような場面においても、滑らかな補間フレームを生成することかできるフレームレート変換装置および映像表示装置を提供することを目的とする。 An object of the present invention is to provide a frame rate conversion device and a video display device capable of generating a smooth interpolation frame even in a scene such as fade-in or fade-out.
請求項1に記載の発明は、フレームレート変換装置において、隣り合う前後フレームの間に相関があるかないかを判定する相関判定手段、相関があると判定された場合には、上記両フレームから、上記両フレームの間に挿入する補間フレームを生成するための補間情報を生成し、得られた補間情報に基づいて補間フレームを生成する第1の補間フレーム生成手段、ならびに相関がないと判定された場合には、前回の補間フレーム生成のための使用された補間情報に基づいて、今回の補間フレームを生成するための補間情報を予測し、予測した補間情報に基づいて補間フレームを生成する第2の補間フレーム生成手段を備えていることを特徴とする。 According to the first aspect of the present invention, in the frame rate conversion apparatus, a correlation determination unit that determines whether there is a correlation between adjacent front and rear frames. First interpolation frame generation means for generating interpolation information for generating an interpolation frame to be inserted between the two frames and generating an interpolation frame based on the obtained interpolation information, and determined to have no correlation In this case, second interpolation information is generated based on the interpolation information used to generate the current interpolation frame based on the interpolation information used for generating the previous interpolation frame, and the interpolation frame is generated based on the predicted interpolation information. The interpolation frame generating means is provided.
請求項2に記載の発明は、請求項1に記載のフレームレート変換装置において、第2の補間フレーム生成手段は、上記両フレームのうちの前フレームのみを用いて、補間フレームを生成するものであることを特徴とする。 According to a second aspect of the present invention, in the frame rate conversion apparatus according to the first aspect, the second interpolation frame generation means generates an interpolation frame using only the previous frame of the two frames. It is characterized by being.
請求項3に記載の発明は、隣り合う前後フレームの間に相関があるかないかを判定する第1の相関判定手段、第1の相関判定手段によって相関がないと判別された場合には、上記両フレームの輝度レベルを揃えた後に、両フレーム間に相関があるかないかを判定する第2の相関判定手段、ならびに第2の相関判定手段によって、相関があると判定された場合には、輝度レベルが揃えられた後の両フレームから、上記両フレームの間に挿入する補間フレームを生成するための補間情報を生成し、得られた補間情報に基づいて補間フレームを生成する手段を備えていることを特徴とする。 In the third aspect of the present invention, when it is determined that there is no correlation by the first correlation determination unit and the first correlation determination unit that determine whether or not there is a correlation between adjacent frames. After the brightness levels of both frames are aligned, the second correlation determining unit that determines whether there is a correlation between the frames and the second correlation determining unit determine that there is a correlation. Interpolation information for generating an interpolation frame to be inserted between both frames after the level has been aligned is generated, and an interpolation frame is generated based on the obtained interpolation information It is characterized by that.
請求項4に記載の発明は、請求項3に記載のフレームレート変換装置において、第1の相関判定手段によって、相関があると判定された場合には、上記両フレームから、上記両フレームの間に挿入する補間フレームを生成するための補間情報を生成し、得られた補間情報に基づいて補間フレームを生成する手段、ならびに第2の相関判定手段によって、相関がないと判定された場合には、前回の補間フレーム生成のための使用された補間情報に基づいて、今回の補間フレームを生成するための補間情報を予測し、予測した補間情報に基づいて補間フレームを生成する手段を備えていることを特徴とする。 According to a fourth aspect of the present invention, in the frame rate conversion apparatus according to the third aspect, when the first correlation determining unit determines that there is a correlation, the frame is converted from the two frames to the interval between the two frames. When it is determined that there is no correlation by means for generating interpolation information for generating an interpolation frame to be inserted into the frame, and by means for generating an interpolation frame based on the obtained interpolation information and the second correlation determination means And means for predicting the interpolation information for generating the current interpolation frame based on the interpolation information used for generating the previous interpolation frame, and generating the interpolation frame based on the predicted interpolation information. It is characterized by that.
請求項5に記載の発明は、映像表示装置において、請求項1乃至4に記載のフレームレート変換装置を備えていることを特徴とする。 According to a fifth aspect of the present invention, in the video display device, the frame rate conversion device according to any one of the first to fourth aspects is provided.
この発明によれば、シーンチェンジなどの映像内容が大きく変化する箇所においても、好適な補間フレームを生成でき、滑らかな再生映像を表示できるようになる。 According to the present invention, it is possible to generate a suitable interpolation frame and display a smooth reproduced video even at a location where the video content changes greatly, such as a scene change.
また、この発明によれば、フェードインまたはフェードアウトのような場面においても、滑らかな補間フレームを生成することかできるようになる。 Also, according to the present invention, a smooth interpolation frame can be generated even in a scene such as fade-in or fade-out.
以下、図面を参照して、この発明を、液晶表示装置内に設けられた毎秒60フレームの映像を毎秒120フレームの映像に変換するためのフレームレート変換装置に適用した場合の実施例について説明する。 DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments in the case where the present invention is applied to a frame rate conversion device for converting 60 frames per second video into a 120 frames per second provided in a liquid crystal display device will be described below with reference to the drawings. .
〔1〕実施例1の基本的な考え方についての説明 [1] Explanation of basic concept of Example 1
この明細書においては、図1に示すように、前後2つのフレームF(N)、F(N+1)とに基づいて補間フレームFc(N)を生成する場合において、時間的に旧いフレーム(N)を前フレームまたは現フレームといい、時間的に新しいフレームF(N+1)を後フレームまたは参照フレームということにする。 In this specification, as shown in FIG. 1, when an interpolation frame Fc (N) is generated based on two frames F (N) and F (N + 1) before and after, the temporally old frame (N) Is referred to as a previous frame or a current frame, and a temporally new frame F (N + 1) is referred to as a subsequent frame or a reference frame.
図2を参照して、実施例1の基本的な考え方について説明する。 With reference to FIG. 2, the basic concept of the first embodiment will be described.
実施例1では、隣接する2つのフレームに相関がある場合と、隣接する2つのフレームに相関がない場合とで、補間フレームの生成方法を変えている。図2には、隣接する2つのフレームF(N)、F(N+1)には相関があり、隣接する2つのフレームF(N+1)、F(N+2)には相関がない例が示されている。 In the first embodiment, the interpolation frame generation method is changed between the case where there is a correlation between two adjacent frames and the case where there is no correlation between two adjacent frames. FIG. 2 shows an example in which two adjacent frames F (N) and F (N + 1) have a correlation and two adjacent frames F (N + 1) and F (N + 2) have no correlation. .
互いに相関がある2つのフレームF(N)、F(N+1)から補間フレームFc(N)を生成する場合には、両フレームF(N)、F(N+1)の映像に基づいて、動きがあるエリア(動きエリア:図2の中段の図では斜線で示されている領域)を特定するとともに、映像エリアを分割することにより設定された複数のブロック毎に動きベクトル(図2の中段の図では、0または→で示されている)を求める。動きエリアに関する情報と動きベクトルとが補間フレームを生成するための補間情報となる。動きエリアの特定は、画素毎に映像の変化があるか否かを判別し、映像の変化がある画素の集合体を動きエリアとして特定することによって行なわれる。 When the interpolated frame Fc (N) is generated from the two frames F (N) and F (N + 1) that are correlated with each other, there is motion based on the images of both the frames F (N) and F (N + 1). An area (motion area: an area indicated by diagonal lines in the middle diagram in FIG. 2) is specified, and a motion vector (in the middle diagram in FIG. 2) is set for each of a plurality of blocks set by dividing the video area. , 0 or →). The information on the motion area and the motion vector become interpolation information for generating an interpolation frame. The movement area is specified by determining whether or not there is a video change for each pixel, and specifying an aggregate of pixels having a video change as the movement area.
動きのないエリアに含まれる画素については、前後フレームのうちの一方のフレームの対応する対象画素の画像をそのまま補間画像として用いる。なお、動きのないエリアに含まれる画素について、前フレームF(N)の対応する対象画素の画像と後フレームF(N+1)の対応する対象画素の画像との平均を補間画像として用いていもよい。動きのあるエリアに含まれる画素については、前後フレームF(N)、F(N+1)の一方または両方から、その対象画素に対する動きベクトルに基づいて決定される画素位置の画像を抽出して補間画像として使用する。 For pixels included in an area where there is no motion, the image of the corresponding target pixel in one of the previous and subsequent frames is used as an interpolated image as it is. For the pixels included in the non-motion area, the average of the corresponding target pixel image in the previous frame F (N) and the corresponding target pixel image in the subsequent frame F (N + 1) may be used as the interpolation image. . For pixels included in an area with motion, an interpolated image is extracted from one or both of the preceding and following frames F (N) and F (N + 1) by extracting an image at a pixel position determined based on the motion vector for the target pixel. Use as
互いに相関がない2つのフレームF(N+1)、F(N+2)から補間フレームFc(N+1)を生成する場合には、両フレームF(N+1)、F(N+2)から補間フレームFc(N+1)を生成するための動きエリアと動きベクトルを求めるのではなく、前回求められた動きエリアと動きベクトルに基づいて、補間フレームFc(N+1)を生成するための動きエリアと動きベクトルを予測する。 When generating an interpolated frame Fc (N + 1) from two frames F (N + 1) and F (N + 2) that are not correlated with each other, an interpolated frame Fc (N + 1) is generated from both frames F (N + 1) and F (N + 2). The motion area and the motion vector for generating the interpolation frame Fc (N + 1) are predicted based on the motion area and the motion vector obtained last time, instead of obtaining the motion area and the motion vector for performing the motion.
そして、予測した動きエリアと動きベクトルとに基づいて、補間フレームFc(N+1)を生成する。つまり、動きのないエリアに含まれる画素については、前フレームF(N+1)の対応する対象画素の画像をそのまま補間画像として用いる。動きのあるエリアに含まれる画素については、前フレームF(N+1)から、その対象画素に対する動きベクトルに基づいて決定される画素位置の画像を抽出して補間画像として使用する。 Then, an interpolated frame Fc (N + 1) is generated based on the predicted motion area and motion vector. That is, for the pixels included in the non-motion area, the corresponding target pixel image of the previous frame F (N + 1) is used as an interpolation image as it is. For pixels included in an area with motion, an image at a pixel position determined based on the motion vector for the target pixel is extracted from the previous frame F (N + 1) and used as an interpolated image.
このように、互いに相関がない2つのフレーム(N+1)、(N+2)から補間フレームFc(N+1)を生成する場合には、補間フレームFc(N)は、前フレームのみから生成される。
〔2〕フレームレート変換装置の電気的構成についての説明
As described above, when the interpolation frame Fc (N + 1) is generated from the two frames (N + 1) and (N + 2) that are not correlated with each other, the interpolation frame Fc (N) is generated only from the previous frame.
[2] Description of electrical configuration of frame rate conversion device
図3は、フレームレート変換装置の電気的構成を示している。 FIG. 3 shows an electrical configuration of the frame rate conversion apparatus.
入力映像信号は、遅延回路1、フレーム相関判定部2、動きエリア生成部3、動きベクトル生成部4および補間フレーム合成部6に送られる。遅延回路1に送られた入力映像信号は、1フレーム期間だけ遅延せしめられた後、フレーム相関判定部2、動きエリア生成部3、動きベクトル生成部4および補間フレーム合成部6に送られる。
The input video signal is sent to the
遅延回路1に入力されるフレームをF(N+1)で表し、遅延回路1から出力されるフレームをF(N)で表すことにする。F(N)とF(N+1)とから補間フレームFc(N)を生成するので、F(N)を前フレーム(現フレーム)といい、F(N+1)を後フレーム(参照フレーム)ということにする。
A frame input to the
フレーム相関判定部2は、F(N+1)とF(N)との間に相関があるか否かを判定する。F(N+1)とF(N)との間に相関があるか否かは、公知の技術を用いて行なうことができる。例えば、特開2006−270823号公報に記載されているように、ブロックマッチング誤差量DM およびMVのブロック間相関Dv の一方または両方の値を用いて、F(N+1)とF(N)との間に相関があるか否かを判定してもよい。
The frame
フレーム相関判定部2は、相関があるか否かの判定結果を表す信号rを、動きエリア・動きベクトル補正部5および補間フレーム合成部6に送る。この例では、相関ありの場合にはr=1となり、相関なしの場合にはr=0となる。
The frame
動きエリア生成部3は、F(N+1)とF(N)との間で、映像に変化のある画素を特定する。つまり、画素毎にF(N+1)とF(N)との間の差分の絶対値を求め、差分の絶対値が所定の閾値以上である場合には、その画素を変化のある画素(動きのある画素)とみなす。動きエリア生成部3は、画素毎に動きがあるエリアか否かを表す情報からなる動きエリア情報M’(N)を生成して、動きエリア・動きベクトル補正部5に送る。
The motion
動きベクトル生成部4は、F(N+1)とF(N)との間の動きベクトルを算出する。具体的には、動きベクトル生成部4は、ブロックマッチングなどの既存手法を用いて、映像エリアを分割することにより設定される複数のブロック毎に動きベクトルを求める。動きベクトル生成部4は、各ブロック毎に求めた動きベクトルV’(N)を生成して、動きエリア・動きベクトル補正部5に送る。 The motion vector generation unit 4 calculates a motion vector between F (N + 1) and F (N). Specifically, the motion vector generation unit 4 obtains a motion vector for each of a plurality of blocks set by dividing a video area using an existing method such as block matching. The motion vector generation unit 4 generates a motion vector V ′ (N) obtained for each block and sends it to the motion area / motion vector correction unit 5.
図4は、動きエリア・動きベクトル補正部5の電気的構成を示している。 FIG. 4 shows an electrical configuration of the motion area / motion vector correction unit 5.
動きエリア・動きベクトル補正部5は、信号切替回路51、遅延回路52および動きエリア・動きベクトル予測部53を備えている。
The motion area / motion vector correction unit 5 includes a
信号切替回路51には、動きエリア情報として、動きエリア生成部3によって生成された動きエリア情報M’(N)と動きエリア・動きベクトル予測部53によって生成された動きエリアの予測情報M”(N)とが入力されている。また、信号切替回路51には、ブロック毎の動きベクトルとして、動きベクトル生成部4によって生成された動きベクトルV’(N)と動きエリア・動きベクトル予測部53によって生成された動きベクトルの予測値V”(N)が入力している。
The
信号切替回路51は、フレーム相関判定部2から送られてくる信号rに基づいて、入力信号を切り替える。つまり、フレーム相関判定部2によって2つのフレームF(N)、F(N+1)間に相関があると判定された場合(r=1)には、信号切替回路51は、動きエリア生成部3によって生成された動きエリア情報M’(N)を動きエリア情報M(N)として出力するとともに、動きベクトル生成部4によって生成された動きベクトルV’(N)を動きベクトルV(N)として出力する。
The
フレーム相関判定部2によって2つのフレームF(N)、F(N+1)間に相関がないと判定された場合(r=0)には、動きエリア・動きベクトル予測部53によって生成された動きエリアの予測情報M”(N)を動きエリア情報M(N)として出力するとともに、動きエリア・動きベクトル予測部53によって生成された動きベクトルの予測値V”(N)を動きベクトルV(N)として出力する。
When the frame
信号切替回路51から出力される動きエリア情報M(N)および動きベクトルV(N)は、遅延回路52に送られるとともに、補間フレーム合成部6に送られる。補間フレーム合成部6は、信号切替回路51から送られてきた動きエリア情報M(N)および動きベクトルV(N)に基づいて、補間フレームFc(N)を生成する。補間フレーム合成部6によって行なわれる処理の詳細については後述する。
The motion area information M (N) and motion vector V (N) output from the
遅延回路52は、信号切替回路51から送られてきた動きエリア情報M(N)および動きベクトルV(N)を、1フレーム期間だけ遅延させた後、動きエリア・動きベクトル予測部53に送る。動きエリア・動きベクトル予測部53は、遅延回路52から送られてきた(N−1)番目のフレームに対する動きエリア情報M(N−1)および(N−1)番目のフレームに対する動きベクトルV(N−1)に基づいて、N番目のフレームに対する動きエリアおよび動きベクトルを予測して、M”(N)およびV”(N)として出力する。この場合には、動きエリア情報M(N−1)および動きベクトルV(N−1)が、請求項1における「前回の補間フレーム生成のために使用された補間情報」に相当する。
The
図5は、動きエリア・動きベクトル予測部53によって実行される予測処理手順を示している。
FIG. 5 shows a prediction processing procedure executed by the motion area / motion
図6に示すように、映像エリアがm×n個のブロックに分割されており、各ブロック毎に動きベクトルV’(N)が算出されているものとする。各ブロックの位置は、1からm×nまでを表す変数bで表される。あるフレーム番号における各ブロックは、図6に示すように、B(b,フレーム番号)で表すことにする。例えば、B(1,N−1)は、(N−1)番目のフレームの先頭のブロックを示している。 As shown in FIG. 6, it is assumed that the video area is divided into m × n blocks, and a motion vector V ′ (N) is calculated for each block. The position of each block is represented by a variable b representing 1 to m × n. Each block in a certain frame number is represented by B (b, frame number) as shown in FIG. For example, B (1, N-1) indicates the first block of the (N-1) th frame.
また、あるフレーム番号における各ブロックに対応する動きエリア情報は、図7に示すように、M(b,フレーム番号)で表される。例えば、M(1,N−1)は、(N−1)番目のフレームの先頭のブロックに対応する動きエリア情報を示している。この動きエリア情報M(1,N−1)は、当該ブロック内の各画素毎に動きがあるエリアか否かを表す情報から構成されている。なお、図7において、ハッチングは、(N−1)番目のフレームの動きエリア情報M(N−1)によって表されている動きエリアを示している。 Further, the motion area information corresponding to each block in a certain frame number is represented by M (b, frame number) as shown in FIG. For example, M (1, N−1) indicates motion area information corresponding to the first block of the (N−1) th frame. The motion area information M (1, N-1) is configured by information indicating whether or not there is a motion area for each pixel in the block. In FIG. 7, hatching indicates a motion area represented by the motion area information M (N−1) of the (N−1) th frame.
あるフレーム番号における各ブロックに対応する動きベクトルは、V(b,フレーム番号)で表される。例えば、V(1,N−1)は、(N−1)番目のフレームの先頭のブロックに対応する動きベクトルを示している。 A motion vector corresponding to each block in a certain frame number is represented by V (b, frame number). For example, V (1, N−1) indicates a motion vector corresponding to the first block of the (N−1) th frame.
図5に戻り、まず、初期設定を行なう(ステップS1)。つまり、各ブロック毎の動きベクトルの予測値V”(b,N)の初期値を0に設定するとともに、動きエリアの予測情報M”(N)の初期値として全画素に0(動き無し領域)を設定する。 Returning to FIG. 5, first, initial setting is performed (step S1). That is, the initial value of the motion vector prediction value V ″ (b, N) for each block is set to 0, and the initial value of the motion area prediction information M ″ (N) is set to 0 (no motion region). ) Is set.
初期設定の後、ブロックの位置を表す変数bに1を設定する(ステップS2)。そして、処理対象ブロックB(b,N−1)内に動きエリアを含んでおりかつ当該ブロックの動きベクトルV(b,N−1)が0でないという条件を満たしているか否かを判別する(ステップS3)。処理対象ブロックB(b,N−1)内に動きエリアを含んでいるか否かは、当該ブロックに対応する動きエリア情報M(b,N−1)に基づいて判別する。 After the initial setting, 1 is set to the variable b representing the block position (step S2). Then, it is determined whether or not the condition that the processing target block B (b, N−1) includes a motion area and the motion vector V (b, N−1) of the block is not 0 is satisfied ( Step S3). Whether or not the processing target block B (b, N-1) includes a motion area is determined based on the motion area information M (b, N-1) corresponding to the block.
上記条件を満たしていない場合には、全てのブロック位置に対する処理が終了したか否かを判別する(ステップS9)。つまり、b=m×nであるか否かを判別する。b=m×nでなければ、全てのブロック位置に対する処理が終了していないと判別し、bを1だけインクリメントした後(ステップS10)、ステップS3に戻る。 If the above condition is not satisfied, it is determined whether or not the processing for all the block positions has been completed (step S9). That is, it is determined whether or not b = m × n. If b = m × n is not satisfied, it is determined that processing for all the block positions is not completed, b is incremented by 1 (step S10), and the process returns to step S3.
上記ステップS3において、処理対象ブロックB(b,N−1)内に動きエリアを含んでおりかつ当該ブロックの動きベクトルV(b,N−1)が0でないという条件を満たしていると判別した場合には、処理対象ブロックに対応する動きエリア情報M(b,N−1)を動きベクトルV(b,N−1)の方向にその動きベクトルの大きさ分だけシフトさせた後の内容に、動きエリアの予測情報M”(N)を更新させる(ステップS4)。 In step S3, it is determined that the condition that the processing target block B (b, N-1) includes a motion area and the motion vector V (b, N-1) of the block is not 0 is satisfied. In such a case, the motion area information M (b, N-1) corresponding to the processing target block is shifted to the content of the motion vector V (b, N-1) by the magnitude of the motion vector. The motion area prediction information M ″ (N) is updated (step S4).
つまり、更新後の予測情報M”(N)は、処理対象ブロックB(b,N−1)内の動きエリアを、当該ブロックに対応する動きベクトルV(b,N−1)の方向にその動きベクトルの大きさ分だけ移動させた後の動きエリアを表す情報となる。 That is, the updated prediction information M ″ (N) indicates the motion area in the processing target block B (b, N−1) in the direction of the motion vector V (b, N−1) corresponding to the block. This is information representing the motion area after being moved by the magnitude of the motion vector.
次に、上記シフトによって、処理対象ブロックB(b,N−1)内にあった動きエリアの少なくとも一部が、処理対象ブロックB(b,N−1)に隣接するブロック内に移動したか否かを判別する(ステップS5)。隣接ブロック内に動きエリアが移動したと判別した場合には、動きエリアが移動してきた隣接ブロックに対応する動きベクトル予測値V”(N)に、処理対象ブロックB(b,N−1)の動きベクトルV(b,N−1)を設定する(ステップS6)。そして、ステップS7に移行する。上記ステップS5において、隣接ブロックに動きエリアが移動していないと判別した場合には、ステップS7に移行する。 Next, whether or not at least a part of the moving area in the processing target block B (b, N-1) has moved into a block adjacent to the processing target block B (b, N-1) by the shift. It is determined whether or not (step S5). When it is determined that the motion area has moved within the adjacent block, the motion vector prediction value V ″ (N) corresponding to the adjacent block to which the motion area has moved is added to the processing block B (b, N−1). The motion vector V (b, N-1) is set (step S6), and the process proceeds to step S7, and if it is determined in step S5 that the motion area has not moved to the adjacent block, step S7 is performed. Migrate to
ステップS7では、上記ステップS4で更新された動きエリアの予測情報M”(N)のうち、ブロック位置bに対応する予測情報M”(b,N)内に動きエリアが含まれているか否かを判別する。つまり、上記ステップS4で動きエリア情報M(b,N−1)をシフトさせた場合、そのシフト後において当該ブロックに動きエリアが残っているか否かを判別する。 In step S7, it is determined whether or not the motion area is included in the prediction information M ″ (b, N) corresponding to the block position b among the motion area prediction information M ″ (N) updated in step S4. Is determined. That is, when the motion area information M (b, N-1) is shifted in step S4, it is determined whether or not a motion area remains in the block after the shift.
動きエリアの予測情報M”(b,N)内に動きエリアが含まれている場合には、処理対象ブロックB(b,N−1)に対応する動きベクトル予測値V”(b,N)に、処理対象ブロックB(b,N−1)に対応する動きベクトルV(b,N−1)を設定する(ステップS8)。そして、ステップS9に移行する。上記ステップS7において、動きエリアの予測情報M”(b,N)内に動きエリアが含まれてないと判別した場合には、ステップS9に移行する。この場合には、処理対象ブロックB(b,N−1)に対応する動きベクトルの予測値V”(b,N)は、0(初期値)となり、V(b,N−1)とは異なるベクトルとなる。 When the motion area is included in the motion area prediction information M ″ (b, N), the motion vector prediction value V ″ (b, N) corresponding to the processing target block B (b, N−1). Then, the motion vector V (b, N-1) corresponding to the processing target block B (b, N-1) is set (step S8). Then, the process proceeds to step S9. If it is determined in step S7 that the motion area is not included in the motion area prediction information M ″ (b, N), the process proceeds to step S9. In this case, the processing target block B (b , N−1), the motion vector predicted value V ″ (b, N) is 0 (initial value), which is a vector different from V (b, N−1).
ステップS9では、全てのブロックに対する処理が終了したか否かを判別する。つまり、b=m×nであるか否かを判別する。b=m×nでなければ、全てのブロックに対する処理が終了していないと判別し、bを1だけインクリメントした後(ステップS10)、ステップS3に戻る。 In step S9, it is determined whether or not processing for all blocks has been completed. That is, it is determined whether or not b = m × n. If b = m × n is not satisfied, it is determined that processing for all the blocks has not been completed, b is incremented by 1 (step S10), and the process returns to step S3.
図8は、補間フレーム合成部6によって行なわれる補間フレーム合成処理手順を示している。
FIG. 8 shows an interpolation frame synthesis process procedure performed by the interpolation
画素をP(=(x,y))で表すことにする。まず、最初の画素(0,0)を選択する(ステップS21)。 A pixel is represented by P (= (x, y)). First, the first pixel (0, 0) is selected (step S21).
対象画素Pは動きエリアに含まれているか否かを判別する(ステップS22)。この判別は、動きエリア・動きベクトル補正部5によって補間フレーム合成部6に与えられる動きエリア情報M(N)に基づいて行なわれる。
It is determined whether or not the target pixel P is included in the motion area (step S22). This determination is performed based on the motion area information M (N) given to the interpolated
対象画素Pが動きエリアに含まれていない場合には、次式(1)に基づいて、対象画素Pに対応する補間画素値Fc(P,N)を算出して、補間画素値Fc(P,N)として設定する(ステップS23)。 When the target pixel P is not included in the motion area, the interpolation pixel value Fc (P, N) corresponding to the target pixel P is calculated based on the following equation (1), and the interpolation pixel value Fc (P , N) (step S23).
Fc(P,N)=F(P,N) …(1) Fc (P, N) = F (P, N) (1)
上記式(1)において、F(P,N)は、現フレーム(N)の対象画素Pに対応する画素値F(P,N)である。 In the above equation (1), F (P, N) is a pixel value F (P, N) corresponding to the target pixel P of the current frame (N).
ステップS23の処理が終了すると、全ての画素に対する処理が終了したか否かを判別する(ステップS28)。全ての画素に対する処理が終了していない場合には、対象画素Pを次画素に更新した後(ステップS29)、ステップS22に戻る。 When the process of step S23 is completed, it is determined whether or not the process for all the pixels has been completed (step S28). If the processing for all the pixels has not been completed, the target pixel P is updated to the next pixel (step S29), and the process returns to step S22.
上記ステップS22において、対象画素Pが動きエリアに含まれていると判別された場合には、動きエリア・動きベクトル補正部5によって補間フレーム合成部6に与えられる各ブロック毎の動きベクトルV(N)のうち、対象画素Pを含むブロックの動きベクトルを、対象画素Pに対応する動きベクトルv(=(vx,vy))として設定する(ステップS24)。
If it is determined in step S22 that the target pixel P is included in the motion area, the motion vector V (N (N) for each block given to the interpolated
また、フレーム相関判定部2によって補間フレーム合成部6に与えられる相関判定結果rが1であるか否かを判別する(ステップS25)。r=1である場合、つまり、現フレームと参照フレームとの間に相関があると判別されている場合には、次式(2)に基づいて、対象画素Pに対応する補間画素値Fc(P,N)を算出して、補間画素値Fc(P,N)として設定する(ステップS26)。そして、ステップS28に移行する。
Further, it is determined whether or not the correlation determination result r given to the interpolated
Fc(P,N)=(1/2)・F(P−v/2,N)
+(1/2)・F(P+v/2,N+1) …(2)
Fc (P, N) = (1/2) · F (P−v / 2, N)
+ (1/2) · F (P + v / 2, N + 1) (2)
上記式(2)において、F(P−v/2,N)は、現フレーム(N)の対象画素Pに対して、対象画素Pに対応する動きベクトルvの大きさの1/2だけ、動きベクトルvの方向と逆方向にある位置の画素値を表している。また、F(P+v/2,N+1)は、参照フレーム(N+1)の対象画素Pに対して、対象画素Pに対応する動きベクトルvの大きさの1/2だけ、動きベクトルvの方向にある位置の画素値を表している。 In the above equation (2), F (P−v / 2, N) is ½ of the magnitude of the motion vector v corresponding to the target pixel P with respect to the target pixel P of the current frame (N). The pixel value at a position in the direction opposite to the direction of the motion vector v is represented. Further, F (P + v / 2, N + 1) is in the direction of the motion vector v by 1/2 of the magnitude of the motion vector v corresponding to the target pixel P with respect to the target pixel P of the reference frame (N + 1). It represents the pixel value of the position.
上記ステップS25において、r=0であると判別した場合、つまり、現フレームと参照フレームとの間に相関がないと判別されている場合には、次式(3)に基づいて、対象画素Pに対応する補間画素値Fc(P,N)を算出して、補間画素値Fc(P,N)として設定する(ステップS27)。そして、ステップS28に移行する。 If it is determined in step S25 that r = 0, that is, if it is determined that there is no correlation between the current frame and the reference frame, the target pixel P is calculated based on the following equation (3). The interpolation pixel value Fc (P, N) corresponding to is calculated and set as the interpolation pixel value Fc (P, N) (step S27). Then, the process proceeds to step S28.
Fc(P,N)=F(P−v/2,N) …(3) Fc (P, N) = F (P−v / 2, N) (3)
上記式(3)において、F(P−v/2,N)は、現フレーム(N)の対象画素Pに対して、対象画素Pに対応する動きベクトルvの大きさの1/2だけ、動きベクトルvの方向と逆方向にある位置の画素値を表している。 In the above equation (3), F (P−v / 2, N) is ½ of the magnitude of the motion vector v corresponding to the target pixel P with respect to the target pixel P of the current frame (N), The pixel value at a position in the direction opposite to the direction of the motion vector v is represented.
全ての画素に対して、補間画素値Fc(P,N)が設定されると、ステップS28でYESとなり、今回の補間フレーム合成処理を終了する。 When the interpolated pixel value Fc (P, N) is set for all the pixels, the result of step S28 is YES, and the current interpolated frame synthesis process is terminated.
〔1〕実施例2の基本的な考え方についての説明
実施例2においても、基本的には実施例1と同様な方法で補間フレームを生成することを前提としている。
[1] Description of Basic Concept of Second Embodiment Also in the second embodiment, it is basically assumed that an interpolation frame is generated by the same method as in the first embodiment.
シーンチェンジの直前においてフェイドアウト(全体輝度を徐々に低下させる)させたり、シーンチェンジの直後においてフェイドイン(全体輝度を徐々に上昇させる)させたりする場合がある。 There is a case where fade-out (the overall luminance is gradually decreased) immediately before the scene change, or fade-in (an overall luminance is gradually increased) immediately after the scene change.
図9に示すように、フェイドアウト(またはフェイドイン)の途中においては、隣接する2つのフレームF(N)、F(N+1)間では、それらが連続的な画像であっても、全体輝度が異なるため、相関がないと判定されてしまう可能性が高い。そうすると、両フレームF(N)、F(N+1)の間には、実質的には相関性があっても、両フレームF(N)、F(N+1)の相関を利用して補間フレームが作成されなくなる。 As shown in FIG. 9, during the fade-out (or fade-in), the overall luminance differs between two adjacent frames F (N) and F (N + 1) even if they are continuous images. Therefore, there is a high possibility that it is determined that there is no correlation. Then, even if there is a substantial correlation between both frames F (N) and F (N + 1), an interpolated frame is created using the correlation between both frames F (N) and F (N + 1). It will not be done.
そこで、実施例2では、両フレームF(N)、F(N+1)に相関がないと判別された場合には、両フレームF(N)、F(N+1)の全体輝度を揃えた上で、相関があるか否かを再度、チェックする。そして、相関があると判別された場合には、全体輝度が揃えられた両フレームF(N)、F(N+1)に基づいて補間フレームを生成する。そして、得られた補間フレームの全体輝度を両フレームF(N)、F(N+1)の中間の輝度に調整する。 Therefore, in the second embodiment, when it is determined that there is no correlation between both frames F (N) and F (N + 1), the entire luminance of both frames F (N) and F (N + 1) is aligned, Check again whether there is a correlation. If it is determined that there is a correlation, an interpolated frame is generated based on both frames F (N) and F (N + 1) in which the overall luminance is uniform. Then, the overall luminance of the obtained interpolation frame is adjusted to an intermediate luminance between both frames F (N) and F (N + 1).
〔2〕フレームレート変換装置の電気的構成についての説明 [2] Description of electrical configuration of frame rate conversion device
図10は、フレームレート変換装置の電気的構成を示している。 FIG. 10 shows an electrical configuration of the frame rate conversion apparatus.
入力映像信号は、遅延回路1、フレーム相関判定部2および輝度補正部7に送られる。遅延回路1に送られた入力映像信号は、1フレーム期間だけ遅延せしめられた後、フレーム相関判定部2、輝度補正部7、動きエリア生成部3、動きベクトル生成部4および補間フレーム合成部6に送られる。
The input video signal is sent to the
遅延回路1に入力される映像をF(N+1)で表し、遅延回路1から出力される映像をF(N)で表すことにする。
An image input to the
フレーム相関判定部2は、F(N+1)とF(N)との間に相関があるか否かを判定する。フレーム相関判定部2は、相関があるか否かの判定結果rを、輝度補正部7に送る。この例では、相関ありの場合にはr=1となり、相関なしの場合にはr=0となる。
The frame
図11は、輝度補正部7の電気的構成を示している。 FIG. 11 shows an electrical configuration of the luminance correction unit 7.
輝度補正部7は、全体輝度差検出部71、全体輝度調整部72、フレーム相関判定部73、OR回路74および信号切替部75を備えている。
The luminance correction unit 7 includes an overall luminance
全体輝度差検出部71は、フレームF(N)とF(N+1)の間の輝度差を検出する。具体的には、F(N)の平均輝度をYN とし、F(N+1)の平均輝度をYN+1 とすると、次式(4)に基づいて、F(N)とF(N+1)の間の輝度差Y’を算出する。
The overall brightness
Y’=YN −YN+1 …(4) Y ′ = Y N −Y N + 1 (4)
全体輝度調整部72は、F(N+1)の平均輝度をF(N)の平均輝度YN に揃えるために、F(N+1)の各画素の輝度に、輝度差Y’を加算する。
The overall
フレーム相関判定部73は、F(N)と輝度調整後のF”(N+1)との間に相関があるか否かを判定する。フレーム相関判定部73は、判定結果r”をOR回路74に出力する。この例では、相関があると判定した場合には、r”=1となり、相関がないと判定した場合には、r”=0となる。
The frame
OR回路74には、フレーム相関判定部2からの判定結果rが送られている。r=1である場合には、OR回路74の加算結果r’は常に1となる。r=0である場合には、OR回路74の加算結果r’は、フレーム相関判定部73の判定結果r”と同じ値となる。
A determination result r from the frame
信号切替部75には、輝度差を表す入力信号として、0の値と全体輝度差検出部71によって検出された輝度差Y’とが入力されているとともに、F(N+1)を表す信号として、輝度調整前のF(N+1)と輝度調整後のF”(N+1)とが入力されている。
The
信号切替部75は、フレーム相関判定部2から送られてくる相関判定結果rに基づいて、入力信号を切り替える。つまり、フレーム相関判定部2によってF(N)とF(N+1)の間に相関があると判定された場合(r=1)には、信号切替部75は、0の値を輝度差を表す信号Yとして出力するとともに、輝度調整前のF(N+1)を参照フレームの画像F’(N+1)として出力する。一方、フレーム相関判定部2によってF(N)とF(N+1)の間に相関がないと判定された場合(r=0)には、信号切替部75は、全体輝度差検出部71によって検出された輝度差Y’を輝度差を表す信号Yとして出力するとともに、輝度調整後のF”(N+1)を参照フレームの画像F’(N+1)として出力する。
The
図10に戻り、動きエリア生成部3は、F(N)と輝度補正部7から出力されたF’(N+1)との間で、映像に変化のある画素を特定する。つまり、画素毎にF(N)とF’(N+1)との間の差分の絶対値を求め、差分の絶対値が所定の閾値以上である場合には、その画素を変化のある画素(動きのある画素)とみなす。動きエリア生成部3は、画素毎に動きがあるエリアか否かを表す情報からなる動きエリア情報M’(N)を生成して、動きエリア・動きベクトル補正部5に送る。
Returning to FIG. 10, the motion
動きベクトル生成部4は、F(N)と輝度補正部7から出力されたF’(N+1)との間の動きベクトルを算出する。具体的には、動きベクトル生成部4は、ブロックマッチングなどの既存手法を用いて、映像エリアを分割することにより設定される複数のブロック毎に動きベクトルを求める。動きベクトル生成部4は、各ブロック毎に求めた動きベクトルV’(N)を生成して、動きエリア・動きベクトル補正部5に送る。 The motion vector generation unit 4 calculates a motion vector between F (N) and F ′ (N + 1) output from the luminance correction unit 7. Specifically, the motion vector generation unit 4 obtains a motion vector for each of a plurality of blocks set by dividing a video area using an existing method such as block matching. The motion vector generation unit 4 generates a motion vector V ′ (N) obtained for each block and sends it to the motion area / motion vector correction unit 5.
動きエリア・動きベクトル補正部5の構成は、実施例1で説明した構成(図4)と同じである。ただし、実施例1では図4の信号切替回路51に対して、フレーム相関判定部2の判定結果rが切替制御信号として与えられていたが、実施例2では、信号切替回路51に対して、輝度補正部7によって生成された信号r’が切替制御信号として与えられている。
The configuration of the motion area / motion vector correction unit 5 is the same as the configuration described in the first embodiment (FIG. 4). However, in the first embodiment, the determination result r of the frame
補間フレーム合成部6は、実施例1と同様な処理(図8に示す処理)を行なって補間フレームを合成する。ただし、実施例1の参照フレームF(N+1)の代わりに、輝度補正部7から出力された参照フレームF’(N+1)が用いられ、実施例1の判定結果rの代わりに輝度補正部7によって生成された信号r’が用いられる。
The interpolated
補間フレーム合成部6によって生成され補間フレーム(実施例2では、Fc’(N)で表すことにする)は、全体輝度調整部8に送られる。全体輝度調整部8には、輝度補正部7から輝度差Yが与えられている。全体輝度調整部8は、補間フレーム合成部6によって生成され補間フレームFc’(N)の各画素の輝度を、輝度差Yの1/2だけ低減させることにより、最終的な補間フレームFc(N)を得る。
The interpolated frame (denoted by Fc ′ (N) in the second embodiment) generated by the interpolated
現フレームF(N)の平均輝度をYN 、参照フレームF(N+1)の平均輝度をYN+1 とすると、輝度差YはY=YN −YN+1 となる。フェードイン(フェードアウト)時には、参照フレームF(N+1)の全体輝度が、現フレームF(N)の全体輝度YN と等しくなるように輝度調整された後に、補間フレームFc’(N)が生成されるので、補間フレームFc’(N)の平均輝度はYN となる。 If the average luminance of the current frame F (N) is Y N and the average luminance of the reference frame F (N + 1) is Y N + 1 , the luminance difference Y is Y = Y N −Y N + 1 . At the time of fade-in (fade-out), the inter-frame Fc ′ (N) is generated after the luminance is adjusted so that the overall luminance of the reference frame F (N + 1) becomes equal to the overall luminance Y N of the current frame F (N). Therefore, the average luminance of the interpolation frame Fc ′ (N) is Y N.
そこで、補間フレームFc’(N)の平均輝度を、現フレームF(N)と参照フレームF(N+1)の中間の輝度{(YN +YN+1 )/2}にさせるために、補間フレームFc’(N)の各画素の輝度を、輝度差Y(=YN −YN+1 )の1/2だけ低減させている。 Therefore, in order to set the average luminance of the interpolation frame Fc ′ (N) to an intermediate luminance {(Y N + Y N + 1 ) / 2} between the current frame F (N) and the reference frame F (N + 1), the interpolation frame The brightness of each pixel of Fc ′ (N) is reduced by ½ of the brightness difference Y (= Y N −Y N + 1 ).
つまり、補間フレームFc’(N)の平均輝度をYN とすると、輝度補正後の補間フレームFc(N)の平均輝度Ycは、次式(4)で示すように、{(YN +YN+1 )/2}となる。 That is, assuming that the average luminance of the interpolation frame Fc ′ (N) is Y N , the average luminance Yc of the interpolation frame Fc (N) after luminance correction is represented by {(Y N + Y N +1 ) / 2}.
Yc=YN −Y/2=YN −(YN −YN+1 )/2=(YN +YN+1 )/2
…(4)
Yc = Y N -Y / 2 = Y N - (Y N -Y N + 1) / 2 = (Y N + Y N + 1) / 2
(4)
1 遅延回路
2 フレーム相関判定部
3 動きエリア生成部
4 動きベクトル生成部
5 動きエリア・動きベクトル補正部
6 補間フレーム合成部
7 輝度補正部
8 全体輝度調整部
DESCRIPTION OF
Claims (5)
相関があると判定された場合には、上記両フレームから、上記両フレームの間に挿入する補間フレームを生成するための補間情報を生成し、得られた補間情報に基づいて補間フレームを生成する第1の補間フレーム生成手段、ならびに
相関がないと判定された場合には、前回の補間フレーム生成のための使用された補間情報に基づいて、今回の補間フレームを生成するための補間情報を予測し、予測した補間情報に基づいて補間フレームを生成する第2の補間フレーム生成手段、
を備えていることを特徴とするフレームレート変換装置。 Correlation determination means for determining whether there is a correlation between adjacent front and rear frames,
When it is determined that there is a correlation, interpolation information for generating an interpolation frame to be inserted between the both frames is generated from the both frames, and an interpolation frame is generated based on the obtained interpolation information The first interpolation frame generation means, and when it is determined that there is no correlation, the interpolation information for generating the current interpolation frame is predicted based on the interpolation information used for the previous interpolation frame generation. Second interpolation frame generation means for generating an interpolation frame based on the predicted interpolation information,
A frame rate conversion apparatus comprising:
第1の相関判定手段によって相関がないと判別された場合には、上記両フレームの輝度レベルを揃えた後に、両フレーム間に相関があるかないかを判定する第2の相関判定手段、ならびに
第2の相関判定手段によって、相関があると判定された場合には、輝度レベルが揃えられた後の両フレームから、上記両フレームの間に挿入する補間フレームを生成するための補間情報を生成し、得られた補間情報に基づいて補間フレームを生成する手段、
を備えていることを特徴とするフレームレート変換装置。 First correlation determination means for determining whether or not there is a correlation between adjacent front and rear frames;
When the first correlation determining means determines that there is no correlation, the second correlation determining means for determining whether or not there is a correlation between both frames after aligning the luminance levels of the two frames, and If the correlation determination unit 2 determines that there is a correlation, interpolation information for generating an interpolation frame to be inserted between the frames is generated from both frames after the luminance levels are aligned. Means for generating an interpolation frame based on the obtained interpolation information;
A frame rate conversion apparatus comprising:
第2の相関判定手段によって、相関がないと判定された場合には、前回の補間フレーム生成のための使用された補間情報に基づいて、今回の補間フレームを生成するための補間情報を予測し、予測した補間情報に基づいて補間フレームを生成する手段、
を備えていることを特徴とする請求項3に記載のフレームレート変換装置。 When the first correlation determination unit determines that there is a correlation, the interpolation information for generating an interpolation frame to be inserted between the both frames is generated from the both frames, and the obtained interpolation information is obtained. If the second correlation determination unit determines that there is no correlation based on the interpolation information used for generating the previous interpolation frame, the current interpolation is generated. Means for predicting interpolation information for generating a frame and generating an interpolation frame based on the predicted interpolation information;
The frame rate conversion apparatus according to claim 3, comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007063455A JP4956239B2 (en) | 2007-03-13 | 2007-03-13 | Frame rate conversion device and video display device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007063455A JP4956239B2 (en) | 2007-03-13 | 2007-03-13 | Frame rate conversion device and video display device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008227928A true JP2008227928A (en) | 2008-09-25 |
JP4956239B2 JP4956239B2 (en) | 2012-06-20 |
Family
ID=39846003
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007063455A Active JP4956239B2 (en) | 2007-03-13 | 2007-03-13 | Frame rate conversion device and video display device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4956239B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010257100A (en) * | 2009-04-23 | 2010-11-11 | Canon Inc | Image processing apparatus and image processing method |
CN111885336A (en) * | 2020-06-19 | 2020-11-03 | 成都东方盛行电子有限责任公司 | Non-frame-coding rate conversion method under frame mode |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11112940A (en) * | 1997-10-07 | 1999-04-23 | Hitachi Ltd | Generation method for motion vector and device therefor |
JP3189292B2 (en) * | 1991-05-09 | 2001-07-16 | 松下電器産業株式会社 | Scan line interpolator |
JP3363541B2 (en) * | 1993-09-28 | 2003-01-08 | キヤノン株式会社 | Image signal reproducing device and image processing device |
JP2005318621A (en) * | 2004-04-30 | 2005-11-10 | Matsushita Electric Ind Co Ltd | Ticker process in video sequence |
JP2006270823A (en) * | 2005-03-25 | 2006-10-05 | Tama Tlo Kk | Method and device for image rate conversion |
JP2006331136A (en) * | 2005-05-27 | 2006-12-07 | Victor Co Of Japan Ltd | Moving vector detection apparatus |
JP2008011439A (en) * | 2006-06-30 | 2008-01-17 | Toshiba Corp | Apparatus for generating interpolated image |
-
2007
- 2007-03-13 JP JP2007063455A patent/JP4956239B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3189292B2 (en) * | 1991-05-09 | 2001-07-16 | 松下電器産業株式会社 | Scan line interpolator |
JP3363541B2 (en) * | 1993-09-28 | 2003-01-08 | キヤノン株式会社 | Image signal reproducing device and image processing device |
JPH11112940A (en) * | 1997-10-07 | 1999-04-23 | Hitachi Ltd | Generation method for motion vector and device therefor |
JP2005318621A (en) * | 2004-04-30 | 2005-11-10 | Matsushita Electric Ind Co Ltd | Ticker process in video sequence |
JP2006270823A (en) * | 2005-03-25 | 2006-10-05 | Tama Tlo Kk | Method and device for image rate conversion |
JP2006331136A (en) * | 2005-05-27 | 2006-12-07 | Victor Co Of Japan Ltd | Moving vector detection apparatus |
JP2008011439A (en) * | 2006-06-30 | 2008-01-17 | Toshiba Corp | Apparatus for generating interpolated image |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010257100A (en) * | 2009-04-23 | 2010-11-11 | Canon Inc | Image processing apparatus and image processing method |
CN111885336A (en) * | 2020-06-19 | 2020-11-03 | 成都东方盛行电子有限责任公司 | Non-frame-coding rate conversion method under frame mode |
CN111885336B (en) * | 2020-06-19 | 2022-03-29 | 成都东方盛行电子有限责任公司 | Non-frame-coding rate conversion method under frame mode |
Also Published As
Publication number | Publication date |
---|---|
JP4956239B2 (en) | 2012-06-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4198608B2 (en) | Interpolated image generation method and apparatus | |
JP2004297719A (en) | Frame interpolation method and image display system using the same | |
JPH11112939A (en) | Image signal system conversion method and device therefor | |
JP2005318621A (en) | Ticker process in video sequence | |
WO2008056451A1 (en) | Image display device and image display method, and image processing device and image processing method | |
JP2005318586A (en) | Motion vector detection with improved motion vector selection | |
JP2010278871A (en) | Image processing apparatus and image processing method | |
JPH0884293A (en) | Method and apparatus for reducing conversion artifact | |
US7295245B2 (en) | Method and apparatus for converting frame rate using time shifting and motion compensation | |
JP4991360B2 (en) | Frame rate conversion device and video display device | |
JPH11112940A (en) | Generation method for motion vector and device therefor | |
JP2006331136A (en) | Moving vector detection apparatus | |
JP2005318622A (en) | Reverse film mode extrapolation method | |
JP3993159B2 (en) | Motion detection apparatus and method | |
US7683971B2 (en) | Image conversion apparatus to perform motion compensation and method thereof | |
KR100968642B1 (en) | Method and interpolation device for calculating a motion vector, display device comprising the interpolation device, and computer program | |
JP4956239B2 (en) | Frame rate conversion device and video display device | |
JP4339237B2 (en) | Sequential scan converter | |
JP2009239698A (en) | Video image converting device, and video image converting method | |
JP2005236937A (en) | Image processing apparatus, image processing method and image processing program | |
JP2004147281A (en) | Special video effect creation apparatus, special video effect creation method, and special video effect creation program | |
JP2009081561A (en) | Frame interpolation device, frame interpolation program, frame interpolation method and portable terminal | |
JP2007288483A (en) | Image converting apparatus | |
KR20080032741A (en) | Display apparatus and control method thereof | |
JP5300568B2 (en) | Video processing apparatus and control method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100120 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20111101 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20111117 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111130 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120223 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120316 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 4956239 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150323 Year of fee payment: 3 |