JP2011244330A - Frame rate conversion method and device - Google Patents
Frame rate conversion method and device Download PDFInfo
- Publication number
- JP2011244330A JP2011244330A JP2010116403A JP2010116403A JP2011244330A JP 2011244330 A JP2011244330 A JP 2011244330A JP 2010116403 A JP2010116403 A JP 2010116403A JP 2010116403 A JP2010116403 A JP 2010116403A JP 2011244330 A JP2011244330 A JP 2011244330A
- Authority
- JP
- Japan
- Prior art keywords
- image
- images
- input
- motion
- frame rate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Television Systems (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
Description
本発明は、フレームレート変換方法及び装置に関し、より具体的には、動き補償により複数の時刻の画像の成分を用いて出力画像を生成することにより、入力画像を高画質化するための技術に関わるものである。 The present invention relates to a frame rate conversion method and apparatus, and more specifically, to a technique for improving the quality of an input image by generating an output image using image components at a plurality of times by motion compensation. It is related.
最初に、動き検出部、及び動き補償部を有するフレームレート変換装置の一例として、60Hzのフレームレートの動画像が入力されたときに、動画像のフレームレートを倍に変換する処理を図9に示す。
図9の(1)の画像901,902,903は、時間的に連続して入力された画像である。物体904,905,906の画面上の位置より、物体は画面内を右下方向に一定の速度で移動している。
First, as an example of a frame rate conversion apparatus having a motion detection unit and a motion compensation unit, when a moving image with a frame rate of 60 Hz is input, a process for converting the frame rate of the moving image to double is shown in FIG. Show.
The
図9の(2)は、(1)の入力動画像のフレームレートを2倍に変換した出力動画像を示している。出力画像907,909,911は、入力画像901,902,903と同じ画像であり、出力画像908,910は新たに生成された画像である。新たに生成された出力画像908,910の中にある物体912,913は、入力画像の物体の動き方向を検出し、入力画像の中間時刻の物体の位置を計算して、入力画像の動き補償により生成される。
(2) in FIG. 9 shows an output moving image obtained by converting the frame rate of the input moving image in (1) by a factor of two. The
図9の処理を実現するためのブロック図の一例を図10に示す。フレームメモリ1001は、入力画像を蓄積し、図示しないタイミングコントローラからの制御により最適なタイミングで動きベクトル検出部1002、及びフレーム生成部(動き補償部)1003に画像を供給する。
動きベクトル検出部1002は、時間的に連続する画像A、画像Bをフレームメモリ1001より読み出し、画像間の物体の動きを検出する。
フレーム生成部1003は、フレームメモリ1001より供給された画像Cと動きベクトル検出部1002より出力された動きベクトルより、動き補償画像を生成し出力する。
また、フレーム生成部1003は、図9の(2)の出力画像907,909,911のように入力画像を出力画像とする場合には、フレームメモリ1001より読み出した画像Cをそのまま出力する。
An example of a block diagram for realizing the processing of FIG. 9 is shown in FIG. The
The motion
The
Further, the
上記の画像A、B,Cについてさらに具体的に説明する。
図11に示すように画像Aと画像Bは、入力画像における時間的に連続する画像である。動きベクトル検出部1002によって画像Aと画像Bから動きベクトルを検出する。ここで画像Cとしては、画像Aを用いる。フレーム生成部1003では、フレームメモリ1001から読み出した画像C(=画像A)に対し、動きベクトル検出部1002で検出した動きベクトルを利用して画像Aと画像Bとの間の中間時刻の画像を生成し、出力する。また、画像A,Bをそのまま出力画像とする場合には、フレームメモリ1001から読み出した画像Cをそのまま出力する。
The images A, B, and C will be described more specifically.
As shown in FIG. 11, images A and B are temporally continuous images in the input image. A motion
また、図12に示すように、画像Cとして画像Bを用いてもよい。この場合には、フレーム生成部1003では、フレームメモリ1001から読み出した画像C(=画像B)に対し、動きベクトル検出部1002で検出した動きベクトルを利用して画像Aと画像Bとの間の中間時刻の画像を生成し、出力する。また、画像A,Bをそのまま出力画像とする場合には、フレームメモリ1001から読み出した画像Cをそのまま出力する。
Further, as shown in FIG. 12, an image B may be used as the image C. In this case, the
図10の動きベクトル検出部1002の処理の一例を図13に示す。動きベクトル検出部1002は、動き元画像1301と動き先画像1302の間の物体の動きを検出する。複数の物体の動きに対応するため、動き元画像1301を格子状に複数のブロックに分割し、各ブロックの動きベクトルを検出する。例えば、動き元画像のブロック1305に対する動きベクトルは、動き先画像の同じ位置のブロック1306を中心とした動き探索範囲1307の領域の中から検出される。図13の例では、ブロック1305の移動先のブロックとしてブロック1308が検出され、ブロック1305よりブロック1308へのベクトルが動きベクトルとなる。
An example of processing of the motion
次に、時刻の異なる複数の画像を用いた高画質化装置の一例を図14に示す。図14の(1)の画像1401,1402,1403は、時間的に連続して入力された画像である。物体1404,1405,1406の画面上の位置より、物体は画面内を右下方向に一定の速度で移動している。図14の(2)は、高画質化処理の出力画像を示す。出力画像1407は、入力画像1401に対して動きベクトル1より動き補償された画像と、入力画像1402とをブレンド(混合)することにより生成される。
Next, FIG. 14 shows an example of an image quality improving apparatus using a plurality of images having different times. The
図14の処理を実現するためのブロック図の一例を図15に示す。フレームメモリ1501は、入力画像を蓄積し、図示しないタイミングコントローラからの制御により最適なタイミングで動きベクトル検出部1502、フレーム生成部(動き補償部)1503、及びブレンド部1504に画像を供給する。
動きベクトル検出部1502は、フレームメモリ1501より時間的に連続する画像A、画像Bを読み出し、画像間の物体の動きを検出する。フレーム生成部1503は、フレームメモリ1501より供給された画像Cと動きベクトル検出部1502より出力された動きベクトルより、動き補償画像を生成し出力する。ブレンド部1504は、フレーム生成部1503から出力された動き補償画像と、フレームメモリ1501より供給された画像Dとをブレンドして出力する。
An example of a block diagram for realizing the processing of FIG. 14 is shown in FIG. The
The motion
図15の画像A,B,C,Dについてさらに具体的に説明する。
図16に示すように画像Aと画像Bは、入力画像における時間的に連続する画像である。動きベクトル検出部1502によって画像Aと画像Bから動きベクトルを検出する。ここで画像Cとしては、画像Aを用いる。フレーム生成部1503では、フレームメモリ1501から読み出した画像C(=画像A)に対し、動きベクトル検出部1502で検出した動きベクトルを利用して画像Aと画像Bとの間の中間時刻の画像を生成し、出力する。ブレンド部1504では、フレームメモリ1501から読み出した画像D(=画像B)を用い、この画像Dとフレーム生成部1503で生成した中間時刻の画像とをブレンドする。これにより、画像A,B,C,Dに対する出力画像が得られる。また、画像A,Bをそのまま出力画像とする場合には、フレームメモリ1501から読み出した画像C、画像Dをそのまま出力する。
The images A, B, C, and D in FIG. 15 will be described more specifically.
As shown in FIG. 16, images A and B are temporally continuous images in the input image. A motion
上記のブレンド処理についてさらに具体的に説明する。
ブレンド処理は、2つの画像の信号成分を混合するもので、例えば、画像Aと画像Bとブレンドした結果を画像Cとすると、
画像C=画像A × ブレンド比率 + 画像B × (1−ブレンド比率)
となる。
一般的に、ブレンド比率は、画像内の画素位置ごとに画像Aと画像Bの類似度により求める。具体的には、類似度が高い場合(画像Aと画像Bとの差分が小さい場合)、ブレンド比を大きくする。
The blending process will be described more specifically.
The blending process mixes the signal components of two images. For example, if the result of blending image A and image B is image C,
Image C = Image A × Blend ratio + Image B × (1-Blend ratio)
It becomes.
Generally, the blend ratio is obtained from the similarity between the image A and the image B for each pixel position in the image. Specifically, when the similarity is high (when the difference between the image A and the image B is small), the blend ratio is increased.
図17により、ブレンドによる高画質化する処理をさらに具体的に説明する。
例えば、撮影時刻の異なる入力画像には、撮影時、アナログ伝送時、MPEG等による圧縮符号化時、等にノイズn1,n2,n3が混入する。これらのノイズは、全く同じではなく、入力画像ごとに異なっている。従って、撮影時刻の異なる画像をブレンドすることによってランダム状のノイズが中和され、得られた画像のノイズ感を低減させることができる。
With reference to FIG. 17, the processing for improving the image quality by blending will be described in more detail.
For example, noises n1, n2, and n3 are mixed in input images having different shooting times during shooting, analog transmission, compression encoding using MPEG, and the like. These noises are not exactly the same, and are different for each input image. Therefore, by blending images with different shooting times, random noise is neutralized, and the noise feeling of the obtained image can be reduced.
また、図18に示すように、インタレース画像に対して各フィールド画像ごとにIP変換により補間ラインを生成し、スケーラによりスケーリングしてパネルサイズの画像に変換する場合、隣接画像の物体の形状f1,f2,f3が微妙に変化してしまう。また、物体の移動距離は、撮影画像ピッチと無関係のため、隣接する動画像は完全に一致しない。このような場合にも、撮影時刻の異なる画像をブレンドすることにより、物体の情報量が増えて画質を向上させることができる。 As shown in FIG. 18, when an interpolated image is generated by IP conversion for each field image for an interlaced image and scaled by a scaler to be converted into a panel size image, the shape f1 of the object of the adjacent image , F2, and f3 change slightly. Further, since the moving distance of the object is irrelevant to the captured image pitch, adjacent moving images do not completely match. Even in such a case, by blending images having different shooting times, the information amount of the object can be increased and the image quality can be improved.
図15の例では、フレーム生成部1503で生成した動き補償画像と入力画像Dとをブレンド部1504でブレンドしているが、これらの画像が同じ画像の場合には、ブレンドしても画像は変化しない。しかし、通常は、ブレンドされる画像は、上記のようにノイズやスケーリング処理により全く同じ画像にはならない。従って、画像をブレンドすることによって画質を向上させることができる。
In the example of FIG. 15, the motion compensation image generated by the
次に、時刻の異なる複数の画像を用いた高画質化装置の別の例を図19、及び図20に示す。上記の図17,図18に示すように、撮影時刻の異なる画像は一般にノイズ等によって異なる画像になっている。従って、撮影時刻の異なる2フレームの画像のみならず、3フレーム以上の画像をブレンドしたり、過去の出力画像を用いてブレンドすることにより、ランダム状のノイズの低減による画質向上効果や、移動物体の情報量が増えることによる画質向上効果が期待できる。 Next, another example of an image quality improving apparatus using a plurality of images having different times is shown in FIGS. As shown in FIGS. 17 and 18 above, images with different shooting times are generally different due to noise or the like. Therefore, not only two-frame images with different shooting times but also three or more frames are blended, or past output images are used for blending. The image quality improvement effect by increasing the amount of information can be expected.
図19は、3フレーム以上の入力画像を用いて出力画像を生成する処理を示すもの(非巡回型)であり、図20は、入力画像と過去の出力画像を用いて出力画像を生成する処理を示すもの(巡回型)である。
図19に示す処理の場合には、時間的に連続する複数の入力画像について動きベクトルを検出する。そして検出した動きベクトルを利用して、特定の入力画像に対応する時刻の動き補償画像を生成し、これらの動き補償画像を上記特定の入力画像とブレンドすることによって画質向上を図っている。
FIG. 19 shows a process of generating an output image using an input image of three frames or more (acyclic type), and FIG. 20 shows a process of generating an output image using an input image and a past output image. (Cyclic type).
In the case of the process shown in FIG. 19, a motion vector is detected for a plurality of temporally continuous input images. Then, using the detected motion vector, a motion compensated image at a time corresponding to a specific input image is generated, and these motion compensated images are blended with the specific input image to improve image quality.
また、図20の場合には、時間的に連続する複数の入力画像について動きベクトルを検出する。そして検出した動きベクトルを出力画像に適用して、特定の入力画像に対応する時刻の動き補償画像を生成し、生成した動き補償画像を上記特定の入力画像とブレンドすることによって画質向上を図っている。 In the case of FIG. 20, motion vectors are detected for a plurality of temporally continuous input images. The detected motion vector is applied to the output image to generate a motion compensated image at a time corresponding to the specific input image, and the generated motion compensated image is blended with the specific input image to improve the image quality. Yes.
入力画像の複数のフレームを利用して高画質化を行うための技術に関して、例えば、非特許文献1には、複数のフレーム間で超解像処理を行う例が示されている。 For example, Non-Patent Document 1 shows an example in which super-resolution processing is performed between a plurality of frames with respect to a technique for improving image quality using a plurality of frames of an input image.
フレームレート変換処理と高画質化処理は、動き検出処理と動き補償処理を必要とする。画像間の動き検出処理、動き補償処理には、大きなメモリと演算処理が必要となる。このため、フレームレート変換処理と高画質化処理を独立して行うと、処理全体のメモリ量、演算量が大きくなってしまう。非特許文献1に記載された処理においても、画像処理時の処理量が多いという課題がある。 The frame rate conversion process and the image quality improvement process require a motion detection process and a motion compensation process. A large memory and arithmetic processing are required for the motion detection processing and motion compensation processing between images. For this reason, if the frame rate conversion process and the image quality improvement process are performed independently, the amount of memory and the calculation amount of the entire process increase. Even in the processing described in Non-Patent Document 1, there is a problem that the amount of processing during image processing is large.
本発明は、上述のごとき実情に鑑みてなされたもので、動きベクトルを用いて、時刻の異なる複数の入力画像に基づき出力画像を生成することにより、処理負荷を過度に増大させることなく高画質化されたフレームレート変換処理を可能とするフレームレート変換方法、及び装置を提供することを目的とするものである。 The present invention has been made in view of the above circumstances, and generates high-quality images without excessively increasing the processing load by generating output images based on a plurality of input images at different times using motion vectors. It is an object of the present invention to provide a frame rate conversion method and apparatus that enable a converted frame rate conversion process.
上記課題を解決するために、本発明の第1の技術手段は、入力画像のフレームレートを変換して出力する画像処理装置により実行されるフレームレート変換方法であって、前記映像処理装置に入力した入力画像間の動きを検出して動きベクトルを求める動きベクトル検出ステップと、該動きベクトル検出ステップで検出した動きベクトルを用いて、動き補償された画像を生成する動き補償ステップと、該動き補償ステップで生成された動き補償された画像を含む複数の画像を混合する混合ステップとを有し、該混合ステップは、時刻の異なる入力画像の成分を混合することを特徴としたものである。 In order to solve the above problems, a first technical means of the present invention is a frame rate conversion method executed by an image processing apparatus that converts a frame rate of an input image and outputs the frame rate, and is input to the video processing apparatus. A motion vector detection step for detecting a motion between the input images and obtaining a motion vector, a motion compensation step for generating a motion compensated image using the motion vector detected in the motion vector detection step, and the motion compensation A mixing step of mixing a plurality of images including motion-compensated images generated in the step, wherein the mixing step mixes components of the input image at different times.
第2の技術手段は、第1の技術手段において、前記動き補償ステップが、時刻の異なる複数の入力画像のそれぞれに基づいて生成した複数の動き補償画像を生成し、前記混合ステップは、前記動き補償ステップで生成された複数の動き補償画像を混合することにより、前記入力画像間の画像を生成して前記フレームレートを変換することを特徴としたものである。 According to a second technical means, in the first technical means, the motion compensation step generates a plurality of motion compensation images generated based on a plurality of input images at different times, and the mixing step includes the motion By mixing a plurality of motion compensation images generated in the compensation step, an image between the input images is generated and the frame rate is converted.
第3の技術手段は、第1の技術手段において、前記動き補償ステップが、時刻の異なる複数の入力画像のうち、一部の入力画像に対応する出力画像に基づいて動き補償画像を生成し、かつ、他の入力画像に基づいて動き補償画像を生成し、前記混合ステップは、前記動き補償ステップで生成した動き補償画像を混合して、前記入力画像間の画像を生成することにより、前記フレームレートを変換することを特徴としたものである。 In a third technical means, in the first technical means, the motion compensation step generates a motion compensated image based on an output image corresponding to a part of the input images among a plurality of input images at different times, A motion compensation image is generated based on another input image, and the mixing step mixes the motion compensation image generated in the motion compensation step to generate an image between the input images, thereby generating the frame. It is characterized by converting the rate.
第4の技術手段は、第1の技術手段において、前記動き補償ステップが、入力画像に対応する出力画像に基づいて生成した動き補償画像により、前記入力画像間の画像を生成し、かつ、時刻の異なる複数の入力画像のうち、一部の入力画像に対応する出力画像に基づいて他の入力画像の時刻に対応する動き補償画像を生成し、前記混合ステップは、前記動き補償ステップで生成した前記他の入力画像の時刻に対応する動き補償画像と、前記他の入力画像とを混合することを特徴としたものである。 According to a fourth technical means, in the first technical means, the motion compensation step generates an image between the input images using a motion compensated image generated based on an output image corresponding to the input image, and a time A motion compensation image corresponding to the time of another input image is generated based on an output image corresponding to a part of the input images, and the mixing step is generated in the motion compensation step. The motion compensated image corresponding to the time of the other input image and the other input image are mixed.
第5の技術手段は、入力画像のフレームレートを変換して出力するフレームレート変換装置であって、該フレームレート変換装置に入力した入力画像間の動きを検出して動きベクトルを求める動きベクトル検出部と、該動きベクトル検出部で検出した動きベクトルを用いて、動き補償画像を生成する動き補償部と、該動き補償部で生成された動き補償された画像を含む複数の画像を混合する混合部とを有し、該混合部は、時刻の異なる入力画像の成分を混合することを特徴としたものである。 A fifth technical means is a frame rate conversion device that converts a frame rate of an input image and outputs the same, and detects a motion vector by detecting a motion between input images input to the frame rate conversion device. A motion compensation unit that generates a motion compensated image using the motion vector detected by the motion vector detection unit, and a mixture that includes a plurality of images including the motion compensated image generated by the motion compensation unit The mixing unit mixes components of input images at different times.
第6の技術手段は、第5の技術手段において、前記動き補償部が、時刻の異なる複数の入力画像のそれぞれに基づいて生成した複数の動き補償画像を生成し、前記混合部は、前記動き補償部で生成された複数の動き補償画像を混合することにより、前記入力画像間の画像を生成して前記フレームレートを変換することを特徴としたものである。 According to a sixth technical means, in the fifth technical means, the motion compensation unit generates a plurality of motion compensated images generated based on a plurality of input images at different times, and the mixing unit By mixing a plurality of motion compensation images generated by the compensation unit, an image between the input images is generated and the frame rate is converted.
第7の技術手段は、第5の技術手段において、前記動き補償部が、時刻の異なる複数の入力画像のうち、一部の入力画像に対応する出力画像に基づいて生成した動き補償画像を生成し、かつ、他の入力画像に基づいて生成した動き補償画像を生成し、前記混合部は、前記動き補償部で生成した動き補償画像を混合して、前記入力画像間の画像を生成することにより、前記フレームレートを変換することを特徴としたものである。 According to a seventh technical means, in the fifth technical means, the motion compensation unit generates a motion compensated image generated based on an output image corresponding to a part of the input images among a plurality of input images at different times. And generating a motion compensation image generated based on another input image, and the mixing unit mixes the motion compensation image generated by the motion compensation unit to generate an image between the input images. Thus, the frame rate is converted.
第8の技術手段は、第5の技術手段において、前記動き補償部が、入力画像に対応する出力画像に基づいて生成した動き補償画像により、前記入力画像間の画像を生成し、かつ、時刻の異なる複数の入力画像のうち、一部の入力画像に対応する出力画像に基づいて他の入力画像の時刻に対応する動き補償画像を生成し、前記混合部は、前記動き補償ステップで生成した前記他の入力画像の時刻に対応する動き補償画像と、前記他の入力画像とを混合することを特徴としたものである。 According to an eighth technical means, in the fifth technical means, the motion compensation unit generates an image between the input images based on a motion compensated image generated based on an output image corresponding to the input image, and a time Among the plurality of different input images, a motion compensated image corresponding to the time of another input image is generated based on an output image corresponding to a part of the input images, and the mixing unit is generated in the motion compensation step The motion compensated image corresponding to the time of the other input image and the other input image are mixed.
本発明によれば、動きベクトルを用いて、時刻の異なる複数の入力画像に基づき出力画像を生成することにより、処理負荷を過度に増大させることなく高画質化されたフレームレート変換処理が可能となる。特に本発明によれば、フレームレート変換処理と高画質化処理に必要な動き検出処理とを共通化することができ、これにより、処理量を大幅に削減することができる。 According to the present invention, by generating an output image based on a plurality of input images at different times using motion vectors, it is possible to perform a frame rate conversion process with high image quality without excessively increasing the processing load. Become. In particular, according to the present invention, it is possible to share the frame rate conversion process and the motion detection process necessary for the image quality enhancement process, thereby greatly reducing the processing amount.
本発明に係る実施形態では、入力画像のフレームレートを変換する処理を行う際に、入力画像間の動きを検出して動きベクトルを求め、その動きベクトルを用いて入力画像のフレームレートを変換した出力画像を生成する。ここでは、時刻の異なる入力画像に基づいて生成した動き補償画像を使用し、時刻の異なる入力画像の成分を混合することにより入力画像間の画像を生成することにより、前記フレームレートを変換する。以下に本発明の実施形態をさらに具体的に説明する。 In the embodiment according to the present invention, when performing the process of converting the frame rate of the input image, the motion between the input images is detected to obtain a motion vector, and the frame rate of the input image is converted using the motion vector. Generate an output image. Here, the frame rate is converted by generating an image between the input images by using the motion compensated images generated based on the input images having different times and mixing the components of the input images having different times. In the following, embodiments of the present invention will be described in more detail.
(実施形態1)
本発明の第1の実施の形態の処理による入力画像と出力画像を図1に示す。図1の(1)の画像101,102,103は、時間的に連続して入力された画像である。物体104,105,106の画面上の位置より、物体は画面内を右下方向に一定の速度で移動している。
(Embodiment 1)
An input image and an output image obtained by the processing of the first embodiment of the present invention are shown in FIG. The
図1の(2)は、(1)の入力動画像のフレームレートを2倍に変換した出力動画像を示している。出力画像107,109,111は、入力画像101,102,103とそれぞれ同じ時刻の対応する画像であり、出力画像108,110は、入力画像の中間時刻の画像である。また、図1の(2)の出力画像は、複数の入力画像をブレンドして生成している。画像をブレンドする処理は、本発明の画像の混合処理に相当する。出力画像108,109は、入力画像101,102より生成され、出力画像110,111は入力画像102,103より生成される。
(2) of FIG. 1 shows an output moving image obtained by converting the frame rate of the input moving image of (1) by a factor of two. The
図2は、上記の処理をさらに具体的に説明する図である。画像101,102,103は、時間的に連続して入力された画像である。ここで、画像101と画像102に注目する。これらの時間的に連続する入力画像を画像A、画像Bとする。ここで、まず画像Aと画像Bから動きベクトルを検出する。動きベクトルの検出方法については、適宜従来公知の方法を用いることができる。
FIG. 2 is a diagram for explaining the above processing more specifically. The
そして入力画像における画像Aに対し、画像Aと画像Bにより検出された動きベクトルとを利用して、画像Aと画像Bの中間時刻の動き補償画像を生成する。この動き補償画像は、画像Aと画像Bの中間時刻の画像であるため、検出された動きベクトルの1/2の情報を利用する。一方、入力画像における画像Bと、検出された動きベクトルとを利用して、画像Aと画像Bの中間時刻の動き補償画像を生成する。
そして生成されたこれら2つの中間時刻の動き補償画像をブレンドし、得られた生成画像(画像Cとする)を画像Aと画像Bの中間時刻の画像として出力する。
Then, a motion compensated image at an intermediate time between the image A and the image B is generated for the image A in the input image by using the motion vector detected by the image A and the image B. Since this motion compensated image is an image at an intermediate time between the image A and the image B, information of ½ of the detected motion vector is used. On the other hand, a motion compensated image at an intermediate time between the image A and the image B is generated using the image B in the input image and the detected motion vector.
Then, the generated motion compensated images at the intermediate time are blended, and the obtained generated image (referred to as image C) is output as an image at an intermediate time between images A and B.
出力画像として、画像Bに時刻が一致する画像Dを生成する場合には、図示しないが以下の処理となる。ここでは入力画像における画像Aと、検出した動きベクトルとにより、画像Bと同時刻の動き補償画像を生成する。この場合、画像Bと同時刻の画像を生成するため、検出した動きベクトルの位置情報を利用する。そして画像Aと動きベクトルから生成した動き補償画像と、画像Bとをブレンドし、得られた生成画像(画像D)を画像Bの同時刻の画像として出力する。これらの処理により、出力画像には、異なる時刻の入力画像の成分が混合されることになる。 When an image D whose time coincides with the image B is generated as an output image, the following processing is performed although not shown. Here, a motion compensated image at the same time as the image B is generated from the image A in the input image and the detected motion vector. In this case, the position information of the detected motion vector is used to generate an image at the same time as the image B. Then, the motion compensated image generated from the image A and the motion vector and the image B are blended, and the obtained generated image (image D) is output as an image at the same time as the image B. By these processes, components of the input image at different times are mixed in the output image.
図3は、本発明に係るフレームレート変換装置の構成例を説明するためのブロック図で、上記第1の実施形態の処理を実行するための構成例を示すものである。
図3において、入力画像はフレームメモリ201に書き込まれる。時刻の異なる入力画像(画像A,画像B)がフレームメモリ201より読み出され、動きベクトル検出部202に供給される。動きベクトル検出部202は、供給された2フレームの画像間の動きを検出し、動きベクトルを生成する。
FIG. 3 is a block diagram for explaining a configuration example of the frame rate conversion apparatus according to the present invention, and shows a configuration example for executing the processing of the first embodiment.
In FIG. 3, the input image is written in the
第1のフレーム生成部(動き補償部)203では、入力画像における画像Aと、動きベクトル検出部202で検出された動きベクトルとを利用して、画像Aと画像Bの中間時刻の動き補償画像を生成する。一方、第2のフレーム生成部(動き補償部)204では、入力画像における画像Bと、動きベクトル検出部202で検出された動きベクトルとを利用して、画像Aと画像Bの中間時刻の動き補償画像を生成する。
The first frame generation unit (motion compensation unit) 203 uses the image A in the input image and the motion vector detected by the motion
ブレンド部(混合部)205では、これら第1及び第2のフレーム生成部203,204で生成された中間時刻の動き補償画像をブレンドし、得られた生成画像を画像Aと画像Bの中間時刻の画像として出力する。
The blending unit (mixing unit) 205 blends the motion compensation images at the intermediate times generated by the first and second
一方、出力画像として、画像Bに時刻が一致する画像を生成する場合、第1のフレーム生成部203では、入力画像における画像Aと、動きベクトル検出部202で検出した動きベクトルとにより、画像Bと同時刻の動き補償画像を生成する。一方、第2のフレーム生成部204では、入力画像における画像Bを動き補償画像として出力する。そしてブレンド部205では、これら第1及び第2のフレーム生成部203,204から出力された画像Bと同じ時刻の画像をブレンドし、得られた生成画像を画像Bの同時刻の画像として出力する。
On the other hand, when an image whose time coincides with the image B is generated as the output image, the first
このように、本発明に係る第1の実施形態では、入力画像間の動きを検出して動きベクトルを求める動き検出部202と、動きベクトルを用いて出力画像を生成する第1及び第2のフレーム生成部(動き補償部)203,204を含むフレームレート変換装置において、検出した動きベクトルを用いて、時刻の異なる複数の入力画像のそれぞれに基づいて生成した複数の動き補償画像を混合して、入力画像間の画像を生成することにより、ランダム状のノイズを低減させ、また、移動物体の情報量が増えることによる画質向上を図ることができる。そしてこのときに、フレームレート変換処理と、高画質化処理に必要な動きベクトル検出処理とを共通化することができ、処理量を大幅に削減することができる。
As described above, in the first embodiment of the present invention, the
(実施形態2)
本発明の第2の実施の形態の処理による入力画像と出力画像を図4に示す。図4の(1)の画像401,402,403は、時間的に連続して入力された画像である。物体404,405,406の画面上の位置より、物体は画面内を右下方向に一定の速度で移動している。
(Embodiment 2)
An input image and an output image obtained by the processing of the second embodiment of the present invention are shown in FIG. The
図4の(2)は、(1)の入力動画像のフレームレートを2倍に変換した出力動画像を示している。出力画像407,409,411は、それぞれ入力画像401,402,403と同じ時刻の画像であり、出力画像408,410は、入力画像の中間時刻の画像である。また、図4(2)の出力画像は、複数の入力画像の成分が含まれている。出力画像409は、過去の出力画像407と入力画像402より生成され、出力画像408は、出力画像409と入力画像402とより生成される。
(2) in FIG. 4 shows an output moving image obtained by converting the frame rate of the input moving image in (1) by a factor of two. The
ここで時間的に連続する入力画像401,402に注目し、これらの入力画像をそれぞれ画像A、画像Bとする。画像Bに時刻が一致する出力画像(画像Eとする)は、入力画像Bと、入力画像Aと同時刻の出力画像(画像Cとする)から生成されている。
Here, attention is paid to input
画像Aと画像Bの中間時刻の出力画像(画像Dとする)は、画像Dの1つ前の出力画像(画像C)と入力画像Bとにより生成される。ここでは、時間的に連続する入力画像Aと画像Bにより動きベクトルを検出し、その動きベクトルを出力画像Cに適用して、画像Cと画像Eの中間時刻の動き補償画像を生成する。そしてこの一方、画像Bに動きベクトルを適用して画像Aと画像Bと中間時刻の動き補償画像を生成する。これらの2つの動き補償画像をブレンドして、画像Aと画像Bの中間時刻の画像Dを生成して出力する。 An output image (referred to as image D) at an intermediate time between image A and image B is generated by the output image (image C) immediately before image D and input image B. Here, a motion vector is detected from the temporally continuous input image A and image B, and the motion vector is applied to the output image C to generate a motion compensated image at an intermediate time between the images C and E. On the other hand, the motion vector is applied to the image B to generate motion compensation images of the images A and B and intermediate times. These two motion compensated images are blended to generate and output an image D at an intermediate time between the images A and B.
一方、画像Eを生成する場合、画像Aと画像Bから検出した動きベクトルを画像Cに適用して、画像Bと同時刻の動き補償画像を生成する。そしてこの動き補償画像を画像Bとブレンドすることで画像Eを生成して出力する。
画像Cは、画像Eと同様に生成されたものであり、過去の出力画像に基づく動き補償画像と、その時刻の入力画像(画像A)とがブレンドされた画像である。これらの処理により、出力画像には、異なる時刻の入力画像の成分が混合されることになる。
On the other hand, when generating the image E, the motion vector detected from the image A and the image B is applied to the image C to generate a motion compensated image at the same time as the image B. Then, the motion compensation image is blended with the image B to generate and output an image E.
The image C is generated in the same manner as the image E, and is a blended image of the motion compensated image based on the past output image and the input image (image A) at that time. By these processes, components of the input image at different times are mixed in the output image.
このように時刻の異なる複数の入力画像のうち、一部の入力画像に対応する出力画像に基づいて生成した動き補償画像と、他の入力画像に基づいて生成した動き補償画像とを混合して、入力画像間の画像を生成することにより、ランダム状のノイズ低減効果、および移動局物体の情報量が増えることによる画質向上効果が期待できる。 As described above, among a plurality of input images having different times, a motion compensation image generated based on an output image corresponding to a part of the input images and a motion compensation image generated based on another input image are mixed. By generating an image between input images, it is possible to expect a random noise reduction effect and an image quality improvement effect due to an increase in the information amount of the mobile station object.
図5は、本発明に係るフレームレート変換装置の他の構成例を説明するためのブロック図で、上記第2の実施形態の処理を実行するための構成例を示すものである。
図5において、入力画像は、第1のフレームメモリ501に書き込まれる。第1のフレームメモリ501より時刻の異なる入力画像(画像A、画像B)が読み出され、動きベクトル検出部502に供給される。動きベクトル検出部502は、供給された2フレームの画像間の動きを検出し、動きベクトルを生成する。
FIG. 5 is a block diagram for explaining another configuration example of the frame rate conversion apparatus according to the present invention, and shows a configuration example for executing the processing of the second embodiment.
In FIG. 5, the input image is written into the
第1のフレーム生成部(動き補償部)503は、第2のフレームメモリ504より読みだされた画像(画像C)に対して、動きベクトル検出部502で検出された動きベクトルを適用し、画像Aと画像Bとの中間時刻の動き補償画像を生成して、ブレンド部(混合部)505に供給する。一方第2のフレーム生成部(動き補償部)506は、入力画像の画像Bに対して、動きベクトル検出部502で検出された動きベクトルを適用し、画像Aと画像Bとの中間時刻の動き補償画像を生成して、ブレンド部505に供給する。
ブレンド部505は、動き補償された2フレームの画像をブレンドして出力画像を生成する。
The first frame generation unit (motion compensation unit) 503 applies the motion vector detected by the motion
The
一方、出力画像として、画像Bに時刻が一致する出力画像を生成する場合、第1のフレーム生成部503では、第2のフレームメモリ504より読みだされた画像(画像C)に対して、動きベクトル検出部502で検出された動きベクトルを適用し、画像Bと同時刻の動き補償画像を生成して、ブレンド部505に供給する。一方第2のフレーム生成部506は、入力画像における画像Bを動き補償画像として出力する。そしてブレンド部505では、これら第1及び第2のフレーム生成部503,506から出力された画像Bと同じ時刻の画像をブレンドし、得られた生成画像を画像Bに対応する同時刻の画像として出力する。入力画像と同じ時刻の出力画像は、第2のフレームメモリ504に書き込まれる。
On the other hand, when an output image whose time coincides with the image B is generated as the output image, the first
(実施形態3)
本発明の第3の実施の形態の処理による入力画像と出力画像を図6に示す。上記の実施形態2では、動き補償された2つの画像をブレンドして、入力画像の中間時刻の出力画像を生成していたが、動き補償画像を1フレームだけ用いて中間時刻の出力画像を生成するようにしてもよい。
(Embodiment 3)
FIG. 6 shows an input image and an output image obtained by the processing according to the third embodiment of the present invention. In the second embodiment, two motion compensated images are blended to generate an output image at an intermediate time of the input image. However, an output image at an intermediate time is generated using only one frame of the motion compensated image. You may make it do.
図6の(1)の画像601,602,603は、時間的に連続して入力された画像である。物体604,605,606の画面上の位置より、物体は画面内を右下方向に一定の速度で移動している。
図6の(2)は、(1)の入力動画像のフレームレートを2倍に変換した出力動画像を示している。出力画像607,609,611は、それぞれ入力画像601,602,603と同じ時刻の画像であり、出力画像608,610は、入力画像の中間時刻の画像である。また、図6(2)の出力画像は、複数の入力画像の成分が含まれている。出力画像609は、過去の出力画像607と入力画像602より生成され、出力画像608は、出力画像607により生成される。
The
(2) in FIG. 6 shows an output moving image obtained by converting the frame rate of the input moving image in (1) by a factor of two. The
ここで時間的に連続する入力画像601,602に注目し、これらの入力画像をそれぞれ画像A、画像Bとする。画像Bに時刻が一致する出力画像(画像Eとする)は、入力画像Bと、入力画像Aと同時刻の出力画像(画像Cとする)から生成されている。
画像Aと画像Bの中間時刻の出力画像(画像Dとする)は、画像Dの1つ前の出力画像(画像C)により生成される。ここでは、時間的に連続する入力画像Aと画像Bにより動きベクトルを検出し、その動きベクトルを出力画像Cに適用して、画像Cと画像Eの中間時刻の動き補償画像を生成し、画像Dとして出力する。
Here, attention is paid to input
An output image (image D) at an intermediate time between the images A and B is generated by an output image (image C) immediately before the image D. Here, a motion vector is detected from temporally continuous input image A and image B, and the motion vector is applied to output image C to generate a motion compensated image at an intermediate time between image C and image E. Output as D.
一方、画像Eを生成する場合、画像Aと画像Bから検出した動きベクトルを画像Cに適用して、画像Bと同時刻の動き補償画像を生成する。そしてこの動き補償画像を画像Bとブレンドすることで画像Eを生成して出力する。
画像Cは、画像Eと同様に生成されたものであり、過去の出力画像に基づく動き補償画像と、その時刻の入力画像(画像A)とがブレンドされた画像である。これらの処理により、出力画像には、異なる時刻の入力画像の成分が混合されることになる。
On the other hand, when generating the image E, the motion vector detected from the image A and the image B is applied to the image C to generate a motion compensated image at the same time as the image B. Then, the motion compensation image is blended with the image B to generate and output an image E.
The image C is generated in the same manner as the image E, and is a blended image of the motion compensated image based on the past output image and the input image (image A) at that time. By these processes, components of the input image at different times are mixed in the output image.
このように、入力画像に対応する出力画像に基づいて生成した動き補償画像により、入力画像間の画像を生成し、このときに、上記の入力画像間の画像の生成に用いる入力画像に対応する出力画像を、時刻の異なる複数の入力画像のうち、一部の入力画像に対応する出力画像に基づいて生成した動き補償画像と、他の入力画像とを混合して生成することにより、ランダム状のノイズ低減効果、および移動局物体の情報量が増えることによる画質向上効果が期待できる。 In this way, an image between the input images is generated by the motion compensated image generated based on the output image corresponding to the input image, and at this time, the image corresponds to the input image used for generating the image between the input images. By generating an output image by mixing a motion compensated image generated based on an output image corresponding to a part of the input images among a plurality of input images at different times and other input images, a random state Noise reduction effect and an image quality improvement effect due to an increase in the amount of information of the mobile station object can be expected.
図7は、本発明に係るフレームレート変換装置の構成例を説明するためのブロック図で、上記第3の実施形態の処理を実行するための構成例を示すものである。
図7において、入力画像は、第1のフレームメモリ701に書き込まれる。第1のフレームメモリ701より時刻の異なる入力画像(画像A、画像B)が読み出され、動きベクトル検出部702に供給される。動きベクトル検出部702は、供給された2フレームの画像間の動きを検出し、動きベクトルを生成する。
FIG. 7 is a block diagram for explaining a configuration example of the frame rate conversion apparatus according to the present invention, and shows a configuration example for executing the processing of the third embodiment.
In FIG. 7, the input image is written in the
フレーム生成部(動き補償部)703は、第2のフレームメモリ705より読みだされた画像(画像C)に対して、動きベクトル検出部702で検出された動きベクトルを適用し、画像Aと画像Bとの中間時刻の動き補償画像を生成して、ブレンド部(混合部)704に供給する。中間時刻の画像については、ブレンド部704におけるブレンドを行わず、画像Dとして出力する。
一方、画像Bと同時刻の画像Eを生成する場合、フレーム生成部703では、第2のフレームメモリ705から読み出された画像(画像C)に対して、動きベクトル検出部702で検出された動きベクトルを適用し、画像Bと同時刻の動き補償画像を生成して、ブレンド部704に供給する。ブレンド部704では、この動き補償画像を画像Bとブレンドして、画像Eとして出力する。入力画像と同じ時刻の出力画像は、第2のフレームメモリ705に書き込まれる。
The frame generation unit (motion compensation unit) 703 applies the motion vector detected by the motion
On the other hand, when generating the image E at the same time as the image B, the
(実施形態4)
上記の各実施形態では、フレームレートを2倍に変換する処理例を示しているが、本発明に係るフレームレート変換処理は、2倍のフレームレート変換に限定するものではなく、例えば、図8に示すような4倍のフレームレート変換にも適用できる。
時間的に連続する入力画像801,802から動きベクトルを検出し、検出した動きベクトルを利用して、入力画像801、802の間の1/4の時刻の画像804を生成する。ここでは、出力画像803に動きベクトルを適用して1/4の時刻の動き補償画像を生成するともに、入力画像802に動きベクトルを適用して、1/4の時刻の動き補償画像を生成し、これら2つの動き補償画像をブレンドすることで、出力画像804を生成して出力する。
(Embodiment 4)
In each of the above embodiments, an example of processing for converting the frame rate to twice is shown. However, the frame rate conversion processing according to the present invention is not limited to the double frame rate conversion. For example, FIG. It can also be applied to the four times frame rate conversion as shown in FIG.
A motion vector is detected from temporally
上記のように出力画像に基づく動き補償画像と、入力画像に基づく動き補償画像とをブレンドすることで、画像801,802間の1/2の時刻、3/4の時刻についても出力画像805、806をそれぞれ生成できる。また、画像802と同時刻の出力画像807については、出力画像803に対して動きベクトルを適用した動き補償画像と、入力画像802とをブレンドすることにより生成する。
このように、本発明に係る実施形態では、変換後のフレームレートを限定することなく、4倍等の任意のフレームレートに適宜適用することができる。
By blending the motion-compensated image based on the output image and the motion-compensated image based on the input image as described above, the
Thus, in the embodiment according to the present invention, the frame rate after conversion is not limited and can be appropriately applied to any frame rate such as four times.
101,102,103…入力画像、104,105,106…物体、107,108,109,110,111…出力画像、201…フレームメモリ、202…ベクトル検出部、203…第1のフレーム生成部、204…第2のフレーム生成部、205…ブレンド部、401,402,403…入力画像、407〜411…出力画像、501…第1のフレームメモリ、502…動きベクトル検出部、503…第1のフレーム生成部、504…第2のフレームメモリ、505…ブレンド部、506…第2のフレーム生成部、601,602,603…入力画像、604,605,606…物体、607〜611…出力画像、701…第1のフレームメモリ、702…動きベクトル検出部、703…フレーム生成部、704…ブレンド部、705…第2のフレームメモリ、801,802…入力画像、803〜807…出力画像、901,902,903…入力画像、904,905,906…物体、907〜911…出力画像、912,913…物体、1001…フレームメモリ、1002…ベクトル検出部、1003…フレーム生成部、1301…動き元画像、1302…動き先画像、1303,1304…物体、1305,1306…ブロック、1307…探索範囲、1308…ブロック、1401〜1403…入力画像、1404,1405,1406…物体、1407,1408…出力画像、1501…フレームメモリ、1502…ベクトル検出部、1503…フレーム生成部、1504…ブレンド部。 101, 102, 103 ... input image, 104, 105, 106 ... object, 107, 108, 109, 110, 111 ... output image, 201 ... frame memory, 202 ... vector detection unit, 203 ... first frame generation unit, 204 ... second frame generation unit, 205 ... blending unit, 401, 402, 403 ... input image, 407 to 411 ... output image, 501 ... first frame memory, 502 ... motion vector detection unit, 503 ... first Frame generation unit, 504 ... second frame memory, 505 ... blending unit, 506 ... second frame generation unit, 601, 602, 603 ... input image, 604, 605, 606 ... object, 607 to 611 ... output image, 701: First frame memory, 702: Motion vector detection unit, 703: Frame generation unit, 704: Blending unit, 70 ... second frame memory, 801,802 ... input image, 803-807 ... output image, 901,902,903 ... input image, 904,905,906 ... object, 907-911 ... output image, 912,913 ... object , 1001 ... Frame memory, 1002 ... Vector detection unit, 1003 ... Frame generation unit, 1301 ... Motion source image, 1302 ... Motion destination image, 1303, 1304 ... Object, 1305, 1306 ... Block, 1307 ... Search range, 1308 ... Block , 1401-1403 ... input image, 1404, 1405, 1406 ... object, 1407, 1408 ... output image, 1501 ... frame memory, 1502 ... vector detection unit, 1503 ... frame generation unit, 1504 ... blending unit.
Claims (8)
前記映像処理装置に入力した入力画像間の動きを検出して動きベクトルを求める動きベクトル検出ステップと、
該動きベクトル検出ステップで検出した動きベクトルを用いて、動き補償された画像を生成する動き補償ステップと、
該動き補償ステップで生成された動き補償された画像を含む複数の画像を混合する混合ステップとを有し、
該混合ステップは、時刻の異なる入力画像の成分を混合することを特徴とするフレームレート変換方法。 A frame rate conversion method executed by an image processing apparatus that converts a frame rate of an input image and outputs the frame rate,
A motion vector detection step for detecting a motion between input images input to the video processing device to obtain a motion vector;
A motion compensation step for generating a motion compensated image using the motion vector detected in the motion vector detection step;
Mixing a plurality of images including the motion compensated image generated in the motion compensation step,
The frame rate conversion method characterized in that the mixing step mixes components of input images at different times.
前記動き補償ステップは、時刻の異なる複数の入力画像のそれぞれに基づいて生成した複数の動き補償画像を生成し、
前記混合ステップは、前記動き補償ステップで生成された複数の動き補償画像を混合することにより、前記入力画像間の画像を生成して前記フレームレートを変換することを特徴とするフレームレート変換方法。 The frame rate conversion method according to claim 1,
The motion compensation step generates a plurality of motion compensation images generated based on each of a plurality of input images at different times,
In the frame rate conversion method, in the mixing step, a plurality of motion compensated images generated in the motion compensation step are mixed to generate an image between the input images to convert the frame rate.
前記動き補償ステップは、時刻の異なる複数の入力画像のうち、一部の入力画像に対応する出力画像に基づいて動き補償画像を生成し、かつ、他の入力画像に基づいて動き補償画像を生成し、
前記混合ステップは、前記動き補償ステップで生成した動き補償画像を混合して、前記入力画像間の画像を生成することにより、前記フレームレートを変換することを特徴とするフレームレート変換方法。 The frame rate conversion method according to claim 1,
The motion compensation step generates a motion compensation image based on an output image corresponding to a part of the input images among a plurality of input images at different times, and generates a motion compensation image based on another input image. And
In the frame rate conversion method, the mixing step converts the frame rate by mixing the motion compensated images generated in the motion compensation step and generating an image between the input images.
前記動き補償ステップは、入力画像に対応する出力画像に基づいて生成した動き補償画像により、前記入力画像間の画像を生成し、かつ、時刻の異なる複数の入力画像のうち、一部の入力画像に対応する出力画像に基づいて他の入力画像の時刻に対応する動き補償画像を生成し、
前記混合ステップは、前記動き補償ステップで生成した前記他の入力画像の時刻に対応する動き補償画像と、前記他の入力画像とを混合することを特徴とするフレームレート変換方法。 The frame rate conversion method according to claim 1,
The motion compensation step generates an image between the input images based on a motion compensated image generated based on an output image corresponding to the input image, and a part of the input images among a plurality of input images at different times Generating a motion compensated image corresponding to the time of another input image based on the output image corresponding to
The frame rate conversion method characterized in that the mixing step mixes the motion compensation image corresponding to the time of the other input image generated in the motion compensation step and the other input image.
該フレームレート変換装置に入力した入力画像間の動きを検出して動きベクトルを求める動きベクトル検出部と、
該動きベクトル検出部で検出した動きベクトルを用いて、動き補償された画像を生成する動き補償部と、
該動き補償部で生成された動き補償された画像を含む複数の画像を混合する混合部とを有し、
該混合部は、時刻の異なる入力画像の成分を混合することを特徴とするフレームレート変換装置。 A frame rate conversion device for converting a frame rate of an input image and outputting the converted image,
A motion vector detection unit that detects a motion vector by detecting a motion between input images input to the frame rate conversion device;
A motion compensation unit that generates a motion compensated image using the motion vector detected by the motion vector detection unit;
A mixing unit that mixes a plurality of images including the motion compensated image generated by the motion compensation unit,
The mixing unit mixes components of an input image at different times.
前記動き補償部は、時刻の異なる複数の入力画像のそれぞれに基づいて生成した複数の動き補償画像を生成し、
前記混合部は、前記動き補償部で生成された複数の動き補償画像を混合することにより、前記入力画像間の画像を生成して前記フレームレートを変換することを特徴とするフレームレート変換装置。 In the frame rate conversion device according to claim 5,
The motion compensation unit generates a plurality of motion compensation images generated based on each of a plurality of input images at different times,
The frame rate conversion device, wherein the mixing unit mixes a plurality of motion compensated images generated by the motion compensation unit to generate an image between the input images and convert the frame rate.
前記動き補償部は、時刻の異なる複数の入力画像のうち、一部の入力画像に対応する出力画像に基づいて動き補償画像を生成し、かつ、他の入力画像に基づいて動き補償画像を生成し、
前記混合部は、前記動き補償部で生成した動き補償画像を混合して、前記入力画像間の画像を生成することにより、前記フレームレートを変換することを特徴とするフレームレート変換装置。 In the frame rate conversion device according to claim 5,
The motion compensation unit generates a motion compensation image based on an output image corresponding to a part of the input images among a plurality of input images at different times, and generates a motion compensation image based on another input image. And
The frame rate conversion apparatus, wherein the mixing unit converts the frame rate by mixing the motion compensated images generated by the motion compensation unit and generating an image between the input images.
前記動き補償部は、入力画像に対応する出力画像に基づいて生成した動き補償画像により、前記入力画像間の画像を生成し、かつ、時刻の異なる複数の入力画像のうち、一部の入力画像に対応する出力画像に基づいて他の入力画像の時刻に対応する動き補償画像を生成し、
前記混合部は、前記動き補償ステップで生成した前記他の入力画像の時刻に対応する動き補償画像と、前記他の入力画像とを混合することを特徴とするフレームレート変換装置。 In the frame rate conversion device according to claim 5,
The motion compensation unit generates an image between the input images based on a motion compensated image generated based on an output image corresponding to the input image, and a part of the input images among a plurality of input images having different times Generating a motion compensated image corresponding to the time of another input image based on the output image corresponding to
The frame rate conversion device, wherein the mixing unit mixes a motion compensated image corresponding to a time of the other input image generated in the motion compensation step and the other input image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010116403A JP2011244330A (en) | 2010-05-20 | 2010-05-20 | Frame rate conversion method and device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010116403A JP2011244330A (en) | 2010-05-20 | 2010-05-20 | Frame rate conversion method and device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011244330A true JP2011244330A (en) | 2011-12-01 |
Family
ID=45410499
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010116403A Pending JP2011244330A (en) | 2010-05-20 | 2010-05-20 | Frame rate conversion method and device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011244330A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015084022A (en) * | 2013-10-25 | 2015-04-30 | セイコーエプソン株式会社 | Electro-optical device, electronic apparatus and image processing device |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005045700A (en) * | 2003-07-25 | 2005-02-17 | Victor Co Of Japan Ltd | Motion estimation method for moving picture interpolation and motion estimation apparatus for moving picture interpolation |
JP2007081755A (en) * | 2005-09-13 | 2007-03-29 | Victor Co Of Japan Ltd | Image data conversion apparatus |
JP2010010915A (en) * | 2008-06-25 | 2010-01-14 | Sony Corp | Image processing apparatus and method, and program |
-
2010
- 2010-05-20 JP JP2010116403A patent/JP2011244330A/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005045700A (en) * | 2003-07-25 | 2005-02-17 | Victor Co Of Japan Ltd | Motion estimation method for moving picture interpolation and motion estimation apparatus for moving picture interpolation |
JP2007081755A (en) * | 2005-09-13 | 2007-03-29 | Victor Co Of Japan Ltd | Image data conversion apparatus |
JP2010010915A (en) * | 2008-06-25 | 2010-01-14 | Sony Corp | Image processing apparatus and method, and program |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015084022A (en) * | 2013-10-25 | 2015-04-30 | セイコーエプソン株式会社 | Electro-optical device, electronic apparatus and image processing device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4575431B2 (en) | Protection with corrected deinterlacing device | |
JP2010041538A (en) | Device and method for processing image signal | |
JP4083266B2 (en) | Motion vector generation method and apparatus | |
JP2008131244A (en) | Television receiver and video display method thereof | |
JP2011244330A (en) | Frame rate conversion method and device | |
JP6904192B2 (en) | Interpolation frame generator | |
CN101212637A (en) | Video signal processing circuit, video signal processor, and video signal processing method | |
JP2010055001A (en) | Video signal processing apparatus and video signal processing method | |
JP2012244333A (en) | Image processing device, method, and program | |
JP4535160B2 (en) | Image processing apparatus, image processing method, image processing control program, and program recording medium | |
JP2014126774A5 (en) | ||
JP2016048810A (en) | Frame rate conversion device and frame rate conversion method | |
JP2012182674A (en) | Video display device and video display method | |
JP2006174123A (en) | Successive scanning conversion apparatus | |
JP2005333254A (en) | Apparatus and method for image processing | |
JP6349355B2 (en) | Image composition apparatus, information processing apparatus, and image composition method | |
JP2009265688A (en) | Movement detection device | |
JP2012227799A (en) | Image display device | |
JP4869302B2 (en) | Image processing apparatus and image processing method | |
JP2011082899A (en) | Image processing apparatus and control method thereof | |
JP2007104652A (en) | Image signal processing apparatus, image signal processing method, and program | |
JP2009147767A (en) | Image converting apparatus, and image display apparatus | |
JP2010041633A (en) | Video signal processing apparatus, video display, and video signal processing method | |
JP2017216634A (en) | Video synthesizing device, video synthesizing method, and program | |
JP2006332904A (en) | Contour emphasizing circuit |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130401 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20131111 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20131210 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20140408 |