JP2011244330A - Frame rate conversion method and device - Google Patents

Frame rate conversion method and device Download PDF

Info

Publication number
JP2011244330A
JP2011244330A JP2010116403A JP2010116403A JP2011244330A JP 2011244330 A JP2011244330 A JP 2011244330A JP 2010116403 A JP2010116403 A JP 2010116403A JP 2010116403 A JP2010116403 A JP 2010116403A JP 2011244330 A JP2011244330 A JP 2011244330A
Authority
JP
Japan
Prior art keywords
image
images
input
motion
frame rate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010116403A
Other languages
Japanese (ja)
Inventor
Mitsuru Hashimoto
充 橋本
Hitoshi Yoneda
仁 米田
Tomoaki Takeda
倫明 武田
Takaaki Noguchi
高明 野口
Katsuaki Matsufuji
克明 松藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2010116403A priority Critical patent/JP2011244330A/en
Publication of JP2011244330A publication Critical patent/JP2011244330A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Television Systems (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

PROBLEM TO BE SOLVED: To enable a frame rate conversion processing in which an image quality is improved without increasing a processing load excessively by generating an output image with use of a motion vector based on multiple input images having different times.SOLUTION: A motion vector is detected from an input image A and an input image B which are temporally continuous. Then, for the image A, a motion compensated image of an intermediate time between the image A and the image B is generated using the motion vector detected from the image A and the image B. On the other hand, a motion compensated image of an intermediate time between the image A and the image B is generated using the image B among the input images and the detected motion vector. The generated these two motion compensated images of the intermediate time are then blended, and a generated image (image C) is output as the image of the intermediate time between the image A and the image B so as to be subjected to a frame rate conversion.

Description

本発明は、フレームレート変換方法及び装置に関し、より具体的には、動き補償により複数の時刻の画像の成分を用いて出力画像を生成することにより、入力画像を高画質化するための技術に関わるものである。   The present invention relates to a frame rate conversion method and apparatus, and more specifically, to a technique for improving the quality of an input image by generating an output image using image components at a plurality of times by motion compensation. It is related.

最初に、動き検出部、及び動き補償部を有するフレームレート変換装置の一例として、60Hzのフレームレートの動画像が入力されたときに、動画像のフレームレートを倍に変換する処理を図9に示す。
図9の(1)の画像901,902,903は、時間的に連続して入力された画像である。物体904,905,906の画面上の位置より、物体は画面内を右下方向に一定の速度で移動している。
First, as an example of a frame rate conversion apparatus having a motion detection unit and a motion compensation unit, when a moving image with a frame rate of 60 Hz is input, a process for converting the frame rate of the moving image to double is shown in FIG. Show.
The images 901, 902, and 903 in (1) of FIG. 9 are images that are continuously input in time. From the position of the objects 904, 905, and 906 on the screen, the object moves in the lower right direction within the screen at a constant speed.

図9の(2)は、(1)の入力動画像のフレームレートを2倍に変換した出力動画像を示している。出力画像907,909,911は、入力画像901,902,903と同じ画像であり、出力画像908,910は新たに生成された画像である。新たに生成された出力画像908,910の中にある物体912,913は、入力画像の物体の動き方向を検出し、入力画像の中間時刻の物体の位置を計算して、入力画像の動き補償により生成される。   (2) in FIG. 9 shows an output moving image obtained by converting the frame rate of the input moving image in (1) by a factor of two. The output images 907, 909, and 911 are the same images as the input images 901, 902, and 903, and the output images 908 and 910 are newly generated images. The objects 912 and 913 in the newly generated output images 908 and 910 detect the motion direction of the object in the input image, calculate the position of the object at the intermediate time of the input image, and compensate the motion of the input image. Is generated by

図9の処理を実現するためのブロック図の一例を図10に示す。フレームメモリ1001は、入力画像を蓄積し、図示しないタイミングコントローラからの制御により最適なタイミングで動きベクトル検出部1002、及びフレーム生成部(動き補償部)1003に画像を供給する。
動きベクトル検出部1002は、時間的に連続する画像A、画像Bをフレームメモリ1001より読み出し、画像間の物体の動きを検出する。
フレーム生成部1003は、フレームメモリ1001より供給された画像Cと動きベクトル検出部1002より出力された動きベクトルより、動き補償画像を生成し出力する。
また、フレーム生成部1003は、図9の(2)の出力画像907,909,911のように入力画像を出力画像とする場合には、フレームメモリ1001より読み出した画像Cをそのまま出力する。
An example of a block diagram for realizing the processing of FIG. 9 is shown in FIG. The frame memory 1001 accumulates an input image and supplies the image to the motion vector detection unit 1002 and the frame generation unit (motion compensation unit) 1003 at an optimal timing by control from a timing controller (not shown).
The motion vector detection unit 1002 reads the temporally continuous images A and B from the frame memory 1001 and detects the motion of the object between the images.
The frame generation unit 1003 generates and outputs a motion compensated image from the image C supplied from the frame memory 1001 and the motion vector output from the motion vector detection unit 1002.
Further, the frame generation unit 1003 outputs the image C read from the frame memory 1001 as it is when the input image is an output image as in the output images 907, 909, 911 of FIG.

上記の画像A、B,Cについてさらに具体的に説明する。
図11に示すように画像Aと画像Bは、入力画像における時間的に連続する画像である。動きベクトル検出部1002によって画像Aと画像Bから動きベクトルを検出する。ここで画像Cとしては、画像Aを用いる。フレーム生成部1003では、フレームメモリ1001から読み出した画像C(=画像A)に対し、動きベクトル検出部1002で検出した動きベクトルを利用して画像Aと画像Bとの間の中間時刻の画像を生成し、出力する。また、画像A,Bをそのまま出力画像とする場合には、フレームメモリ1001から読み出した画像Cをそのまま出力する。
The images A, B, and C will be described more specifically.
As shown in FIG. 11, images A and B are temporally continuous images in the input image. A motion vector detection unit 1002 detects a motion vector from the images A and B. Here, the image A is used as the image C. In the frame generation unit 1003, an image at an intermediate time between the image A and the image B is used for the image C (= image A) read from the frame memory 1001 using the motion vector detected by the motion vector detection unit 1002. Generate and output. When the images A and B are used as output images as they are, the image C read from the frame memory 1001 is output as it is.

また、図12に示すように、画像Cとして画像Bを用いてもよい。この場合には、フレーム生成部1003では、フレームメモリ1001から読み出した画像C(=画像B)に対し、動きベクトル検出部1002で検出した動きベクトルを利用して画像Aと画像Bとの間の中間時刻の画像を生成し、出力する。また、画像A,Bをそのまま出力画像とする場合には、フレームメモリ1001から読み出した画像Cをそのまま出力する。   Further, as shown in FIG. 12, an image B may be used as the image C. In this case, the frame generation unit 1003 uses the motion vector detected by the motion vector detection unit 1002 with respect to the image C (= image B) read from the frame memory 1001, so that it is between the images A and B. Generate and output an intermediate time image. When the images A and B are used as output images as they are, the image C read from the frame memory 1001 is output as it is.

図10の動きベクトル検出部1002の処理の一例を図13に示す。動きベクトル検出部1002は、動き元画像1301と動き先画像1302の間の物体の動きを検出する。複数の物体の動きに対応するため、動き元画像1301を格子状に複数のブロックに分割し、各ブロックの動きベクトルを検出する。例えば、動き元画像のブロック1305に対する動きベクトルは、動き先画像の同じ位置のブロック1306を中心とした動き探索範囲1307の領域の中から検出される。図13の例では、ブロック1305の移動先のブロックとしてブロック1308が検出され、ブロック1305よりブロック1308へのベクトルが動きベクトルとなる。   An example of processing of the motion vector detection unit 1002 in FIG. 10 is shown in FIG. The motion vector detection unit 1002 detects the motion of the object between the motion source image 1301 and the motion destination image 1302. In order to correspond to the motion of a plurality of objects, the motion original image 1301 is divided into a plurality of blocks in a grid pattern, and the motion vector of each block is detected. For example, the motion vector for the block 1305 of the motion source image is detected from the region of the motion search range 1307 centering on the block 1306 at the same position of the motion destination image. In the example of FIG. 13, a block 1308 is detected as a destination block of the block 1305, and a vector from the block 1305 to the block 1308 becomes a motion vector.

次に、時刻の異なる複数の画像を用いた高画質化装置の一例を図14に示す。図14の(1)の画像1401,1402,1403は、時間的に連続して入力された画像である。物体1404,1405,1406の画面上の位置より、物体は画面内を右下方向に一定の速度で移動している。図14の(2)は、高画質化処理の出力画像を示す。出力画像1407は、入力画像1401に対して動きベクトル1より動き補償された画像と、入力画像1402とをブレンド(混合)することにより生成される。   Next, FIG. 14 shows an example of an image quality improving apparatus using a plurality of images having different times. The images 1401, 1402, and 1403 in (1) of FIG. 14 are images that are continuously input in time. From the positions of the objects 1404, 1405, and 1406 on the screen, the object moves in the screen at a constant speed in the lower right direction. (2) in FIG. 14 shows an output image of the high image quality processing. The output image 1407 is generated by blending (mixing) the input image 1401 with the input image 1401 that has been motion compensated by the motion vector 1.

図14の処理を実現するためのブロック図の一例を図15に示す。フレームメモリ1501は、入力画像を蓄積し、図示しないタイミングコントローラからの制御により最適なタイミングで動きベクトル検出部1502、フレーム生成部(動き補償部)1503、及びブレンド部1504に画像を供給する。
動きベクトル検出部1502は、フレームメモリ1501より時間的に連続する画像A、画像Bを読み出し、画像間の物体の動きを検出する。フレーム生成部1503は、フレームメモリ1501より供給された画像Cと動きベクトル検出部1502より出力された動きベクトルより、動き補償画像を生成し出力する。ブレンド部1504は、フレーム生成部1503から出力された動き補償画像と、フレームメモリ1501より供給された画像Dとをブレンドして出力する。
An example of a block diagram for realizing the processing of FIG. 14 is shown in FIG. The frame memory 1501 accumulates input images, and supplies the images to the motion vector detection unit 1502, the frame generation unit (motion compensation unit) 1503, and the blending unit 1504 at an optimal timing by control from a timing controller (not shown).
The motion vector detection unit 1502 reads the temporally continuous images A and B from the frame memory 1501 and detects the motion of the object between the images. The frame generation unit 1503 generates and outputs a motion compensated image from the image C supplied from the frame memory 1501 and the motion vector output from the motion vector detection unit 1502. The blend unit 1504 blends and outputs the motion compensated image output from the frame generation unit 1503 and the image D supplied from the frame memory 1501.

図15の画像A,B,C,Dについてさらに具体的に説明する。
図16に示すように画像Aと画像Bは、入力画像における時間的に連続する画像である。動きベクトル検出部1502によって画像Aと画像Bから動きベクトルを検出する。ここで画像Cとしては、画像Aを用いる。フレーム生成部1503では、フレームメモリ1501から読み出した画像C(=画像A)に対し、動きベクトル検出部1502で検出した動きベクトルを利用して画像Aと画像Bとの間の中間時刻の画像を生成し、出力する。ブレンド部1504では、フレームメモリ1501から読み出した画像D(=画像B)を用い、この画像Dとフレーム生成部1503で生成した中間時刻の画像とをブレンドする。これにより、画像A,B,C,Dに対する出力画像が得られる。また、画像A,Bをそのまま出力画像とする場合には、フレームメモリ1501から読み出した画像C、画像Dをそのまま出力する。
The images A, B, C, and D in FIG. 15 will be described more specifically.
As shown in FIG. 16, images A and B are temporally continuous images in the input image. A motion vector detection unit 1502 detects a motion vector from the images A and B. Here, the image A is used as the image C. The frame generation unit 1503 uses the motion vector detected by the motion vector detection unit 1502 for the image C (= image A) read from the frame memory 1501 to obtain an intermediate time image between the image A and the image B. Generate and output. The blend unit 1504 uses the image D (= image B) read from the frame memory 1501 and blends the image D with the intermediate time image generated by the frame generation unit 1503. Thereby, output images for the images A, B, C, and D are obtained. When the images A and B are used as output images as they are, the images C and D read from the frame memory 1501 are output as they are.

上記のブレンド処理についてさらに具体的に説明する。
ブレンド処理は、2つの画像の信号成分を混合するもので、例えば、画像Aと画像Bとブレンドした結果を画像Cとすると、
画像C=画像A × ブレンド比率 + 画像B × (1−ブレンド比率)
となる。
一般的に、ブレンド比率は、画像内の画素位置ごとに画像Aと画像Bの類似度により求める。具体的には、類似度が高い場合(画像Aと画像Bとの差分が小さい場合)、ブレンド比を大きくする。
The blending process will be described more specifically.
The blending process mixes the signal components of two images. For example, if the result of blending image A and image B is image C,
Image C = Image A × Blend ratio + Image B × (1-Blend ratio)
It becomes.
Generally, the blend ratio is obtained from the similarity between the image A and the image B for each pixel position in the image. Specifically, when the similarity is high (when the difference between the image A and the image B is small), the blend ratio is increased.

図17により、ブレンドによる高画質化する処理をさらに具体的に説明する。
例えば、撮影時刻の異なる入力画像には、撮影時、アナログ伝送時、MPEG等による圧縮符号化時、等にノイズn1,n2,n3が混入する。これらのノイズは、全く同じではなく、入力画像ごとに異なっている。従って、撮影時刻の異なる画像をブレンドすることによってランダム状のノイズが中和され、得られた画像のノイズ感を低減させることができる。
With reference to FIG. 17, the processing for improving the image quality by blending will be described in more detail.
For example, noises n1, n2, and n3 are mixed in input images having different shooting times during shooting, analog transmission, compression encoding using MPEG, and the like. These noises are not exactly the same, and are different for each input image. Therefore, by blending images with different shooting times, random noise is neutralized, and the noise feeling of the obtained image can be reduced.

また、図18に示すように、インタレース画像に対して各フィールド画像ごとにIP変換により補間ラインを生成し、スケーラによりスケーリングしてパネルサイズの画像に変換する場合、隣接画像の物体の形状f1,f2,f3が微妙に変化してしまう。また、物体の移動距離は、撮影画像ピッチと無関係のため、隣接する動画像は完全に一致しない。このような場合にも、撮影時刻の異なる画像をブレンドすることにより、物体の情報量が増えて画質を向上させることができる。   As shown in FIG. 18, when an interpolated image is generated by IP conversion for each field image for an interlaced image and scaled by a scaler to be converted into a panel size image, the shape f1 of the object of the adjacent image , F2, and f3 change slightly. Further, since the moving distance of the object is irrelevant to the captured image pitch, adjacent moving images do not completely match. Even in such a case, by blending images having different shooting times, the information amount of the object can be increased and the image quality can be improved.

図15の例では、フレーム生成部1503で生成した動き補償画像と入力画像Dとをブレンド部1504でブレンドしているが、これらの画像が同じ画像の場合には、ブレンドしても画像は変化しない。しかし、通常は、ブレンドされる画像は、上記のようにノイズやスケーリング処理により全く同じ画像にはならない。従って、画像をブレンドすることによって画質を向上させることができる。   In the example of FIG. 15, the motion compensation image generated by the frame generation unit 1503 and the input image D are blended by the blending unit 1504. However, if these images are the same image, the image changes even after blending. do not do. However, normally, the images to be blended do not become the same image due to noise and scaling processing as described above. Therefore, image quality can be improved by blending images.

次に、時刻の異なる複数の画像を用いた高画質化装置の別の例を図19、及び図20に示す。上記の図17,図18に示すように、撮影時刻の異なる画像は一般にノイズ等によって異なる画像になっている。従って、撮影時刻の異なる2フレームの画像のみならず、3フレーム以上の画像をブレンドしたり、過去の出力画像を用いてブレンドすることにより、ランダム状のノイズの低減による画質向上効果や、移動物体の情報量が増えることによる画質向上効果が期待できる。   Next, another example of an image quality improving apparatus using a plurality of images having different times is shown in FIGS. As shown in FIGS. 17 and 18 above, images with different shooting times are generally different due to noise or the like. Therefore, not only two-frame images with different shooting times but also three or more frames are blended, or past output images are used for blending. The image quality improvement effect by increasing the amount of information can be expected.

図19は、3フレーム以上の入力画像を用いて出力画像を生成する処理を示すもの(非巡回型)であり、図20は、入力画像と過去の出力画像を用いて出力画像を生成する処理を示すもの(巡回型)である。
図19に示す処理の場合には、時間的に連続する複数の入力画像について動きベクトルを検出する。そして検出した動きベクトルを利用して、特定の入力画像に対応する時刻の動き補償画像を生成し、これらの動き補償画像を上記特定の入力画像とブレンドすることによって画質向上を図っている。
FIG. 19 shows a process of generating an output image using an input image of three frames or more (acyclic type), and FIG. 20 shows a process of generating an output image using an input image and a past output image. (Cyclic type).
In the case of the process shown in FIG. 19, a motion vector is detected for a plurality of temporally continuous input images. Then, using the detected motion vector, a motion compensated image at a time corresponding to a specific input image is generated, and these motion compensated images are blended with the specific input image to improve image quality.

また、図20の場合には、時間的に連続する複数の入力画像について動きベクトルを検出する。そして検出した動きベクトルを出力画像に適用して、特定の入力画像に対応する時刻の動き補償画像を生成し、生成した動き補償画像を上記特定の入力画像とブレンドすることによって画質向上を図っている。   In the case of FIG. 20, motion vectors are detected for a plurality of temporally continuous input images. The detected motion vector is applied to the output image to generate a motion compensated image at a time corresponding to the specific input image, and the generated motion compensated image is blended with the specific input image to improve the image quality. Yes.

入力画像の複数のフレームを利用して高画質化を行うための技術に関して、例えば、非特許文献1には、複数のフレーム間で超解像処理を行う例が示されている。   For example, Non-Patent Document 1 shows an example in which super-resolution processing is performed between a plurality of frames with respect to a technique for improving image quality using a plurality of frames of an input image.

日経エレクトロニクス,2009.2.9号,「美に挑む規格外テレビ」,日本経済新聞社Nikkei Electronics, 2009.2.9, "Non-standard television that challenges beauty", Nikkei Inc.

フレームレート変換処理と高画質化処理は、動き検出処理と動き補償処理を必要とする。画像間の動き検出処理、動き補償処理には、大きなメモリと演算処理が必要となる。このため、フレームレート変換処理と高画質化処理を独立して行うと、処理全体のメモリ量、演算量が大きくなってしまう。非特許文献1に記載された処理においても、画像処理時の処理量が多いという課題がある。   The frame rate conversion process and the image quality improvement process require a motion detection process and a motion compensation process. A large memory and arithmetic processing are required for the motion detection processing and motion compensation processing between images. For this reason, if the frame rate conversion process and the image quality improvement process are performed independently, the amount of memory and the calculation amount of the entire process increase. Even in the processing described in Non-Patent Document 1, there is a problem that the amount of processing during image processing is large.

本発明は、上述のごとき実情に鑑みてなされたもので、動きベクトルを用いて、時刻の異なる複数の入力画像に基づき出力画像を生成することにより、処理負荷を過度に増大させることなく高画質化されたフレームレート変換処理を可能とするフレームレート変換方法、及び装置を提供することを目的とするものである。   The present invention has been made in view of the above circumstances, and generates high-quality images without excessively increasing the processing load by generating output images based on a plurality of input images at different times using motion vectors. It is an object of the present invention to provide a frame rate conversion method and apparatus that enable a converted frame rate conversion process.

上記課題を解決するために、本発明の第1の技術手段は、入力画像のフレームレートを変換して出力する画像処理装置により実行されるフレームレート変換方法であって、前記映像処理装置に入力した入力画像間の動きを検出して動きベクトルを求める動きベクトル検出ステップと、該動きベクトル検出ステップで検出した動きベクトルを用いて、動き補償された画像を生成する動き補償ステップと、該動き補償ステップで生成された動き補償された画像を含む複数の画像を混合する混合ステップとを有し、該混合ステップは、時刻の異なる入力画像の成分を混合することを特徴としたものである。   In order to solve the above problems, a first technical means of the present invention is a frame rate conversion method executed by an image processing apparatus that converts a frame rate of an input image and outputs the frame rate, and is input to the video processing apparatus. A motion vector detection step for detecting a motion between the input images and obtaining a motion vector, a motion compensation step for generating a motion compensated image using the motion vector detected in the motion vector detection step, and the motion compensation A mixing step of mixing a plurality of images including motion-compensated images generated in the step, wherein the mixing step mixes components of the input image at different times.

第2の技術手段は、第1の技術手段において、前記動き補償ステップが、時刻の異なる複数の入力画像のそれぞれに基づいて生成した複数の動き補償画像を生成し、前記混合ステップは、前記動き補償ステップで生成された複数の動き補償画像を混合することにより、前記入力画像間の画像を生成して前記フレームレートを変換することを特徴としたものである。   According to a second technical means, in the first technical means, the motion compensation step generates a plurality of motion compensation images generated based on a plurality of input images at different times, and the mixing step includes the motion By mixing a plurality of motion compensation images generated in the compensation step, an image between the input images is generated and the frame rate is converted.

第3の技術手段は、第1の技術手段において、前記動き補償ステップが、時刻の異なる複数の入力画像のうち、一部の入力画像に対応する出力画像に基づいて動き補償画像を生成し、かつ、他の入力画像に基づいて動き補償画像を生成し、前記混合ステップは、前記動き補償ステップで生成した動き補償画像を混合して、前記入力画像間の画像を生成することにより、前記フレームレートを変換することを特徴としたものである。   In a third technical means, in the first technical means, the motion compensation step generates a motion compensated image based on an output image corresponding to a part of the input images among a plurality of input images at different times, A motion compensation image is generated based on another input image, and the mixing step mixes the motion compensation image generated in the motion compensation step to generate an image between the input images, thereby generating the frame. It is characterized by converting the rate.

第4の技術手段は、第1の技術手段において、前記動き補償ステップが、入力画像に対応する出力画像に基づいて生成した動き補償画像により、前記入力画像間の画像を生成し、かつ、時刻の異なる複数の入力画像のうち、一部の入力画像に対応する出力画像に基づいて他の入力画像の時刻に対応する動き補償画像を生成し、前記混合ステップは、前記動き補償ステップで生成した前記他の入力画像の時刻に対応する動き補償画像と、前記他の入力画像とを混合することを特徴としたものである。   According to a fourth technical means, in the first technical means, the motion compensation step generates an image between the input images using a motion compensated image generated based on an output image corresponding to the input image, and a time A motion compensation image corresponding to the time of another input image is generated based on an output image corresponding to a part of the input images, and the mixing step is generated in the motion compensation step. The motion compensated image corresponding to the time of the other input image and the other input image are mixed.

第5の技術手段は、入力画像のフレームレートを変換して出力するフレームレート変換装置であって、該フレームレート変換装置に入力した入力画像間の動きを検出して動きベクトルを求める動きベクトル検出部と、該動きベクトル検出部で検出した動きベクトルを用いて、動き補償画像を生成する動き補償部と、該動き補償部で生成された動き補償された画像を含む複数の画像を混合する混合部とを有し、該混合部は、時刻の異なる入力画像の成分を混合することを特徴としたものである。   A fifth technical means is a frame rate conversion device that converts a frame rate of an input image and outputs the same, and detects a motion vector by detecting a motion between input images input to the frame rate conversion device. A motion compensation unit that generates a motion compensated image using the motion vector detected by the motion vector detection unit, and a mixture that includes a plurality of images including the motion compensated image generated by the motion compensation unit The mixing unit mixes components of input images at different times.

第6の技術手段は、第5の技術手段において、前記動き補償部が、時刻の異なる複数の入力画像のそれぞれに基づいて生成した複数の動き補償画像を生成し、前記混合部は、前記動き補償部で生成された複数の動き補償画像を混合することにより、前記入力画像間の画像を生成して前記フレームレートを変換することを特徴としたものである。   According to a sixth technical means, in the fifth technical means, the motion compensation unit generates a plurality of motion compensated images generated based on a plurality of input images at different times, and the mixing unit By mixing a plurality of motion compensation images generated by the compensation unit, an image between the input images is generated and the frame rate is converted.

第7の技術手段は、第5の技術手段において、前記動き補償部が、時刻の異なる複数の入力画像のうち、一部の入力画像に対応する出力画像に基づいて生成した動き補償画像を生成し、かつ、他の入力画像に基づいて生成した動き補償画像を生成し、前記混合部は、前記動き補償部で生成した動き補償画像を混合して、前記入力画像間の画像を生成することにより、前記フレームレートを変換することを特徴としたものである。   According to a seventh technical means, in the fifth technical means, the motion compensation unit generates a motion compensated image generated based on an output image corresponding to a part of the input images among a plurality of input images at different times. And generating a motion compensation image generated based on another input image, and the mixing unit mixes the motion compensation image generated by the motion compensation unit to generate an image between the input images. Thus, the frame rate is converted.

第8の技術手段は、第5の技術手段において、前記動き補償部が、入力画像に対応する出力画像に基づいて生成した動き補償画像により、前記入力画像間の画像を生成し、かつ、時刻の異なる複数の入力画像のうち、一部の入力画像に対応する出力画像に基づいて他の入力画像の時刻に対応する動き補償画像を生成し、前記混合部は、前記動き補償ステップで生成した前記他の入力画像の時刻に対応する動き補償画像と、前記他の入力画像とを混合することを特徴としたものである。   According to an eighth technical means, in the fifth technical means, the motion compensation unit generates an image between the input images based on a motion compensated image generated based on an output image corresponding to the input image, and a time Among the plurality of different input images, a motion compensated image corresponding to the time of another input image is generated based on an output image corresponding to a part of the input images, and the mixing unit is generated in the motion compensation step The motion compensated image corresponding to the time of the other input image and the other input image are mixed.

本発明によれば、動きベクトルを用いて、時刻の異なる複数の入力画像に基づき出力画像を生成することにより、処理負荷を過度に増大させることなく高画質化されたフレームレート変換処理が可能となる。特に本発明によれば、フレームレート変換処理と高画質化処理に必要な動き検出処理とを共通化することができ、これにより、処理量を大幅に削減することができる。   According to the present invention, by generating an output image based on a plurality of input images at different times using motion vectors, it is possible to perform a frame rate conversion process with high image quality without excessively increasing the processing load. Become. In particular, according to the present invention, it is possible to share the frame rate conversion process and the motion detection process necessary for the image quality enhancement process, thereby greatly reducing the processing amount.

本発明の第1の実施形態によるフレームレート変換処理を説明する図である。It is a figure explaining the frame rate conversion process by the 1st Embodiment of this invention. 本発明の第1の実施形態を具体的に説明する図である。It is a figure explaining the 1st Embodiment of this invention concretely. 本発明に係るフレームレート変換装置の構成例を説明するためのブロック図である。It is a block diagram for demonstrating the structural example of the frame rate conversion apparatus which concerns on this invention. 本発明の第2の実施形態によるフレームレート変換処理を説明する図である。It is a figure explaining the frame rate conversion process by the 2nd Embodiment of this invention. 本発明に係るフレームレート変換装置の他の構成例を説明するためのブロック図である。It is a block diagram for demonstrating the other structural example of the frame rate conversion apparatus which concerns on this invention. 本発明の第3の実施形態によるフレームレート変換処理を説明する図である。It is a figure explaining the frame rate conversion process by the 3rd Embodiment of this invention. 本発明に係るフレームレート変換装置の更に他の構成例を説明するためのブロック図である。It is a block diagram for demonstrating the further another structural example of the frame rate conversion apparatus which concerns on this invention. 発明明を4倍のフレームレート変換に適用したときの処理例を説明する図である。It is a figure explaining the example of a process when the invention is applied to 4 times frame rate conversion. 従来の動画像のフレームレートを倍に変換する処理を説明するための図である。It is a figure for demonstrating the process which converts the frame rate of the conventional moving image into 2 times. 図9のフレームレートの変換処理を実現するためのブロック図の一例を示す図である。It is a figure which shows an example of the block diagram for implement | achieving the conversion processing of the frame rate of FIG. 図9のフレームレート変換処理をさらに説明するための図である。FIG. 10 is a diagram for further explaining the frame rate conversion processing of FIG. 9. 図9のフレームレート変換処理をさらに説明するための他の図である。FIG. 10 is another diagram for further explaining the frame rate conversion processing of FIG. 9. 図10の動きベクトル検出部の処理の一例を説明する図である。It is a figure explaining an example of a process of the motion vector detection part of FIG. 時刻の異なる複数の画像を用いた従来の高画質化装置の一例を説明する図である。It is a figure explaining an example of the conventional image quality improvement apparatus using the several image from which time differs. 図14の処理を実現するためのブロック図である。It is a block diagram for implement | achieving the process of FIG. 図14の処理をさらに具体的に説明する図である。It is a figure which demonstrates the process of FIG. 14 more concretely. ブレンドによる高画質化する処理を説明する図である。It is a figure explaining the process which improves the image quality by blending. ブレンドによる高画質化する処理を説明する他の図である。It is another figure explaining the process which improves the image quality by blending. 時刻の異なる複数の画像を用いた従来の高画質化装置の他の例を説明する図である。It is a figure explaining the other example of the conventional image quality improvement apparatus using the several image from which time differs. 時刻の異なる複数の画像を用いた従来の高画質化装置の更に他の例を説明する図である。It is a figure explaining the further another example of the conventional image quality improvement apparatus using the several image from which time differs.

本発明に係る実施形態では、入力画像のフレームレートを変換する処理を行う際に、入力画像間の動きを検出して動きベクトルを求め、その動きベクトルを用いて入力画像のフレームレートを変換した出力画像を生成する。ここでは、時刻の異なる入力画像に基づいて生成した動き補償画像を使用し、時刻の異なる入力画像の成分を混合することにより入力画像間の画像を生成することにより、前記フレームレートを変換する。以下に本発明の実施形態をさらに具体的に説明する。   In the embodiment according to the present invention, when performing the process of converting the frame rate of the input image, the motion between the input images is detected to obtain a motion vector, and the frame rate of the input image is converted using the motion vector. Generate an output image. Here, the frame rate is converted by generating an image between the input images by using the motion compensated images generated based on the input images having different times and mixing the components of the input images having different times. In the following, embodiments of the present invention will be described in more detail.

(実施形態1)
本発明の第1の実施の形態の処理による入力画像と出力画像を図1に示す。図1の(1)の画像101,102,103は、時間的に連続して入力された画像である。物体104,105,106の画面上の位置より、物体は画面内を右下方向に一定の速度で移動している。
(Embodiment 1)
An input image and an output image obtained by the processing of the first embodiment of the present invention are shown in FIG. The images 101, 102, and 103 in (1) of FIG. 1 are images that are continuously input in time. From the positions of the objects 104, 105, and 106 on the screen, the object is moving in the screen in the lower right direction at a constant speed.

図1の(2)は、(1)の入力動画像のフレームレートを2倍に変換した出力動画像を示している。出力画像107,109,111は、入力画像101,102,103とそれぞれ同じ時刻の対応する画像であり、出力画像108,110は、入力画像の中間時刻の画像である。また、図1の(2)の出力画像は、複数の入力画像をブレンドして生成している。画像をブレンドする処理は、本発明の画像の混合処理に相当する。出力画像108,109は、入力画像101,102より生成され、出力画像110,111は入力画像102,103より生成される。   (2) of FIG. 1 shows an output moving image obtained by converting the frame rate of the input moving image of (1) by a factor of two. The output images 107, 109, and 111 are images corresponding to the same time as the input images 101, 102, and 103, respectively, and the output images 108 and 110 are images at an intermediate time of the input images. The output image (2) in FIG. 1 is generated by blending a plurality of input images. The process of blending images corresponds to the image mixing process of the present invention. The output images 108 and 109 are generated from the input images 101 and 102, and the output images 110 and 111 are generated from the input images 102 and 103.

図2は、上記の処理をさらに具体的に説明する図である。画像101,102,103は、時間的に連続して入力された画像である。ここで、画像101と画像102に注目する。これらの時間的に連続する入力画像を画像A、画像Bとする。ここで、まず画像Aと画像Bから動きベクトルを検出する。動きベクトルの検出方法については、適宜従来公知の方法を用いることができる。   FIG. 2 is a diagram for explaining the above processing more specifically. The images 101, 102, and 103 are images that are continuously input in time. Here, attention is paid to the image 101 and the image 102. These temporally continuous input images are referred to as image A and image B. Here, first, a motion vector is detected from the images A and B. As a motion vector detection method, a conventionally known method can be appropriately used.

そして入力画像における画像Aに対し、画像Aと画像Bにより検出された動きベクトルとを利用して、画像Aと画像Bの中間時刻の動き補償画像を生成する。この動き補償画像は、画像Aと画像Bの中間時刻の画像であるため、検出された動きベクトルの1/2の情報を利用する。一方、入力画像における画像Bと、検出された動きベクトルとを利用して、画像Aと画像Bの中間時刻の動き補償画像を生成する。
そして生成されたこれら2つの中間時刻の動き補償画像をブレンドし、得られた生成画像(画像Cとする)を画像Aと画像Bの中間時刻の画像として出力する。
Then, a motion compensated image at an intermediate time between the image A and the image B is generated for the image A in the input image by using the motion vector detected by the image A and the image B. Since this motion compensated image is an image at an intermediate time between the image A and the image B, information of ½ of the detected motion vector is used. On the other hand, a motion compensated image at an intermediate time between the image A and the image B is generated using the image B in the input image and the detected motion vector.
Then, the generated motion compensated images at the intermediate time are blended, and the obtained generated image (referred to as image C) is output as an image at an intermediate time between images A and B.

出力画像として、画像Bに時刻が一致する画像Dを生成する場合には、図示しないが以下の処理となる。ここでは入力画像における画像Aと、検出した動きベクトルとにより、画像Bと同時刻の動き補償画像を生成する。この場合、画像Bと同時刻の画像を生成するため、検出した動きベクトルの位置情報を利用する。そして画像Aと動きベクトルから生成した動き補償画像と、画像Bとをブレンドし、得られた生成画像(画像D)を画像Bの同時刻の画像として出力する。これらの処理により、出力画像には、異なる時刻の入力画像の成分が混合されることになる。   When an image D whose time coincides with the image B is generated as an output image, the following processing is performed although not shown. Here, a motion compensated image at the same time as the image B is generated from the image A in the input image and the detected motion vector. In this case, the position information of the detected motion vector is used to generate an image at the same time as the image B. Then, the motion compensated image generated from the image A and the motion vector and the image B are blended, and the obtained generated image (image D) is output as an image at the same time as the image B. By these processes, components of the input image at different times are mixed in the output image.

図3は、本発明に係るフレームレート変換装置の構成例を説明するためのブロック図で、上記第1の実施形態の処理を実行するための構成例を示すものである。
図3において、入力画像はフレームメモリ201に書き込まれる。時刻の異なる入力画像(画像A,画像B)がフレームメモリ201より読み出され、動きベクトル検出部202に供給される。動きベクトル検出部202は、供給された2フレームの画像間の動きを検出し、動きベクトルを生成する。
FIG. 3 is a block diagram for explaining a configuration example of the frame rate conversion apparatus according to the present invention, and shows a configuration example for executing the processing of the first embodiment.
In FIG. 3, the input image is written in the frame memory 201. Input images (image A and image B) having different times are read from the frame memory 201 and supplied to the motion vector detection unit 202. The motion vector detection unit 202 detects a motion between the supplied two frames of images and generates a motion vector.

第1のフレーム生成部(動き補償部)203では、入力画像における画像Aと、動きベクトル検出部202で検出された動きベクトルとを利用して、画像Aと画像Bの中間時刻の動き補償画像を生成する。一方、第2のフレーム生成部(動き補償部)204では、入力画像における画像Bと、動きベクトル検出部202で検出された動きベクトルとを利用して、画像Aと画像Bの中間時刻の動き補償画像を生成する。   The first frame generation unit (motion compensation unit) 203 uses the image A in the input image and the motion vector detected by the motion vector detection unit 202 to use a motion compensated image at an intermediate time between the image A and the image B. Is generated. On the other hand, the second frame generation unit (motion compensation unit) 204 uses the image B in the input image and the motion vector detected by the motion vector detection unit 202 to move between the images A and B at an intermediate time. A compensation image is generated.

ブレンド部(混合部)205では、これら第1及び第2のフレーム生成部203,204で生成された中間時刻の動き補償画像をブレンドし、得られた生成画像を画像Aと画像Bの中間時刻の画像として出力する。   The blending unit (mixing unit) 205 blends the motion compensation images at the intermediate times generated by the first and second frame generation units 203 and 204, and uses the generated image as the intermediate time between the images A and B. Output as an image.

一方、出力画像として、画像Bに時刻が一致する画像を生成する場合、第1のフレーム生成部203では、入力画像における画像Aと、動きベクトル検出部202で検出した動きベクトルとにより、画像Bと同時刻の動き補償画像を生成する。一方、第2のフレーム生成部204では、入力画像における画像Bを動き補償画像として出力する。そしてブレンド部205では、これら第1及び第2のフレーム生成部203,204から出力された画像Bと同じ時刻の画像をブレンドし、得られた生成画像を画像Bの同時刻の画像として出力する。   On the other hand, when an image whose time coincides with the image B is generated as the output image, the first frame generation unit 203 uses the image A in the input image and the motion vector detected by the motion vector detection unit 202 to generate the image B. A motion compensated image at the same time is generated. On the other hand, the second frame generation unit 204 outputs the image B in the input image as a motion compensated image. The blend unit 205 blends the images at the same time as the image B output from the first and second frame generation units 203 and 204, and outputs the generated image as the image at the same time as the image B. .

このように、本発明に係る第1の実施形態では、入力画像間の動きを検出して動きベクトルを求める動き検出部202と、動きベクトルを用いて出力画像を生成する第1及び第2のフレーム生成部(動き補償部)203,204を含むフレームレート変換装置において、検出した動きベクトルを用いて、時刻の異なる複数の入力画像のそれぞれに基づいて生成した複数の動き補償画像を混合して、入力画像間の画像を生成することにより、ランダム状のノイズを低減させ、また、移動物体の情報量が増えることによる画質向上を図ることができる。そしてこのときに、フレームレート変換処理と、高画質化処理に必要な動きベクトル検出処理とを共通化することができ、処理量を大幅に削減することができる。   As described above, in the first embodiment of the present invention, the motion detection unit 202 that detects a motion between input images and obtains a motion vector, and the first and second that generate an output image using the motion vector. In a frame rate conversion apparatus including frame generation units (motion compensation units) 203 and 204, a plurality of motion compensation images generated based on each of a plurality of input images at different times are mixed using detected motion vectors. By generating an image between input images, random noise can be reduced, and image quality can be improved by increasing the amount of information of a moving object. At this time, the frame rate conversion process and the motion vector detection process necessary for the image quality enhancement process can be shared, and the processing amount can be greatly reduced.

(実施形態2)
本発明の第2の実施の形態の処理による入力画像と出力画像を図4に示す。図4の(1)の画像401,402,403は、時間的に連続して入力された画像である。物体404,405,406の画面上の位置より、物体は画面内を右下方向に一定の速度で移動している。
(Embodiment 2)
An input image and an output image obtained by the processing of the second embodiment of the present invention are shown in FIG. The images 401, 402, and 403 in (1) of FIG. 4 are images that are input continuously in time. From the positions of the objects 404, 405, and 406 on the screen, the object moves in the screen at a constant speed in the lower right direction.

図4の(2)は、(1)の入力動画像のフレームレートを2倍に変換した出力動画像を示している。出力画像407,409,411は、それぞれ入力画像401,402,403と同じ時刻の画像であり、出力画像408,410は、入力画像の中間時刻の画像である。また、図4(2)の出力画像は、複数の入力画像の成分が含まれている。出力画像409は、過去の出力画像407と入力画像402より生成され、出力画像408は、出力画像409と入力画像402とより生成される。   (2) in FIG. 4 shows an output moving image obtained by converting the frame rate of the input moving image in (1) by a factor of two. The output images 407, 409, and 411 are images at the same time as the input images 401, 402, and 403, respectively, and the output images 408 and 410 are images at an intermediate time of the input images. Also, the output image of FIG. 4B includes a plurality of input image components. The output image 409 is generated from the past output image 407 and the input image 402, and the output image 408 is generated from the output image 409 and the input image 402.

ここで時間的に連続する入力画像401,402に注目し、これらの入力画像をそれぞれ画像A、画像Bとする。画像Bに時刻が一致する出力画像(画像Eとする)は、入力画像Bと、入力画像Aと同時刻の出力画像(画像Cとする)から生成されている。   Here, attention is paid to input images 401 and 402 that are temporally continuous, and these input images are referred to as image A and image B, respectively. An output image (referred to as image E) whose time coincides with image B is generated from input image B and an output image (referred to as image C) at the same time as input image A.

画像Aと画像Bの中間時刻の出力画像(画像Dとする)は、画像Dの1つ前の出力画像(画像C)と入力画像Bとにより生成される。ここでは、時間的に連続する入力画像Aと画像Bにより動きベクトルを検出し、その動きベクトルを出力画像Cに適用して、画像Cと画像Eの中間時刻の動き補償画像を生成する。そしてこの一方、画像Bに動きベクトルを適用して画像Aと画像Bと中間時刻の動き補償画像を生成する。これらの2つの動き補償画像をブレンドして、画像Aと画像Bの中間時刻の画像Dを生成して出力する。   An output image (referred to as image D) at an intermediate time between image A and image B is generated by the output image (image C) immediately before image D and input image B. Here, a motion vector is detected from the temporally continuous input image A and image B, and the motion vector is applied to the output image C to generate a motion compensated image at an intermediate time between the images C and E. On the other hand, the motion vector is applied to the image B to generate motion compensation images of the images A and B and intermediate times. These two motion compensated images are blended to generate and output an image D at an intermediate time between the images A and B.

一方、画像Eを生成する場合、画像Aと画像Bから検出した動きベクトルを画像Cに適用して、画像Bと同時刻の動き補償画像を生成する。そしてこの動き補償画像を画像Bとブレンドすることで画像Eを生成して出力する。
画像Cは、画像Eと同様に生成されたものであり、過去の出力画像に基づく動き補償画像と、その時刻の入力画像(画像A)とがブレンドされた画像である。これらの処理により、出力画像には、異なる時刻の入力画像の成分が混合されることになる。
On the other hand, when generating the image E, the motion vector detected from the image A and the image B is applied to the image C to generate a motion compensated image at the same time as the image B. Then, the motion compensation image is blended with the image B to generate and output an image E.
The image C is generated in the same manner as the image E, and is a blended image of the motion compensated image based on the past output image and the input image (image A) at that time. By these processes, components of the input image at different times are mixed in the output image.

このように時刻の異なる複数の入力画像のうち、一部の入力画像に対応する出力画像に基づいて生成した動き補償画像と、他の入力画像に基づいて生成した動き補償画像とを混合して、入力画像間の画像を生成することにより、ランダム状のノイズ低減効果、および移動局物体の情報量が増えることによる画質向上効果が期待できる。   As described above, among a plurality of input images having different times, a motion compensation image generated based on an output image corresponding to a part of the input images and a motion compensation image generated based on another input image are mixed. By generating an image between input images, it is possible to expect a random noise reduction effect and an image quality improvement effect due to an increase in the information amount of the mobile station object.

図5は、本発明に係るフレームレート変換装置の他の構成例を説明するためのブロック図で、上記第2の実施形態の処理を実行するための構成例を示すものである。
図5において、入力画像は、第1のフレームメモリ501に書き込まれる。第1のフレームメモリ501より時刻の異なる入力画像(画像A、画像B)が読み出され、動きベクトル検出部502に供給される。動きベクトル検出部502は、供給された2フレームの画像間の動きを検出し、動きベクトルを生成する。
FIG. 5 is a block diagram for explaining another configuration example of the frame rate conversion apparatus according to the present invention, and shows a configuration example for executing the processing of the second embodiment.
In FIG. 5, the input image is written into the first frame memory 501. Input images (image A and image B) having different times are read from the first frame memory 501 and supplied to the motion vector detection unit 502. The motion vector detection unit 502 detects a motion between the supplied two frames of images and generates a motion vector.

第1のフレーム生成部(動き補償部)503は、第2のフレームメモリ504より読みだされた画像(画像C)に対して、動きベクトル検出部502で検出された動きベクトルを適用し、画像Aと画像Bとの中間時刻の動き補償画像を生成して、ブレンド部(混合部)505に供給する。一方第2のフレーム生成部(動き補償部)506は、入力画像の画像Bに対して、動きベクトル検出部502で検出された動きベクトルを適用し、画像Aと画像Bとの中間時刻の動き補償画像を生成して、ブレンド部505に供給する。
ブレンド部505は、動き補償された2フレームの画像をブレンドして出力画像を生成する。
The first frame generation unit (motion compensation unit) 503 applies the motion vector detected by the motion vector detection unit 502 to the image (image C) read from the second frame memory 504, and the image A motion compensated image at an intermediate time between A and B is generated and supplied to the blending unit (mixing unit) 505. On the other hand, the second frame generation unit (motion compensation unit) 506 applies the motion vector detected by the motion vector detection unit 502 to the image B of the input image, and moves between the image A and the image B at the intermediate time. A compensation image is generated and supplied to the blending unit 505.
The blending unit 505 blends the motion compensated two-frame images to generate an output image.

一方、出力画像として、画像Bに時刻が一致する出力画像を生成する場合、第1のフレーム生成部503では、第2のフレームメモリ504より読みだされた画像(画像C)に対して、動きベクトル検出部502で検出された動きベクトルを適用し、画像Bと同時刻の動き補償画像を生成して、ブレンド部505に供給する。一方第2のフレーム生成部506は、入力画像における画像Bを動き補償画像として出力する。そしてブレンド部505では、これら第1及び第2のフレーム生成部503,506から出力された画像Bと同じ時刻の画像をブレンドし、得られた生成画像を画像Bに対応する同時刻の画像として出力する。入力画像と同じ時刻の出力画像は、第2のフレームメモリ504に書き込まれる。   On the other hand, when an output image whose time coincides with the image B is generated as the output image, the first frame generation unit 503 moves the image (image C) read from the second frame memory 504. The motion vector detected by the vector detection unit 502 is applied, a motion compensated image at the same time as the image B is generated, and supplied to the blending unit 505. On the other hand, the second frame generation unit 506 outputs the image B in the input image as a motion compensated image. The blending unit 505 blends the images at the same time as the image B output from the first and second frame generation units 503 and 506, and sets the obtained generated image as an image at the same time corresponding to the image B. Output. An output image at the same time as the input image is written in the second frame memory 504.

(実施形態3)
本発明の第3の実施の形態の処理による入力画像と出力画像を図6に示す。上記の実施形態2では、動き補償された2つの画像をブレンドして、入力画像の中間時刻の出力画像を生成していたが、動き補償画像を1フレームだけ用いて中間時刻の出力画像を生成するようにしてもよい。
(Embodiment 3)
FIG. 6 shows an input image and an output image obtained by the processing according to the third embodiment of the present invention. In the second embodiment, two motion compensated images are blended to generate an output image at an intermediate time of the input image. However, an output image at an intermediate time is generated using only one frame of the motion compensated image. You may make it do.

図6の(1)の画像601,602,603は、時間的に連続して入力された画像である。物体604,605,606の画面上の位置より、物体は画面内を右下方向に一定の速度で移動している。
図6の(2)は、(1)の入力動画像のフレームレートを2倍に変換した出力動画像を示している。出力画像607,609,611は、それぞれ入力画像601,602,603と同じ時刻の画像であり、出力画像608,610は、入力画像の中間時刻の画像である。また、図6(2)の出力画像は、複数の入力画像の成分が含まれている。出力画像609は、過去の出力画像607と入力画像602より生成され、出力画像608は、出力画像607により生成される。
The images 601, 602, and 603 in FIG. 6 (1) are images that are continuously input in time. From the positions of the objects 604, 605, and 606 on the screen, the object moves in the lower right direction on the screen at a constant speed.
(2) in FIG. 6 shows an output moving image obtained by converting the frame rate of the input moving image in (1) by a factor of two. The output images 607, 609, and 611 are images at the same time as the input images 601, 602, and 603, respectively, and the output images 608 and 610 are images at intermediate times of the input images. In addition, the output image of FIG. 6B includes a plurality of input image components. The output image 609 is generated from the past output image 607 and the input image 602, and the output image 608 is generated from the output image 607.

ここで時間的に連続する入力画像601,602に注目し、これらの入力画像をそれぞれ画像A、画像Bとする。画像Bに時刻が一致する出力画像(画像Eとする)は、入力画像Bと、入力画像Aと同時刻の出力画像(画像Cとする)から生成されている。
画像Aと画像Bの中間時刻の出力画像(画像Dとする)は、画像Dの1つ前の出力画像(画像C)により生成される。ここでは、時間的に連続する入力画像Aと画像Bにより動きベクトルを検出し、その動きベクトルを出力画像Cに適用して、画像Cと画像Eの中間時刻の動き補償画像を生成し、画像Dとして出力する。
Here, attention is paid to input images 601 and 602 that are temporally continuous, and these input images are referred to as image A and image B, respectively. An output image (referred to as image E) whose time coincides with image B is generated from input image B and an output image (referred to as image C) at the same time as input image A.
An output image (image D) at an intermediate time between the images A and B is generated by an output image (image C) immediately before the image D. Here, a motion vector is detected from temporally continuous input image A and image B, and the motion vector is applied to output image C to generate a motion compensated image at an intermediate time between image C and image E. Output as D.

一方、画像Eを生成する場合、画像Aと画像Bから検出した動きベクトルを画像Cに適用して、画像Bと同時刻の動き補償画像を生成する。そしてこの動き補償画像を画像Bとブレンドすることで画像Eを生成して出力する。
画像Cは、画像Eと同様に生成されたものであり、過去の出力画像に基づく動き補償画像と、その時刻の入力画像(画像A)とがブレンドされた画像である。これらの処理により、出力画像には、異なる時刻の入力画像の成分が混合されることになる。
On the other hand, when generating the image E, the motion vector detected from the image A and the image B is applied to the image C to generate a motion compensated image at the same time as the image B. Then, the motion compensation image is blended with the image B to generate and output an image E.
The image C is generated in the same manner as the image E, and is a blended image of the motion compensated image based on the past output image and the input image (image A) at that time. By these processes, components of the input image at different times are mixed in the output image.

このように、入力画像に対応する出力画像に基づいて生成した動き補償画像により、入力画像間の画像を生成し、このときに、上記の入力画像間の画像の生成に用いる入力画像に対応する出力画像を、時刻の異なる複数の入力画像のうち、一部の入力画像に対応する出力画像に基づいて生成した動き補償画像と、他の入力画像とを混合して生成することにより、ランダム状のノイズ低減効果、および移動局物体の情報量が増えることによる画質向上効果が期待できる。   In this way, an image between the input images is generated by the motion compensated image generated based on the output image corresponding to the input image, and at this time, the image corresponds to the input image used for generating the image between the input images. By generating an output image by mixing a motion compensated image generated based on an output image corresponding to a part of the input images among a plurality of input images at different times and other input images, a random state Noise reduction effect and an image quality improvement effect due to an increase in the amount of information of the mobile station object can be expected.

図7は、本発明に係るフレームレート変換装置の構成例を説明するためのブロック図で、上記第3の実施形態の処理を実行するための構成例を示すものである。
図7において、入力画像は、第1のフレームメモリ701に書き込まれる。第1のフレームメモリ701より時刻の異なる入力画像(画像A、画像B)が読み出され、動きベクトル検出部702に供給される。動きベクトル検出部702は、供給された2フレームの画像間の動きを検出し、動きベクトルを生成する。
FIG. 7 is a block diagram for explaining a configuration example of the frame rate conversion apparatus according to the present invention, and shows a configuration example for executing the processing of the third embodiment.
In FIG. 7, the input image is written in the first frame memory 701. Input images (image A and image B) having different times are read from the first frame memory 701 and supplied to the motion vector detection unit 702. The motion vector detection unit 702 detects a motion between the supplied two frames of images and generates a motion vector.

フレーム生成部(動き補償部)703は、第2のフレームメモリ705より読みだされた画像(画像C)に対して、動きベクトル検出部702で検出された動きベクトルを適用し、画像Aと画像Bとの中間時刻の動き補償画像を生成して、ブレンド部(混合部)704に供給する。中間時刻の画像については、ブレンド部704におけるブレンドを行わず、画像Dとして出力する。
一方、画像Bと同時刻の画像Eを生成する場合、フレーム生成部703では、第2のフレームメモリ705から読み出された画像(画像C)に対して、動きベクトル検出部702で検出された動きベクトルを適用し、画像Bと同時刻の動き補償画像を生成して、ブレンド部704に供給する。ブレンド部704では、この動き補償画像を画像Bとブレンドして、画像Eとして出力する。入力画像と同じ時刻の出力画像は、第2のフレームメモリ705に書き込まれる。
The frame generation unit (motion compensation unit) 703 applies the motion vector detected by the motion vector detection unit 702 to the image (image C) read from the second frame memory 705, and performs image A and image A motion compensated image at an intermediate time with B is generated and supplied to the blending unit (mixing unit) 704. The image at the intermediate time is output as an image D without being blended in the blending unit 704.
On the other hand, when generating the image E at the same time as the image B, the frame generation unit 703 detects the image (image C) read from the second frame memory 705 by the motion vector detection unit 702. The motion vector is applied, a motion compensated image at the same time as the image B is generated, and supplied to the blend unit 704. The blending unit 704 blends this motion compensated image with the image B and outputs it as an image E. An output image at the same time as the input image is written in the second frame memory 705.

(実施形態4)
上記の各実施形態では、フレームレートを2倍に変換する処理例を示しているが、本発明に係るフレームレート変換処理は、2倍のフレームレート変換に限定するものではなく、例えば、図8に示すような4倍のフレームレート変換にも適用できる。
時間的に連続する入力画像801,802から動きベクトルを検出し、検出した動きベクトルを利用して、入力画像801、802の間の1/4の時刻の画像804を生成する。ここでは、出力画像803に動きベクトルを適用して1/4の時刻の動き補償画像を生成するともに、入力画像802に動きベクトルを適用して、1/4の時刻の動き補償画像を生成し、これら2つの動き補償画像をブレンドすることで、出力画像804を生成して出力する。
(Embodiment 4)
In each of the above embodiments, an example of processing for converting the frame rate to twice is shown. However, the frame rate conversion processing according to the present invention is not limited to the double frame rate conversion. For example, FIG. It can also be applied to the four times frame rate conversion as shown in FIG.
A motion vector is detected from temporally continuous input images 801 and 802, and an image 804 having a time of ¼ between the input images 801 and 802 is generated using the detected motion vector. Here, the motion vector is applied to the output image 803 to generate a motion compensated image at ¼ time, and the motion vector is applied to the input image 802 to generate a motion compensated image at ¼ time. By blending these two motion compensation images, an output image 804 is generated and output.

上記のように出力画像に基づく動き補償画像と、入力画像に基づく動き補償画像とをブレンドすることで、画像801,802間の1/2の時刻、3/4の時刻についても出力画像805、806をそれぞれ生成できる。また、画像802と同時刻の出力画像807については、出力画像803に対して動きベクトルを適用した動き補償画像と、入力画像802とをブレンドすることにより生成する。
このように、本発明に係る実施形態では、変換後のフレームレートを限定することなく、4倍等の任意のフレームレートに適宜適用することができる。
By blending the motion-compensated image based on the output image and the motion-compensated image based on the input image as described above, the output image 805 is also obtained for the half time and the third time between the images 801 and 802. 806 can be generated respectively. Further, an output image 807 at the same time as the image 802 is generated by blending a motion compensated image obtained by applying a motion vector to the output image 803 and the input image 802.
Thus, in the embodiment according to the present invention, the frame rate after conversion is not limited and can be appropriately applied to any frame rate such as four times.

101,102,103…入力画像、104,105,106…物体、107,108,109,110,111…出力画像、201…フレームメモリ、202…ベクトル検出部、203…第1のフレーム生成部、204…第2のフレーム生成部、205…ブレンド部、401,402,403…入力画像、407〜411…出力画像、501…第1のフレームメモリ、502…動きベクトル検出部、503…第1のフレーム生成部、504…第2のフレームメモリ、505…ブレンド部、506…第2のフレーム生成部、601,602,603…入力画像、604,605,606…物体、607〜611…出力画像、701…第1のフレームメモリ、702…動きベクトル検出部、703…フレーム生成部、704…ブレンド部、705…第2のフレームメモリ、801,802…入力画像、803〜807…出力画像、901,902,903…入力画像、904,905,906…物体、907〜911…出力画像、912,913…物体、1001…フレームメモリ、1002…ベクトル検出部、1003…フレーム生成部、1301…動き元画像、1302…動き先画像、1303,1304…物体、1305,1306…ブロック、1307…探索範囲、1308…ブロック、1401〜1403…入力画像、1404,1405,1406…物体、1407,1408…出力画像、1501…フレームメモリ、1502…ベクトル検出部、1503…フレーム生成部、1504…ブレンド部。 101, 102, 103 ... input image, 104, 105, 106 ... object, 107, 108, 109, 110, 111 ... output image, 201 ... frame memory, 202 ... vector detection unit, 203 ... first frame generation unit, 204 ... second frame generation unit, 205 ... blending unit, 401, 402, 403 ... input image, 407 to 411 ... output image, 501 ... first frame memory, 502 ... motion vector detection unit, 503 ... first Frame generation unit, 504 ... second frame memory, 505 ... blending unit, 506 ... second frame generation unit, 601, 602, 603 ... input image, 604, 605, 606 ... object, 607 to 611 ... output image, 701: First frame memory, 702: Motion vector detection unit, 703: Frame generation unit, 704: Blending unit, 70 ... second frame memory, 801,802 ... input image, 803-807 ... output image, 901,902,903 ... input image, 904,905,906 ... object, 907-911 ... output image, 912,913 ... object , 1001 ... Frame memory, 1002 ... Vector detection unit, 1003 ... Frame generation unit, 1301 ... Motion source image, 1302 ... Motion destination image, 1303, 1304 ... Object, 1305, 1306 ... Block, 1307 ... Search range, 1308 ... Block , 1401-1403 ... input image, 1404, 1405, 1406 ... object, 1407, 1408 ... output image, 1501 ... frame memory, 1502 ... vector detection unit, 1503 ... frame generation unit, 1504 ... blending unit.

Claims (8)

入力画像のフレームレートを変換して出力する画像処理装置により実行されるフレームレート変換方法であって、
前記映像処理装置に入力した入力画像間の動きを検出して動きベクトルを求める動きベクトル検出ステップと、
該動きベクトル検出ステップで検出した動きベクトルを用いて、動き補償された画像を生成する動き補償ステップと、
該動き補償ステップで生成された動き補償された画像を含む複数の画像を混合する混合ステップとを有し、
該混合ステップは、時刻の異なる入力画像の成分を混合することを特徴とするフレームレート変換方法。
A frame rate conversion method executed by an image processing apparatus that converts a frame rate of an input image and outputs the frame rate,
A motion vector detection step for detecting a motion between input images input to the video processing device to obtain a motion vector;
A motion compensation step for generating a motion compensated image using the motion vector detected in the motion vector detection step;
Mixing a plurality of images including the motion compensated image generated in the motion compensation step,
The frame rate conversion method characterized in that the mixing step mixes components of input images at different times.
請求項1に記載のフレームレート変換方法において、
前記動き補償ステップは、時刻の異なる複数の入力画像のそれぞれに基づいて生成した複数の動き補償画像を生成し、
前記混合ステップは、前記動き補償ステップで生成された複数の動き補償画像を混合することにより、前記入力画像間の画像を生成して前記フレームレートを変換することを特徴とするフレームレート変換方法。
The frame rate conversion method according to claim 1,
The motion compensation step generates a plurality of motion compensation images generated based on each of a plurality of input images at different times,
In the frame rate conversion method, in the mixing step, a plurality of motion compensated images generated in the motion compensation step are mixed to generate an image between the input images to convert the frame rate.
請求項1に記載のフレームレート変換方法において、
前記動き補償ステップは、時刻の異なる複数の入力画像のうち、一部の入力画像に対応する出力画像に基づいて動き補償画像を生成し、かつ、他の入力画像に基づいて動き補償画像を生成し、
前記混合ステップは、前記動き補償ステップで生成した動き補償画像を混合して、前記入力画像間の画像を生成することにより、前記フレームレートを変換することを特徴とするフレームレート変換方法。
The frame rate conversion method according to claim 1,
The motion compensation step generates a motion compensation image based on an output image corresponding to a part of the input images among a plurality of input images at different times, and generates a motion compensation image based on another input image. And
In the frame rate conversion method, the mixing step converts the frame rate by mixing the motion compensated images generated in the motion compensation step and generating an image between the input images.
請求項1に記載のフレームレート変換方法において、
前記動き補償ステップは、入力画像に対応する出力画像に基づいて生成した動き補償画像により、前記入力画像間の画像を生成し、かつ、時刻の異なる複数の入力画像のうち、一部の入力画像に対応する出力画像に基づいて他の入力画像の時刻に対応する動き補償画像を生成し、
前記混合ステップは、前記動き補償ステップで生成した前記他の入力画像の時刻に対応する動き補償画像と、前記他の入力画像とを混合することを特徴とするフレームレート変換方法。
The frame rate conversion method according to claim 1,
The motion compensation step generates an image between the input images based on a motion compensated image generated based on an output image corresponding to the input image, and a part of the input images among a plurality of input images at different times Generating a motion compensated image corresponding to the time of another input image based on the output image corresponding to
The frame rate conversion method characterized in that the mixing step mixes the motion compensation image corresponding to the time of the other input image generated in the motion compensation step and the other input image.
入力画像のフレームレートを変換して出力するフレームレート変換装置であって、
該フレームレート変換装置に入力した入力画像間の動きを検出して動きベクトルを求める動きベクトル検出部と、
該動きベクトル検出部で検出した動きベクトルを用いて、動き補償された画像を生成する動き補償部と、
該動き補償部で生成された動き補償された画像を含む複数の画像を混合する混合部とを有し、
該混合部は、時刻の異なる入力画像の成分を混合することを特徴とするフレームレート変換装置。
A frame rate conversion device for converting a frame rate of an input image and outputting the converted image,
A motion vector detection unit that detects a motion vector by detecting a motion between input images input to the frame rate conversion device;
A motion compensation unit that generates a motion compensated image using the motion vector detected by the motion vector detection unit;
A mixing unit that mixes a plurality of images including the motion compensated image generated by the motion compensation unit,
The mixing unit mixes components of an input image at different times.
請求項5に記載のフレームレート変換装置において、
前記動き補償部は、時刻の異なる複数の入力画像のそれぞれに基づいて生成した複数の動き補償画像を生成し、
前記混合部は、前記動き補償部で生成された複数の動き補償画像を混合することにより、前記入力画像間の画像を生成して前記フレームレートを変換することを特徴とするフレームレート変換装置。
In the frame rate conversion device according to claim 5,
The motion compensation unit generates a plurality of motion compensation images generated based on each of a plurality of input images at different times,
The frame rate conversion device, wherein the mixing unit mixes a plurality of motion compensated images generated by the motion compensation unit to generate an image between the input images and convert the frame rate.
請求項5に記載のフレームレート変換装置において、
前記動き補償部は、時刻の異なる複数の入力画像のうち、一部の入力画像に対応する出力画像に基づいて動き補償画像を生成し、かつ、他の入力画像に基づいて動き補償画像を生成し、
前記混合部は、前記動き補償部で生成した動き補償画像を混合して、前記入力画像間の画像を生成することにより、前記フレームレートを変換することを特徴とするフレームレート変換装置。
In the frame rate conversion device according to claim 5,
The motion compensation unit generates a motion compensation image based on an output image corresponding to a part of the input images among a plurality of input images at different times, and generates a motion compensation image based on another input image. And
The frame rate conversion apparatus, wherein the mixing unit converts the frame rate by mixing the motion compensated images generated by the motion compensation unit and generating an image between the input images.
請求項5に記載のフレームレート変換装置において、
前記動き補償部は、入力画像に対応する出力画像に基づいて生成した動き補償画像により、前記入力画像間の画像を生成し、かつ、時刻の異なる複数の入力画像のうち、一部の入力画像に対応する出力画像に基づいて他の入力画像の時刻に対応する動き補償画像を生成し、
前記混合部は、前記動き補償ステップで生成した前記他の入力画像の時刻に対応する動き補償画像と、前記他の入力画像とを混合することを特徴とするフレームレート変換装置。
In the frame rate conversion device according to claim 5,
The motion compensation unit generates an image between the input images based on a motion compensated image generated based on an output image corresponding to the input image, and a part of the input images among a plurality of input images having different times Generating a motion compensated image corresponding to the time of another input image based on the output image corresponding to
The frame rate conversion device, wherein the mixing unit mixes a motion compensated image corresponding to a time of the other input image generated in the motion compensation step and the other input image.
JP2010116403A 2010-05-20 2010-05-20 Frame rate conversion method and device Pending JP2011244330A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010116403A JP2011244330A (en) 2010-05-20 2010-05-20 Frame rate conversion method and device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010116403A JP2011244330A (en) 2010-05-20 2010-05-20 Frame rate conversion method and device

Publications (1)

Publication Number Publication Date
JP2011244330A true JP2011244330A (en) 2011-12-01

Family

ID=45410499

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010116403A Pending JP2011244330A (en) 2010-05-20 2010-05-20 Frame rate conversion method and device

Country Status (1)

Country Link
JP (1) JP2011244330A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015084022A (en) * 2013-10-25 2015-04-30 セイコーエプソン株式会社 Electro-optical device, electronic apparatus and image processing device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005045700A (en) * 2003-07-25 2005-02-17 Victor Co Of Japan Ltd Motion estimation method for moving picture interpolation and motion estimation apparatus for moving picture interpolation
JP2007081755A (en) * 2005-09-13 2007-03-29 Victor Co Of Japan Ltd Image data conversion apparatus
JP2010010915A (en) * 2008-06-25 2010-01-14 Sony Corp Image processing apparatus and method, and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005045700A (en) * 2003-07-25 2005-02-17 Victor Co Of Japan Ltd Motion estimation method for moving picture interpolation and motion estimation apparatus for moving picture interpolation
JP2007081755A (en) * 2005-09-13 2007-03-29 Victor Co Of Japan Ltd Image data conversion apparatus
JP2010010915A (en) * 2008-06-25 2010-01-14 Sony Corp Image processing apparatus and method, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015084022A (en) * 2013-10-25 2015-04-30 セイコーエプソン株式会社 Electro-optical device, electronic apparatus and image processing device

Similar Documents

Publication Publication Date Title
JP4575431B2 (en) Protection with corrected deinterlacing device
JP2010041538A (en) Device and method for processing image signal
JP4083266B2 (en) Motion vector generation method and apparatus
JP2008131244A (en) Television receiver and video display method thereof
JP2011244330A (en) Frame rate conversion method and device
JP6904192B2 (en) Interpolation frame generator
CN101212637A (en) Video signal processing circuit, video signal processor, and video signal processing method
JP2010055001A (en) Video signal processing apparatus and video signal processing method
JP2012244333A (en) Image processing device, method, and program
JP4535160B2 (en) Image processing apparatus, image processing method, image processing control program, and program recording medium
JP2014126774A5 (en)
JP2016048810A (en) Frame rate conversion device and frame rate conversion method
JP2012182674A (en) Video display device and video display method
JP2006174123A (en) Successive scanning conversion apparatus
JP2005333254A (en) Apparatus and method for image processing
JP6349355B2 (en) Image composition apparatus, information processing apparatus, and image composition method
JP2009265688A (en) Movement detection device
JP2012227799A (en) Image display device
JP4869302B2 (en) Image processing apparatus and image processing method
JP2011082899A (en) Image processing apparatus and control method thereof
JP2007104652A (en) Image signal processing apparatus, image signal processing method, and program
JP2009147767A (en) Image converting apparatus, and image display apparatus
JP2010041633A (en) Video signal processing apparatus, video display, and video signal processing method
JP2017216634A (en) Video synthesizing device, video synthesizing method, and program
JP2006332904A (en) Contour emphasizing circuit

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130401

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131210

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140408