JP4951487B2 - Video processing apparatus and video display apparatus using the same - Google Patents

Video processing apparatus and video display apparatus using the same Download PDF

Info

Publication number
JP4951487B2
JP4951487B2 JP2007322719A JP2007322719A JP4951487B2 JP 4951487 B2 JP4951487 B2 JP 4951487B2 JP 2007322719 A JP2007322719 A JP 2007322719A JP 2007322719 A JP2007322719 A JP 2007322719A JP 4951487 B2 JP4951487 B2 JP 4951487B2
Authority
JP
Japan
Prior art keywords
video
motion vector
interpolation
vector
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007322719A
Other languages
Japanese (ja)
Other versions
JP2009147670A (en
Inventor
昌宏 荻野
満雄 中嶋
嘉章 水橋
健太 高野橋
正裕 山崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2007322719A priority Critical patent/JP4951487B2/en
Publication of JP2009147670A publication Critical patent/JP2009147670A/en
Application granted granted Critical
Publication of JP4951487B2 publication Critical patent/JP4951487B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、映像信号に含まれる映像のフレームから補間フレームを生成してフレームレート変換を行うための映像処理技術に関する。   The present invention relates to a video processing technique for generating an interpolation frame from a video frame included in a video signal and performing frame rate conversion.

例えばテレビジョン表示装置等の映像処理装置において、動画表示におけるぼやけ感(残像感)やガタガタ感を低減して動画性能を向上させるために、映像信号の単位時間当たりのフレーム数(フレームレート)を増加して時間方向の解像度を高くするフレームレート変換処理が為される場合がある。かかるフレームレート変換処理は、典型的には、映像信号に含まれる複数(典型的には2つ)フレーム間の映像データの差分から物体の動きベクトルを検出して補間フレームを作成し、これを映像信号のフレーム列に挿入する処理を含んでいる。この補間フレーム作成のための動きベクトルを精度よく得るための従来技術としては、例えば特許文献1や非特許文献1に記載のものが知られている。   For example, in a video processing device such as a television display device, the number of frames per unit time of a video signal (frame rate) is reduced in order to improve the performance of moving images by reducing blurring feeling (afterimage feeling) and rattling in moving image display. There may be a case where a frame rate conversion process is performed to increase the resolution in the time direction to increase. Such frame rate conversion processing typically detects an object motion vector from a difference in video data between a plurality of (typically two) frames included in a video signal, and creates an interpolation frame. It includes processing for insertion into the frame sequence of the video signal. As a conventional technique for obtaining a motion vector for creating an interpolation frame with high accuracy, for example, those described in Patent Document 1 and Non-Patent Document 1 are known.

特開平2002−27414号公報(段落0009、図9)Japanese Unexamined Patent Publication No. 2002-27414 (paragraph 0009, FIG. 9) 東芝レビュー Vol.59 No.12(2004)Toshiba Review Vol.59 No.12 (2004)

しかしながら、上記従来技術は、映像の全体がある方向に動く、すなわち画面がパンするような映像に対する考慮は為されていない。ここで「パン」とは、画面全体が水平(左右)方向のみならず、垂直(上下)方向やその他の方向に動くことを意味するものとする。画面全体がパンするような映像シーン(以下、この映像シーンを「パン映像」と称する)の場合、画面の端部分において映像内の物体の動きベクトルが良好に検出できない場合がある。これにつき、図13を参照しつつ説明する。   However, the above prior art does not take into consideration an image in which the entire image moves in a certain direction, that is, the screen pans. Here, “pan” means that the entire screen moves not only in the horizontal (left and right) direction, but also in the vertical (up and down) direction and other directions. In the case of a video scene in which the entire screen is panned (hereinafter, this video scene is referred to as “pan video”), the motion vector of an object in the video may not be detected well at the end of the screen. This will be described with reference to FIG.

図13は、画面全体が矢印135の方向に移動するパン映像の様子を示している。パン映像においては、映像信号中のフレーム131に出現していない映像中の物体134が、そのフレームと時間的に連続する(フレーム131に対し、1垂直周期後の)フレーム132の端部に突然出現する現象が生じる。このときに、例えばブロック133の範囲内で物体134の動きを検出しようとしても、フレーム132には物体134が存在するのに対しフレーム131には物体134が存在しないため、フレーム131と132との間で物体134についての差分を得ることができず、結果として、画面端部においては当該物体134の動きを検出することができない。このため、このようなパン映像について補間フレームを作成してフレームレート変換処理を行うとしても、特に画面の端部を含む領域において、映像信号中の(オリジナルの)フレームと映像的に関連性の無いまたは低い補間フレームが作成される可能性が有り、フレームレート変換後の映像に画質の劣化が生じる可能性がある。本課題に関しては、フレーム生成の際に参照するフレームを増やすことにより、解決する方法も考えられるが、処理演算量、回路規模、使用メモリの増加が必須となる。   FIG. 13 shows a state of a pan video in which the entire screen moves in the direction of the arrow 135. In the pan video, an object 134 in the video that does not appear in the frame 131 in the video signal suddenly appears at the end of the frame 132 that is temporally continuous with the frame (after one vertical cycle with respect to the frame 131). An appearing phenomenon occurs. At this time, for example, even if an attempt is made to detect the movement of the object 134 within the range of the block 133, the object 134 exists in the frame 132 but the object 134 does not exist in the frame 131. As a result, the motion of the object 134 cannot be detected at the edge of the screen. For this reason, even if an interpolated frame is created for such a pan video and the frame rate conversion process is performed, particularly in the area including the edge of the screen, it is video-related to the (original) frame in the video signal. There is a possibility that no or low interpolation frame is created, and there is a possibility that the image quality is deteriorated in the video after the frame rate conversion. With regard to this problem, a method of solving the problem by increasing the number of frames to be referred to when generating a frame is also conceivable, but it is essential to increase the amount of processing calculation, the circuit scale, and the memory used.

本発明は上記従来技術の課題に鑑みて為されたものであり、入力映像がパン映像の場合でも高画質にフレームレート変換処理を行うことが可能な技術を提供するものである。   The present invention has been made in view of the above-described problems of the prior art, and provides a technique capable of performing frame rate conversion processing with high image quality even when an input video is a pan video.

本発明は、特許請求の範囲に記載された構成を特徴とする。すなわち本発明は、入力映像信号中の複数フレームから検出した映像(物体)動きベクトルを用いて補間処理をして補間フレームを作成し、これを入力映像信号のフレーム列に挿入するフレームレート変換処理において、入力映像がパン映像の場合には、映像の端部を含む領域については、上記動きベクトルに代えて、画面の全体的な動きの方向を示すグローバルベクトルを用いて補間処理を行うことを特徴とするものである。   The present invention is characterized by the structures described in the claims. That is, the present invention creates a frame by performing interpolation using video (object) motion vectors detected from a plurality of frames in an input video signal, and inserts this into a frame sequence of the input video signal. In the case where the input video is a pan video, for the region including the edge of the video, interpolation processing is performed using a global vector indicating the overall direction of motion of the screen instead of the motion vector. It is a feature.

本発明によれば、入力映像がパン映像の場合でも高画質にフレームレート変換処理を行うことが可能となる。   According to the present invention, it is possible to perform frame rate conversion processing with high image quality even when the input video is a pan video.

以下、本発明の実施形態について、図面を参照しながら説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明に係る画像処理装置の第1実施例を示すブロック図である。ここでは映像処理装置としてテレビジョン表示装置を例にして説明する。当然ながら、テレビジョン表示装置以外の映像処理装置にも適用可能である。図1において、入力端子11には映像信号が入力される。この入力映像信号は、例えばDVD、ブルーレイディスク、HDD再生機により再生されたデジタル映像信号や、デジタルTV放送により送信されるデジタルTV信号であるものとする。入力映像信号がアナログ形式の場合、これを図示しないA/D変換器によりデジタル信号に変換した後に入力端子11に入力される。   FIG. 1 is a block diagram showing a first embodiment of an image processing apparatus according to the present invention. Here, a television display device will be described as an example of the video processing device. Of course, the present invention can also be applied to video processing devices other than television display devices. In FIG. 1, a video signal is input to the input terminal 11. This input video signal is assumed to be a digital video signal reproduced by, for example, a DVD, a Blu-ray disc or an HDD player, or a digital TV signal transmitted by digital TV broadcasting. When the input video signal is in an analog format, it is converted into a digital signal by an A / D converter (not shown) and input to the input terminal 11.

入力映像信号の精細度が表示部16の解像度と一致しない場合、例えば入力映像信号の精細度が640×480で表示部16の解像度が1920×1080の場合は、解像度変換部12により入力映像信号を表示部16の解像度に合わせたフォーマットへ拡大・縮小処理を行う。この解像度変換部12で画素補間処理による拡大・縮小処理が為された信号は、フレームレート変換部(FRC)13に供給される。入力映像信号の精細度が表示部16の解像度と一致する場合は、入力映像信号は解像度変換部12を経由せずにFRC13に供給される。尚、この解像度変換処理部12は、FRC13後段に設け、FRC13からの出力信号に対し上記の拡大・縮小処理を行うようにしてもよい。   When the definition of the input video signal does not match the resolution of the display unit 16, for example, when the definition of the input video signal is 640 × 480 and the resolution of the display unit 16 is 1920 × 1080, the resolution conversion unit 12 inputs the input video signal. Is enlarged / reduced to a format matching the resolution of the display unit 16. The signal subjected to the enlargement / reduction process by the pixel interpolation process in the resolution converter 12 is supplied to a frame rate converter (FRC) 13. When the definition of the input video signal matches the resolution of the display unit 16, the input video signal is supplied to the FRC 13 without going through the resolution conversion unit 12. Note that the resolution conversion processing unit 12 may be provided in the subsequent stage of the FRC 13 and perform the above-described enlargement / reduction processing on the output signal from the FRC 13.

FRC13は、入力映像信号(解像度変換処理部12からの出力信号)の映像データを1または複数フレーム分記憶する画像メモリ14と接続されており、この画像メモリに入力映像信号の映像データを書き込みまたは読み出すことで、時間的に連続する2つのフレームの映像データを得る。FRC13は、この2フレームの映像データの差分を算出して当該2フレーム間における映像(物体)の動きベクトルを検出し、この検出された動きベクトルを用いて補間画素または補間ブロックを作成し、補間フレームを生成する。そして、この補間フレームを入力映像信号(解像度変換処理部12からの出力信号)のフレーム列に挿入してフレームレートを変換する。かかるフレームレート変換処理の詳細については後述するものとする。   The FRC 13 is connected to an image memory 14 that stores one or a plurality of frames of video data of an input video signal (output signal from the resolution conversion processing unit 12), and writes video data of the input video signal to the image memory or By reading, video data of two frames that are temporally continuous is obtained. The FRC 13 calculates a difference between the video data of the two frames, detects a motion vector of the video (object) between the two frames, creates an interpolation pixel or an interpolation block using the detected motion vector, and performs interpolation. Generate a frame. The interpolated frame is inserted into the frame sequence of the input video signal (output signal from the resolution conversion processing unit 12) to convert the frame rate. Details of the frame rate conversion processing will be described later.

本実施例におけるFRC13は、外部端子18に入力されるFRC変換モード信号17に応じたフレームレートの変換を行うものとする。このFRC変換モード信号17は、FRC13におけるフレームレート変換処理モードを切り換えるための信号であり、このフレームレート変換処理モードは、本実施例では、例えば次のものを含むものとする。
(1)フレームレート(垂直周波数)が60Hzの映像信号を120Hzのフレームレートに変換するモード。
(2)フレームレートが50Hzの映像信号を100Hzのフレームレートに変換するモード。
(3)フレームレートが24Hz(シネマフォーマット)の映像信号を60Hzのフレームレートに変換するモード。
(4)2−3プルダウン形式でフレームレートが60Hzのテレシネ信号を、非プルダウン形式の60Hzのフレームレートに変換するモード。
The FRC 13 in this embodiment performs frame rate conversion in accordance with the FRC conversion mode signal 17 input to the external terminal 18. The FRC conversion mode signal 17 is a signal for switching the frame rate conversion processing mode in the FRC 13, and this frame rate conversion processing mode includes, for example, the following in this embodiment.
(1) A mode for converting a video signal having a frame rate (vertical frequency) of 60 Hz into a frame rate of 120 Hz.
(2) A mode for converting a video signal having a frame rate of 50 Hz into a frame rate of 100 Hz.
(3) A mode for converting a video signal having a frame rate of 24 Hz (cinema format) into a frame rate of 60 Hz.
(4) A mode in which a telecine signal having a frame rate of 60 Hz in 2-3 pull-down format is converted to a frame rate of 60 Hz in non-pull-down format.

上記(1)のモードは、フレームレートが60Hzの入力映像信号の1フレームおきに補間フレームを挿入することによって、フレームレートを120Hzに変換する。(2)のモードは、フレームレートが50Hzの入力映像信号の1フレームおきに補間フレームを挿入することによって、フレームレートを100Hzに変換する。(3)のモードは、フレームレートが24Hzの入力映像信号のあるフレームの後に補間フレームを1枚挿入し、そのあるフレームに時間的に隣接する次のフレームに補間フレームを2枚挿入することでフレームレートを60Hzに変換する。(4)のモードは、例えば、映像信号中の同一映像が連続する2枚のフレームと別の同一映像が連続する3枚のフレームの、計5枚のフレームのうち、3枚または4枚を補間フレームと差し替えるモードである。この(4)のモードは入力信号のフレームレートは変化しないが、補間フレームにより単位時間(1秒間)における動画を構成するフレーム数が増加する(24枚から60枚に増加)するので、ここでは、当該モードもフレームレート変換処理とする。尚、上記では、FRC変換モード信号17によって4つモードが選択されるものとしたが、当然これ以外のモード(例えばフレームレートを60Hzから180Hzに変換するモード)を設けてもよいことは明らかである。   In the mode (1), the frame rate is converted to 120 Hz by inserting an interpolation frame every other frame of the input video signal having a frame rate of 60 Hz. In the mode (2), the frame rate is converted to 100 Hz by inserting an interpolation frame every other frame of the input video signal having a frame rate of 50 Hz. In the mode (3), one interpolation frame is inserted after a certain frame of the input video signal having a frame rate of 24 Hz, and two interpolation frames are inserted into the next frame temporally adjacent to the certain frame. Convert the frame rate to 60 Hz. In the mode (4), for example, three or four frames out of a total of five frames, that is, two frames in which the same video in the video signal is continuous and three frames in which another same video is continuous are displayed. This mode replaces the interpolation frame. In this mode (4), the frame rate of the input signal does not change, but the number of frames constituting a moving image per unit time (1 second) increases (increases from 24 to 60) by the interpolation frame. The mode is also a frame rate conversion process. In the above description, four modes are selected by the FRC conversion mode signal 17, but it is obvious that other modes (for example, a mode for converting the frame rate from 60 Hz to 180 Hz) may be provided. is there.

FRC13でフレームレート変換処理された映像信号は、タイミングコントローラ部15に供給される。タイミングコントローラ部15では、FRC13からのフレームレート変換処理された映像信号を表示部16に表示するのに最適なタイムング信号(水平、垂直同期のタイミング信号)を作成する。この作成されたタイミング信号とフレームレート変換処理された映像信号は、例えばLCDパネルやPDP、有機EL等のフラットパネルで構成された表示部16に供給され、上記タイミング信号に同期してフレームレート変換処理された映像が表示される。   The video signal subjected to the frame rate conversion processing by the FRC 13 is supplied to the timing controller unit 15. The timing controller unit 15 creates a timing signal (horizontal and vertical synchronization timing signal) that is optimal for displaying the video signal subjected to the frame rate conversion processing from the FRC 13 on the display unit 16. The created timing signal and the video signal subjected to the frame rate conversion processing are supplied to a display unit 16 constituted by a flat panel such as an LCD panel, PDP, or organic EL, for example, and frame rate conversion is performed in synchronization with the timing signal. The processed video is displayed.

次に、図2を用いてFRC13の詳細を説明する。本実施例に係るFRC13は、動きベクトル検出部24、パン判定/グローバルベクトル算出部26(以下、単に「パン判定・GV算出部」と呼ぶ)、補間フレーム生成部29、及び上記画像メモリとの映像データ及び読み出し/書き込みコマンドの通信を行うメモリインターフェース(メモリI/F)23を備えている。   Next, details of the FRC 13 will be described with reference to FIG. The FRC 13 according to the present embodiment includes a motion vector detection unit 24, a pan determination / global vector calculation unit 26 (hereinafter simply referred to as “pan determination / GV calculation unit”), an interpolation frame generation unit 29, and the image memory. A memory interface (memory I / F) 23 that communicates video data and read / write commands is provided.

かかるFRC13には、入力映像信号(解像度変換処理部12からの出力信号)のフレームが順次入力されるとともに、上述したFRC変換モード信号17が入力される。ここで、現在FRC13に入力されるフレームを現フレーム21とする。現フレーム21の映像データは、動きベクトル検出部24に入力されるとともに、メモリI/F23を介して上述した画像メモリ14に一時的に記憶される。画像メモリ14は、この例では映像データを1フレーム分遅延する機能を有しているため、メモリI/F23を介して読み出された画像メモリ14からの出力は、現フレーム21よりも1フレーム期間前の前フレーム22の映像データとなる。動きベクトル検出部24は、FRC変換モード信号17で指定された変換モードに従って、入力された現フレーム21及び前フレーム22の映像データから、その2フレーム間の映像データの差分を求めることにより、画素もしくは所定数の画素で構成されるブロック単位で動きベクトル25を検出して出力する。   The FRC 13 is sequentially supplied with frames of input video signals (output signals from the resolution conversion processing unit 12) and the FRC conversion mode signal 17 described above. Here, it is assumed that the frame currently input to the FRC 13 is the current frame 21. The video data of the current frame 21 is input to the motion vector detection unit 24 and temporarily stored in the image memory 14 described above via the memory I / F 23. Since the image memory 14 has a function of delaying the video data by one frame in this example, the output from the image memory 14 read through the memory I / F 23 is one frame from the current frame 21. This is the video data of the previous frame 22 before the period. The motion vector detection unit 24 obtains a difference in video data between the two frames from the input video data of the current frame 21 and the previous frame 22 in accordance with the conversion mode specified by the FRC conversion mode signal 17. Alternatively, the motion vector 25 is detected and output in units of blocks composed of a predetermined number of pixels.

この動きベクトル検出部24における動きベクトルの検出の一例について図3を参照しつつ説明する。図3は、ブロック単位ではなく画素単位で動きベクトルを求める例を示しており、この画素単位の動きベクトルは、補間フレーム20内のある補間画素30に対して点対称の位置にある現フレーム21及び前フレーム22上の画素のペアを求めて算出される。   An example of motion vector detection in the motion vector detection unit 24 will be described with reference to FIG. FIG. 3 shows an example in which a motion vector is obtained not in units of blocks but in units of pixels, and the motion vector in units of pixels is present in the current frame 21 at a point-symmetrical position with respect to an interpolation pixel 30 in the interpolation frame 20. And a pair of pixels on the previous frame 22 is obtained and calculated.

図3において、tはフレーム時間方向を示す。ここで、補間フレーム30内のある補間画素30の座標を便宜上(0,0)とする。   In FIG. 3, t indicates the frame time direction. Here, for the sake of convenience, the coordinates of a certain interpolation pixel 30 in the interpolation frame 30 are set to (0, 0).

まず、動きベクトル検出部24は、現フレーム21と前フレーム22のそれぞれについて、動きベクトルの検索範囲を示す検索ウィンドウ31及び32を設定する。現フレーム21の検索ウィンドウ31は、例えば、補間画素30と空間的に同じ位置にある現フレーム21の画素33を中心にした垂直方向5画素、水平方向11画素の大きさを持つ。前フレーム22の検索ウィンドウ32も同様に、例えば、補間画素30と空間的に同じ位置にある現フレーム21の画素34を中心にした垂直方向5画素、水平方向11画素の大きさを持つ。尚、画素33及び34の座標も、ここでは便宜上(0,0)とする。   First, the motion vector detection unit 24 sets search windows 31 and 32 indicating the search range of motion vectors for each of the current frame 21 and the previous frame 22. The search window 31 of the current frame 21 has, for example, a size of 5 pixels in the vertical direction and 11 pixels in the horizontal direction centering on the pixel 33 of the current frame 21 that is in the same spatial position as the interpolation pixel 30. Similarly, the search window 32 of the previous frame 22 has, for example, a size of 5 pixels in the vertical direction and 11 pixels in the horizontal direction centering on the pixel 34 of the current frame 21 at the same spatial position as the interpolation pixel 30. Note that the coordinates of the pixels 33 and 34 are also (0, 0) for convenience here.

次に、補間画素30を中心に、現フレーム21の検索ウィンドウ31と前フレーム22の検索ウィンドウ32とを通過する直線を設定する。例えば、検索ウィンドウ21の左下端にある画素の座標を(−5,−2)とすると、この画素と補間画素30とを結ぶ直線上にある検索ウィンドウW4内の画素は、右上端の画素となり、その座標は(5,2)となる。この直線を、検索ウィンドウ31及び32内の画素全てについて設定する。この例では、検索ウィンドウ31及び32の画素数は11×5=55なので、補間画素30を通過する直線として55本の直線が設定される。   Next, a straight line passing through the search window 31 of the current frame 21 and the search window 32 of the previous frame 22 is set around the interpolation pixel 30. For example, if the coordinates of the pixel at the lower left corner of the search window 21 are (−5, −2), the pixel in the search window W4 on the straight line connecting this pixel and the interpolation pixel 30 is the upper right pixel. The coordinates are (5, 2). This straight line is set for all the pixels in the search windows 31 and 32. In this example, since the number of pixels of the search windows 31 and 32 is 11 × 5 = 55, 55 straight lines are set as straight lines passing through the interpolation pixel 30.

続いて、上記55本のそれぞれ直線について、各直線が通過する検索ウィンドウ31内の画素と検索ウィンドウ32内の画素との差分を演算する。ここでは、各画素の輝度信号の差分を求めるものとする。この差分が最も小さい画素のペアを持つ直線を補間画素30の動きベクトルとして設定する。図3の例では、検索ウィンドウ31内の画素35(座標は(−5,−2))と検索ウィンドウ32内の画素36(座標は(5,2))のペア36が最も差分が小さいものとする。従って、画素35と補間画素30と画素36とを結ぶ直線が、当該補間画素30(もしくは画素35、画素36)の動きベクトル25として設定される。すなわち、現フレーム21の画素35は、動きベクトル25が指し示す方向に従って、補間フレーム20の、補間画素30と位置的に等しい画素を通過して、前フレーム22内の画素36へ動くものと推測される。   Subsequently, the difference between the pixels in the search window 31 and the pixels in the search window 32 through which each straight line passes is calculated for each of the 55 straight lines. Here, the difference between the luminance signals of the respective pixels is obtained. A straight line having a pair of pixels having the smallest difference is set as the motion vector of the interpolation pixel 30. In the example of FIG. 3, the pair 35 of the pixel 35 (coordinate is (−5, −2)) in the search window 31 and the pixel 36 (coordinate is (5,2)) in the search window 32 has the smallest difference. And Accordingly, a straight line connecting the pixel 35, the interpolation pixel 30, and the pixel 36 is set as the motion vector 25 of the interpolation pixel 30 (or pixel 35, pixel 36). That is, it is estimated that the pixel 35 of the current frame 21 moves to the pixel 36 in the previous frame 22 through a pixel that is positionally equal to the interpolation pixel 30 of the interpolation frame 20 according to the direction indicated by the motion vector 25. The

このようにして、動きベクトル検出部24で全ての補間画素について動きベクトル25が検出される。上記の例では画素毎に動きベクトルを検出しているが、ブロック毎に検出してもよい。例えば、検索ウィンドウ31及び32の各マスを水平方向N個、垂直方向N個(Nは、例えば4、8または16)の画素で構成されるブロックとし、検索ウィンドウ31及び32の間で差分が最小となるブロックのペア求める、いわゆるブロックマッチング法により動きベクトルを検出するようにしてもよい。   In this way, the motion vector detection unit 24 detects the motion vector 25 for all the interpolation pixels. In the above example, the motion vector is detected for each pixel, but may be detected for each block. For example, each square of the search windows 31 and 32 is a block composed of N pixels in the horizontal direction and N pixels in the vertical direction (N is, for example, 4, 8 or 16), and there is a difference between the search windows 31 and 32. The motion vector may be detected by a so-called block matching method for obtaining a pair of blocks that is the minimum.

検出された動きベクトル25は、FRC変換モード17、現フレーム21及び前フレーム信号22とともに補間フレーム生成部29へ入力され、かつパン判定・GV算出部26にも入力される。補間フレーム生成部29では、FRC変換モード信号17で指定された変換モードに従い、動きベクトル25、現フレーム21及び前フレーム22を用いて画素(またはブロック)毎に補間処理を行う。この補間処理は、例えば補間フレームを構成する補間画素または補間ブロックの画素値を、上記画素値のペア36の平均値として算出する処理である。すなわち補間フレーム生成部29は、動きベクトル検出部24からの動きベクトル25で指し示されたペア36の画素(画素35と画素36)の各映像データを現フレーム信号21及び前フレーム信号22の映像データから抽出し、この映像データ同士を加算して所定の係数で除算(単純平均では係数は2)することで、補間画素または補間ブロックの画素値を算出する。FRC変換モード信号17に応じて、例えば上記係数を変更するようにしてもよい。   The detected motion vector 25 is input to the interpolation frame generation unit 29 together with the FRC conversion mode 17, the current frame 21 and the previous frame signal 22, and is also input to the pan determination / GV calculation unit 26. The interpolation frame generation unit 29 performs interpolation processing for each pixel (or block) using the motion vector 25, the current frame 21, and the previous frame 22 in accordance with the conversion mode specified by the FRC conversion mode signal 17. This interpolation processing is processing for calculating, for example, the pixel value of the interpolation pixel or the interpolation block constituting the interpolation frame as the average value of the pixel value pair 36. That is, the interpolated frame generation unit 29 uses the video data of the pair 36 pixels (pixel 35 and pixel 36) indicated by the motion vector 25 from the motion vector detection unit 24 as video of the current frame signal 21 and the previous frame signal 22. The pixel values of the interpolation pixel or the interpolation block are calculated by extracting from the data and adding the video data together and dividing by a predetermined coefficient (the coefficient is 2 in the simple average). Depending on the FRC conversion mode signal 17, for example, the coefficient may be changed.

上記補間処理を、補間フレーム30を構成する全ての画素またはブロックについて行うことで1枚の補間フレームが作成される。   One interpolation frame is created by performing the above interpolation processing for all the pixels or blocks constituting the interpolation frame 30.

一方、パン判定・GV算出部26では、検出された動きベクトル25を用いて、例えば現フレーム21(または前フレーム22)1枚当たりの動きベクトルの出現頻度(ベクトルヒストグラム)の情報を算出し、入力映像がパン映像であるかを判定するとともに、グローバルベクトル28を算出する。ここで、グローバルベクトルとは、映像が全体的動いているパン映像において、その映像全体の動き方向を示す動きベクトルである。このベクトルヒストグラムの作成、パン映像の判定、並びにグローバルベクトル28の算出の一例について図4を参照しつつ説明する。   On the other hand, the pan determination / GV calculation unit 26 uses the detected motion vector 25 to calculate, for example, information on the appearance frequency (vector histogram) of one motion vector per current frame 21 (or previous frame 22), It is determined whether the input video is a pan video, and the global vector 28 is calculated. Here, the global vector is a motion vector indicating the motion direction of the entire video in a pan video where the video is moving as a whole. An example of the creation of the vector histogram, determination of pan video, and calculation of the global vector 28 will be described with reference to FIG.

図4は、ベクトルヒストグラムの一例を示すものであり、X軸は例えば図3に示された検索ウィンドウ31の水平方向に対応し、Y軸は検索ウィンドウの垂直方向に対応する。すなわち本例では、グローバルベクトルの探索範囲は水平±5画素、垂直±2画素としている。図4に示されるように、現フレーム21の(検索ウィンドウ31または32と対応する)探索範囲のうち、動きベクトル25が通過した画素(座標)を1枚の現フレーム21の全体にわたってカウントし、画素(座標)毎に動きベクトルが通過した頻度の累積(カウント数)が求められる。パン判定・GV算出部26は、座標毎のカウント値と所定の閾値(例えば30000)とを比較し、ある現フレーム21に対応するベクトルヒストグラムにおいて閾値以上のカウント数を持つ座標が存在する場合、つまり、ある映像において同一の方向を向く動きベクトルが所定の閾値以上存在する場合には、当該映像がパン映像と判定する。この判定結果に応じて判定イネーブル信号27がパン判定・GV算出部26から出力される。この判定イネーブル信号27は、パン映像か否かの判定結果を示すのみならず、後述するように、パン映像において動きベクトルが良好に検出できない周辺領域の期間も示しており、当該周辺領域の期間は例えば「Hi」、それ以外は「Low」となる。   FIG. 4 shows an example of a vector histogram. For example, the X axis corresponds to the horizontal direction of the search window 31 shown in FIG. 3, and the Y axis corresponds to the vertical direction of the search window. That is, in this example, the search range of the global vector is horizontal ± 5 pixels and vertical ± 2 pixels. As shown in FIG. 4, within the search range (corresponding to the search window 31 or 32) of the current frame 21, the pixels (coordinates) through which the motion vector 25 has passed are counted over the entire current frame 21. Accumulation (count) of the frequency that the motion vector has passed for each pixel (coordinate) is obtained. The pan determination / GV calculation unit 26 compares the count value for each coordinate with a predetermined threshold value (for example, 30000), and when there is a coordinate having a count number equal to or greater than the threshold value in the vector histogram corresponding to a certain current frame 21. That is, when a motion vector pointing in the same direction in a certain video exists more than a predetermined threshold, the video is determined to be a pan video. A determination enable signal 27 is output from the pan determination / GV calculation unit 26 according to the determination result. The determination enable signal 27 not only indicates a determination result of whether or not the video is a pan video, but also indicates a period of a peripheral region where a motion vector cannot be detected well in the pan video, as will be described later. For example, “Hi”, otherwise “Low”.

更に、所定の閾値以上のカウント数を持つ座標のうち、最もカウント数が大きい座標、すなわちベクトルヒストグラムにおいて出現頻度が最も高い動きベクトルをグローバルベクトル28として設定する。図4の例では、丸41で囲まれた座標(−3,0)のカウント数が最大、すなわち出現頻度が最も高い動きベクトルであり、これがグローバルベクトル28として設定され出力される。   Further, among the coordinates having a count number equal to or greater than a predetermined threshold, the coordinate having the largest count number, that is, the motion vector having the highest appearance frequency in the vector histogram is set as the global vector 28. In the example of FIG. 4, the motion vector having the maximum count number of the coordinates (−3, 0) surrounded by the circle 41, that is, the highest appearance frequency, is set and output as the global vector 28.

尚、前述したように、パン映像においては映像の上下左右の端部を含む周辺領域では動きベクトルが0として検出されるか、あるいは誤って検出される可能性が高いので、当該周辺領域(例えば画面端から50画素分の領域)で検出された動きベクトルについては、上記ベクトルヒストグラム作成の際に除外するようにしてもよい。   Note that, as described above, in a pan video, a motion vector is detected as 0 in the peripheral area including the top, bottom, left, and right edges of the video, or is likely to be detected erroneously. The motion vector detected in the region of 50 pixels from the screen edge) may be excluded when the vector histogram is created.

実際の映像においては、図4のように動きが一方向に集中したベクトルヒストグラムは得られないケースがある。例えば背景がスクロールしている中で、注目物体がスクロール方向とは逆に動いているような場合には、例えば図5のように、ヒストグラムのピークが符号51及び52で示されるように2箇所存在するベクトルヒストグラムが得られる。ここで、符号51は例えば背景の動きを示すヒストグラムで、符号52は注目物体の動きを示すヒストグラムである。この場合では、背景と注目物体がそれぞれ別の動きをしているため、図4に示されるように1つのヒストグラムピークのみを用いて判定するのみではパン映像が良好に検出できない場合がある。その場合、例えば互いに異なる2つのヒストグラムのピーク(動きベクトルのカウント数が高い座標)を用い、それらのうち一方が所定の閾値以上で、他方が閾値以下である場合にパン映像と判定するようにしてもよい。   In an actual video, there is a case where a vector histogram in which movement is concentrated in one direction as shown in FIG. 4 cannot be obtained. For example, when the background is scrolling and the object of interest is moving in the direction opposite to the scrolling direction, the histogram has two peaks as shown by reference numerals 51 and 52 as shown in FIG. An existing vector histogram is obtained. Here, reference numeral 51 is, for example, a histogram indicating the movement of the background, and reference numeral 52 is a histogram indicating the movement of the object of interest. In this case, since the background and the object of interest are moving differently, as shown in FIG. 4, there is a case where a pan video cannot be detected satisfactorily only by making a determination using only one histogram peak. In that case, for example, two different histogram peaks (coordinates having a high motion vector count) are used, and when one of them is equal to or greater than a predetermined threshold and the other is equal to or less than the threshold, it is determined that the image is a pan video. May be.

パン判定・GV算出部26で得られた判定イネーブル信号27及びグローバルベクトル28は補間フレーム生成部29に入力される。補間フレーム生成部29では、判定イネーブル信号27が「Hi」の期間は、入力映像がパン映像であり、かつ周辺領域においては動きベクトルが良好に検出できないとして、動きベクトル検出部24で検出された動きベクトル25に代えて、入力されたグローバルベクトル28を用いて補間処理を行う。一方、判定イネーブル信号27が「Low」の期間は、良好に動きベクトルが検出可能な領域として、図3に示されたような動きベクトルを検出し、この動きベクトルに基づいて補間処理を行う。このようにして、パン映像の場合、映像の中央部の領域では検出された動きベクトル25を用いて補間処理を行い、映像端部を含む周辺領域ではグローバルベクトル28を用いて補間処理を行うように、補間フレーム生成部24における処理の内容が切換制御される。判定イネーブル信号27の生成の構成、並びに上記周辺領域への補間処理の詳細について、図6〜8を参照しつつ説明する。   The determination enable signal 27 and the global vector 28 obtained by the pan determination / GV calculation unit 26 are input to the interpolation frame generation unit 29. In the interpolation frame generation unit 29, during the period when the determination enable signal 27 is “Hi”, the motion vector detection unit 24 detects that the input video is a pan video and the motion vector cannot be detected well in the peripheral region. Instead of the motion vector 25, the input global vector 28 is used for interpolation processing. On the other hand, during a period when the determination enable signal 27 is “Low”, a motion vector as shown in FIG. 3 is detected as a region where a motion vector can be detected satisfactorily, and interpolation processing is performed based on this motion vector. Thus, in the case of pan video, interpolation processing is performed using the detected motion vector 25 in the central region of the video, and interpolation processing is performed using the global vector 28 in the peripheral region including the video edge. In addition, the content of processing in the interpolation frame generation unit 24 is controlled to be switched. The configuration for generating the determination enable signal 27 and the details of the interpolation processing to the surrounding area will be described with reference to FIGS.

補間フレーム生成時における画面端を含む周辺領域の破綻は、基本的には画面全体が大きくパンした際に目立つ。すなわち、動きが大きいパン映像では、周辺領域に関しては、例えば図3に示したような画素毎のマッチングもしくはブロックマッチング法では、前述した理由により正しい動きベクトルが検出できない。よって、パン映像における周辺領域の動きベクトルは、動き検出のためのアルゴリズムにもよるが、0もしくは本来の動きと異なるベクトルが検出される。   The failure of the peripheral area including the edge of the screen when generating the interpolation frame is basically noticeable when the entire screen is panned greatly. That is, in a pan video with a large amount of motion, a correct motion vector cannot be detected for the surrounding area by the pixel-by-pixel matching or the block matching method as shown in FIG. Therefore, the motion vector of the peripheral region in the pan video is detected as 0 or a vector different from the original motion, depending on the algorithm for motion detection.

例えば図6に示すイメージのように、画面全体が水平方向を向く矢印66の方向にパンしている映像の場合、画面左右における周辺領域61及び62が0ベクトルとなる。一方、周辺領域61及び62の画面中央寄りの境界63、64間の領域(画面中央の領域)65においては、周辺領域61及び62に比べて正しい動きベクトルが検出され易い。このため、画面中央の領域においては比較的正しい(入力されたオリジナルの映像との関連性が高い)補間処理が為されるため、周辺領域61及び62と中央領域65との境界が視覚的に認識され、視聴者にとって画質劣化と感じられる。ここで、周辺領域61及び62のように、動きベクトルが0(もしくは誤り)として検出される領域をZero-BANDと呼ぶこととする。また、上記した現象は垂直方向のパンする映像でも同様に認識される。この場合、画面上下端部分にZero-BANDが生成される。   For example, in the case of an image in which the entire screen is panned in the direction of an arrow 66 pointing in the horizontal direction as in the image shown in FIG. On the other hand, in a region 65 (region in the center of the screen) 65 between the peripheral regions 61 and 62 near the center of the screen (region in the center of the screen), it is easier to detect a correct motion vector than in the peripheral regions 61 and 62. For this reason, since the interpolation process is relatively correct (highly related to the input original video) in the center area of the screen, the boundary between the peripheral areas 61 and 62 and the central area 65 is visually determined. It is recognized and the viewer feels image quality degradation. Here, a region in which the motion vector is detected as 0 (or an error) like the peripheral regions 61 and 62 is referred to as Zero-BAND. In addition, the above phenomenon is recognized in the same way even in a video panning in the vertical direction. In this case, Zero-BAND is generated at the upper and lower ends of the screen.

Zero-BANDの幅は、動きベクトル探索範囲(すなわち図3に示された検索ウィンドウ31または32)の大きさと、パン映像におけるパンのスピードから決まる。ここでパンのスピードは、単位時間(1フレーム(1垂直周期))当たりに画面が移動する画素数とする。このZero-BANDの幅の決め方について、図7を参照しつつ以下に説明する。   The width of Zero-BAND is determined by the size of the motion vector search range (that is, the search window 31 or 32 shown in FIG. 3) and the pan speed in the pan video. Here, the panning speed is the number of pixels that the screen moves per unit time (one frame (one vertical cycle)). How to determine the width of this Zero-BAND will be described below with reference to FIG.

図7は水平方向に動くパン映像において、中央部71の周辺領域にグレーで示されたZero-BAND72が発生している様子を示している。それ以外の領域にはZero-BAND72が発生していないものとする。ここで、パンの方向が水平方向のみとして考え、図7において、動きベクトル探索範囲31(32)の水平方向の幅(探索範囲31の中心を基準にした幅)を±Xd、水平方向のパンのスピードをXv(≧Xd)、画面の左端または右端からある補間画素(補間位置)30までの距離をLxとする。ここで、パンのスピードXvは、例えば単位時間(1フレーム期間)において映像が動いた画素数であり、グローバルベクトル28が用いられる。   FIG. 7 shows a state in which a Zero-BAND 72 shown in gray is generated in a peripheral region of the central portion 71 in a pan video moving in the horizontal direction. It is assumed that Zero-BAND 72 does not occur in other areas. Here, assuming that the pan direction is only the horizontal direction, in FIG. 7, the horizontal width of the motion vector search range 31 (32) (the width based on the center of the search range 31) is ± Xd, and the horizontal pan Xv (≧ Xd), and the distance from the left or right end of the screen to an interpolation pixel (interpolation position) 30 is Lx. Here, the pan speed Xv is, for example, the number of pixels in which the video has moved in a unit time (one frame period), and the global vector 28 is used.

図3で示されたような画素毎のマッチングまたはブロックマッチング方式を用いて動きベクトルを探索する場合、画面両端に現れる水平方向のZero-BAND72の幅Z_htは、下記の数1で表される。   When searching for a motion vector using the pixel-by-pixel matching or the block matching method as shown in FIG. 3, the width Z_ht of the horizontal Zero-BAND 72 appearing at both ends of the screen is expressed by the following equation (1).

Figure 0004951487
Figure 0004951487

ここで、MIN(Lx,Xv)とは、LxとXvのいずれか小さい方が選択されることを意味する。数1から明らかなように、水平方向のZero-BAND72は、画面端から補間位置30までの距離Lxが動きベクトル探索範囲31(32)の幅Xd以上のときは存在せず、距離Lxが幅Xdよりも小さいときは、距離Lxまたは水平方向のパンスピードXvのいずれか小さいほうとなる。また、Zero-BAND72はパン映像においてその存在が目立つため、パンのスピードXvが0のときは、Zero-BAND72は発生しない。更に、動きベクトル探索範囲31(32)の幅Xdを超える動きは検出不可能なため、水平方向のZero-BAND72の最大値は幅Xd(=Xv(max))となる。   Here, MIN (Lx, Xv) means that the smaller one of Lx and Xv is selected. As is clear from Equation 1, the zero-band 72 in the horizontal direction does not exist when the distance Lx from the screen edge to the interpolation position 30 is greater than or equal to the width Xd of the motion vector search range 31 (32), and the distance Lx is the width. When it is smaller than Xd, the distance Lx or the horizontal pan speed Xv is smaller. In addition, since the presence of the Zero-BAND 72 is conspicuous in the pan video, the Zero-BAND 72 does not occur when the pan speed Xv is 0. Furthermore, since a motion exceeding the width Xd of the motion vector search range 31 (32) cannot be detected, the maximum value of the Zero-BAND 72 in the horizontal direction is the width Xd (= Xv (max)).

垂直方向に動くパン映像においても、上記と同様に垂直方向のZero-BAND72の幅Z_vtを求めることができる。すなわち、動きベクトル探索範囲73の垂直方向の幅を±Yd、垂直方向のパンのスピードをYv(≧Yd)、画面端から補間位置30までの距離をLyとすると、下記数2のように表される。尚、パンのスピードXyは、図4に示されたヒストグラムによって求められたグローバルベクトル28を用いられる。   Also in the pan video moving in the vertical direction, the width Z_vt of the zero-band 72 in the vertical direction can be obtained in the same manner as described above. That is, if the vertical width of the motion vector search range 73 is ± Yd, the vertical panning speed is Yv (≧ Yd), and the distance from the screen edge to the interpolation position 30 is Ly, the following equation 2 is obtained. Is done. The global speed 28 obtained from the histogram shown in FIG. 4 is used as the panning speed Xy.

Figure 0004951487
Figure 0004951487


ここで、MIN(Ly,Yv)とは、LyとYvのいずれか小さい方が選択されることを意味する。数2から明らかなように、垂直方向のZero-BAND72は、画面端から補間位置30までの距離Lyが動きベクトル探索範囲31(32)の幅Yd以上のときは存在せず、距離Lyが幅Ydよりも小さいときは、距離Lyまたは垂直方向のパンスピードYvのいずれか小さいほうとなる。また、Zero-BAND72はパン映像においてその存在が目立つため、パンのスピードYvが0のときは、垂直方向のZero-BAND72は発生しない。更に、動きベクトル探索範囲31(32)の幅Ydを超える動きは検出不可能なため垂直方向の、Zero-BAND72の最大値は幅Yd(=Xy(max))となる。

Here, MIN (Ly, Yv) means that the smaller one of Ly and Yv is selected. As apparent from Equation 2, the zero-band 72 in the vertical direction does not exist when the distance Ly from the screen edge to the interpolation position 30 is equal to or larger than the width Yd of the motion vector search range 31 (32), and the distance Ly is the width. When it is smaller than Yd, the distance Ly or the vertical pan speed Yv is smaller. In addition, since the presence of the Zero-BAND 72 is conspicuous in the pan video, the Zero-BAND 72 in the vertical direction does not occur when the pan speed Yv is 0. Furthermore, since a motion exceeding the width Yd of the motion vector search range 31 (32) cannot be detected, the maximum value of the Zero-BAND 72 in the vertical direction is the width Yd (= Xy (max)).

パン判定・GV算出部26は、上記数1及び数2を用いて上述した演算を行い、水平方向のZero-BAND72に対応する判定イネーブル信号27h、及び垂直方向のZero-BAND72に対応する判定イネーブル信号27vを生成する。図7に示されるように、判定イネーブル信号27hのHiの期間は水平方向のZero-BAND72の幅Z_htと一致しており、また判定イネーブル信号27vのHiの期間は垂直方向のZero-BAND72の幅Z_vtと一致している。このようにして得られた判定イネーブル信号27h及び28vは補間フレーム生成部29に供給される。補間フレーム生成部29は、前述したように、判定イネーブル信号27h及び28vが「Hi」のときはグローバルベクトルを用いて補間処理を行い、「Low」のときは検出された動きベクトル25を用いて補間処理を行うように、判定イネーブル信号のレベルに応じて補間処理を切り換える。   The pan determination / GV calculation unit 26 performs the above-described calculation using the above equations 1 and 2, and the determination enable signal 27h corresponding to the horizontal zero-band 72 and the determination enable corresponding to the vertical zero-band 72. A signal 27v is generated. As shown in FIG. 7, the Hi period of the determination enable signal 27h matches the width Z_ht of the Zero-BAND 72 in the horizontal direction, and the Hi period of the determination enable signal 27v is the width of the Zero-BAND 72 in the vertical direction. It matches Z_vt. The determination enable signals 27h and 28v obtained in this way are supplied to the interpolation frame generation unit 29. As described above, the interpolation frame generation unit 29 performs the interpolation process using the global vector when the determination enable signals 27h and 28v are “Hi”, and uses the detected motion vector 25 when the determination enable signals 27h and 28v are “Low”. The interpolation process is switched according to the level of the determination enable signal so that the interpolation process is performed.

ここで、パンの動き量の大きさによっては、Zero-BANDは目立たない場合がある。よって、予め所定閾値TH_Zを設定しておき、パン判定・GV算出部26は、パンのスピードXv(またはYv)が閾値TH_Zよりも大きいとき(つまりパンの動き量が大きいとき)のみ、上記判定イネーブル信号27及びグローバルベクトル28を出力する構成としてもよい。   Here, Zero-BAND may not stand out depending on the amount of pan movement. Therefore, the predetermined threshold TH_Z is set in advance, and the pan determination / GV calculation unit 26 determines the above only when the pan speed Xv (or Yv) is larger than the threshold TH_Z (that is, when the pan movement amount is large). The enable signal 27 and the global vector 28 may be output.

続いて、上記判定イネーブル信号27及びグローバルベクトル28を用いた補間フレーム生成部29における補間処理並びに補間フレームの生成について、図8を用いて説明する。図8は、グローバルベクトル28が右から左の方向に向かうパン映像において、前フレーム21と現フレーム22との間に、1枚の補間フレーム20を挿入する様子を示している。また、この例では、物体84が前フレーム21では出現せず現フレーム22で初めて出現した、つまり前フレーム21と現フレーム22の2フレーム間で物体84が画面右側から入ってくるものとする。更に、物体85が前フレーム21では出現しているがフレーム22で消える、つまり前フレーム21と現フレーム22の2フレーム間で物体85が画面左側から出て行くものとする。   Next, interpolation processing and interpolation frame generation in the interpolation frame generation unit 29 using the determination enable signal 27 and the global vector 28 will be described with reference to FIG. FIG. 8 shows a state in which one interpolation frame 20 is inserted between the previous frame 21 and the current frame 22 in a pan video in which the global vector 28 is directed from the right to the left. In this example, it is assumed that the object 84 does not appear in the previous frame 21 but first appears in the current frame 22, that is, the object 84 enters from the right side of the screen between the two frames of the previous frame 21 and the current frame 22. Furthermore, it is assumed that the object 85 appears in the previous frame 21 but disappears in the frame 22, that is, the object 85 exits from the left side of the screen between the previous frame 21 and the current frame 22.

補間フレーム生成部29は、図8に示されるように、判定イネーブル信号27のLow期間(Zero-BAND72ではない期間)では、動きベクトル検出部24からの動きベクトル25を用い、この動きベクトル25で指し示される前フレーム21と現フレーム22の画素データの例えば平均を算出することで動き補正された補間画素を生成する。   As shown in FIG. 8, the interpolation frame generation unit 29 uses the motion vector 25 from the motion vector detection unit 24 in the Low period (period other than Zero-BAND 72) of the determination enable signal 27. By calculating, for example, the average of the pixel data of the indicated previous frame 21 and the current frame 22, an interpolation pixel subjected to motion correction is generated.

一方、水平方向のZero-BAND72の幅に対応する判定イネーブル信号27がHiの期間では、グローバルベクトル28を用いて補間画素を生成するとともに、このグローバルベクトル28の方向とZero-BAND72の位置に応じて補間処理を異ならせる。   On the other hand, during the period when the determination enable signal 27 corresponding to the width of the Zero-BAND 72 in the horizontal direction is Hi, an interpolation pixel is generated using the global vector 28, and in accordance with the direction of the global vector 28 and the position of the Zero-BAND 72. Different interpolation processing.

例えば、図8に示すようにグローバルベクトル28が画面に向かって右から左の方向であったので、画面の右側から入ってくる物体84、つまり画面右側のZero-BAND72のエリアに関しては、次のように補間画素を生成する。   For example, as shown in FIG. 8, since the global vector 28 is in the right-to-left direction toward the screen, the object 84 that enters from the right side of the screen, that is, the area of the zero-band 72 on the right side of the screen, Interpolated pixels are generated as follows.

まず、ある補間画素Paと線対称の位置(当該補間画素と空間的に同じ位置)にある現フレーム22側の画素P1を定める。続いて、この画素P1からグローバルベクトル28が示す方向に位置し、かつ、このグローバルベクトル28の長さ(距離)だけずらした位置の画像P2を特定する。そして、上記ある補間画素のデータを、この画素P2の画素データから補間する。すなわち、この補間処理は、ある補間画素とそれと線対称の位置にある画素P1とを結ぶ直線と、グローバルベクトル28とを合成して新たな周辺補間用ベクトル86を生成し、この周辺補間用ベクトル86が指し示す現フレーム22の画素P2をそのまま用いて補間画素を生成するものである。尚、この補間処理においては、前フレーム21は使用しない。このような補間処理を、ここでは、現フレーム片側補間と呼ぶこととする。   First, a pixel P1 on the current frame 22 side that is in a line-symmetrical position with respect to a certain interpolation pixel Pa (spatially same position as the interpolation pixel) is determined. Subsequently, an image P2 located from the pixel P1 in the direction indicated by the global vector 28 and shifted by the length (distance) of the global vector 28 is specified. Then, the interpolation pixel data is interpolated from the pixel data of the pixel P2. In other words, this interpolation processing generates a new peripheral interpolation vector 86 by synthesizing the global vector 28 with a straight line connecting a certain interpolation pixel and the pixel P1 that is in a line-symmetric position with this, and this peripheral interpolation vector. The interpolation pixel is generated using the pixel P2 of the current frame 22 indicated by 86 as it is. In this interpolation process, the previous frame 21 is not used. Such an interpolation process is referred to herein as current frame one-sided interpolation.

一方、画面左側から消えていく物体85、つまり画面左側のZero-BAND72のエリアに関しては、次のように補間画素を生成する。   On the other hand, for the object 85 disappearing from the left side of the screen, that is, the area of Zero-BAND 72 on the left side of the screen, interpolation pixels are generated as follows.

まず、ある補間画素Pbと線対称の位置にある前フレーム21側の画素P3を定める。続いて、この画素P3からグローバルベクトル28と逆方向(正反対)のベクトル28’の方向に位置し、かつ、このグローバルベクトル28の長さ(距離)だけずらした位置の画像P4を特定する。そして、上記ある補間画素のデータを、この画素P4の画素データから補間する。すなわち、この補間処理は、ある補間画素とそれと線対称の位置にある画素P1とを結ぶ直線と、グローバルベクトル28の方向と逆方向であって、グローバルベクトル28とを合成して新たな周辺補間用ベクトル87を生成し、この周辺補間用ベクトル87が指し示す前フレーム21の画素P4をそのまま用いて補間画素を生成するものである。この補間処理においては、現フレーム22は使用しない。このような補間処理を、ここでは、前フレーム片側補間と呼ぶこととする。ここで、画面左側のZero-BAND72のエリアについての補間処理では、動きの時間的な流れと逆方向にある前フレーム21から補間しているので、グローバルベクトル28が示す方向とは逆方向のベクトルを用いている。   First, a pixel P3 on the previous frame 21 side that is in a line symmetry with a certain interpolation pixel Pb is determined. Subsequently, an image P4 is specified that is located in the direction of the vector 28 'in the opposite direction (directly opposite) from the global vector 28 and shifted by the length (distance) of the global vector 28 from the pixel P3. Then, the interpolation pixel data is interpolated from the pixel data of the pixel P4. That is, this interpolation processing is performed by synthesizing a new line of peripheral interpolation by synthesizing the global vector 28 in a direction opposite to the direction of the global vector 28 and a straight line connecting a certain interpolated pixel and the pixel P1 that is in line symmetry with the interpolated pixel. A vector 87 is generated, and an interpolation pixel is generated using the pixel P4 of the previous frame 21 indicated by the peripheral interpolation vector 87 as it is. In this interpolation process, the current frame 22 is not used. Such an interpolation process is herein referred to as previous frame one-sided interpolation. Here, in the interpolation processing for the area of the zero-band 72 on the left side of the screen, since interpolation is performed from the previous frame 21 in the direction opposite to the temporal flow of motion, the vector in the direction opposite to the direction indicated by the global vector 28 is used. Is used.

図8の例とは逆に、グローバルベクトル28が左から右の方向に向かうパン映像、すなわち物体84が画面左側から入ってくるとともに物体85が画面右側から出て行く映像の場合は、上記の例とは反対の処理を行えばよい。すなわち、画面右側のZero-BAND72のエリアについては前フレーム片側補間を行い、画面左側のZero-BAND72のエリアについては現フレーム片側補間を行う。更にまた、画面全体が下から上へ動くパン映像、すなわち物体84が画面下側から入ってくるとともに物体85が画面上側から出て行く映像の場合は、画面下側のZero-BAND72のエリアについては現フレーム片側補間を行い、画面上側のZero-BAND72のエリアについては前フレーム片側補間を行う。画面全体が上から下へ動くパン映像の場合は、これとは逆になる。   Contrary to the example of FIG. 8, when the global vector 28 is panned from the left to the right, that is, when the object 84 enters from the left side of the screen and the object 85 exits from the right side of the screen, The processing opposite to the example may be performed. That is, the previous frame one-sided interpolation is performed for the area of Zero-BAND 72 on the right side of the screen, and the current frame one-sided interpolation is performed for the area of Zero-BAND 72 on the left side of the screen. Furthermore, in the case of a panning image in which the entire screen moves from bottom to top, that is, an image in which the object 84 enters from the bottom of the screen and the object 85 exits from the top of the screen, the area of the zero-band 72 at the bottom of the screen Performs one-side interpolation of the current frame and performs one-side interpolation of the previous frame for the area of Zero-BAND 72 on the upper side of the screen. The opposite is true for panning where the entire screen moves from top to bottom.

上記の例では、現フレーム21または前フレーム22から補間する際に、グローバルベクトル28の大きさをそのまま用いたが、必要に応じてグローバルベクトル28の長さを調整(例えば長さを半分に)して用いてもよい。   In the above example, when the current frame 21 or the previous frame 22 is interpolated, the size of the global vector 28 is used as it is, but the length of the global vector 28 is adjusted as necessary (for example, the length is halved). May be used.

このように、本実施例では、映像が全体的に左右(または上下)の一方から他方に向けて動く場合、すなわちグローバルベクトル28が一方から他方に向く場合、一方側の周辺領域(Zero-BAND72)について現フレーム順方向補間を行い、他方側の周辺領域について前フレーム逆方向補間を行う。尚、グローバルベクトル28が斜め方向の場合、このグローバルベクトル28を水平方向成分と垂直方向成分に分け、各成分のベクトルを用いて上下の周辺領域と左右の周辺領域について個別に補間処理を行ってもよい。   As described above, in this embodiment, when the video moves from one side to the other side (or up and down) as a whole, that is, when the global vector 28 is directed from one side to the other, the peripheral region on one side (Zero-BAND72 ) For the current frame forward interpolation, and backward interpolation for the previous frame for the other peripheral region. When the global vector 28 is oblique, the global vector 28 is divided into a horizontal component and a vertical component, and interpolation processing is separately performed for the upper and lower peripheral regions and the left and right peripheral regions using the respective component vectors. Also good.

以上のように本実施例によれば、パン映像の場合には、周辺町域の補間処理を、上述したマッチング処理により得られた動きベクトルに代えて映像全体の動きを示すグローバルベクトルを用いて行うようにしているので、当該周辺領域における映像の破綻を軽減させることが可能となる。従って、本実施例によれば、パン映像でも高画質なフレームレート変換を行うことができる。また本実施例では、グローバルベクトルの方向と周辺領域の位置に応じて補間処理を切り換えているので、更に精度の良い補間処理を行うことができる。   As described above, according to the present embodiment, in the case of a pan video, the interpolation processing of the surrounding town area is replaced with the global vector indicating the motion of the entire video instead of the motion vector obtained by the matching processing described above. Since this is performed, it is possible to reduce the failure of the video in the peripheral area. Therefore, according to the present embodiment, frame rate conversion with high image quality can be performed even for panned video. In this embodiment, since the interpolation processing is switched according to the direction of the global vector and the position of the peripheral region, it is possible to perform interpolation processing with higher accuracy.

次に、本発明に係る第2実施例について図9及び図10を参照しつつ説明する。図9は、FRC13の第2実施例を示すブロック図であり、図2に示した構成要素と同一の構成要素に関しては、同一の符号を付してその説明を省略する。   Next, a second embodiment according to the present invention will be described with reference to FIGS. FIG. 9 is a block diagram showing a second embodiment of the FRC 13, and the same components as those shown in FIG. 2 are denoted by the same reference numerals and description thereof is omitted.

本実施例は、図9に示されるように、図1の実施例に、入力映像信号から動画映像エリアと静止映像エリアを検出し、その境界位置に関する情報を出力する静止映像エリア検出部91を設けたものである。ここで、静止映像エリアとは、例えば図10の右側に示されるように、データ放送等による文字やデータが表示されるエリア101であるものとする。この静映像エリア101の左側にはパン映像の動画102が表示され、静映像エリア101と動画102とが境界103で区分けされているものとする。つまり、本実施例は、動画映像と静止映像とが合成された映像をフレームレート変換処理する際に用いられるものである。   In this embodiment, as shown in FIG. 9, in the embodiment of FIG. 1, a still image area detecting unit 91 that detects a moving image area and a still image area from an input image signal and outputs information on the boundary position is provided. It is provided. Here, it is assumed that the still image area is an area 101 where characters and data by data broadcasting or the like are displayed, as shown on the right side of FIG. It is assumed that a panning video 102 is displayed on the left side of the still picture area 101 and the still picture area 101 and the moving picture 102 are separated by a boundary 103. That is, the present embodiment is used when frame rate conversion processing is performed on a video obtained by combining a moving image and a still video.

このような映像では、動画102がパン映像であるにも関わらず、動きベクトルが0の静止映像エリア101が存在するために当該映像がパン映像と検出されない可能性がある。また、パン映像が検出できた場合、静止静映像エリア101に表示される映像が静止画であるにも関わらず、グローバルベクトルで補間処理が為されるため、静止静映像エリア101の静止画について誤った補間が為される場合がある。   In such a video, although the moving image 102 is a pan video, there is a possibility that the video is not detected as a pan video because the still video area 101 having a motion vector of 0 exists. In addition, when the pan video is detected, the interpolation process is performed with the global vector even though the video displayed in the still and still video area 101 is a still image. Incorrect interpolation may occur.

これを解消するために、本実施例では、静止映像エリア検出部91により静映像エリア101と動画102との境界103を検出し、これに基づき判定イネーブル信号を生成するように構成したものである。例えば図10のような映像の場合、静止静映像エリア101は動画102に比べて輝度が大きく異なっており(例えば静止静映像エリア101は動画102よりも高輝度)、動画102との輝度差(水平エッジ)が顕著となる。静止映像エリア検出部91は、このエッジの存在する水平方向位置をライン単位で検出し、それを境界103の情報としてパン判定・GV算出部26に供給する。パン判定・GV算出部26では、静止映像エリア検出部91からの境界103の情報に基づき、図10に示されるような判定イネーブル信号104を発生して補間フレーム生成部29出力する。かかる判定イネーブル信号92は、図10に示されるように、動画102の範囲内において動画102の両端を含む周辺領域でHiとなっており、境界103よりも静止静映像エリア101側においてはLowとなっている。すなわち、パン検出・GV検出部26は、境界103の情報により、静止画である文字、データ表示部分を除いた映像の周辺領域に対してZero-BANDを示す判定イネーブル信号104を生成し出力する。   In order to solve this problem, in this embodiment, the still image area detecting unit 91 detects the boundary 103 between the still image area 101 and the moving image 102 and generates a determination enable signal based on the detected boundary 103. . For example, in the case of a video as shown in FIG. 10, the still and still image area 101 is greatly different in luminance from the moving image 102 (for example, the still and still image area 101 has a higher luminance than the moving image 102), and the luminance difference ( Horizontal edge) becomes prominent. The still image area detection unit 91 detects the horizontal position where the edge exists in units of lines, and supplies the detected position to the pan determination / GV calculation unit 26 as information on the boundary 103. The pan determination / GV calculation unit 26 generates a determination enable signal 104 as shown in FIG. 10 based on the information on the boundary 103 from the still image area detection unit 91 and outputs the determination enable signal 104 to the interpolation frame generation unit 29. As shown in FIG. 10, the determination enable signal 92 is Hi in the peripheral area including both ends of the moving image 102 within the range of the moving image 102, and is Low on the still and still image area 101 side from the boundary 103. It has become. That is, the pan detection / GV detection unit 26 generates and outputs a determination enable signal 104 indicating Zero-BAND with respect to the peripheral area of the video excluding the characters and the data display portion that are still images based on the information of the boundary 103. .

これにより、補間フレーム生成部29は、判定イネーブル信号104がHiの期間に対応する動画102の左右両端を含む周辺領域については、第1実施例と同様なグローバルベクトルを用いた補間処理を行う。Lowの期間は動きベクトル検出部24で検出された動きベクトルを用いて補間処理を行う。尚、静止映像エリア101における動きベクトルは0なので、補間フレームの静止映像エリア101に対応する補間画素またはブロックについては、前フレームの、当該補間画素またはブロックと空間的な位置が同じ補間画素またはブロックから補間データを作成する。   As a result, the interpolation frame generation unit 29 performs the same interpolation process using the global vector as in the first embodiment for the peripheral area including the left and right ends of the moving image 102 corresponding to the period in which the determination enable signal 104 is Hi. During the Low period, interpolation processing is performed using the motion vector detected by the motion vector detection unit 24. Since the motion vector in the still image area 101 is 0, the interpolation pixel or block corresponding to the still image area 101 in the interpolation frame has the same spatial position as the interpolation pixel or block in the previous frame. Create interpolation data from

また、静止映像エリア検出部91に図示しないラインメモリを設け、このラインメモリに映像の1または複数ライン分の映像データを記憶させれば、複数のライン間の輝度差を検出することができる。すなわち、このような構成によれば、ライン間の輝度差、つまり垂直方向の境界(垂直エッジ)を検出することができ、動画102の垂直方向のZero-BANDを示す判定イネーブル信号を生成することができる。   Further, if a line memory (not shown) is provided in the still video area detection unit 91 and video data for one or more lines of video is stored in the line memory, a luminance difference between the plurality of lines can be detected. That is, according to such a configuration, it is possible to detect a luminance difference between lines, that is, a vertical boundary (vertical edge), and generate a determination enable signal indicating the zero-band of the moving image 102 in the vertical direction. Can do.

このように、本実施例では、動画映像に静止映像が合成された映像であって該動画映像がパン映像の場合でも、動画映像の周辺領域についてグローバルベクトルを用いて補間処理を行うことができ、更に静止映像については動き補正がされないように補間処理をすることができる。よって本実施例によれば、上記のようなパン映像を含む合成映像であっても高画質なフレームレート変換処理を行うことが可能となる。   As described above, in this embodiment, even when the video is a video in which a still video is combined with the video, and the video is a pan video, interpolation processing can be performed on the peripheral area of the video using a global vector. Furthermore, interpolation processing can be performed so that motion correction is not performed on still images. Therefore, according to the present embodiment, it is possible to perform a high-quality frame rate conversion process even for a composite video including a pan video as described above.

次に、本発明に係る第3実施例について図11及び図12を参照しつつ説明する。本実施例は、映像の周辺領域、例えば映像の左側と右側または上側と下側で、個別にグローバルベクトルを検出することを特徴とするものである。すなわち本実施例は、上記パン判定・GV算出部26におけるZero-BANDの判定イネーブル信号27、及びグローバルベクトル28の出力を、映像の左側と右側または上側と下側にそれぞれ対応する2系統設けたものである。   Next, a third embodiment according to the present invention will be described with reference to FIGS. The present embodiment is characterized in that global vectors are individually detected in the peripheral area of the video, for example, the left and right sides or the upper and lower sides of the video. That is, in this embodiment, two systems corresponding to the left and right sides or the upper side and the lower side of the video are provided for the zero-band determination enable signal 27 and the output of the global vector 28 in the pan determination / GV calculation unit 26, respectively. Is.

上述したように、映像の端部においては動きベクトルが0または誤ったベクトルとして検出される(以下、このような検出をエラー検出と称する)。このため本実施例では、エラー検出が生じやすい映像端部を除く周辺領域から動きベクトルを検出してグローバルベクトルを設定するものである。本実施例に係るグローバルベクトル設定の概念を図11に示す。図11は、水平方向の左右両側にグローバルベクトルを設定する例を示しており、映像端部に近接する第1周辺領域110及び111は、前述したエラー検出が発生しやすい領域である。この第1周辺領域110及び111は、それぞれ、例えば映像端から50画素分の幅を持つものとする。一方、第1周辺領域110及び111の映像中央領域116側に隣接する第2周辺領域112及び113は、第1周辺領域よりもエラー検出の頻度が少ないと考えられる領域で有り、それぞれ、例えば200〜300画素分の幅を持つものとする。   As described above, the motion vector is detected as 0 or an incorrect vector at the end of the video (hereinafter, such detection is referred to as error detection). For this reason, in this embodiment, a global vector is set by detecting a motion vector from a peripheral region excluding a video end portion where error detection is likely to occur. FIG. 11 shows the concept of global vector setting according to the present embodiment. FIG. 11 shows an example in which global vectors are set on both the left and right sides in the horizontal direction, and the first peripheral areas 110 and 111 close to the video edge are areas where error detection is likely to occur. Each of the first peripheral areas 110 and 111 has a width of, for example, 50 pixels from the video end. On the other hand, the second peripheral regions 112 and 113 adjacent to the video central region 116 side of the first peripheral regions 110 and 111 are regions that are considered to have a lower frequency of error detection than the first peripheral region. It shall have a width of ~ 300 pixels.

パン判定・GV算出部26は、第2周辺領域112及び113のそれぞれについて、で第1実施例のように検出された動きベクトルを用いて図4に示されたようなベクトルヒストグラムを作成する。このときパン判定・GV算出部26は、上記第1周辺領域110及び111ではエラー検出が生じるので、ここで検出された動きベクトルはベクトルヒストグラムの作成から除外する。そしてパン判定・GV算出部26は、第2周辺領域112及び113のそれぞれにおいて、上述のように、所定閾値以上であって、かつ最も出現頻度の高い動きベクトルをグローバルベクトル114、115として設定する。ここで、グローバルベクトル114は映像の左側に位置する第2周辺領域112に対応するグローバルベクトルであり、グローバルベクトル115は映像の右側に位置する第2周辺領域113に対応するグローバルベクトルである。   The pan determination / GV calculation unit 26 creates a vector histogram as shown in FIG. 4 for each of the second peripheral regions 112 and 113 using the motion vector detected as in the first embodiment. At this time, the pan determination / GV calculation unit 26 detects an error in the first peripheral regions 110 and 111, and excludes the detected motion vector from the creation of the vector histogram. Then, in each of the second peripheral regions 112 and 113, the pan determination / GV calculation unit 26 sets motion vectors that are equal to or higher than the predetermined threshold and have the highest appearance frequency as the global vectors 114 and 115, as described above. . Here, the global vector 114 is a global vector corresponding to the second peripheral area 112 located on the left side of the video, and the global vector 115 is a global vector corresponding to the second peripheral area 113 located on the right side of the video.

そしてパン判定・GV算出部26は、上記2つのグローバルベクトル114及び115と、このグローバルベクトルを用いて得られた2つの判定イネーブル信号を補間フレーム生成部24に出力する。補間フレーム生成部24は、これら2組のグローバルベクトル及び判定イネーブル信号を用いて、第2周辺領域112及び113のそれぞれについて、図8に示されたような方法を用いて個別に補間処理を行う。   Then, the pan determination / GV calculation unit 26 outputs the two global vectors 114 and 115 and the two determination enable signals obtained by using the global vectors to the interpolation frame generation unit 24. The interpolation frame generation unit 24 performs interpolation processing individually for each of the second peripheral regions 112 and 113 using the method shown in FIG. 8 using the two sets of global vectors and the determination enable signal. .

このように本実施例では、第1周辺領域110及び111で検出された動きベクトルはグローバルベクトルの設定に使用されないようにし、第2周辺領域112及び113検出された動きベクトルを用いて画面右側と左側とで個別にグローバルベクトルを設定している。これによって、本実施例は、例えば映像右半分は全体的に左から右に動き、映像左半分は逆に右から左に動くようなパン映像でも、より正確にグローバルベクトルを設定でき、また複雑な動きに対応した精度良い補間処理を行うことができる。   As described above, in this embodiment, the motion vectors detected in the first peripheral regions 110 and 111 are not used for setting the global vector, and the motion vectors detected in the second peripheral regions 112 and 113 are used as the right side of the screen. A global vector is set separately for the left side. As a result, this embodiment can set the global vector more accurately, for example, even in a pan video where the right half of the video moves from left to right as a whole and the left half of the video moves from right to left. Accurate interpolation processing corresponding to various movements can be performed.

尚、図11では、映像の左右両側にそれぞれグローバルベクトルを設定する例を示したが、上下にそれぞれグローバルベクトルを設定してもよい。この場合は、図11に示された映像の上下のそれぞれに第1周辺領域及び第2周辺領域を設定する。更に、映像の上下左右の4箇所にそれぞれ第1周辺領域及び第2周辺領域を設けるとともに、パン判定・GV算出部26からのグローバルベクトル及び判定イネーブル信号の出力を4系統設け、当該4つの領域において個別にグローバルベクトルを設定し、補間処理を行うようにしてもよい。   Although FIG. 11 shows an example in which global vectors are set on both the left and right sides of the video, global vectors may be set on the top and bottom. In this case, a first peripheral area and a second peripheral area are set at the top and bottom of the video shown in FIG. Further, a first peripheral region and a second peripheral region are provided at four locations on the top, bottom, left, and right of the video, respectively, and four global vectors and determination enable signal outputs from the pan determination / GV calculation unit 26 are provided. Alternatively, a global vector may be set individually to perform interpolation processing.

更にまた、この第3実施例を応用し、映像全体の動きベクトルから設定されたグローバルベクトル117を用いて、パン映像において、第2周辺領域112及び113のそれぞれにおいて個別に設定されたグローバルベクトル114及び115の信頼性を確認するようにしてもよい。すなわち、この応用例では、周辺領域のグローバルベクトル114または115と映像中央領域116のグローバルベクトル117との相違を検出し、この相違に応じて周辺領域のグローバルベクトルの信頼性を判定する。例えば、グローバルベクトル114はグローバルベクトル117と同じ向きを示しているので信頼性が高いと判定し、グローバルベクトル115はグローバルベクトル117と逆の向きを示しているので信頼性が低いと判定する。   Furthermore, by applying the third embodiment, a global vector 114 set individually in each of the second peripheral regions 112 and 113 in the pan video using the global vector 117 set from the motion vector of the entire video. And the reliability of 115 may be confirmed. That is, in this application example, the difference between the global vector 114 or 115 in the peripheral area and the global vector 117 in the video central area 116 is detected, and the reliability of the global vector in the peripheral area is determined according to this difference. For example, since the global vector 114 indicates the same direction as the global vector 117, it is determined that the reliability is high, and since the global vector 115 indicates the opposite direction to the global vector 117, it is determined that the reliability is low.

信頼性が高いと判定されたグローバルベクトル114に対応する映像左側の領域については、当該グローバルベクトル114または117を用いて前述した前フレーム片側補間を行う。一方、信頼性が低いと判定されたグローバルベクトル115に対応する映像左側の領域については、当該左側で動きベクトル検出部24により検出された動きベクトル25で、もしくは動きベクトルを0として補間処理を行う。動きベクトルが0の場合の補間処理は、すなわち、ある補間画素またはブロックと線対称の位置にある(当該補間画素と空間的に同じ位置にある)前もしくは現フレームの画素から補間を行う処理である。あるいは、これらを混合した補間処理を行う。このように処理をするのは、図11において映像左側の動きが映像中央領域116に対して反対の動きであるので、当該映像左側は、パンによるZero-BAND発生可能性が低いと考えられるためである。   For the region on the left side of the video corresponding to the global vector 114 determined to have high reliability, the above-described previous frame one-side interpolation is performed using the global vector 114 or 117. On the other hand, with respect to the region on the left side of the video corresponding to the global vector 115 determined to have low reliability, interpolation processing is performed with the motion vector 25 detected by the motion vector detection unit 24 on the left side or with the motion vector set to 0. . Interpolation processing when the motion vector is 0 is processing that performs interpolation from a previous or current frame pixel that is in a line-symmetric position with a certain interpolation pixel or block (which is spatially the same position as the interpolation pixel). is there. Alternatively, an interpolation process in which these are mixed is performed. Since the movement on the left side of the image in FIG. 11 is the opposite movement to the image center area 116 in FIG. 11, the left side of the image is considered to have a low possibility of the occurrence of Zero-BAND due to panning. It is.

前記信頼性は、画面中央領域116のグローバルベクトル117に対して正反対か否かによってのみ判定されるものではない。例えば映像の動き方向を図12のように4つの領域(領域1〜4)に分け、ある周辺領域のグローバルベクトル114が画面中央領域116のグローバルベクトル117と同じ領域に属していれば、信頼性が高いと判定するようにしてもよい。   The reliability is not determined only by whether or not the global vector 117 in the screen center region 116 is opposite. For example, if the motion direction of the video is divided into four regions (regions 1 to 4) as shown in FIG. 12, and the global vector 114 of a certain peripheral region belongs to the same region as the global vector 117 of the screen center region 116, the reliability May be determined to be high.

以上のように本実施例では、グローバルベクトルの信頼性を判定することにより、より高精度に補間処理を行うことが可能となる。   As described above, according to the present embodiment, it is possible to perform interpolation processing with higher accuracy by determining the reliability of the global vector.

本発明が適用される映像処理装置の一構成例を示すブロック図。1 is a block diagram illustrating a configuration example of a video processing apparatus to which the present invention is applied. 本発明の第1実施例に係るFRC13の一構成例を示す図。The figure which shows the example of 1 structure of FRC13 which concerns on 1st Example of this invention. 動きベクトル検出及び補間フレーム生成の一例を示す図。The figure which shows an example of a motion vector detection and interpolation frame production | generation. グローバルベクトル設定のためのベクトルヒストグラムの一例を示すグラフ。The graph which shows an example of the vector histogram for global vector setting. ベクトルヒストグラムの他の例を示すグラフ。The graph which shows the other example of a vector histogram. Zero-BANDの一例を示す図。The figure which shows an example of Zero-BAND. Zero-BANDと判定イネーブル信号27との関係を示す図。The figure which shows the relationship between Zero-BAND and the determination enable signal 27. FIG. グローバルベクトルを用いた補間処理の一例を示す図。The figure which shows an example of the interpolation process using a global vector. 本発明の第2実施例に係るFRC13の一構成例を示す図。The figure which shows the example of 1 structure of FRC13 which concerns on 2nd Example of this invention. 静止映像と動画が合成された映像の一例を示す図。The figure which shows an example of the image | video by which the still image and the moving image were synthesize | combined. 本発明に係る第3実施例の概念を示す図。The figure which shows the concept of 3rd Example which concerns on this invention. グローバルベクトルの信頼性の判定に関する図。The figure regarding determination of the reliability of a global vector. マッチング処理による動きベクトルの検出の一例を示す図。The figure which shows an example of the detection of the motion vector by a matching process.

符号の説明Explanation of symbols

11・・・入力端子、12・・・解像度変換部、13・・・フレームレート変換(FRC:Frame Rate Conversion)部、14・・・画像メモリ、15・・・タイミングコントロール部、16・・・表示部、17・・・FRC変換モード信号、20・・・補間フレーム、21・・・現フレーム信号、22・・・前フレーム信号、23・・・メモリインターフェース、24・・・動きベクトル検出部、25・・・動きベクトル、26・・・パン判定・GV算出部、27・・・判定イネーブル信号、28・・・グローバルベクトル、29・・・補間フレーム生成部。 DESCRIPTION OF SYMBOLS 11 ... Input terminal, 12 ... Resolution conversion part, 13 ... Frame rate conversion (FRC: Frame Rate Conversion) part, 14 ... Image memory, 15 ... Timing control part, 16 ... Display unit: 17 ... FRC conversion mode signal, 20 ... interpolation frame, 21 ... current frame signal, 22 ... previous frame signal, 23 ... memory interface, 24 ... motion vector detection unit , 25 ... motion vector, 26 ... pan determination / GV calculation unit, 27 ... determination enable signal, 28 ... global vector, 29 ... interpolation frame generation unit.

Claims (17)

複数の映像のフレームを有する映像信号に補間フレームを挿入してフレームレート変換を行うように構成された映像処理装置において、
前記映像信号に含まれる少なくとも2つのフレームを用いて画素または所定ブロック毎に映像の動きを示す第1の動きベクトルを取得する第1の動きベクトル取得部と、
前記動きベクトル取得部によって取得された前記第1の動きベクトルを用いて補間画素/ブロックを作成して前記補間フレームを生成する補間フレーム生成部と、
前記第1の動きベクトル取得部で取得された前記第1の動きベクトルのうち、所定の出現頻度以上のものを第2の動きベクトルとして設定する第2の動きベクトル取得部と、を備え、
前記補間フレーム生成部は、前記映像の端部を含む周辺領域の補間画素/ブロックについては、前記第2の動きベクトル取得部で設定された前記第2の動きベクトルを用いて作成するようにしたことを特徴とする映像処理装置。
In a video processing apparatus configured to insert an interpolated frame into a video signal having a plurality of video frames to perform frame rate conversion,
A first motion vector acquisition unit that acquires a first motion vector indicating a motion of a video for each pixel or predetermined block using at least two frames included in the video signal;
An interpolation frame generation unit for generating an interpolation frame by creating an interpolation pixel / block using the first motion vector acquired by the motion vector acquisition unit;
A second motion vector acquisition unit that sets, as a second motion vector, a first motion vector acquired by the first motion vector acquisition unit that is equal to or higher than a predetermined appearance frequency,
The interpolation frame generation unit creates interpolation pixels / blocks in a peripheral region including an end of the video using the second motion vector set by the second motion vector acquisition unit. A video processing apparatus characterized by that.
請求項1に記載の映像処理装置において、前記第2の動きベクトル取得部は、前記第1の動きベクトルのうち出現頻度が最大の第1の動きベクトルを求め、該出現頻度が最大の第1の動きベクトルが所定数以上の場合に、その第1の動きベクトルを前記第2の動きベクトルとして設定し、
前記補間フレーム生成部は、前記出現頻度が最大の第1の動きベクトルが所定数以上の場合に、前記第2の動きベクトルを用いて前記映像の端部を含む周辺領域の前記補間画素/ブロックを作成することを特徴とする映像処理装置。
2. The video processing device according to claim 1, wherein the second motion vector acquisition unit obtains a first motion vector having a maximum appearance frequency among the first motion vectors, and a first motion vector having the maximum appearance frequency is obtained. If the number of motion vectors is equal to or greater than a predetermined number, the first motion vector is set as the second motion vector,
When the first motion vector having the maximum appearance frequency is equal to or greater than a predetermined number, the interpolation frame generation unit uses the second motion vector to perform the interpolation pixel / block in the peripheral region including the edge of the video A video processing apparatus characterized by creating an image.
複数の映像のフレームを有する映像信号に補間フレームを挿入してフレームレート変換を行うように構成された映像処理装置において、
前記映像信号に含まれる少なくとも2つのフレームを用いて画素または所定ブロック毎に映像の動きベクトルを取得する第1の動きベクトル取得部と、
前記第1の動きベクトル取得部で取得された前記動きベクトルにおいて、同一の第1の動きベクトルが所定数以上存在する場合に、その同一の第1の動きベクトルを第2の動きベクトルとして設定する第2の動きベクトル取得部と、
前記第1の動きベクトルを用いて前記映像の中央部を含む第1領域の補間画素/ブロックを作成し、前記第2の動きベクトルを用いて前記映像の端部を含む第2領域の補間画素/ブロックを作成して前記補間フレームを生成する補間フレーム生成部と、
を備えることを特徴とする映像処理装置。
In a video processing apparatus configured to insert an interpolated frame into a video signal having a plurality of video frames to perform frame rate conversion,
A first motion vector acquisition unit that acquires a motion vector of a video for each pixel or predetermined block using at least two frames included in the video signal;
In the motion vector acquired by the first motion vector acquisition unit, when a predetermined number or more of the same first motion vector exists, the same first motion vector is set as the second motion vector. A second motion vector acquisition unit;
An interpolation pixel / block of a first area including a central portion of the video is created using the first motion vector, and an interpolation pixel of a second area including an edge of the video is generated using the second motion vector. An interpolation frame generation unit that generates a block by creating a block;
A video processing apparatus comprising:
複数の映像のフレームを有する映像信号に補間フレームを挿入してフレームレート変換を行うように構成された映像処理装置において、
前記映像信号に含まれる少なくとも2つのフレームを用いて物体の動きベクトルを検出する動きベクトル検出部と、
前記映像が全体的に動いているかを判定する判定部と、
前記映像の全体的な動きを示すグローバルベクトルを設定するグローバルベクトル算出部と、
前記判定部によって前記映像が全体的に動いていると判定された場合に、前記映像の端部を含む周辺領域の補間処理を前記グローバルベクトル算出部によって得られたグローバルベクトルを用いて行い、前記周辺領域以外の領域の補間処理を前記動きベクトル取得部によって取得された前記動きベクトルを用いて行って前記補間フレームを生成する補間フレーム生成部と、
を備えることを特徴とする映像処理装置。
In a video processing apparatus configured to insert an interpolated frame into a video signal having a plurality of video frames to perform frame rate conversion,
A motion vector detection unit that detects a motion vector of an object using at least two frames included in the video signal;
A determination unit for determining whether the video is moving as a whole;
A global vector calculation unit that sets a global vector indicating the overall motion of the video;
When it is determined by the determination unit that the video is moving as a whole, interpolation processing of a peripheral region including an end of the video is performed using the global vector obtained by the global vector calculation unit, An interpolation frame generation unit that generates an interpolation frame by performing interpolation processing of a region other than a peripheral region using the motion vector acquired by the motion vector acquisition unit;
A video processing apparatus comprising:
請求項4に記載の映像処理装置において、前記判定部は、前記動きベクトル検出部で検出された前記動きベクトルにおいて同一の動きベクトルが所定数以上存在する場合に、前記映像が全体的に動いていると判定することを特徴とする映像処理装置。   5. The video processing device according to claim 4, wherein when the motion vector detected by the motion vector detection unit includes a predetermined number or more of the same motion vector, the determination unit moves the video as a whole. A video processing device characterized in that it is determined that the image is present. 請求項5に記載の映像処理装置において、前記グローバルベクトル算出部は、前記前記動きベクトル検出部で検出された前記動きベクトルにおいて同一の動きベクトルが所定数以上存在する場合に、その同一の動きベクトルを前記グローバルベクトルとして設定することを特徴とする映像処理装置。   6. The video processing apparatus according to claim 5, wherein the global vector calculation unit includes the same motion vector when a predetermined number or more of the same motion vectors exist in the motion vector detected by the motion vector detection unit. Is set as the global vector. 請求項4に記載の映像処理装置において、前記判定部は、前記動きベクトル検出部で検出された前記動きベクトルのうち、出現頻度が最も高い動きベクトルが所定数以上の場合に、前記映像が全体的に動いていると判定することを特徴とする映像処理装置。   5. The video processing device according to claim 4, wherein when the motion vector having the highest appearance frequency among the motion vectors detected by the motion vector detection unit is a predetermined number or more, the determination unit A video processing apparatus characterized in that it is determined to be moving. 請求項7に記載の映像処理装置において、前記グローバルベクトル算出部は、前記動きベクトル検出部で検出された前記動きベクトルのうち出現頻度が最も高い動きベクトルが所定数を超えた場合に、その動きベクトルを前記グローバルベクトルとして設定することを特徴とする映像処理装置。   The video processing apparatus according to claim 7, wherein the global vector calculation unit performs a motion when a motion vector having the highest appearance frequency among the motion vectors detected by the motion vector detection unit exceeds a predetermined number. A video processing apparatus characterized in that a vector is set as the global vector. 複数の映像のフレームを有する映像信号を処理するための映像処理装置において、
前記映像信号に含まれる少なくとも2つのフレームを用いて画素または所定ブロック毎に映像の動きを示す動きベクトルを取得する動きベクトル取得部と、
前記動きベクトル取得部によって取得された前記動きベクトルを用いて前記映像のフレームから補間処理を行って、前記画像信号のフレーム列に挿入される補間フレームを生成する補間フレーム生成部と、
前記映像全体が上下もしくは左右にパンしているか否かを判定するパン判定部と、
前記パン判定部で映像全体がパンしていると判定された場合に、そのパン方向の動きをグローバルベクトルとして算出するグローバルベクトル算出部と、を備え、
前記補間フレーム生成部は、前記パン判定部で映像全体がパンしていると判定された場合には、前記映像の端部分を含む領域に対する補間処理を前記グローバルベクトル算出部によって得られた前記グローバルベクトルを用いて行うことを特徴とする映像処理装置。
In a video processing apparatus for processing a video signal having a plurality of video frames,
A motion vector acquisition unit that acquires a motion vector indicating a motion of a video for each pixel or predetermined block using at least two frames included in the video signal;
An interpolation frame generation unit that performs an interpolation process from the video frame using the motion vector acquired by the motion vector acquisition unit, and generates an interpolation frame to be inserted into a frame sequence of the image signal;
A pan determining unit that determines whether the entire image is panned up and down or left and right;
A global vector calculation unit that calculates a movement in the pan direction as a global vector when the pan determination unit determines that the entire image is panned,
The interpolation frame generation unit, when the pan determination unit determines that the entire video is panned, performs an interpolation process on a region including an end portion of the video by the global vector calculation unit. An image processing apparatus characterized by using a vector.
請求項9に記載の映像処理装置において、前記補間フレーム生成部は、前記映像の端部分を含む領域について、時間的に画面に入ってくる物体を有するフレームに対しては現フレームから、時間的に画面から出ていく物体を有するフレームに対しては1フレーム前のフレームから前記グローバルベクトルを用いた補間処理を行うことを特徴とする映像処理装置。   The video processing device according to claim 9, wherein the interpolation frame generation unit starts from a current frame with respect to a frame having an object entering the screen temporally for a region including an end portion of the video. An image processing apparatus characterized in that an interpolation process using the global vector is performed on a frame having an object that exits from the screen from the previous frame. 請求項10に記載の映像処理装置において、前記映像端部分を含む領域の画面上下左右のそれぞれについて、時間的に画面に入ってくる物体、及び時間的に画面から出ていく物体を検出し、該検出結果に応じて、前記画面上下左右毎に前記グローバルベクトルによる補間処理を行うことを特徴とする映像処理装置。   In the video processing device according to claim 10, for each of the top, bottom, left, and right of the region including the video edge portion, an object that enters the screen in time and an object that exits from the screen in time are detected, An image processing apparatus that performs interpolation processing using the global vector for each of the top, bottom, left, and right of the screen in accordance with the detection result. 請求項9に記載の映像処理装置において、前記グローバルベクトル算出部は、画面全体で支配的な動きを前記グローバルベクトルとして算出することを特徴とする映像処理装置。   The video processing apparatus according to claim 9, wherein the global vector calculation unit calculates a dominant motion on the entire screen as the global vector. 請求項9に記載の映像処理装置において、前記グローバルベクトル算出部は、前記画面の端部分で支配的な動きを前記グローバルベクトルとして算出することを特徴とする映像処理装置。   The video processing apparatus according to claim 9, wherein the global vector calculation unit calculates a dominant motion at an end portion of the screen as the global vector. 請求項9に記載の映像処理装置において、前記グローバルベクトル算出部は、画面全体の支配的な動きと、前記画面の端部分で支配的な動きとを混合した動きを前記グローバルベクトルとして算出することを特徴とする映像処理装置。   10. The video processing device according to claim 9, wherein the global vector calculation unit calculates, as the global vector, a mixture of a dominant motion of the entire screen and a dominant motion at an end portion of the screen. A video processing apparatus characterized by the above. 請求項9に記載の映像処理装置において、前記グローバルベクトル算出部は、前記画面の端部分及び画面中央部分でそれぞれ支配的な動きをグローバルベクトルとして独立に検出し、前記画面端部分の前記グローバルベクトルの信頼性を画面中央部分のグローバルベクトルより判断することを特徴とする映像処理装置。   10. The video processing device according to claim 9, wherein the global vector calculation unit independently detects a dominant motion in each of an end portion and a screen center portion of the screen as a global vector, and the global vector of the screen end portion is detected. A video processing apparatus characterized in that the reliability of a video is determined from a global vector at the center of the screen. 請求項9記載の映像処理装置において、前記パン検出部によってパン映像と判定された場合であって、前記パン方向の動き量が所定の閾値以上のときは前記グローバルベクトルで前記画面端部分の領域の補間処理を行い、閾値以下のときは前記動きベクトルを用いて前記画面端部分の領域の補間処理を行うことを特徴とする映像処理装置。   10. The video processing apparatus according to claim 9, wherein when the pan detection unit determines that the video is pan video, and the amount of movement in the pan direction is equal to or greater than a predetermined threshold, the global vector is used as the area of the screen edge portion. The video processing apparatus is characterized in that the interpolation processing of the region at the edge of the screen is performed using the motion vector when the value is equal to or less than the threshold. 請求項9に記載の映像処理装置を具備したことを特徴とする映像表示装置。   A video display device comprising the video processing device according to claim 9.
JP2007322719A 2007-12-14 2007-12-14 Video processing apparatus and video display apparatus using the same Active JP4951487B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007322719A JP4951487B2 (en) 2007-12-14 2007-12-14 Video processing apparatus and video display apparatus using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007322719A JP4951487B2 (en) 2007-12-14 2007-12-14 Video processing apparatus and video display apparatus using the same

Publications (2)

Publication Number Publication Date
JP2009147670A JP2009147670A (en) 2009-07-02
JP4951487B2 true JP4951487B2 (en) 2012-06-13

Family

ID=40917771

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007322719A Active JP4951487B2 (en) 2007-12-14 2007-12-14 Video processing apparatus and video display apparatus using the same

Country Status (1)

Country Link
JP (1) JP4951487B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009192803A (en) * 2008-02-14 2009-08-27 Sharp Corp Image display device
JP5166159B2 (en) * 2008-08-01 2013-03-21 シャープ株式会社 Image display circuit and screen display device
JP2011040836A (en) * 2009-08-06 2011-02-24 Toshiba Corp Frame interpolation device and frame interpolation method
US9479682B2 (en) * 2011-05-18 2016-10-25 Sharp Kabushiki Kaisha Video signal processing device and display apparatus
EP3686843A1 (en) * 2016-06-08 2020-07-29 Esaote S.p.A. Method and system for estimating motion between images, particularly in ultrasound spatial compounding

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0754978B2 (en) * 1986-03-19 1995-06-07 日本放送協会 Motion compensation frame number conversion method
EP1585326A1 (en) * 2004-03-30 2005-10-12 Matsushita Electric Industrial Co., Ltd. Motion vector estimation at image borders for frame rate conversion
JP4489033B2 (en) * 2005-03-25 2010-06-23 三洋電機株式会社 Frame rate conversion device, pan / tilt determination device and video device
JP4303745B2 (en) * 2006-11-07 2009-07-29 シャープ株式会社 Image display apparatus and method, image processing apparatus and method

Also Published As

Publication number Publication date
JP2009147670A (en) 2009-07-02

Similar Documents

Publication Publication Date Title
JP4438795B2 (en) Video conversion device, video display device, and video conversion method
US8175121B2 (en) Image processor and image display apparatus comprising the same
US9204086B2 (en) Method and apparatus for transmitting and using picture descriptive information in a frame rate conversion processor
JP2008160591A (en) Television receiver and frame rate conversion method therefor
JP2007267360A (en) Image display device and method, and image processing device and method
EP2161687B1 (en) Video signal processing device, video signal processing method, and video signal processing program
KR101098630B1 (en) Motion adaptive upsampling of chroma video signals
US8830257B2 (en) Image displaying apparatus
JP4951487B2 (en) Video processing apparatus and video display apparatus using the same
JPH11112940A (en) Generation method for motion vector and device therefor
US9215353B2 (en) Image processing device, image processing method, image display device, and image display method
JP5049882B2 (en) Interpolation frame creation device, interpolation frame creation method, and broadcast reception device
JP4786506B2 (en) Television receiver
JP2009055340A (en) Image display device and method, and image processing apparatus and method
JP5114274B2 (en) Television receiver and frame rate conversion method thereof
JP2009135847A (en) Video processor and frame rate conversion method
JP3898546B2 (en) Image scanning conversion method and apparatus
JP4504999B2 (en) Image display apparatus and method, image processing apparatus and method
US7750974B2 (en) System and method for static region detection in video processing
JP5164716B2 (en) Video processing device and video display device
US8233085B1 (en) Method and system for interpolating a pixel value of a pixel located at an on-screen display
JP2007288483A (en) Image converting apparatus
JP4687748B2 (en) Video processing apparatus, video processing method, program and recording medium, and video processing system
US8045820B2 (en) System and method for edge direction detection for spatial deinterlace
JP4917867B2 (en) Telop detection apparatus and method, and image display apparatus and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100317

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120214

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120312

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150316

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4951487

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150316

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250