JP2007082096A - Frame frequency conversion method, frame frequency conversion apparatus, and frame frequency conversion program - Google Patents

Frame frequency conversion method, frame frequency conversion apparatus, and frame frequency conversion program Download PDF

Info

Publication number
JP2007082096A
JP2007082096A JP2005270277A JP2005270277A JP2007082096A JP 2007082096 A JP2007082096 A JP 2007082096A JP 2005270277 A JP2005270277 A JP 2005270277A JP 2005270277 A JP2005270277 A JP 2005270277A JP 2007082096 A JP2007082096 A JP 2007082096A
Authority
JP
Japan
Prior art keywords
pixel
frame
input
moving image
motion amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005270277A
Other languages
Japanese (ja)
Inventor
Koji Numata
考司 沼田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Embedded Products Ltd
Original Assignee
NEC Embedded Products Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Embedded Products Ltd filed Critical NEC Embedded Products Ltd
Priority to JP2005270277A priority Critical patent/JP2007082096A/en
Publication of JP2007082096A publication Critical patent/JP2007082096A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To generate an output dynamic image for progressive scanning with frame frequency different from an input dynamic image, without losing smoothness of animation, on the basis of the input dynamic image for interlace scanning. <P>SOLUTION: The frame frequency conversion method comprises: an animation interpolating pixel generation means 405 for generating animation interpolating pixels regarding each frame (target pixel) of an output frame (target output frame) to be included in the output dynamic image, on the basis of a pixel of an input field included in the input dynamic image by means of a first weighted addition; a still image interpolating pixel generation means 407 for generating still image interpolating pixels, regarding the target pixel on the basis of a pixel of the input field included in the input dynamic image by means of a second weighed addition; a moving amount generation means 421 for generating moving amount, regarding the target pixel based on the input dynamic image; and a target pixel generation means 423 for generating the target pixel, based on the moving image interpolating pixel and still image interpolating pixel by means of a third weighed addition that utilizes weighting corresponding to the moving amount. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、インターレス走査又はプログレッシブ走査の入力動画像を基に、この入力動画像とはフレーム周波数が異なるプログレッシブ走査の出力動画像を生成するためのフレーム周波数変換方法、フレーム周波数変換装置及びフレーム周波数変換プログラムに関する。   The present invention relates to a frame frequency conversion method, a frame frequency conversion device, and a frame for generating an output moving image of a progressive scan having a frame frequency different from that of the input moving image based on an input moving image of interlaced scanning or progressive scanning. It relates to a frequency conversion program.

近年、パーソナルコンピュータにもテレビチューナが内蔵されたり接続されるようになり、パーソナルコンピュータは、テレビチューナが受信したテレビ放送を表示したり、録画したり、再生したりすることができるようになってきている。   In recent years, a personal computer has a built-in or connected TV tuner, and the personal computer can display, record, and play back TV broadcasts received by the TV tuner. ing.

日本やその他のいくつかの国では、テレビ放送のためにNTSC方式を採用している。NTSC方式では、色副搬送波の周波数との調整を図るために、フィールド周波数が60Hzではなく、約59.94Hz(=60×(1000/1001)Hz)となっている。従って、フレーム周波数は、30Hzではなく、約29.97Hz(=30×(1000/1001)Hz)となっている。また、NTSCチューナが出力する信号に対してIP(Interlace/Progressive)変換を行なうことにより得られた動画像のフレーム周波数は、59.94Hzである。   In Japan and several other countries, the NTSC system is adopted for television broadcasting. In the NTSC system, the field frequency is about 59.94 Hz (= 60 × (1000/1001) Hz) instead of 60 Hz in order to adjust the frequency with the color subcarrier frequency. Therefore, the frame frequency is not about 30 Hz but about 29.97 Hz (= 30 × (1000/1001) Hz). The frame frequency of a moving image obtained by performing IP (Interlace / Progressive) conversion on the signal output from the NTSC tuner is 59.94 Hz.

他方、パーソナルコンピュータのテレビモニタの代表的なリフレッシュレート(フレーム周波数に対応する。)は、丁度60Hzである。また、他のリフレッシュレートも設定できるようになっているパーソナルコンピュータも多い。   On the other hand, a typical refresh rate (corresponding to a frame frequency) of a television monitor of a personal computer is just 60 Hz. Many personal computers can also set other refresh rates.

そうすると、表示するテレビ画像のフレーム周波数とテレビモニタのリフレッシュレートが異なるため、パーソナルコンピュータは、この違いを解決するための処理をする必要がある。   Then, since the frame frequency of the television image to be displayed is different from the refresh rate of the television monitor, the personal computer needs to perform processing for solving this difference.

従来、このための処理として、一部のフレームの間引きや2度表示を行なっているものもある(例えば、特許文献1参照)。
特開2004−80327号公報
Conventionally, as a process for this, some frames are thinned out or displayed twice (for example, see Patent Document 1).
JP 2004-80327 A

しかし、一部のフレームの間引きや2度表示を行なうことにより、フレーム周波数の調整をする場合には、間引きの前後や2度表示の部分で動画像の滑らかさが失われ、不自然となる。   However, when the frame frequency is adjusted by thinning out some frames or displaying twice, the smoothness of the moving image is lost before and after the thinning and at the twice-displayed portion, which is unnatural. .

そこで、本発明は、動画の滑らかさを失わずに、インターレス走査又はプログレッシブ走査の入力動画像を基に、この入力動画像とはフレーム周波数が異なるプログレッシブ走査の出力動画像を生成するためのフレーム周波数変換方法、フレーム周波数変換装置及びフレーム周波数変換プログラムを提供することを目的とする。   Therefore, the present invention is to generate a progressive scan output moving image having a frame frequency different from that of the input moving image based on an input moving image of interlace scanning or progressive scanning without losing the smoothness of the moving image. It is an object of the present invention to provide a frame frequency conversion method, a frame frequency conversion device, and a frame frequency conversion program.

本発明の第1の観点によれば、インターレス走査の入力動画像を基に、該入力動画像とはフレーム周波数が異なるプログレッシブ走査の出力動画像を生成するためのフレーム周波数変換方法において、前記出力動画像に含まれるべき各出力フレーム(以下、「対象出力フレーム」という。)の各画素(以下、「対象画素」という。)についての動画補間画素を、前記入力動画像に含まれる少なくとも1つの入力フィールドの少なくとも1つの画素を基にして、第1の加重加算により生成する動画補間画素生成ステップと、
前記対象画素についての静止画補間画素を、前記入力動画像に含まれる少なくとも1つの入力フィールドの少なくとも1つの画素を基にして、第2の加重加算により生成する静止画補間画素生成ステップと、前記対象画素についての動き量を、前記入力動画像を基に生成する動き量生成ステップと、前記対象画素を、前記動画補間画素と前記静止画補間画素とを基にして、前記動き量に応じた重みを利用した第3の加重加算により生成する対象画素生成ステップと、を備えることを特徴とするフレーム周波数変換方法が提供される。
According to a first aspect of the present invention, in the frame frequency conversion method for generating an progressive moving output moving image having a frame frequency different from that of the input moving image based on the input moving image of the interlace scanning, At least one moving image interpolation pixel for each pixel (hereinafter referred to as “target pixel”) of each output frame (hereinafter referred to as “target output frame”) to be included in the output moving image is included in the input moving image. A moving image interpolation pixel generation step for generating by a first weighted addition based on at least one pixel of one input field;
A still image interpolation pixel generating step for generating a still image interpolation pixel for the target pixel by a second weighted addition based on at least one pixel of at least one input field included in the input moving image; A motion amount generation step for generating a motion amount for the target pixel based on the input moving image, and the target pixel according to the motion amount based on the moving image interpolation pixel and the still image interpolation pixel. And a target pixel generation step generated by a third weighted addition using a weight. A frame frequency conversion method is provided.

上記のフレーム周波数変換方法において、前記動画補間画素生成ステップでは、前記入力動画像に含まれる複数の入力フィールドのうちの前記対象出力フレームの直前にある入力フィールド(以下、「第1入力フィールド」という。)の画素のうちの前記対象画素から空間的に最も近い位置にある少なくとも1つの画素、前記第1フィールドの次のフィールド(以下、「第2入力フィールド」という。)の画素のうちの前記対象画素から空間的に最も近い位置にある少なくとも1つの画素又はその双方を少なくとも基にして前記動画像補間画素を生成するようにしてもよい。   In the frame frequency conversion method, in the moving image interpolation pixel generation step, an input field (hereinafter referred to as “first input field”) immediately before the target output frame among a plurality of input fields included in the input moving image. .) Of at least one pixel that is spatially closest to the target pixel, and of the pixels in the next field of the first field (hereinafter referred to as “second input field”). The moving image interpolation pixel may be generated based on at least one pixel or both of which are spatially closest to the target pixel.

上記のフレーム周波数変換方法において、前記静止画補間画素生成ステップでは、前記対象出力フレームの前にある複数の入力フィールド(以下、「先行入力フィールド群」という。)の画素のうちの前記対象画素と空間的に同一の位置にあり時間的に最も近い位置にある画素、前記先行入力フィールド群の後の複数の入力フィールド(以下、「後続入力フィールド群」という。)の画素のうちの前記対象画素と空間的に同一の位置にあり時間的に最も近い位置にある画素又はその双方を少なくとも基にして前記静止画補間画素を生成するようにしてもよい。   In the frame frequency conversion method, in the still image interpolation pixel generation step, the target pixel among the pixels of a plurality of input fields (hereinafter referred to as “preceding input field group”) preceding the target output frame is selected. The target pixel among the pixels in the same spatial position and the closest position in time, and pixels in a plurality of input fields after the preceding input field group (hereinafter referred to as “subsequent input field group”) The still image interpolation pixel may be generated based on at least a pixel located at the same spatial position and the closest position in time or both.

上記のフレーム周波数変換方法において、前記動き量生成ステップは、前記入力動画像に含まれる複数の奇数フィールドから前記対象画素についての第1の動き量を算出する第1動き量算出ステップと、前記入力動画像に含まれる複数の偶数フィールドから前記対象画素についての第2の動き量を算出する第2動き量算出ステップと、前記第1の動き量と前記第2の動き量を基に、前記動き量を算出する最終動き量算出ステップと、を備えるようにしてもよい。   In the frame frequency conversion method, the motion amount generation step includes a first motion amount calculation step of calculating a first motion amount for the target pixel from a plurality of odd fields included in the input moving image, and the input A second motion amount calculating step for calculating a second motion amount for the target pixel from a plurality of even fields included in the moving image; and the motion based on the first motion amount and the second motion amount. And a final motion amount calculating step for calculating the amount.

上記のフレーム周波数変換方法において、前記第1動き量算出ステップでは、前記入力動画像に含まれる複数の奇数フィールドのうちの前記対象出力フレームの直前にある奇数入力フィールド(以下、「第1奇数入力フィールド」という。)の画素のうちの前記対象画素から空間的に最も近い位置にある少なくとも1つの画素及び前記第1奇数フィールドの次の奇数フィールド(以下、「第2奇数フィールド」という。)の画素のうちの前記対象画素から空間的に最も近い位置にある少なくとも1つの画素を基にして前記第1の動き量を算出し、前記第2動き量算出ステップでは、前記入力動画像に含まれる複数の偶数フィールドのうちの前記対象出力フレームの直前にある偶数入力フィールド(以下、「第1偶数入力フィールド」という。)の画素のうちの前記対象画素から空間的に最も近い位置にある少なくとも1つの画素及び前記第1偶数フィールドの次の偶数フィールド(以下、「第2偶数フィールド」という。)の画素のうちの前記対象画素から空間的に最も近い位置にある少なくとも1つの画素を基にして前記第2の動き量を算出するようにしてもよい。   In the frame frequency conversion method, in the first motion amount calculation step, an odd input field (hereinafter referred to as “first odd input”) immediately before the target output frame among a plurality of odd fields included in the input moving image. Of at least one pixel spatially closest to the target pixel and an odd field next to the first odd field (hereinafter referred to as a “second odd field”). The first motion amount is calculated based on at least one pixel that is spatially closest to the target pixel among the pixels. In the second motion amount calculation step, the first motion amount is included in the input moving image. An even input field (hereinafter referred to as a “first even input field”) immediately before the target output frame among a plurality of even fields. Of at least one pixel that is spatially closest to the target pixel and pixels of the even field next to the first even field (hereinafter referred to as “second even field”). The second motion amount may be calculated based on at least one pixel that is spatially closest to the target pixel.

上記のフレーム周波数変換方法において、前記対象出力フレームに対応した垂直同期信号のタイミングを、出力フレーム周波数及びグラフィック部から出力され、逐次サンプルされた走査線番号を基に推測するステップを更に備えるようにしてもよい。   The frame frequency conversion method may further include a step of estimating the timing of the vertical synchronization signal corresponding to the target output frame based on the output frame frequency and the scanning line number sequentially sampled from the graphic unit. May be.

本発明の第2の観点によれば、プログレッシブ走査の入力動画像を基に、該入力動画像とはフレーム周波数が異なるプログレッシブ走査の出力動画像を生成するためのフレーム周波数変換方法において、前記入力動画像に含まれる複数の入力フレームのうちの前記出力動画像に含まれるべき各出力フレーム(以下、「対象出力フレーム」という。)の直前にある入力フレーム(以下、「第1入力フレーム」という。)から前記対象出力フレームまでの期間及び前記対象出力フレームから前記第1入力フレームの次の入力フレーム(以下、「第2入力フレーム」という。)までの期間に基づいて、前記第1入力フレームの重みと前記第2入力フレームの重みを算出する重み算出ステップと、前記対象出力フレームの各画素(以下、「対象画素」という。)を、前記第1入力フレームの少なくとも1つの画素と、前記第2入力フレームの少なくとも1つの画素とを、前記第1入力フレームの重みと前記第2入力フレームの重みに基づいて加重加算することにより生成する対象画素生成ステップと、を備えることを特徴とするフレーム周波数変換方法が提供される。   According to a second aspect of the present invention, in the frame frequency conversion method for generating a progressive scan output moving image having a frame frequency different from that of the input moving image based on the input moving image of progressive scanning, the input An input frame (hereinafter referred to as “first input frame”) immediately before each output frame (hereinafter referred to as “target output frame”) to be included in the output moving image among a plurality of input frames included in the moving image. .) To the target output frame and the period from the target output frame to the next input frame of the first input frame (hereinafter referred to as “second input frame”). And a weight calculating step for calculating a weight of the second input frame, and each pixel of the target output frame (hereinafter referred to as “target pixel”) A weighted addition of at least one pixel of the first input frame and at least one pixel of the second input frame based on a weight of the first input frame and a weight of the second input frame. A frame frequency conversion method comprising: a target pixel generation step for generating the target pixel.

上記のフレーム周波数変換方法において、前記対象画素生成ステップでは、前記対象画素を生成するために利用する前記第2入力フレームの画素(以下、「後続画素」という。)の前記第1入力フレームの前記後続画素と空間的に同一の位置にある画素(以下、「先行画素」という)に対する動き量が所定値未満である場合には、前記加重加算は行なわず、前記先行画素を利用し、前記後続画素を利用せずに前記対象画素を生成するようにしてもよい。   In the frame frequency conversion method described above, in the target pixel generation step, the first input frame of the pixel of the second input frame (hereinafter referred to as “subsequent pixel”) used for generating the target pixel. When the amount of motion with respect to a pixel (hereinafter referred to as “preceding pixel”) that is spatially the same as the subsequent pixel is less than a predetermined value, the weighted addition is not performed, and the subsequent pixel is used. The target pixel may be generated without using the pixel.

上記のフレーム周波数変換方法において、前記対象出力フレームに対応した垂直同期信号のタイミングを、出力フレーム周波数及びグラフィック部から出力され、逐次サンプルされた走査線番号を基に推測するステップを更に備えるようにしてもよい。   The frame frequency conversion method may further include a step of estimating the timing of the vertical synchronization signal corresponding to the target output frame based on the output frame frequency and the scanning line number sequentially sampled from the graphic unit. May be.

上記のフレーム周波数変換方法において、インターレス走査の動画像を基に前記プログレッシブ走査の入力動画像を生成するインターレス/プログレッシブ変換ステップを更に備え、前記インターレス/プログレッシブ変換ステップは、前記インターレス走査の動画像に含まれる複数の奇数フィールドから前記プログレッシブ走査の入力動画像の各フレームの各画素についての第1の動き量を算出する第1動き量算出ステップと、前記インターレス走査の動画像に含まれる複数の偶数フィールドから前記プログレッシブ走査の入力動画像の各フレームの各画素についての第2の動き量を算出する第2動き量算出ステップと、前記第1の動き量と前記第2の動き量を基に、前記プログレッシブ走査の入力動画像の各フレームの各画素についての動き量を算出する最終動き量算出ステップと、前記プログレッシブ走査の入力動画像の各フレームの各画素を、前記インターレス走査の動画像を基に得られた動画補間画素と静止画補間画素とを基にして、最終動き量算出ステップで算出された前記動き量に応じた重みを利用した加重加算により生成する中間画素生成ステップと、を備えるようにしてもよい。   The frame frequency conversion method may further include an interlace / progressive conversion step of generating the progressive scan input moving image based on the interlaced scan moving image, and the interless / progressive conversion step includes the interlaced scan step. A first motion amount calculating step for calculating a first motion amount for each pixel of each frame of the progressive moving input moving image from a plurality of odd fields included in the moving image, and the interlaced scanning moving image A second motion amount calculating step for calculating a second motion amount for each pixel of each frame of the progressive scan input moving image from a plurality of even fields included; the first motion amount and the second motion; On the basis of the amount, for each pixel of each frame of the progressive scan input moving image A final motion amount calculating step for calculating the amount of motion, and each pixel of each frame of the progressive scan input moving image, a moving image interpolation pixel and a still image interpolation pixel obtained on the basis of the interlaced scan moving image. Based on this, an intermediate pixel generation step of generating by weighted addition using a weight corresponding to the motion amount calculated in the final motion amount calculation step may be provided.

本発明の第3の観点によれば、テレビモニタのフレーム周波数を制御するための方法において、前記テレビモニタに出力するべき複数のフレームを前記複数のフレームの出力部のフレーム周波数に合わせてフレームバッファに順次書き込む書込みステップと、前記複数のフレームを前記テレビモニタのフレーム周波数に合わせて前記フレームバッファから順次読み出す読出しステップと、前記フレームバッファに格納されているフレーム数を基に、前記テレビモニタのフレーム周波数を制御する制御ステップと、を備えることを特徴とする方法が提供される。   According to a third aspect of the present invention, in a method for controlling a frame frequency of a television monitor, a plurality of frames to be output to the television monitor are frame-buffered according to a frame frequency of an output unit of the plurality of frames. A step of sequentially writing to the television monitor, a step of sequentially reading out the plurality of frames from the frame buffer in accordance with a frame frequency of the television monitor, and a frame number of the television monitor based on the number of frames stored in the frame buffer. And a control step for controlling the frequency.

上記の方法において、前記フレームの出力部において、インターレス走査の動画像を基にプログレッシブ走査の動画像を生成するインターレス/プログレッシブ変換ステップを更に備え、前記インターレス/プログレッシブ変換ステップは、前記インターレス走査の動画像に含まれる複数の奇数フィールドから前記プログレッシブ走査の動画像の各フレームの各画素についての第1の動き量を算出する第1動き量算出ステップと、前記インターレス走査の動画像に含まれる複数の偶数フィールドから前記プログレッシブ走査の動画像の各フレームの各画素についての第2の動き量を算出する第2動き量算出ステップと、前記第1の動き量と前記第2の動き量を基に、前記プログレッシブ走査の動画像の各フレームの各画素についての動き量を算出する最終動き量算出ステップと、前記プログレッシブ走査の動画像の各フレームの各画素を、前記インターレス走査の動画像を基に得られた動画補間画素と静止画補間画素とを基にして、最終動き量算出ステップで算出された前記動き量に応じた重みを利用した加重加算により生成する画素生成ステップと、を備えるようにしてもよい。   In the above method, the output unit of the frame further includes an interlace / progressive conversion step of generating a progressive scan moving image based on the interlaced scan moving image, and the interlace / progressive conversion step includes the interlace / progressive conversion step. A first motion amount calculating step for calculating a first motion amount for each pixel of each frame of the progressive scan moving image from a plurality of odd fields included in the less scan moving image; and the interlaced scan moving image. A second motion amount calculating step for calculating a second motion amount for each pixel of each frame of the progressive scan moving image from a plurality of even fields included in the first motion amount, and the first motion amount and the second motion Based on the amount, the amount of motion for each pixel of each frame of the progressive scan moving image is calculated. The final motion amount calculating step to be output, and each pixel of each frame of the progressive scan moving image, based on the moving image interpolation pixel and the still image interpolation pixel obtained based on the moving image of the interlace scanning, A pixel generation step of generating by weighted addition using a weight corresponding to the motion amount calculated in the final motion amount calculation step.

本発明によれば、インターレス走査の入力動画像を基に、該入力動画像とはフレーム周波数が異なるプログレッシブ走査の出力動画像を生成するためのフレーム周波数変換方法において、前記出力動画像に含まれるべき各出力フレーム(以下、「対象出力フレーム」という。)の各画素(以下、「対象画素」という。)についての動画補間画素を、前記入力動画像に含まれる少なくとも1つの入力フィールドの少なくとも1つの画素を基にして、第1の加重加算により生成する動画補間画素生成ステップと、前記対象画素についての静止画補間画素を、前記入力動画像に含まれる少なくとも1つの入力フィールドの少なくとも1つの画素を基にして、第2の加重加算により生成する静止画補間画素生成ステップと、前記対象画素についての動き量を、前記入力動画像を基に生成する動き量生成ステップと、前記対象画素を、前記動画補間画素と前記静止画補間画素とを基にして、前記動き量に応じた重みを利用した第3の加重加算により生成する対象画素生成ステップと、を備えるので、一部の入力フィールドが欠落したり、一部の入力フィールドがそのまま複数回出力されることを避けることができ、従って、動画の滑らかさが失われない。   According to the present invention, in the frame frequency conversion method for generating an output moving image of progressive scanning having a frame frequency different from that of the input moving image based on the input moving image of interlace scanning, the output moving image includes the output moving image. A moving image interpolation pixel for each pixel (hereinafter referred to as “target pixel”) of each output frame to be performed (hereinafter referred to as “target output frame”) is set as at least one of at least one input field included in the input moving image. Based on one pixel, a moving image interpolation pixel generation step generated by a first weighted addition, and a still image interpolation pixel for the target pixel, at least one of at least one input field included in the input moving image A still image interpolation pixel generation step generated by the second weighted addition based on the pixel, and a motion for the target pixel; A motion amount generating step for generating an amount based on the input moving image, and a target pixel based on the moving image interpolation pixel and the still image interpolation pixel and using a weight corresponding to the motion amount. The target pixel generation step generated by the weighted addition of 3 is provided, so that it is possible to avoid missing some input fields or outputting some input fields as they are multiple times. Smoothness is not lost.

以下、図面を参照して本発明を実施するための最良の形態について詳細に説明する。   The best mode for carrying out the present invention will be described below in detail with reference to the drawings.

[実施形態1]
図1は、実施形態1によるフレーム周波数変換装置の全体の構成を示すブロック図である。
[Embodiment 1]
FIG. 1 is a block diagram showing the overall configuration of the frame frequency conversion apparatus according to the first embodiment.

図1を参照すると、IP(Interlace/Progressive)変換処理部101は、例えば、NTSCチューナから出力されるインターレス走査の動画像を入力し、この動画像に対しインターレス/プログレッシブ変換を行なう。そして、IP変換処理部101は、この変換により得られたプログレッシブ走査の動画像を各フレーム毎にフレームバッファ102に書き込む。また、IP変換処理部101は、パーソナルコンピュータのシステムクロック103から入力する現在時刻を参照して、プログレッシブ走査の動画像の各フレームに対して現在時刻を付加し、これも各フレームに関連付けてフレームバッファ102に書き込む。IP変換処理部101が行なうIP変換処理については、後述するが、IP変換処理部101は、一般に利用されているIP変換処理を行なっても良い。   Referring to FIG. 1, an IP (Interlace / Progressive) conversion processing unit 101 receives, for example, an interlaced moving image output from an NTSC tuner, and performs interlaced / progressive conversion on the moving image. Then, the IP conversion processing unit 101 writes the progressive scan moving image obtained by this conversion into the frame buffer 102 for each frame. Also, the IP conversion processing unit 101 refers to the current time input from the system clock 103 of the personal computer, adds the current time to each frame of the progressive scan moving image, and also associates this with each frame. Write to buffer 102. The IP conversion processing performed by the IP conversion processing unit 101 will be described later, but the IP conversion processing unit 101 may perform a commonly used IP conversion process.

垂直同期信号取得部104は、パーソナルコンピュータのマザーボードに挿入されているグラフィックカード105又はマザーボードに内蔵されているグラフィックチップから出力ビデオ信号の垂直同期信号を取得する。この垂直同期信号の周波数は、例えば、60Hzである。そして、垂直同期信号取得部104は、グラフィックカード105等から垂直同期信号を取得したならば、その直後に補間処理部106を起動する。垂直同期信号取得部104は、その起動の際、システムクロック103から得られた現在時刻を補間処理部106に供給する。なお、出力フレームの時刻よりも後の時刻が付された入力フレームを補間処理部106がフレームバッファ102から取得できるように、出力フレームの時刻にオフセットを持たせてもよい。すなわち、例えば、出力フレームの時刻をシステムクロックから得た時刻から45ミリ秒過去の時刻とすることにより、出力フレームの時刻よりも後の時刻が付された入力フレームを補間処理部106が取得できるようにしてもよい。   The vertical synchronization signal acquisition unit 104 acquires the vertical synchronization signal of the output video signal from the graphic card 105 inserted in the motherboard of the personal computer or the graphic chip built in the motherboard. The frequency of this vertical synchronizing signal is, for example, 60 Hz. Then, when the vertical synchronization signal acquisition unit 104 acquires the vertical synchronization signal from the graphic card 105 or the like, the interpolation processing unit 106 is activated immediately after that. The vertical synchronization signal acquisition unit 104 supplies the current time obtained from the system clock 103 to the interpolation processing unit 106 at the time of activation. Note that the output frame time may be offset so that the interpolation processing unit 106 can acquire the input frame with a time later than the output frame time from the frame buffer 102. That is, for example, the interpolation processing unit 106 can acquire an input frame with a time later than the time of the output frame by setting the time of the output frame to a time 45 milliseconds past the time obtained from the system clock. You may do it.

補間処理部106は、起動されると、フレームバッファ102から必要なフレームを読み出し、読み出したフレームを基に出力フレームを生成し、生成したフレームをグラフィックカード105内の表示メモリ105−1に書き込む。   When started, the interpolation processing unit 106 reads a necessary frame from the frame buffer 102, generates an output frame based on the read frame, and writes the generated frame in the display memory 105-1 in the graphic card 105.

グラフィックカード105は、表示メモリ105−1に書き込まれた出力フレームをテレビモニタ107に出力する。   The graphic card 105 outputs the output frame written in the display memory 105-1 to the television monitor 107.

次に、IP変換処理部101の構成及びこれが行なうIP変換処理について説明する。   Next, the configuration of the IP conversion processing unit 101 and the IP conversion processing performed by this will be described.

図2は、IP変換部101の構成を示すブロック図である。   FIG. 2 is a block diagram illustrating a configuration of the IP conversion unit 101.

第1のフィールド・メモリ201−1は、処理対象となっているフィールドの1つ先のフィールドの画像データを格納する。第2のフィールド・メモリ201−2は、処理対象となっているフィールドの画像データを格納する。第3のフィールド・メモリ201−3は、処理対象となっているフィールドの1つ前のフィールドの画像データを格納する。   The first field memory 201-1 stores image data of a field one field ahead of the field to be processed. The second field memory 201-2 stores image data of a field to be processed. The third field memory 201-3 stores image data of the field immediately before the field to be processed.

画像データ書込部203は、第1乃至第3のフィールド・メモリ201−1、201−2及び201−3に画像データを書き込む。なお、第1乃至第3のフィールド・メモリ201−1、201−2及び201−3をリング・バッファ構成とし、循環的に、3つのフィールドの画像データをこれらのフィールド・メモリに格納するようにしても良い。   The image data writing unit 203 writes the image data in the first to third field memories 201-1, 201-2, and 201-3. Note that the first to third field memories 201-1, 201-2, and 201-3 have a ring buffer configuration, and the image data of the three fields are stored in these field memories in a circular manner. May be.

動画補間画素生成部205は、第2のフィールド・メモリ201−2に格納されている画像データを基に、動画補間画素を生成する。   The moving image interpolation pixel generation unit 205 generates a moving image interpolation pixel based on the image data stored in the second field memory 201-2.

動画補間画素生成部205は、基本的には、例えば、現在処理の対象となっているフィールドの番号をn、そのフィールドにおいて、補間するべき画素として現在処理の対象となっている画素の垂直方向位置をi、そのフィールドにおいて、補間するべき画素として現在処理の対象となっている画素の水平方向位置をjとした場合、式(1)に従って、動画補間画素A(n,i,j)を生成する。ここで、iは、実在する走査線と補間するべき走査線とを合わせて数えた場合の位置である。   The moving image interpolation pixel generation unit 205 basically has, for example, the field number currently being processed as n and the vertical direction of the pixel currently being processed as a pixel to be interpolated in that field. When the position is i and the horizontal position of the pixel currently being processed as a pixel to be interpolated in that field is j, the moving image interpolation pixel A (n, i, j) is represented by the equation (1). Generate. Here, i is a position when the actual scanning line and the scanning line to be interpolated are counted together.

Figure 2007082096
ここで、x(n,i−1,j)は、処理の対象となっているフィールドの処理の対象となっている画素の1つ上の画素の値であり、x(n,i+1,j)は、処理の対象となっているフィールドの処理の対象となっている画素の1つ下の画素の値である。上記では、これらの2つの画素の値の平均値を処理の対象となっている画素の値としているが、これらの2つの画素のうちの1つの画素の値を処理の対象となっている画素の値としてもよい。また、処理の対象となっているフィールドの画素のうちの処理の対象となっている画素の所定の近傍の画素の値の加重平均を処理の対象となっている画素の値としてもよい。
Figure 2007082096
Here, x (n, i−1, j) is the value of the pixel one pixel above the pixel to be processed in the field to be processed, and x (n, i + 1, j). ) Is the value of the pixel one pixel below the pixel to be processed in the field to be processed. In the above, the average value of the values of these two pixels is the value of the pixel to be processed, but the value of one pixel of these two pixels is the pixel to be processed. It is good also as the value of. Also, a weighted average of the values of pixels in a predetermined vicinity of the pixel to be processed among the pixels in the field to be processed may be used as the value of the pixel to be processed.

静止画補間画素生成部207は、第1のフィールド・メモリ201−1に格納されている画素データ及び第3のフィールド・メモリ201−3に格納されている画素データを基に、静止画画素を生成する。例えば、現在処理の対象となっているフィールドの番号をn、そのフィールドにおいて、補間するべき画素として現在処理の対象となっている画素の垂直方向位置をi、そのフィールドにおいて、補間するべき画素として現在処理の対象となっている画素の水平方向位置をjとした場合、式(2)に従って、動画補間画素B(n,i,j)を生成する。   The still image interpolation pixel generation unit 207 generates still image pixels based on the pixel data stored in the first field memory 201-1 and the pixel data stored in the third field memory 201-3. Generate. For example, the number of the field currently being processed is n, the vertical position of the pixel currently being processed as a pixel to be interpolated in that field, i, and the pixel to be interpolated in that field If the horizontal position of the pixel currently being processed is j, a moving image interpolation pixel B (n, i, j) is generated according to equation (2).

Figure 2007082096
ここで、x(n−1,i,j)は、処理の対象となっているフィールドの1つ前のフィールドの画素のうち、処理の対象となっている画素と同一の位置(i,j)にある画素の値であり、x(n+1,i,j)は、処理の対象となっているフィールドの1つ後のフィールドの画素のうち、処理の対象となっている画素と同一の位置(i,j)にある画素の値である。上記では、これらの2つの画素の値の平均値を処理の対象となっている画素の値としているが、これらの2つの画素のうちの1つの画素の値を処理の対象となっている画素の値としてもよい。また、処理の対象となっているフィールドの近傍のフィールドの画素のうちの処理の対象となっている画素と同一の位置にある画素の値の加重平均を処理の対象となっている画素の値としてもよい。
Figure 2007082096
Here, x (n−1, i, j) is the same position (i, j) as the pixel to be processed among the pixels in the field immediately before the field to be processed. ), And x (n + 1, i, j) is the same position as the pixel to be processed among the pixels in the next field after the field to be processed. This is the value of the pixel at (i, j). In the above, the average value of the values of these two pixels is the value of the pixel to be processed, but the value of one pixel of these two pixels is the pixel to be processed. It is good also as the value of. Also, the value of the pixel subject to processing is the weighted average of the values of the pixels in the same position as the pixel subject to processing among the pixels in the field in the vicinity of the field subject to processing. It is good.

差分計算部209は、処理の対象となっているフィールドの処理の対象となっている画素についての差分C(n,i,j)を式(3)に従って求める。   The difference calculation unit 209 obtains a difference C (n, i, j) for the pixel to be processed in the field to be processed according to the equation (3).

Figure 2007082096
ここで、x(n−1,i,j)は、処理の対象となっているフィールドの1つ前のフィールドの画素のうち、処理の対象となっている画素と同一の位置(i,j)にある画素の値であり、x(n+1,i,j)は、処理の対象となっているフィールドの1つ後のフィールドの画素のうち、処理の対象となっている画素と同一の位置(i,j)にある画素の値である。差分C(n,i,j)は、動き量の基本となる。
Figure 2007082096
Here, x (n−1, i, j) is the same position (i, j) as the pixel to be processed among the pixels in the field immediately before the field to be processed. ), And x (n + 1, i, j) is the same position as the pixel to be processed among the pixels in the next field after the field to be processed. This is the value of the pixel at (i, j). The difference C (n, i, j) is the basis of the amount of motion.

差分補正部211は、式(4)に従って、Cを補正することにより、補正された差分D(n,i,j)を求める。   The difference correction unit 211 calculates the corrected difference D (n, i, j) by correcting C according to the equation (4).

Figure 2007082096
ここで、Δcの値は、ノイズのレベル等により決定され、補正値保持部213に格納されている。
Figure 2007082096
Here, the value of Δc is determined by the noise level or the like and stored in the correction value holding unit 213.

差分累積部215は、累積動き量メモリ217に格納されている累積動き量m(i,j)を式(5)に従って更新する。   The difference accumulating unit 215 updates the accumulated motion amount m (i, j) stored in the accumulated motion amount memory 217 according to the equation (5).

Figure 2007082096
ここで、THの値は、視覚特性等により決定され、しきい値保持部219に格納されている。THの値は、例えば、16である。
Figure 2007082096
Here, the value of TH is determined by visual characteristics or the like and stored in the threshold value holding unit 219. The value of TH is 16, for example.

上式に従って、累積動き量m(i,j)を計算することにより、あるフィールドである量の動きが検出された場合には、そのフィールドでは、累積動き量m(i,j)は、その前のフィールドでの累積動き量にその動きの量を加算してから1引いた値又は、動き量が大きい場合には、しきい値THとなり、それから1フィールド経過する度に1ずつ減少する。こうすることにより、動き検出は、尾を引くこととなる。これにより、動きがあった後に動画部が間違って静止画部であると判断される可能性を低くすることができる。動画部が間違って静止画部であると判断された場合には、動画部として正しく処理された時に算出される補間値とは全く異なった補間値が算出され、視覚上問題となる。一方、静止画部が間違って動画部であると判断された場合には、解像度が落ちるだけであり、視覚上問題とはならない。特に、実際に動きが検出された部分の周辺の静止画部は、動画部であると間違って判断されたとしても、その部分の解像度の低下は実際に動きがある部分によるマスキング効果により視覚されない。従って、式(5)を導入して、動画部が間違って静止画部と判断される可能性を低くすることの長所は、静止画部が間違って動画部と判断される可能性が増える欠点を上回るので、式(5)を導入することは、全体として、画質改善に役立つ。また、文字が固定されているテロップ部等の多くの静止画部は、その部分から動きが検出されることがないので、式(5)を導入しても、間違って、動画部であると判断されることはない。   If a certain amount of motion is detected by calculating the cumulative motion amount m (i, j) according to the above equation, the cumulative motion amount m (i, j) A value obtained by adding 1 to the accumulated motion amount in the previous field and subtracting 1 or when the motion amount is large is a threshold value TH, and decreases by 1 every time one field has passed since then. By doing so, the motion detection is tailed. Thereby, the possibility that the moving image part is erroneously determined to be a still image part after movement can be reduced. When the moving image part is erroneously determined to be a still image part, an interpolation value completely different from the interpolation value calculated when correctly processed as the moving image part is calculated, which causes a visual problem. On the other hand, if the still image portion is erroneously determined to be a moving image portion, only the resolution is lowered, and this is not a visual problem. In particular, even if the still image portion around the portion where the motion is actually detected is erroneously determined to be a moving image portion, the reduction in the resolution of the portion is not visually recognized due to the masking effect due to the portion that actually moves. . Therefore, the advantage of introducing the formula (5) and reducing the possibility that the moving image portion is erroneously determined as the still image portion is that the possibility that the still image portion is erroneously determined as the moving image portion is increased. Therefore, the introduction of the equation (5) is useful for improving the image quality as a whole. In addition, since many still image parts such as a telop part in which characters are fixed, no motion is detected from the part, even if the expression (5) is introduced, it is erroneously a moving image part. It will not be judged.

動き量計算部221は、式(6)に従って動き量M(i,j)を算出する。   The motion amount calculation unit 221 calculates the motion amount M (i, j) according to Equation (6).

Figure 2007082096
合成補間画素生成部223は、式(7)に従って合成補間画素x’(n,i,j)を計算する。
Figure 2007082096
The synthetic interpolation pixel generation unit 223 calculates the synthetic interpolation pixel x ′ (n, i, j) according to the equation (7).

Figure 2007082096
選択部225は、ライン毎に実在画素x(n,i,j)と補間画素x’(n,i,j)を切り換えて、プログレッシブ走査の画像データを出力する。
Figure 2007082096
The selection unit 225 switches the actual pixel x (n, i, j) and the interpolation pixel x ′ (n, i, j) for each line, and outputs progressive scan image data.

なお、図2にその構成を示すIP変換処理部101は、ハードウェアによって実現することもできるが、コンピュータを図2にその構成を示すIP変換処理部101として機能させるためのプログラムをコンピュータが記録媒体から読み込んで実行することによっても実現することができる。   The IP conversion processing unit 101 whose configuration is shown in FIG. 2 can be realized by hardware, but the computer records a program for causing the computer to function as the IP conversion processing unit 101 whose configuration is shown in FIG. It can also be realized by reading from the medium and executing it.

次に、式(6)に従って動き量M(i,j)を計算することの効果について説明する。   Next, the effect of calculating the motion amount M (i, j) according to the equation (6) will be described.

図3に示すように、白い平坦な背景上を黒い縦線が右に移動する場合を想定する。また、考察を容易にするために、動き累積量m(i,j)を式(8)に従って計算するものとする。   As shown in FIG. 3, it is assumed that a black vertical line moves to the right on a white flat background. Further, in order to facilitate the consideration, it is assumed that the motion accumulation amount m (i, j) is calculated according to the equation (8).

Figure 2007082096
そうすると、式(6)を用いずに、仮に、式(9)に従って、動き量M(i,j)を計算することとすると、図3に示すように、動きが検出されずに、静止画補間画素により補間が行われることとなり、コーミングが発生する。
Figure 2007082096
Then, if the motion amount M (i, j) is calculated according to the equation (9) without using the equation (6), as shown in FIG. Interpolation is performed by the interpolation pixel, and combing occurs.

Figure 2007082096
すなわち、図3において、四角の画素は元々ある画素であり、丸の画素は補完するべき画素である。例えば、画素134と画素334との差分の絶対値が画素234の動き量となるが、この値はゼロであるため、画素234は、静止画画素であると間違って判断される。そうすると、画素134と画素334の平均値が画素234の補間値となり、画素234は白となってしまう。画素214、254についても同様である。そうすると、画素224、244、264が正しく黒であるのに対し、画素214、234、254は間違って白となってしまい、コーミングが発生する。
Figure 2007082096
That is, in FIG. 3, square pixels are originally pixels, and round pixels are pixels to be complemented. For example, the absolute value of the difference between the pixel 134 and the pixel 334 is the amount of motion of the pixel 234. Since this value is zero, the pixel 234 is erroneously determined to be a still image pixel. Then, the average value of the pixel 134 and the pixel 334 becomes the interpolation value of the pixel 234, and the pixel 234 becomes white. The same applies to the pixels 214 and 254. Then, while the pixels 224, 244, and 264 are correctly black, the pixels 214, 234, and 254 are erroneously white and combing occurs.

一方、本発明に従って、式(6)に従って、動き量M(i,j)を計算することとすると、図4に示すように、正しく動きが検出され、動画補間画素により補間が行われることとなり、コーミングが発生しない。   On the other hand, if the motion amount M (i, j) is calculated according to the equation (6) according to the present invention, the motion is correctly detected and interpolation is performed by the moving image interpolation pixels as shown in FIG. No combing occurs.

すなわち、図4において、図3の場合と同様に、四角の画素は元々ある画素であり、丸の画素は補完するべき画素である。例えば、画素134と画素334との差分の絶対値に画素044と画素244との差分の絶対値の和としきい値THのうちの大きい方が画素234の動き量となるが、この大きい方の値はしきい値THであるため、画素234は、動画画素であると正しく判断される。そうすると、画素224と画素244の平均値が画素234の補間値となり、画素234は黒となる。画素214、254についても同様である。そうすると、画素224、244、264が正しく黒であり、且つ、画素214、234、254も正しく黒であるため、コーミングは発生しない。   That is, in FIG. 4, as in the case of FIG. 3, square pixels are originally pixels, and round pixels are pixels to be complemented. For example, the larger of the sum of the absolute value of the difference between the pixel 044 and the pixel 244 and the threshold value TH in the absolute value of the difference between the pixel 134 and the pixel 334 is the amount of movement of the pixel 234. Since the value is the threshold value TH, the pixel 234 is correctly determined as a moving image pixel. Then, the average value of the pixel 224 and the pixel 244 becomes the interpolation value of the pixel 234, and the pixel 234 becomes black. The same applies to the pixels 214 and 254. Then, since the pixels 224, 244, and 264 are correctly black and the pixels 214, 234, and 254 are also correctly black, no combing occurs.

このように、式(6)に従って動き量M(i,j)を計算することにより、動画画素が間違って静止画画素であると判断されることを回避することができる。   Thus, by calculating the motion amount M (i, j) according to the equation (6), it is possible to avoid erroneously determining that a moving image pixel is a still image pixel.

また、式(6)において、番号nに対応した入力フィールドが偶数フィールドである場合には、m(i,j)は、偶数フィールドから検出された動き量であり、m(i+1、j)は、奇数フィールドから検出された動き量である。同様に、式(6)において、番号nに対応した入力フィールドが奇数フィールドである場合には、m(i,j)は、奇数フィールドから検出された動き量であり、m(i+1、j)は、偶数フィールドから検出された動き量である。すなわち、偶数フィールドと奇数フィールドのうちの一方のフィールドから検出することができなかった動きを他方のフィールドから検出することができる場合があることを利用して動き量M(i、j)を用いることとしている。   In Expression (6), when the input field corresponding to the number n is an even field, m (i, j) is a motion amount detected from the even field, and m (i + 1, j) is , The amount of motion detected from the odd field. Similarly, in Equation (6), when the input field corresponding to the number n is an odd field, m (i, j) is the amount of motion detected from the odd field, and m (i + 1, j) Is the amount of motion detected from the even field. That is, the motion amount M (i, j) is used by utilizing the fact that the motion that could not be detected from one of the even field and the odd field can be detected from the other field. I am going to do that.

次に、図2にその構成を示すIP変換処理部101により行われるインターレス/プログレッシブ変換方法について説明する。   Next, an interlace / progressive conversion method performed by the IP conversion processing unit 101 whose configuration is shown in FIG. 2 will be described.

図5を参照すると、まず、動画補間画素生成部205は、式(1)に従って、動画補間画素を生成する(ステップS301)。次に、静止画補間画素生成部207は、式(2)に従って、静止画補間画素を生成する(ステップS303)。次に、差分計算部309は、式(3)に従って、差分を計算する(ステップS305)。次に、差分補正部211は、式(4)に従って、差分を補正する(ステップS307)。次に、差分累積部215は、式(5)に従って、累積動き量を更新する(ステップS309)。次に、動き量計算部221は、式(6)に従って、動き量を計算する(ステップS311)。次に、合成補間画素生成部223は、式(7)に従って、合成補間画素を生成する(ステップS315)。   Referring to FIG. 5, first, the moving image interpolation pixel generation unit 205 generates a moving image interpolation pixel according to Expression (1) (step S301). Next, the still image interpolation pixel generation unit 207 generates a still image interpolation pixel according to Expression (2) (step S303). Next, the difference calculation unit 309 calculates the difference according to the equation (3) (step S305). Next, the difference correction unit 211 corrects the difference according to the equation (4) (step S307). Next, the difference accumulating unit 215 updates the accumulated motion amount according to the equation (5) (step S309). Next, the motion amount calculation unit 221 calculates the motion amount according to Equation (6) (step S311). Next, the synthetic | combination interpolation pixel production | generation part 223 produces | generates a synthetic | combination interpolation pixel according to Formula (7) (step S315).

次に、補間処理部106の構成及びこれが行なう補間処理について説明する。   Next, the configuration of the interpolation processing unit 106 and the interpolation processing performed by this will be described.

図6を参照すると、出力フレーム時刻入力部106−1は、垂直同期信号取得部104から各出力フレームの時刻を入力する。   Referring to FIG. 6, the output frame time input unit 106-1 receives the time of each output frame from the vertical synchronization signal acquisition unit 104.

入力フレーム時刻参照部106−2は、フレームバッファ102に格納されている各入力フレームの時刻を参照して、現在処理の対象となっている出力フレームの時刻の直前の入力フレーム時刻(第1入力フレーム時刻)及び第1入力フレーム時刻の直後の入力フレーム時刻(第2入力フレーム時刻)を検出する。   The input frame time reference unit 106-2 refers to the time of each input frame stored in the frame buffer 102, and inputs the input frame time (first input) immediately before the time of the output frame currently being processed. Frame time) and an input frame time (second input frame time) immediately after the first input frame time.

第1入力フレーム読出部106−3は、入力フレーム時刻参照部106−2から第1入力フレーム時刻を入力し、更に、第1入力フレーム時刻に対応する入力フレーム(第1入力フレーム)をフレームバッファ102から読み出す。   The first input frame reading unit 106-3 receives the first input frame time from the input frame time reference unit 106-2, and further, the frame buffer receives an input frame (first input frame) corresponding to the first input frame time. Read from 102.

第2入力フレーム読出部106−4は、入力フレーム時刻参照部106−2から第2入力フレーム時刻を入力し、更に、第2入力フレーム時刻に対応する入力フレーム(第2入力フレーム)をフレームバッファ102から読み出す。   The second input frame reading unit 106-4 receives the second input frame time from the input frame time reference unit 106-2, and further, the frame buffer stores an input frame (second input frame) corresponding to the second input frame time. Read from 102.

重み算出部106−5は、下に示す式(10)に従って、出力フレーム時刻tout、第1入力フレーム時刻tin1及び第2入力フレーム時刻tin2を基に、第1入力フレームと第2入力フレームを加重加算するための重みw1、w2を算出する。   The weight calculation unit 106-5 weights the first input frame and the second input frame based on the output frame time tout, the first input frame time tin1, and the second input frame time tin2 according to the following equation (10). Weights w1 and w2 for addition are calculated.

Figure 2007082096
加重加算部106−6は、下に示す式(11)に従って、第1入力フレームの各画素x1(i、j)と第2入力フレームの各画素x2(i、j)を加重加算することにより、出力フレームの各画素y(i、j)を生成し、これを表示メモリ105−1に書き込む。
Figure 2007082096
The weighted addition unit 106-6 performs weighted addition of each pixel x1 (i, j) of the first input frame and each pixel x2 (i, j) of the second input frame in accordance with Expression (11) shown below. , Each pixel y (i, j) of the output frame is generated and written into the display memory 105-1.

Figure 2007082096
次に、図6にその構成を示す補間処理部106により行われる補間処理方法について説明する。
Figure 2007082096
Next, an interpolation processing method performed by the interpolation processing unit 106 whose configuration is shown in FIG. 6 will be described.

図7を参照すると、まず、出力フレーム時刻入力部106−1は、出力フレーム時刻を垂直同期信号取得部104から入力する(ステップS321)。次に、入力フレーム時刻参照部106−2は、第1入力フレーム時刻及び第2入力フレーム時刻を検出する(ステップS323、S325)。次に、重み算出部106−5は、加重加算のための重みを算出する(ステップS327)。次に、ステップS331〜S337を繰り返す(ステップS329)。ステップS331では、第1入力フレーム読出部106−3は、第1入力フレームの画素をフレームバッファ102から読み出す。次に、第2入力フレーム読出部106−4は、第2入力フレームの画素をフレームバッファ102から読み出す(ステップS333)。次に、加重加算部106−6は、加重加算により出力フレームの画素を生成し(ステップS335)、これを表示メモリ105−1に書き込む(ステップS337)。ステップS329の繰返しを、複数の画素毎に行なって、メモリへのアクセス数を減らしてもよい。   Referring to FIG. 7, first, the output frame time input unit 106-1 receives the output frame time from the vertical synchronization signal acquisition unit 104 (step S321). Next, the input frame time reference unit 106-2 detects the first input frame time and the second input frame time (steps S323 and S325). Next, the weight calculation unit 106-5 calculates a weight for weighted addition (step S327). Next, steps S331 to S337 are repeated (step S329). In step S331, the first input frame reading unit 106-3 reads the pixels of the first input frame from the frame buffer 102. Next, the second input frame reading unit 106-4 reads the pixels of the second input frame from the frame buffer 102 (step S333). Next, the weighted addition unit 106-6 generates a pixel of the output frame by weighted addition (step S335), and writes this in the display memory 105-1 (step S337). Step S329 may be repeated for each of a plurality of pixels to reduce the number of accesses to the memory.

なお、図6にその構成を示す補間処理部106は、ハードウェアによって実現することもできるが、コンピュータを図6にその構成を示す補間処理部106として機能させるためのプログラムをコンピュータが記録媒体から読み込んで実行することによっても実現することができる。   Note that the interpolation processing unit 106 whose configuration is shown in FIG. 6 can be realized by hardware, but the computer stores a program for causing the computer to function as the interpolation processing unit 106 whose configuration is shown in FIG. It can also be realized by reading and executing.

実施形態1によれば、出力フレームの各画素を、第1入力フレームの画素と第2入力フレームの画素を基に、第1入力フレームから出力フレームまでの期間と出力フレームから第2入寮フレームまでの期間とに基づいた重みで加重加算するので、出力動画像の動きに不自然さが生ずることがなく、その動きが滑らかとなる。   According to the first embodiment, each pixel of the output frame is determined based on the pixel of the first input frame and the pixel of the second input frame, and the period from the first input frame to the output frame and from the output frame to the second dormitory frame. Since the weighted addition is performed with the weight based on the period of time, unnaturalness does not occur in the motion of the output moving image, and the motion becomes smooth.

[実施形態2]
実施形態2は、基本的な構成に関しては、実施形態1と同様である。しかし、実施形態2は、実施形態1と比較して、第2入力フレームの各画素毎に動き量を見て、その動き量が所定値未満であると判断された場合には、第2入力フレームの画素を利用せずに、第1入力フレームの画素から出力フレームの画素を生成する点が異なる。これにより、そのような画素については、加重加算部106−6による加重加算の処理を省略することができるので、演算量を減らすことができる。また、そのように省略しても、出力フレームの画質はさほど劣化しない。
[Embodiment 2]
The second embodiment is the same as the first embodiment regarding the basic configuration. However, compared to the first embodiment, the second embodiment looks at the amount of motion for each pixel of the second input frame and determines that the amount of motion is less than a predetermined value. The difference is that the pixel of the output frame is generated from the pixel of the first input frame without using the pixel of the frame. Thereby, since the weighted addition process by the weighted addition unit 106-6 can be omitted for such a pixel, the amount of calculation can be reduced. Even if it is omitted as such, the image quality of the output frame does not deteriorate so much.

図8は、実施形態2によるフレーム周波数変換装置の全体の構成を示すブロック図である。図8を図1と比較すると明らかなように、実施形態2によるフレーム周波数変換装置が実施形態1によるフレーム周波数変換装置と異なる点は、動き量バッファ108が追加され、これに伴い接続が増加した点及び補間処理部106が補間処理部106Bに変更された点である。   FIG. 8 is a block diagram showing the overall configuration of the frame frequency conversion apparatus according to the second embodiment. As is clear from comparing FIG. 8 with FIG. 1, the frame frequency conversion device according to the second embodiment is different from the frame frequency conversion device according to the first embodiment in that a motion amount buffer 108 is added, and the connection increases accordingly. The point and interpolation processing unit 106 is changed to the interpolation processing unit 106B.

動き量バッファ108は、フレームバッファ102に格納される各入力フレームの各画素毎に動き量計算部221(図2)が算出した動き量を格納する。   The motion amount buffer 108 stores the motion amount calculated by the motion amount calculation unit 221 (FIG. 2) for each pixel of each input frame stored in the frame buffer 102.

図9は、実施形態2による補間処理部106Bの構成を示すブロック図である。図9を図2と比較すると明らかなように、実施形態2による補間処理部106Bが実施形態1による補間処理部106と異なる点は、第2入力フレーム画素動き量読出部106−7、省略判断部106−8、スイッチ106−9が追加され、これに伴い、接続が増加した点である。   FIG. 9 is a block diagram illustrating a configuration of the interpolation processing unit 106B according to the second embodiment. As is clear from comparison of FIG. 9 with FIG. 2, the interpolation processing unit 106B according to the second embodiment is different from the interpolation processing unit 106 according to the first embodiment in that the second input frame pixel motion amount reading unit 106-7 is omitted. The part 106-8 and the switch 106-9 are added, and the connection is increased accordingly.

第2入力フレーム画素動き量読出部106−7は、第2入力フレームの各画素に対応した動き量を動き量バッファ108から読み出す。   The second input frame pixel motion amount reading unit 106-7 reads the motion amount corresponding to each pixel of the second input frame from the motion amount buffer 108.

省略判断部106−8は、第2入力フレーム画素動き量読出部106−7が読み出した動き量が所定のしきい値未満であるか否かを判断し、そうである場合には、対応する画素について、第2入力フレーム読出部106−4による読出し、加重加算部106−6による加重加算を休止させ、スイッチ106−9に対しては、第1入力フレーム読出部106−3が読み出した画素を選択させる。そうでない場合には、第2入力フレーム読出部106−4及び加重加算部106−6は、実施形態1と同様に動作し、スイッチ106−9は、加重加算部106−6の出力を選択する。   The omission determination unit 106-8 determines whether or not the motion amount read by the second input frame pixel motion amount reading unit 106-7 is less than a predetermined threshold value. For the pixel, the readout by the second input frame readout unit 106-4 and the weighted addition by the weighted addition unit 106-6 are suspended, and for the switch 106-9, the pixel read out by the first input frame readout unit 106-3 To select. Otherwise, the second input frame reading unit 106-4 and the weighted addition unit 106-6 operate in the same manner as in the first embodiment, and the switch 106-9 selects the output of the weighted addition unit 106-6. .

第2入力フレーム画素動き量読出部106−7が読み出した動き量と比較する所定のしきい値は、例えば、動き量の取りうる値が0からXであるとし、Xが大きいほど動き量が大きいことを表すとした場合、Xとしてもよい。但し、Xよりも小さな値としてもよい。画質劣化の程度と演算量削減の程度とを考慮して、適切な値に設定する。CPUの演算能力や現在の負荷を検出し、これを考慮してもよい。Xの値が大きいほど、演算量削減の効果が大きいが、画質劣化の程度が相対的に大きくなる。   The predetermined threshold value to be compared with the motion amount read by the second input frame pixel motion amount reading unit 106-7 is, for example, a value that the motion amount can take from 0 to X, and the larger the X, the more the motion amount. X may be used when it represents large. However, the value may be smaller than X. An appropriate value is set in consideration of the degree of image quality deterioration and the amount of calculation amount reduction. The CPU's computing power and current load may be detected and taken into account. The larger the value of X, the greater the effect of reducing the amount of computation, but the degree of image quality deterioration is relatively large.

次に、図9にその構成を示す補間処理部106Bにより行われる補間処理方法について説明する。   Next, an interpolation processing method performed by the interpolation processing unit 106B whose configuration is shown in FIG. 9 will be described.

図10を参照すると、まず、出力フレーム時刻入力部106−1は、出力フレーム時刻を垂直同期信号取得部104から入力する(ステップS341)。次に、入力フレーム時刻参照部106−2は、第1入力フレーム時刻及び第2入力フレーム時刻を検出する(ステップS343、S345)。次に、重み算出部106−5は、加重加算のための重みを算出する(ステップS347)。次に、ステップS351〜S363を繰り返す(ステップS349)。ステップS351では、第1入力フレーム読出部106−3は、第1入力フレームの画素をフレームバッファ102から読み出す。次に、第2入力フレーム画素動き量読出部106−7は、動き量バッファ108から現在の画素の動き量を読み出す(ステップS353)。次に、省略判断部106−8は、読み出した動き量が所定のしきい値未満であるか否かを判断する(ステップS355)。   Referring to FIG. 10, first, the output frame time input unit 106-1 receives the output frame time from the vertical synchronization signal acquisition unit 104 (step S341). Next, the input frame time reference unit 106-2 detects the first input frame time and the second input frame time (steps S343 and S345). Next, the weight calculation unit 106-5 calculates a weight for weighted addition (step S347). Next, steps S351 to S363 are repeated (step S349). In step S351, the first input frame reading unit 106-3 reads the pixels of the first input frame from the frame buffer 102. Next, the second input frame pixel motion amount reading unit 106-7 reads the current motion amount of the pixel from the motion amount buffer 108 (step S353). Next, the omission determination unit 106-8 determines whether or not the read motion amount is less than a predetermined threshold value (step S355).

そうである場合には(ステップS355でYES)、スイッチ106−9は、第1フレーム画素を選択し(ステップS357)、それを表示メモリ105−1に書き込む(ステップS365)。   If so (YES in step S355), the switch 106-9 selects the first frame pixel (step S357) and writes it in the display memory 105-1 (step S365).

そうでない場合には(ステップS355でNO)、第2入力フレーム読出部106−4は、第2入力フレームの画素をフレームバッファ102から読み出す(ステップS359)。次に、加重加算部106−6は、加重加算により出力フレームの画素を生成する(ステップS361)。次に、スイッチ106−9は、加重加算により生成した画素を選択し(ステップS363)、それを表示メモリ105−1に書き込む(ステップS365)。ステップS349の繰返しを、複数の画素毎に行なって、メモリへのアクセス数を減らしてもよい。   Otherwise (NO in step S355), the second input frame reading unit 106-4 reads the pixels of the second input frame from the frame buffer 102 (step S359). Next, the weighted addition unit 106-6 generates pixels of the output frame by weighted addition (step S361). Next, the switch 106-9 selects a pixel generated by weighted addition (step S363) and writes it in the display memory 105-1 (step S365). The number of accesses to the memory may be reduced by repeating step S349 for each of a plurality of pixels.

また、動き量の算出及びこれに基づいた判断とその判断に基づいた条件動作を各画素毎に行なう代わりに、例えば、M×N画素のブロック毎に行なってもよい。それに応じて、IP変換処理部101での動き量の生成方法をブロック毎のものに変えてもよい。   Further, instead of performing the calculation of the motion amount and the determination based on the calculation and the conditional operation based on the determination for each pixel, for example, the calculation may be performed for each block of M × N pixels. Accordingly, the motion amount generation method in the IP conversion processing unit 101 may be changed to one for each block.

なお、図9にその構成を示す補間処理部106Bは、ハードウェアによって実現することもできるが、コンピュータを図9にその構成を示す補間処理部106Bとして機能させるためのプログラムをコンピュータが記録媒体から読み込んで実行することによっても実現することができる。   Although the interpolation processing unit 106B whose configuration is shown in FIG. 9 can be realized by hardware, the computer uses a recording medium to store a program for causing the computer to function as the interpolation processing unit 106B whose configuration is shown in FIG. It can also be realized by reading and executing.

[実施形態3]
実施形態1及び2では、IP変換処理部101と補間処理部106又は106Bとを別々に設けていたが、実施形態3では、これらを一体化する。
[Embodiment 3]
In the first and second embodiments, the IP conversion processing unit 101 and the interpolation processing unit 106 or 106B are provided separately, but in the third embodiment, these are integrated.

図11及び図12を参照して、実施形態3の原理について説明する。図11及び図12は、時間軸を横にとり、画面の垂直軸を縦にとって、入力フィールドf(n−1)、f(n)、f(n+1)、f(n+2)と出力フレームF(m)の或る水平方向位置における断面を示している。また、出力フレームにおいて二重丸で示しているのは、現在生成しようとしている画素(対象画素)y(m、i、j)である。ここで、iは、フレーム内でのライン番号であり、jはライン内での画素番号である。また、入力フィールドf(n)は、出力フレームF(m)の直前のフィールドであり、入力フィールドf(n+1)は、入力フィールドf(n)の直後の入力フィールドである。   The principle of the third embodiment will be described with reference to FIGS. 11 and 12. 11 and 12, the time axis is horizontal and the vertical axis of the screen is vertical, the input fields f (n−1), f (n), f (n + 1), f (n + 2) and the output frame F (m ) At a certain horizontal position. In addition, what is indicated by a double circle in the output frame is a pixel (target pixel) y (m, i, j) that is currently generated. Here, i is a line number in the frame, and j is a pixel number in the line. The input field f (n) is a field immediately before the output frame F (m), and the input field f (n + 1) is an input field immediately after the input field f (n).

図11(a)は、入力フィールドf(n)に対象画素y(m、i、j)と空間的に同一位置の画素x(n、i、j)がある場合において、対象画素y(m、i、j)についての動画補間画素ym(m、i、j)を生成する方法の一例を示している。入力フィールドf(n)において、対象画素y(m、i、j)に空間的に最も近い画素は画素x(n、i、j)であり、入力フィールドf(n+1)において、対象画素y(m、i、j)に空間的に最も近い画素はx(n+1、i−1、j)とx(n+1、i+1、j)である。   FIG. 11A shows the target pixel y (m) when the input field f (n) has a pixel x (n, i, j) spatially located at the same position as the target pixel y (m, i, j). , I, j) shows an example of a method for generating a moving image interpolation pixel ym (m, i, j). In the input field f (n), the pixel spatially closest to the target pixel y (m, i, j) is the pixel x (n, i, j). In the input field f (n + 1), the target pixel y ( The pixels spatially closest to m, i, j) are x (n + 1, i-1, j) and x (n + 1, i + 1, j).

出力フレームF(m)の時刻をtout、入力フィールドf(n)の時刻をtin1、入力フィールドf(n+1)の時刻をtin2とした場合、動画補間画素ym(m、i、j)を生成するための加重加算における重みw1、w2を下に示す式(12)により算出する。   When the time of the output frame F (m) is tout, the time of the input field f (n) is tin1, and the time of the input field f (n + 1) is tin2, the moving image interpolation pixel ym (m, i, j) is generated. For this purpose, the weights w1 and w2 in the weighted addition are calculated by the following equation (12).

Figure 2007082096
そして、動画補間画素ym(m、i、j)を下に示す式(13)により算出する。
Figure 2007082096
Then, the moving image interpolation pixel ym (m, i, j) is calculated by the following equation (13).

Figure 2007082096
但し、動画補間画素ym(m、i、j)を下に示す式(14)又は式(15)により算出してもよい。
Figure 2007082096
However, the moving image interpolation pixel ym (m, i, j) may be calculated by the following formula (14) or formula (15).

Figure 2007082096
Figure 2007082096

Figure 2007082096
また、重みw1>w2の場合に、式(14)を利用し、そうでない場合に、式(15)を利用するようにしてもよい。
Figure 2007082096
Further, when the weight w1> w2, the expression (14) may be used, and if not, the expression (15) may be used.

また、式(13)、式(14)、式(15)に現れる入力画素以外の入力画素(例えば、フィールドf(n)やf(n+1)の位置(i、j)の近傍の画素)も用いて動画補間画素ym(m、i、j)を算出してもよい。   Also, input pixels other than the input pixels appearing in Expression (13), Expression (14), and Expression (15) (for example, pixels in the vicinity of the position (i, j) of the fields f (n) and f (n + 1)) are also included. The moving image interpolation pixel ym (m, i, j) may be calculated by using this.

図11(b)は、入力フィールドf(n+1)に対象画素y(m、i’、j)と空間的に同一位置の画素x(n、i’、j)がある場合において、対象画素y(m、i’、j)についての動画補間画素ym(m、i’、j)を生成する方法の一例を示している。入力フィールドf(n+1)において、対象画素y(m、i’、j)に空間的に最も近い画素は画素x(n+1、i’、j)であり、入力フィールドf(n)において、対象画素y(m、i’、j)に空間的に最も近い画素はx(n、i’−1、j)とx(n、i’+1、j)である。   FIG. 11B shows the target pixel y when the input field f (n + 1) includes a pixel x (n, i ′, j) that is spatially located at the same position as the target pixel y (m, i ′, j). An example of a method for generating a moving image interpolation pixel ym (m, i ′, j) for (m, i ′, j) is shown. In the input field f (n + 1), the pixel spatially closest to the target pixel y (m, i ′, j) is the pixel x (n + 1, i ′, j). In the input field f (n), the target pixel The pixels spatially closest to y (m, i ′, j) are x (n, i′−1, j) and x (n, i ′ + 1, j).

出力フレームF(m)の時刻をtout、入力フィールドf(n)の時刻をtin1、入力フィールドf(n+1)の時刻をtin2とした場合、動画補間画素ym(m、i’、j)を生成するための加重加算における重みw1、w2を上に示す式(12)により算出する。   When the time of the output frame F (m) is tout, the time of the input field f (n) is tin1, and the time of the input field f (n + 1) is tin2, the moving image interpolation pixel ym (m, i ′, j) is generated. The weights w1 and w2 in the weighted addition for calculating are calculated by the equation (12) shown above.

そして、動画補間画素ym(m、i’、j)を下に示す式(16)により算出する。   Then, the moving image interpolation pixel ym (m, i ', j) is calculated by the following equation (16).

Figure 2007082096
但し、動画補間画素ym(m、i’、j)を下に示す式(17)又は式(18)により算出してもよい。
Figure 2007082096
However, the moving image interpolation pixel ym (m, i ′, j) may be calculated by the following expression (17) or expression (18).

Figure 2007082096
Figure 2007082096

Figure 2007082096
また、重みw1>w2の場合に、式(17)を利用し、そうでない場合に、式(18)を利用するようにしてもよい。
Figure 2007082096
Further, when weight w1> w2, the expression (17) may be used, and if not, the expression (18) may be used.

また、式(16)、式(17)、式(18)に現れる入力画素以外の入力画素(例えば、フィールドf(n)やf(n+1)の位置(i、j)の近傍の画素)も用いて動画補間画素ym(m、i’、j)を算出してもよい。   In addition, input pixels other than the input pixels appearing in the equations (16), (17), and (18) (for example, pixels in the vicinity of the position (i, j) of the field f (n) or f (n + 1)) are also included. The moving image interpolation pixel ym (m, i ′, j) may be calculated by using this.

図12(a)は、入力フィールドf(n)に対象画素y(m、i、j)と空間的に同一位置の画素x(n、i、j)がある場合において、対象画素y(m、i、j)についての静止画補間画素ys(m、i、j)を生成する方法の一例を示している。基本的には、静止画補間画素ys(m、i、j)は、出力フレームF(m)の近くにある1以上の入力フレームの画素のうち、静止画補間画素ys(m、i、j)と空間的に同一位置にある画素を基にして生成する。入力フィールドf(n)において、空間的に対象画素y(m、i、j)と同一の位置にある画素は画素x(n、i、j)であり、入力フィールドf(n+2)において、空間的に対象画素y(m、i、j)と同一位置にある画素はx(n+2、i、j)である。   FIG. 12A illustrates the target pixel y (m) when the input field f (n) includes a pixel x (n, i, j) spatially located at the same position as the target pixel y (m, i, j). , I, j) shows an example of a method for generating a still image interpolation pixel ys (m, i, j). Basically, the still image interpolation pixel ys (m, i, j) is a still image interpolation pixel ys (m, i, j) among pixels of one or more input frames near the output frame F (m). ) Based on pixels located in the same spatial position. In the input field f (n), the pixel spatially located at the same position as the target pixel y (m, i, j) is the pixel x (n, i, j), and in the input field f (n + 2), the space In particular, the pixel at the same position as the target pixel y (m, i, j) is x (n + 2, i, j).

出力フレームF(m)の時刻をtout、入力フィールドf(n)の時刻をtin1、入力フィールドf(n+2)の時刻をtin2とした場合、静止画補間画素ys(m、i、j)を生成するための加重加算における重みw1、w2を上に示す式(12)により算出する。   When the time of the output frame F (m) is tout, the time of the input field f (n) is tin1, and the time of the input field f (n + 2) is tin2, the still image interpolation pixel ys (m, i, j) is generated. The weights w1 and w2 in the weighted addition for calculating are calculated by the equation (12) shown above.

そして、静止画補間画素ys(m、i、j)を下に示す式(19)により算出する。   Then, the still image interpolation pixel ys (m, i, j) is calculated by the following equation (19).

Figure 2007082096
但し、静止画補間画素ys(m、i、j)を下に示す式(20)又は式(21)により算出してもよい。
Figure 2007082096
However, the still image interpolation pixel ys (m, i, j) may be calculated by the following equation (20) or equation (21).

Figure 2007082096
Figure 2007082096

Figure 2007082096
また、重みw1>w2の場合に、式(20)を利用し、そうでない場合に、式(21)を利用するようにしてもよい。
Figure 2007082096
Further, when weight w1> w2, the expression (20) may be used, and if not, the expression (21) may be used.

また、式(19)、式(20)、式(21)に現れる入力画素以外の入力画素(例えば、x(n−2、i、j)、x(n+4、i、j))も用いて静止画補間画素ys(m、i、j)を算出してもよい。   In addition, input pixels other than the input pixels appearing in Expression (19), Expression (20), and Expression (21) (for example, x (n−2, i, j), x (n + 4, i, j)) are also used. The still image interpolation pixel ys (m, i, j) may be calculated.

図12(b)は、入力フィールドf(n+1)に対象画素y(m、i’、j)と空間的に同一位置の画素x(n+1、i’、j)がある場合において、対象画素y(m、i’、j)についての静止画補間画素ys(m、i’、j)を生成する方法の一例を示している。基本的には、静止画補間画素ys(m、i’、j)は、出力フレームF(m)の近くにある1以上の入力フレームの画素のうち、静止画補間画素ys(m、i’、j)と空間的に同一位置にある画素を基にして生成する。入力フィールドf(n−1)において、空間的に対象画素y(m、i’、j)と同一の位置にある画素は画素x(n−1、i’、j)であり、入力フィールドf(n+1)において、空間的に対象画素y(m、i’、j)と同一位置にある画素はx(n+1、i’、j)である。   FIG. 12B shows the target pixel y when the input field f (n + 1) includes a pixel x (n + 1, i ′, j) spatially identical to the target pixel y (m, i ′, j). An example of a method for generating a still image interpolation pixel ys (m, i ′, j) for (m, i ′, j) is shown. Basically, the still image interpolation pixel ys (m, i ′, j) is a still image interpolation pixel ys (m, i ′) among pixels of one or more input frames near the output frame F (m). , J) is generated on the basis of pixels located at the same spatial position. In the input field f (n−1), the pixel spatially located at the same position as the target pixel y (m, i ′, j) is the pixel x (n−1, i ′, j), and the input field f In (n + 1), the pixel spatially located at the same position as the target pixel y (m, i ′, j) is x (n + 1, i ′, j).

出力フレームF(m)の時刻をtout、入力フィールドf(n−1)の時刻をtin1、入力フィールドf(n+1)の時刻をtin2とした場合、静止画補間画素ys(m、i’、j)を生成するための加重加算における重みw1、w2を上に示す式(12)により算出する。   When the time of the output frame F (m) is tout, the time of the input field f (n−1) is tin1, and the time of the input field f (n + 1) is tin2, the still image interpolation pixel ys (m, i ′, j ) To calculate the weights w1 and w2 in the weighted addition for generating () by the equation (12) shown above.

そして、静止画補間画素ys(m、i’、j)を下に示す式(22)により算出する。   Then, the still image interpolation pixel ys (m, i ', j) is calculated by the following equation (22).

Figure 2007082096
但し、静止画補間画素ys(m、i’、j)を下に示す式(23)又は式(24)により算出してもよい。
Figure 2007082096
However, the still image interpolation pixel ys (m, i ′, j) may be calculated by the following equation (23) or equation (24).

Figure 2007082096
Figure 2007082096

Figure 2007082096
また、重みw1>w2の場合に、式(23)を利用し、そうでない場合に、式(24)を利用するようにしてもよい。
Figure 2007082096
Further, when the weight w1> w2, the expression (23) may be used, and if not, the expression (24) may be used.

また、式(22)、式(23)、式(24)に現れる入力画素以外の入力画素(例えば、x(n−3、i、j)、x(n+3、i、j))も用いて静止画補間画素ys(m、i’、j)を算出してもよい。   In addition, input pixels other than the input pixels appearing in Expression (22), Expression (23), and Expression (24) (for example, x (n−3, i, j), x (n + 3, i, j)) are also used. The still image interpolation pixel ys (m, i ′, j) may be calculated.

このようにして、対象画素についての動画補間画素ym(m、i、j)と静止画補間画素ys(m、i、j)を算出する。ここで、iはi及びi’を代表して表している。   In this way, the moving image interpolation pixel ym (m, i, j) and the still image interpolation pixel ys (m, i, j) for the target pixel are calculated. Here, i represents i and i 'as a representative.

そして、対象画素についての動き量M(i、j)を求め、動き量に基づいた重みで動画補間画素ym(m、i、j)と静止画補間画素ys(m、i、j)とを加重加算することにより対象画素y(m、i、j)を生成する。   Then, the motion amount M (i, j) for the target pixel is obtained, and the moving image interpolation pixel ym (m, i, j) and the still image interpolation pixel ys (m, i, j) are calculated with weights based on the motion amount. The target pixel y (m, i, j) is generated by weighted addition.

動き量M(i,j)の算出方法及び対象画素y(m、i、j)を生成するための加重加算の方法としては、実施形態1と同様なものを利用することができる。以下、これらについて説明する。   As a method for calculating the motion amount M (i, j) and a weighted addition method for generating the target pixel y (m, i, j), the same method as in the first embodiment can be used. Hereinafter, these will be described.

入力フィールドf(n)に対象画素y(m、i、j)と空間的に同一位置の画素x(n、i、j)がある場合には、対象画素についての差分C(m、i、j)を下に示す式(25)に従って求める。   When the input field f (n) includes a pixel x (n, i, j) that is spatially identical to the target pixel y (m, i, j), the difference C (m, i, j) is determined according to equation (25) below.

Figure 2007082096
入力フィールドf(n+1)に対象画素y(m、i’、j)と空間的に同一位置の画素x(n+1、i’、j)がある場合には、対象画素についての差分C(m、i’、j)を下に示す式(26)に従って求める。
Figure 2007082096
If the input field f (n + 1) includes a pixel x (n + 1, i ′, j) spatially identical to the target pixel y (m, i ′, j), the difference C (m, i ′, j) is obtained according to the equation (26) shown below.

Figure 2007082096
差分C(m,i,j)又はC(m,i’,j)は、動き量の基本となる。
Figure 2007082096
The difference C (m, i, j) or C (m, i ′, j) is the basis of the amount of motion.

次に、下に示す式(27)に従ってC(m、i、j)を補正することにより、補正された差分D(m,i,j)を求める。ここで、iは、i及びi’を代表するが、これは以下同様である。   Next, the corrected difference D (m, i, j) is obtained by correcting C (m, i, j) according to the equation (27) below. Here, i represents i and i ', and so on.

Figure 2007082096
ここで、Δcの値は、ノイズのレベル等により決定された値である。
Figure 2007082096
Here, the value of Δc is a value determined by the noise level or the like.

次に、メモリに格納されている累積動き量m(i,j)を下に示す式(28)に従って更新する。   Next, the accumulated motion amount m (i, j) stored in the memory is updated according to the equation (28) shown below.

Figure 2007082096
ここで、THの値は、視覚特性等により決定された値である。THの値は、例えば、16である。
Figure 2007082096
Here, the value of TH is a value determined by visual characteristics or the like. The value of TH is 16, for example.

上に示す式(28)に従って、累積動き量m(i,j)を計算することの効果は実施形態1で説明したとおりである。   The effect of calculating the cumulative motion amount m (i, j) according to the equation (28) shown above is as described in the first embodiment.

次に、下に示す式(29)に従って動き量M(i,j)を算出する。   Next, the motion amount M (i, j) is calculated according to the following equation (29).

Figure 2007082096
式(29)において、m(i、j)とm(i+1、j)のうちの何れか一方は入力偶数フィールドから検出された累積動き量であり、他方は入力奇数フィールドから検出された累積動き量である。
Figure 2007082096
In Equation (29), one of m (i, j) and m (i + 1, j) is the cumulative motion amount detected from the input even field, and the other is the cumulative motion detected from the input odd field. Amount.

次に、下に示す式(30)に従って対象画素y(m,i,j)を算出する。   Next, the target pixel y (m, i, j) is calculated according to the equation (30) shown below.

Figure 2007082096
次に、実施形態3によるフレーム周波数変換装置の構成について図13を参照して説明する。
Figure 2007082096
Next, the configuration of the frame frequency conversion apparatus according to the third embodiment will be described with reference to FIG.

図13を参照すると、画像データ書込部403は、NTSCチューナ等から出力されたインターレス走査の動画像を入力し、各フィールドを第1から第4のフィールドメモリ401−1〜401−4に書き込む。また、各フィールドを書き込む時の時刻をシステムクロック441から取得し、それもフィールドメモリに書き込む。更に、各フィールドが偶数フィールドであるのか奇数フィールドであるのかを、例えば、入力動画像の同期信号等から検出し、或いは、NTSCチューナから入力し、それに関する情報もフィールドメモリに書き込む。フィールドメモリの数を増やして、出力フレーム時間が変動した場合であっても、何れかのフィールドメモリに確実に入力フィールドf(n−1)、f(n)、f(n+1)、f(n+2)が格納されるようにしてもよい。   Referring to FIG. 13, the image data writing unit 403 inputs the interlaced scanning moving image output from the NTSC tuner or the like, and stores each field in the first to fourth field memories 401-1 to 401-4. Write. Also, the time when each field is written is obtained from the system clock 441 and is also written into the field memory. Further, whether each field is an even field or an odd field is detected from, for example, a synchronization signal of an input moving image, or is input from an NTSC tuner, and information related thereto is also written in the field memory. Even when the number of field memories is increased and the output frame time fluctuates, the input fields f (n−1), f (n), f (n + 1), f (n + 2) are surely stored in any field memory. ) May be stored.

垂直同期信号取得部104は、プログレッシブ走査の出力動画像の垂直同期信号をグラフィックカード105から取得し、垂直同期信号を取得した時刻を出力フレームの時刻としてシステムクロック103から取得する。なお、出力フレームの時刻よりも後の時刻が付された入力フレームを利用できるように、出力フレームの時刻にオフセットを持たせてもよい。すなわち、例えば、出力フレームの時刻をシステムクロックから得た時刻から45ミリ秒過去の時刻とすることにより、出力フレームの時刻よりも後の時刻が付された入力フレームを利用できるようにしてもよい。   The vertical synchronization signal acquisition unit 104 acquires the vertical synchronization signal of the progressive moving image output from the graphic card 105, and acquires the time at which the vertical synchronization signal was acquired from the system clock 103 as the time of the output frame. Note that the output frame time may be offset so that an input frame with a time later than the output frame time can be used. That is, for example, by setting the time of the output frame to 45 milliseconds past the time obtained from the system clock, the input frame with a time later than the time of the output frame may be used. .

出力フレーム時刻入力部432は、垂直同期信号取得部104から各出力フレームF(m)の時刻を取得する。   The output frame time input unit 432 acquires the time of each output frame F (m) from the vertical synchronization signal acquisition unit 104.

入力フィールド時刻参照部435は、第1から第4のフィールドメモリ401−1−〜401−4からフィールドf(n−1)、f(n)、f(n+1)及びf(n+2)それぞれの時刻を取得する。   The input field time reference unit 435 receives the times of the fields f (n−1), f (n), f (n + 1), and f (n + 2) from the first to fourth field memories 401-1 to 401-4. To get.

偶奇フィールド参照部437は、第1から第4のフィールドメモリ401−1−〜401−4からフィールドf(n−1)、f(n)、f(n+1)及びf(n+2)がそれぞれ偶数フィールドであるのか奇数フィールドであるのかに関する情報を取得する。   The even / odd field reference unit 437 includes fields f (n−1), f (n), f (n + 1), and f (n + 2) from the first to fourth field memories 401-1 to 401-4 as even fields. Get information about whether the field is an odd field.

重み算出部439は、出力フィールドF(m)の時刻、フィールドf(n−1)、f(n)、f(n+1)及びf(n+2)それぞれの時刻及びフィールドf(n−1)、f(n)、f(n+1)及びf(n+2)がそれぞれ偶数フィールドであるのか奇数フィールドであるのかに関する情報に基づいて、出力フレームF(m)の各画素y(m、i、j)についての動画補間画素ym(m、i、j)及び静止画補間画素ys(m、i、j)を生成するための重みを算出する。   The weight calculation unit 439 calculates the time of the output field F (m), the time of each of the fields f (n−1), f (n), f (n + 1), and f (n + 2) and the fields f (n−1), f (N), f (n + 1) and f (n + 2) for each pixel y (m, i, j) of the output frame F (m) based on information about whether it is an even field or an odd field, respectively. The weights for generating the moving image interpolation pixel ym (m, i, j) and the still image interpolation pixel ys (m, i, j) are calculated.

つまり、例えば、動画補間画素ym(m、i、j)を式(13)に基づいて算出するのか又は式(16)に基づいて算出するのかを、入力フィールドf(n)が偶数フィールドであるのか又は奇数フィールドであるのかに関する情報と対象画素y(m、i、j)のライン番号iが偶数であるのか奇数であるのかに関する情報に基づいて、決定し、更に、それぞれの場合の加重加算における重みを出力フィールドの時刻、フィールドf(n)及びf(n+1)の時刻を式(12)に代入することにより算出する。なお、上述したように、式(13)の代わりに式(14)又は式(15)を固定的又は適応的に利用したり、式(16)の代わりに式(17)又は式(18)を固定的又は適応的に利用するための重みを算出してもよい。   That is, for example, whether the moving image interpolation pixel ym (m, i, j) is calculated based on the equation (13) or the equation (16) is the input field f (n) is an even field. Or an odd field, and information on whether the line number i of the target pixel y (m, i, j) is an even number or an odd number, and further, weighted addition in each case Is calculated by substituting the time of the output field and the times of the fields f (n) and f (n + 1) into the equation (12). As described above, the expression (14) or the expression (15) is used fixedly or adaptively instead of the expression (13), or the expression (17) or the expression (18) is used instead of the expression (16). May be calculated in a fixed or adaptive manner.

また、例えば、静止画補間画素ys(m、i、j)を式(19)に基づいて算出するのか又は式(22)に基づいて算出するのかを、入力フィールドf(n)が偶数フィールドであるのか又は奇数フィールドであるのかに関する情報と対象画素y(m、i、j)のライン番号iが偶数であるのか奇数であるのかに関する情報に基づいて、決定し、更に、それぞれの場合の加重加算における重みを出力フィールドの時刻、フィールドf(n)及びf(n+2)の時刻又は出力フィールドの時刻、フィールドf(n−1)及びf(n+1)を式(12)に代入することにより算出する。なお、上述したように、式(19)の代わりに式(20)又は式(21)を固定的又は適応的に利用したり、式(22)の代わりに式(23)又は式(24)を固定的又は適応的に利用するための重みを算出してもよい。   Further, for example, whether the still image interpolation pixel ys (m, i, j) is calculated based on the equation (19) or the equation (22) is an even field. It is determined on the basis of information on whether there is an odd field or an odd field and information on whether the line number i of the target pixel y (m, i, j) is even or odd, and the weights in each case The weight in addition is calculated by substituting the time of the output field, the time of the fields f (n) and f (n + 2) or the time of the output field, and the fields f (n−1) and f (n + 1) into the equation (12). To do. As described above, the expression (20) or the expression (21) is used fixedly or adaptively instead of the expression (19), or the expression (23) or the expression (24) is used instead of the expression (22). May be calculated in a fixed or adaptive manner.

動画補間画素生成部405は、各対象画素y(m、i、j)についての動画補間画素ym(m、i、j)を生成するために必要な重みを重み算出部329から入力し、その重みに基づいて、必要な画素を第2から第3のフィールドメモリ401−2〜401−3から読み出し、入力した重みと読み出した画素に基づいて静止画補間画素ym(m、i、j)を生成する。   The moving image interpolation pixel generation unit 405 inputs the weight necessary for generating the moving image interpolation pixel ym (m, i, j) for each target pixel y (m, i, j) from the weight calculation unit 329, and Based on the weight, necessary pixels are read from the second to third field memories 401-2 to 401-3, and the still image interpolation pixel ym (m, i, j) is determined based on the input weight and the read pixel. Generate.

静止画補間画素生成部407は、各対象画素y(m、i、j)についての静止画補間画素ys(m、i、j)を生成するために必要な重みを重み算出部329から入力し、その重みに基づいて、必要な画素を第1から第4のフィールドメモリ401−1〜401−4から読み出し、入力した重みと読み出した画素に基づいて静止画補間画素ys(m、i、j)を生成する。   The still image interpolation pixel generation unit 407 inputs a weight necessary for generating the still image interpolation pixel ys (m, i, j) for each target pixel y (m, i, j) from the weight calculation unit 329. The necessary pixels are read from the first to fourth field memories 401-1 to 401-4 based on the weights, and the still image interpolation pixel ys (m, i, j is based on the input weights and the read pixels. ) Is generated.

差分計算部409は、フィールドf(n)が偶数フィールドであるのか又は奇数フィールドであるのかに関する情報と対象画素y(m、i、j)のライン番号iが偶数であるのか奇数であるのかに関する情報に基づいて、どのフィールドのどの画素を基に差分計算をするべきであるのかを判断し、その結果に基づいて必要な画素を第1のフィールドメモリ401−1及び第3のフィールドメモリ401−3又は第2のフィールドメモリ401−2及び第4のフィールドメモリ401−4から読み出し、読み出した画素を基に、式(25)又は式(26)に基づいて差分C(m、i、j)を算出する。   The difference calculation unit 409 relates to information on whether the field f (n) is an even field or an odd field and whether the line number i of the target pixel y (m, i, j) is an even number or an odd number. Based on the information, it is determined which pixel in which field should be calculated, and based on the result, necessary pixels are determined in the first field memory 401-1 and the third field memory 401-. 3 or the second field memory 401-2 and the fourth field memory 401-4, and based on the read pixel, the difference C (m, i, j) based on the equation (25) or the equation (26) Is calculated.

差分補正部411は、式(27)に従って、Cを補正することにより、補正された差分D(m,i,j)を求める。   The difference correction unit 411 calculates the corrected difference D (m, i, j) by correcting C according to the equation (27).

ここで、Δcの値は、ノイズのレベル等により決定され、補正値保持部413に格納されている。   Here, the value of Δc is determined by the noise level or the like and stored in the correction value holding unit 413.

差分累積部415は、累積動き量メモリ417に格納されている累積動き量m(i,j)を式(28)に従って更新する。   The difference accumulating unit 415 updates the accumulated motion amount m (i, j) stored in the accumulated motion amount memory 417 according to the equation (28).

ここで、THの値は、視覚特性等により決定され、しきい値保持部419に格納されている。THの値は、例えば、16である。   Here, the value of TH is determined by visual characteristics and the like, and is stored in the threshold value holding unit 419. The value of TH is 16, for example.

動き量計算部421は、式(29)に従って動き量M(i,j)を算出する。   The motion amount calculation unit 421 calculates the motion amount M (i, j) according to the equation (29).

合成補間画素生成部423は、式(30)に従って合成補間画素y(m,i,j)を算出する。合成補間画素y(m、i、j)は、表示メモリ105−1に書き込まれる。   The synthetic interpolation pixel generation unit 423 calculates a synthetic interpolation pixel y (m, i, j) according to the equation (30). The combined interpolation pixel y (m, i, j) is written into the display memory 105-1.

なお、図13にその構成を示すフレーム周波数変換装置は、ハードウェアによって実現することもできるが、コンピュータを図13にその構成を示すフレーム周波数変換装置として機能させるためのプログラムをコンピュータが記録媒体から読み込んで実行することによっても実現することができる。   The frame frequency conversion device whose configuration is shown in FIG. 13 can be realized by hardware, but the computer uses a recording medium to store a program for causing the computer to function as the frame frequency conversion device whose configuration is shown in FIG. It can also be realized by reading and executing.

[実施形態4]
実施形態1乃至3では、グラフィックカードが垂直同期信号を外部に出力することを前提とし、垂直同期信号取得部104がこの垂直同期信号を取得することとしていた。しかし、出力動画像の垂直同期信号をグラフィックカード等から得られない場合がある。しかし、このような場合であっても、出力動画像の現在のスキャンライン値(走査線番号)及びリフレッシュレート(フレーム周波数)をグラフィックカード等から得られることが多い。
[Embodiment 4]
In the first to third embodiments, it is assumed that the graphic card outputs a vertical synchronization signal to the outside, and the vertical synchronization signal acquisition unit 104 acquires the vertical synchronization signal. However, there are cases where the vertical synchronizing signal of the output moving image cannot be obtained from a graphic card or the like. However, even in such a case, the current scan line value (scan line number) and refresh rate (frame frequency) of the output moving image can often be obtained from a graphic card or the like.

実施形態4は、出力動画像の垂直同期信号をグラフィックカード等から得られないが、出力動画像の現在のスキャンライン値及びリフレッシュレートをグラフィックカード等から得られる場合に対応したものである。つまり、実施形態1乃至3では、各出力フレームの垂直同期信号を取得するたびに、1つの出力フレームを生成していたのであるが、実施形態4では、各出力フレームの垂直同期信号が生成される時刻をスキャンライン値及びリフレッシュレートを基に推測し、新たな垂直同期信号が生成されたと予測された時刻において、1つの出力フレームを生成する。   The fourth embodiment corresponds to the case where the vertical synchronization signal of the output moving image cannot be obtained from the graphic card or the like, but the current scan line value and the refresh rate of the output moving image can be obtained from the graphic card or the like. That is, in Embodiments 1 to 3, one output frame is generated every time the vertical synchronization signal of each output frame is acquired. In Embodiment 4, a vertical synchronization signal of each output frame is generated. Is estimated based on the scan line value and the refresh rate, and one output frame is generated at the time when a new vertical synchronization signal is predicted to be generated.

次に、この方法について説明する。図14を参照すると、左側のステップS501〜S507では、垂直解像度の推定値を算出する。ここで、垂直解像度とは、1フレーム当たりのスキャンライン数(以下、単に「スキャンライン数」という。)である。   Next, this method will be described. Referring to FIG. 14, in steps S501 to S507 on the left side, an estimated value of vertical resolution is calculated. Here, the vertical resolution is the number of scan lines per frame (hereinafter simply referred to as “the number of scan lines”).

まず、スキャンライン数MaxScanLineをゼロに初期化する(ステップS501)。次に、現在のスキャンライン値Aをグラフィックカード等からサンプリングすることにより取得する(ステップS503)。次に、ステップS503で取得したスキャンライン値Aが現在保持しているスキャンライン数MaxScanLineよりも大きいか否かを判断し、そうであれば、スキャンライン値Aをスキャンライン数MaxScanLineに代入する(ステップS505)。次に、ステップS501を実行した時刻から所定時間経過したか否かを判断し、そうであれば、処理を終了し、そうでなければ、ステップS503に戻る(ステップS507)。ステップS503からS507のループを所定時間継続することにより、スキャンライン数MaxScanLineは、実際のスキャンライン数の推定値となる。   First, the scan line number MaxScanLine is initialized to zero (step S501). Next, the current scan line value A is obtained by sampling from a graphic card or the like (step S503). Next, it is determined whether or not the scan line value A acquired in step S503 is larger than the currently held scan line number MaxScanLine. If so, the scan line value A is substituted into the scan line number MaxScanLine ( Step S505). Next, it is determined whether or not a predetermined time has elapsed from the time when step S501 is executed. If so, the process is terminated, and if not, the process returns to step S503 (step S507). By continuing the loop of steps S503 to S507 for a predetermined time, the scan line number MaxScanLine becomes an estimated value of the actual scan line number.

ステップS503からS507のループを抜けたならば、現在のスキャンライン値Aをグラフィックカード等からサンプリングすることにより取得する(ステップS511)。次に、リフレッシュレートの逆数(=フレーム周期)に(現在のスキャンライン値A/スキャンライン数MaxScanLine)を乗ずることにより、最後の垂直同期信号の発生時刻から現在時刻までの経過時間を推定する(ステップS513)。次に、システムクロックから取得した現在のシステム時間から、ステップS513で推定した経過時間を減算することにより、最後の垂直同期信号の発生時刻を推定する(ステップS515)。次に、今回のループのステップS515で発生時刻が推定された垂直同期信号が前回のループのステップS515で発生時刻が推定された垂直同期信号の次の垂直同期信号であるか否かを判断する(ステップS517)。このためには、例えば、今回のループのステップS515で推定された発生時刻が前回のループのステップS515で推定された発生時刻にフレーム周期の半分の時間を加算した時刻よりも遅いか否かを判断する。こうすることにより、推定値であるスキャンライン数MaxScanLineが実際のスキャンライン数に対して誤差を含んでいても、ステップS517での判断を正確なものにすることができる。参考までに、今回のループのステップS515で推定された発生時刻が前回のループのステップS515で推定された発生時刻と一致するか否かを判断する場合には、ステップS517での判断を正確なものにすることができない。   If the loop from step S503 to S507 is exited, the current scan line value A is obtained by sampling from a graphic card or the like (step S511). Next, by multiplying the reciprocal of the refresh rate (= frame period) by (current scan line value A / scan line number MaxScanLine), an elapsed time from the last vertical synchronization signal generation time to the current time is estimated ( Step S513). Next, the time of occurrence of the last vertical synchronization signal is estimated by subtracting the elapsed time estimated in step S513 from the current system time acquired from the system clock (step S515). Next, it is determined whether or not the vertical synchronization signal whose generation time is estimated in step S515 of the current loop is the next vertical synchronization signal of the vertical synchronization signal whose generation time is estimated in step S515 of the previous loop. (Step S517). For this purpose, for example, whether the occurrence time estimated in step S515 of the current loop is later than the time obtained by adding half the time of the frame period to the occurrence time estimated in step S515 of the previous loop. to decide. By doing so, even if the estimated scan line number MaxScanLine includes an error with respect to the actual scan line number, the determination in step S517 can be made accurate. For reference, when it is determined whether or not the occurrence time estimated in step S515 of the current loop matches the occurrence time estimated in step S515 of the previous loop, the determination in step S517 is accurate. I can't make it.

そうであれば(ステップS517でYES)、出力フレームを生成し(ステップS519)、その後、ステップS511に戻る。   If so (YES in step S517), an output frame is generated (step S519), and then the process returns to step S511.

そうでなければ、(ステップS517でNO)、直ちに、ステップS511に戻る。   Otherwise (NO in step S517), the process immediately returns to step S511.

こうすることにより、出力動画像の垂直同期信号に同期して出力フレームを生成することが可能となる。   By doing so, it is possible to generate an output frame in synchronization with the vertical synchronization signal of the output moving image.

[実施形態5]
実施形態1乃至4では、テレビモニタ107のフレーム周波数を外部から調整することができないことを前提としていたが、実施形態5は、テレビモニタ107のフレーム周波数を外部から調整することができる場合に対応したものである。
[Embodiment 5]
In the first to fourth embodiments, it is assumed that the frame frequency of the television monitor 107 cannot be adjusted from the outside. However, the fifth embodiment corresponds to a case where the frame frequency of the television monitor 107 can be adjusted from the outside. It is a thing.

図15を参照すると、IP変換処理部101は、実施形態1のIP変換処理部101と同様なものである。   Referring to FIG. 15, the IP conversion processing unit 101 is the same as the IP conversion processing unit 101 of the first embodiment.

フレームバッファ601は、IP変換処理部101が出力するフレームを複数格納することができ、例えば、リングバッファの構成を有する。IP変換処理部101が出力する各フレームは、一旦、IP変換処理部101から出力される動画像の垂直同期信号に同期してフレームバッファ601に書き込まれ、グラフィックカード105からの垂直同期信号に同期して読み出され、表示メモリ105−1に書き込まれる。   The frame buffer 601 can store a plurality of frames output from the IP conversion processing unit 101, and has, for example, a ring buffer configuration. Each frame output from the IP conversion processing unit 101 is temporarily written in the frame buffer 601 in synchronization with the vertical synchronization signal of the moving image output from the IP conversion processing unit 101 and synchronized with the vertical synchronization signal from the graphic card 105. Are read out and written to the display memory 105-1.

周波数調整部603は、フレームバッファ601に格納されているフレームの数をリングバッファの書込みアドレスと読出しアドレスとの差分に基づいて算出し、そのフレームの数が所定のしきい値TH1よりも大きい場合には、テレビモニタ107のフレーム周波数を上げるための信号をテレビモニタ107に出力し、そのフレームの数が所定のしきい値TH2よりも小さい場合には、テレビモニタ107のフレーム周波数を下げるための信号をテレビモニタ107に出力する。こうすることにより、フレームバッファ601のオーバーフローやアンダーフローを回避することができ、結果的に、IP変換部101から出力される動画像のフレーム周波数にテレビモニタ107のフレーム周波数を合わせることができる。   The frequency adjustment unit 603 calculates the number of frames stored in the frame buffer 601 based on the difference between the write address and the read address of the ring buffer, and the number of frames is greater than a predetermined threshold value TH1. In this case, a signal for increasing the frame frequency of the television monitor 107 is output to the television monitor 107, and when the number of frames is smaller than a predetermined threshold value TH2, the frame frequency of the television monitor 107 is decreased. The signal is output to the television monitor 107. By doing so, overflow and underflow of the frame buffer 601 can be avoided, and as a result, the frame frequency of the television monitor 107 can be matched with the frame frequency of the moving image output from the IP conversion unit 101.

本発明の実施形態1によるフレーム周波数変換装置の構成を示すブロック図である。It is a block diagram which shows the structure of the frame frequency converter by Embodiment 1 of this invention. 図1に示すIP変換処理部の構成の例を示すブロック図である。It is a block diagram which shows the example of a structure of the IP conversion process part shown in FIG. 本発明の実施形態によるIP変換処理部が行なう動き量検出方法の効果を説明するための第1の図である。It is a 1st figure for demonstrating the effect of the motion amount detection method which the IP conversion process part by embodiment of this invention performs. 本発明の実施形態によるIP変換処理部が行なう動き量検出方法の効果を説明するための第2の図である。It is a 2nd figure for demonstrating the effect of the motion amount detection method which the IP conversion process part by embodiment of this invention performs. 図2にその構成を示すIP変換処理部により行なわれるIP変換処理方法を示すフローチャートである。FIG. 2 is a flowchart showing an IP conversion processing method performed by an IP conversion processing unit whose configuration is shown in FIG. 図1に示す補間処理部の構成の例を示すブロック図である。It is a block diagram which shows the example of a structure of the interpolation process part shown in FIG. 図6にその構成を示す補間処理部により行なわれる補間方法を示すフローチャートである。FIG. 6 is a flowchart showing an interpolation method performed by an interpolation processing unit whose configuration is shown in FIG. 本発明の実施形態2によるフレーム周波数変換装置の構成を示すブロック図である。It is a block diagram which shows the structure of the frame frequency converter by Embodiment 2 of this invention. 図8に示す補間処理部の構成の例を示すブロック図である。It is a block diagram which shows the example of a structure of the interpolation process part shown in FIG. 図9にその構成を示す補間処理部により行なわれる補間方法を示すフローチャートである。FIG. 9 is a flowchart showing an interpolation method performed by an interpolation processing unit whose configuration is shown in FIG. 本発明の実施形態3の原理を説明するための第1の図であり、動画補間画素を生成する方法を説明するためのものである。It is the 1st figure for demonstrating the principle of Embodiment 3 of this invention, and is for demonstrating the method to produce | generate a moving image interpolation pixel. 本発明の実施形態3の原理を説明するための第1の図であり、静止画補間画素を生成する方法を説明するためのものである。It is the 1st figure for demonstrating the principle of Embodiment 3 of this invention, and is for demonstrating the method to produce | generate a still image interpolation pixel. 本発明の実施形態3によるフレーム周波数変換装置の構成を示すブロック図である。It is a block diagram which shows the structure of the frame frequency converter by Embodiment 3 of this invention. 本発明の実施形態4による垂直同期信号推定方法を含むフレーム周波数変換方法を示すフローチャートである。6 is a flowchart illustrating a frame frequency conversion method including a vertical synchronization signal estimation method according to Embodiment 4 of the present invention. 本発明の実施形態5によるテレビモニタフレーム周波数調整機能を有するインターレス/プログレッシブ変換装置の構成を示すブロック図である。It is a block diagram which shows the structure of the interlace / progressive conversion apparatus which has a television monitor frame frequency adjustment function by Embodiment 5 of this invention.

符号の説明Explanation of symbols

101 IP変換処理部
102 フレームバッファ
103 システムクロック
104 垂直同期信号取得部
105 グラフィックカード
106、106B 補間処理部
107 テレビモニタ
108 動き量バッファ
101 IP conversion processing unit 102 Frame buffer 103 System clock 104 Vertical synchronization signal acquisition unit 105 Graphic card 106, 106B Interpolation processing unit 107 Television monitor 108 Motion amount buffer

Claims (25)

インターレス走査の入力動画像を基に、該入力動画像とはフレーム周波数が異なるプログレッシブ走査の出力動画像を生成するためのフレーム周波数変換方法において、
前記出力動画像に含まれるべき各出力フレーム(以下、「対象出力フレーム」という。)の各画素(以下、「対象画素」という。)についての動画補間画素を、前記入力動画像に含まれる少なくとも1つの入力フィールドの少なくとも1つの画素を基にして、第1の加重加算により生成する動画補間画素生成ステップと、
前記対象画素についての静止画補間画素を、前記入力動画像に含まれる少なくとも1つの入力フィールドの少なくとも1つの画素を基にして、第2の加重加算により生成する静止画補間画素生成ステップと、
前記対象画素についての動き量を、前記入力動画像を基に生成する動き量生成ステップと、
前記対象画素を、前記動画補間画素と前記静止画補間画素とを基にして、前記動き量に応じた重みを利用した第3の加重加算により生成する対象画素生成ステップと、
を備えることを特徴とするフレーム周波数変換方法。
In a frame frequency conversion method for generating an output moving image of progressive scanning having a frame frequency different from the input moving image based on an input moving image of interlace scanning,
Video interpolation pixels for each pixel (hereinafter referred to as “target pixel”) of each output frame (hereinafter referred to as “target output frame”) to be included in the output moving image are included in at least the input moving image. A moving image interpolation pixel generating step for generating by a first weighted addition based on at least one pixel of one input field;
A still image interpolation pixel generating step for generating a still image interpolation pixel for the target pixel by a second weighted addition based on at least one pixel of at least one input field included in the input moving image;
A motion amount generating step for generating a motion amount for the target pixel based on the input moving image;
A target pixel generation step of generating the target pixel by a third weighted addition using a weight according to the amount of motion based on the moving image interpolation pixel and the still image interpolation pixel;
A frame frequency conversion method comprising:
請求項1に記載のフレーム周波数変換方法において、
前記動画補間画素生成ステップでは、前記入力動画像に含まれる複数の入力フィールドのうちの前記対象出力フレームの直前にある入力フィールド(以下、「第1入力フィールド」という。)の画素のうちの前記対象画素から空間的に最も近い位置にある少なくとも1つの画素、前記第1フィールドの次のフィールド(以下、「第2入力フィールド」という。)の画素のうちの前記対象画素から空間的に最も近い位置にある少なくとも1つの画素又はその双方を少なくとも基にして前記動画像補間画素を生成することを特徴とするフレーム周波数変換方法。
The frame frequency conversion method according to claim 1,
In the moving image interpolation pixel generation step, the pixel of the input field (hereinafter referred to as “first input field”) immediately before the target output frame among the plurality of input fields included in the input moving image. Of the pixels in the next field of the first field (hereinafter referred to as “second input field”) at least one pixel that is spatially closest to the target pixel, spatially closest to the target pixel A frame frequency conversion method, characterized in that the moving image interpolation pixel is generated based at least on at least one pixel in the position or both.
請求項1に記載のフレーム周波数変換方法において、
前記静止画補間画素生成ステップでは、前記対象出力フレームの前にある複数の入力フィールド(以下、「先行入力フィールド群」という。)の画素のうちの前記対象画素と空間的に同一の位置にあり時間的に最も近い位置にある画素、前記先行入力フィールド群の後の複数の入力フィールド(以下、「後続入力フィールド群」という。)の画素のうちの前記対象画素と空間的に同一の位置にあり時間的に最も近い位置にある画素又はその双方を少なくとも基にして前記静止画補間画素を生成することを特徴とするフレーム周波数変換方法。
The frame frequency conversion method according to claim 1,
In the still image interpolation pixel generation step, the target pixel is in the same spatial position as a pixel of a plurality of input fields (hereinafter referred to as “preceding input field group”) preceding the target output frame. A pixel that is closest in time and a spatially identical position to the target pixel among pixels of a plurality of input fields after the preceding input field group (hereinafter referred to as “successive input field group”). A frame frequency conversion method, characterized in that the still image interpolation pixel is generated based on at least a pixel located at a position closest in time or both.
請求項1に記載のフレーム周波数変換方法において、
前記動き量生成ステップは、
前記入力動画像に含まれる複数の奇数フィールドから前記対象画素についての第1の動き量を算出する第1動き量算出ステップと、
前記入力動画像に含まれる複数の偶数フィールドから前記対象画素についての第2の動き量を算出する第2動き量算出ステップと、
前記第1の動き量と前記第2の動き量を基に、前記動き量を算出する最終動き量算出ステップと、
を備えることを特徴とするフレーム周波数変換方法。
The frame frequency conversion method according to claim 1,
The movement amount generation step includes:
A first motion amount calculating step for calculating a first motion amount for the target pixel from a plurality of odd fields included in the input moving image;
A second motion amount calculating step of calculating a second motion amount for the target pixel from a plurality of even fields included in the input moving image;
A final motion amount calculating step for calculating the motion amount based on the first motion amount and the second motion amount;
A frame frequency conversion method comprising:
請求項4に記載のフレーム周波数変換方法において、
前記第1動き量算出ステップでは、前記入力動画像に含まれる複数の奇数フィールドのうちの前記対象出力フレームの直前にある奇数入力フィールド(以下、「第1奇数入力フィールド」という。)の画素のうちの前記対象画素から空間的に最も近い位置にある少なくとも1つの画素及び前記第1奇数フィールドの次の奇数フィールド(以下、「第2奇数フィールド」という。)の画素のうちの前記対象画素から空間的に最も近い位置にある少なくとも1つの画素を基にして前記第1の動き量を算出し、
前記第2動き量算出ステップでは、前記入力動画像に含まれる複数の偶数フィールドのうちの前記対象出力フレームの直前にある偶数入力フィールド(以下、「第1偶数入力フィールド」という。)の画素のうちの前記対象画素から空間的に最も近い位置にある少なくとも1つの画素及び前記第1偶数フィールドの次の偶数フィールド(以下、「第2偶数フィールド」という。)の画素のうちの前記対象画素から空間的に最も近い位置にある少なくとも1つの画素を基にして前記第2の動き量を算出することを特徴とするフレーム周波数変換方法。
The frame frequency conversion method according to claim 4, wherein
In the first motion amount calculation step, pixels of an odd input field (hereinafter referred to as “first odd input field”) immediately before the target output frame among a plurality of odd fields included in the input moving image. Among the target pixels of at least one pixel that is spatially closest to the target pixel and pixels in an odd field next to the first odd field (hereinafter referred to as “second odd field”). Calculating the first amount of motion based on at least one pixel located spatially closest;
In the second motion amount calculating step, pixels of an even input field (hereinafter referred to as “first even input field”) immediately before the target output frame among a plurality of even fields included in the input moving image. Among the target pixels of at least one pixel that is spatially closest to the target pixel and pixels in the even field next to the first even field (hereinafter referred to as “second even field”). A frame frequency conversion method, wherein the second motion amount is calculated on the basis of at least one pixel located at a spatially closest position.
請求項1に記載のフレーム周波数変換方法において、
前記対象出力フレームに対応した垂直同期信号のタイミングを、出力フレーム周波数及びグラフィック部から出力され、逐次サンプルされた走査線番号を基に推測するステップを更に備えることを特徴とするフレーム周波数変換方法。
The frame frequency conversion method according to claim 1,
A frame frequency conversion method, further comprising: estimating a timing of a vertical synchronization signal corresponding to the target output frame based on an output frame frequency and a scanning line number output from the graphic unit and sequentially sampled.
プログレッシブ走査の入力動画像を基に、該入力動画像とはフレーム周波数が異なるプログレッシブ走査の出力動画像を生成するためのフレーム周波数変換方法において、
前記入力動画像に含まれる複数の入力フレームのうちの前記出力動画像に含まれるべき各出力フレーム(以下、「対象出力フレーム」という。)の直前にある入力フレーム(以下、「第1入力フレーム」という。)から前記対象出力フレームまでの期間及び前記対象出力フレームから前記第1入力フレームの次の入力フレーム(以下、「第2入力フレーム」という。)までの期間に基づいて、前記第1入力フレームの重みと前記第2入力フレームの重みを算出する重み算出ステップと、
前記対象出力フレームの各画素(以下、「対象画素」という。)を、前記第1入力フレームの少なくとも1つの画素と、前記第2入力フレームの少なくとも1つの画素とを、前記第1入力フレームの重みと前記第2入力フレームの重みに基づいて加重加算することにより生成する対象画素生成ステップと、
を備えることを特徴とするフレーム周波数変換方法。
In a frame frequency conversion method for generating an output moving image of progressive scanning having a frame frequency different from the input moving image based on the input moving image of progressive scanning,
Among the plurality of input frames included in the input moving image, an input frame (hereinafter referred to as “first input frame”) immediately before each output frame (hereinafter referred to as “target output frame”) to be included in the output moving image. ”) To the target output frame and a period from the target output frame to the next input frame of the first input frame (hereinafter referred to as“ second input frame ”). A weight calculating step of calculating a weight of the input frame and a weight of the second input frame;
Each pixel of the target output frame (hereinafter referred to as “target pixel”) is defined as at least one pixel of the first input frame and at least one pixel of the second input frame. A target pixel generation step for generating by weighted addition based on a weight and a weight of the second input frame;
A frame frequency conversion method comprising:
請求項7に記載のフレーム周波数変換方法において、
前記対象画素生成ステップでは、前記対象画素を生成するために利用する前記第2入力フレームの画素(以下、「後続画素」という。)の前記第1入力フレームの前記後続画素と空間的に同一の位置にある画素(以下、「先行画素」という)に対する動き量が所定値未満である場合には、前記加重加算は行なわず、前記先行画素を利用し、前記後続画素を利用せずに前記対象画素を生成することを特徴とするフレーム周波数変換方法。
The frame frequency conversion method according to claim 7,
In the target pixel generation step, spatially the same as the subsequent pixel of the first input frame of the pixel of the second input frame (hereinafter referred to as “subsequent pixel”) used to generate the target pixel. When the amount of motion with respect to the pixel at the position (hereinafter referred to as “preceding pixel”) is less than a predetermined value, the weighted addition is not performed, the preceding pixel is used, and the subsequent pixel is not used. A frame frequency conversion method characterized by generating a pixel.
請求項7に記載のフレーム周波数変換方法において、
前記対象出力フレームに対応した垂直同期信号のタイミングを、出力フレーム周波数及びグラフィック部から出力され、逐次サンプルされた走査線番号を基に推測するステップを更に備えることを特徴とするフレーム周波数変換方法。
The frame frequency conversion method according to claim 7,
A frame frequency conversion method, further comprising: estimating a timing of a vertical synchronization signal corresponding to the target output frame based on an output frame frequency and a scanning line number output from the graphic unit and sequentially sampled.
請求項7に記載のフレーム周波数変換方法において、
インターレス走査の動画像を基に前記プログレッシブ走査の入力動画像を生成するインターレス/プログレッシブ変換ステップを更に備え、
前記インターレス/プログレッシブ変換ステップは、
前記インターレス走査の動画像に含まれる複数の奇数フィールドから前記プログレッシブ走査の入力動画像の各フレームの各画素についての第1の動き量を算出する第1動き量算出ステップと、
前記インターレス走査の動画像に含まれる複数の偶数フィールドから前記プログレッシブ走査の入力動画像の各フレームの各画素についての第2の動き量を算出する第2動き量算出ステップと、
前記第1の動き量と前記第2の動き量を基に、前記プログレッシブ走査の入力動画像の各フレームの各画素についての動き量を算出する最終動き量算出ステップと、
前記プログレッシブ走査の入力動画像の各フレームの各画素を、前記インターレス走査の動画像を基に得られた動画補間画素と静止画補間画素とを基にして、最終動き量算出ステップで算出された前記動き量に応じた重みを利用した加重加算により生成する中間画素生成ステップと、
を備えることを特徴とするフレーム周波数変換方法。
The frame frequency conversion method according to claim 7,
An interlace / progressive conversion step of generating an input moving image for progressive scanning based on a moving image for interlace scanning;
The interlace / progressive conversion step includes:
A first motion amount calculating step of calculating a first motion amount for each pixel of each frame of the progressive scan input video from a plurality of odd fields included in the interlace scan video;
A second motion amount calculating step of calculating a second motion amount for each pixel of each frame of the progressive scan input video from a plurality of even fields included in the interlace scan video;
A final motion amount calculating step of calculating a motion amount for each pixel of each frame of the progressive moving image based on the first motion amount and the second motion amount;
Each pixel of each frame of the progressive scan input moving image is calculated in the final motion amount calculation step based on the moving image interpolation pixel and the still image interpolation pixel obtained based on the interlaced scanning moving image. An intermediate pixel generating step for generating by weighted addition using a weight corresponding to the amount of motion;
A frame frequency conversion method comprising:
テレビモニタのフレーム周波数を制御するための方法において、
前記テレビモニタに出力するべき複数のフレームを前記複数のフレームの出力部のフレーム周波数に合わせてフレームバッファに順次書き込む書込みステップと、
前記複数のフレームを前記テレビモニタのフレーム周波数に合わせて前記フレームバッファから順次読み出す読出しステップと、
前記フレームバッファに格納されているフレーム数を基に、前記テレビモニタのフレーム周波数を制御する制御ステップと、
を備えることを特徴とする方法。
In a method for controlling the frame frequency of a television monitor,
A writing step of sequentially writing a plurality of frames to be output to the television monitor in a frame buffer in accordance with a frame frequency of an output unit of the plurality of frames;
A step of sequentially reading out the plurality of frames from the frame buffer according to a frame frequency of the television monitor;
A control step of controlling the frame frequency of the television monitor based on the number of frames stored in the frame buffer;
A method comprising the steps of:
請求項11に記載の方法において、
前記フレームの出力部において、インターレス走査の動画像を基にプログレッシブ走査の動画像を生成するインターレス/プログレッシブ変換ステップを更に備え、
前記インターレス/プログレッシブ変換ステップは、
前記インターレス走査の動画像に含まれる複数の奇数フィールドから前記プログレッシブ走査の動画像の各フレームの各画素についての第1の動き量を算出する第1動き量算出ステップと、
前記インターレス走査の動画像に含まれる複数の偶数フィールドから前記プログレッシブ走査の動画像の各フレームの各画素についての第2の動き量を算出する第2動き量算出ステップと、
前記第1の動き量と前記第2の動き量を基に、前記プログレッシブ走査の動画像の各フレームの各画素についての動き量を算出する最終動き量算出ステップと、
前記プログレッシブ走査の動画像の各フレームの各画素を、前記インターレス走査の動画像を基に得られた動画補間画素と静止画補間画素とを基にして、最終動き量算出ステップで算出された前記動き量に応じた重みを利用した加重加算により生成する画素生成ステップと、
を備えることを特徴とする方法。
The method of claim 11, wherein
The frame output unit further includes an interlace / progressive conversion step of generating a progressive scan moving image based on the interlace scan moving image,
The interlace / progressive conversion step includes:
A first motion amount calculating step of calculating a first motion amount for each pixel of each frame of the progressive scan moving image from a plurality of odd fields included in the interlaced scan moving image;
A second motion amount calculating step of calculating a second motion amount for each pixel of each frame of the progressive scan moving image from a plurality of even fields included in the interlaced scan moving image;
A final motion amount calculating step for calculating a motion amount for each pixel of each frame of the progressive scan moving image based on the first motion amount and the second motion amount;
Each pixel of each frame of the progressive scan moving image was calculated in the final motion amount calculation step based on the moving image interpolation pixel and still image interpolation pixel obtained based on the interlaced moving image. A pixel generation step of generating by weighted addition using a weight according to the amount of motion;
A method comprising the steps of:
インターレス走査の入力動画像を基に、該入力動画像とはフレーム周波数が異なるプログレッシブ走査の出力動画像を生成するためのフレーム周波数変換装置において、
前記出力動画像に含まれるべき各出力フレーム(以下、「対象出力フレーム」という。)の各画素(以下、「対象画素」という。)についての動画補間画素を、前記入力動画像に含まれる少なくとも1つの入力フィールドの少なくとも1つの画素を基にして、第1の加重加算により生成する動画補間画素生成手段と、
前記対象画素についての静止画補間画素を、前記入力動画像に含まれる少なくとも1つの入力フィールドの少なくとも1つの画素を基にして、第2の加重加算により生成する静止画補間画素生成手段と、
前記対象画素についての動き量を、前記入力動画像を基に生成する動き量生成手段と、
前記対象画素を、前記動画補間画素と前記静止画補間画素とを基にして、前記動き量に応じた重みを利用した第3の加重加算により生成する対象画素生成手段と、
を備えることを特徴とするフレーム周波数変換装置。
In a frame frequency conversion device for generating an output moving image of progressive scanning having a frame frequency different from that of the input moving image based on an input moving image of interlace scanning,
Video interpolation pixels for each pixel (hereinafter referred to as “target pixel”) of each output frame (hereinafter referred to as “target output frame”) to be included in the output moving image are included in at least the input moving image. A moving image interpolation pixel generating means for generating the first weighted addition based on at least one pixel of one input field;
Still image interpolation pixel generation means for generating a still image interpolation pixel for the target pixel by second weighted addition based on at least one pixel of at least one input field included in the input moving image;
A motion amount generating means for generating a motion amount for the target pixel based on the input moving image;
Target pixel generation means for generating the target pixel by a third weighted addition using a weight according to the amount of motion based on the moving image interpolation pixel and the still image interpolation pixel;
A frame frequency conversion device comprising:
請求項13に記載のフレーム周波数変換装置において、
前記動画補間画素生成手段では、前記入力動画像に含まれる複数の入力フィールドのうちの前記対象出力フレームの直前にある入力フィールド(以下、「第1入力フィールド」という。)の画素のうちの前記対象画素から空間的に最も近い位置にある少なくとも1つの画素、前記第1フィールドの次のフィールド(以下、「第2入力フィールド」という。)の画素のうちの前記対象画素から空間的に最も近い位置にある少なくとも1つの画素又はその双方を少なくとも基にして前記動画像補間画素を生成することを特徴とするフレーム周波数変換装置。
The frame frequency conversion device according to claim 13, wherein
In the moving image interpolation pixel generation means, the pixel of the input field (hereinafter referred to as “first input field”) immediately before the target output frame among the plurality of input fields included in the input moving image. Of the pixels in the next field of the first field (hereinafter referred to as “second input field”) at least one pixel that is spatially closest to the target pixel, spatially closest to the target pixel A frame frequency conversion device, characterized in that the moving image interpolation pixel is generated based on at least one pixel in the position or both.
請求項13に記載のフレーム周波数変換装置において、
前記静止画補間画素生成手段では、前記対象出力フレームの前にある複数の入力フィールド(以下、「先行入力フィールド群」という。)の画素のうちの前記対象画素と空間的に同一の位置にあり時間的に最も近い位置にある画素、前記先行入力フィールド群の後の複数の入力フィールド(以下、「後続入力フィールド群」という。)の画素のうちの前記対象画素と空間的に同一の位置にあり時間的に最も近い位置にある画素又はその双方を少なくとも基にして前記静止画補間画素を生成することを特徴とするフレーム周波数変換装置。
The frame frequency conversion device according to claim 13, wherein
In the still image interpolation pixel generation means, the target pixel is in the same spatial position as the target pixel among the pixels of a plurality of input fields (hereinafter referred to as “preceding input field group”) preceding the target output frame. A pixel that is closest in time and a spatially identical position to the target pixel among pixels of a plurality of input fields after the preceding input field group (hereinafter referred to as “successive input field group”). A frame frequency conversion device, characterized in that the still image interpolation pixel is generated based on at least a pixel located at a position closest in time or both.
請求項13に記載のフレーム周波数変換装置において、
前記動き量生成手段は、
前記入力動画像に含まれる複数の奇数フィールドから前記対象画素についての第1の動き量を算出する第1動き量算出手段と、
前記入力動画像に含まれる複数の偶数フィールドから前記対象画素についての第2の動き量を算出する第2動き量算出手段と、
前記第1の動き量と前記第2の動き量を基に、前記動き量を算出する最終動き量算出手段と、
を備えることを特徴とするフレーム周波数変換装置。
The frame frequency conversion device according to claim 13, wherein
The movement amount generating means includes
First motion amount calculating means for calculating a first motion amount for the target pixel from a plurality of odd fields included in the input moving image;
Second motion amount calculating means for calculating a second motion amount for the target pixel from a plurality of even fields included in the input moving image;
Final motion amount calculating means for calculating the motion amount based on the first motion amount and the second motion amount;
A frame frequency conversion device comprising:
請求項16に記載のフレーム周波数変換装置において、
前記第1動き量算出手段では、前記入力動画像に含まれる複数の奇数フィールドのうちの前記対象出力フレームの直前にある奇数入力フィールド(以下、「第1奇数入力フィールド」という。)の画素のうちの前記対象画素から空間的に最も近い位置にある少なくとも1つの画素及び前記第1奇数フィールドの次の奇数フィールド(以下、「第2奇数フィールド」という。)の画素のうちの前記対象画素から空間的に最も近い位置にある少なくとも1つの画素を基にして前記第1の動き量を算出し、
前記第2動き量算出手段では、前記入力動画像に含まれる複数の偶数フィールドのうちの前記対象出力フレームの直前にある偶数入力フィールド(以下、「第1偶数入力フィールド」という。)の画素のうちの前記対象画素から空間的に最も近い位置にある少なくとも1つの画素及び前記第1偶数フィールドの次の偶数フィールド(以下、「第2偶数フィールド」という。)の画素のうちの前記対象画素から空間的に最も近い位置にある少なくとも1つの画素を基にして前記第2の動き量を算出することを特徴とするフレーム周波数変換装置。
The frame frequency conversion device according to claim 16,
In the first motion amount calculating means, pixels of an odd input field (hereinafter referred to as “first odd input field”) immediately before the target output frame among a plurality of odd fields included in the input moving image. Among the target pixels of at least one pixel that is spatially closest to the target pixel and pixels in an odd field next to the first odd field (hereinafter referred to as “second odd field”). Calculating the first amount of motion based on at least one pixel located spatially closest;
In the second motion amount calculation means, pixels of an even input field (hereinafter referred to as “first even input field”) immediately before the target output frame among a plurality of even fields included in the input moving image. Among the target pixels of at least one pixel that is spatially closest to the target pixel and pixels in the even field next to the first even field (hereinafter referred to as “second even field”). A frame frequency conversion device, wherein the second motion amount is calculated on the basis of at least one pixel at a spatially closest position.
請求項13に記載のフレーム周波数変換装置において、
前記対象出力フレームに対応した垂直同期信号のタイミングを、出力フレーム周波数及びグラフィック部から出力され、逐次サンプルされた走査線番号を基に推測する手段を更に備えることを特徴とするフレーム周波数変換装置。
The frame frequency conversion device according to claim 13, wherein
A frame frequency conversion apparatus, further comprising means for estimating a timing of a vertical synchronization signal corresponding to the target output frame based on an output frame frequency and a scanning line number output from the graphic unit and sequentially sampled.
プログレッシブ走査の入力動画像を基に、該入力動画像とはフレーム周波数が異なるプログレッシブ走査の出力動画像を生成するためのフレーム周波数変換装置において、
前記入力動画像に含まれる複数の入力フレームのうちの前記出力動画像に含まれるべき各出力フレーム(以下、「対象出力フレーム」という。)の直前にある入力フレーム(以下、「第1入力フレーム」という。)から前記対象出力フレームまでの期間及び前記対象出力フレームから前記第1入力フレームの次の入力フレーム(以下、「第2入力フレーム」という。)までの期間に基づいて、前記第1入力フレームの重みと前記第2入力フレームの重みを算出する重み算出手段と、
前記対象出力フレームの各画素(以下、「対象画素」という。)を、前記第1入力フレームの少なくとも1つの画素と、前記第2入力フレームの少なくとも1つの画素とを、前記第1入力フレームの重みと前記第2入力フレームの重みに基づいて加重加算することにより生成する対象画素生成手段と、
を備えることを特徴とするフレーム周波数変換装置。
In a frame frequency conversion device for generating a progressive scanning output moving image having a frame frequency different from that of the input moving image based on the input moving image of progressive scanning,
Among the plurality of input frames included in the input moving image, an input frame (hereinafter referred to as “first input frame”) immediately before each output frame (hereinafter referred to as “target output frame”) to be included in the output moving image. ”) To the target output frame and a period from the target output frame to the next input frame of the first input frame (hereinafter referred to as“ second input frame ”). Weight calculating means for calculating the weight of the input frame and the weight of the second input frame;
Each pixel of the target output frame (hereinafter referred to as “target pixel”) is defined as at least one pixel of the first input frame and at least one pixel of the second input frame. Target pixel generation means for generating by weighted addition based on a weight and a weight of the second input frame;
A frame frequency conversion device comprising:
請求項19に記載のフレーム周波数変換装置において、
前記対象画素生成手段では、前記対象画素を生成するために利用する前記第2入力フレームの画素(以下、「後続画素」という。)の前記第1入力フレームの前記後続画素と空間的に同一の位置にある画素(以下、「先行画素」という)に対する動き量が所定値未満である場合には、前記加重加算は行なわず、前記先行画素を利用し、前記後続画素を利用せずに前記対象画素を生成することを特徴とするフレーム周波数変換装置。
The frame frequency conversion device according to claim 19,
The target pixel generation means is spatially the same as the subsequent pixel of the first input frame of the pixel of the second input frame (hereinafter referred to as “subsequent pixel”) used for generating the target pixel. When the amount of motion with respect to the pixel at the position (hereinafter referred to as “preceding pixel”) is less than a predetermined value, the weighted addition is not performed, the preceding pixel is used, and the subsequent pixel is not used. A frame frequency conversion device for generating a pixel.
請求項19に記載のフレーム周波数変換装置において、
前記対象出力フレームに対応した垂直同期信号のタイミングを、出力フレーム周波数及びグラフィック部から出力され、逐次サンプルされた走査線番号を基に推測する手段を更に備えることを特徴とするフレーム周波数変換装置。
The frame frequency conversion device according to claim 19,
A frame frequency conversion apparatus, further comprising means for estimating a timing of a vertical synchronization signal corresponding to the target output frame based on an output frame frequency and a scanning line number output from the graphic unit and sequentially sampled.
請求項19に記載のフレーム周波数変換装置において、
インターレス走査の動画像を基に前記プログレッシブ走査の入力動画像を生成するインターレス/プログレッシブ変換手段を更に備え、
前記インターレス/プログレッシブ変換手段は、
前記インターレス走査の動画像に含まれる複数の奇数フィールドから前記プログレッシブ走査の入力動画像の各フレームの各画素についての第1の動き量を算出する第1動き量算出手段と、
前記インターレス走査の動画像に含まれる複数の偶数フィールドから前記プログレッシブ走査の入力動画像の各フレームの各画素についての第2の動き量を算出する第2動き量算出手段と、
前記第1の動き量と前記第2の動き量を基に、前記プログレッシブ走査の入力動画像の各フレームの各画素についての動き量を算出する最終動き量算出手段と、
前記プログレッシブ走査の入力動画像の各フレームの各画素を、前記インターレス走査の動画像を基に得られた動画補間画素と静止画補間画素とを基にして、最終動き量算出手段で算出された前記動き量に応じた重みを利用した加重加算により生成する中間画素生成手段と、
を備えることを特徴とするフレーム周波数変換装置。
The frame frequency conversion device according to claim 19,
Further comprising interlace / progressive conversion means for generating the input moving image of the progressive scanning based on the moving image of the interlace scanning,
The interlace / progressive conversion means includes:
First motion amount calculation means for calculating a first motion amount for each pixel of each frame of the progressive scan input moving image from a plurality of odd fields included in the interlaced scan moving image;
Second motion amount calculating means for calculating a second motion amount for each pixel of each frame of the progressive scan input video from a plurality of even fields included in the interlace scan video;
A final motion amount calculating means for calculating a motion amount for each pixel of each frame of the input moving image of the progressive scan based on the first motion amount and the second motion amount;
Each pixel of each frame of the progressive scan input moving image is calculated by the final motion amount calculation means based on the moving image interpolation pixel and the still image interpolation pixel obtained based on the interlaced scanning moving image. Intermediate pixel generating means for generating by weighted addition using a weight according to the amount of motion;
A frame frequency conversion device comprising:
テレビモニタのフレーム周波数を制御するための装置において、
前記テレビモニタに出力するべき複数のフレームを前記複数のフレームの出力部のフレーム周波数に合わせてフレームバッファに順次書き込む書込み手段と、
前記複数のフレームを前記テレビモニタのフレーム周波数に合わせて前記フレームバッファから順次読み出す読出し手段と、
前記フレームバッファに格納されているフレーム数を基に、前記テレビモニタのフレーム周波数を制御する制御手段と、
を備えることを特徴とする装置。
In a device for controlling the frame frequency of a television monitor,
Writing means for sequentially writing a plurality of frames to be output to the television monitor in a frame buffer in accordance with a frame frequency of an output unit of the plurality of frames;
Read means for sequentially reading the plurality of frames from the frame buffer in accordance with the frame frequency of the television monitor;
Control means for controlling the frame frequency of the television monitor based on the number of frames stored in the frame buffer;
A device comprising:
請求項23に記載の装置において、
前記フレームの出力部において、インターレス走査の動画像を基にプログレッシブ走査の動画像を生成するインターレス/プログレッシブ変換手段を更に備え、
前記インターレス/プログレッシブ変換手段は、
前記インターレス走査の動画像に含まれる複数の奇数フィールドから前記プログレッシブ走査の動画像の各フレームの各画素についての第1の動き量を算出する第1動き量算出手段と、
前記インターレス走査の動画像に含まれる複数の偶数フィールドから前記プログレッシブ走査の動画像の各フレームの各画素についての第2の動き量を算出する第2動き量算出手段と、
前記第1の動き量と前記第2の動き量を基に、前記プログレッシブ走査の動画像の各フレームの各画素についての動き量を算出する最終動き量算出手段と、
前記プログレッシブ走査の動画像の各フレームの各画素を、前記インターレス走査の動画像を基に得られた動画補間画素と静止画補間画素とを基にして、最終動き量算出手段で算出された前記動き量に応じた重みを利用した加重加算により生成する画素生成手段と、
を備えることを特徴とする装置。
24. The apparatus of claim 23.
The frame output unit further includes an interlace / progressive conversion unit that generates a progressive scan moving image based on the interlaced scan moving image,
The interlace / progressive conversion means includes:
First motion amount calculating means for calculating a first motion amount for each pixel of each frame of the progressive scan moving image from a plurality of odd fields included in the interlaced scan moving image;
Second motion amount calculating means for calculating a second motion amount for each pixel of each frame of the progressive scan moving image from a plurality of even fields included in the interlaced scan moving image;
A final motion amount calculating means for calculating a motion amount for each pixel of each frame of the progressive scan moving image based on the first motion amount and the second motion amount;
Each pixel of each frame of the progressive scan moving image was calculated by the final motion amount calculation means based on the moving image interpolation pixel and the still image interpolation pixel obtained based on the interlaced scan moving image. Pixel generation means for generating by weighted addition using a weight according to the amount of motion;
A device comprising:
コンピュータに請求項1乃至12の何れか1項に記載の方法を行なわせるためのプログラム。   A program for causing a computer to perform the method according to any one of claims 1 to 12.
JP2005270277A 2005-09-16 2005-09-16 Frame frequency conversion method, frame frequency conversion apparatus, and frame frequency conversion program Pending JP2007082096A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005270277A JP2007082096A (en) 2005-09-16 2005-09-16 Frame frequency conversion method, frame frequency conversion apparatus, and frame frequency conversion program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005270277A JP2007082096A (en) 2005-09-16 2005-09-16 Frame frequency conversion method, frame frequency conversion apparatus, and frame frequency conversion program

Publications (1)

Publication Number Publication Date
JP2007082096A true JP2007082096A (en) 2007-03-29

Family

ID=37941880

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005270277A Pending JP2007082096A (en) 2005-09-16 2005-09-16 Frame frequency conversion method, frame frequency conversion apparatus, and frame frequency conversion program

Country Status (1)

Country Link
JP (1) JP2007082096A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010239406A (en) * 2009-03-31 2010-10-21 Nec Personal Products Co Ltd Image outputting device, method of outputting image, and image output program
JP2010239405A (en) * 2009-03-31 2010-10-21 Nec Personal Products Co Ltd Image outputting device, method of outputting image, and image output program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010239406A (en) * 2009-03-31 2010-10-21 Nec Personal Products Co Ltd Image outputting device, method of outputting image, and image output program
JP2010239405A (en) * 2009-03-31 2010-10-21 Nec Personal Products Co Ltd Image outputting device, method of outputting image, and image output program

Similar Documents

Publication Publication Date Title
JP4122279B2 (en) Motion estimation apparatus and method capable of detecting scrolled text or graphic data
JP6335504B2 (en) Image processing apparatus, image processing method, and program
US8325811B2 (en) Method and apparatus for motion compensated frame interpolation of covered and uncovered areas
JP2006331136A (en) Moving vector detection apparatus
JP2011055278A (en) Motion information acquiring apparatus and image processing device
JP4506882B2 (en) Image processing apparatus and method, and program
JP2007082096A (en) Frame frequency conversion method, frame frequency conversion apparatus, and frame frequency conversion program
JP2008131244A (en) Television receiver and video display method thereof
JP5241632B2 (en) Image processing circuit and image processing method
US7362375B2 (en) Scanning conversion apparatus and method
JP3898546B2 (en) Image scanning conversion method and apparatus
JPH1141565A (en) Image data interpolation device
JP4463171B2 (en) Autocorrelation value calculation method, interpolation pixel generation method, apparatus thereof, and program thereof
JP2001339695A (en) Image signal processor and image signal processing method
US7791672B2 (en) Scanning conversion apparatus and method
JP2009267446A (en) Motion image information processing method and apparatus
JP2007288483A (en) Image converting apparatus
US9277168B2 (en) Subframe level latency de-interlacing method and apparatus
US20100309371A1 (en) Method And System For Integrated Video Noise Reduction And De-Interlacing
JP2006186504A (en) Apparatus and method of image processing, recording medium, and program
JP4265342B2 (en) Rate conversion device, rate conversion method, program for executing the method, and image signal processing device
JP2005062693A (en) Memory controller and memory control method, program for implementing same method, rate converting device, and image signal processing apparatus
JP2007019708A (en) Image processing apparatus
JP4708811B2 (en) Method for converting interlaced image data into progressive image data, apparatus therefor and program therefor
JPH09258707A (en) Image display system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071115

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20080523

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090727

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090804

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091005

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20091130