JP2007166530A - Frame frequency conversion method, frame frequency converter and frame frequency conversion program - Google Patents

Frame frequency conversion method, frame frequency converter and frame frequency conversion program Download PDF

Info

Publication number
JP2007166530A
JP2007166530A JP2005363814A JP2005363814A JP2007166530A JP 2007166530 A JP2007166530 A JP 2007166530A JP 2005363814 A JP2005363814 A JP 2005363814A JP 2005363814 A JP2005363814 A JP 2005363814A JP 2007166530 A JP2007166530 A JP 2007166530A
Authority
JP
Japan
Prior art keywords
frame
moving image
input
frequency conversion
frames
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005363814A
Other languages
Japanese (ja)
Inventor
Koji Numata
考司 沼田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Embedded Products Ltd
Original Assignee
NEC Embedded Products Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Embedded Products Ltd filed Critical NEC Embedded Products Ltd
Priority to JP2005363814A priority Critical patent/JP2007166530A/en
Publication of JP2007166530A publication Critical patent/JP2007166530A/en
Pending legal-status Critical Current

Links

Landscapes

  • Television Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To execute a frame frequency conversion method without losing the smoothness of moving images and without increasing an operation amount. <P>SOLUTION: When it is judged that either deframing or frame insertion is required in a certain input frame, the deframing processing or frame insertion processing is executed over a plurality of frames then, and the time to suspend the deframing processing or the frame insertion processing is provided thereafter. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、第1のフレーム周波数の入力動画像を基に、第2のフレーム周波数の出力動画像を生成するフレーム周波数変換方法、フレーム周波数変換装置及びフレーム周波数変換プログラムに関する。   The present invention relates to a frame frequency conversion method, a frame frequency conversion device, and a frame frequency conversion program for generating an output moving image having a second frame frequency based on an input moving image having a first frame frequency.

近年、パーソナルコンピュータにもテレビチューナが内蔵されたり接続されるようになり、パーソナルコンピュータは、テレビチューナが受信したテレビ放送を表示したり、録画したり、再生したりすることができるようになってきている。   In recent years, a personal computer has a built-in or connected TV tuner, and the personal computer can display, record, and play back TV broadcasts received by the TV tuner. ing.

日本やその他のいくつかの国では、テレビ放送のためにNTSC方式を採用している。NTSC方式では、色副搬送波の周波数との調整を図るために、フィールド周波数が60Hzではなく、約59.94Hz(=60×(1000/1001)Hz)となっている。従って、フレーム周波数は、30Hzではなく、約29.97Hz(=30×(1000/1001)Hz)となっている。また、NTSCチューナが出力する信号に対してIP(Interlace/Progressive)変換処理を行なうことにより得られた動画像のフレーム周波数は、59.94Hzである。ここで、IP変換処理とは、インターレスの動画像をプログレッシブの動画像に変換する処理のことである。   In Japan and several other countries, the NTSC system is adopted for television broadcasting. In the NTSC system, the field frequency is about 59.94 Hz (= 60 × (1000/1001) Hz) instead of 60 Hz in order to adjust the frequency with the color subcarrier frequency. Therefore, the frame frequency is not about 30 Hz but about 29.97 Hz (= 30 × (1000/1001) Hz). The frame frequency of the moving image obtained by performing IP (Interlace / Progressive) conversion processing on the signal output from the NTSC tuner is 59.94 Hz. Here, the IP conversion process is a process of converting an interlaced moving image into a progressive moving image.

他方、パーソナルコンピュータのテレビモニタの代表的なリフレッシュレート(フレーム周波数に対応する。)は、丁度60Hzである。また、他のリフレッシュレートも設定できるようになっているパーソナルコンピュータも多い。   On the other hand, a typical refresh rate (corresponding to a frame frequency) of a television monitor of a personal computer is just 60 Hz. Many personal computers can also set other refresh rates.

そうすると、表示するテレビ画像のフレーム周波数とテレビモニタのリフレッシュレートが異なるため、パーソナルコンピュータは、この違いを解決するための処理をする必要がある。   Then, since the frame frequency of the television image to be displayed is different from the refresh rate of the television monitor, the personal computer needs to perform processing for solving this difference.

従来、このための処理として、一部のフレームの間引きや2度表示を行なっているものもある(例えば、特許文献1参照)。
特開2004−80327号公報
Conventionally, as a process for this, some frames are thinned out or displayed twice (for example, see Patent Document 1).
JP 2004-80327 A

しかし、一部のフレームの間引きや2度表示を行なうことにより、フレーム周波数の調整をする場合には、間引きの前後や2度表示の部分で動画像の滑らかさが失われ、不自然となる。   However, when the frame frequency is adjusted by thinning out some frames or displaying twice, the smoothness of the moving image is lost before and after the thinning and at the twice-displayed portion, which is unnatural. .

また、これを解決するために、全てのフレームに亘り、フレーム周波数変換を行なうと、演算量が増えるため、例えば、これをマルチタスクのオペレーティングシステム上で行なうと、他のタスクに割り当てられる時間やコンピュータ資源が減少してしまい、他のタスクにおけるユーザへの反応時間等が長くなってしまう。   In order to solve this problem, if frame frequency conversion is performed over all frames, the amount of calculation increases. For example, if this is performed on a multitasking operating system, the time allocated to other tasks, The computer resources are reduced, and the response time to the user in other tasks becomes longer.

そこで、本発明は、動画の滑らかさを失わずに、第1のフレーム周波数の入力動画像を基に、第2のフレーム周波数の出力動画像を生成すると共に、そのための演算量が少ないフレーム周波数変換方法、フレーム周波数変換装置及びフレーム周波数変換プログラムを提供することを目的とする。   Therefore, the present invention generates an output moving image of the second frame frequency based on the input moving image of the first frame frequency without losing the smoothness of the moving image, and has a frame frequency with a small amount of calculation for that purpose. It is an object to provide a conversion method, a frame frequency conversion device, and a frame frequency conversion program.

本発明によれば、第1のフレーム周波数の入力動画像を基に、第2のフレーム周波数の出力動画像を生成するフレーム周波数変換方法において、前記入力動画像の各フレーム毎にコマ落とし処理又はコマ挿入処理の開始が必要であるか否かを判断する開始判断ステップと、前記開始判断ステップで前記コマ落とし処理又は前記コマ挿入処理の開始が必要であると判断された場合に、前記入力動画像の複数フレームに亘る前記コマ落とし処理又は前記コマ挿入処理を行なう処理実行ステップと、を備え、前記コマ落とし処理又は前記コマ挿入処理が終了したならば、継続して行なわれている前記開始判断ステップで、前記コマ落とし処理又は前記コマ挿入処理の開始が再度必要であると判断されるまで、前記コマ落とし処理又は前記コマ挿入処理を休止することを特徴とするフレーム周波数変換方法が提供される。   According to the present invention, in a frame frequency conversion method for generating an output moving image having a second frame frequency based on an input moving image having a first frame frequency, a frame dropping process is performed for each frame of the input moving image. A start determination step for determining whether or not it is necessary to start a frame insertion process; and when the start determination step determines that the frame dropping process or the frame insertion process needs to be started, the input moving image A process execution step for performing the frame dropping process or the frame inserting process over a plurality of frames of an image, and the start determination being performed continuously when the frame dropping process or the frame inserting process is completed. In the step, until it is determined that the start of the frame dropping process or the frame inserting process is necessary again, the frame dropping process or the frame inserting process is performed. Frame frequency conversion method characterized by pause is provided.

上記のフレーム周波数変換方法において、前記開始判断ステップでは、前記入力動画像のフレーム同期信号と前記出力動画像のフレーム信号との時間差を基に、前記コマ落とし処理又は前記コマ挿入処理の開始が必要であるか否かを判断するようにしてもよい。   In the frame frequency conversion method, the start determination step needs to start the frame dropping process or the frame insertion process based on a time difference between the frame synchronization signal of the input moving image and the frame signal of the output moving image. It may be determined whether or not.

上記のフレーム周波数変換方法において、前記開始判断ステップでは、前記第1のフレーム周波数に従って、前記入力動画像のデータがそこに書き込まれ、前記第2のフレーム周波数に従って、前記出力動画像のデータがそこから読み出される表示用メモリに一時蓄積された動画像データの量が所定値以上となることにより、前記入力動画像のデータの前記表示用メモリへの書込みが待たされる時間が所定値以上となった場合に、前記コマ落とし処理の開始が必要であると判断するようにしてもよい。   In the frame frequency conversion method, in the start determination step, the data of the input moving image is written therein according to the first frame frequency, and the data of the output moving image is stored there according to the second frame frequency. When the amount of moving image data temporarily stored in the display memory read from the above becomes a predetermined value or more, the time for waiting for the input moving image data to be written to the display memory becomes a predetermined value or more. In this case, it may be determined that the frame dropping process needs to be started.

上記のフレーム周波数変換方法において、前記入力動画像の複数フレームに亘る前記コマ落とし処理又は前記コマ挿入処理は、前記入力動画像の或るフレームで、重み変数を、前記コマ落とし処理又は前記コマ挿入処理を行なうフレームの数に対応する値に初期化するステップと、前記入力動画像の各フレーム毎に前記重み変数を変化させるステップと、前記入力動画像の各フレーム毎に変化した前記重み変数を利用して、前記入力動画像の複数のフレーム信号を重み付け加算することにより、出力動画像のフレーム信号を生成するステップと、を備えるようにしてもよい。   In the frame frequency conversion method, the frame dropping process or the frame inserting process over a plurality of frames of the input moving image may include a weight variable, the frame dropping process or the frame inserting in a certain frame of the input moving image. Initializing to a value corresponding to the number of frames to be processed; changing the weight variable for each frame of the input video; and the weight variable changed for each frame of the input video. And generating a frame signal of an output moving image by weighting and adding a plurality of frame signals of the input moving image.

上記のフレーム周波数変換方法において、前記開始判断ステップで前記コマ落とし処理又は前記コマ挿入処理の開始が必要であると判断された場合に、前記コマ落とし処理又は前記コマ挿入処理の開始フレームが、動画フレームであるのか静止画フレームであるのかを判断する静止画/動画判断ステップを更に備え、静止画/動画判断ステップで前記コマ落とし処理又は前記コマ挿入処理の開始フレームが動画フレームであると判断された場合にのみ、前記入力動画像の複数フレームに亘る前記コマ落とし処理又は前記コマ挿入処理を行ない、静止画/動画判断ステップで前記コマ落とし処理又は前記コマ挿入処理の開始フレームが静止画フレームであると判断された場合には、他のコマ落とし処理又は他のコマ挿入処理を行なうようにしてもよい。   In the frame frequency conversion method described above, when it is determined in the start determination step that the start of the frame drop process or the frame insert process is necessary, the start frame of the frame drop process or the frame insert process is a moving image. A still image / moving image determining step for determining whether the frame is a still image frame or a still image frame, and the start frame of the frame dropping process or the frame inserting process is determined to be a moving image frame in the still image / moving image determining step. The frame dropping process or the frame inserting process over a plurality of frames of the input moving image is performed only when the frame dropping process or the frame inserting process is started in the still image / video determination step. If it is determined that there is another frame drop process or another frame insertion process, Good.

上記のフレーム周波数変換方法において、前記他のコマ落とし処理又は前記他のコマ挿入処理は、それぞれ、入力動画像の或るフレームを廃棄する処理又は入力動画像の或るフレームを重複させる処理であるようにしてもよい。   In the frame frequency conversion method, the other frame dropping process or the other frame inserting process is a process of discarding a certain frame of the input moving image or a process of overlapping a certain frame of the input moving image, respectively. You may do it.

上記のフレーム周波数変換方法において、前記開始判断ステップで前記コマ落とし処理又は前記コマ挿入処理の開始が必要であると判断される入力フレームの間隔に応じて、前記入力動画像の複数フレームに亘る前記コマ落とし処理又は前記コマ挿入処理におけるパラメータを調整するパラメータ調整ステップを更に備えるようにしてもよい。   In the frame frequency conversion method, the start determination step may include the frame over the plurality of frames of the input moving image according to the interval of the input frames determined to require the start of the frame drop process or the frame insertion process. You may make it further provide the parameter adjustment step which adjusts the parameter in a frame drop process or the said frame insertion process.

上記のフレーム周波数変換方法において、前記パラメータ調整ステップでは、前記入力動画像の複数フレームに亘る前記コマ落とし処理又は前記コマ挿入処理の対象となるフレーム数を調整するようにしてもよい。   In the frame frequency conversion method, in the parameter adjustment step, the number of frames to be subjected to the frame dropping process or the frame inserting process over a plurality of frames of the input moving image may be adjusted.

上記のフレーム周波数変換方法において、前記パラメータ調整ステップでは、前記入力動画像の複数フレームに亘る前記コマ落とし処理又は前記コマ挿入処理の対象となるフレーム数が、前記コマ落とし処理又は前記コマ挿入処理の開始が必要であると判断される入力フレームの間隔以下となるような調整をするようにしてもよい。   In the frame frequency conversion method, in the parameter adjustment step, the number of frames to be subjected to the frame dropping process or the frame inserting process over a plurality of frames of the input moving image is determined by the frame dropping process or the frame inserting process. You may make it adjust so that it may become below the space | interval of the input frame judged that the start is required.

上記のフレーム周波数変換方法において、前記パラメータ調整ステップでは、前記入力動画像の複数フレームに亘る前記コマ落とし処理又は前記コマ挿入処理の対象となるフレーム数が、前記コマ落とし処理又は前記コマ挿入処理の開始が必要であると判断される入力フレームの間隔未満となるような調整をし、これにより、前記コマ落とし処理又は前記コマ挿入処理を休止する期間を設けるようにしてもよい。   In the frame frequency conversion method, in the parameter adjustment step, the number of frames to be subjected to the frame dropping process or the frame inserting process over a plurality of frames of the input moving image is determined by the frame dropping process or the frame inserting process. An adjustment may be made so that the interval is less than the interval between input frames that are determined to need to be started, thereby providing a period for pausing the frame dropping process or the frame inserting process.

本発明によれば、第1のフレーム周波数の入力動画像を基に、第2のフレーム周波数の出力動画像を生成するフレーム周波数変換方法において、前記入力動画像の各フレーム毎にコマ落とし処理又はコマ挿入処理の開始が必要であるか否かを判断する開始判断ステップと、前記開始判断ステップで前記コマ落とし処理又は前記コマ挿入処理の開始が必要であると判断された場合に、前記入力動画像の複数フレームに亘る前記コマ落とし処理又は前記コマ挿入処理を行なう処理実行ステップと、を備え、前記コマ落とし処理又は前記コマ挿入処理が終了したならば、継続して行なわれている前記開始判断ステップで、前記コマ落とし処理又は前記コマ挿入処理の開始が再度必要であると判断されるまで、前記コマ落とし処理又は前記コマ挿入処理を休止する。   According to the present invention, in a frame frequency conversion method for generating an output moving image having a second frame frequency based on an input moving image having a first frame frequency, a frame dropping process is performed for each frame of the input moving image. A start determination step for determining whether or not it is necessary to start a frame insertion process; and when the start determination step determines that the frame dropping process or the frame insertion process needs to be started, the input moving image A process execution step for performing the frame dropping process or the frame inserting process over a plurality of frames of an image, and the start determination being performed continuously when the frame dropping process or the frame inserting process is completed. In the step, until it is determined that the start of the frame dropping process or the frame inserting process is necessary again, the frame dropping process or the frame inserting process is performed. To pause.

従って、複数フレームに亘る前記コマ落とし処理又は前記コマ挿入処理により、動画の滑らかさが失われないようにでき、また、前記コマ落とし処理又は前記コマ挿入処理を休止する期間を設けることにより、変換のための演算量を減らすことができる。   Accordingly, the smoothness of the moving image can be prevented from being lost by the frame dropping process or the frame inserting process over a plurality of frames, and conversion can be performed by providing a period for pausing the frame dropping process or the frame inserting process. Can reduce the amount of computation.

以下、図面を参照して本発明を実施するための最良の形態について詳細に説明する。   The best mode for carrying out the present invention will be described below in detail with reference to the drawings.

[実施形態1]
図1は、本発明の実施形態1によるフレーム周波数変換装置を含むシステムの構成を示すブロック図である。
[Embodiment 1]
FIG. 1 is a block diagram showing a configuration of a system including a frame frequency conversion apparatus according to Embodiment 1 of the present invention.

図1を参照すると、このシステムは、NTSCデコーダ101、画像データ書込部103、フレームバッファ群105、出力処理部107、表示用メモリ125、モニタ127及びパラメータ指定部129を備える。   Referring to FIG. 1, this system includes an NTSC decoder 101, an image data writing unit 103, a frame buffer group 105, an output processing unit 107, a display memory 125, a monitor 127, and a parameter specifying unit 129.

フレームバッファ群105は、第1のフレームバッファ105−1、第2のフレームバッファ105−2及び第3のフレームバッファ105−3を備える。   The frame buffer group 105 includes a first frame buffer 105-1, a second frame buffer 105-2, and a third frame buffer 105-3.

出力処理部107は、画像データ読出部109、IP変換処理部111、コマ落とし/コマ挿入判定部115、合成処理部117、一時保存メモリ119、フォーマット変換部121、表示処理部123を備える。   The output processing unit 107 includes an image data reading unit 109, an IP conversion processing unit 111, a frame drop / frame insertion determination unit 115, a composition processing unit 117, a temporary storage memory 119, a format conversion unit 121, and a display processing unit 123.

NTSCデコーダ101は、入力したNTSC信号をデコードして、ベースバンドの動画像信号を出力する。   The NTSC decoder 101 decodes the input NTSC signal and outputs a baseband moving image signal.

画像データ書込部103は、NTSCデコーダ101から入力した動画像信号の各フレームをフレームバッファ群105の各フレームバッファ105−1〜105−3に書き込む。例えば、画像データ書込部103は、第1のフレームバッファ105−1、第2のフレームバッファ105−2及び第3のフレームバッファ105−3をリングバッファのようにして扱って、循環的にこれらのバッファに動画像信号の各フレームを書き込むようにしてもよい。また、フレームバッファの数は3枚に限ったものではなく、より多くてもよい。   The image data writing unit 103 writes each frame of the moving image signal input from the NTSC decoder 101 to each frame buffer 105-1 to 105-3 of the frame buffer group 105. For example, the image data writing unit 103 treats the first frame buffer 105-1, the second frame buffer 105-2, and the third frame buffer 105-3 like a ring buffer and cyclically handles them. Each frame of the moving image signal may be written into the buffer. Further, the number of frame buffers is not limited to three, and may be larger.

出力処理部107は、例えば、NTSCデコーダ101から出力されるNTSC信号の各フィールド垂直同期信号をトリガとして、NTSC信号の各フィールド毎に出力処理を行なう。出力処理部107は、ハードウェアによって実現することもできるが、コンピュータを出力処理部107として機能させるためのプログラムをコンピュータが読み込んで実行することによっても実現することができる。   The output processing unit 107 performs output processing for each field of the NTSC signal, for example, using each field vertical synchronization signal of the NTSC signal output from the NTSC decoder 101 as a trigger. The output processing unit 107 can be realized by hardware, but can also be realized by a computer reading and executing a program for causing the computer to function as the output processing unit 107.

出力処理部107は、出力処理の結果得られる動画像信号を表示用メモリ125に書き込む。   The output processing unit 107 writes the moving image signal obtained as a result of the output processing in the display memory 125.

表示用メモリ125に書き込まれた動画像信号は、モニタ127の垂直同期信号(例えば、フレームリフレッシュ信号等)を垂直同期信号として読み出され、これに基づいた動画像がモニタ127に表示される。   The moving image signal written in the display memory 125 is read using the vertical synchronizing signal (for example, frame refresh signal) of the monitor 127 as a vertical synchronizing signal, and the moving image based on this is displayed on the monitor 127.

出力処理部107の各部について説明すると、画像データ読出部109は、入力動画像信号の各フレームをフレームバッファ群105の各フレームバッファ105−1〜105−3から読み出す。例えば、画像データ読出部109は、第1のフレームバッファ105−1、第2のフレームバッファ105−2及び第3のフレームバッファ105−3をリングバッファのようにして扱って、循環的にこれらのバッファから入力動画像信号の各フレームを読み出すようにしてもよい。   The respective units of the output processing unit 107 will be described. The image data reading unit 109 reads out each frame of the input moving image signal from each of the frame buffers 105-1 to 105-3 of the frame buffer group 105. For example, the image data reading unit 109 treats the first frame buffer 105-1, the second frame buffer 105-2, and the third frame buffer 105-3 like a ring buffer, and cyclically selects these. Each frame of the input moving image signal may be read from the buffer.

IP変換処理部111は、IP変換処理を行なう。パラメータ指定部129は、IP変換処理部111によるIP変換処理で利用するパラメータを指定する。例えば、IP変換処理部111が図19に示すような構成を有する場合には、しきい値保持部519に格納されるべきしきい値を指定する。   The IP conversion processing unit 111 performs IP conversion processing. The parameter specifying unit 129 specifies a parameter used in the IP conversion process by the IP conversion processing unit 111. For example, when the IP conversion processing unit 111 has a configuration as shown in FIG. 19, a threshold value to be stored in the threshold value holding unit 519 is designated.

コマ落とし/コマ挿入判定部115は、入力動画像の現在のフィールド(これは、IP変換後のフレームに対応する。)に関連して、コマ落とし又はコマ挿入が必要であるか否かを判断する。   The frame drop / frame insertion determination unit 115 determines whether frame drop or frame insertion is necessary in relation to the current field of the input moving image (this corresponds to the frame after IP conversion). To do.

合成処理部117は、IP変換処理部111から入力するプログレッシブ入力動画像を基に、出力動画像を合成する。具体的には、合成処理部117は、1乃至複数の入力フレームを基に、各出力フレームを合成する。これにより、複数フレームに亘るコマ落とし処理又はコマ挿入処理が実現される。   The composition processing unit 117 synthesizes the output moving image based on the progressive input moving image input from the IP conversion processing unit 111. Specifically, the synthesis processing unit 117 synthesizes each output frame based on one or more input frames. Thereby, a frame drop process or a frame insertion process over a plurality of frames is realized.

一時保存メモリ119は、合成処理部117が合成処理を行なうために利用するものであり、プログレッシブ入力動画像に含まれる1フレームを一時保存する。   The temporary storage memory 119 is used by the synthesis processing unit 117 for performing the synthesis process, and temporarily stores one frame included in the progressive input moving image.

フォーマット変換部121は、合成処理部117から入力するプログレッシブ出力動画像のフォーマットを変換する。例えば、フォーマット変換部121は、YUVデータの配列を、IP変換処理部111の出力のものから表示用メモリ125を含むグラフィックボード等に適したものに変換する。   The format conversion unit 121 converts the format of the progressive output moving image input from the synthesis processing unit 117. For example, the format conversion unit 121 converts the array of YUV data from the output of the IP conversion processing unit 111 to one suitable for a graphic board including the display memory 125.

表示処理部123は、フォーマット変換部121から入力するフォーマット変換済みの出力動画像を表示メモリ125に書き込む。   The display processing unit 123 writes the format-converted output moving image input from the format conversion unit 121 in the display memory 125.

次に、出力処理部107により行なわれる出力処理について説明する。出力処理部107は、モニタ127のフレーム周波数(以下、「出力フレーム周波数」という。)が入力NTSC信号のフィールド周波数(IP変換後の入力フレーム周波数であり、以下「入力フレーム周波数」という。)よりも低い場合には、複数フレームに亘ってコマ落とし処理をすることにより、入力フレーム周波数と出力フレーム周波数のずれを吸収し、また、出力フレーム周波数が入力フレーム周波数よりも高い場合には、複数フレームに亘ってコマ挿入処理をすることにより、入力フレーム周波数と出力フレーム周波数のずれを吸収する。   Next, output processing performed by the output processing unit 107 will be described. In the output processing unit 107, the frame frequency of the monitor 127 (hereinafter referred to as “output frame frequency”) is based on the field frequency of the input NTSC signal (input frame frequency after IP conversion, hereinafter referred to as “input frame frequency”). If the output frame frequency is higher than the input frame frequency, the frame drop process is performed over a plurality of frames to absorb the difference between the input frame frequency and the output frame frequency. By performing the frame insertion process over a period of time, the difference between the input frame frequency and the output frame frequency is absorbed.

まず、出力フレーム周波数が入力フレーム周波数よりも低い場合に出力処理部107により行なわれる出力処理について図2等を参照して説明する。   First, output processing performed by the output processing unit 107 when the output frame frequency is lower than the input frame frequency will be described with reference to FIG.

まず、IP変換処理部111は、IP変換処理を行なう(ステップS201)。このIP変換処理の詳細については後述する。   First, the IP conversion processing unit 111 performs IP conversion processing (step S201). Details of the IP conversion process will be described later.

次に、コマ落とし/コマ挿入判定部115は、例えば、NTSCデコーダ101から入力するフィールド同期信号(これは、入力フレーム周波数を有する。)とモニタ127から入力するリフレッシュ信号(これは、出力フレーム周波数を有する。)を基に、コマ落とし開始処理開をする必要があるか否かを判断する(ステップS203)。   Next, the frame drop / frame insertion determination unit 115, for example, a field synchronization signal input from the NTSC decoder 101 (which has an input frame frequency) and a refresh signal input from the monitor 127 (which is an output frame frequency). Based on the above, it is determined whether or not the frame drop start process needs to be opened (step S203).

コマ落とし/コマ挿入判定部115によりコマ落とし開始処理をする必要があると判断された場合には(ステップS203でYES)、合成処理部117は、ステップS201で得られた現在の入力フレームを一時保存メモリ119に格納し(ステップS205)、変数であるカウンタを30に初期化する(ステップS207)。ここで、初期値である30は、一例であり、初期値として他の値を利用してもよい。この初期値は、コマ落とし処理を継続するフレーム数に対応する。例えば、その初期値を、コンピュータの負荷状況に応じて変化させてもよい。負荷が高ければ、初期値を小さくすることにより、コマ落とし処理の演算量を減らすことができ、逆に、負荷が低ければ、初期値を大きくすることにより、コマ落とし処理が行なわれるフレーム数を増やすことができ、画質を向上させることができる。コマ落とし/コマ挿入判定部115によりコマ落とし処理を開始する必要があると判断された場合には(ステップS203でYES)、その入力フレームにおいて、フォーマット変換処理(ステップS217)及び表示処理(ステップS219)が省略されるため、出力フレームを1つ減らすことができる。   If the frame drop / frame insertion determination unit 115 determines that it is necessary to perform frame drop start processing (YES in step S203), the composition processing unit 117 temporarily stores the current input frame obtained in step S201. The data is stored in the storage memory 119 (step S205), and a variable counter is initialized to 30 (step S207). Here, the initial value 30 is an example, and another value may be used as the initial value. This initial value corresponds to the number of frames for which the frame dropping process is continued. For example, the initial value may be changed according to the load status of the computer. If the load is high, the amount of frame drop processing can be reduced by reducing the initial value. Conversely, if the load is low, the initial value can be increased to reduce the number of frames for which frame drop processing is performed. The image quality can be increased and the image quality can be improved. If the frame drop / frame insertion determination unit 115 determines that it is necessary to start the frame drop process (YES in step S203), the format conversion process (step S217) and the display process (step S219) are performed in the input frame. ) Is omitted, the output frame can be reduced by one.

コマ落とし/コマ挿入判定部115によりコマ落とし開始処理をする必要がないと判断された場合には(ステップS203でNO)、合成処理部117は、カウンタの値がゼロを超えるか否かを判断する(ステップS209)。   When the frame drop / frame insertion determination unit 115 determines that it is not necessary to perform the frame drop start process (NO in step S203), the composition processing unit 117 determines whether or not the counter value exceeds zero. (Step S209).

カウンタの値がゼロを超える場合には(ステップS209でYES)、これは、現在のフレームがコマ落とし処理をするべき複数のフレームに属することを意味するので、コマ落とし処理をするために、ステップS211に進む。   If the value of the counter exceeds zero (YES in step S209), this means that the current frame belongs to a plurality of frames to be subjected to the frame dropping process. The process proceeds to S211.

他方、カウンタの値がゼロを超えない場合には(ステップS209でNO)、これは、現在のフレームがコマ落とし処理をするべき複数のフレームに属さない(すなわち、前回のコマ落とし処理が既に終了していること)ことを意味するので、コマ落とし処理を省略するために、ステップS221に進む。   On the other hand, when the value of the counter does not exceed zero (NO in step S209), this means that the current frame does not belong to a plurality of frames to be subjected to the frame dropping process (that is, the previous frame dropping process has already ended). In order to omit the frame dropping process, the process proceeds to step S221.

ステップS211では、合成処理部117は、入力フレームと一時保存フレームを基に、出力フレームを合成する。入力フレームとは、現在の出力処理におけるIP変換処理(ステップS201)で生成された入力フレームのことであり、簡単に言えば、現在の入力フレームである。一時保存フレームとは、現在の出力処理よりも前の出力処理において、IP変換処理(ステップS201)で生成され、ステップS205又はS213で一時保存メモリ119に一時保存された入力フレームのことであり、簡単に言えば、1つ前の入力フレームである。   In step S211, the synthesis processing unit 117 synthesizes an output frame based on the input frame and the temporary storage frame. The input frame is an input frame generated by the IP conversion process (step S201) in the current output process, and in short, is the current input frame. The temporary storage frame is an input frame generated in the IP conversion process (step S201) in the output process prior to the current output process and temporarily stored in the temporary storage memory 119 in step S205 or S213. Simply put, it is the previous input frame.

合成においては、例えば、出力フレームmの第i行第j列にある各画素y(m、i、j)を下式に従って算出する。   In the synthesis, for example, each pixel y (m, i, j) in the i-th row and j-th column of the output frame m is calculated according to the following equation.

y(m、i、j)=w×x(n−1、i、j)+(1−w)×x(n、i、j)
ここで、wは、重みを表し、x(n−1、i、j)は、保存フレームの第i行第j列にある画素を表し、x(n、i、j)は、入力フレームの第i行第j列にある画素を表す。また、wは、下式に従って算出されたものである。
y (m, i, j) = w × x (n−1, i, j) + (1−w) × x (n, i, j)
Here, w represents a weight, x (n−1, i, j) represents a pixel in the i-th row and j-th column of the storage frame, and x (n, i, j) represents the input frame. Represents a pixel in the i-th row and j-th column. Moreover, w is calculated according to the following formula.

w=カウンタ/30
但し、分母の30は、ステップS207での初期化であり、この初期値が他の値ならば、分母もその値に変化する。
w = counter / 30
However, the denominator 30 is the initialization in step S207. If this initial value is another value, the denominator also changes to that value.

ステップS211の次に、合成処理部117は、ステップS201で得られた現在の入力フレームを一時保存メモリ119に格納し(ステップS213)、カウンタを1だけ減らす(ステップS215)。   After step S211, the composition processing unit 117 stores the current input frame obtained in step S201 in the temporary storage memory 119 (step S213), and decrements the counter by 1 (step S215).

他方、ステップS221では、合成処理部117は、入力フレームそのものを出力フレームとする。   On the other hand, in step S221, the composition processing unit 117 sets the input frame itself as an output frame.

ステップS215又はステップS221の次に、フォーマット変換処理部121が、フォーマット変換処理を行い(ステップS217)、表示処理部123が、表示処理を行なう(ステップS219)。   Following step S215 or step S221, the format conversion processing unit 121 performs format conversion processing (step S217), and the display processing unit 123 performs display processing (step S219).

図3に、動作例を示す。   FIG. 3 shows an operation example.

図3を参照すると、第40番目の入力フレームにおいて、コマ落とし処理が必要であると判断される。ステップS201、ステップS205及びステップS207が実行され、第40番目の入力フレームのみに対応した出力フレームは生成されない。   Referring to FIG. 3, it is determined that frame drop processing is necessary in the 40th input frame. Steps S201, S205, and S207 are executed, and an output frame corresponding to only the 40th input frame is not generated.

第41番目から第70番目の入力フレームにおいて、コマ落とし処理が継続して行なわれる。ステップS201、ステップS211、ステップS213、ステップS215、ステップS217及びステップS219が各入力フレームで実行される。カウンタは、図3に示すように、各入力フレーム毎に1だけ減少していく。また、重みは、図3に示すように、1から0.03になるまで、直線的に減少する。図3の出力フレームの列には、入力フレームのフレーム番号により出力フレームの位置を示している。また、図3の差分の列には、各出力フレームのその前の出力フレームとの差分を示している。   In the 41st to 70th input frames, the frame dropping process is continuously performed. Step S201, Step S211, Step S213, Step S215, Step S217, and Step S219 are executed for each input frame. As shown in FIG. 3, the counter decreases by 1 for each input frame. Further, the weight decreases linearly from 1 to 0.03 as shown in FIG. The output frame column in FIG. 3 indicates the position of the output frame by the frame number of the input frame. Also, the difference column in FIG. 3 shows the difference between each output frame and the previous output frame.

従来例のように、単純に1コマ落とすような方法でコマ落としをすれば、コマ落としが必要であると判断されたフレームで出力フレームの間隔が2になってしまい、出力動画像が飛んで不連続となってしまう。   If frames are dropped by a method that simply drops one frame as in the conventional example, the interval between the output frames is 2 in the frame that is determined to require frame dropping, and the output moving image skips. It becomes discontinuous.

これに対し、本実施形態では、コマ落としが必要であると判断されたフレームで出力フレームの間隔が2となるようなことはない。また、コマ落としが行なわれている期間では、各出力フレームのその前の出力フレームとの差分が1.03となる。この値は、通常の差分1と大きな違いはない。従って、本実施形態では、コマ落とし処理を行なっても、動画の滑らかさを失うことを避けることができる。また、コマ落とし処理を行なう期間がステップS207でカウンタに設定された値に対応したフレーム数に対応した期間のみであり、その期間が経過すれば、その後、ステップS203でコマ落とし処理が再度必要であると判断されるフレームが到来するまで、コマ落とし処理を休止できるので、演算量を減らすことができる。従って、例えば、コマ落とし処理に必要な演算量が多いとしても、コマ落とし処理を休止している期間には、これが不要となるため、コマ落とし処理を休止している期間にコンピュータの資源の利用を他のタスクに譲ることが可能となる。   On the other hand, in the present embodiment, the interval between output frames does not become 2 in a frame that is determined to require frame dropping. Further, in the period when frame dropping is performed, the difference between each output frame and the previous output frame is 1.03. This value is not significantly different from the normal difference 1. Therefore, in the present embodiment, it is possible to avoid losing the smoothness of the moving image even if the frame dropping process is performed. Further, the period for performing the frame dropping process is only the period corresponding to the number of frames corresponding to the value set in the counter in step S207, and after that period, the frame dropping process is required again in step S203. Since the frame dropping process can be paused until a frame determined to be present arrives, the amount of calculation can be reduced. Therefore, for example, even if a large amount of computation is required for the frame dropping process, it is not necessary during the period when the frame dropping process is paused. Can be transferred to other tasks.

次に、出力フレーム周波数が入力フレーム周波数よりも高い場合に出力処理部107により行なわれる出力処理について図4等を参照して説明する。   Next, output processing performed by the output processing unit 107 when the output frame frequency is higher than the input frame frequency will be described with reference to FIG.

まず、IP変換処理部111は、IP変換処理を行なう(ステップS251)。このIP変換処理の詳細については後述する。   First, the IP conversion processing unit 111 performs IP conversion processing (step S251). Details of the IP conversion process will be described later.

次に、コマ落とし/コマ挿入判定部115は、例えば、NTSCデコーダ101から入力するフィールド同期信号(これは、入力フレーム周波数を有する。)とモニタ127から入力するリフレッシュ信号(これは、出力フレーム周波数を有する。)を基に、コマ挿入開始処理をする必要があるか否かを判断する(ステップS253)。   Next, the frame drop / frame insertion determination unit 115, for example, a field synchronization signal input from the NTSC decoder 101 (which has an input frame frequency) and a refresh signal input from the monitor 127 (which is an output frame frequency). Based on the above, it is determined whether or not the frame insertion start process needs to be performed (step S253).

コマ落とし/コマ挿入判定部115によりコマ挿入開始処理をする必要があると判断された場合には(ステップS253でYES)、合成処理部117は、ステップS251で得られた現在の入力フレームを一時保存メモリ119に格納し(ステップS255)、変数であるカウンタを30に初期化する(ステップS257)。ここで、初期値である30は、一例であり、初期値として他の値を利用してもよい。ステップS257からはステップS261に進む。   If the frame drop / frame insertion determination unit 115 determines that it is necessary to perform frame insertion start processing (YES in step S253), the composition processing unit 117 temporarily stores the current input frame obtained in step S251. The data is stored in the storage memory 119 (step S255), and a variable counter is initialized to 30 (step S257). Here, the initial value 30 is an example, and another value may be used as the initial value. From step S257, the process proceeds to step S261.

コマ落とし/コマ挿入判定部115によりコマ挿入開始処理をする必要がないと判断された場合には(ステップS253でNO)、合成処理部117は、カウンタの値がゼロを超えるか否かを判断する(ステップS259)。   When the frame drop / frame insertion determination unit 115 determines that it is not necessary to perform the frame insertion start process (NO in step S253), the composition processing unit 117 determines whether the counter value exceeds zero. (Step S259).

カウンタの値がゼロを超える場合には(ステップS259でYES)、これは、現在のフレームがコマ挿入処理をするべき複数のフレームに属することを意味するので、コマ挿入処理をするために、ステップS261に進む。   When the value of the counter exceeds zero (YES in step S259), this means that the current frame belongs to a plurality of frames to be subjected to frame insertion processing. The process proceeds to S261.

他方、カウンタの値がゼロを超えない場合には(ステップS259でNO)、これは、現在のフレームがコマ挿入処理をするべき複数のフレームに属さないこと(すなわち、前回のコマ挿入処理が既に終了していること)を意味するので、コマ挿入処理を省略するために、ステップS281に進む。   On the other hand, when the value of the counter does not exceed zero (NO in step S259), this means that the current frame does not belong to a plurality of frames to be subjected to frame insertion processing (that is, the previous frame insertion processing has already been performed). In order to omit the frame insertion process, the process proceeds to step S281.

ステップS261では、合成処理部117は、入力フレームと一時保存フレームを基に、出力フレームを合成する。入力フレームとは、現在の出力処理におけるIP変換処理(ステップS251)で生成された入力フレームのことであり、簡単に言えば、現在の入力フレームである。一時保存フレームとは、現在の出力処理よりも前の出力処理において、IP変換処理(ステップS251)で生成され、ステップS255又はS263で一時保存メモリ119に一時保存された入力フレームのことであり、簡単に言えば、1つ前の入力フレームである。   In step S261, the composition processing unit 117 synthesizes an output frame based on the input frame and the temporarily saved frame. The input frame is an input frame generated by the IP conversion process (step S251) in the current output process, and is simply the current input frame. The temporary storage frame is an input frame generated in the IP conversion process (step S251) in the output process before the current output process and temporarily stored in the temporary storage memory 119 in step S255 or S263. Simply put, it is the previous input frame.

合成においては、例えば、出力フレームmの第i行第j列にある各画素y(m、i、j)を下式に従って算出する。   In the synthesis, for example, each pixel y (m, i, j) in the i-th row and j-th column of the output frame m is calculated according to the following equation.

y(m、i、j)=(1−w)×x(n−1、i、j)+w×x(n、i、j)
ここで、wは、重みを表し、x(n−1、i、j)は、保存フレームの第i行第j列にある画素を表し、x(n、i、j)は、入力フレームの第i行第j列にある画素を表す。コマ落としの場合と比べると、重みが逆になっている。また、wは、下式に従って算出されたものである。
y (m, i, j) = (1−w) × x (n−1, i, j) + w × x (n, i, j)
Here, w represents a weight, x (n−1, i, j) represents a pixel in the i-th row and j-th column of the storage frame, and x (n, i, j) represents the input frame. Represents a pixel in the i-th row and j-th column. Compared to the case of dropping frames, the weights are reversed. Moreover, w is calculated according to the following formula.

w=カウンタ/30
ステップS261の次に、合成処理部117は、ステップS251で得られた現在の入力フレームを一時保存メモリ119に格納し(ステップS263)、カウンタを1だけ減らす(ステップS265)。
w = counter / 30
After step S261, the composition processing unit 117 stores the current input frame obtained in step S251 in the temporary storage memory 119 (step S263), and decrements the counter by 1 (step S265).

他方、ステップS281では、合成処理部117は、入力フレームそのものを出力フレームとする。   On the other hand, in step S281, the composition processing unit 117 sets the input frame itself as an output frame.

ステップS265又はステップS281の次に、フォーマット変換処理部121が、フォーマット変換処理を行い(ステップS267)、表示処理部123が、表示処理を行なう(ステップS279)。   Following step S265 or step S281, the format conversion processing unit 121 performs format conversion processing (step S267), and the display processing unit 123 performs display processing (step S279).

次に、合成処理部117は、カウンタの値がゼロであるか否かを判断する(ステップS271)。   Next, the composition processing unit 117 determines whether or not the counter value is zero (step S271).

カウンタの値がゼロであると判断された場合には(ステップS271でYES)、カウンタをゼロ未満の値(例えば、「−1」)にする(ステップS272)。こうすることにより、次回のコマ落とし処理の終了時まで、ステップS271においてYESと判断されないようにする。次に、合成処理部117が、入力フレームそのものを出力フレームとして(ステップS273)、フォーマット変換処理部121が、フォーマット変換処理を行い(ステップS275)、表示処理部123が、表示処理を行なう(ステップS279)。   If it is determined that the value of the counter is zero (YES in step S271), the counter is set to a value less than zero (eg, “−1”) (step S272). In this way, YES is not determined in step S271 until the next frame dropping process is completed. Next, the composition processing unit 117 uses the input frame itself as an output frame (step S273), the format conversion processing unit 121 performs format conversion processing (step S275), and the display processing unit 123 performs display processing (step S275). S279).

コマ落とし/コマ挿入判定部115によりコマ挿入処理を開始する必要があると判断された場合には(ステップS253でYES)、その入力フレームにおいて、ステップS261で合成された出力フレームがフォーマット変換処理(ステップS217)及び表示処理(ステップS219)により出力されるので、コマ落とし処理とは異なり、1フレーム減ることがない。また、カウンタの値がゼロである判断された場合には、出力合成処理(ステップS261)、フォーマット変換処理(ステップS267)及び表示処理(ステップS269)に加え、出力フレーム生成処理(ステップS273)、フォーマット変換処理(ステップS275)及び表示処理(ステップS279)が実行されるため、出力フレームを1つ増やすことができる。   If the frame drop / frame insertion determination unit 115 determines that it is necessary to start the frame insertion process (YES in step S253), the output frame synthesized in step S261 in the input frame is subjected to the format conversion process ( Since it is output by the step S217) and the display process (step S219), it is not reduced by one frame unlike the frame drop process. If it is determined that the counter value is zero, in addition to the output synthesis process (step S261), the format conversion process (step S267), and the display process (step S269), an output frame generation process (step S273), Since the format conversion process (step S275) and the display process (step S279) are executed, the output frame can be increased by one.

図5に、動作例を示す。   FIG. 5 shows an operation example.

図5を参照すると、第40番目の入力フレームにおいて、コマ挿入処理が必要であると判断される。ステップS251、ステップS255、ステップS257、ステップS261、ステップS263、ステップS265、ステップS267、ステップS269及びステップS271が実行され、1つの出力フレームが生成される。   Referring to FIG. 5, it is determined that frame insertion processing is necessary in the 40th input frame. Step S251, Step S255, Step S257, Step S261, Step S263, Step S265, Step S267, Step S269, and Step S271 are executed, and one output frame is generated.

第41番目から第69番目の入力フレームにおいて、コマ挿入処理が継続して行なわれる。ステップS251、ステップS255、ステップS261、ステップS263、ステップS265、ステップS267、ステップS269及びステップS271が各入力フレームで実行される。カウンタは、図5に示すように、各入力フレーム毎に1だけ減少していく。また、重みは、図5に示すように、1から0.03になるまで、直線的に減少する。図5の出力フレームの列には、入力フレームのフレーム番号により出力フレームの位置を示している。また、図5の差分の列には、各出力フレームのその前の出力フレームとの差分を示している。   In the 41st to 69th input frames, the frame insertion process is continuously performed. Step S251, Step S255, Step S261, Step S263, Step S265, Step S267, Step S269 and Step S271 are executed for each input frame. As shown in FIG. 5, the counter decreases by 1 for each input frame. Further, the weight decreases linearly from 1 to 0.03 as shown in FIG. The output frame column in FIG. 5 indicates the position of the output frame by the frame number of the input frame. Also, the difference column in FIG. 5 shows the difference between each output frame and the previous output frame.

単純に1コマを2回連続させるような方法でコマ落としをすれば、コマ挿入が必要であると判断されたフレームで出力フレームの間隔が0になってしまい、出力動画像が滞り不連続となってしまう。   If frames are dropped by a method of simply repeating one frame twice, the output frame interval becomes zero in a frame in which it is determined that frame insertion is necessary, and the output moving image becomes stagnant and discontinuous. turn into.

これに対し、本実施形態では、コマ挿入が必要であると判断されたフレームで出力フレームの間隔が0となるようなことはない。また、コマ挿入が行なわれている期間では、各出力フレームのその前の出力フレームとの差分が0.97となる。この値は、通常の差分1と大きな違いはない。従って、本実施形態では、コマ挿入処理を行なっても、動画の滑らかさを失うことを避けることができる。また、コマ挿入処理を行なう期間がステップS257でカウンタに設定された値に対応したフレーム数に対応した期間のみであり、その期間が経過すれば、その後、ステップS253でコマ挿入処理が再度必要であると判断されるフレームが到来するまで、コマ挿入処理を休止できるので、演算量を減らすことができる。従って、例えば、コマ挿入処理に必要な演算量が多いとしても、コマ挿入処理を休止している期間には、これが不要となるため、コマ挿入処理を休止している期間にコンピュータの資源の利用を他のタスクに譲ることが可能となる。   On the other hand, in this embodiment, the output frame interval does not become zero in a frame that is determined to require frame insertion. Also, during the period in which frame insertion is performed, the difference between each output frame and the previous output frame is 0.97. This value is not significantly different from the normal difference 1. Therefore, in this embodiment, it is possible to avoid losing the smoothness of the moving image even if the frame insertion process is performed. Further, the period for performing the frame insertion process is only the period corresponding to the number of frames corresponding to the value set in the counter in step S257, and after that period, the frame insertion process is required again in step S253. Since the frame insertion process can be paused until a frame determined to be present arrives, the amount of calculation can be reduced. Therefore, for example, even if a large amount of computation is required for the frame insertion process, this is not necessary during the period when the frame insertion process is paused. Can be transferred to other tasks.

以上、出力処理部107の動作を、出力フレーム周波数が入力フレーム周波数よりも低い場合と高い場合に分けて説明した。実際には、潜在的に何れの場合にも対応するように場合分けされた処理が実現される。しかし、実際には、モニタ127をどのモニタにするかにより、リフレッシュレートが変動することがあるが、一度モニタ127及びその動作モードを決めてしまえば、そのモニタのリフレッシュレートが変動するようなことはあまりなく、例え、変動するとしても長期変動であるので、実際には、図2等を参照して説明した処理又は図4等を参照して説明した処理が長期間継続される。   The operation of the output processing unit 107 has been described separately for the case where the output frame frequency is lower than the input frame frequency and the case where the output frame frequency is higher. In practice, a case-by-case process is realized to potentially deal with any case. In practice, however, the refresh rate may vary depending on which monitor is used as the monitor 127. Once the monitor 127 and its operation mode are determined, the refresh rate of the monitor varies. However, even if it fluctuates, it is a long-term fluctuation, so in practice, the process described with reference to FIG. 2 or the like or the process described with reference to FIG.

[実施形態2]
実施形態1では、IP変換処理部111でIP変換処理を行なった後に、その後段にある合成処理部117が、必要に応じて、コマ落とし処理又はコマ挿入処理を行なう。
[Embodiment 2]
In the first embodiment, after the IP conversion processing is performed by the IP conversion processing unit 111, the composition processing unit 117 in the subsequent stage performs a frame drop process or a frame insertion process as necessary.

これに対し、実施形態2では、2つのIP変換処理部(すなわち、第1のIP変換処理部111B及び第2のIP変換処理部111C)を設け、合成処理部117を省略する。   In contrast, in the second embodiment, two IP conversion processing units (that is, the first IP conversion processing unit 111B and the second IP conversion processing unit 111C) are provided, and the synthesis processing unit 117 is omitted.

片方のIP変換処理部(すなわち、第1のIP変換処理部111B)が通常のIP変換処理(すなわち、コマ落とし処理及びコマ挿入処理を含まないIP変換処理)を行ない、必要に応じて、他方のIP変換処理部(すなわち、第2のIP変換処理部111C)がコマ落とし処理又はコマ挿入処理を含んだIP変換処理を行なう。従って、実施形態2の第1のIP変換処理部111Bは、実施形態1のIP変換処理部111と同様なものである。   One IP conversion processing unit (that is, the first IP conversion processing unit 111B) performs normal IP conversion processing (that is, IP conversion processing that does not include frame drop processing and frame insertion processing), and the other as necessary. The IP conversion processing unit (that is, the second IP conversion processing unit 111C) performs an IP conversion process including a frame drop process or a frame insertion process. Accordingly, the first IP conversion processing unit 111B of the second embodiment is the same as the IP conversion processing unit 111 of the first embodiment.

図6は、本発明の実施形態2によるフレーム周波数変換装置を含むシステムの構成を示すブロック図である。   FIG. 6 is a block diagram showing a configuration of a system including a frame frequency conversion device according to Embodiment 2 of the present invention.

図6を参照すると、このシステムは、NTSCデコーダ101、画像データ書込部103B、フレームバッファ群105B、出力処理部107B、表示用メモリ125、モニタ127及びパラメータ指定部129を備える。   Referring to FIG. 6, this system includes an NTSC decoder 101, an image data writing unit 103B, a frame buffer group 105B, an output processing unit 107B, a display memory 125, a monitor 127, and a parameter specifying unit 129.

フレームバッファ群105Bは、第1のフレームバッファ105−1、第2のフレームバッファ105−2、第3のフレームバッファ105−3及び第4のフレームバッファ105−4を備える。   The frame buffer group 105B includes a first frame buffer 105-1, a second frame buffer 105-2, a third frame buffer 105-3, and a fourth frame buffer 105-4.

出力処理部107Bは、画像データ読出部109B、第1のスイッチ131、第1のIP変換処理部111B、第2のIP変換処理部111C、コマ落とし/コマ挿入判定部115、第2のスイッチ133、フォーマット変換部121、表示処理部123及び制御部135を備える。   The output processing unit 107B includes an image data reading unit 109B, a first switch 131, a first IP conversion processing unit 111B, a second IP conversion processing unit 111C, a frame drop / frame insertion determination unit 115, and a second switch 133. A format conversion unit 121, a display processing unit 123, and a control unit 135.

実施形態2のNTSCデコーダ101、表示用メモリ125、モニタ127及びパラメータ指定部129は、実施形態1のそれらと同様なものであるので、重複する説明を省略する。   Since the NTSC decoder 101, the display memory 125, the monitor 127, and the parameter designation unit 129 of the second embodiment are the same as those of the first embodiment, redundant description is omitted.

画像データ書込部103Bは、NTSCデコーダ101から入力した動画像信号の各フレームをフレームバッファ群105の各フレームバッファ105−1〜105−4に書き込む。例えば、画像データ書込部103Bは、第1のフレームバッファ105−1、第2のフレームバッファ105−2、第3のフレームバッファ105−3及び第4のフレームバッファ105−4をリングバッファのようにして扱って、循環的にこれらのバッファに動画像信号の各フレームを書き込むようにしてもよい。また、フレームバッファの数は4枚に限ったものではなく、より多くてもよい。   The image data writing unit 103B writes each frame of the moving image signal input from the NTSC decoder 101 to each frame buffer 105-1 to 105-4 of the frame buffer group 105. For example, the image data writing unit 103B uses the first frame buffer 105-1, the second frame buffer 105-2, the third frame buffer 105-3, and the fourth frame buffer 105-4 as a ring buffer. Thus, each frame of the moving image signal may be written in these buffers in a circular manner. The number of frame buffers is not limited to four, and may be larger.

出力処理部107Bは、例えば、NTSCデコーダ101から出力されるNTSC信号の各フィールド垂直同期信号をトリガとして、NTSC信号の各フィールド毎に出力処理を行なう。出力処理部107Bは、ハードウェアによって実現することもできるが、コンピュータを出力処理部107Bとして機能させるためのプログラムをコンピュータが読み込んで実行することによっても実現することができる。   The output processing unit 107B performs output processing for each field of the NTSC signal, for example, using each field vertical synchronization signal of the NTSC signal output from the NTSC decoder 101 as a trigger. The output processing unit 107B can be realized by hardware, but can also be realized by a computer reading and executing a program for causing the computer to function as the output processing unit 107B.

出力処理部107Bは、出力処理の結果得られる動画像信号を表示用メモリ125に書き込む。   The output processing unit 107B writes the moving image signal obtained as a result of the output processing in the display memory 125.

出力処理部107Bの各部について説明すると、画像データ読出部109Bは、入力動画像信号の各フレームをフレームバッファ群105の各フレームバッファ105−1〜105−4から読み出す。例えば、画像データ読出部109は、第1のフレームバッファ105−1、第2のフレームバッファ105−2、第3のフレームバッファ105−3及び第4のフレームバッファ105−4をリングバッファのようにして扱って、循環的にこれらのバッファから入力動画像信号の各フレームを読み出すようにしてもよい。   Explaining each part of the output processing unit 107B, the image data reading unit 109B reads each frame of the input moving image signal from each frame buffer 105-1 to 105-4 of the frame buffer group 105. For example, the image data reading unit 109 makes the first frame buffer 105-1, the second frame buffer 105-2, the third frame buffer 105-3, and the fourth frame buffer 105-4 like a ring buffer. The frames of the input moving image signal may be read out from these buffers in a circular manner.

コマ落とし/コマ挿入判定部115は、入力動画像の現在のフィールド(これは、IP変換後のフレームに対応する。)に関連して、コマ落とし又はコマ挿入が必要であるか否かを判断する。   The frame drop / frame insertion determination unit 115 determines whether frame drop or frame insertion is necessary in relation to the current field of the input moving image (this corresponds to the frame after IP conversion). To do.

制御部135は、コマ落とし/コマ挿入判定部115による判断結果に基づいて、第1のIP変換処理部111B及び第2のIP変換処理部111CのうちのどちらがIP変換処理を行なうべきであるのかを判断する。   The control unit 135 determines which of the first IP conversion processing unit 111B and the second IP conversion processing unit 111C should perform the IP conversion processing based on the determination result by the frame drop / frame insertion determination unit 115. Judging.

第1のスイッチ131及び第2のスイッチ133は制御部135による判断結果に基づいて、画像データ読出部109Bからフォーマット変換部121までの画像信号の経路を切り換える。   The first switch 131 and the second switch 133 switch the path of the image signal from the image data reading unit 109B to the format conversion unit 121 based on the determination result by the control unit 135.

フォーマット変換部121は、第2のスイッチ133から入力するプログレッシブ出力動画像のフォーマットを実施形態1と同様に変換する。   The format conversion unit 121 converts the format of the progressive output moving image input from the second switch 133 in the same manner as in the first embodiment.

表示処理部123は、フォーマット変換部121から入力するフォーマット変換済みの出力動画像を表示メモリ125に書き込む。   The display processing unit 123 writes the format-converted output moving image input from the format conversion unit 121 in the display memory 125.

次に、出力処理部107Bにより行なわれる出力処理について説明する。出力処理部107Bは、出力フレーム周波数が入力フレーム周波数よりも低い場合には、コマ落とし処理をすることにより、入力フレーム周波数と出力フレーム周波数のずれを吸収し、また、出力フレーム周波数が入力フレーム周波数よりも高い場合には、コマ挿入処理をすることにより、入力フレーム周波数と出力フレーム周波数のずれを吸収する。   Next, output processing performed by the output processing unit 107B will be described. When the output frame frequency is lower than the input frame frequency, the output processing unit 107B absorbs a shift between the input frame frequency and the output frame frequency by performing a frame dropping process, and the output frame frequency is the input frame frequency. If it is higher, the frame insertion process is performed to absorb the difference between the input frame frequency and the output frame frequency.

まず、出力フレーム周波数が入力フレーム周波数よりも低い場合に出力処理部107Bにより行なわれる出力処理について図7等を参照して説明する。   First, output processing performed by the output processing unit 107B when the output frame frequency is lower than the input frame frequency will be described with reference to FIG.

まず、コマ落とし/コマ挿入判定部115は、例えば、NTSCデコーダ101から入力するフィールド同期信号(これは、入力フレーム周波数を有する。)とモニタ127から入力するリフレッシュ信号(これは、出力フレーム周波数を有する。)を基に、コマ落とし開始処理開をする必要があるか否かを判断する(ステップS301)。   First, the frame drop / frame insertion determination unit 115, for example, uses a field synchronization signal (which has an input frame frequency) input from the NTSC decoder 101 and a refresh signal (which has an output frame frequency input from the monitor 127). Based on the above, it is determined whether or not it is necessary to open the frame drop start process (step S301).

コマ落とし/コマ挿入判定部115によりコマ落とし開始処理をする必要があると判断された場合には(ステップS301でYES)、制御部135は、変数であるカウンタを30に初期化する(ステップS305)。ここで、初期値である30は、一例であり、初期値として他の値を利用してもよい。コマ落とし/コマ挿入判定部115によりコマ落とし処理を開始する必要があると判断された場合には(ステップS301でYES)、その入力フレームにおいて、フォーマット変換処理(ステップS313)及び表示処理(ステップS315)が省略されるため、出力フレームを1つ減らすことができる。   If the frame drop / frame insertion determination unit 115 determines that it is necessary to perform frame drop start processing (YES in step S301), the control unit 135 initializes a counter that is a variable to 30 (step S305). ). Here, the initial value 30 is an example, and another value may be used as the initial value. If the frame drop / frame insertion determination unit 115 determines that it is necessary to start the frame drop process (YES in step S301), the format conversion process (step S313) and the display process (step S315) are performed in the input frame. ) Is omitted, the output frame can be reduced by one.

コマ落とし/コマ挿入判定部115によりコマ落とし開始処理をする必要がないと判断された場合には(ステップS301でNO)、制御部135は、カウンタの値がゼロを超えるか否かを判断する(ステップS307)。   When the frame drop / frame insertion determination unit 115 determines that it is not necessary to perform the frame drop start process (NO in step S301), the control unit 135 determines whether the counter value exceeds zero. (Step S307).

カウンタの値がゼロを超える場合には(ステップS307でYES)、これは、現在のフレームがコマ落とし処理をするべき複数のフレームに属することを意味するので、画像データ読出部109Bからフォーマット変換部121までの間に第2のIP変換処理部111Cが入るように、第1のスイッチ131及び第2のスイッチ133を切り換え、第2のIP変換処理部111Cは、コマ落とし処理を含んだIP変換処理を行なう(ステップS309)。次に、制御部135は、カウンタを1だけ減らす(ステップS311)。   If the value of the counter exceeds zero (YES in step S307), this means that the current frame belongs to a plurality of frames to be subjected to the frame drop process, so the image data reading unit 109B to the format conversion unit The first switch 131 and the second switch 133 are switched so that the second IP conversion processing unit 111C enters between 121 and 121, and the second IP conversion processing unit 111C performs IP conversion including frame drop processing. Processing is performed (step S309). Next, the control unit 135 decreases the counter by 1 (step S311).

なお、第2のIP変換処理部111Cにより行なわれるコマ落とし処理を含んだIP変換処理においても、重みwを
w=カウンタ/30
に従って算出し、これを利用してフレーム合成を行なう。
In the IP conversion processing including the frame dropping process performed by the second IP conversion processing unit 111C, the weight w is set to w = counter / 30.
And frame synthesis is performed using this.

他方、カウンタの値がゼロを超えない場合には(ステップS307でNO)、これは、現在のフレームがコマ落とし処理をするべき複数のフレームに属さないこと(すなわち、前回のコマ落とし処理が既に終了していること)を意味するので、コマ落とし処理を省略するために、ステップS317に進む。   On the other hand, when the value of the counter does not exceed zero (NO in step S307), this means that the current frame does not belong to a plurality of frames to be subjected to the frame dropping process (that is, the previous frame dropping process has already been performed). In order to omit the frame dropping process, the process proceeds to step S317.

ステップS317では、制御部135は、画像データ読出部109Bからフォーマット変換部121までの間に第1のIP変換処理部111Bが入るように、第1のスイッチ131及び第2のスイッチ133を切り換え、第1のIP変換処理部111Bは、通常のIP変換処理を行なう。   In step S317, the control unit 135 switches the first switch 131 and the second switch 133 so that the first IP conversion processing unit 111B is inserted between the image data reading unit 109B and the format conversion unit 121. The first IP conversion processing unit 111B performs normal IP conversion processing.

ステップS317又はステップS309の次に、第1のIP変換処理部111Bにより行なわれる通常のIP変換処理(ステップS317)により得られた入力動画像又は第2のIP変換処理部111Cにより行なわれるコマ落とし処理を含んだIP変換処理(ステップS309)により得られた入力動画像に対して、フォーマット変換処理部121が、フォーマット変換処理を行い(ステップS313)、表示処理部123が、表示処理を行なう(ステップS315)。   Subsequent to step S317 or step S309, an input moving image obtained by normal IP conversion processing (step S317) performed by the first IP conversion processing unit 111B or frame dropping performed by the second IP conversion processing unit 111C The format conversion processing unit 121 performs format conversion processing on the input moving image obtained by the IP conversion processing including processing (step S309) (step S313), and the display processing unit 123 performs display processing (step S313). Step S315).

実施形態2のコマ落とし処理の動作例及びこれを参照して説明した効果は、実施形態1の図3に示すもの及びこれを参照して説明した効果と同様である。   The operation example of the frame dropping process according to the second embodiment and the effects described with reference thereto are the same as those illustrated in FIG. 3 according to the first embodiment and the effects described with reference thereto.

次に、出力フレーム周波数が入力フレーム周波数よりも高い場合に出力処理部107Bにより行なわれる出力処理について図8等を参照して説明する。   Next, output processing performed by the output processing unit 107B when the output frame frequency is higher than the input frame frequency will be described with reference to FIG.

まず、コマ落とし/コマ挿入判定部115は、例えば、NTSCデコーダ101から入力するフィールド同期信号(これは、入力フレーム周波数を有する。)とモニタ127から入力するリフレッシュ信号(これは、出力フレーム周波数を有する。)を基に、コマ挿入開始処理をする必要があるか否かを判断する(ステップS351)。   First, the frame drop / frame insertion determination unit 115, for example, uses a field synchronization signal (which has an input frame frequency) input from the NTSC decoder 101 and a refresh signal (which has an output frame frequency input from the monitor 127). Based on the above, it is determined whether or not the frame insertion start process needs to be performed (step S351).

コマ落とし/コマ挿入判定部115によりコマ挿入開始処理をする必要があると判断された場合には(ステップS351でYES)、制御部135は、変数であるカウンタを30に初期化する(ステップS355)。ここで、初期値である30は、一例であり、初期値として他の値を利用してもよい。ステップS355からはステップS359に進む。   If the frame drop / frame insertion determination unit 115 determines that it is necessary to perform the frame insertion start process (YES in step S351), the control unit 135 initializes a variable counter to 30 (step S355). ). Here, the initial value 30 is an example, and another value may be used as the initial value. From step S355, the process proceeds to step S359.

コマ落とし/コマ挿入判定部115によりコマ挿入開始処理をする必要がないと判断された場合には(ステップS351でNO)、制御部135は、カウンタの値がゼロを超えるか否かを判断する(ステップS357)。   When the frame drop / frame insertion determination unit 115 determines that it is not necessary to perform the frame insertion start process (NO in step S351), the control unit 135 determines whether the counter value exceeds zero. (Step S357).

カウンタの値がゼロを超える場合には(ステップS357でYES)、これは、現在のフレームがコマ挿入処理をするべき複数のフレームに属することを意味するので、コマ挿入処理を含んだIP変換処理をするために、ステップS359に進む。   If the value of the counter exceeds zero (YES in step S357), this means that the current frame belongs to a plurality of frames to be subjected to frame insertion processing, and therefore IP conversion processing including frame insertion processing is performed. In step S359, the process proceeds to step S359.

他方、カウンタの値がゼロを超えない場合には(ステップS357でNO)、これは、現在のフレームがコマ挿入処理をするべき複数のフレームに属さない(すなわち、前回のコマ挿入処理が既に終了していること)ことを意味するので、通常のIP変換処理を行い、コマ挿入処理を省略するために、ステップS379に進む。   On the other hand, if the value of the counter does not exceed zero (NO in step S357), this means that the current frame does not belong to a plurality of frames to be subjected to frame insertion processing (that is, the previous frame insertion processing has already ended). In order to perform normal IP conversion processing and omit frame insertion processing, the process proceeds to step S379.

ステップS359では、制御部135は、画像データ読出部109Bからフォーマット変換部121までの間に第2のIP変換処理部111Cが入るように、第1のスイッチ131及び第2のスイッチ133を切り換え、第2のIP変換処理部111Cは、コマ挿入処理を含んだIP変換処理を行なう。   In step S359, the control unit 135 switches the first switch 131 and the second switch 133 so that the second IP conversion processing unit 111C is inserted between the image data reading unit 109B and the format conversion unit 121. The second IP conversion processing unit 111C performs IP conversion processing including frame insertion processing.

なお、第2のIP変換処理部111Cにより行なわれるコマ挿入処理を含んだIP変換処理においても、重みwを
w=カウンタ/30
に従って算出し、これを利用してフレーム合成を行なう。
In the IP conversion process including the frame insertion process performed by the second IP conversion processing unit 111C, the weight w is set to w = counter / 30.
And frame synthesis is performed using this.

ステップS359の次に、制御部135は、カウンタを1だけ減らす(ステップS363)。   Following step S359, the control unit 135 decrements the counter by 1 (step S363).

ステップS379では、制御部135は、画像データ読出部109Bからフォーマット変換部121までの間に第1のIP変換処理部111Bが入るように、第1のスイッチ131及び第2のスイッチ133を切り換え、第1のIP変換処理部111Bは、通常のIP変換処理を行なう。   In step S379, the control unit 135 switches the first switch 131 and the second switch 133 so that the first IP conversion processing unit 111B is inserted between the image data reading unit 109B and the format conversion unit 121. The first IP conversion processing unit 111B performs normal IP conversion processing.

ステップS379又はステップS359の次に、第1のIP変換処理部111Bにより行なわれる通常のIP変換処理(ステップS379)により得られた入力動画像又は第2のIP変換処理部111Cにより行なわれるコマ挿入処理を含んだIP変換処理(ステップS359)により得られた入力動画像に対して、フォーマット変換処理部121が、フォーマット変換処理を行い(ステップS365)、表示処理部123が、表示処理を行なう(ステップS367)。   Subsequent to step S379 or step S359, an input moving image obtained by a normal IP conversion process (step S379) performed by the first IP conversion processing unit 111B or a frame insertion performed by the second IP conversion processing unit 111C The format conversion processing unit 121 performs format conversion processing on the input moving image obtained by the IP conversion processing including processing (step S359) (step S365), and the display processing unit 123 performs display processing (step S365). Step S367).

次に、制御部135は、カウンタの値がゼロであるか否かを判断する(ステップS369)。   Next, the control unit 135 determines whether or not the counter value is zero (step S369).

カウンタの値がゼロであると判断された場合には(ステップS369でYES)、カウンタをゼロ未満の値(例えば、「−1」)にする(ステップS370)。こうすることにより、次回のコマ落とし処理の終了時まで、ステップS369においてYESと判断されないようにする。次に、制御部135は、画像データ読出部109Bからフォーマット変換部121までの間に第1のIP変換処理部111Bが入るように、第1のスイッチ131及び第2のスイッチ133を切り換え、第1のIP変換処理部111Bは、通常のIP変換処理を行なう(ステップS371)。次に、第1のIP変換処理部111Bにより行なわれる通常のIP変換処理(ステップS371)により得られた入力動画像に対して、フォーマット変換処理部121が、フォーマット変換処理を行い(ステップS373)、表示処理部123が、表示処理を行なう(ステップS375)。   If it is determined that the value of the counter is zero (YES in step S369), the counter is set to a value less than zero (eg, “−1”) (step S370). By doing so, YES is not determined in step S369 until the end of the next frame dropping process. Next, the control unit 135 switches the first switch 131 and the second switch 133 so that the first IP conversion processing unit 111B is inserted between the image data reading unit 109B and the format conversion unit 121. The first IP conversion processing unit 111B performs normal IP conversion processing (step S371). Next, the format conversion processing unit 121 performs format conversion processing on the input moving image obtained by the normal IP conversion processing (step S371) performed by the first IP conversion processing unit 111B (step S373). The display processing unit 123 performs display processing (step S375).

コマ落とし/コマ挿入判定部115によりコマ挿入処理を開始する必要があると判断された場合には(ステップS351でYES)、その入力フレームにおいて、第2のIP変換処理(すなわち、コマ挿入処理を含むIP変換処理)(ステップS359)で生成された出力フレームがフォーマット変換処理(ステップS365)及び表示処理(ステップS367)により出力されるので、コマ落とし処理とは異なり、1フレーム減ることがない。また、カウンタの値がゼロである判断された場合には、第2のIP変換処理(すなわち、コマ挿入処理を含むIP変換処理)(ステップS359)、フォーマット変換処理(ステップS365)及び表示処理(ステップS367)に加え、第1のIP変換処理(すなわち、通常のIP変換処理)(ステップS371)、フォーマット変換処理(ステップS2373)及び表示処理(ステップS375)が実行されるため、出力フレームを1つ増やすことができる。   If the frame drop / frame insertion determination unit 115 determines that it is necessary to start the frame insertion process (YES in step S351), the second IP conversion process (that is, the frame insertion process is performed in the input frame). Including the IP conversion process) (step S359), the output frame generated by the format conversion process (step S365) and the display process (step S367) is output, so that one frame is not reduced unlike the frame drop process. If it is determined that the counter value is zero, the second IP conversion process (that is, the IP conversion process including the frame insertion process) (step S359), the format conversion process (step S365), and the display process ( In addition to step S367), the first IP conversion process (that is, normal IP conversion process) (step S371), the format conversion process (step S2373), and the display process (step S375) are executed. Can be increased.

実施形態2のコマ挿入処理の動作例及びこれを参照して説明した効果は、実施形態1の図5に示すもの及びこれを参照して説明した効果と同様である。   The operation example of the frame insertion process according to the second embodiment and the effects described with reference thereto are the same as those illustrated in FIG. 5 according to the first embodiment and the effects described with reference thereto.

[実施形態3]
本発明の目的は、上述したように、動画の滑らかさを失わないことであり、更に、動画の滑らかさを失わないための処理を行なっても演算量が大きく増えないようにすることである。他方、入力動画像は、一般には動画像であるが、静止画像のフレームも含む。コマ落とし処理又はコマ挿入処理が必要であると判断された入力フレームが静止画フレームである場合には、そのフレームを単に廃棄することによりコマ落としを実現したり、そのフレームを重複させることによりコマ挿入処理を実現しても、静止画像である画像の滑らかさは失われない。また、コマ落とし処理又はコマ挿入処理が必要であると判断された入力フレーム(対象フレーム)及びその近傍の入力フレームが全て静止画フレームである場合には、その対象フレームを単に廃棄することによりコマ落としを実現したり、そのフレームを重複させることによりコマ挿入処理を実現しても、静止画像である画像の滑らかさは失われない程度は更に増す。
[Embodiment 3]
As described above, an object of the present invention is to not lose the smoothness of a moving image, and to prevent a calculation amount from being greatly increased even if processing is performed so as not to lose the smoothness of a moving image. . On the other hand, the input moving image is generally a moving image, but also includes a frame of a still image. When an input frame that is determined to require frame drop processing or frame insert processing is a still image frame, frame drop is realized by simply discarding the frame, or by overlapping the frame. Even if the insertion process is realized, the smoothness of the still image is not lost. In addition, when the input frame (target frame) determined to require the frame drop process or the frame insertion process and all the input frames in the vicinity thereof are still image frames, the frame is simply discarded by discarding the target frame. Even if the frame insertion processing is realized by realizing dropping or overlapping the frames, the degree to which the smoothness of the still image is not lost is further increased.

そこで、実施形態3では、コマ落とし処理又はコマ挿入処理が必要であると判断された時に、現在の入力フレームが動画フレームであるか否かを判断する。そして、現在の入力フレームが動画フレームであると判断された場合には、実施形態1又は2で説明したようなコマ落とし処理又はコマ挿入処理を行ない、現在の入力フレームが静止画フレームであると判断された場合には、実施形態1又は2で説明したようなコマ落とし処理又はコマ挿入処理よりも演算量が少ないコマ落とし処理又はコマ挿入処理を行なう。   Therefore, in the third embodiment, when it is determined that the frame drop process or the frame insertion process is necessary, it is determined whether or not the current input frame is a moving image frame. When it is determined that the current input frame is a moving image frame, the frame dropping process or the frame insertion process as described in the first or second embodiment is performed, and the current input frame is a still image frame. If it is determined, a frame dropping process or a frame inserting process having a smaller calculation amount than the frame dropping process or the frame inserting process described in the first or second embodiment is performed.

実施形態1又は2で説明したようなコマ落とし処理又はコマ挿入処理よりも演算量が少ないコマ落とし処理又はコマ挿入処理とは、それぞれ、例えば、対象フレームを単に廃棄することによるコマ落とし処理又は対象フレームを単に重複させることによるコマ挿入処理である。   The frame dropping process or the frame inserting process having a smaller calculation amount than the frame dropping process or the frame inserting process as described in the first or second embodiment is, for example, a frame dropping process or a target by simply discarding the target frame. This is a frame insertion process by simply overlapping frames.

また、現在の入力フレームが動画フレームであるか否かを判断する代わりに、現在の入力フレーム及びその近傍にある入力フレームが全て動画フレームであるか否かを判断してもよい。   Further, instead of determining whether or not the current input frame is a moving image frame, it may be determined whether or not the current input frame and all input frames in the vicinity thereof are moving image frames.

実施形態3は、実施形態1を修正することにより、上記の機能を追加するものである。従って、実施形態3によるシステムの構成及びその動作は、実施形態1と基本的には同一である。そこで、実施形態3の実施形態1と相違する点を中心にして説明をする。   The third embodiment adds the above function by modifying the first embodiment. Therefore, the configuration and operation of the system according to the third embodiment are basically the same as those of the first embodiment. Therefore, the description will be focused on the points of the third embodiment different from the first embodiment.

図9は、実施形態3による出力処理部107Cの構成を示す。次に、図1に示す実施形態1による出力処理部107と相違する点のみを説明する。   FIG. 9 shows the configuration of the output processing unit 107C according to the third embodiment. Next, only differences from the output processing unit 107 according to the first embodiment illustrated in FIG. 1 will be described.

IP変換処理部111には、動画素/静止画素判定部141が含まれている。また、動画フレーム/静止画フレーム判定部143、第1のスイッチ145、静止画フレーム用コマ落とし/コマ挿入処理部147、第2のスイッチ149及び制御部151が追加されている。   The IP conversion processing unit 111 includes a moving pixel / still pixel determination unit 141. Further, a moving image frame / still image frame determination unit 143, a first switch 145, a still image frame frame drop / frame insertion processing unit 147, a second switch 149, and a control unit 151 are added.

動画素/静止画素判定部141は、現在IP変換処理部111が合成しようとするフレームの各画素が動画部に含まれる画素であるのか静止画部に含まれる画素であるのかを判断する。ここで動画部と静止画部は、空間的には、画素を単位とするものであってもよいし、複数画素のブロックを単位とするものであってもよいし、画像により表される物体を単位とするものであってもよい。また、動画部と静止画部は、時間的には、動画部であるのか又は静止画部であるのかを、各1フレーム毎に判断されたものであってもよいし、複数フレームに亘って判断されたものであってもよい。また、各画素が動画部に含まれる画素であるのか静止画部に含まれる画素であるのかは、二値で表されていてもよいし、その程度が多値や連続値で表されていてもよい。IP変換処理部111が図19に示すような構成を有する場合には、差分計算部509、差分補正部511、補正値保持部513、差分累積部515、累積動き量メモリ517、しきい値保持部519及び動き量計算部521を動画素/静止画素判定部141として利用してもよい。   The moving image / still pixel determination unit 141 determines whether each pixel of a frame to be synthesized by the current IP conversion processing unit 111 is a pixel included in the moving image portion or a pixel included in the still image portion. Here, the moving image portion and the still image portion may spatially be in units of pixels, may be in units of blocks of multiple pixels, or may be objects represented by images. May be the unit. In addition, the moving image portion and the still image portion may be determined for each frame as to whether the moving image portion or the still image portion is a moving image portion or a still image portion. It may be determined. Further, whether each pixel is a pixel included in the moving image portion or a pixel included in the still image portion may be represented by a binary value, and the degree thereof is represented by a multi-value or a continuous value. Also good. When the IP conversion processing unit 111 has a configuration as shown in FIG. 19, a difference calculation unit 509, a difference correction unit 511, a correction value holding unit 513, a difference accumulation unit 515, an accumulated motion amount memory 517, and a threshold value holding The unit 519 and the motion amount calculation unit 521 may be used as the moving pixel / still pixel determination unit 141.

動画フレーム/静止画フレーム判定部143は、動画素/静止画素判定部141から入力した現在のフレームの各画素が動画部に含まれる画素であるのか静止画部に含まれる画素であるのかに関する情報に基づいて、現在のフレームが動画フレームであるのか又は静止画フレームであるのかを判断する。例えば、各画素が動画部に含まれる画素であるのか静止画部に含まれる画素であるのかが、その画素が動画像に含まれる画素である可能性が大きいほど大きくなるような多値で表されている場合には、その値が第1の閾値以下である全ての画素が当該フレームを占める割合が第2の所定値以上である場合に、当該フレームが静止画フレームであると判断するようにしてもよい。また、その多値を当該フレーム内の全ての画素について足し合わせて得た値が第3の所定値以下である場合に、当該フレームが静止画フレームであると判断するようにしてもよい。また、それらの閾値を、現在のCPU負荷に基づいて変化させるようにしてもよい。   The moving image frame / still image frame determination unit 143 is information regarding whether each pixel of the current frame input from the moving pixel / still pixel determination unit 141 is a pixel included in the moving image portion or a pixel included in the still image portion. Based on the above, it is determined whether the current frame is a moving image frame or a still image frame. For example, whether each pixel is a pixel included in the moving image portion or a pixel included in the still image portion is represented by a multivalue that increases as the possibility that the pixel is a pixel included in the moving image increases. If the ratio of all the pixels whose value is equal to or less than the first threshold is equal to or greater than the second predetermined value, it is determined that the frame is a still image frame. It may be. Further, when the value obtained by adding the multivalues for all the pixels in the frame is equal to or smaller than the third predetermined value, the frame may be determined to be a still image frame. Also, these threshold values may be changed based on the current CPU load.

制御部151は、コマ落とし/コマ挿入判定部115が、コマ落とし処理又はコマ挿入処理が必要であると判断した時に、更に、現在IP変換処理部111が出力するフレームが動画フレームであるのか静止画フレームであるのかを動画フレーム/静止画フレーム判定部143から入力する信号により判断する。   When the frame drop / frame insertion determination unit 115 determines that frame drop processing or frame insertion processing is necessary, the control unit 151 further determines whether the frame currently output by the IP conversion processing unit 111 is a moving image frame. Whether the frame is an image frame is determined by a signal input from the moving image frame / still image frame determination unit 143.

そして、制御部151は、コマ落とし処理又はコマ挿入処理が現在必要であると判断され、且つ、現在IP変換処理部111が出力するフレームが動画フレームであると判断された場合には、それから複数のフレームに亘り合成処理部117が、その動画フレームに対応したコマ落とし処理又はコマ挿入処理を複数のフレームに亘り行なうべきであると判断する。そのために、制御部151は、IP変換処理部111からフォーマット変換部121までの間に合成処理部117が入るように、第1のスイッチ145及び第2のスイッチ149を切り換える。そして、合成処理部117は、その複数のフレームに亘り、実施形態1で説明したような、動画像フレームに対応したコマ落とし処理又はコマ挿入処理を行なう。   Then, when it is determined that the frame drop process or the frame insertion process is currently necessary, and the control unit 151 determines that the frame currently output by the IP conversion processing unit 111 is a moving image frame, the control unit 151 then selects a plurality of frames. The synthesis processing unit 117 determines that the frame dropping process or the frame insertion process corresponding to the moving image frame should be performed over a plurality of frames. For this purpose, the control unit 151 switches the first switch 145 and the second switch 149 so that the composition processing unit 117 is inserted between the IP conversion processing unit 111 and the format conversion unit 121. Then, the composition processing unit 117 performs frame dropping processing or frame inserting processing corresponding to the moving image frame as described in the first embodiment over the plurality of frames.

他方、制御部151は、コマ落とし処理又はコマ挿入処理が現在必要であると判断され、且つ、現在IP変換処理部111が出力するフレームが静止画フレームであると判断された場合には、静止画フレーム用コマ落とし/コマ挿入処理部147が静止画フレームに対応したコマ落とし処理又はコマ挿入処理を行なうべきであると判断する。そのために、制御部151は、IP変換処理部111からフォーマット変換部121までの間に静止画フレーム用コマ落とし/コマ挿入処理部147が入るように、第1のスイッチ145及び第2のスイッチ149を切り換える。そして、静止画フレーム用コマ落とし/コマ挿入処理部147は、静止画フレームに対応したコマ落とし処理又はコマ挿入処理を行なう。但し、表示処理部123が、フォーマット変換部121から入力した信号を複数回表示するための処理(表示用メモリへの複数回書込み)を行なうことにより、静止画フレームに対応したコマ挿入を実現してもよい。   On the other hand, the control unit 151 determines that a frame drop process or a frame insertion process is currently necessary, and determines that the frame currently output by the IP conversion processing unit 111 is a still image frame. The frame drop / frame insertion processing unit 147 determines that the frame drop or frame insertion processing corresponding to the still image frame should be performed. Therefore, the control unit 151 includes the first switch 145 and the second switch 149 so that the frame drop / frame insertion processing unit 147 for the still image frame is inserted between the IP conversion processing unit 111 and the format conversion unit 121. Switch. The still image frame frame dropping / frame insertion processing unit 147 performs frame dropping processing or frame insertion processing corresponding to the still image frame. However, the display processing unit 123 performs processing for displaying the signal input from the format conversion unit 121 multiple times (multiple writing to the display memory), thereby realizing frame insertion corresponding to a still image frame. May be.

また、制御部151は、コマ落とし処理又はコマ挿入処理が現在必要でないと判断された場合には、IP変換処理部111からフォーマット変換部121までの間に合成処理部117も静止画フレーム用コマ落とし/コマ挿入処理部147も入らないように、第1のスイッチ145及び第2のスイッチ149を切り換える。但し、合成処理部117又は静止画フレーム用コマ落とし/コマ挿入処理部147が入るようにして、それらの部分が、バイパス処理を行なってもよい。   In addition, when it is determined that the frame dropping process or the frame inserting process is not currently required, the control unit 151 also includes the still image frame frame between the IP conversion processing unit 111 and the format conversion unit 121. The first switch 145 and the second switch 149 are switched so that the drop / frame insertion processing unit 147 does not enter. However, the composition processing unit 117 or the still image frame frame dropping / frame insertion processing unit 147 may be inserted, and these portions may perform bypass processing.

次に、出力フレーム周波数が入力フレーム周波数よりも低い場合に出力処理部107Cにより行なわれる出力処理について説明する。   Next, output processing performed by the output processing unit 107C when the output frame frequency is lower than the input frame frequency will be described.

この処理は、図10に示すフローチャートにより表される。図2に示す実施形態1の対応するフローチャートとの相違点のみを説明する。ステップS223がステップS203とステップS205の間に挿入される。ステップS223では、現在のフレームが動画フレームであるのか否かが判断される。現在のフレームが動画フレームである場合には(ステップS223でYES)、実施形態1と同様に、ステップS205に進む。現在のフレームが静止画フレームである場合には(ステップS223でNO)、ステップS205及びステップS207がスキップされる。   This process is represented by the flowchart shown in FIG. Only differences from the corresponding flowchart of the first embodiment shown in FIG. 2 will be described. Step S223 is inserted between step S203 and step S205. In step S223, it is determined whether or not the current frame is a moving image frame. If the current frame is a moving image frame (YES in step S223), the process proceeds to step S205 as in the first embodiment. If the current frame is a still image frame (NO in step S223), steps S205 and S207 are skipped.

従って、コマ落とし処理が必要であると判断され(ステップS203でYES)、且つ、現在のフレームが静止画フレームであると判断された(ステップS223でNO)場合には、フォーマット変換処理(ステップS217)も表示処理(ステップS219)も行なわれないので、1フレームのコマ落としがされる。また、ステップS207もスキップされるので、カウンタが30に初期化されない。従って、次からの入力フレームに対する出力処理では、コマ落とし開始処理が必要でないと判断された後(ステップS203でNO)、カウンタがゼロであるため(ステップS209でNO)、入力フレームをそのまま出力フレームとすることとなる(ステップS221)。従って、単純な1コマ落としが実現され、出力フレーム合成処理(ステップS211)を省略することができる。   Therefore, if it is determined that the frame drop process is necessary (YES in step S203) and it is determined that the current frame is a still image frame (NO in step S223), the format conversion process (step S217) is performed. ) And display processing (step S219) are not performed, so one frame is dropped. Further, since step S207 is also skipped, the counter is not initialized to 30. Accordingly, in the output process for the next input frame, after it is determined that the frame drop start process is not necessary (NO in step S203), the counter is zero (NO in step S209), so the input frame is used as it is. (Step S221). Therefore, a simple one frame drop is realized, and the output frame synthesis process (step S211) can be omitted.

次に、出力フレーム周波数が入力フレーム周波数よりも高い場合に出力処理部107Cにより行なわれる出力処理について説明する。   Next, output processing performed by the output processing unit 107C when the output frame frequency is higher than the input frame frequency will be described.

この処理は、図11に示すフローチャートにより表される。図4に示す実施形態1の対応するフローチャートとの相違点のみを説明する。ステップS285がステップS253とステップS255の間に挿入される。ステップS285では、現在のフレームが動画フレームであるのか否かが判断される。現在のフレームが動画フレームである場合には(ステップS285でYES)、実施形態1と同様に、ステップS255に進む。   This process is represented by the flowchart shown in FIG. Only differences from the corresponding flowchart of the first embodiment shown in FIG. 4 will be described. Step S285 is inserted between step S253 and step S255. In step S285, it is determined whether or not the current frame is a moving image frame. If the current frame is a moving image frame (YES in step S285), the process proceeds to step S255 as in the first embodiment.

現在のフレームが静止画フレームである場合には(ステップS285でNO)、入力フレームそのものを出力フレームとして(ステップS287)、フォーマット変換処理部121が、フォーマット変換処理を行い(ステップS289)、表示処理部123が、ステップS289で得られた信号の表示処理を2度行なう(ステップS291、ステップS293)。つまり、ステップS289で得られた1フレーム分の信号を表示用メモリ125に2度書き込む。   When the current frame is a still image frame (NO in step S285), the input frame itself is used as an output frame (step S287), and the format conversion processing unit 121 performs format conversion processing (step S289), and display processing is performed. The unit 123 performs display processing of the signal obtained in step S289 twice (steps S291 and S293). That is, the signal for one frame obtained in step S289 is written twice in the display memory 125.

従って、コマ挿入処理が必要であると判断され(ステップS253でYES)、且つ、現在のフレームが静止画フレームであると判断された(ステップS285でNO)場合には、フォーマット変換処理(ステップS289)で生成されたフレームが2度表示される(ステップS291、ステップS293)ので、1フレームの2度表示がされる。また、ステップS275がスキップされるので、カウンタが30に初期化されない。従って、次からの入力フレームに対する出力処理では、コマ挿入開始処理が必要でないと判断された後(ステップS253でNO)、カウンタがゼロであるため(ステップS259でNO)、入力フレームをそのまま出力フレームとすることとなる(ステップS281)。従って、単純な1コマ挿入が実現され、出力フレーム合成処理(ステップS261)を省略することができる。   Therefore, when it is determined that the frame insertion process is necessary (YES in step S253) and the current frame is determined to be a still image frame (NO in step S285), the format conversion process (step S289) is performed. ) Is displayed twice (steps S291 and S293), so that one frame is displayed twice. Further, since step S275 is skipped, the counter is not initialized to 30. Accordingly, in the output process for the next input frame, after it is determined that the frame insertion start process is not necessary (NO in step S253), the counter is zero (NO in step S259), so the input frame is used as it is. (Step S281). Therefore, simple one-frame insertion is realized, and the output frame synthesis process (step S261) can be omitted.

[実施形態4]
実施形態4は、実施形態2を修正することにより、実施形態3の導入部で説明した機能を追加するものである。従って、実施形態4によるシステムの構成及びその動作は、実施形態2と基本的には同一である。そこで、実施形態4の実施形態2と相違する点を中心にして説明をする。
[Embodiment 4]
In the fourth embodiment, the function described in the introduction part of the third embodiment is added by modifying the second embodiment. Therefore, the configuration and operation of the system according to the fourth embodiment are basically the same as those of the second embodiment. Therefore, the difference between the fourth embodiment and the second embodiment will be mainly described.

図12は、実施形態4による出力処理部107Dの構成を示す。次に、図6に示す実施形態2による出力処理部107Bと相違する点のみを説明する。   FIG. 12 shows a configuration of the output processing unit 107D according to the fourth embodiment. Next, only differences from the output processing unit 107B according to the second embodiment illustrated in FIG. 6 will be described.

第1のIP変換処理部111Bには、動画素/静止画素判定部141が含まれている。なお、動画素/静止画素判定部141は、第2のIP変換処理部111Cに含まれていてもよいし、第1のIP変換処理部111B及び第2のIP変換処理部111Cにより共用されるものであってもよい。また、動画フレーム/静止画フレーム判定部143が追加されている。制御部135は、制御部135Bに変更されている。   The first IP conversion processing unit 111B includes a moving pixel / still pixel determination unit 141. Note that the moving pixel / still pixel determination unit 141 may be included in the second IP conversion processing unit 111C, or is shared by the first IP conversion processing unit 111B and the second IP conversion processing unit 111C. It may be a thing. In addition, a moving image frame / still image frame determination unit 143 is added. The control unit 135 is changed to a control unit 135B.

動画素/静止画素判定部141及び動画フレーム/静止画フレーム判定部143は、実施形態3のものと同様なものであるので、重複する説明を省略する。   The moving picture element / still picture pixel determination unit 141 and the moving picture frame / still picture frame determination unit 143 are the same as those in the third embodiment, and thus redundant description is omitted.

制御部135Bは、コマ落とし/コマ挿入判定部115が、コマ落とし処理又はコマ挿入処理が必要であると判断した時に、更に、現在第1のIP変換処理部111Bが出力するフレームが動画フレームであるのか静止画フレームであるのかを動画フレーム/静止画フレーム判定部143から入力する信号により判断する。   When the frame drop / frame insertion determination unit 115 determines that a frame drop process or a frame insertion process is necessary, the control unit 135B further displays a frame that is currently output by the first IP conversion processing unit 111B as a moving image frame. Whether it is a still image frame or not is determined by a signal input from the moving image frame / still image frame determination unit 143.

そして、制御部135Bは、コマ落とし処理又はコマ挿入処理が現在必要であると判断され、且つ、現在第1のIP変換処理部111Bが出力するフレームが動画フレームであると判断された場合には、それから複数のフレームに亘り第2のIP変換処理部111Cが、その動画フレームに対応したコマ落とし処理又はコマ挿入処理を含んだIP変換処理を行なうべきであると判断する。そのために、制御部135Bは、画像データ読出部109Bからフォーマット変換部121までの間に第2のIP変換処理部111Cが入るように、第1のスイッチ131及び第2のスイッチ133を切り換える。そして、第2のIP変換処理部111Cは、その複数のフレームに亘り、実施形態2で説明したような、動画像フレームに対応したコマ落とし処理又はコマ挿入処理を含んだIP変換処理を行なう。   Then, the control unit 135B determines that the frame dropping process or the frame insertion process is currently necessary, and determines that the frame currently output by the first IP conversion processing unit 111B is a moving image frame. Then, the second IP conversion processing unit 111C determines that an IP conversion process including a frame dropping process or a frame insertion process corresponding to the moving image frame should be performed over a plurality of frames. Therefore, the control unit 135B switches the first switch 131 and the second switch 133 so that the second IP conversion processing unit 111C is inserted between the image data reading unit 109B and the format conversion unit 121. Then, the second IP conversion processing unit 111C performs an IP conversion process including a frame dropping process or a frame insertion process corresponding to a moving image frame as described in the second embodiment over the plurality of frames.

他方、制御部135Bは、コマ落とし処理又はコマ挿入処理が現在必要であると判断され、且つ、現在第1のIP変換処理部111Bが出力するフレームが静止画フレームであると判断された場合には、第1のIP変換処理部111Bが静止画フレームに対応したコマ落とし処理又はコマ挿入処理を含んだIP変換処理を行なうべきであると判断する。そのために、制御部135Bは、画像データ読出部109Bからフォーマット変換部121までの間に第1のIP変換処理部111Bが入るように、第1のスイッチ131及び第2のスイッチ133を切り換える。そして、第1のIP変換処理部111Bは、静止画フレームに対応したコマ落とし処理又はコマ挿入処理を含んだIP変換処理を行なう。但し、表示処理部123が、フォーマット変換部121から入力した信号を複数回表示するための処理(表示用メモリへの複数回書込み)を行なうことにより、静止画フレームに対応したコマ挿入を実現してもよい。   On the other hand, the control unit 135B determines that a frame drop process or a frame insertion process is currently necessary, and determines that the frame currently output by the first IP conversion processing unit 111B is a still image frame. Determines that the first IP conversion processing unit 111B should perform IP conversion processing including frame drop processing or frame insertion processing corresponding to a still image frame. For this purpose, the control unit 135B switches the first switch 131 and the second switch 133 so that the first IP conversion processing unit 111B is inserted between the image data reading unit 109B and the format conversion unit 121. Then, the first IP conversion processing unit 111B performs an IP conversion process including a frame drop process or a frame insertion process corresponding to the still image frame. However, the display processing unit 123 performs processing for displaying the signal input from the format conversion unit 121 multiple times (multiple writing to the display memory), thereby realizing frame insertion corresponding to a still image frame. May be.

また、制御部135Bは、コマ落とし処理又はコマ挿入処理が現在必要でないと判断された場合には、第1のIP変換処理部111Bが通常のIP変換処理を行なうべきであると判断する。そのために、制御部135Bは、画像データ読出部109Bからフォーマット変換部121までの間に第1のIP変換処理部111Bが入るように、第1のスイッチ131及び第2のスイッチ133を切り換える。そして、第1のIP変換処理部111Bは、通常のIP変換処理を行なう。   In addition, when it is determined that the frame drop process or the frame insertion process is not currently required, the control unit 135B determines that the first IP conversion processing unit 111B should perform a normal IP conversion process. For this purpose, the control unit 135B switches the first switch 131 and the second switch 133 so that the first IP conversion processing unit 111B is inserted between the image data reading unit 109B and the format conversion unit 121. Then, the first IP conversion processing unit 111B performs normal IP conversion processing.

次に、出力フレーム周波数が入力フレーム周波数よりも低い場合に出力処理部107Dにより行なわれる出力処理について説明する。   Next, output processing performed by the output processing unit 107D when the output frame frequency is lower than the input frame frequency will be described.

この処理は、図13に示すフローチャートにより表される。図7に示す実施形態1の対応するフローチャートとの相違点のみを説明する。ステップS319がステップS301とステップS305の間に挿入される。ステップS319では、現在のフレームが動画フレームであるのか否かが判断される。現在のフレームが動画フレームである場合には(ステップS319でYES)、実施形態2と同様に、ステップS305に進む。現在のフレームが静止画フレームである場合には(ステップS319でNO)、ステップS305がスキップされる。   This process is represented by the flowchart shown in FIG. Only differences from the corresponding flowchart of the first embodiment shown in FIG. 7 will be described. Step S319 is inserted between step S301 and step S305. In step S319, it is determined whether or not the current frame is a moving image frame. If the current frame is a moving image frame (YES in step S319), the process proceeds to step S305 as in the second embodiment. If the current frame is a still image frame (NO in step S319), step S305 is skipped.

従って、コマ落とし処理が必要であると判断され(ステップS301でYES)、且つ、現在のフレームが静止画フレームであると判断された(ステップS319でNO)場合には、フォーマット変換処理(ステップS313)も表示処理(ステップS315)も行なわれないので、1フレームのコマ落としがされる。また、ステップS305もスキップされるので、カウンタが30に初期化されない。従って、次からの入力フレームに対する出力処理では、コマ落とし開始処理が必要でないと判断された後(ステップS301でNO)、カウンタがゼロであるため(ステップS307でNO)、通常のIP変換処理(第1のIP変換処理)が行なわれることとなる(ステップS317)。従って、単純な1コマ落としが実現され、第2のIP変換処理(ステップS309)を省略することができる。   Therefore, when it is determined that the frame drop process is necessary (YES in step S301) and the current frame is determined to be a still image frame (NO in step S319), the format conversion process (step S313) is performed. ) And display processing (step S315) are not performed, so one frame is dropped. Since step S305 is also skipped, the counter is not initialized to 30. Therefore, in the output process for the next input frame, after it is determined that the frame drop start process is not necessary (NO in step S301), the counter is zero (NO in step S307), so that the normal IP conversion process ( First IP conversion processing) is performed (step S317). Therefore, a simple frame drop is realized, and the second IP conversion process (step S309) can be omitted.

次に、出力フレーム周波数が入力フレーム周波数よりも高い場合に出力処理部107Dにより行なわれる出力処理について説明する。   Next, output processing performed by the output processing unit 107D when the output frame frequency is higher than the input frame frequency will be described.

この処理は、図14に示すフローチャートにより表される。図8に示す実施形態2の対応するフローチャートとの相違点のみを説明する。ステップS377がステップS351とステップS355の間に挿入される。ステップS377では、現在のフレームが動画フレームであるのか否かが判断される。現在のフレームが動画フレームである場合には(ステップS377でYES)、実施形態2と同様に、ステップS355に進む。   This process is represented by the flowchart shown in FIG. Only differences from the corresponding flowchart of the second embodiment shown in FIG. 8 will be described. Step S377 is inserted between step S351 and step S355. In step S377, it is determined whether or not the current frame is a moving image frame. If the current frame is a moving image frame (YES in step S377), the process proceeds to step S355 as in the second embodiment.

現在のフレームが静止画フレームである場合には(ステップS377でNO)、第1のIP変換処理部111Bが、通常のIP変換処理を行い(ステップS379)、フォーマット変換処理部121が、フォーマット変換処理を行い(ステップS381)、表示処理部123が、ステップS289で得られた信号の表示処理を2度行なう(ステップS383、ステップS385)。つまり、ステップS383で得られた1フレーム分の信号を表示用メモリ125に2度書き込む。   If the current frame is a still image frame (NO in step S377), the first IP conversion processing unit 111B performs normal IP conversion processing (step S379), and the format conversion processing unit 121 performs format conversion. Processing is performed (step S381), and the display processing unit 123 performs display processing of the signal obtained in step S289 twice (steps S383 and S385). That is, the signal for one frame obtained in step S383 is written twice in the display memory 125.

従って、コマ挿入処理が必要であると判断され(ステップS351でYES)、且つ、現在のフレームが静止画フレームであると判断された(ステップS377でNO)場合には、通常のIP変換処理(ステップS379)で生成されたフレームが2度表示される(ステップS383、ステップS385)ので、1フレームの2度表示がされる。また、ステップS355がスキップされるので、カウンタが30に初期化されない。従って、次からの入力フレームに対する出力処理では、コマ挿入開始処理が必要でないと判断された後(ステップS355でNO)、カウンタがゼロであるため(ステップS357でNO)、第2のIP変換処理(ステップS359)の代わりに第1のIP変換処理(ステップS375)が行なわれることとなる。従って、単純な1コマ挿入が実現される。第1のIP変換処理(ステップS375)を第2のIP変換処理(ステップS359)よりも演算量が少ないものとすることにより、コマ挿入処理が必要であると判断され(ステップS351でYES)、且つ、現在のフレームが静止画フレームであると判断された(ステップS377でNO)場合には、コマ挿入処理が必要であると判断され(ステップS351でYES)、且つ、現在のフレームが動画フレームであると判断された(ステップS377でYES)場合に比べ、演算量を減らすことができる。   Therefore, when it is determined that the frame insertion process is necessary (YES in step S351) and the current frame is determined to be a still image frame (NO in step S377), a normal IP conversion process ( Since the frame generated in step S379) is displayed twice (steps S383 and S385), one frame is displayed twice. In addition, since step S355 is skipped, the counter is not initialized to 30. Accordingly, in the output process for the next input frame, since it is determined that the frame insertion start process is not necessary (NO in step S355), the counter is zero (NO in step S357), so the second IP conversion process Instead of (Step S359), the first IP conversion process (Step S375) is performed. Therefore, simple one-frame insertion is realized. By determining that the first IP conversion process (step S375) has a smaller calculation amount than the second IP conversion process (step S359), it is determined that the frame insertion process is necessary (YES in step S351). If it is determined that the current frame is a still image frame (NO in step S377), it is determined that frame insertion processing is necessary (YES in step S351), and the current frame is a moving image frame. The amount of calculation can be reduced compared to the case where it is determined that (YES in step S377).

[実施形態5]
実施形態1及び実施形態2においては、カウンタの初期値を30に設定することにより、約30フレームに亘りコマ落とし処理又はコマ挿入処理を行なうようにしていた。カウンタの初期値を他の値に設定することも可能である。しかし、カウンタの初期値が大きすぎると演算量削減の効果が薄れてしまい、逆に、カウンタの初期値が小さすぎると、動きを滑らかにする効果が薄れてしまう。30という値は両者を考慮した上で決定した値である。
[Embodiment 5]
In the first and second embodiments, the initial value of the counter is set to 30 so that the frame dropping process or the frame inserting process is performed over about 30 frames. It is also possible to set the initial value of the counter to another value. However, if the initial value of the counter is too large, the effect of reducing the amount of calculation is diminished. Conversely, if the initial value of the counter is too small, the effect of smoothing the movement is diminished. The value of 30 is a value determined in consideration of both.

出力フレーム周波数が入力フレーム周波数よりも僅かに低い場合には、カウンタの初期値を30に設定すれば、コマ落とし処理を継続する時間の全体の時間に占める割合を必要な程度に低くすることができる。   When the output frame frequency is slightly lower than the input frame frequency, setting the initial value of the counter to 30 can reduce the ratio of the time for continuing the frame dropping process to the necessary time. it can.

しかし、出力フレーム周波数が入力フレーム周波数よりもかなり低い場合には、或るフレームでコマ落としが要求され、それから始まった一連のフレームに亘るコマ落とし処理が終了する前に、次のコマ落とし要求が発生してしまうことがありうる。このような場合には、現在の一連のフレームに亘るコマ落とし処理を中断して、中断したフレームから始まる一連のフレームに亘る次のコマ落とし処理に入ることとなる。そうすると、それらの間で、出力フレームが不連続となってしまい、動きの滑らかさを失わないという効果が薄れてしまう。   However, if the output frame frequency is much lower than the input frame frequency, a frame drop request is requested in a certain frame, and the next frame drop request is issued before the frame drop process for a series of frames started from that time is completed. It can happen. In such a case, the frame dropping process over the current series of frames is interrupted, and the next frame dropping process over a series of frames starting from the interrupted frame is entered. If it does so, an output frame will become discontinuous between them, and the effect of not losing the smoothness of a motion will fade.

実施形態5では、このような問題点を解消するものである。そのために、コマ落とし要求の間隔に応じて、カウンタの初期値をダイナミックに変化させる。   In the fifth embodiment, such a problem is solved. For this purpose, the initial value of the counter is dynamically changed according to the interval of frame drop requests.

実施形態5のシステムの基本的構成は、実施形態1のものと同様であるので、説明を省略する。   Since the basic configuration of the system of the fifth embodiment is the same as that of the first embodiment, description thereof is omitted.

実施形態5では、図2に示される出力処理が図15に示される出力処理に変更される。   In the fifth embodiment, the output process shown in FIG. 2 is changed to the output process shown in FIG.

図15に示す「合成カウンタ」は、実施形態1の「カウンタ」に相当するものであり、出力フレーム合成(ステップS409)で重み付けのために利用される。「合成カウンタ」は、コマ落とし開始処理(ステップS405)で、ダイナミックに初期化される。   The “composite counter” shown in FIG. 15 corresponds to the “counter” of the first embodiment, and is used for weighting in output frame synthesis (step S409). The “composite counter” is dynamically initialized in the frame drop start process (step S405).

「Nカウンタ」は、大雑把に言えば、コマ落とし要求が生ずるフレームの間隔を反映するものである。   Roughly speaking, the “N counter” reflects the frame interval at which a frame drop request occurs.

図15を参照すると、まず、IP変換処理部111は、IP変換処理を行なう(ステップS401)。このIP変換処理の詳細については後述する。   Referring to FIG. 15, first, the IP conversion processing unit 111 performs IP conversion processing (step S401). Details of the IP conversion process will be described later.

次に、コマ落とし/コマ挿入判定部115は、NTSCデコーダ101から入力するフィールド同期信号(これは、入力フレーム周波数を有する。)とモニタ127から入力するリフレッシュ信号(これは、出力フレーム周波数を有する。)を基に、コマ落とし開始処理開をする必要があるか否かを判断する(ステップS403)。   Next, the frame drop / frame insertion determination unit 115 receives a field synchronization signal (which has an input frame frequency) input from the NTSC decoder 101 and a refresh signal (which has an output frame frequency) input from the monitor 127. )), It is determined whether or not it is necessary to open the frame drop start process (step S403).

コマ落とし/コマ挿入判定部115によりコマ落とし開始処理をする必要があると判断された場合には(ステップS403でYES)、合成処理部117は、コマ落とし開始処理(ステップS405)を行なう。これについては後述する。   If the frame drop / frame insertion determination unit 115 determines that it is necessary to perform frame drop start processing (YES in step S403), the composition processing unit 117 performs frame drop start processing (step S405). This will be described later.

コマ落とし開始処理(ステップS405)は、実施形態1のステップS205及びステップS207から置き換わったものである。   The frame drop start process (step S405) is a replacement of step S205 and step S207 of the first embodiment.

従って、コマ落とし/コマ挿入判定部115によりコマ落とし処理を開始する必要があると判断された場合には(ステップS403でYES)、その入力フレームにおいて、フォーマット変換処理(ステップS417)及び表示処理(ステップS419)が省略されるため、出力フレームを1つ減らすことができる。   Accordingly, if the frame drop / frame insertion determination unit 115 determines that it is necessary to start the frame drop process (YES in step S403), the format conversion process (step S417) and the display process (step S417) are performed in the input frame. Since step S419) is omitted, the output frame can be reduced by one.

コマ落とし/コマ挿入判定部115によりコマ落とし開始処理をする必要がないと判断された場合には(ステップS403でNO)、合成処理部117は、「合成カウンタ」の値がゼロを超えるか否かを判断する(ステップS407)。   When the frame drop / frame insertion determination unit 115 determines that it is not necessary to perform the frame drop start process (NO in step S403), the combination processing unit 117 determines whether the value of the “composite counter” exceeds zero. Is determined (step S407).

「合成カウンタ」の値がゼロを超える場合には(ステップS407でYES)、これは、現在のフレームがコマ落とし処理をするべき複数のフレームに属することを意味するので、コマ落とし処理をするために、ステップS409に進む。   If the value of the “composite counter” exceeds zero (YES in step S407), this means that the current frame belongs to a plurality of frames to be subjected to the frame dropping process. Then, the process proceeds to step S409.

他方、「合成カウンタ」の値がゼロを超えない場合には(ステップS407でNO)、これは、現在のフレームがコマ落とし処理をするべき複数のフレームに属さないこと(すなわち、前回のコマ落とし処理が既に終了していること)を意味するので、コマ落とし処理を省略するために、ステップS421に進む。   On the other hand, if the value of the “composite counter” does not exceed zero (NO in step S407), this means that the current frame does not belong to a plurality of frames to be subjected to the frame dropping process (that is, the previous frame dropping). This means that the process has already been completed), and thus the process proceeds to step S421 in order to omit the frame drop process.

ステップS409では、合成処理部117は、入力フレームと一時保存フレームを基に、出力フレームを合成する。入力フレームとは、現在の出力処理におけるIP変換処理(ステップS401)で生成された入力フレームのことであり、簡単に言えば、現在の入力フレームである。一時保存フレームとは、現在の出力処理よりも前の出力処理において、IP変換処理(ステップS401)で生成され、ステップS405(より詳細には、ステップS405−13)又はS411で一時保存メモリ119に一時保存された入力フレームのことであり、簡単に言えば、1つ前の入力フレームである。   In step S409, the composition processing unit 117 synthesizes an output frame based on the input frame and the temporarily saved frame. The input frame is an input frame generated in the IP conversion process (step S401) in the current output process, and in short, is the current input frame. The temporary storage frame is generated in the IP conversion process (step S401) in the output process prior to the current output process, and is stored in the temporary storage memory 119 in step S405 (more specifically, step S405-13) or S411. This is an input frame that is temporarily stored. In short, it is the previous input frame.

合成においては、例えば、出力フレームmの第i行第j列にある各画素y(m、i、j)を下式に従って算出する。   In the synthesis, for example, each pixel y (m, i, j) in the i-th row and j-th column of the output frame m is calculated according to the following equation.

y(m、i、j)=w×x(n−1、i、j)+(1−w)×x(n、i、j)
ここで、wは、重みを表し、x(n−1、i、j)は、保存フレームの第i行第j列にある画素を表し、x(n、i、j)は、入力フレームの第i行第j列にある画素を表す。また、wは、下式に従って算出されたものである。下式における「合成カウンタ初期値」については後述する。
y (m, i, j) = w × x (n−1, i, j) + (1−w) × x (n, i, j)
Here, w represents a weight, x (n−1, i, j) represents a pixel in the i-th row and j-th column of the storage frame, and x (n, i, j) represents the input frame. Represents a pixel in the i-th row and j-th column. Moreover, w is calculated according to the following formula. The “composite counter initial value” in the following formula will be described later.

w=合成カウンタ/合成カウンタ初期値
ステップS409の次に、合成処理部117は、ステップS401で得られた現在の入力フレームを一時保存メモリ119に格納し(ステップS411)、「合成カウンタ」を1だけ減らし(ステップS413)、「Nカウンタ」を1だけ増やす(ステップS415)。
w = Composition counter / synthesis counter initial value Next to step S409, the composition processing unit 117 stores the current input frame obtained in step S401 in the temporary storage memory 119 (step S411), and sets “composition counter” to 1. The “N counter” is increased by 1 (step S415).

他方、ステップS421では、合成処理部117は、入力フレームそのものを出力フレームとする。   On the other hand, in step S421, the composition processing unit 117 sets the input frame itself as an output frame.

ステップS415又はステップS421の次に、フォーマット変換処理部121が、フォーマット変換処理を行い(ステップS417)、表示処理部123が、表示処理を行なう(ステップS419)。   Following step S415 or step S421, the format conversion processing unit 121 performs format conversion processing (step S417), and the display processing unit 123 performs display processing (step S419).

次に、ステップS405の詳細について図16を参照して説明する。   Next, details of step S405 will be described with reference to FIG.

図16に示す「合成カウンタ初期値」は、その字が示す如く「合成カウンタ」の初期値として利用される値である。また、これは、ダイナミックに変化する。   The “composite counter initial value” shown in FIG. 16 is a value used as the initial value of the “composite counter” as indicated by the character. This also changes dynamically.

まず、「Nカウンタ」が30以上であるか否かを判断する(ステップS405−1)。ここで、30は、実施形態1の「カウンタ」の初期値が30であることに対応して、例としてあげられた数字であり、「Nカウンタ」を他の値と比較してもよい。但し、ステップS405−1で「Nカウンタ」と比較される値は、一連のコマ落とし処理が継続されるフレーム数の最大値を規定する。   First, it is determined whether the “N counter” is 30 or more (step S405-1). Here, 30 is a number given as an example corresponding to the initial value of “counter” being 30 in the first embodiment, and “N counter” may be compared with other values. However, the value compared with the “N counter” in step S405-1 defines the maximum value of the number of frames in which a series of frame drop processing is continued.

「Nカウンタ」が30以上である場合には(ステップS405−1でYES)、数値30を「合成カウンタ初期値」に代入する(ステップS405−3)。ここでの数値30は、ステップS405−1での30に合わせたものであり、ステップS405−1での30を別の値に変えた場合には、数値30もその値に変化する。   If the “N counter” is 30 or more (YES in step S405-1), the numerical value 30 is substituted for the “composite counter initial value” (step S405-3). The numerical value 30 here is adjusted to 30 in step S405-1, and when 30 in step S405-1 is changed to another value, the numerical value 30 also changes to that value.

「Nカウンタ」が30以上でない場合には(ステップS405−1でNO)、「Nカウンタ」が「合成カウンタ初期値」よりも大きいか否かを判断する(ステップS405−5)。   If the “N counter” is not 30 or more (NO in step S405-1), it is determined whether the “N counter” is larger than the “synthesis counter initial value” (step S405-5).

「Nカウンタ」が「合成カウンタ初期値」よりも大きい場合には(ステップS405−5でYES)、「合成カウンタ初期値」を1だけ増やす(ステップS405−7)。   If “N counter” is larger than “composite counter initial value” (YES in step S405-5), “composite counter initial value” is increased by 1 (step S405-7).

「Nカウンタ」が「合成カウンタ初期値」よりも大きくない場合には(ステップS405−5でNO)、「Nカウンタ」が「合成カウンタ初期値」よりも小さいか否かを判断する(ステップS405−9)。   If “N counter” is not greater than “composite counter initial value” (NO in step S405-5), it is determined whether “N counter” is smaller than “composite counter initial value” (step S405). -9).

「Nカウンタ」が「合成カウンタ初期値」よりも小さい場合には(ステップS405−9でYES)、「Nカウンタ」の値から1だけ引いて得られる値を「合成カウンタ初期値」に代入する(ステップS405−11)。   When “N counter” is smaller than “composite counter initial value” (YES in step S405-9), a value obtained by subtracting 1 from the value of “N counter” is substituted into “composite counter initial value”. (Step S405-11).

「Nカウンタ」が「合成カウンタ初期値」よりも小さくない場合(ステップS405−9でNO)は、「Nカウンタ」が30以下であり、且つ、「Nカウンタ」と「合成カウンタ初期値」が等しい場合を意味する。   If “N counter” is not smaller than “composite counter initial value” (NO in step S405-9), “N counter” is 30 or less, and “N counter” and “composite counter initial value” are Means equal.

ステップS405−1、ステップS405−1、ステップS405−1の次には、ステップS405−13に進む。また、ステップS405−9でNOである場合にもステップS405−13に進む。   After step S405-1, step S405-1, and step S405-1, the process proceeds to step S405-13. Moreover, also when it is NO at step S405-9, it progresses to step S405-13.

ステップS405−13では、合成処理部117は、ステップS401で得られた現在の入力フレームを一時保存メモリ119に格納する。   In step S405-13, the composition processing unit 117 stores the current input frame obtained in step S401 in the temporary storage memory 119.

次に、「合成カウンタ初期値」を「合成カウンタ」に代入する(ステップS405−15)。   Next, “synthesis counter initial value” is substituted into “synthesis counter” (step S405-15).

最後に、「Nカウンタ」をゼロで初期化する(ステップS405−17)。   Finally, the “N counter” is initialized with zero (step S405-17).

図17に、動作例を示す。この動作例は、10フレーム毎にコマ落とし処理が必要であると判断され、これに従って、最終的には「合成カウンタ初期値」が9に収束し、「合成カウンタ」は、10フレームに亘り9から0までを1ずつカウントすることとなる。そして、10フレームに1フレームの割合でコマ落としが連続的に行なわれることとなる。   FIG. 17 shows an operation example. In this operation example, it is determined that the frame dropping process is necessary every 10 frames, and according to this, the “composite counter initial value” finally converges to 9, and the “composite counter” is 9 over 10 frames. 1 to 0 is counted one by one. Frame dropping is continuously performed at a rate of 1 frame per 10 frames.

図17を参照すると、第40番目の入力フレームにおいて、コマ落とし処理が必要であると判断される。「Nカウンタ」>30である(ステップS405−1でYES)ため、「合成カウンタ」は、30に初期化される。   Referring to FIG. 17, it is determined that frame drop processing is necessary in the 40th input frame. Since “N counter”> 30 (YES in step S405-1), the “composite counter” is initialized to 30.

第50番目の入力フレームにおいて、コマ落とし処理が必要であると判断される。「合成カウンタ初期値」は30であり、「Nカウンタ」は9である。従って、「Nカウンタ」>30ではなく(ステップS405−1でNO)、「Nカウンタ」>「合成カウンタ初期値」ではなく(ステップS405−5でNO)、「Nカウンタ」<「合成カウンタ初期値」である(ステップS405−9でYES)。従って、「合成カウンタ初期値」は、「Nカウンタ」−1=9−1=8に初期化される(ステップS405−11)。   In the 50th input frame, it is determined that frame drop processing is necessary. “Composition counter initial value” is 30, and “N counter” is 9. Therefore, not “N counter”> 30 (NO in step S405-1), but not “N counter”> “composite counter initial value” (NO in step S405-5), “N counter” <“composite counter initial” Value "(YES in step S405-9). Accordingly, the “synthesis counter initial value” is initialized to “N counter” −1 = 9-1 = 8 (step S405-11).

第60番目の入力フレームにおいて、コマ落とし処理が必要であると判断される。「合成カウンタ初期値」は8であり、「Nカウンタ」は9である。従って、「Nカウンタ」>30ではなく(ステップS405−1でNO)、「Nカウンタ」>「合成カウンタ初期値」である(ステップS405−5でYES)。従って、「合成カウンタ初期値」は、1だけ増加して9となる(ステップS405−7)。   In the 60th input frame, it is determined that frame drop processing is necessary. The “synthesis counter initial value” is 8, and the “N counter” is 9. Therefore, not “N counter”> 30 (NO in step S405-1), but “N counter”> “composition counter initial value” (YES in step S405-5). Accordingly, the “synthesis counter initial value” is increased by 1 to 9 (step S405-7).

第70番目の入力フレームにおいて、コマ落とし処理が必要であると判断される。「合成カウンタ初期値」は9であり、「Nカウンタ」は9である。従って、「Nカウンタ」>30ではなく(ステップS405−1でNO)、「Nカウンタ」>「合成カウンタ初期値」ではなく(ステップS405−5でNO)、「Nカウンタ」<「合成カウンタ初期値」でない(ステップS405−9でNO)。従って、「合成カウンタ初期値」は9のままである。この時から、定常状態に入っている。   In the 70th input frame, it is determined that frame drop processing is necessary. The “composite counter initial value” is 9, and the “N counter” is 9. Therefore, not “N counter”> 30 (NO in step S405-1), but not “N counter”> “composite counter initial value” (NO in step S405-5), “N counter” <“composite counter initial” It is not “value” (NO in step S405-9). Therefore, the “synthesis counter initial value” remains at 9. From this point on, it has entered a steady state.

第80番目の入力フレームにおける動作は、第70番目の入力フレームにおける動作と同様である。   The operation in the 80th input frame is the same as the operation in the 70th input frame.

図18に図17に示す値のうち、「Nカウンタ」(菱形で示す)、「合成カウンタ初期値」(四角で示す)及び「合成カウンタ」(△で示す)の変化の様子を示す。「Nカウンタ」は、コマ落とし要求がある度にリセットされ、その後、1フレーム毎に1増える。「合成カウンタ初期値」は、最初は変動するが、最終的に9に収束する。「合成カウンタ」は、コマ落とし要求がある度に、初期化され、1フレーム毎に1減る。収束状態では、「合成カウンタ」は、コマ落とし要求がある度に、収束している「合成カウンタ初期値」に初期化され、1フレーム毎に1減る。   FIG. 18 shows changes in “N counter” (indicated by diamonds), “composite counter initial value” (indicated by squares), and “composite counter” (indicated by Δ) among the values shown in FIG. The “N counter” is reset every time there is a frame drop request, and thereafter increments by 1 for each frame. The “synthesis counter initial value” fluctuates at first, but finally converges to 9. The “composite counter” is initialized every time there is a frame drop request, and is decremented by 1 for each frame. In the convergence state, every time there is a frame drop request, the “composite counter” is initialized to the converged “composite counter initial value” and is decremented by 1 for each frame.

上述した動作例では、「合成カウンタ」の初期値を調整することにより、「合成カウンタ」の初期値に対応した数のフレームに亘るコマ落とし処理が終了する前に、次のコマ落とし処理が開始することを避けることができる。   In the above-described operation example, by adjusting the initial value of the “composite counter”, the next frame dropping process is started before the frame dropping process for the number of frames corresponding to the initial value of the “compositing counter” is completed. You can avoid doing that.

しかし、このように「合成カウンタ」の初期値を調整した場合、2つの一連のコマ落とし処理の境界で画面の滑らかさが失われることを避けることができるが、演算量を減らすことができない。   However, when the initial value of the “composite counter” is adjusted in this way, it is possible to avoid losing the smoothness of the screen at the boundary between two series of frame drop processing, but the amount of calculation cannot be reduced.

これを解決して、演算量を減らすためには、例えば、ステップS405−9でNOと判断されることが所定回数以上続いた場合には、変数である「合成カウンタ初期値」が安定し、これ以上変化することはないと予測し、ステップS405−15で、「合成カウンタ初期値」を「合成カウンタ」に代入する代わりに、「合成カウンタ初期値」に、コマ落とし処理をするフレームの割合を示す係数(ゼロを超え、1未満の数)を乗じて得た値を「合成カウンタ」に代入するようにしてもよい。また、この係数を、コンピュータの負荷状況に応じて変化させてもよい。安定化の判断のためには、例えば、安定度を示す変数を導入し、ステップS405−3、ステップS405−7、ステップS405−11で、この変数をリセットし、ステップS405−9でNOであった場合に、この変数を増やす。ステップS405−15では、この変数が所定値以上である場合に、「合成カウンタ初期値」に、コマ落とし処理をするフレームの割合を示す係数(ゼロを超え、1未満の数)を乗じて得た値を「合成カウンタ」に代入する。   In order to solve this and reduce the amount of calculation, for example, when it is determined NO in step S405-9 for a predetermined number of times or more, the variable “composite counter initial value” is stabilized, In step S405-15, instead of substituting “composition counter initial value” for “composition counter”, the ratio of frames for which frame dropping processing is performed to “composition counter initial value” in step S405-15. A value obtained by multiplying by a coefficient (a number greater than zero and less than 1) indicating may be substituted into the “synthesis counter”. Further, this coefficient may be changed according to the load condition of the computer. In order to determine stabilization, for example, a variable indicating stability is introduced, this variable is reset in step S405-3, step S405-7, and step S405-11, and NO in step S405-9. If this happens, increase this variable. In step S405-15, when this variable is greater than or equal to a predetermined value, the “composite counter initial value” is obtained by multiplying by a coefficient (a number greater than zero and less than 1) indicating the proportion of frames to be subjected to frame drop processing. The obtained value is assigned to the “composite counter”.

コマ落とし開始処理の度に「合成カウンタ初期値」が「Nカウンタ」とほぼ等しくなるような状態に入った時には、安定状態に入っている。従って、このような安定状態に入ったならば、ステップS405−15で、「合成カウンタ初期値」を「合成カウンタ」に代入する代わりに、「合成カウンタ初期値」に、コマ落とし処理をするフレームの全体のフレームに占める割合を示す係数R(ゼロを超え、1未満の数、例えば、0.3)を乗じて得た値を「合成カウンタ」に代入するようにしてもよい。また、この係数を、コンピュータの負荷状況に応じて変化させてもよい。安定状態を判定するためには、例えば、安定度を示す変数「安定度カウンタ」を導入する。   When the “composite counter initial value” is almost equal to the “N counter” every time the frame dropping start process is entered, the stable state is entered. Therefore, when such a stable state is entered, in step S405-15, instead of substituting the “composite counter initial value” for the “composite counter”, a frame for frame dropping processing is added to the “composite counter initial value”. A value obtained by multiplying by a coefficient R (a number greater than zero and less than 1, for example, 0.3) indicating a ratio of the entire frame to the “composite counter” may be substituted. Further, this coefficient may be changed according to the load condition of the computer. In order to determine the stable state, for example, a variable “stability counter” indicating the stability is introduced.

例えば、図16に示すようなコマ落とし開始処理を図19に示すようなものに変更する。   For example, the frame drop start process as shown in FIG. 16 is changed to that shown in FIG.

ステップS405−3の次のステップS405−21で「安定度カウンタ」をゼロにリセットする。   In step S405-21 following step S405-3, the “stability counter” is reset to zero.

また、ステップS405−7又はステップS405−11の次のステップS405−23で、
「Nカウンタ」−A<「合成カウンタ」<「Nカウンタ」+A
が成立しているか否かを判断する。成立していない場合には(ステップS405−23でNO)、「安定度カウンタ」をゼロにリセットする(ステップS405−25)。成立している場合には(ステップS405−23でYES)、「安定度カウンタ」を1だけ増加させる(ステップS405−27)。
In step S405-23 after step S405-7 or step S405-11,
“N counter” −A <“composite counter” <“N counter” + A
It is determined whether or not is established. If not established (NO in step S405-23), the “stability counter” is reset to zero (step S405-25). If true (YES in step S405-23), the "stability counter" is incremented by 1 (step S405-27).

こうすることにより、安定状態に入った場合にのみ、ステップS405−27が連続して実行され、「安定度カウンタ」が増加し続けることとなる。なお、ステップS405−23で利用するAは、ゼロでもよいが、揺らぎを考慮して、1又は2程度の値をとってもよい。   In this way, only when the stable state is entered, step S405-27 is executed continuously, and the “stability counter” continues to increase. Note that A used in step S405-23 may be zero, but may take a value of about 1 or 2 in consideration of fluctuations.

ステップS405−15に入る前に、ステップS405−29を設け、ここで、「安定度カウンタ」がMを超えるか否かを判断する。   Before entering step S405-15, step S405-29 is provided, where it is determined whether or not the “stability counter” exceeds M.

超えない場合には(ステップS405−29でNO)、安定状態に入っていないので、図16の場合と同様に、「合成カウンタ初期値」を「合成カウンタ」に代入する(ステップS405−15)。   If not exceeded (NO in step S405-29), the stable state has not been entered, and as in the case of FIG. 16, the "composite counter initial value" is substituted into the "composite counter" (step S405-15). .

超える場合には(ステップS405−29でYES)、安定状態に入っているので、図16の場合と異なり、上述したように、「合成カウンタ初期値」に、コマ落とし処理をするフレームの全体のフレームに占める割合を示す係数R(ゼロを超え、1未満の数、例えば、0.3)を乗じて得た値を「合成カウンタ」に代入する(ステップS405−31)。   If it exceeds (YES in step S405-29), since it is in a stable state, unlike the case of FIG. 16, as described above, the “composite counter initial value” is set to the entire frame to be subjected to frame dropping processing. A value obtained by multiplying by a coefficient R (a number exceeding zero and less than 1, for example, 0.3) indicating a ratio to the frame is substituted into the “synthesis counter” (step S405-31).

次に、「安定度カウンタ」が増加し続けることを避けるために、「安定度カウンタ」をMに初期化する(ステップS405−33)。   Next, in order to avoid the “stability counter” from continuing to increase, the “stability counter” is initialized to M (step S405-33).

また、図16のコマ落とし開始処理の代わりに図19のコマ落とし開始処理をする場合には、図15のステップS409で利用する重みを下式に従って算出する。   In addition, when the frame drop start process of FIG. 19 is performed instead of the frame drop start process of FIG. 16, the weight used in step S409 of FIG. 15 is calculated according to the following equation.

w=合成カウンタ/(R×合成カウンタ初期値)
[通常のIP変換処理]
次に、IP変換処理部111又は第1のIP変換処理部111Bの構成及びこれが行なう通常のIP変換処理(コマ落とし処理及びコマ挿入処理を含まないIP変換処理)について説明する。
w = composite counter / (R × composite counter initial value)
[Normal IP conversion processing]
Next, the configuration of the IP conversion processing unit 111 or the first IP conversion processing unit 111B and the normal IP conversion processing (IP conversion processing not including frame drop processing and frame insertion processing) performed by the IP conversion processing unit 111B will be described.

図20は、IP変換処理部111又は第1のIP変換処理部111B及びその周辺部の構成を示すブロック図である。   FIG. 20 is a block diagram illustrating a configuration of the IP conversion processing unit 111 or the first IP conversion processing unit 111B and its peripheral part.

第1のフィールド・メモリ501−1は、処理対象となっているフィールドの1つ先のフィールドの画像データを格納する。第2のフィールド・メモリ501−2は、処理対象となっているフィールドの画像データを格納する。第3のフィールド・メモリ501−3は、処理対象となっているフィールドの1つ前のフィールドの画像データを格納する。   The first field memory 501-1 stores the image data of the field one field ahead of the field to be processed. The second field memory 501-2 stores image data of a field to be processed. The third field memory 501-3 stores image data of the field immediately before the field to be processed.

なお、第1のフィールド・メモリ501−1乃至第3のフィールド・メモリ501−3は、図1に示すフレームバッファ群105又は図6に示すフレームバッファ群105Bに含まれているものであり、2つのフィールド・メモリが1つのフレームバッファに対応する。また、図20では、図1に示す画像データ読出部109又は図6に示す画像データ読出部109B及び第1のスイッチ131が省略されている。   The first field memory 501-1 to the third field memory 501-3 are included in the frame buffer group 105 shown in FIG. 1 or the frame buffer group 105B shown in FIG. One field memory corresponds to one frame buffer. In FIG. 20, the image data reading unit 109 shown in FIG. 1 or the image data reading unit 109B and the first switch 131 shown in FIG. 6 are omitted.

画像データ書込部103は、第1乃至第3のフィールド・メモリ501−1、501−2及び501−3に画像データを書き込む。なお、第1乃至第3のフィールド・メモリ501−1、501−2及び501−3をリング・バッファ構成とし、循環的に、3つのフィールドの画像データをこれらのフィールド・メモリに格納するようにしても良い。   The image data writing unit 103 writes image data in the first to third field memories 501-1, 501-2, and 501-3. The first to third field memories 501-1, 501-2, and 501-3 have a ring buffer configuration, and the image data of three fields are stored in these field memories in a circular manner. May be.

動画補間画素生成部505は、第2のフィールド・メモリ501−2に格納されている画像データを基に、動画補間画素を生成する。   The moving image interpolation pixel generation unit 505 generates a moving image interpolation pixel based on the image data stored in the second field memory 501-2.

動画補間画素生成部505は、基本的には、例えば、現在処理の対象となっているフィールドの番号をn、そのフィールドにおいて、補間するべき画素として現在処理の対象となっている画素の垂直方向位置をi、そのフィールドにおいて、補間するべき画素として現在処理の対象となっている画素の水平方向位置をjとした場合、式(1)に従って、動画補間画素A(n,i,j)を生成する。ここで、iは、実在する走査線と補間するべき走査線とを合わせて数えた場合の位置である。   The moving image interpolation pixel generation unit 505 basically has, for example, the field number currently being processed as n, and the vertical direction of the pixel currently being processed as a pixel to be interpolated in that field. When the position is i and the horizontal position of the pixel currently being processed as a pixel to be interpolated in that field is j, the moving image interpolation pixel A (n, i, j) is represented by the equation (1). Generate. Here, i is a position when the actual scanning line and the scanning line to be interpolated are counted together.

ここで、x(n,i−1,j)は、処理の対象となっているフィールドの処理の対象となっている画素の1つ上の画素の値であり、x(n,i+1,j)は、処理の対象となっているフィールドの処理の対象となっている画素の1つ下の画素の値である。上記では、これらの2つの画素の値の平均値を処理の対象となっている画素の値としているが、これらの2つの画素のうちの1つの画素の値を処理の対象となっている画素の値としてもよい。また、処理の対象となっているフィールドの画素のうちの処理の対象となっている画素の所定の近傍の画素の値の加重平均を処理の対象となっている画素の値としてもよい。 Here, x (n, i−1, j) is the value of the pixel one pixel above the pixel to be processed in the field to be processed, and x (n, i + 1, j). ) Is the value of the pixel one pixel below the pixel to be processed in the field to be processed. In the above, the average value of the values of these two pixels is the value of the pixel to be processed, but the value of one pixel of these two pixels is the pixel to be processed. It is good also as the value of. Also, a weighted average of the values of pixels in a predetermined vicinity of the pixel to be processed among the pixels in the field to be processed may be used as the value of the pixel to be processed.

静止画補間画素生成部507は、第1のフィールド・メモリ501−1に格納されている画素データ及び第3のフィールド・メモリ501−3に格納されている画素データを基に、静止画画素を生成する。例えば、現在処理の対象となっているフィールドの番号をn、そのフィールドにおいて、補間するべき画素として現在処理の対象となっている画素の垂直方向位置をi、そのフィールドにおいて、補間するべき画素として現在処理の対象となっている画素の水平方向位置をjとした場合、式(2)に従って、動画補間画素B(n,i,j)を生成する。   The still image interpolation pixel generation unit 507 generates a still image pixel based on the pixel data stored in the first field memory 501-1 and the pixel data stored in the third field memory 501-3. Generate. For example, the number of the field currently being processed is n, the vertical position of the pixel currently being processed as a pixel to be interpolated in that field, i, and the pixel to be interpolated in that field If the horizontal position of the pixel currently being processed is j, a moving image interpolation pixel B (n, i, j) is generated according to equation (2).

ここで、x(n−1,i,j)は、処理の対象となっているフィールドの1つ前のフィールドの画素のうち、処理の対象となっている画素と同一の位置(i,j)にある画素の値であり、x(n+1,i,j)は、処理の対象となっているフィールドの1つ後のフィールドの画素のうち、処理の対象となっている画素と同一の位置(i,j)にある画素の値である。上記では、これらの2つの画素の値の平均値を処理の対象となっている画素の値としているが、これらの2つの画素のうちの1つの画素の値を処理の対象となっている画素の値としてもよい。また、処理の対象となっているフィールドの近傍のフィールドの画素のうちの処理の対象となっている画素と同一の位置にある画素の値の加重平均を処理の対象となっている画素の値としてもよい。 Here, x (n−1, i, j) is the same position (i, j) as the pixel to be processed among the pixels in the field immediately before the field to be processed. ), And x (n + 1, i, j) is the same position as the pixel to be processed among the pixels in the next field after the field to be processed. This is the value of the pixel at (i, j). In the above, the average value of the values of these two pixels is the value of the pixel to be processed, but the value of one pixel of these two pixels is the pixel to be processed. It is good also as the value of. Also, the value of the pixel subject to processing is the weighted average of the values of the pixels in the same position as the pixel subject to processing among the pixels in the field in the vicinity of the field subject to processing. It is good.

差分計算部509は、処理の対象となっているフィールドの処理の対象となっている画素についての差分C(n,i,j)を式(3)に従って求める。   The difference calculation unit 509 obtains a difference C (n, i, j) for the pixel to be processed in the field to be processed according to the equation (3).

ここで、x(n−1,i,j)は、処理の対象となっているフィールドの1つ前のフィールドの画素のうち、処理の対象となっている画素と同一の位置(i,j)にある画素の値であり、x(n+1,i,j)は、処理の対象となっているフィールドの1つ後のフィールドの画素のうち、処理の対象となっている画素と同一の位置(i,j)にある画素の値である。差分C(n,i,j)は、動き量の基本となる。 Here, x (n−1, i, j) is the same position (i, j) as the pixel to be processed among the pixels in the field immediately before the field to be processed. ), And x (n + 1, i, j) is the same position as the pixel to be processed among the pixels in the next field after the field to be processed. This is the value of the pixel at (i, j). The difference C (n, i, j) is the basis of the amount of motion.

差分補正部511は、式(4)に従って、Cを補正することにより、補正された差分D(n,i,j)を求める。   The difference correction unit 511 obtains a corrected difference D (n, i, j) by correcting C according to Expression (4).

ここで、Δcの値は、ノイズのレベル等により決定され、補正値保持部513に格納されている。 Here, the value of Δc is determined by the noise level or the like and stored in the correction value holding unit 513.

差分累積部515は、累積動き量メモリ517に格納されている累積動き量m(i,j)を式(5)に従って更新する。   The difference accumulating unit 515 updates the accumulated motion amount m (i, j) stored in the accumulated motion amount memory 517 according to the equation (5).

ここで、THの値は、視覚特性等により決定され、しきい値保持部519に格納されている。THの値は、例えば、16である。 Here, the value of TH is determined by visual characteristics or the like and stored in the threshold value holding unit 519. The value of TH is 16, for example.

上式に従って、累積動き量m(i,j)を計算することにより、あるフィールドである量の動きが検出された場合には、そのフィールドでは、累積動き量m(i,j)は、その前のフィールドでの累積動き量にその動きの量を加算してから1引いた値又は、動き量が大きい場合には、しきい値THとなり、それから1フィールド経過する度に1ずつ減少する。こうすることにより、動き検出は、尾を引くこととなる。これにより、動きがあった後に動画部が間違って静止画部であると判断される可能性を低くすることができる。動画部が間違って静止画部であると判断された場合には、動画部として正しく処理された時に算出される補間値とは全く異なった補間値が算出され、視覚上問題となる。一方、静止画部が間違って動画部であると判断された場合には、解像度が落ちるだけであり、視覚上問題とはならない。特に、実際に動きが検出された部分の周辺の静止画部は、動画部であると間違って判断されたとしても、その部分の解像度の低下は実際に動きがある部分によるマスキング効果により視覚されない。従って、式(5)を導入して、動画部が間違って静止画部と判断される可能性を低くすることの長所は、静止画部が間違って動画部と判断される可能性が増える欠点を上回るので、式(5)を導入することは、全体として、画質改善に役立つ。また、文字が固定されているテロップ部等の多くの静止画部は、その部分から動きが検出されることがないので、式(5)を導入しても、間違って、動画部であると判断されることはない。   If a certain amount of motion is detected by calculating the cumulative motion amount m (i, j) according to the above equation, the cumulative motion amount m (i, j) A value obtained by adding 1 to the accumulated motion amount in the previous field and subtracting 1 or when the motion amount is large is a threshold value TH, and decreases by 1 every time one field has passed since then. By doing so, the motion detection is tailed. Thereby, the possibility that the moving image part is erroneously determined to be a still image part after movement can be reduced. When the moving image part is erroneously determined to be a still image part, an interpolation value completely different from the interpolation value calculated when correctly processed as the moving image part is calculated, which causes a visual problem. On the other hand, if the still image portion is erroneously determined to be a moving image portion, only the resolution is lowered, and this is not a visual problem. In particular, even if the still image portion around the portion where the motion is actually detected is erroneously determined to be a moving image portion, the reduction in the resolution of the portion is not visually recognized due to the masking effect due to the portion that actually moves. . Therefore, the advantage of introducing the formula (5) and reducing the possibility that the moving image portion is erroneously determined as the still image portion is that the possibility that the still image portion is erroneously determined as the moving image portion is increased. Therefore, the introduction of the equation (5) is useful for improving the image quality as a whole. In addition, since many still image parts such as a telop part in which characters are fixed, no motion is detected from the part, even if the expression (5) is introduced, it is erroneously a moving image part. It will not be judged.

動き量計算部521は、式(6)に従って動き量M(i,j)を算出する。   The motion amount calculation unit 521 calculates the motion amount M (i, j) according to Equation (6).

合成補間画素生成部523は、式(7)に従って合成補間画素x’(n,i,j)を計算する。   The synthetic interpolation pixel generation unit 523 calculates a synthetic interpolation pixel x ′ (n, i, j) according to the equation (7).

選択部525は、ライン毎に実在画素x(n,i,j)と補間画素x’(n,i,j)を切り換えて、プログレッシブ走査の画像データを出力する。   The selection unit 525 switches the actual pixel x (n, i, j) and the interpolation pixel x ′ (n, i, j) for each line, and outputs progressive scan image data.

なお、図20にその構成を示すIP変換処理部101は、ハードウェアによって実現することもできるが、コンピュータを図20にその構成を示すIP変換処理部101として機能させるためのプログラムをコンピュータが記録媒体から読み込んで実行することによっても実現することができる。   The IP conversion processing unit 101 whose configuration is shown in FIG. 20 can be realized by hardware, but the computer records a program for causing the computer to function as the IP conversion processing unit 101 whose configuration is shown in FIG. It can also be realized by reading from the medium and executing it.

次に、式(6)に従って動き量M(i,j)を計算することの効果について説明する。   Next, the effect of calculating the motion amount M (i, j) according to the equation (6) will be described.

図21に示すように、白い平坦な背景上を黒い縦線が右に移動する場合を想定する。また、考察を容易にするために、動き累積量m(i,j)を式(8)に従って計算するものとする。   As shown in FIG. 21, it is assumed that a black vertical line moves to the right on a white flat background. Further, in order to facilitate the consideration, it is assumed that the motion accumulation amount m (i, j) is calculated according to the equation (8).

そうすると、式(6)を用いずに、仮に、式(9)に従って、動き量M(i,j)を計算することとすると、図21に示すように、動きが検出されずに、静止画補間画素により補間が行われることとなり、コーミングが発生する。   Then, if the motion amount M (i, j) is calculated according to the equation (9) without using the equation (6), as shown in FIG. Interpolation is performed by the interpolation pixel, and combing occurs.

すなわち、図21において、四角の画素は元々ある画素であり、丸の画素は補完するべき画素である。例えば、画素134と画素334との差分の絶対値が画素234の動き量となるが、この値はゼロであるため、画素234は、静止画画素であると間違って判断される。そうすると、画素134と画素334の平均値が画素234の補間値となり、画素234は白となってしまう。画素214、254についても同様である。そうすると、画素224、244、264が正しく黒であるのに対し、画素214、234、254は間違って白となってしまい、コーミングが発生する。   That is, in FIG. 21, square pixels are originally pixels, and round pixels are pixels to be complemented. For example, the absolute value of the difference between the pixel 134 and the pixel 334 is the amount of motion of the pixel 234. Since this value is zero, the pixel 234 is erroneously determined to be a still image pixel. Then, the average value of the pixel 134 and the pixel 334 becomes the interpolation value of the pixel 234, and the pixel 234 becomes white. The same applies to the pixels 214 and 254. Then, while the pixels 224, 244, and 264 are correctly black, the pixels 214, 234, and 254 are erroneously white and combing occurs.

一方、本発明に従って、式(6)に従って、動き量M(i,j)を計算することとすると、図22に示すように、正しく動きが検出され、動画補間画素により補間が行われることとなり、コーミングが発生しない。   On the other hand, if the motion amount M (i, j) is calculated according to the equation (6) according to the present invention, the motion is correctly detected and interpolation is performed by the moving image interpolation pixel as shown in FIG. No combing occurs.

すなわち、図22において、図21の場合と同様に、四角の画素は元々ある画素であり、丸の画素は補完するべき画素である。例えば、画素134と画素334との差分の絶対値に画素044と画素244との差分の絶対値の和としきい値THのうちの大きい方が画素234の動き量となるが、この大きい方の値はしきい値THであるため、画素234は、動画画素であると正しく判断される。そうすると、画素224と画素244の平均値が画素234の補間値となり、画素234は黒となる。画素214、254についても同様である。そうすると、画素224、244、264が正しく黒であり、且つ、画素214、234、254も正しく黒であるため、コーミングは発生しない。   That is, in FIG. 22, as in the case of FIG. 21, the square pixel is originally a pixel, and the round pixel is a pixel to be complemented. For example, the larger of the sum of the absolute value of the difference between the pixel 044 and the pixel 244 and the threshold value TH in the absolute value of the difference between the pixel 134 and the pixel 334 is the amount of movement of the pixel 234. Since the value is the threshold value TH, the pixel 234 is correctly determined as a moving image pixel. Then, the average value of the pixel 224 and the pixel 244 becomes the interpolation value of the pixel 234, and the pixel 234 becomes black. The same applies to the pixels 214 and 254. Then, since the pixels 224, 244, and 264 are correctly black and the pixels 214, 234, and 254 are also correctly black, no combing occurs.

このように、式(6)に従って動き量M(i,j)を計算することにより、動画画素が間違って静止画画素であると判断されることを回避することができる。   Thus, by calculating the motion amount M (i, j) according to the equation (6), it is possible to avoid erroneously determining that a moving image pixel is a still image pixel.

また、式(6)において、番号nに対応した入力フィールドが偶数フィールドである場合には、m(i,j)は、偶数フィールドから検出された動き量であり、m(i+1、j)は、奇数フィールドから検出された動き量である。同様に、式(6)において、番号nに対応した入力フィールドが奇数フィールドである場合には、m(i,j)は、奇数フィールドから検出された動き量であり、m(i+1、j)は、偶数フィールドから検出された動き量である。すなわち、偶数フィールドと奇数フィールドのうちの一方のフィールドから検出することができなかった動きを他方のフィールドから検出することができる場合があることを利用して動き量M(i、j)を用いることとしている。   In Expression (6), when the input field corresponding to the number n is an even field, m (i, j) is a motion amount detected from the even field, and m (i + 1, j) is , The amount of motion detected from the odd field. Similarly, in Equation (6), when the input field corresponding to the number n is an odd field, m (i, j) is the amount of motion detected from the odd field, and m (i + 1, j) Is the amount of motion detected from the even field. That is, the motion amount M (i, j) is used by utilizing the fact that the motion that could not be detected from one of the even field and the odd field can be detected from the other field. I am going to do that.

次に、図20にその構成を示すIP変換処理部101により行われるインターレス/プログレッシブ変換方法について説明する。   Next, an interlace / progressive conversion method performed by the IP conversion processing unit 101 whose configuration is shown in FIG. 20 will be described.

図23を参照すると、まず、動画補間画素生成部505は、式(1)に従って、動画補間画素を生成する(ステップS581)。次に、静止画補間画素生成部507は、式(2)に従って、静止画補間画素を生成する(ステップS583)。次に、差分計算部309は、式(3)に従って、差分を計算する(ステップS585)。次に、差分補正部511は、式(4)に従って、差分を補正する(ステップS587)。次に、差分累積部515は、式(5)に従って、累積動き量を更新する(ステップS589)。次に、動き量計算部521は、式(6)に従って、動き量を計算する(ステップS591)。次に、合成補間画素生成部523は、式(7)に従って、合成補間画素を生成する(ステップS595)。   Referring to FIG. 23, first, the moving image interpolation pixel generation unit 505 generates a moving image interpolation pixel according to Expression (1) (step S581). Next, the still image interpolation pixel generation unit 507 generates a still image interpolation pixel according to Expression (2) (step S583). Next, the difference calculation unit 309 calculates the difference according to the equation (3) (step S585). Next, the difference correction unit 511 corrects the difference according to the equation (4) (step S587). Next, the difference accumulation unit 515 updates the accumulated motion amount according to the equation (5) (Step S589). Next, the motion amount calculation unit 521 calculates the motion amount according to Equation (6) (step S591). Next, the synthetic | combination interpolation pixel production | generation part 523 produces | generates a synthetic | combination interpolation pixel according to Formula (7) (step S595).

なお、IP変換処理部111又は第1のIP変換処理部111Bは、他の構成のものであってもよい。   The IP conversion processing unit 111 or the first IP conversion processing unit 111B may have another configuration.

[コマ落とし処理又はコマ挿入処理を含んだIP変換処理]
次に、第2のIP変換処理部111Cの構成及びこれが行なうコマ落とし処理及びコマ挿入処理を含んだIP変換処理について説明する。
[IP conversion processing including frame drop processing or frame insertion processing]
Next, the configuration of the second IP conversion processing unit 111C and the IP conversion process including the frame dropping process and the frame insertion process performed by the second IP conversion processing unit 111C will be described.

図17を参照すると、出力フレームの列には、各出力フレームの時間的な位置が、入力フレームの番号を基準として、示されている。コマ落とし処理及びコマ挿入処理を含んだIP変換処理では、複数の入力フィールドのデータを利用して、これらの位置にある出力フレームを合成する。   Referring to FIG. 17, in the output frame column, the temporal position of each output frame is shown based on the number of the input frame. In an IP conversion process including a frame drop process and a frame insertion process, data in a plurality of input fields are used to synthesize output frames at these positions.

図24及び図25を参照して、この原理について説明する。図24及び図25は、時間軸を横にとり、画面の垂直軸を縦にとって、入力フィールドf(n−1)、f(n)、f(n+1)、f(n+2)と出力フレームF(m)の或る水平方向位置における断面を示している。また、出力フレームにおいて二重丸で示しているのは、現在生成しようとしている画素(対象画素)y(m、i、j)である。ここで、iは、フレーム内でのライン番号であり、jはライン内での画素番号である。また、入力フィールドf(n)は、出力フレームF(m)の直前のフィールドであり、入力フィールドf(n+1)は、入力フィールドf(n)の直後の入力フィールドである。   This principle will be described with reference to FIGS. 24 and 25. FIG. 24 and 25, the input field f (n-1), f (n), f (n + 1), f (n + 2) and the output frame F (m ) At a certain horizontal position. In addition, what is indicated by a double circle in the output frame is a pixel (target pixel) y (m, i, j) that is currently generated. Here, i is a line number in the frame, and j is a pixel number in the line. The input field f (n) is a field immediately before the output frame F (m), and the input field f (n + 1) is an input field immediately after the input field f (n).

図24(a)は、入力フィールドf(n)に対象画素y(m、i、j)と空間的に同一位置の画素x(n、i、j)がある場合において、対象画素y(m、i、j)についての動画補間画素ym(m、i、j)を生成する方法の一例を示している。入力フィールドf(n)において、対象画素y(m、i、j)に空間的に最も近い画素は画素x(n、i、j)であり、入力フィールドf(n+1)において、対象画素y(m、i、j)に空間的に最も近い画素はx(n+1、i−1、j)とx(n+1、i+1、j)である。   FIG. 24A shows the target pixel y (m) when the input field f (n) has a pixel x (n, i, j) spatially located at the same position as the target pixel y (m, i, j). , I, j) shows an example of a method for generating a moving image interpolation pixel ym (m, i, j). In the input field f (n), the pixel spatially closest to the target pixel y (m, i, j) is the pixel x (n, i, j). In the input field f (n + 1), the target pixel y ( The pixels spatially closest to m, i, j) are x (n + 1, i-1, j) and x (n + 1, i + 1, j).

出力フレームF(m)の時刻をtout、入力フィールドf(n)の時刻をtin1、入力フィールドf(n+1)の時刻をtin2とした場合、動画補間画素ym(m、i、j)を生成するための加重加算における重みw1、w2を下に示す式(12)により算出する。   When the time of the output frame F (m) is tout, the time of the input field f (n) is tin1, and the time of the input field f (n + 1) is tin2, the moving image interpolation pixel ym (m, i, j) is generated. For this purpose, the weights w1 and w2 in the weighted addition are calculated by the following equation (12).

そして、動画補間画素ym(m、i、j)を下に示す式(13)により算出する。   Then, the moving image interpolation pixel ym (m, i, j) is calculated by the following equation (13).

但し、実施形態2との対応関係を説明すると、コマ落とし処理では、入力フィールドf(n)は、実施形態2における1つ前の入力フィールドであり、入力フィールドf(n+1)は、実施形態2における現在の入力フィールドであり、w1は、実施形態2における重みwであり、w2は、実施形態3における(1−w)である。ここで、重みwは、カウンタ/30である。   However, the correspondence with the second embodiment will be described. In the frame dropping process, the input field f (n) is the previous input field in the second embodiment, and the input field f (n + 1) is the second embodiment. Is the current input field, w1 is the weight w in the second embodiment, and w2 is (1-w) in the third embodiment. Here, the weight w is a counter / 30.

また、コマ挿入処理では、入力フィールドf(n)は、実施形態2における1つ前の入力フィールドであり、入力フィールドf(n+1)は、実施形態2における現在の入力フィールドであり、w1は、実施形態2における(1−w)であり、w2は、実施形態3における重みwである。   In the frame insertion process, the input field f (n) is the previous input field in the second embodiment, the input field f (n + 1) is the current input field in the second embodiment, and w1 is (1−w) in the second embodiment, and w2 is the weight w in the third embodiment.

すなわち、実施形態2では、カウンタを利用して出力フレームの位置を近似的に表し、この出力フレームの位置の近似値を利用して、重みw1、w2を近似的に表している。   That is, in the second embodiment, the position of the output frame is approximately expressed using a counter, and the weights w1 and w2 are approximately expressed using the approximate value of the position of the output frame.

上記の対応関係は、下記の説明にも当てはまる。   The above correspondence also applies to the following explanation.

但し、動画補間画素ym(m、i、j)を下に示す式(14)又は式(15)により算出してもよい。   However, the moving image interpolation pixel ym (m, i, j) may be calculated by the following formula (14) or formula (15).

また、重みw1>w2の場合に、式(14)を利用し、そうでない場合に、式(15)を利用するようにしてもよい。   Further, when the weight w1> w2, the expression (14) may be used, and if not, the expression (15) may be used.

また、式(13)、式(14)、式(15)に現れる入力画素以外の入力画素(例えば、フィールドf(n)やf(n+1)の位置(i、j)の近傍の画素)も用いて動画補間画素ym(m、i、j)を算出してもよい。   Also, input pixels other than the input pixels appearing in Expression (13), Expression (14), and Expression (15) (for example, pixels in the vicinity of the position (i, j) of the fields f (n) and f (n + 1)) are also included. The moving image interpolation pixel ym (m, i, j) may be calculated by using this.

図24(b)は、入力フィールドf(n+1)に対象画素y(m、i’、j)と空間的に同一位置の画素x(n、i’、j)がある場合において、対象画素y(m、i’、j)についての動画補間画素ym(m、i’、j)を生成する方法の一例を示している。入力フィールドf(n+1)において、対象画素y(m、i’、j)に空間的に最も近い画素は画素x(n+1、i’、j)であり、入力フィールドf(n)において、対象画素y(m、i’、j)に空間的に最も近い画素はx(n、i’−1、j)とx(n、i’+1、j)である。   FIG. 24B shows the target pixel y when the input field f (n + 1) includes a pixel x (n, i ′, j) that is spatially located at the same position as the target pixel y (m, i ′, j). An example of a method for generating a moving image interpolation pixel ym (m, i ′, j) for (m, i ′, j) is shown. In the input field f (n + 1), the pixel spatially closest to the target pixel y (m, i ′, j) is the pixel x (n + 1, i ′, j). In the input field f (n), the target pixel The pixels spatially closest to y (m, i ′, j) are x (n, i′−1, j) and x (n, i ′ + 1, j).

出力フレームF(m)の時刻をtout、入力フィールドf(n)の時刻をtin1、入力フィールドf(n+1)の時刻をtin2とした場合、動画補間画素ym(m、i’、j)を生成するための加重加算における重みw1、w2を上に示す式(12)により算出する。   When the time of the output frame F (m) is tout, the time of the input field f (n) is tin1, and the time of the input field f (n + 1) is tin2, the moving image interpolation pixel ym (m, i ′, j) is generated. The weights w1 and w2 in the weighted addition for calculating are calculated by the equation (12) shown above.

そして、動画補間画素ym(m、i’、j)を下に示す式(16)により算出する。   Then, the moving image interpolation pixel ym (m, i ', j) is calculated by the following equation (16).

但し、動画補間画素ym(m、i’、j)を下に示す式(17)又は式(18)により算出してもよい。   However, the moving image interpolation pixel ym (m, i ', j) may be calculated by the following equation (17) or equation (18).

また、重みw1>w2の場合に、式(17)を利用し、そうでない場合に、式(18)を利用するようにしてもよい。   Further, when weight w1> w2, the expression (17) may be used, and if not, the expression (18) may be used.

また、式(16)、式(17)、式(18)に現れる入力画素以外の入力画素(例えば、フィールドf(n)やf(n+1)の位置(i、j)の近傍の画素)も用いて動画補間画素ym(m、i’、j)を算出してもよい。   In addition, input pixels other than the input pixels appearing in the equations (16), (17), and (18) (for example, pixels in the vicinity of the position (i, j) of the field f (n) or f (n + 1)) are also included. The moving image interpolation pixel ym (m, i ′, j) may be calculated by using this.

図25(a)は、入力フィールドf(n)に対象画素y(m、i、j)と空間的に同一位置の画素x(n、i、j)がある場合において、対象画素y(m、i、j)についての静止画補間画素ys(m、i、j)を生成する方法の一例を示している。基本的には、静止画補間画素ys(m、i、j)は、出力フレームF(m)の近くにある1以上の入力フレームの画素のうち、静止画補間画素ys(m、i、j)と空間的に同一位置にある画素を基にして生成する。入力フィールドf(n)において、空間的に対象画素y(m、i、j)と同一の位置にある画素は画素x(n、i、j)であり、入力フィールドf(n+2)において、空間的に対象画素y(m、i、j)と同一位置にある画素はx(n+2、i、j)である。   FIG. 25A shows the target pixel y (m) when the input field f (n) has a pixel x (n, i, j) that is spatially located at the same position as the target pixel y (m, i, j). , I, j) shows an example of a method for generating a still image interpolation pixel ys (m, i, j). Basically, the still image interpolation pixel ys (m, i, j) is a still image interpolation pixel ys (m, i, j) among pixels of one or more input frames near the output frame F (m). ) Based on pixels located in the same spatial position. In the input field f (n), the pixel spatially located at the same position as the target pixel y (m, i, j) is the pixel x (n, i, j), and in the input field f (n + 2), the space In particular, the pixel at the same position as the target pixel y (m, i, j) is x (n + 2, i, j).

出力フレームF(m)の時刻をtout、入力フィールドf(n)の時刻をtin1、入力フィールドf(n+2)の時刻をtin2とした場合、静止画補間画素ys(m、i、j)を生成するための加重加算における重みw1、w2を上に示す式(12)により算出する。   When the time of the output frame F (m) is tout, the time of the input field f (n) is tin1, and the time of the input field f (n + 2) is tin2, the still image interpolation pixel ys (m, i, j) is generated. The weights w1 and w2 in the weighted addition for calculating are calculated by the equation (12) shown above.

そして、静止画補間画素ys(m、i、j)を下に示す式(19)により算出する。   Then, the still image interpolation pixel ys (m, i, j) is calculated by the following equation (19).

但し、静止画補間画素ys(m、i、j)を下に示す式(20)又は式(21)により算出してもよい。   However, the still image interpolation pixel ys (m, i, j) may be calculated by the following equation (20) or equation (21).

また、重みw1>w2の場合に、式(20)を利用し、そうでない場合に、式(21)を利用するようにしてもよい。   Further, when weight w1> w2, the expression (20) may be used, and if not, the expression (21) may be used.

また、式(19)、式(20)、式(21)に現れる入力画素以外の入力画素(例えば、x(n−2、i、j)、x(n+4、i、j))も用いて静止画補間画素ys(m、i、j)を算出してもよい。   In addition, input pixels other than the input pixels appearing in Expression (19), Expression (20), and Expression (21) (for example, x (n−2, i, j), x (n + 4, i, j)) are also used. The still image interpolation pixel ys (m, i, j) may be calculated.

図25(b)は、入力フィールドf(n+1)に対象画素y(m、i’、j)と空間的に同一位置の画素x(n+1、i’、j)がある場合において、対象画素y(m、i’、j)についての静止画補間画素ys(m、i’、j)を生成する方法の一例を示している。基本的には、静止画補間画素ys(m、i’、j)は、出力フレームF(m)の近くにある1以上の入力フレームの画素のうち、静止画補間画素ys(m、i’、j)と空間的に同一位置にある画素を基にして生成する。入力フィールドf(n−1)において、空間的に対象画素y(m、i’、j)と同一の位置にある画素は画素x(n−1、i’、j)であり、入力フィールドf(n+1)において、空間的に対象画素y(m、i’、j)と同一位置にある画素はx(n+1、i’、j)である。   FIG. 25B illustrates the target pixel y when the input field f (n + 1) includes a pixel x (n + 1, i ′, j) spatially identical to the target pixel y (m, i ′, j). An example of a method for generating a still image interpolation pixel ys (m, i ′, j) for (m, i ′, j) is shown. Basically, the still image interpolation pixel ys (m, i ′, j) is a still image interpolation pixel ys (m, i ′) among pixels of one or more input frames near the output frame F (m). , J) is generated on the basis of pixels located at the same spatial position. In the input field f (n−1), the pixel spatially located at the same position as the target pixel y (m, i ′, j) is the pixel x (n−1, i ′, j), and the input field f In (n + 1), the pixel spatially located at the same position as the target pixel y (m, i ′, j) is x (n + 1, i ′, j).

出力フレームF(m)の時刻をtout、入力フィールドf(n−1)の時刻をtin1、入力フィールドf(n+1)の時刻をtin2とした場合、静止画補間画素ys(m、i’、j)を生成するための加重加算における重みw1、w2を上に示す式(12)により算出する。   When the time of the output frame F (m) is tout, the time of the input field f (n−1) is tin1, and the time of the input field f (n + 1) is tin2, the still image interpolation pixel ys (m, i ′, j ) To calculate the weights w1 and w2 in the weighted addition for generating () by the equation (12) shown above.

そして、静止画補間画素ys(m、i’、j)を下に示す式(22)により算出する。   Then, the still image interpolation pixel ys (m, i ', j) is calculated by the following equation (22).

但し、静止画補間画素ys(m、i’、j)を下に示す式(23)又は式(24)により算出してもよい。   However, the still image interpolation pixel ys (m, i ', j) may be calculated by the following formula (23) or formula (24).

また、重みw1>w2の場合に、式(23)を利用し、そうでない場合に、式(24)を利用するようにしてもよい。   Further, when the weight w1> w2, the expression (23) may be used, and if not, the expression (24) may be used.

また、式(22)、式(23)、式(24)に現れる入力画素以外の入力画素(例えば、x(n−3、i、j)、x(n+3、i、j))も用いて静止画補間画素ys(m、i’、j)を算出してもよい。   In addition, input pixels other than the input pixels appearing in Expression (22), Expression (23), and Expression (24) (for example, x (n−3, i, j), x (n + 3, i, j)) are also used. The still image interpolation pixel ys (m, i ′, j) may be calculated.

このようにして、対象画素についての動画補間画素ym(m、i、j)と静止画補間画素ys(m、i、j)を算出する。ここで、iはi及びi’を代表して表している。   In this way, the moving image interpolation pixel ym (m, i, j) and the still image interpolation pixel ys (m, i, j) for the target pixel are calculated. Here, i represents i and i 'as a representative.

そして、対象画素についての動き量M(i、j)を求め、動き量に基づいた重みで動画補間画素ym(m、i、j)と静止画補間画素ys(m、i、j)とを加重加算することにより対象画素y(m、i、j)を生成する。   Then, the motion amount M (i, j) for the target pixel is obtained, and the moving image interpolation pixel ym (m, i, j) and the still image interpolation pixel ys (m, i, j) are calculated with weights based on the motion amount. The target pixel y (m, i, j) is generated by weighted addition.

動き量M(i,j)の算出方法及び対象画素y(m、i、j)を生成するための加重加算の方法としては、通常のIP変換処理と同様なものを利用することができる。以下、これらについて説明する。   As a method for calculating the motion amount M (i, j) and a weighted addition method for generating the target pixel y (m, i, j), the same methods as those in a normal IP conversion process can be used. Hereinafter, these will be described.

入力フィールドf(n)に対象画素y(m、i、j)と空間的に同一位置の画素x(n、i、j)がある場合には、対象画素についての差分C(m、i、j)を下に示す式(25)に従って求める。   When the input field f (n) includes a pixel x (n, i, j) that is spatially identical to the target pixel y (m, i, j), the difference C (m, i, j) is determined according to equation (25) below.

入力フィールドf(n+1)に対象画素y(m、i’、j)と空間的に同一位置の画素x(n+1、i’、j)がある場合には、対象画素についての差分C(m、i’、j)を下に示す式(26)に従って求める。   If the input field f (n + 1) includes a pixel x (n + 1, i ′, j) spatially identical to the target pixel y (m, i ′, j), the difference C (m, i ′, j) is obtained according to the equation (26) shown below.

差分C(m,i,j)又はC(m,i’,j)は、動き量の基本となる。 The difference C (m, i, j) or C (m, i ', j) is the basis of the amount of motion.

次に、下に示す式(27)に従ってC(m、i、j)を補正することにより、補正された差分D(m,i,j)を求める。ここで、iは、i及びi’を代表するが、これは以下同様である。   Next, the corrected difference D (m, i, j) is obtained by correcting C (m, i, j) according to the equation (27) below. Here, i represents i and i ', and so on.

ここで、Δcの値は、ノイズのレベル等により決定された値である。 Here, the value of Δc is a value determined by the noise level or the like.

次に、メモリに格納されている累積動き量m(i,j)を下に示す式(28)に従って更新する。   Next, the accumulated motion amount m (i, j) stored in the memory is updated according to the equation (28) shown below.

ここで、THの値は、視覚特性等により決定された値である。THの値は、例えば、16である。 Here, the value of TH is a value determined by visual characteristics or the like. The value of TH is 16, for example.

上に示す式(28)に従って、累積動き量m(i,j)を計算することの効果は通常のIP変換処理に関連して説明したとおりである。   The effect of calculating the accumulated motion amount m (i, j) according to the equation (28) shown above is as described in connection with the normal IP conversion process.

次に、下に示す式(29)に従って動き量M(i,j)を算出する。   Next, the motion amount M (i, j) is calculated according to the following equation (29).

式(29)において、m(i、j)とm(i+1、j)のうちの何れか一方は入力偶数フィールドから検出された累積動き量であり、他方は入力奇数フィールドから検出された累積動き量である。   In Equation (29), one of m (i, j) and m (i + 1, j) is the cumulative motion amount detected from the input even field, and the other is the cumulative motion detected from the input odd field. Amount.

次に、下に示す式(30)に従って対象画素y(m,i,j)を算出する。   Next, the target pixel y (m, i, j) is calculated according to the equation (30) shown below.

次に、第2のIP変換処理部111C及びその周辺部の構成について図26を参照して説明する。   Next, the configuration of the second IP conversion processing unit 111C and its peripheral part will be described with reference to FIG.

図26を参照すると、画像データ書込部103は、NTSCデコーダ101から出力されたインターレス走査の動画像を入力し、各フィールドを第1から第4のフィールドメモリ601−1〜601−4に書き込む。更に、各フィールドが偶数フィールドであるのか奇数フィールドであるのかを、例えば、入力動画像の同期信号等から検出し、或いは、NTSCデコーダ101から入力し、それに関する情報もフィールドメモリに書き込む。フィールドメモリの数を増やして、出力フレーム時間が変動した場合であっても、何れかのフィールドメモリに確実に入力フィールドf(n−1)、f(n)、f(n+1)、f(n+2)が格納されるようにしてもよい。   Referring to FIG. 26, the image data writing unit 103 receives the interlaced moving image output from the NTSC decoder 101, and stores each field in the first to fourth field memories 601-1 to 601-4. Write. Further, whether each field is an even field or an odd field is detected from, for example, a synchronization signal of an input moving image, or is input from the NTSC decoder 101, and information related thereto is also written in the field memory. Even when the number of field memories is increased and the output frame time fluctuates, the input fields f (n−1), f (n), f (n + 1), f (n + 2) are surely stored in any field memory. ) May be stored.

なお、第1のフィールド・メモリ601−1乃至第4のフィールド・メモリ501−4は、図6に示すフレームバッファ群105Bに含まれているものであり、2つのフィールド・メモリが1つのフレームバッファに対応する。また、図26では、図6に示す画像データ読出部109B及び第1のスイッチ131が省略されている。   The first field memory 601-1 to the fourth field memory 501-4 are included in the frame buffer group 105B shown in FIG. 6, and two field memories are one frame buffer. Corresponding to In FIG. 26, the image data reading unit 109B and the first switch 131 shown in FIG. 6 are omitted.

偶奇フィールド参照部637は、第1から第4のフィールドメモリ601−1−〜601−4からフィールドf(n−1)、f(n)、f(n+1)及びf(n+2)がそれぞれ偶数フィールドであるのか奇数フィールドであるのかに関する情報を取得する。   The even / odd field reference unit 637 has fields f (n−1), f (n), f (n + 1), and f (n + 2) from the first to fourth field memories 601-1 to 601-4 as even fields. Get information about whether the field is an odd field.

重み算出部639は、制御部135から入力する重みw及びフィールドf(n−1)、f(n)、f(n+1)及びf(n+2)がそれぞれ偶数フィールドであるのか奇数フィールドであるのかに関する情報に基づいて、出力フレームF(m)の各画素y(m、i、j)についての動画補間画素ym(m、i、j)及び静止画補間画素ys(m、i、j)を生成するための重みを算出する。   The weight calculation unit 639 relates to whether the weight w and the fields f (n−1), f (n), f (n + 1), and f (n + 2) input from the control unit 135 are even fields or odd fields, respectively. Based on the information, a moving image interpolation pixel ym (m, i, j) and a still image interpolation pixel ys (m, i, j) are generated for each pixel y (m, i, j) of the output frame F (m). To calculate the weight for

つまり、例えば、動画補間画素ym(m、i、j)を式(13)に基づいて算出するのか又は式(16)に基づいて算出するのかを、入力フィールドf(n)が偶数フィールドであるのか又は奇数フィールドであるのかに関する情報と対象画素y(m、i、j)のライン番号iが偶数であるのか奇数であるのかに関する情報に基づいて、決定し、更に、それぞれの場合の加重加算における重みを重みwに基づいて算出する。なお、上述したように、式(13)の代わりに式(14)又は式(15)を固定的又は適応的に利用したり、式(16)の代わりに式(17)又は式(18)を固定的又は適応的に利用するための重みを算出してもよい。   That is, for example, whether the moving image interpolation pixel ym (m, i, j) is calculated based on the equation (13) or the equation (16) is the input field f (n) is an even field. Or an odd field, and information on whether the line number i of the target pixel y (m, i, j) is an even number or an odd number, and further, weighted addition in each case Is calculated based on the weight w. As described above, the expression (14) or the expression (15) is used fixedly or adaptively instead of the expression (13), or the expression (17) or the expression (18) is used instead of the expression (16). May be calculated in a fixed or adaptive manner.

また、例えば、静止画補間画素ys(m、i、j)を式(19)に基づいて算出するのか又は式(22)に基づいて算出するのかを、入力フィールドf(n)が偶数フィールドであるのか又は奇数フィールドであるのかに関する情報と対象画素y(m、i、j)のライン番号iが偶数であるのか奇数であるのかに関する情報に基づいて、決定し、更に、それぞれの場合の加重加算における重みを重みwに基づいて算出する。なお、上述したように、式(19)の代わりに式(20)又は式(21)を固定的又は適応的に利用したり、式(22)の代わりに式(23)又は式(24)を固定的又は適応的に利用するための重みを算出してもよい。   Further, for example, whether the still image interpolation pixel ys (m, i, j) is calculated based on the equation (19) or the equation (22) is an even field. It is determined on the basis of information on whether there is an odd field or an odd field and information on whether the line number i of the target pixel y (m, i, j) is even or odd, and the weights in each case The weight in addition is calculated based on the weight w. As described above, the expression (20) or the expression (21) is used fixedly or adaptively instead of the expression (19), or the expression (23) or the expression (24) is used instead of the expression (22). May be calculated in a fixed or adaptive manner.

動画補間画素生成部605は、各対象画素y(m、i、j)についての動画補間画素ym(m、i、j)を生成するために必要な重みを重み算出部329から入力し、その重みに基づいて、必要な画素を第2から第3のフィールドメモリ601−2〜601−3から読み出し、入力した重みと読み出した画素に基づいて静止画補間画素ym(m、i、j)を生成する。   The moving image interpolation pixel generation unit 605 inputs the weight necessary for generating the moving image interpolation pixel ym (m, i, j) for each target pixel y (m, i, j) from the weight calculation unit 329, and Necessary pixels are read from the second to third field memories 601-2 to 601-3 based on the weights, and a still image interpolation pixel ym (m, i, j) is determined based on the input weights and the read pixels. Generate.

静止画補間画素生成部607は、各対象画素y(m、i、j)についての静止画補間画素ys(m、i、j)を生成するために必要な重みを重み算出部329から入力し、その重みに基づいて、必要な画素を第1から第4のフィールドメモリ601−1〜601−4から読み出し、入力した重みと読み出した画素に基づいて静止画補間画素ys(m、i、j)を生成する。   The still image interpolation pixel generation unit 607 inputs the weight necessary for generating the still image interpolation pixel ys (m, i, j) for each target pixel y (m, i, j) from the weight calculation unit 329. The necessary pixels are read from the first to fourth field memories 601-1 to 601-4 based on the weights, and the still image interpolation pixel ys (m, i, j is based on the input weights and the read pixels. ) Is generated.

差分計算部609は、フィールドf(n)が偶数フィールドであるのか又は奇数フィールドであるのかに関する情報と対象画素y(m、i、j)のライン番号iが偶数であるのか奇数であるのかに関する情報に基づいて、どのフィールドのどの画素を基に差分計算をするべきであるのかを判断し、その結果に基づいて必要な画素を第1のフィールドメモリ601−1及び第3のフィールドメモリ601−3又は第2のフィールドメモリ601−2及び第4のフィールドメモリ601−4から読み出し、読み出した画素を基に、式(25)又は式(26)に基づいて差分C(m、i、j)を算出する。   The difference calculation unit 609 relates to information on whether the field f (n) is an even field or an odd field and whether the line number i of the target pixel y (m, i, j) is an even number or an odd number. Based on the information, it is determined which pixel in which field should be calculated, and based on the result, necessary pixels are determined as the first field memory 601-1 and the third field memory 601-. 3 or the second field memory 601-2 and the fourth field memory 601-4, and based on the read pixel, the difference C (m, i, j) based on the equation (25) or the equation (26) Is calculated.

差分補正部611は、式(27)に従って、Cを補正することにより、補正された差分D(m,i,j)を求める。   The difference correction unit 611 calculates a corrected difference D (m, i, j) by correcting C according to the equation (27).

ここで、Δcの値は、ノイズのレベル等により決定され、補正値保持部613に格納されている。   Here, the value of Δc is determined by the noise level or the like and stored in the correction value holding unit 613.

差分累積部615は、累積動き量メモリ617に格納されている累積動き量m(i,j)を式(28)に従って更新する。   The difference accumulating unit 615 updates the accumulated motion amount m (i, j) stored in the accumulated motion amount memory 617 according to the equation (28).

ここで、THの値は、視覚特性等により決定され、しきい値保持部619に格納されている。THの値は、例えば、16である。   Here, the value of TH is determined by visual characteristics or the like and stored in the threshold value holding unit 619. The value of TH is 16, for example.

動き量計算部621は、式(29)に従って動き量M(i,j)を算出する。   The motion amount calculator 621 calculates the motion amount M (i, j) according to the equation (29).

合成補間画素生成部623は、式(30)に従って合成補間画素y(m,i,j)を算出する。合成補間画素y(m、i、j)は、表示メモリ105−1に書き込まれる。   The synthetic interpolation pixel generation unit 623 calculates a synthetic interpolation pixel y (m, i, j) according to the equation (30). The combined interpolation pixel y (m, i, j) is written into the display memory 105-1.

なお、図26にその構成を示す第2のIP変換処理部111Cは、ハードウェアによって実現することもできるが、コンピュータを図26にその構成を示す第2のIP変換処理部111Cとして機能させるためのプログラムをコンピュータが記録媒体から読み込んで実行することによっても実現することができる。   In addition, although the 2nd IP conversion process part 111C which shows the structure in FIG. 26 can also be implement | achieved by a hardware, in order to make a computer function as the 2nd IP conversion process part 111C which shows the structure in FIG. This program can also be realized by a computer reading the program from a recording medium and executing it.

また、第1のIP変換処理部111Bと第2のIP変換処理部111Cは、共通な構成要素を多数含み、また、動き量の計算は、第1のIP変換処理と第2のIP変換処理の区別なく、連続して行なう必要がある。従って、差分計算部509、差分補正部511、補正値保持部513、差分累積部515、累積動き量メモリ517、しきい値保持部519及び動き量計算部521を、それぞれ、差分計算部609、差分補正部611、補正値保持部613、差分累積部615、累積動き量メモリ617、しきい値保持部619及び動き量計算部621と共用する形態もある。また、図7と図13の動作で、第1のIP変換処理と第2のIP変換処理の双方が省略された場合であっても、動き量の計算の部分は、動作する。   In addition, the first IP conversion processing unit 111B and the second IP conversion processing unit 111C include many common components, and the motion amount is calculated using the first IP conversion processing and the second IP conversion processing. It is necessary to carry out continuously without distinction. Accordingly, the difference calculation unit 509, the difference correction unit 511, the correction value holding unit 513, the difference accumulation unit 515, the accumulated motion amount memory 517, the threshold value holding unit 519, and the motion amount calculation unit 521 are respectively converted into the difference calculation unit 609, There is also a form shared with the difference correction unit 611, the correction value holding unit 613, the difference accumulation unit 615, the accumulated motion amount memory 617, the threshold value holding unit 619 and the motion amount calculation unit 621. Further, even when both the first IP conversion process and the second IP conversion process are omitted in the operations of FIGS. 7 and 13, the motion amount calculation portion operates.

[コマ落とし判定処理(1)]
実施形態1では、コマ落とし/コマ挿入処理機能を有さないIP変換処理部111から出力された画像信号は、その後段にある合成処理部117で必要に応じてコマ落とし処理又はコマ挿入処理にかけられ、その後、フォーマット変換部121及び表示処理部123を経由して、表示用メモリ125に書き込まれる。IP変換処理部111から出力された画像信号は、入力NTSC信号のフィールド周波数をフレーム周波数として表示用メモリ125に書き込まれる。
[Frame drop determination processing (1)]
In the first embodiment, the image signal output from the IP conversion processing unit 111 that does not have the frame drop / frame insertion processing function is subjected to frame drop processing or frame insertion processing as necessary by the synthesis processing unit 117 in the subsequent stage. Thereafter, the data is written into the display memory 125 via the format conversion unit 121 and the display processing unit 123. The image signal output from the IP conversion processing unit 111 is written in the display memory 125 using the field frequency of the input NTSC signal as the frame frequency.

他方、モニタのフレーム周波数(リフレッシュレートに等しい。)をフレーム周波数として表示用メモリ125から画像信号が読み出され、その画像信号による画像がモニタ127に表示される。   On the other hand, an image signal is read from the display memory 125 with the frame frequency of the monitor (equal to the refresh rate) as the frame frequency, and an image based on the image signal is displayed on the monitor 127.

従って、表示用メモリ125への書込みのフレーム周波数は、入力NTSC信号のフィールド周波数であり、表示用メモリ125からの読出しのフレーム周波数は、モニタのフレーム周波数である。   Accordingly, the frame frequency for writing to the display memory 125 is the field frequency of the input NTSC signal, and the frame frequency for reading from the display memory 125 is the frame frequency of the monitor.

表示用メモリ125に画像信号を書き込もうとする時、表示用メモリに格納されている画像信号の量が所定以上である場合には、書込みが待たされ、その画像信号の量が所定値未満となった時に、書き込もうとしていた画像信号を書き込むことが可能となる。従って、画像信号を書き込もうことをすることを示す書込み要求信号と書込みを許可する書込み許可信号との時間差により、書込みが待たされている時間(待ち時間)を検出することができる。   When an image signal is to be written into the display memory 125, if the amount of the image signal stored in the display memory is greater than or equal to a predetermined value, the writing is waited and the amount of the image signal becomes less than a predetermined value. It is possible to write the image signal that was being written. Therefore, the time (waiting time) for which writing is waited can be detected from the time difference between the write request signal indicating that the image signal is to be written and the write permission signal for permitting writing.

この待ち時間が所定値以上となった時に、コマ落としが必要であると判断する。   When this waiting time exceeds a predetermined value, it is determined that frame dropping is necessary.

また、実施形態2では、第1のIP変換処理部111B又は第2のIP変換処理部111Cから出力された画像信号は、第2のスイッチ133、フォーマット変換部121及び表示処理部123を経由して、表示用メモリ125に書き込まれる。第1のIP変換処理部111B又は第2のIP変換処理部111Cから出力された画像信号は、入力NTSC信号のフィールド周波数をフレーム周波数として表示用メモリ125に書き込まれる。   In the second embodiment, the image signal output from the first IP conversion processing unit 111B or the second IP conversion processing unit 111C passes through the second switch 133, the format conversion unit 121, and the display processing unit 123. Are written in the display memory 125. The image signal output from the first IP conversion processing unit 111B or the second IP conversion processing unit 111C is written in the display memory 125 using the field frequency of the input NTSC signal as the frame frequency.

従って、実施形態2でも、上述した待ち時間が所定値以上となった時に、コマ落としが必要であると判断する。   Therefore, also in the second embodiment, when the above-described waiting time becomes equal to or greater than a predetermined value, it is determined that frame dropping is necessary.

[コマ落とし判定処理(2)及びコマ挿入判定処理]
入力NTSC信号の各フィールド同期信号を入力フレーム同期信号として検出し、モニタ127の各フレーム同期信号を出力フレーム同期信号として検出する。フレーム周波数が入力NTSC信号のフィールド周波数よりも高いモニタ127を接続した場合には、各入力フレーム同期信号に対して、それに対応する出力フレーム同期信号が徐々に遅れていく。そこで、各入力フレーム同期信号に対して、それに対応する出力フレーム同期信号の遅れが所定値(例えば、入力フレーム周期が16.7ミリ秒(1/60秒)であれば、15ミリ秒)以上となった時に、コマ挿入が必要であると判断する。
[Frame drop determination process (2) and frame insertion determination process]
Each field synchronization signal of the input NTSC signal is detected as an input frame synchronization signal, and each frame synchronization signal of the monitor 127 is detected as an output frame synchronization signal. When a monitor 127 having a frame frequency higher than the field frequency of the input NTSC signal is connected, the corresponding output frame synchronization signal is gradually delayed with respect to each input frame synchronization signal. Therefore, for each input frame synchronization signal, the delay of the corresponding output frame synchronization signal is a predetermined value (for example, 15 milliseconds if the input frame period is 16.7 milliseconds (1/60 seconds)) or more. At that time, it is determined that frame insertion is necessary.

また、フレーム周波数が入力NTSC信号のフィールド周波数よりも低いモニタ127を接続した場合には、各入力フレーム同期信号に対して、それに対応する出力フレーム同期信号が徐々に進んでいきく。そこで、各入力フレーム同期信号に対して、それに対応する出力フレーム同期信号の進みが所定値(例えば、入力フレーム周期が16.7ミリ秒(1/60秒)であれば、2ミリ秒)以上となった時に、コマ落としが必要であると判断する。   When a monitor 127 having a frame frequency lower than the field frequency of the input NTSC signal is connected, the output frame synchronization signal corresponding to each input frame synchronization signal gradually advances. Therefore, for each input frame synchronization signal, the advance of the corresponding output frame synchronization signal is a predetermined value (for example, 2 milliseconds if the input frame period is 16.7 milliseconds (1/60 seconds)) or more. At that time, it is determined that frame dropping is necessary.

なお、第2のIP変換処理部111Cは、他の構成のものであってもよい。   The second IP conversion processing unit 111C may have another configuration.

本発明の実施形態1によるフレーム周波数変換装置を含むシステムの構成を示すブロック図である。It is a block diagram which shows the structure of the system containing the frame frequency converter by Embodiment 1 of this invention. 出力フレーム周波数が入力フレーム周波数よりも低い場合に図1に示す出力処理部により行なわれる出力処理を説明するためのフローチャートである。2 is a flowchart for explaining an output process performed by an output processing unit shown in FIG. 1 when an output frame frequency is lower than an input frame frequency. 本発明の実施形態1によるフレーム周波数変換装置によりコマ落とし処理が行なわれた場合の動作例を説明するための表である。It is a table | surface for demonstrating the operation example when the frame drop process is performed by the frame frequency converter by Embodiment 1 of this invention. 出力フレーム周波数が入力フレーム周波数よりも高い場合に図1に示す出力処理部により行なわれる出力処理を説明するためのフローチャートである。2 is a flowchart for explaining an output process performed by an output processing unit shown in FIG. 1 when an output frame frequency is higher than an input frame frequency. 本発明の実施形態1によるフレーム周波数変換装置によりコマ挿入処理が行なわれた場合の動作例を説明するための表である。It is a table | surface for demonstrating the operation example when the frame insertion process is performed by the frame frequency converter by Embodiment 1 of this invention. 本発明の実施形態2によるフレーム周波数変換装置を含むシステムの構成を示すブロック図である。It is a block diagram which shows the structure of the system containing the frame frequency converter by Embodiment 2 of this invention. 出力フレーム周波数が入力フレーム周波数よりも低い場合に図6に示す出力処理部により行なわれる出力処理を説明するためのフローチャートである。7 is a flowchart for explaining an output process performed by the output processing unit shown in FIG. 6 when the output frame frequency is lower than the input frame frequency. 出力フレーム周波数が入力フレーム周波数よりも高い場合に図6に示す出力処理部により行なわれる出力処理を説明するためのフローチャートである。7 is a flowchart for explaining an output process performed by an output processing unit shown in FIG. 6 when an output frame frequency is higher than an input frame frequency. 本発明の実施形態3による出力処理部の構成を示すブロック図である。It is a block diagram which shows the structure of the output process part by Embodiment 3 of this invention. 出力フレーム周波数が入力フレーム周波数よりも低い場合に図9に示す出力処理部により行なわれる出力処理を説明するためのフローチャートである。10 is a flowchart for explaining an output process performed by the output processing unit shown in FIG. 9 when the output frame frequency is lower than the input frame frequency. 出力フレーム周波数が入力フレーム周波数よりも高い場合に図9に示す出力処理部により行なわれる出力処理を説明するためのフローチャートである。10 is a flowchart for explaining an output process performed by the output processing unit shown in FIG. 9 when the output frame frequency is higher than the input frame frequency. 本発明の実施形態4による出力処理部の構成を示すブロック図である。It is a block diagram which shows the structure of the output process part by Embodiment 4 of this invention. 出力フレーム周波数が入力フレーム周波数よりも低い場合に図12に示す出力処理部により行なわれる出力処理を説明するためのフローチャートである。13 is a flowchart for explaining output processing performed by the output processing unit shown in FIG. 12 when the output frame frequency is lower than the input frame frequency. 出力フレーム周波数が入力フレーム周波数よりも高い場合に図12に示す出力処理部により行なわれる出力処理を説明するためのフローチャートである。13 is a flowchart for explaining output processing performed by the output processing unit shown in FIG. 12 when the output frame frequency is higher than the input frame frequency. 本発明の実施形態5において、出力フレーム周波数が入力フレーム周波数よりも低い場合に図1に示す出力処理部により行なわれる出力処理を説明するためのフローチャートである。10 is a flowchart for explaining output processing performed by the output processing unit shown in FIG. 1 when the output frame frequency is lower than the input frame frequency in the fifth embodiment of the present invention. 図15に示すコマ落とし開始処理の一例の詳細を示すフローチャートである。16 is a flowchart illustrating details of an example of a frame drop start process illustrated in FIG. 15. 本発明の実施形態5によるフレーム周波数変換装置によりコマ落とし処理が行なわれた場合の動作例を説明するための表である。It is a table | surface for demonstrating the operation example when the frame drop process is performed by the frame frequency converter by Embodiment 5 of this invention. 本発明の実施形態5によるフレーム周波数変換装置によりコマ落とし処理が行なわれた場合の動作例を説明するためのグラフである。It is a graph for demonstrating the operation example when the frame drop process is performed by the frame frequency converter by Embodiment 5 of this invention. 図15に示すコマ落とし開始処理の他の一例の詳細を示すフローチャートである。16 is a flowchart showing details of another example of the frame drop start process shown in FIG. 15. 図1に示すIP変換処理部又は図6に示す第1のIP変換処理部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the IP conversion process part shown in FIG. 1, or the 1st IP conversion process part shown in FIG. 図20に示す構成を有するIP変換処理部により得られる効果を説明するための第1の図である。FIG. 21 is a first diagram for explaining an effect obtained by the IP conversion processing unit having the configuration shown in FIG. 20. 図20に示す構成を有するIP変換処理部により得られる効果を説明するための第2の図である。FIG. 21 is a second diagram for explaining an effect obtained by the IP conversion processing unit having the configuration shown in FIG. 20. 図20に示す構成を有するIP変換処理部により行なわれるIP変換処理を説明するためのフローチャートである。FIG. 21 is a flowchart for describing IP conversion processing performed by an IP conversion processing unit having the configuration shown in FIG. 20. FIG. 図6に示す第2のIP変換処理部により行なわれるIP変換処理の原理を説明するための第1の図である。FIG. 7 is a first diagram for explaining the principle of IP conversion processing performed by a second IP conversion processing unit shown in FIG. 6. 図6に示す第2のIP変換処理部により行なわれるIP変換処理の原理を説明するための第2の図である。FIG. 7 is a second diagram for explaining the principle of IP conversion processing performed by the second IP conversion processing unit shown in FIG. 6. 図6に示す第2のIP変換処理部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the 2nd IP conversion process part shown in FIG.

符号の説明Explanation of symbols

101 NTSCデコーダ
103 画像データ書込部
105 フレームバッファ群
107 出力処理部
109 画像データ読出部
111 IP変換処理部
111B 第1のIP変換処理部
111C 第2のIP変換処理部
115 コマ落とし/コマ挿入判定部
117 合成処理部
119 一時保存メモリ
121 フォーマット変換部
123 表示処理部
125 表示用メモリ
127 モニタ
135 制御部
101 NTSC decoder 103 Image data writing unit 105 Frame buffer group 107 Output processing unit 109 Image data reading unit 111 IP conversion processing unit 111B First IP conversion processing unit 111C Second IP conversion processing unit 115 Frame drop / frame insertion determination Unit 117 synthesis processing unit 119 temporary storage memory 121 format conversion unit 123 display processing unit 125 display memory 127 monitor 135 control unit

Claims (21)

第1のフレーム周波数の入力動画像を基に、第2のフレーム周波数の出力動画像を生成するフレーム周波数変換方法において、
前記入力動画像の各フレーム毎にコマ落とし処理又はコマ挿入処理の開始が必要であるか否かを判断する開始判断ステップと、
前記開始判断ステップで前記コマ落とし処理又は前記コマ挿入処理の開始が必要であると判断された場合に、前記入力動画像の複数フレームに亘る前記コマ落とし処理又は前記コマ挿入処理を行なう処理実行ステップと、
を備え、
前記コマ落とし処理又は前記コマ挿入処理が終了したならば、継続して行なわれている前記開始判断ステップで、前記コマ落とし処理又は前記コマ挿入処理の開始が再度必要であると判断されるまで、前記コマ落とし処理又は前記コマ挿入処理を休止することを特徴とするフレーム周波数変換方法。
In a frame frequency conversion method for generating an output moving image having a second frame frequency based on an input moving image having a first frame frequency,
A start determination step for determining whether it is necessary to start a frame dropping process or a frame inserting process for each frame of the input moving image;
A process execution step of performing the frame dropping process or the frame inserting process over a plurality of frames of the input moving image when it is determined in the start determining step that the frame dropping process or the frame inserting process needs to be started. When,
With
If the frame dropping process or the frame inserting process is completed, until it is determined that the start of the frame dropping process or the frame inserting process is necessary again in the start determination step that is continuously performed. A frame frequency conversion method characterized by pausing the frame dropping process or the frame inserting process.
請求項1に記載のフレーム周波数変換方法において、
前記開始判断ステップでは、前記入力動画像のフレーム同期信号と前記出力動画像のフレーム信号との時間差を基に、前記コマ落とし処理又は前記コマ挿入処理の開始が必要であるか否かを判断することを特徴とするフレーム周波数変換方法。
The frame frequency conversion method according to claim 1,
In the start determination step, it is determined whether or not it is necessary to start the frame dropping process or the frame insertion process based on a time difference between the frame synchronization signal of the input moving image and the frame signal of the output moving image. And a frame frequency conversion method.
請求項1に記載のフレーム周波数変換方法において、
前記開始判断ステップでは、前記第1のフレーム周波数に従って、前記入力動画像のデータがそこに書き込まれ、前記第2のフレーム周波数に従って、前記出力動画像のデータがそこから読み出される表示用メモリに一時蓄積された動画像データの量が所定値以上となることにより、前記入力動画像のデータの前記表示用メモリへの書込みが待たされる時間が所定値以上となった場合に、前記コマ落とし処理の開始が必要であると判断することを特徴とするフレーム周波数変換方法。
The frame frequency conversion method according to claim 1,
In the start determination step, the data of the input moving image is written therein according to the first frame frequency, and the data of the output moving image is temporarily read out from the data according to the second frame frequency. When the amount of accumulated moving image data exceeds a predetermined value, the time for waiting for writing of the input moving image data to the display memory exceeds a predetermined value. A frame frequency conversion method characterized by determining that a start is necessary.
請求項1に記載のフレーム周波数変換方法において、
前記入力動画像の複数フレームに亘る前記コマ落とし処理又は前記コマ挿入処理は、
前記入力動画像の或るフレームで、重み変数を、前記コマ落とし処理又は前記コマ挿入処理を行なうフレームの数に対応する値に初期化するステップと、
前記入力動画像の各フレーム毎に前記重み変数を変化させるステップと、
前記入力動画像の各フレーム毎に変化した前記重み変数を利用して、前記入力動画像の複数のフレーム信号を重み付け加算することにより、出力動画像のフレーム信号を生成するステップと、
を備えることを特徴とするフレーム周波数変換方法。
The frame frequency conversion method according to claim 1,
The frame dropping process or the frame inserting process over a plurality of frames of the input moving image includes:
Initializing a weight variable in a certain frame of the input moving image to a value corresponding to the number of frames to be subjected to the frame dropping process or the frame inserting process;
Changing the weight variable for each frame of the input video;
Generating a frame signal of an output moving image by weighting and adding a plurality of frame signals of the input moving image using the weight variable changed for each frame of the input moving image;
A frame frequency conversion method comprising:
請求項1に記載のフレーム周波数変換方法において、
前記開始判断ステップで前記コマ落とし処理又は前記コマ挿入処理の開始が必要であると判断された場合に、前記コマ落とし処理又は前記コマ挿入処理の開始フレームが、動画フレームであるのか静止画フレームであるのかを判断する静止画/動画判断ステップを更に備え、
静止画/動画判断ステップで前記コマ落とし処理又は前記コマ挿入処理の開始フレームが動画フレームであると判断された場合にのみ、前記入力動画像の複数フレームに亘る前記コマ落とし処理又は前記コマ挿入処理を行ない、
静止画/動画判断ステップで前記コマ落とし処理又は前記コマ挿入処理の開始フレームが静止画フレームであると判断された場合には、他のコマ落とし処理又は他のコマ挿入処理を行なうことを特徴とするフレーム周波数変換方法。
The frame frequency conversion method according to claim 1,
When it is determined in the start determining step that the frame drop process or the frame insert process needs to be started, the start frame of the frame drop process or the frame insert process is a moving image frame or a still image frame. A still image / moving image determination step for determining whether or not there is,
The frame dropping process or the frame inserting process over a plurality of frames of the input moving image only when the start frame of the frame dropping process or the frame inserting process is determined to be a moving image frame in the still image / moving image determining step. Do
When it is determined in the still image / moving image determination step that the start frame of the frame dropping process or the frame inserting process is a still image frame, another frame dropping process or another frame inserting process is performed. Frame frequency conversion method.
請求項5に記載のフレーム周波数変換方法において、
前記他のコマ落とし処理又は前記他のコマ挿入処理は、それぞれ、入力動画像の或るフレームを廃棄する処理又は入力動画像の或るフレームを重複させる処理であることを特徴とするフレーム周波数変換方法。
The frame frequency conversion method according to claim 5, wherein
The other frame dropping process or the other frame inserting process is a process of discarding a certain frame of the input moving image or a process of overlapping a certain frame of the input moving image, respectively. Method.
請求項1に記載のフレーム周波数変換方法において、
前記開始判断ステップで前記コマ落とし処理又は前記コマ挿入処理の開始が必要であると判断される入力フレームの間隔に応じて、前記入力動画像の複数フレームに亘る前記コマ落とし処理又は前記コマ挿入処理におけるパラメータを調整するパラメータ調整ステップを更に備えることを特徴とするフレーム周波数変換方法。
The frame frequency conversion method according to claim 1,
The frame dropping process or the frame inserting process over a plurality of frames of the input moving image according to the interval of the input frames determined to require the frame dropping process or the frame inserting process to be started in the start determining step. A frame frequency conversion method further comprising a parameter adjustment step of adjusting a parameter in
請求項7に記載のフレーム周波数変換方法において、
前記パラメータ調整ステップでは、前記入力動画像の複数フレームに亘る前記コマ落とし処理又は前記コマ挿入処理の対象となるフレーム数を調整することを特徴とするフレーム周波数変換方法。
The frame frequency conversion method according to claim 7,
In the parameter adjustment step, a frame frequency conversion method is characterized in that the number of frames to be subjected to the frame dropping process or the frame inserting process over a plurality of frames of the input moving image is adjusted.
請求項8に記載のフレーム周波数変換方法において、
前記パラメータ調整ステップでは、前記入力動画像の複数フレームに亘る前記コマ落とし処理又は前記コマ挿入処理の対象となるフレーム数が、前記コマ落とし処理又は前記コマ挿入処理の開始が必要であると判断される入力フレームの間隔以下となるような調整をすることを特徴とするフレーム周波数変換方法。
The frame frequency conversion method according to claim 8,
In the parameter adjustment step, it is determined that the number of frames subject to the frame dropping process or the frame inserting process over a plurality of frames of the input moving image needs to start the frame dropping process or the frame inserting process. A frame frequency conversion method, wherein adjustment is performed so that the input frame interval is equal to or less than the input frame interval.
請求項8に記載のフレーム周波数変換方法において、
前記パラメータ調整ステップでは、前記入力動画像の複数フレームに亘る前記コマ落とし処理又は前記コマ挿入処理の対象となるフレーム数が、前記コマ落とし処理又は前記コマ挿入処理の開始が必要であると判断される入力フレームの間隔未満となるような調整をし、これにより、前記コマ落とし処理又は前記コマ挿入処理を休止する期間を設けることを特徴とするフレーム周波数変換方法。
The frame frequency conversion method according to claim 8,
In the parameter adjustment step, it is determined that the number of frames subject to the frame dropping process or the frame inserting process over a plurality of frames of the input moving image needs to start the frame dropping process or the frame inserting process. A frame frequency conversion method characterized in that adjustment is made to be less than an input frame interval, thereby providing a period during which the frame drop processing or frame insertion processing is paused.
第1のフレーム周波数の入力動画像を基に、第2のフレーム周波数の出力動画像を生成するフレーム周波数変換装置において、
前記入力動画像の各フレーム毎にコマ落とし処理又はコマ挿入処理の開始が必要であるか否かを判断する開始判断手段と、
前記開始判断手段で前記コマ落とし処理又は前記コマ挿入処理の開始が必要であると判断された場合に、前記入力動画像の複数フレームに亘る前記コマ落とし処理又は前記コマ挿入処理を行なう処理実行手段と、
を備え、
前記処理実行手段は、前記コマ落とし処理又は前記コマ挿入処理が終了したならば、継続して動作している前記開始判断手段で、前記コマ落とし処理又は前記コマ挿入処理の開始が再度必要であると判断されるまで、前記コマ落とし処理又は前記コマ挿入処理を休止することを特徴とするフレーム周波数変換装置。
In a frame frequency conversion device that generates an output moving image having a second frame frequency based on an input moving image having a first frame frequency,
Start determination means for determining whether it is necessary to start frame drop processing or frame insertion processing for each frame of the input moving image;
Processing execution means for performing the frame dropping process or the frame inserting process over a plurality of frames of the input moving image when the start determining means determines that the frame dropping process or the frame inserting process needs to be started. When,
With
When the frame dropping process or the frame insertion process is completed, the process execution unit is required to start the frame dropping process or the frame insertion process again with the start determination unit operating continuously. The frame frequency conversion apparatus, wherein the frame dropping process or the frame inserting process is paused until it is determined that
請求項11に記載のフレーム周波数変換装置において、
前記開始判断手段は、前記入力動画像のフレーム同期信号と前記出力動画像のフレーム信号との時間差を基に、前記コマ落とし処理又は前記コマ挿入処理の開始が必要であるか否かを判断することを特徴とするフレーム周波数変換装置。
The frame frequency conversion device according to claim 11, wherein
The start determining means determines whether or not it is necessary to start the frame dropping process or the frame inserting process based on a time difference between the frame synchronization signal of the input moving image and the frame signal of the output moving image. A frame frequency converter characterized by the above.
請求項11に記載のフレーム周波数変換装置において、
前記開始判断手段は、前記第1のフレーム周波数に従って、前記入力動画像のデータがそこに書き込まれ、前記第2のフレーム周波数に従って、前記出力動画像のデータがそこから読み出される表示用メモリに一時蓄積された動画像データの量が所定値以上となることにより、前記入力動画像のデータの前記表示用メモリへの書込みが待たされる時間が所定値以上となった場合に、前記コマ落とし処理の開始が必要であると判断することを特徴とするフレーム周波数変換装置。
The frame frequency conversion device according to claim 11, wherein
The start determination means temporarily stores the input moving image data in accordance with the first frame frequency, and temporarily stores it in a display memory from which the output moving image data is read out in accordance with the second frame frequency. When the amount of accumulated moving image data exceeds a predetermined value, the time for waiting for writing of the input moving image data to the display memory exceeds a predetermined value. A frame frequency conversion apparatus characterized by determining that a start is necessary.
請求項11に記載のフレーム周波数変換装置において、
前記処理実行手段は、
前記入力動画像の或るフレームで、重み変数を、前記コマ落とし処理又は前記コマ挿入処理を行なうフレームの数に対応する値に初期化する手段と、
前記入力動画像の各フレーム毎に前記重み変数を変化させる手段と、
前記入力動画像の各フレーム毎に変化した前記重み変数を利用して、前記入力動画像の複数のフレーム信号を重み付け加算することにより、出力動画像のフレーム信号を生成する手段と、
を備えることを特徴とするフレーム周波数変換装置。
The frame frequency conversion device according to claim 11, wherein
The process execution means includes
Means for initializing a weight variable in a certain frame of the input moving image to a value corresponding to the number of frames to be subjected to the frame dropping process or the frame inserting process;
Means for changing the weight variable for each frame of the input moving image;
Means for generating a frame signal of an output moving image by weighting and adding a plurality of frame signals of the input moving image using the weight variable changed for each frame of the input moving image;
A frame frequency conversion device comprising:
請求項11に記載のフレーム周波数変換装置において、
前記開始判断手段で前記コマ落とし処理又は前記コマ挿入処理の開始が必要であると判断された場合に、前記コマ落とし処理又は前記コマ挿入処理の開始フレームが、動画フレームであるのか静止画フレームであるのかを判断する静止画/動画判断手段を更に備え、
静止画/動画判断手段で前記コマ落とし処理又は前記コマ挿入処理の開始フレームが動画フレームであると判断された場合にのみ、前記処理実行手段は、前記入力動画像の複数フレームに亘る前記コマ落とし処理又は前記コマ挿入処理を行ない、
静止画/動画判断手段で前記コマ落とし処理又は前記コマ挿入処理の開始フレームが静止画フレームであると判断された場合に、他のコマ落とし処理又は他のコマ挿入処理を行なう手段を更に備えることを特徴とするフレーム周波数変換装置。
The frame frequency conversion device according to claim 11, wherein
When the start determination unit determines that the frame drop process or the frame insertion process needs to be started, the start frame of the frame drop process or the frame insertion process is a moving image frame or a still image frame. A still image / moving image judging means for judging whether or not there is,
Only when the start frame of the frame dropping process or the frame inserting process is determined to be a moving image frame by the still image / moving image determining means, the process executing means is configured to drop the frame dropping over a plurality of frames of the input moving image. Process or insert the frame,
The image processing apparatus further includes means for performing another frame dropping process or another frame inserting process when the still image / video determining unit determines that the start frame of the frame dropping process or the frame inserting process is a still image frame. A frame frequency converter characterized by the above.
請求項15に記載のフレーム周波数変換装置において、
前記他のコマ落とし処理又は前記他のコマ挿入処理は、それぞれ、入力動画像の或るフレームを廃棄する処理又は入力動画像の或るフレームを重複させる処理であることを特徴とするフレーム周波数変換装置。
The frame frequency conversion device according to claim 15,
The other frame dropping process or the other frame inserting process is a process of discarding a certain frame of the input moving image or a process of overlapping a certain frame of the input moving image, respectively. apparatus.
請求項11に記載のフレーム周波数変換装置において、
前記開始判断手段で前記コマ落とし処理又は前記コマ挿入処理の開始が必要であると判断される入力フレームの間隔に応じて、前記入力動画像の複数フレームに亘る前記コマ落とし処理又は前記コマ挿入処理におけるパラメータを調整するパラメータ調整手段を更に備えることを特徴とするフレーム周波数変換装置。
The frame frequency conversion device according to claim 11, wherein
The frame dropping process or the frame inserting process over a plurality of frames of the input moving image according to the interval of the input frames determined by the start determining means to start the frame dropping process or the frame inserting process. A frame frequency conversion apparatus, further comprising parameter adjustment means for adjusting the parameters in (1).
請求項17に記載のフレーム周波数変換装置において、
前記パラメータ調整手段は、前記入力動画像の複数フレームに亘る前記コマ落とし処理又は前記コマ挿入処理の対象となるフレーム数を調整することを特徴とするフレーム周波数変換装置。
The frame frequency conversion device according to claim 17,
The frame frequency conversion device, wherein the parameter adjusting means adjusts the number of frames to be subjected to the frame dropping process or the frame inserting process over a plurality of frames of the input moving image.
請求項18に記載のフレーム周波数変換装置において、
前記パラメータ調整手段は、前記入力動画像の複数フレームに亘る前記コマ落とし処理又は前記コマ挿入処理の対象となるフレーム数が、前記コマ落とし処理又は前記コマ挿入処理の開始が必要であると判断される入力フレームの間隔以下となるような調整をすることを特徴とするフレーム周波数変換装置。
The frame frequency conversion device according to claim 18,
The parameter adjusting means determines that the number of frames subject to the frame dropping process or the frame inserting process over a plurality of frames of the input moving image needs to start the frame dropping process or the frame inserting process. A frame frequency conversion apparatus that performs adjustment so as to be equal to or less than an input frame interval.
請求項18に記載のフレーム周波数変換装置において、
前記パラメータ調整手段は、前記入力動画像の複数フレームに亘る前記コマ落とし処理又は前記コマ挿入処理の対象となるフレーム数が、前記コマ落とし処理又は前記コマ挿入処理の開始が必要であると判断される入力フレームの間隔未満となるような調整をし、これにより、前記コマ落とし処理又は前記コマ挿入処理を休止する期間を設けることを特徴とするフレーム周波数変換装置。
The frame frequency conversion device according to claim 18,
The parameter adjusting means determines that the number of frames subject to the frame dropping process or the frame inserting process over a plurality of frames of the input moving image needs to start the frame dropping process or the frame inserting process. The frame frequency conversion apparatus is characterized in that an adjustment is made so that the interval is less than an input frame interval, thereby providing a period during which the frame dropping process or the frame inserting process is paused.
コンピュータに請求項1乃至10の何れか1項に記載のフレーム周波数変換方法を行なわせるためのフレーム周波数変換プログラム。   A frame frequency conversion program for causing a computer to perform the frame frequency conversion method according to any one of claims 1 to 10.
JP2005363814A 2005-12-16 2005-12-16 Frame frequency conversion method, frame frequency converter and frame frequency conversion program Pending JP2007166530A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005363814A JP2007166530A (en) 2005-12-16 2005-12-16 Frame frequency conversion method, frame frequency converter and frame frequency conversion program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005363814A JP2007166530A (en) 2005-12-16 2005-12-16 Frame frequency conversion method, frame frequency converter and frame frequency conversion program

Publications (1)

Publication Number Publication Date
JP2007166530A true JP2007166530A (en) 2007-06-28

Family

ID=38248870

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005363814A Pending JP2007166530A (en) 2005-12-16 2005-12-16 Frame frequency conversion method, frame frequency converter and frame frequency conversion program

Country Status (1)

Country Link
JP (1) JP2007166530A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109522208A (en) * 2018-09-29 2019-03-26 中国平安人寿保险股份有限公司 Page fluency test method and device, computer installation and storage medium

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109522208A (en) * 2018-09-29 2019-03-26 中国平安人寿保险股份有限公司 Page fluency test method and device, computer installation and storage medium
CN109522208B (en) * 2018-09-29 2022-09-02 中国平安人寿保险股份有限公司 Page fluency testing method and device, computer device and storage medium

Similar Documents

Publication Publication Date Title
JP4312238B2 (en) Image conversion apparatus and image conversion method
US5633687A (en) Method and system for providing an interlaced image on an display
JP5008431B2 (en) Image processing apparatus and image processing method
JP4043518B2 (en) System and method for generating and displaying complex graphic images at a constant frame rate
JP5213627B2 (en) Image processing apparatus and image processing method
JPH09102936A (en) Device and method for conversion
JP3855761B2 (en) Image signal processing apparatus and method
JP2022067318A (en) Display system
KR102273331B1 (en) Image processing device, image processing method, and recording medium
US7203236B2 (en) Moving picture reproducing device and method of reproducing a moving picture
US6335764B1 (en) Video output apparatus
JP2003189258A (en) Image signal processing apparatus and method
JP2007166530A (en) Frame frequency conversion method, frame frequency converter and frame frequency conversion program
US20080024668A1 (en) Method, apparatus, and computer product for eliminating noise
JP2001339695A (en) Image signal processor and image signal processing method
JP5820213B2 (en) Image processing apparatus and method, and imaging apparatus
KR20060107072A (en) Graphic image processing apparatus and method using alpha plane
JP4661036B2 (en) Memory controller, memory control method, and program for executing the method
JP3178665B2 (en) Image size conversion method and device therefor
JP2007082096A (en) Frame frequency conversion method, frame frequency conversion apparatus, and frame frequency conversion program
JP2009267446A (en) Motion image information processing method and apparatus
JPH09258707A (en) Image display system
JP4265342B2 (en) Rate conversion device, rate conversion method, program for executing the method, and image signal processing device
JP4264641B2 (en) Rate conversion apparatus and rate conversion method, image signal processing apparatus and processing method, and program for executing each method
JPH11352946A (en) Video output processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071115

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20080527

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090727

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090804

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091005

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20091127