JP2011045147A - Rendering method and rendering device - Google Patents

Rendering method and rendering device Download PDF

Info

Publication number
JP2011045147A
JP2011045147A JP2010265737A JP2010265737A JP2011045147A JP 2011045147 A JP2011045147 A JP 2011045147A JP 2010265737 A JP2010265737 A JP 2010265737A JP 2010265737 A JP2010265737 A JP 2010265737A JP 2011045147 A JP2011045147 A JP 2011045147A
Authority
JP
Japan
Prior art keywords
writing
unit
time
image data
timing control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010265737A
Other languages
Japanese (ja)
Other versions
JP5051673B2 (en
Inventor
Koji Numata
考司 沼田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Embedded Products Ltd
Original Assignee
NEC Embedded Products Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Embedded Products Ltd filed Critical NEC Embedded Products Ltd
Priority to JP2010265737A priority Critical patent/JP5051673B2/en
Publication of JP2011045147A publication Critical patent/JP2011045147A/en
Application granted granted Critical
Publication of JP5051673B2 publication Critical patent/JP5051673B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To perform interlace/progressive conversion processing and the write of image data to a free frame memory in a period during which one of frame memories is free. <P>SOLUTION: A timing control part outputs a write request to a write part, and the write part returns an acknowledgment to the write request to the timing control part when the read of the image data from a display frame memory by a read part is ended when the image data not read yet by the read part remains in a write frame memory at present, and returns the acknowledgment to the write request to the timing control part without delay after the write request is input when the image data not read yet by the read part does not remain in the write frame memory at present. From the time when the timing control part receives input of the acknowledgment from the write part, an image processing part performs image processing, and the write part writes the image data obtained through the image processing to the write frame memory. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、レンダリング方法及びレンダリング装置に関する。   The present invention relates to a rendering method and a rendering apparatus.

従来、パーソナルコンピュータで、テレビを視聴する場合、NTSC(National Television Standards Committee)方式、PAL(Phase Alternation by Line)方式又はSECAM(SEquential Couleur A Memoire)方式の映像信号をパーソナルコンピュータのノンインターレス(プログレッシブ)・モニタに表示するために、偶数フィールド及び奇数フィールドをインターリーブ合成して作成したフレームにコーミング(combing)除去処理を施していた。
特開2001−339694号公報 特開2002−185933号公報
Conventionally, when viewing television on a personal computer, video signals of NTSC (National Television Standards Committee), PAL (Phase Alternation by Line), or SECAM (SEquential Couleur A Memoire) are non-interlaced (progressive) of the personal computer. In order to display on a monitor, combing removal processing was applied to a frame created by interleaving an even field and an odd field.
JP 2001-339694 A JP 2002-185933 A

上記処理をした場合、1秒間に表示されるフレーム数は、約30又は約25であるため、処理前の画像に比べ、動きの滑らかさが劣る問題があった。また、コーミング除去方法によっては、映像全体がぼやけたり、映像のディテイル(detail)が潰れてしまう問題があった。   When the above processing is performed, the number of frames displayed per second is about 30 or about 25, so that there is a problem that the smoothness of the motion is inferior to the image before the processing. In addition, depending on the combing removal method, there is a problem that the entire video is blurred or the detail of the video is crushed.

このような、問題を改善するための方法として、例えば、NTSC信号の各フィールドをそれぞれ1つのフレームに変換して、1秒間に約60フレーム表示できるようにするインターレス/プログレッシブ変換方法がある。このインターレス/プログレッシブ変換方法では、インターレス信号の各フィールドについて画素単位で映像の動きを判定し、その画素が動き部分のものであるのか静止部分のものであるかにより補間方法を適応的に切り換える。   As a method for improving such a problem, for example, there is an interlace / progressive conversion method in which each field of the NTSC signal is converted into one frame so that about 60 frames can be displayed per second. In this interlace / progressive conversion method, the motion of a video is determined in units of pixels for each field of an interless signal, and an interpolation method is adaptively determined depending on whether the pixel is a moving part or a stationary part. Switch.

特許文献1には、高速スクロールの画面に対しインターレス/プログレッシブ変換を行う際に発生する動き検出の破綻を軽減することを目的とした発明が記載されているが、この発明によれば、動き検出のためのしきい値を可変とするので、1フレーム分余計なバッファ・メモリが必要となる。   Patent Document 1 describes an invention aimed at reducing the failure of motion detection that occurs when interlaced / progressive conversion is performed on a high-speed scroll screen. Since the threshold value for detection is variable, an extra buffer memory for one frame is required.

特許文献2には、動き補正を伴うインターレス/プログレッシブ変換における動き検出の精度を向上させることを目的とした発明が記載されているが、1フィールド前、2フィールド前、3フィールド前及び6フィールド前のフィールドデータを利用する必要があり、このために、4フィールド分の余分なバッファ・メモリが必要となる。   Patent Document 2 describes an invention aimed at improving the accuracy of motion detection in interlaced / progressive conversion with motion correction, but it is 1 field before, 2 fields before, 3 fields before and 6 fields. It is necessary to use the previous field data, and this requires an extra buffer memory for four fields.

また、インターレス/プログレッシブ変換方法においては、動きの判定が正しくできないために、動画部分が静止画部分と判断され、これにより、その部分に静止画用の補間処理が適用される場合があった。そして、動画部分に対し静止画用の補間処理が適用されると、映像にゴミ状のノイズが含まれることとなる。このようなノイズは視覚上目立ってしまう。   Further, in the interlace / progressive conversion method, since the motion cannot be correctly determined, the moving image portion is determined to be a still image portion, and accordingly, interpolation processing for still images may be applied to the portion. . When still image interpolation processing is applied to the moving image portion, dust-like noise is included in the video. Such noise is visually noticeable.

本発明は、交互に相補的に書込みフレーム・メモリ及び表示フレーム・メモリとなる2つのフレーム・メモリの何れかが空いている期間にインターレス/プログレッシブ変換処理及び空いているフレーム・メモリへの画像データの書込みが行われることを可能にするレンダリング方法及びレンダリング装置を提供することを目的とする。   The present invention provides an interlace / progressive conversion process and an image to an empty frame memory in a period in which one of two frame memories which are alternately a write frame memory and a display frame memory is empty. An object of the present invention is to provide a rendering method and a rendering apparatus that allow data to be written.

本発明の第1の観点によれば、交互に相補的に書込みフレーム・メモリ及び表示フレーム・メモリとなる2つのフレーム・メモリを用い、タイミング制御部が、書込部に対し、書込み要求を出力するステップと、前記書込部が、現在書込みフレーム・メモリに、読出部によりまだ読み出されていない画像データが残っている場合には、読出部による画像データの表示フレーム・メモリからの読出しが終了した時に、前記タイミング制御部に対し、前記書込み要求に対する肯定応答を返し、現在書込みフレーム・メモリに、読出部によりまだ読み出されていない画像データが残っていない場合には、書込み要求を入力してから遅滞なく、前記タイミング制御部に対し、前記書込要求に対する肯定応答を返すステップと、前記タイミング制御部が、前記肯定応答を前記書込部から入力した時から、画像処理部は、画像処理を行い、書込部は、該画像処理により得られた画像データを書込みフレーム・メモリに書き込むステップと、前記タイミング制御部が、前記画像処理及び書込みが終了した時刻を参照時刻と比較し、該比較の結果により、間隔パラメータを更新するステップと、前記タイミング制御部が、前記参照時刻に前記間隔パラメータを加算した時刻を次回の参照時刻とするステップと、前記タイミング制御部が、前回、書込部に対し、書込み要求を出力した時刻から、前記間隔パラメータを加算した時刻において、再度、書込部に対し、書込み要求を出力するステップとし、上記の動作を繰り返すステップと、を備えることを特徴とするレンダリング方法が提供される。   According to the first aspect of the present invention, two frame memories that are a write frame memory and a display frame memory are alternately and complementarily used, and the timing control unit outputs a write request to the write unit. And the writing unit reads the image data from the display frame memory by the reading unit when the image data not yet read by the reading unit remains in the current writing frame memory. When the processing is completed, an acknowledgment to the write request is returned to the timing control unit, and if there is no image data that has not been read by the reading unit in the current write frame memory, the write request is input. A step of returning an affirmative response to the write request to the timing control unit without delay, and the timing control unit Since the positive response is input from the writing unit, the image processing unit performs image processing, and the writing unit writes the image data obtained by the image processing to a writing frame memory; and the timing The control unit compares the time when the image processing and writing are completed with a reference time, and updates the interval parameter based on the comparison result, and the timing control unit adds the interval parameter to the reference time. The step of setting the time as the next reference time, and at the time when the timing control unit added the interval parameter from the time when the write request was last output to the writing unit, the writing unit again, There is provided a rendering method comprising: outputting a write request; and repeating the above operation.

本発明の第2の観点によれば、交互に相補的に書込みフレーム・メモリ及び表示フレーム・メモリとなる2つのフレーム・メモリと、タイミング制御部が、書込部に対し、書込み要求を出力する手段と、前記書込部が、現在書込みフレーム・メモリに、読出部によりまだ読み出されていない画像データが残っている場合には、読出部による画像データの表示フレーム・メモリからの読出しが終了した時に、前記タイミング制御部に対し、前記書込み要求に対する肯定応答を返し、現在書込みフレーム・メモリに、読出部によりまだ読み出されていない画像データが残っていない場合には、書込み要求を入力してから遅滞なく、前記タイミング制御部に対し、前記書込要求に対する肯定応答を返す手段と、前記タイミング制御部が、前記肯定応答を前記書込部から入力した時から、画像処理部は、画像処理を行い、書込部は、該画像処理により得られた画像データを書込みフレーム・メモリに書き込む手段と、前記タイミング制御部が、前記画像処理及び書込みが終了した時刻を参照時刻と比較し、該比較の結果により、間隔パラメータを更新する手段と、前記タイミング制御部が、前記参照時刻に前記間隔パラメータを加算した時刻を次回の参照時刻とする手段と、前記タイミング制御部が、前回、書込部に対し、書込み要求を出力した時刻から、前記間隔パラメータを加算した時刻において、再度、書込部に対し、書込み要求を出力する手段とし、上記の動作を繰り返す手段と、を備えることを特徴とするレンダリング装置が提供される。   According to the second aspect of the present invention, the two frame memories which become the write frame memory and the display frame memory alternately and complementarily, and the timing controller outputs a write request to the writer. And the writing unit finishes reading the image data from the display frame memory by the reading unit when the image data not yet read by the reading unit remains in the current writing frame memory. When the timing control unit returns an affirmative response to the write request, and no image data that has not yet been read by the reading unit remains in the current write frame memory, the write request is input. Means for returning an affirmative response to the write request to the timing control unit without delay, and the timing control unit Is input from the writing unit, the image processing unit performs image processing, the writing unit writes the image data obtained by the image processing into a writing frame memory, and the timing control unit Comparing the time when the image processing and writing are completed with a reference time, and updating the interval parameter according to the comparison result, and the timing control unit adding the time when the interval parameter is added to the reference time next time And the timing control unit again sends a write request to the writing unit at the time when the interval parameter is added from the time when the writing request was previously output to the writing unit. There is provided a rendering apparatus comprising: means for outputting; and means for repeating the above-described operation.

本発明の第3の観点によれば、交互に相補的に書込みフレーム・メモリ及び表示フレーム・メモリとなる2つのフレーム・メモリと、タイミング制御部が、書込部に対し、書込み要求を出力する手段と、前記書込部が、現在書込みフレーム・メモリに、読出部によりまだ読み出されていない画像データが残っている場合には、読出部による画像データの表示フレーム・メモリからの読出しが終了した時に、前記タイミング制御部に対し、前記書込み要求に対する肯定応答を返し、現在書込みフレーム・メモリに、読出部によりまだ読み出されていない画像データが残っていない場合には、書込み要求を入力してから遅滞なく、前記タイミング制御部に対し、前記書込要求に対する肯定応答を返す手段と、前記タイミング制御部が、前記肯定応答を前記書込部から入力した時から、画像処理部は、画像処理を行い、書込部は、該画像処理により得られた画像データを書込みフレーム・メモリに書き込む手段と、前記タイミング制御部が、前記画像処理及び書込みが終了した時刻を参照時刻と比較し、該比較の結果により、間隔パラメータを更新する手段と、前記タイミング制御部が、前記参照時刻に前記間隔パラメータを加算した時刻を次回の参照時刻とする手段と、前記タイミング制御部が、前回、書込部に対し、書込み要求を出力した時刻から、前記間隔パラメータを加算した時刻において、再度、書込部に対し、書込み要求を出力する手段とし、上記の動作を繰り返す手段と、を備えることを特徴とするレンダリング装置としてコンピュータを機能させるためのプログラムが提供される。   According to the third aspect of the present invention, the two frame memories which become the write frame memory and the display frame memory alternately and complementarily, and the timing controller outputs a write request to the writer. And the writing unit finishes reading the image data from the display frame memory by the reading unit when the image data not yet read by the reading unit remains in the current writing frame memory. When the timing control unit returns an affirmative response to the write request, and no image data that has not yet been read by the reading unit remains in the current write frame memory, the write request is input. Means for returning an affirmative response to the write request to the timing control unit without delay, and the timing control unit Is input from the writing unit, the image processing unit performs image processing, the writing unit writes the image data obtained by the image processing into a writing frame memory, and the timing control unit Comparing the time when the image processing and writing are completed with a reference time, and updating the interval parameter according to the comparison result, and the timing control unit adding the time when the interval parameter is added to the reference time next time And the timing control unit again sends a write request to the writing unit at the time when the interval parameter is added from the time when the writing request was previously output to the writing unit. A program for causing a computer to function as a rendering device comprising: means for outputting; and means for repeating the above-described operation. It is.

本発明によれば、交互に相補的に書込みフレーム・メモリ及び表示フレーム・メモリとなる2つのフレーム・メモリを用い、タイミング制御部が、書込部に対し、書込み要求を出力するステップと、前記書込部が、現在書込みフレーム・メモリに、読出部によりまだ読み出されていない画像データが残っている場合には、読出部による画像データの表示フレーム・メモリからの読出しが終了した時に、前記タイミング制御部に対し、前記書込み要求に対する肯定応答を返し、現在書込みフレーム・メモリに、読出部によりまだ読み出されていない画像データが残っていない場合には、書込み要求を入力してから遅滞なく、前記タイミング制御部に対し、前記書込要求に対する肯定応答を返すステップと、前記タイミング制御部が、前記肯定応答を前記書込部から入力した時から、画像処理部は、画像処理を行い、書込部は、該画像処理により得られた画像データを書込みフレーム・メモリに書き込むステップと、前記タイミング制御部が、前記画像処理及び書込みが終了した時刻を参照時刻と比較し、該比較の結果により、間隔パラメータを更新するステップと、前記タイミング制御部が、前記参照時刻に前記間隔パラメータを加算した時刻を次回の参照時刻とするステップと、前記タイミング制御部が、前回、書込部に対し、書込み要求を出力した時刻から、前記間隔パラメータを加算した時刻において、再度、書込部に対し、書込み要求を出力するステップとし、上記の動作を繰り返すステップと、を備えるので、交互に相補的に書込みフレーム・メモリ及び表示フレーム・メモリとなる2つのフレーム・メモリの何れかが空いている期間にインターレス/プログレッシブ変換処理及び空いているフレーム・メモリへの画像データの書込みが行われることが可能となる。   According to the present invention, using two frame memories that are alternately and alternately a write frame memory and a display frame memory, the timing control unit outputs a write request to the writing unit; When image data that has not yet been read out by the reading unit remains in the current writing frame memory, the writing unit reads the image data from the display frame memory when the reading unit finishes. When an acknowledgment to the write request is returned to the timing control unit, and there is no image data that has not yet been read out by the reading unit in the current write frame memory, there is no delay after inputting the write request. Returning an affirmative response to the write request to the timing control unit; and Is input from the writing unit, the image processing unit performs image processing, the writing unit writes the image data obtained by the image processing to a writing frame memory, and the timing control unit Comparing the time at which the image processing and writing are completed with a reference time, and updating the interval parameter according to the result of the comparison, and the timing control unit adding the time at which the interval parameter is added to the reference time next time And the timing control unit makes a write request to the writing unit again at the time when the interval parameter is added from the time when the timing control unit previously output the writing request to the writing unit. And a step of repeating the above operation, so that the write frame memory and the display frame memory are alternately and complementarily complemented. It is possible to write image data to the frame memory which interlace / progressive conversion process and the vacant period in which any of the two frame memories to be re is free is performed.

本発明の実施形態1によるインターレス/プログレッシブ変換装置の構成を示すブロック図である。It is a block diagram which shows the structure of the interlace / progressive conversion apparatus by Embodiment 1 of this invention. 本発明の実施形態1の効果を説明するための第1の図である。It is a 1st figure for demonstrating the effect of Embodiment 1 of this invention. 本発明の実施形態1の効果を説明するための第2の図である。It is a 2nd figure for demonstrating the effect of Embodiment 1 of this invention. 図1に示すインターレス/プログレッシブ変換装置により行われるインターレス/プログレッシブ変換方法について説明するためのフロー・チャートである。3 is a flowchart for explaining an interlace / progressive conversion method performed by the interlace / progressive conversion device shown in FIG. 1. 本発明の実施形態2によるインターレス/プログレッシブ変換装置の構成を示すブロック図である。It is a block diagram which shows the structure of the interlace / progressive conversion apparatus by Embodiment 2 of this invention. 本発明の実施形態3によるインターレス/プログレッシブ変換装置の動作を説明するためのタイミング図である。It is a timing diagram for demonstrating operation | movement of the interlace / progressive conversion apparatus by Embodiment 3 of this invention. 本発明の実施形態3によるインターレス/プログレッシブ変換装置の構成を示すブロック図である。It is a block diagram which shows the structure of the interlace / progressive conversion apparatus by Embodiment 3 of this invention. 本発明の実施形態4によるノイズ除去フィルタの構成例を示すブロック図である。It is a block diagram which shows the structural example of the noise removal filter by Embodiment 4 of this invention. 本発明の実施形態5による、レンダラを含んだインターレス/プログレッシブ変換装置の構成を示すブロック図である。It is a block diagram which shows the structure of the interlace / progressive conversion apparatus containing the renderer by Embodiment 5 of this invention. 図9に示すインターレス/プログレッシブ変換装置の動作を説明するための第1のタイミング図である。FIG. 10 is a first timing diagram for explaining the operation of the interlace / progressive conversion device shown in FIG. 9. 図9に示すインターレス/プログレッシブ変換装置の動作を説明するための第2のタイミング図である。FIG. 10 is a second timing chart for explaining the operation of the interlace / progressive conversion device shown in FIG. 9. 本発明の実施形態6による、フィルム画像変換機能を有するインターレス/プログレッシブ変換装置の動作を説明するためのフロー・チャートである。It is a flowchart for demonstrating operation | movement of the interlace / progressive conversion apparatus which has a film image conversion function by Embodiment 6 of this invention. 本発明の実施形態6による、フィルム画像変換機能を有するインターレス/プログレッシブ変換装置の動作を説明するための第1のタイミング図である。It is a 1st timing diagram for demonstrating operation | movement of the interlace / progressive conversion apparatus which has a film image conversion function by Embodiment 6 of this invention. 本発明の実施形態6による、フィルム画像変換機能を有するインターレス/プログレッシブ変換装置の動作を説明するための第2のタイミング図である。It is a 2nd timing diagram for demonstrating operation | movement of the interlace / progressive conversion apparatus which has a film image conversion function by Embodiment 6 of this invention. 本発明の実施形態6による、フィルム画像変換機能を有するインターレス/プログレッシブ変換装置の動作を説明するための第3のタイミング図である。It is a 3rd timing diagram for demonstrating operation | movement of the interlace / progressive conversion apparatus which has a film image conversion function by Embodiment 6 of this invention. 本発明の実施形態6による、フィルム画像変換機能を有するインターレス/プログレッシブ変換装置の動作を説明するための第4のタイミング図である。It is a 4th timing diagram for demonstrating operation | movement of the interlace / progressive conversion apparatus which has a film image conversion function by Embodiment 6 of this invention.

以下、図面を参照して本発明を実施するための最良の形態について詳細に説明する。   The best mode for carrying out the present invention will be described below in detail with reference to the drawings.

[実施形態1]
図1は、本発明の実施形態1によるインターレス/プログレッシブ変換装置の構成を示すブロック図である。
[Embodiment 1]
FIG. 1 is a block diagram showing a configuration of an interlace / progressive conversion apparatus according to Embodiment 1 of the present invention.

第1のフィールド・メモリ101−1は、処理対象となっているフィールドの1つ先のフィールドの画像データを格納する。第2のフィールド・メモリ101−2は、処理対象となっているフィールドの画像データを格納する。第3のフィールド・メモリ101−3は、処理対象となっているフィールドの1つ前のフィールドの画像データを格納する。   The first field memory 101-1 stores image data of a field one field ahead of the field to be processed. The second field memory 101-2 stores image data of the field to be processed. The third field memory 101-3 stores the image data of the field immediately before the field to be processed.

画像データ書込部103は、第1乃至第3のフィールド・メモリ101−1、101−2及び101−3に画像データを書き込む。なお、第1乃至第3のフィールド・メモリ101−1、101−2及び101−3をリング・バッファ構成とし、循環的に、3つのフィールドの画像データをこれらのフィールド・メモリに格納するようにしても良い。   The image data writing unit 103 writes the image data in the first to third field memories 101-1, 101-2, and 101-3. The first to third field memories 101-1, 101-2, and 101-3 have a ring buffer configuration, and image data of three fields are stored in these field memories in a circular manner. May be.

動画補間画素生成部105は、第2のフィールド・メモリ101−2に格納されている画像データを基に、動画補間画素を生成する。例えば、現在処理の対象となっているフィールドの番号をn、そのフィールドにおいて、補間するべき画素として現在処理の対象となっている画素の垂直方向位置をi、そのフィールドにおいて、補間するべき画素として現在処理の対象となっている画素の水平方向位置をjとした場合、式(1)に従って、動画補間画素A(n,i,j)を生成する。   The moving image interpolation pixel generation unit 105 generates moving image interpolation pixels based on the image data stored in the second field memory 101-2. For example, the number of the field currently being processed is n, the vertical position of the pixel currently being processed as a pixel to be interpolated in that field, i, and the pixel to be interpolated in that field When the horizontal position of the pixel currently being processed is j, a moving image interpolation pixel A (n, i, j) is generated according to equation (1).

Figure 2011045147
ここで、x(n,i−1,j)は、処理の対象となっているフィールドの処理の対象となっている画素の1つ上の画素の値であり、x(n,i+1,j)は、処理の対象となっているフィールドの処理の対象となっている画素の1つ下の画素の値である。上記では、これらの2つの画素の値の平均値を処理の対象となっている画素の値としているが、これらの2つの画素のうちの1つの画素の値を処理の対象となっている画素の値としてもよい。また、処理の対象となっているフィールドの画素のうちの処理の対象となっている画素の所定の近傍の画素の値の加重平均を処理の対象となっている画素の値としてもよい。
Figure 2011045147
Here, x (n, i−1, j) is the value of the pixel one pixel above the pixel to be processed in the field to be processed, and x (n, i + 1, j). ) Is the value of the pixel one pixel below the pixel to be processed in the field to be processed. In the above, the average value of the values of these two pixels is the value of the pixel to be processed, but the value of one pixel of these two pixels is the pixel to be processed. It is good also as the value of. Also, a weighted average of the values of pixels in a predetermined vicinity of the pixel to be processed among the pixels in the field to be processed may be used as the value of the pixel to be processed.

静止画補間画素生成部107は、第1のフィールド・メモリ101−1に格納されている画素データ及び第3のフィールド・メモリ101−3に格納されている画素データを基に、静止画画素を生成する。例えば、現在処理の対象となっているフィールドの番号をn、そのフィールドにおいて、補間するべき画素として現在処理の対象となっている画素の垂直方向位置をi、そのフィールドにおいて、補間するべき画素として現在処理の対象となっている画素の水平方向位置をjとした場合、式(2)に従って、動画補間画素B(n,i,j)を生成する。   The still image interpolation pixel generation unit 107 generates still image pixels based on the pixel data stored in the first field memory 101-1 and the pixel data stored in the third field memory 101-3. Generate. For example, the number of the field currently being processed is n, the vertical position of the pixel currently being processed as a pixel to be interpolated in that field, i, and the pixel to be interpolated in that field If the horizontal position of the pixel currently being processed is j, a moving image interpolation pixel B (n, i, j) is generated according to equation (2).

Figure 2011045147
ここで、x(n−1,i,j)は、処理の対象となっているフィールドの1つ前のフィールドの画素のうち、処理の対象となっている画素と同一の位置(i,j)にある画素の値であり、x(n+1,i,j)は、処理の対象となっているフィールドの1つ後のフィールドの画素のうち、処理の対象となっている画素と同一の位置(i,j)にある画素の値である。上記では、これらの2つの画素の値の平均値を処理の対象となっている画素の値としているが、これらの2つの画素のうちの1つの画素の値を処理の対象となっている画素の値としてもよい。また、処理の対象となっているフィールドの近傍のフィールドの画素のうちの処理の対象となっている画素と同一の位置にある画素の値の加重平均を処理の対象となっている画素の値としてもよい。
Figure 2011045147
Here, x (n−1, i, j) is the same position (i, j) as the pixel to be processed among the pixels in the field immediately before the field to be processed. ), And x (n + 1, i, j) is the same position as the pixel to be processed among the pixels in the next field after the field to be processed. This is the value of the pixel at (i, j). In the above, the average value of the values of these two pixels is the value of the pixel to be processed, but the value of one pixel of these two pixels is the pixel to be processed. It is good also as the value of. Also, the value of the pixel subject to processing is the weighted average of the values of the pixels in the same position as the pixel subject to processing among the pixels in the field in the vicinity of the field subject to processing. It is good.

差分計算部109は、処理の対象となっているフィールドの処理の対象となっている画素についての差分C(n,i,j)を式(3)に従って求める。   The difference calculation unit 109 obtains the difference C (n, i, j) for the pixel to be processed in the field to be processed according to the equation (3).

Figure 2011045147
ここで、x(n−1,i,j)は、処理の対象となっているフィールドの1つ前のフィールドの画素のうち、処理の対象となっている画素と同一の位置(i,j)にある画素の値であり、x(n+1,i,j)は、処理の対象となっているフィールドの1つ後のフィールドの画素のうち、処理の対象となっている画素と同一の位置(i,j)にある画素の値である。差分C(n,i,j)は、動き量の基本となる。
Figure 2011045147
Here, x (n−1, i, j) is the same position (i, j) as the pixel to be processed among the pixels in the field immediately before the field to be processed. ), And x (n + 1, i, j) is the same position as the pixel to be processed among the pixels in the next field after the field to be processed. This is the value of the pixel at (i, j). The difference C (n, i, j) is the basis of the amount of motion.

差分補正部111は、式(4)に従って、補正された差分D(n,i,j)を求める。   The difference correction unit 111 obtains a corrected difference D (n, i, j) according to the equation (4).

Figure 2011045147
ここで、Δcの値は、ノイズのレベル等により決定され、補正値保持部113に格納されている。
Figure 2011045147
Here, the value of Δc is determined by the noise level or the like and stored in the correction value holding unit 113.

差分累積部115は、累積動き量メモリ117に格納されている累積動き量m(i,j)を式(5)に従って更新する。   The difference accumulating unit 115 updates the accumulated motion amount m (i, j) stored in the accumulated motion amount memory 117 according to the equation (5).

Figure 2011045147
ここで、THの値は、視覚特性等により決定され、しきい値保持部119に格納されている。THの値は、例えば、16である。
Figure 2011045147
Here, the value of TH is determined by visual characteristics or the like and stored in the threshold value holding unit 119. The value of TH is 16, for example.

上式に従って、累積動き量m(i,j)を計算することにより、あるフィールドである量の動きが検出された場合には、そのフィールドでは、累積動き量m(i,j)は、その前のフィールドでの累積動き量にその動きの量を加算してから1引いた値又は、動き量が大きい場合には、しきい値THとなり、それから1フィールド経過する度に1ずつ減少する。こうすることにより、動き検出は、尾を引くこととなる。これにより、動きがあった後に動画部が間違って静止画部であると判断される可能性を低くすることができる。動画部が間違って静止画部であると判断された場合には、動画部として正しく処理された時に算出される補間値とは全く異なった補間値が算出され、視覚上問題となる。一方、静止画部が間違って動画部であると判断された場合には、解像度が落ちるだけであり、視覚上問題とはならない。特に、実際に動きが検出された部分の周辺の静止画部は、動画部であると間違って判断されたとしても、その部分の解像度の低下は実際に動きがある部分によるマスキング効果により視覚されない。従って、式(5)を導入して、動画部が間違って静止画部と判断される可能性を低くすることの長所は、静止画部が間違って動画部と判断される可能性が増える欠点を上回るので、式(5)を導入することは、全体として、画質改善に役立つ。また、文字が固定されているテロップ部等の多くの静止画部は、式(5)を導入しても、間違って、動画部であると判断されることはない。   If a certain amount of motion is detected by calculating the cumulative motion amount m (i, j) according to the above equation, the cumulative motion amount m (i, j) A value obtained by adding 1 to the accumulated motion amount in the previous field and subtracting 1 or when the motion amount is large is a threshold value TH, and decreases by 1 every time one field has passed since then. By doing so, the motion detection is tailed. Thereby, the possibility that the moving image part is erroneously determined to be a still image part after movement can be reduced. When the moving image part is erroneously determined to be a still image part, an interpolation value completely different from the interpolation value calculated when correctly processed as the moving image part is calculated, which causes a visual problem. On the other hand, if the still image portion is erroneously determined to be a moving image portion, only the resolution is lowered, and this is not a visual problem. In particular, even if the still image portion around the portion where the motion is actually detected is erroneously determined to be a moving image portion, the reduction in the resolution of the portion is not visually recognized due to the masking effect due to the portion that actually moves. . Therefore, the advantage of introducing the formula (5) and reducing the possibility that the moving image portion is erroneously determined as the still image portion is that the possibility that the still image portion is erroneously determined as the moving image portion is increased. Therefore, the introduction of the equation (5) is useful for improving the image quality as a whole. Also, many still image portions such as telop portions where characters are fixed are not mistakenly determined to be moving image portions even if the formula (5) is introduced.

動き量計算部121は、式(6)に従って動き量M(i,j)を算出する。   The motion amount calculation unit 121 calculates the motion amount M (i, j) according to the equation (6).

Figure 2011045147
合成補間画素生成部123は、式(7)に従って合成補間画素x’(n,i,j)を計算する。
Figure 2011045147
The synthetic interpolation pixel generation unit 123 calculates a synthetic interpolation pixel x ′ (n, i, j) according to the equation (7).

Figure 2011045147
選択部125は、ライン毎に実在画素x(n,i,j)と補間画素x’(n,i,j)を切り換えて、プログレッシブ走査の画像データを出力する。
Figure 2011045147
The selection unit 125 switches the actual pixel x (n, i, j) and the interpolated pixel x ′ (n, i, j) for each line, and outputs progressive scan image data.

なお、図1に示すインターレス/プログレッシブ変換装置は、ハードウェアによって実現することもできるが、コンピュータを図1に示すインターレス/プログレッシブ変換装置として機能させるためのプログラムをコンピュータが読み込んで実行することによっても実現することができる。   The interless / progressive conversion device shown in FIG. 1 can be realized by hardware, but the computer reads and executes a program for causing the computer to function as the interless / progressive conversion device shown in FIG. Can also be realized.

次に、式(6)に従って動き量M(i,j)を計算することの効果について説明する。   Next, the effect of calculating the motion amount M (i, j) according to the equation (6) will be described.

図2に示すように、白い平坦な背景上を黒い縦線が右に移動する場合を想定する。また、考察を容易にするために、動き累積量m(i,j)を式(8)に従って計算するものとする。   As shown in FIG. 2, it is assumed that a black vertical line moves to the right on a white flat background. Further, in order to facilitate the consideration, it is assumed that the motion accumulation amount m (i, j) is calculated according to the equation (8).

Figure 2011045147
そうすると、式(6)を用いずに、仮に、式(9)に従って、動き量M(i,j)を計算することとすると、図2に示すように、動きが検出されずに、静止画補間画素により補間が行われることとなり、コーミングが発生する。
Figure 2011045147
Then, if the motion amount M (i, j) is calculated according to the equation (9) without using the equation (6), as shown in FIG. Interpolation is performed by the interpolation pixel, and combing occurs.

Figure 2011045147
すなわち、図2において、四角の画素は元々ある画素であり、丸の画素は補完するべき画素である。例えば、画素134と画素334との差分の絶対値が画素234の動き量となるが、この値はゼロであるため、画素234は、静止画画素であると間違って判断される。そうすると、画素134と画素334の平均値が画素234の補間値となり、画素234は白となってしまう。画素214、254についても同様である。そうすると、画素224、244、264が正しく黒であるのに対し、画素214、234、254は間違って白となってしまい、コーミングが発生する。
Figure 2011045147
That is, in FIG. 2, square pixels are originally pixels, and round pixels are pixels to be complemented. For example, the absolute value of the difference between the pixel 134 and the pixel 334 is the amount of motion of the pixel 234. Since this value is zero, the pixel 234 is erroneously determined to be a still image pixel. Then, the average value of the pixel 134 and the pixel 334 becomes the interpolation value of the pixel 234, and the pixel 234 becomes white. The same applies to the pixels 214 and 254. Then, while the pixels 224, 244, and 264 are correctly black, the pixels 214, 234, and 254 are erroneously white and combing occurs.

一方、本発明に従って、式(6)に従って、動き量M(i,j)を計算することとすると、図3に示すように、正しく動きが検出され、動画補間画素により補間が行われることとなり、コーミングが発生しない。   On the other hand, if the motion amount M (i, j) is calculated according to the equation (6) according to the present invention, the motion is correctly detected and interpolation is performed by the moving image interpolation pixels as shown in FIG. No combing occurs.

すなわち、図3において、図2の場合と同様に、四角の画素は元々ある画素であり、丸の画素は補完するべき画素である。例えば、画素134と画素334との差分の絶対値と画素044と画素244との差分の絶対値の和としきい値THのうちの小さい方が画素234の動き量となるが、この値はしきい値THであるため、画素234は、動画画素であると正しく判断される。そうすると、画素224と画素244の平均値が画素234の補間値となり、画素234は黒となる。画素214、254についても同様である。そうすると、画素224、244、264が正しく黒であり、且つ、画素214、234、254も正しく黒であるため、コーミングは発生しない。   That is, in FIG. 3, as in the case of FIG. 2, the square pixels are originally pixels, and the round pixels are pixels to be complemented. For example, the smaller of the absolute value of the difference between the pixel 134 and the pixel 334, the sum of the absolute value of the difference between the pixel 044 and the pixel 244, and the threshold value TH is the amount of motion of the pixel 234. Since it is the threshold value TH, the pixel 234 is correctly determined as a moving image pixel. Then, the average value of the pixel 224 and the pixel 244 becomes the interpolation value of the pixel 234, and the pixel 234 becomes black. The same applies to the pixels 214 and 254. Then, since the pixels 224, 244, and 264 are correctly black and the pixels 214, 234, and 254 are also correctly black, no combing occurs.

このように、式(6)に従って動き量M(i,j)を計算することにより、動画画素が間違って静止画画素であると判断されることを回避することができる。   Thus, by calculating the motion amount M (i, j) according to the equation (6), it is possible to avoid erroneously determining that a moving image pixel is a still image pixel.

次に、図1に示すインターレス/プログレッシブ変換装置により行われるインターレス/プログレッシブ変換方法について説明する。   Next, an interlace / progressive conversion method performed by the interlace / progressive conversion apparatus shown in FIG. 1 will be described.

図4を参照すると、まず、動画補間画素生成部105は、式(1)に従って、動画補間画素を生成する(ステップS201)。次に、静止画補間画素生成部107は、式(2)に従って、静止画補間画素を生成する(ステップS203)。次に、差分計算部109は、式(3)に従って、差分を計算する(ステップS205)。次に、差分補正部111は、式(4)に従って、差分を補正する(ステップS207)。次に、差分累積部115は、式(5)に従って、累積動き量を更新する(ステップS209)。次に、動き量計算部121は、式(6)に従って、動き量を計算する(ステップS211)。次に、合成補間画素生成部123は、式(7)に従って、合成補間画素を生成する(ステップS213)。   Referring to FIG. 4, first, the moving image interpolation pixel generation unit 105 generates a moving image interpolation pixel according to Expression (1) (step S201). Next, the still image interpolation pixel generation unit 107 generates a still image interpolation pixel according to Expression (2) (step S203). Next, the difference calculation unit 109 calculates the difference according to the equation (3) (step S205). Next, the difference correction unit 111 corrects the difference according to the equation (4) (step S207). Next, the difference accumulating unit 115 updates the accumulated motion amount according to Expression (5) (step S209). Next, the motion amount calculation unit 121 calculates a motion amount according to Equation (6) (step S211). Next, the synthetic | combination interpolation pixel production | generation part 123 produces | generates a synthetic | combination interpolation pixel according to Formula (7) (step S213).

[実施形態2]
実施形態1の構成でインターレス/プログレッシブ変換を行うと、動画像に付随する音声に対して動画像のタイミングが遅れてしまう場合がある。実施形態2は、音声に対して動画像のタイミングが遅れないようにするものである。このために、将来のフィールドの画像データを用いずに処理を行う。
[Embodiment 2]
When interlace / progressive conversion is performed in the configuration of the first embodiment, the timing of the moving image may be delayed with respect to the sound accompanying the moving image. In the second embodiment, the timing of the moving image is not delayed with respect to the sound. For this purpose, processing is performed without using image data of future fields.

図5は、本発明の実施形態2によるインターレス/プログレッシブ変換装置の構成を示すブロック図である。   FIG. 5 is a block diagram showing a configuration of an interlace / progressive conversion apparatus according to Embodiment 2 of the present invention.

第1のフィールド・メモリ131−1は、処理対象となっているフィールドの画像データを格納する。第2のフィールド・メモリ131−2は、処理対象となっているフィールドの1つ前のフィールドの画像データを格納する。第3のフィールド・メモリ131−3は、処理対象となっているフィールドの2つ前のフィールドの画像データを格納する。第4のフィールド・メモリ131−4は、処理対象となっているフィールドの3つ前のフィールドの画像データを格納する。   The first field memory 131-1 stores image data of a field to be processed. The second field memory 131-2 stores image data of the field immediately before the field to be processed. The third field memory 131-3 stores image data of the field two fields before the field to be processed. The fourth field memory 131-4 stores image data of a field three fields before the field to be processed.

画像データ書込部133は、第1乃至第4のフィールド・メモリ131−1、131−2、131−3及び131−4に画像データを書き込む。なお、第1乃至第4のフィールド・メモリ131−1、131−2、131−3及び131−3をリング・バッファ構成とし、循環的に、4つのフィールドの画像データをこれらのフィールド・メモリに格納するようにしても良い。   The image data writing unit 133 writes the image data to the first to fourth field memories 131-1, 131-2, 131-3, and 131-4. Note that the first to fourth field memories 131-1, 131-2, 131-3, and 131-3 have a ring buffer configuration, and image data of four fields is cyclically transferred to these field memories. You may make it store.

動画補間画素生成部105は、第1のフィールド・メモリ131−1に格納されている画像データを基に、動画補間画素を生成する。例えば、現在処理の対象となっているフィールドの番号をn、そのフィールドにおいて、補間するべき画素として現在処理の対象となっている画素の垂直方向位置をi、そのフィールドにおいて、補間するべき画素として現在処理の対象となっている画素の水平方向位置をjとした場合、式(10)に従って、動画補間画素A(n,i,j)を生成する。   The moving image interpolation pixel generation unit 105 generates a moving image interpolation pixel based on the image data stored in the first field memory 131-1. For example, the number of the field currently being processed is n, the vertical position of the pixel currently being processed as a pixel to be interpolated in that field, i, and the pixel to be interpolated in that field If the horizontal position of the pixel currently being processed is j, moving image interpolation pixel A (n, i, j) is generated according to equation (10).

Figure 2011045147
ここで、x(n,i−1,j)は、処理の対象となっているフィールドの処理の対象となっている画素の1つ上の画素の値であり、x(n,i+1,j)は、処理の対象となっているフィールドの処理の対象となっている画素の1つ下の画素の値である。上記では、これらの2つの画素の値の平均値を処理の対象となっている画素の値としているが、これらの2つの画素のうちの1つの画素の値を処理の対象となっている画素の値としてもよい。また、処理の対象となっているフィールドの画素のうちの処理の対象となっている画素の所定の近傍の画素の値の加重平均を処理の対象となっている画素の値としてもよい。
Figure 2011045147
Here, x (n, i−1, j) is the value of the pixel one pixel above the pixel to be processed in the field to be processed, and x (n, i + 1, j). ) Is the value of the pixel one pixel below the pixel to be processed in the field to be processed. In the above, the average value of the values of these two pixels is the value of the pixel to be processed, but the value of one pixel of these two pixels is the pixel to be processed. It is good also as the value of. Also, a weighted average of the values of pixels in a predetermined vicinity of the pixel to be processed among the pixels in the field to be processed may be used as the value of the pixel to be processed.

静止画補間画素生成部137は、第2のフィールド・メモリ131−2に格納されている画素データを基に、静止画画素を生成する。例えば、現在処理の対象となっているフィールドの番号をn、そのフィールドにおいて、補間するべき画素として現在処理の対象となっている画素の垂直方向位置をi、そのフィールドにおいて、補間するべき画素として現在処理の対象となっている画素の水平方向位置をjとした場合、式(11)に従って、動画補間画素B(n,i,j)を生成する。   The still image interpolation pixel generation unit 137 generates a still image pixel based on the pixel data stored in the second field memory 131-2. For example, the number of the field currently being processed is n, the vertical position of the pixel currently being processed as a pixel to be interpolated in that field, i, and the pixel to be interpolated in that field When the horizontal position of the pixel currently being processed is j, a moving image interpolation pixel B (n, i, j) is generated according to equation (11).

Figure 2011045147
ここで、x(n−1,i,j)は、処理の対象となっているフィールドの1つ前のフィールドの画素のうち、処理の対象となっている画素と同一の位置(i,j)にある画素の値である。但し、処理の対象となっているフィールドの過去の近傍のフィールドの画素のうちの処理の対象となっている画素と同一の位置にある画素の値の加重平均を処理の対象となっている画素の値としてもよい。
Figure 2011045147
Here, x (n−1, i, j) is the same position (i, j) as the pixel to be processed among the pixels in the field immediately before the field to be processed. ). However, the pixel subject to processing is a weighted average of the values of the pixels at the same position as the pixel subject to processing among the pixels in the past neighboring field of the field subject to processing. It is good also as the value of.

差分計算部139は、処理の対象となっているフィールドの処理の対象となっている画素についての差分C(n,i,j)を式(12)に従って求める。   The difference calculation unit 139 obtains a difference C (n, i, j) for the pixel to be processed in the field to be processed according to the equation (12).

Figure 2011045147
ここで、x(n−3,i,j)は、処理の対象となっているフィールドの3つ前のフィールドの画素のうち、処理の対象となっている画素と同一の位置(i,j)にある画素の値であり、x(n−1,i,j)は、処理の対象となっているフィールドの1つ前のフィールドの画素のうち、処理の対象となっている画素と同一の位置(i,j)にある画素の値である。差分C(n,i,j)は、動き量の基本となる。
Figure 2011045147
Here, x (n−3, i, j) is the same position (i, j) as the pixel to be processed among the pixels in the field three fields before the field to be processed. ), And x (n-1, i, j) is the same as the pixel to be processed among the pixels in the field immediately before the field to be processed. Is the value of the pixel at position (i, j). The difference C (n, i, j) is the basis of the amount of motion.

差分補正部141は、式(13)に従って、補正された差分D(n,i,j)を求める。   The difference correction unit 141 obtains a corrected difference D (n, i, j) according to the equation (13).

Figure 2011045147
ここで、Δcの値は、ノイズのレベル等により決定され、補正値保持部113に格納されている。
Figure 2011045147
Here, the value of Δc is determined by the noise level or the like and stored in the correction value holding unit 113.

差分累積部145は、累積動き量メモリ147に格納されている累積動き量m(i,j)を式(14)に従って更新する。   The difference accumulating unit 145 updates the accumulated motion amount m (i, j) stored in the accumulated motion amount memory 147 according to the equation (14).

Figure 2011045147
ここで、THの値は、視覚特性等により決定され、しきい値保持部149に格納されている。THの値は、例えば、16である。
Figure 2011045147
Here, the value of TH is determined by visual characteristics or the like and stored in the threshold value holding unit 149. The value of TH is 16, for example.

上式に従って、累積動き量m(i,j)を計算することにより、あるフィールドである量の動きが検出された場合には、そのフィールドでは、累積動き量m(i,j)は、その前のフィールドでの累積動き量にその動きの量を加算してから1引いた値又は、動き量が大きい場合には、しきい値THとなり、1フィールド経過する度に1ずつ減少する。こうすることにより、動き検出は、尾を引くこととなる。これにより、動きがあった後に動画部が間違って静止画部であると判断される可能性を低くすることができる。   If a certain amount of motion is detected by calculating the cumulative motion amount m (i, j) according to the above equation, the cumulative motion amount m (i, j) A value obtained by adding 1 to the accumulated motion amount in the previous field and subtracting 1 or when the motion amount is large is a threshold value TH and decreases by 1 every time one field elapses. By doing so, the motion detection is tailed. Thereby, the possibility that the moving image part is erroneously determined to be a still image part after movement can be reduced.

動き量計算部151は、式(15)に従って動き量M(i,j)を算出する。   The motion amount calculation unit 151 calculates the motion amount M (i, j) according to the equation (15).

Figure 2011045147
合成補間画素生成部153は、式(16)に従って合成補間画素x’(n,i,j)を計算する。
Figure 2011045147
The synthetic interpolation pixel generation unit 153 calculates a synthetic interpolation pixel x ′ (n, i, j) according to the equation (16).

Figure 2011045147
選択部155は、ライン毎に実在画素x(n,i,j)と補間画素x’(n,i,j)を切り換えて、プログレッシブ走査の画像データを出力する。
Figure 2011045147
The selection unit 155 switches the actual pixel x (n, i, j) and the interpolation pixel x ′ (n, i, j) for each line, and outputs progressive scan image data.

なお、図5に示すインターレス/プログレッシブ変換装置は、ハードウェアによって実現することもできるが、コンピュータを図5に示すインターレス/プログレッシブ変換装置として機能させるためのプログラムをコンピュータが読み込んで実行することによっても実現することができる。   Although the interlace / progressive conversion device shown in FIG. 5 can be realized by hardware, the computer reads and executes a program for causing the computer to function as the interless / progressive conversion device shown in FIG. Can also be realized.

[実施形態3]
実施形態1の構成に従った場合、図6に示すように、シーンチェンジの境界の前後のフィールド(図6の例では、フィールドB2とフィールドA3)では、全ての補間画素について動画補間(フィールド内補間)をするべきである。しかし、画像データの内容によっては、一部の補間画素について静止画補間が行われる可能性がある。そこで、実施形態3では、各フィールド毎にシーンチェンジを検出し、シーンチェンジの境界の前後のフィールドでは、全ての補間画素について強制的に動画補間(フィールド内補間)を行う。
[Embodiment 3]
When the configuration of the first embodiment is followed, as shown in FIG. 6, in the fields before and after the boundary of the scene change (field B2 and field A3 in the example of FIG. 6), all the interpolated pixels are interpolated (within the field). Interpolation) should be done. However, depending on the content of the image data, still image interpolation may be performed for some of the interpolation pixels. Therefore, in the third embodiment, a scene change is detected for each field, and moving image interpolation (intra-field interpolation) is forcibly performed for all interpolation pixels in fields before and after the boundary of the scene change.

図7は、本発明の実施形態3によるインターレス/プログレッシブ変換装置の構成を示すブロック図である。   FIG. 7 is a block diagram showing a configuration of an interlace / progressive conversion apparatus according to Embodiment 3 of the present invention.

図7と図1を比較すると明らかなように、実施形態3によるインターレス/プログレッシブ変換装置は、実施形態1によるインターレス/プログレッシブ変換装置と比較すると、シーンチェンジ検出部161が追加されている点のみが異なる。従って、シーンチェンジ検出部161及びその周辺部のみについて説明する。   As is clear from comparison between FIG. 7 and FIG. 1, the interlace / progressive conversion apparatus according to the third embodiment is different from the interlace / progressive conversion apparatus according to the first embodiment in that a scene change detection unit 161 is added. Only the difference. Therefore, only the scene change detection unit 161 and its peripheral part will be described.

図6を参照すると、フィールドB2について処理を行っている時には、フィールドB2の直前のフィールドであるフィールドA2とフィールドB2の直後のフィールドであるフィールドA3が異なったシーンに属するものであることを検出すればよい。同様に、フィールドA3について処理を行っている時には、フィールドA3の直前のフィールドであるフィールドB2とフィールドA3の直後のフィールドであるフィールドB3が異なったシーンに属するものであることを検出すればよい。従って、処理しているフィールドの直前のフィールドと直後のフィールドが異なったシーンに属するものであることを検出すればよい。異なったシーンに属するものであるかを検出するためには、例えば、両フィールドの間の相互相関値がしきい値以下であるか否かを判断したり、両フィールドの間の相互相関値が急に変化したか否かを判断すればよい。   Referring to FIG. 6, when processing is performed on the field B2, it is detected that the field A2 which is the field immediately before the field B2 and the field A3 which is the field immediately after the field B2 belong to different scenes. That's fine. Similarly, when processing is performed on the field A3, it is only necessary to detect that the field B2 which is the field immediately before the field A3 and the field B3 which is the field immediately after the field A3 belong to different scenes. Therefore, it is only necessary to detect that the field immediately before and the field immediately after the field being processed belongs to different scenes. In order to detect whether they belong to different scenes, for example, it is determined whether the cross-correlation value between both fields is below a threshold value, or the cross-correlation value between both fields is What is necessary is just to judge whether it changed suddenly.

このために、シーンチェンジ検出部161は、第1のフィールド・メモリ101−1から現在のフィールドの1つ後のフィールドの画像データを入力し、第3のフィールド・メモリ101−3から現在のフィールドの1つ前のフィールドの画像データを入力し、両画像データの間の相互相関値等を計算することにより、シーンチェンジを検出する。シーンチェンジ検出部161は、シーンチェンジを検出した場合には、累積動き量メモリ117に格納されている全ての累積動き量をしきい値THに設定する。こうすることにより、フィールド内の全ての補間画素は、動画補間画素となる。   For this purpose, the scene change detection unit 161 inputs the image data of the field immediately after the current field from the first field memory 101-1, and the current field from the third field memory 101-3. A scene change is detected by inputting the image data of the previous field and calculating the cross-correlation value between the two image data. When a scene change is detected, the scene change detection unit 161 sets all cumulative motion amounts stored in the cumulative motion amount memory 117 to the threshold value TH. By doing so, all the interpolation pixels in the field become moving image interpolation pixels.

なお、図7に示すインターレス/プログレッシブ変換装置は、ハードウェアによって実現することもできるが、コンピュータを図7に示すインターレス/プログレッシブ変換装置として機能させるためのプログラムをコンピュータが読み込んで実行することによっても実現することができる。   Although the interlace / progressive conversion device shown in FIG. 7 can be realized by hardware, the computer reads and executes a program for causing the computer to function as the interless / progressive conversion device shown in FIG. Can also be realized.

[実施形態4]
実施形態4では、画像データ書込部133の前段にノイズ除去フィルタを配置する。このノイズ除去フィルタにより平坦部のノイズを除去する。
[Embodiment 4]
In the fourth embodiment, a noise removal filter is arranged before the image data writing unit 133. The noise in the flat portion is removed by this noise removal filter.

図8にノイズ除去フィルタの構成例を示す。図8を参照すると、このノイズ除去フィルタは、遅延回路171−1〜171−6、掛算器172−1〜172−7、加算器173、比較器174及びセレクタ175を備える。   FIG. 8 shows a configuration example of the noise removal filter. Referring to FIG. 8, the noise removal filter includes delay circuits 171-1 to 171-6, multipliers 172-1 to 172-7, an adder 173, a comparator 174, and a selector 175.

遅延回路171−1〜171−6は、1画素単位で画素を遅延させる。掛算器172−1〜172−7と加算器173は積和回路を構成する。掛算器172−1〜172−7の係数を適切に選ぶことにより(例えば、1/8、1/8、1/8、2/8、1/8、1/8、1/8)、遅延回路171−1〜171−6、掛算器172−1〜172−7及び加算器173を低域通過フィルタにする。比較器174は、加算器173の出力データの値が、遅延回路171−3の出力データの値から所定値を減算した値と遅延回路171−3の出力データの値に所定値を加算した値との間にあるか否かを判断する。セレクタ175は、加算器173の出力データの値が、遅延回路171−3の出力データの値から所定値を減算した値と遅延回路171−3の出力データの値に所定値を加算した値との間にある場合には、加算器173の出力データを選択し、そうでない場合には、遅延回路171−3の出力データを選択する。こうすることにより、平坦部のノイズを除去することが可能となる。   The delay circuits 171-1 to 171-6 delay pixels in units of one pixel. Multipliers 172-1 to 172-7 and adder 173 constitute a product-sum circuit. By appropriately selecting the coefficients of the multipliers 172-1 to 172-7 (eg, 1/8, 1/8, 1/8, 2/8, 1/8, 1/8, 1/8), the delay The circuits 171-1 to 171-6, the multipliers 172-1 to 172-7, and the adder 173 are low-pass filters. The comparator 174 has a value obtained by subtracting a predetermined value from the value of the output data of the delay circuit 171-3 and a value obtained by adding the predetermined value to the value of the output data of the delay circuit 171-3. Whether or not it is between. The selector 175 has a value obtained by subtracting a predetermined value from the value of the output data of the delay circuit 171-3 and a value obtained by adding the predetermined value to the value of the output data of the delay circuit 171-3. If it is between, the output data of the adder 173 is selected, and if not, the output data of the delay circuit 171-3 is selected. By doing so, it is possible to remove noise on the flat portion.

なお、図8に示すノイズ除去フィルタは、ハードウェアによって実現することもできるが、コンピュータを図8に示すノイズ除去フィルタとして機能させるためのプログラムをコンピュータが読み込んで実行することによっても実現することができる。   The noise removal filter shown in FIG. 8 can be realized by hardware, but can also be realized by the computer reading and executing a program for causing the computer to function as the noise removal filter shown in FIG. it can.

[実施形態5]
実施形態1から実施形態4では、レンダラを考慮していなかったが、図9に示すように、インターレス/プログレッシブ変換装置の最終段にはレンダラ191が存在する。レンダラ191は、画像データをモニタのクロック周波数、水平同期周波数及びフレーム周波数でモニタに出力する機能を持つ。
[Embodiment 5]
In the first to fourth embodiments, the renderer is not considered. However, as shown in FIG. 9, a renderer 191 exists in the final stage of the interlace / progressive conversion apparatus. The renderer 191 has a function of outputting image data to the monitor at the monitor clock frequency, horizontal synchronization frequency, and frame frequency.

図9を参照すると、レンダラ191は、書込部192、Aフレーム・メモリ193、Bフレーム・メモリ194及び読出部195を備える。Aフレーム・メモリ193及びBフレーム・メモリ194は、交互に、相補的に、書込みフレーム・メモリ及び表示フレーム・メモリとなる。   Referring to FIG. 9, the renderer 191 includes a writing unit 192, an A frame memory 193, a B frame memory 194, and a reading unit 195. The A frame memory 193 and the B frame memory 194 alternately and complementarily become a write frame memory and a display frame memory.

書込部192は、Aフレーム・メモリ193とBフレーム・メモリ194のうち現在書込みフレーム・メモリとなっているものに画像データを書き込む。読出部195は、Aフレーム・メモリ193とBフレーム・メモリ194のうち現在表示フレーム・メモリとなっているものから画像データを読み出し、それをモニタに供給する。   The writing unit 192 writes the image data to the A frame memory 193 and the B frame memory 194 that are currently the writing frame memory. The reading unit 195 reads image data from the A frame memory 193 and the B frame memory 194 that are currently the display frame memory, and supplies the image data to the monitor.

図9に示すフィールド・メモリ群101(又は131)は、例えば、図1の例でいうと、フィールド・メモリ101−1〜101−3の群である。画像データ読出し/補間部182A(又は182B又は182C)は、例えば、図1の例でいうと、図1の符号182Aの枠で囲まれたブロック群を含む。書込み時刻メモリ181には、画像データ書込部103(又は133)が、画像データをフィールド・メモリ群101(又は131)に書き込む時刻を格納する。タイミング制御部183は、画像データ読出し/補間部182A(又は182B又は182C)が画像データの読出し及び補間を行い、その結果得られたプログレッシブの画像データを書込部192に供給し、書込部192がAフレーム・メモリ193とBフレーム・メモリ194のうち現在書込みフレーム・メモリとなっているものに画像データを書き込むためのタイミングを制御する。   The field memory group 101 (or 131) shown in FIG. 9 is a group of field memories 101-1 to 101-3, for example, in the example of FIG. The image data reading / interpolating unit 182A (or 182B or 182C) includes, for example, a block group surrounded by a frame 182A in FIG. 1 in the example of FIG. The writing time memory 181 stores the time when the image data writing unit 103 (or 133) writes the image data into the field memory group 101 (or 131). In the timing control unit 183, the image data reading / interpolating unit 182A (or 182B or 182C) reads and interpolates the image data, and supplies the progressive image data obtained as a result to the writing unit 192. Reference numeral 192 controls the timing for writing image data to the A frame memory 193 and the B frame memory 194 which are currently the write frame memory.

次に、図10を参照して、特に、タイミング制御部183により行われるタイミング制御を説明する。   Next, in particular, timing control performed by the timing control unit 183 will be described with reference to FIG.

図10を参照すると、画像データ書込部103(又は133)が、最初に、画像データをフィールド・メモリ101(又は131)に書き込む時刻をT−In(1)とする。時刻T−In(1)は、書込み時刻メモリ181に書き込まれる。以降、画像データ書込部103(又は133)が、画像データをフィールド・メモリ101(又は131)に書き込む度に、書き込み時刻T−In(2)、T−In(3)、T−In(4)、・・・が書込み時刻メモリ181に書き込まれる。   Referring to FIG. 10, the time when the image data writing unit 103 (or 133) first writes the image data into the field memory 101 (or 131) is defined as T-In (1). The time T-In (1) is written in the write time memory 181. Thereafter, each time the image data writing unit 103 (or 133) writes the image data into the field memory 101 (or 131), the writing time T-In (2), T-In (3), T-In ( 4),... Are written in the write time memory 181.

時刻T−In(1)において、タイミング制御部183は、書込部192に対し、書き込み要求を出力する。図10では、VRAM取得の短冊の左端が書込み要求を出力する時刻である。この時、書込みフレーム・メモリであるBフレーム・メモリ194に既に画像データが書き込まれている(Bフレーム・メモリ194の画像データはまだ読み出されていない)ので、読出部195によるAフレーム・メモリ183からの画像データの読み出しの処理が完了してAフレーム・メモリ193が空く時刻T−R(1)まで待ちが発生し、時刻T−R(1)に書込部192は、タイミング制御部183に肯定応答(ACK)を返す。図10では、VRAM取得の短冊の右端が肯定応答を返す時刻である。従って、VRAM取得の短冊の幅は、タイミング制御部183が書き込み要求を書込部192に出力してから書込部192が肯定応答をタイミング制御部183に返すまでの待ち期間を表す。   At time T-In (1), the timing control unit 183 outputs a write request to the writing unit 192. In FIG. 10, the left end of the VRAM acquisition strip is the time when the write request is output. At this time, since the image data has already been written in the B frame memory 194 which is a writing frame memory (the image data in the B frame memory 194 has not yet been read), the A frame memory by the reading unit 195 Waiting until time TR (1) when the process of reading image data from 183 is completed and the A-frame memory 193 becomes free occurs. At time TR (1), the writing unit 192 receives the timing control unit. A positive response (ACK) is returned to 183. In FIG. 10, the right end of the VRAM acquisition strip is the time when an affirmative response is returned. Accordingly, the width of the VRAM acquisition strip represents a waiting period from when the timing control unit 183 outputs a write request to the writing unit 192 until the writing unit 192 returns an acknowledgment to the timing control unit 183.

そして、時刻T−R(1)から画像データ読出し/補間部182A(又は182B又は183C)は、インターレス/プログレッシブ変換の処理を開始する。インターレス/プログレッシブ変換の処理と並行して、書込部192は、変換後の画像データをAフレーム・メモリ193に書き込む。図10では、処理の短冊で表される部分がインターレス/プログレッシブ変換の処理及び書込みを行っている期間である。   Then, the image data reading / interpolating unit 182A (or 182B or 183C) starts the interlace / progressive conversion process from time TR (1). In parallel with the interlace / progressive conversion process, the writing unit 192 writes the converted image data in the A frame memory 193. In FIG. 10, a portion represented by a strip of processing is a period during which interlace / progressive conversion processing and writing are performed.

そして、画像データ読出し/補間部182A(又は182B又は183C)がインターレス/プログレッシブ変換の処理を終了したならば、タイミング制御部183は、次に述べるように、diff(2)及びT−Out(2)の計算等を行う。図10では、計算の短冊の部分がこの計算等を行う期間である。まず、インターレス/プログレッシブ変換の処理及び書込みの終了の時刻を、時刻T−In(1)から所定のオフセット時間ΔTだけ遅れた時刻T−Out(1)と比較する。この例では、前者が後者よりも遅いので、「遅れ」が発生していると判断する。そして、この例では、その「遅れ」が所定値以上である。この場合、タイミング制御部183は、Diff(2)=Diff(1)+α1にする。ここで、Diff(1)は、Diff(i)の初期値である。diff(i)は、T−Out(i)からT−Out(i+1)までの時間差である。従って、T−Out(i+1)=T−Out(i)+diff(i)となる。また、タイミング制御部183が、i回目に、書込部192に対し、書き込み要求を出力する時刻は、常に、時刻T−Out(i)からオフセット時間ΔTだけ先行した時刻である。従って、タイミング制御部183が、(i+1)回目に、書込部192に対し、書き込み要求を出力する時刻は、タイミング制御部183が、i回目に、書込部192に対し、書き込み要求を出力する時刻からdiff(i)だけ遅れた時刻となる。   When the image data reading / interpolating unit 182A (or 182B or 183C) finishes the interlace / progressive conversion process, the timing control unit 183, as will be described next, uses diff (2) and T-Out ( Perform the calculation of 2). In FIG. 10, the strip portion of the calculation is a period for performing this calculation and the like. First, the interlace / progressive conversion process and the write end time are compared with a time T-Out (1) delayed by a predetermined offset time ΔT from the time T-In (1). In this example, since the former is slower than the latter, it is determined that “delay” has occurred. In this example, the “delay” is equal to or greater than a predetermined value. In this case, the timing control unit 183 sets Diff (2) = Diff (1) + α1. Here, Diff (1) is an initial value of Diff (i). diff (i) is a time difference from T-Out (i) to T-Out (i + 1). Therefore, T−Out (i + 1) = T−Out (i) + diff (i). In addition, the time when the timing control unit 183 outputs a write request to the writing unit 192 for the i-th time is always a time preceding the time T-Out (i) by the offset time ΔT. Accordingly, the timing control unit 183 outputs the write request to the writing unit 192 at the i-th time, and the timing control unit 183 outputs the write request to the writing unit 192 at the i-th time. The time is delayed by diff (i) from the time to be performed.

タイミング制御部183が、1回目に、書込部192に対し、書き込み要求を出力する時刻は、T−In(1)であるので、タイミング制御部183が、2回目に、書込部192に対し、書き込み要求を出力する時刻は、T−In(1)+diff(1)である。タイミング制御部183が、2回目に、書込部192に対し、書き込み要求を出力する時刻でも、書込みフレーム・メモリであるAフレーム・メモリ193に既に画像データが書き込まれている(Aフレーム・メモリ183に書き込まれている画像データはまだ読み出されていない)ので、読出部195によるBフレーム・メモリ194からの画像データの読み出しの処理が完了してBフレーム・メモリ194が空く時刻T−R(2)まで待ちが発生し、時刻T−R(2)に書込部192は、タイミング制御部183に肯定応答(ACK)を返す。そして、時刻T−R(2)から画像データ読出し/補間部182A(又は182B又は183C)は、インターレス/プログレッシブ変換の処理を開始する。インターレス/プログレッシブ変換の処理と並行して、書込部192は、変換後の画像データをBフレーム・メモリ193に書き込む。   Since the timing at which the timing control unit 183 outputs the write request to the writing unit 192 for the first time is T-In (1), the timing control unit 183 receives the writing unit 192 for the second time. On the other hand, the time when the write request is output is T-In (1) + diff (1). At the time when the timing control unit 183 outputs a write request to the writing unit 192 for the second time, the image data has already been written in the A frame memory 193 that is the writing frame memory (A frame memory Since the image data written in 183 has not yet been read out), the time T-R when the reading unit 195 completes the reading of the image data from the B frame memory 194 and the B frame memory 194 is freed. Waiting until (2) occurs, and the writing unit 192 returns an affirmative response (ACK) to the timing control unit 183 at time TR (2). Then, from time TR (2), the image data reading / interpolating unit 182A (or 182B or 183C) starts the process of interlace / progressive conversion. In parallel with the interlace / progressive conversion process, the writing unit 192 writes the converted image data in the B frame memory 193.

そして、画像データ読出し/補間部182A(又は182B又は183C)がインターレス/プログレッシブ変換の処理を終了したならば、タイミング制御部183は、終了の時刻を、時刻T−Out(2)と比較する。但し、上述したようにT−Out(i+1)=T−Out(i)+diff(i)であるので、時刻T−Out(2)=T−out(1)+diff(1)である。この例では、インターレス/プログレッシブ変換の処理の終了の時刻が時刻T−Out(2)よりも遅いので、「遅れ」が発生していると判断する。そして、この例では、その「遅れ」が所定値未満である。この場合、タイミング制御部183は、Diff(3)=Diff(2)にする。   When the image data reading / interpolating unit 182A (or 182B or 183C) finishes the interlace / progressive conversion process, the timing control unit 183 compares the end time with the time T-Out (2). . However, since T−Out (i + 1) = T−Out (i) + diff (i) as described above, time T−Out (2) = T−out (1) + diff (1). In this example, since the end time of the interlace / progressive conversion process is later than the time T-Out (2), it is determined that a “delay” has occurred. In this example, the “delay” is less than a predetermined value. In this case, the timing control unit 183 sets Diff (3) = Diff (2).

タイミング制御部183が、3回目に、書込部192に対し、書き込み要求を出力する時刻は、T−In(1)+diff(1)+diff(2)である。タイミング制御部183が、3回目に、書込部192に対し、書き込み要求を出力する時刻では、書込みフレーム・メモリであるBフレーム・メモリ194に既に画像データが書き込まれているので、読出部195による読み出しの処理が完了してAフレーム・メモリ194が空く時刻T−R(3)まで待ちが発生し、時刻T−R(3)に書込部192は、タイミング制御部183に肯定応答(ACK)を返す。そして、時刻T−R(3)から画像データ読出し/補間部182A(又は182B又は183C)は、インターレス/プログレッシブ変換の処理を開始する。インターレス/プログレッシブ変換の処理と並行して、書込部192は、変換後の画像データをAフレーム・メモリ193に書き込む。   The timing at which the timing control unit 183 outputs a write request to the writing unit 192 for the third time is T-In (1) + diff (1) + diff (2). At the time when the timing control unit 183 outputs a write request to the writing unit 192 for the third time, image data has already been written in the B frame memory 194 which is a writing frame memory. Waits until time TR (3) when the A frame memory 194 is freed after the reading process is completed, and at time TR (3), the writing unit 192 acknowledges the timing control unit 183 with an acknowledgment ( ACK). Then, from time TR (3), the image data reading / interpolating unit 182A (or 182B or 183C) starts processing for interlace / progressive conversion. In parallel with the interlace / progressive conversion process, the writing unit 192 writes the converted image data in the A frame memory 193.

そして、画像データ読出し/補間部182A(又は182B又は183C)がインターレス/プログレッシブ変換の処理を終了したならば、タイミング制御部183は、終了の時刻を、時刻T−Out(3)と比較する。但し、上述したようにT−Out(i+1)=T−Out(i)+diff(i)であるので、時刻T−Out(3)=T−out(2)+diff(2)である。この例では、インターレス/プログレッシブ変換の処理の終了の時刻が時刻T−Out(3)よりも早いので、「進み」が発生していると判断する。そして、この例では、その「進み」が所定値以上である。この場合、タイミング制御部183は、Diff(4)=Diff(3)−α2にする。   When the image data reading / interpolating unit 182A (or 182B or 183C) finishes the interlace / progressive conversion process, the timing control unit 183 compares the end time with the time T-Out (3). . However, since T−Out (i + 1) = T−Out (i) + diff (i) as described above, time T−Out (3) = T−out (2) + diff (2). In this example, since the end time of the interlace / progressive conversion process is earlier than the time T-Out (3), it is determined that “advance” has occurred. In this example, the “advance” is equal to or greater than a predetermined value. In this case, the timing control unit 183 sets Diff (4) = Diff (3) −α2.

タイミング制御部183が、4回目に、書込部192に対し、書き込み要求を出力する時刻は、T−In(1)+diff(1)+diff(2)+diff(3)である。タイミング制御部183が、4回目に、書込部192に対し、書き込み要求を出力する時刻では、書込みフレーム・メモリであるBフレーム・メモリ194が空いているので、待ちが発生せず、その時刻の直後に書込部192は、タイミング制御部183に肯定応答(ACK)を返す。そして、肯定応答(ACK)の返信の直後から画像データ読出し/補間部182A(又は182B又は183C)は、インターレス/プログレッシブ変換の処理を開始する。インターレス/プログレッシブ変換の処理と並行して、書込部192は、変換後の画像データをAフレーム・メモリ193に書き込む。   The timing at which the timing control unit 183 outputs a write request to the writing unit 192 for the fourth time is T-In (1) + diff (1) + diff (2) + diff (3). At the time when the timing control unit 183 outputs a write request to the writing unit 192 for the fourth time, the B frame memory 194 that is the writing frame memory is free, so no waiting occurs, and the time Immediately after, the writing unit 192 returns an affirmative response (ACK) to the timing control unit 183. The image data reading / interpolating unit 182A (or 182B or 183C) starts the interlace / progressive conversion process immediately after the acknowledgment (ACK) is returned. In parallel with the interlace / progressive conversion process, the writing unit 192 writes the converted image data in the A frame memory 193.

そして、画像データ読出し/補間部182A(又は182B又は183C)がインターレス/プログレッシブ変換の処理を終了したならば、タイミング制御部183は、終了の時刻を、時刻T−Out(4)と比較する。但し、上述したようにT−Out(i+1)=T−Out(i)+diff(i)であるので、時刻T−Out(4)=T−out(3)+diff(3)である。この例では、インターレス/プログレッシブ変換の処理の終了の時刻が時刻T−Out(4)よりも早いので、「進み」が発生していると判断する。そして、この例では、その「進み」が所定値以上である。この場合、タイミング制御部183は、Diff(5)=Diff(4)−α2にする。   When the image data reading / interpolating unit 182A (or 182B or 183C) finishes the interlace / progressive conversion process, the timing control unit 183 compares the end time with the time T-Out (4). . However, since T−Out (i + 1) = T−Out (i) + diff (i) as described above, time T−Out (4) = T−out (3) + diff (3). In this example, since the end time of the interlace / progressive conversion processing is earlier than the time T-Out (4), it is determined that “advance” has occurred. In this example, the “advance” is equal to or greater than a predetermined value. In this case, the timing control unit 183 sets Diff (5) = Diff (4) −α2.

以下、同様なことが繰り返される。このようにして、diffの値が進み又は遅れかにより更新されていき、次回の書き込み要求を出力する時刻は、今回の書込み要求を出力する時刻にdiffを加算した時刻となり、次回のインターレス/プログレッシブ変換処理を終了した時刻は、今回の時刻T−outにdiffを加算した時刻と比較され、再度、diffの値が進み又は遅れかにより更新されていく。この結果、Aフレーム・メモリ193又はBフレーム・メモリの何れかが空いている期間に、インターレス/プログレッシブ変換処理及び空いているフレーム・メモリへの画像データの書込みが行われる。収束状態においては、図10に示すように、diffの値は振動する。   Hereinafter, the same thing is repeated. In this way, the diff value is updated depending on whether it is advanced or delayed, and the next write request output time is the time obtained by adding diff to the current write request output time, and the next interlace / The time when the progressive conversion process is completed is compared with the time obtained by adding diff to the current time T-out, and updated again depending on whether the value of diff is advanced or delayed. As a result, interlace / progressive conversion processing and writing of image data to the free frame memory are performed during a period when either the A frame memory 193 or the B frame memory is free. In the convergence state, the value of diff vibrates as shown in FIG.

また、レンダラの動作周波数が遅い場合には、書込み時刻T−Inの周期が読出し時刻T−Outの周期と比べて短くなることがある。このような場合、タイミング制御部183は、書込み時刻メモリ181に書き込まれている最後の時刻T−Inから今回の時刻T−Outまでの時間が所定時間以上である場合には、最後の時刻T−Inに書き込まれた画像データを破棄する。この様子を図11に示す。   In addition, when the operating frequency of the renderer is slow, the cycle of the write time T-In may be shorter than the cycle of the read time T-Out. In such a case, when the time from the last time T-In written in the write time memory 181 to the current time T-Out is equal to or longer than a predetermined time, the timing control unit 183 -Discard the image data written in In. This is shown in FIG.

なお、図9に示すレンダラ191及びタイミング制御部183は、ハードウェアによって実現することもできるが、コンピュータを図9に示すレンダラ191及びタイミング制御部183として機能させるためのプログラムをコンピュータが読み込んで実行することによっても実現することができる。   Although the renderer 191 and the timing control unit 183 shown in FIG. 9 can be realized by hardware, the computer reads and executes a program for causing the computer to function as the renderer 191 and the timing control unit 183 shown in FIG. This can also be realized.

[実施形態6]
実施形態6は、24fpsのフィルム画像データから作成された約60fpsのインターレス画像データを、元の24fpsのフィルム画像データとして表示するものである。
[Embodiment 6]
In the sixth embodiment, about 60 fps interlaced image data created from 24 fps film image data is displayed as the original 24 fps film image data.

図12を参照すると、まず、2フィールド前の画像データと現在のフィールドの画像データが同一であるか否かを判断する(ステップS221)。この判断のためには、例えば、画素毎の差分の絶対値を求め、その絶対値がフィールドの全部又は一部の画素についてしきい値以下であるか否かを判断する。   Referring to FIG. 12, first, it is determined whether the image data of two fields before and the image data of the current field are the same (step S221). For this determination, for example, the absolute value of the difference for each pixel is obtained, and it is determined whether or not the absolute value is below a threshold value for all or some of the pixels in the field.

同一である(変化がない)と判断した場合には(ステップS221で「変化なし」)、変数である「パターン・カウント」がゼロであるか否かを判断する(ステップS222)。「パターン・カウント」は、フィルム画像から作成された画像データを表示している期間は、5、4,3、2、1、5、4、3、2、1、5・・・と変化し、フィルム画像から作成されたのでない画像を表示している期間は、ゼロである。   If it is determined that they are the same (no change) (“no change” in step S221), it is determined whether or not the variable “pattern count” is zero (step S222). "Pattern count" changes as 5, 4, 3, 2, 1, 5, 4, 3, 2, 1, 5 ... during the period when image data created from a film image is displayed The period during which an image not created from a film image is displayed is zero.

「パターン・カウント」がゼロである場合には(ステップS222で「=0」)、「パターン・カウント」を5に初期化し、また、変数である「24fps可能性」を1増加させる(ステップS224)。ステップS224で「パターン・カウント」を5に初期化することにより、「パターン・カウント」の位相が初期化される。「24fps可能性」は、現在のフィールドがフィルム画像から得られたものである可能性を示すものであり、この値が大きいほど、その可能性が高い。   If the “pattern count” is zero (“= 0” in step S222), the “pattern count” is initialized to 5, and the variable “24 fps possibility” is incremented by 1 (step S224). ). By initializing “pattern count” to 5 in step S224, the phase of “pattern count” is initialized. “Possibility of 24 fps” indicates the possibility that the current field is obtained from a film image, and the larger this value, the higher the possibility.

「パターン・カウント」がゼロでない場合には(ステップS222で「≠0」)、ステップS224をスキップする。これは、静止画である場合、又は、変化があるのに間違って変化がないと判断された場合に生じる。   If the “pattern count” is not zero (“≠ 0” in step S222), step S224 is skipped. This occurs when the image is a still image or when it is determined that there is a change but there is no change by mistake.

2フィールド前の画像データと現在のフィールドの画像データが同一でない(変化がある)と判断した場合には(ステップS221で「変化あり」)、「パターン・カウント」がゼロであるか否かを判断する(ステップS223)。   If it is determined that the image data of two fields before and the image data of the current field are not the same (changed) (“changed” in step S221), it is determined whether or not “pattern count” is zero. Judgment is made (step S223).

「パターン・カウント」がゼロでない場合には(ステップS223で「≠0」)、「24fps可能性」を1だけ増加させる(ステップS226)。但し、「24fps可能性」の上限値を、一例として、11とする。従って、1だけ増加させて12になる場合には、11とする。フィルム画像から得られたフィールドのうち、重複しないフィールドを処理している時には、ステップS226を実行することとなる。   If the “pattern count” is not zero (“≠ 0” in step S223), the “24 fps possibility” is increased by 1 (step S226). However, the upper limit value of “24 fps possibility” is 11 as an example. Therefore, when the value is increased by 1 to 12, the value is 11. Of the fields obtained from the film image, when a non-overlapping field is being processed, step S226 is executed.

「パターン・カウント」がゼロである場合には(ステップS223で「=0」)、「24fps可能性」を1だけ減少させ、また、「24fps可能性」が10以上である場合には、「パターン・カウント」を5に初期化する(ステップS225)。但し、「24fps可能性」を1だけ減少させる場合には、「24fps可能性」の下限値を、一例として、ゼロとする。従って、1だけ減少させて−1になる場合には、ゼロとする。フィルム画像から得られたフィールドのうち重複しているフィールドを処理しているのに、ステップS221で、誤って、「変化あり」と判断した場合に、ステップS225を実行することとなる。また、フィルム画像から得られたのではないフィールドを処理する場合にも、ステップS225を実行することとなる。   When the “pattern count” is zero (“= 0” in step S223), the “24 fps possibility” is decreased by 1, and when the “24 fps possibility” is 10 or more, “ The “pattern count” is initialized to 5 (step S225). However, when the “24 fps possibility” is decreased by 1, the lower limit value of the “24 fps possibility” is set to zero as an example. Therefore, when it is decreased by 1 and becomes -1, it is set to zero. If an overlapping field among the fields obtained from the film image is processed, but it is erroneously determined as “changed” in step S221, step S225 is executed. Also, when processing a field that is not obtained from a film image, step S225 is executed.

ステップS224で「≠0」である場合にステップS227に進む。また、ステップS224、S225又はS226からもステップS227に進む。   If “≠ 0” in step S224, the process proceeds to step S227. The process also proceeds from step S224, S225, or S226 to step S227.

ステップS227では、「パターン・カウント」がゼロであるか否かを判断する。「パターン・カウント」がゼロであるとは、現在のフィールドが、フィルム画像から得られたものではないことを意味するので、このような場合には(ステップS227で「=0」)、インターレス/プログレッシブ変換処理を行い、これにより得られた画像を表示する(ステップS231)。インターレス/プログレッシブ変換処理のためには、実施形態1乃至4を利用する。   In step S227, it is determined whether or not the “pattern count” is zero. “Pattern count” being zero means that the current field is not obtained from a film image. In such a case (“= 0” in step S227), the interlace / Progressive conversion processing is performed, and the resulting image is displayed (step S231). For the interlace / progressive conversion processing, Embodiments 1 to 4 are used.

「パターン・カウント」がゼロでない場合には(ステップS227で「≠0」)、「パターン・カウント」を1だけ減少させる(ステップS228)。これにより、フィルム画像から得られたフィールドが連続している場合に、各フィールド毎に「パターン・カウント」が1だけ減少するようになる。   If the “pattern count” is not zero (“≠ 0” in step S227), the “pattern count” is decreased by 1 (step S228). As a result, when the fields obtained from the film image are continuous, the “pattern count” is decreased by 1 for each field.

次に、「24fps可能性」が5以上であるか否かを判断する(ステップS229)。   Next, it is determined whether or not the “24 fps possibility” is 5 or more (step S229).

「24fps可能性」が5未満である場合には(ステップS229で「<5」)、「パターン・カウント」がゼロではなくても、現在のフィールドがフィルム画像から得られたものではない可能性が高いので、インターレス/プログレッシブ変換処理を行い、これにより得られた画像を表示する(ステップS231)。   If the “24 fps possibility” is less than 5 (“<5” in step S229), the current field may not have been obtained from a film image even if the “pattern count” is not zero. Is high, interlace / progressive conversion processing is performed, and an image obtained thereby is displayed (step S231).

「24fps可能性」が5以上である場合には(ステップS229で「>=5」)、「パターン・カウント」が2又は0であるか否かを判断する(ステップS230)。   If “24 fps possibility” is 5 or more (“> = 5” in step S229), it is determined whether “pattern count” is 2 or 0 (step S230).

「パターン・カウント」が2又は0である場合には、2フィールド前の画像データと現在のフィールドの画像データが同一であると判断されたフィールドから2フィールド後又は4フィールド後のフィールドを現在扱っていることを意味する。このようなフィールドは、重複したフィールドを除いて考えると、フィルム画像から得られた2つのフィールドのうちの後半部のフィールドである。従って、このような場合には(ステップS230で「=2または=0」)、1つ前のフィールドと現在のフィールドを合わせてフレームを作成し、このフレームを表示する(ステップS232)。1つ前のフィールドと現在のフィールドを合わせてフレームを作成するためには、インターレス/プログレッシブ変換処理装置において、現在のフレームの全ての領域が静止画領域であるとして扱った上で処理を行えばよい。   When the “pattern count” is 2 or 0, the field after 2 fields or 4 fields from the field in which the image data of 2 fields before and the image data of the current field are determined to be the same is currently handled. Means that Such a field is the latter half of the two fields obtained from the film image, except for duplicate fields. Therefore, in such a case (“= 2 or = 0” in step S230), a frame is created by combining the previous field and the current field, and this frame is displayed (step S232). In order to create a frame by combining the previous field and the current field, the interlace / progressive conversion processing apparatus performs processing after treating all areas of the current frame as still image areas. Just do it.

「パターン・カウント」が2でも0でもない場合には、最後のフレームの画像データをそのまま再度表示する(ステップS233)。   If the “pattern count” is neither 2 nor 0, the image data of the last frame is displayed again as it is (step S233).

ステップS227で「=0」である場合、及びステップS229で「<5」である場合には、インターレス/プログレッシブ変換処理を行い、その結果得られるフレームを表示する(ステップS231)。   If “= 0” in step S227 and “<5” in step S229, interlace / progressive conversion processing is performed and the resulting frame is displayed (step S231).

ステップS221での判断ミスが全くない場合の動作を図13及び図14に示す。また、図13及び図14に示す処理を行った後にステップS221での第1種の判断ミスが1回生じた場合の動作を図15に示す。更に、図13及び図14に示す処理を行った後にステップS221で第2種の判断ミスが3回生じた場合の動作を図16に示す。図15及び図16に示すように、ステップS221で判断ミスが生じた場合であっても、正しい処理が最終的に選択されることが分かる。   The operation when there is no determination error in step S221 is shown in FIGS. FIG. 15 shows the operation when the first type determination error in step S221 occurs once after the processing shown in FIGS. 13 and 14 is performed. Further, FIG. 16 shows an operation when the second type determination error occurs three times in step S221 after the processing shown in FIGS. 13 and 14 is performed. As shown in FIGS. 15 and 16, it can be seen that the correct process is finally selected even if a determination error occurs in step S221.

なお、図12に示す表示方法は、ハードウェアによって実現することもできるが、コンピュータを図12に示す表示方法を行わせるためのプログラムをコンピュータが読み込んで実行することによっても実現することができる。   The display method shown in FIG. 12 can be realized by hardware, but can also be realized by the computer reading and executing a program for causing the computer to perform the display method shown in FIG.

101−1〜101−3 フィールド・メモリ
103 画像データ書込部
105 動画補間画素生成部
107 静止画補間画素生成部
109 差分計算部
111 差分補正部
113 補正値保持部
115 差分累積部
117 累積動き量メモリ
119 しきい値保持部
121 動き量計算部
123 合成補間画素生成部
125 選択部
101-1 to 101-3 Field memory 103 Image data writing unit 105 Moving image interpolation pixel generation unit 107 Still image interpolation pixel generation unit 109 Difference calculation unit 111 Difference correction unit 113 Correction value holding unit 115 Difference accumulation unit 117 Accumulated motion amount Memory 119 Threshold value holding unit 121 Motion amount calculation unit 123 Synthetic interpolation pixel generation unit 125 Selection unit

Claims (7)

交互に相補的に書込みフレーム・メモリ及び表示フレーム・メモリとなる2つのフレーム・メモリを用い、
タイミング制御部が、書込部に対し、書込み要求を出力するステップと、
前記書込部が、現在書込みフレーム・メモリに、読出部によりまだ読み出されていない画像データが残っている場合には、読出部による画像データの表示フレーム・メモリからの読出しが終了した時に、前記タイミング制御部に対し、前記書込み要求に対する肯定応答を返し、現在書込みフレーム・メモリに、読出部によりまだ読み出されていない画像データが残っていない場合には、書込み要求を入力してから遅滞なく、前記タイミング制御部に対し、前記書込要求に対する肯定応答を返すステップと、
前記タイミング制御部が、前記肯定応答を前記書込部から入力した時から、画像処理部は、画像処理を行い、書込部は、該画像処理により得られた画像データを書込みフレーム・メモリに書き込むステップと、
前記タイミング制御部が、前記画像処理及び書込みが終了した時刻を参照時刻と比較し、該比較の結果により、間隔パラメータを更新するステップと、
前記タイミング制御部が、前記参照時刻に前記間隔パラメータを加算した時刻を次回の参照時刻とするステップと、
前記タイミング制御部が、前回、書込部に対し、書込み要求を出力した時刻から、前記間隔パラメータを加算した時刻において、再度、書込部に対し、書込み要求を出力するステップとし、上記の動作を繰り返すステップと、
を備えることを特徴とするレンダリング方法。
Using two frame memories that are alternately and complementarily a write frame memory and a display frame memory,
A timing control unit outputting a write request to the writing unit;
In the case where image data that has not yet been read by the reading unit remains in the current writing frame memory, the writing unit has finished reading image data from the display frame memory by the reading unit, When the timing control unit returns an affirmative response to the write request and there is no image data that has not yet been read out by the reading unit in the current write frame memory, a delay occurs after the write request is input. And returning a positive response to the write request to the timing control unit,
When the timing control unit inputs the acknowledgment from the writing unit, the image processing unit performs image processing, and the writing unit stores the image data obtained by the image processing in a writing frame memory. Writing step;
The timing control unit compares a time when the image processing and writing are completed with a reference time, and updates an interval parameter according to a result of the comparison;
The timing control unit sets a time obtained by adding the interval parameter to the reference time as a next reference time;
The timing control unit outputs the write request to the writing unit again at the time when the interval parameter is added from the time when the write request was previously output to the writing unit, and the above operation Repeating steps,
A rendering method comprising:
請求項1に記載のレンダリング方法において、前記画像処理は、インターレス/プログレッシブ変換処理であることを特徴とするレンダリング方法。   The rendering method according to claim 1, wherein the image processing is an interless / progressive conversion processing. 請求項2に記載のレンダリング方法において、
前記インターレス/プログレッシブ変換処理は、
インターレス画像データをプログレッシブ画像データに変換する方法において、
対象となっているフィールドの補間をするべき画素について第1の動き量を算出するステップと、
対象となっているフィールドと隣接するフィールドの画素のうちの、前記対象となっているフィールドの補間をするべき画素から垂直方向に離れた画素について第2の動き量を算出するステップと、
前記第1の動き量を基に、第1の累積動き量を算出するステップと、
前記第2の動き量を基に、第2の累積動き量を算出するステップと、
前記第1の累積動き量と前記第2の累積動き量を基に、第3の動き量を算出するステップと、
前記第3の動き量を基に、対象となっているフィールドの補間をするべき画素の値を算出するステップと、
を備えることを特徴とするレンダリング方法。
The rendering method according to claim 2, wherein
The interlace / progressive conversion process is:
In a method for converting interlaced image data into progressive image data,
Calculating a first amount of motion for a pixel to be interpolated for the field of interest;
Calculating a second amount of motion for pixels in the vertical direction from pixels to be interpolated in the target field among the pixels of the field adjacent to the target field;
Calculating a first cumulative motion amount based on the first motion amount;
Calculating a second cumulative motion amount based on the second motion amount;
Calculating a third motion amount based on the first cumulative motion amount and the second cumulative motion amount;
Calculating a value of a pixel to be interpolated based on the third amount of motion;
A rendering method comprising:
請求項1に記載のレンダリング方法において、
前記画像処理及び書込みが終了した時刻を参照時刻と比較し、該比較の結果により、間隔パラメータを更新するステップは、
前記参照時刻が前記書込みが終了した時刻よりも所定値以上早い場合には、間隔パラメータを増加させるステップと、
前記参照時間が前記書込が終了した時刻よりも所定値以上遅い場合には、間隔パラメータを減少させるステップと、
その他の場合には、間隔パラメータを変化させないステップと、
を備えることを特徴とするレンダリング方法。
The rendering method according to claim 1, wherein
Comparing the time when the image processing and writing are completed with a reference time, and updating the interval parameter according to the result of the comparison,
If the reference time is a predetermined value or more earlier than the time when the writing is completed, increasing the interval parameter;
If the reference time is a predetermined value or more later than the time when the writing is completed, decreasing the interval parameter;
Otherwise, a step that does not change the spacing parameter;
A rendering method comprising:
請求項1に記載のレンダリング方法において、
前記参照時刻が、次回に前記画像処理の対象となる画像データをバッファ・メモリに書き込んだ時刻よりも所定時間以上遅い場合には、前記バッファ・メモリに書き込まれている画像データを廃棄するステップを更に備えることを特徴とするレンダリング方法。
The rendering method according to claim 1, wherein
A step of discarding the image data written in the buffer memory if the reference time is later than the time when the image data to be processed next is written in the buffer memory by a predetermined time or more; A rendering method, further comprising:
交互に相補的に書込みフレーム・メモリ及び表示フレーム・メモリとなる2つのフレーム・メモリと、
タイミング制御部が、書込部に対し、書込み要求を出力する手段と、
前記書込部が、現在書込みフレーム・メモリに、読出部によりまだ読み出されていない画像データが残っている場合には、読出部による画像データの表示フレーム・メモリからの読出しが終了した時に、前記タイミング制御部に対し、前記書込み要求に対する肯定応答を返し、現在書込みフレーム・メモリに、読出部によりまだ読み出されていない画像データが残っていない場合には、書込み要求を入力してから遅滞なく、前記タイミング制御部に対し、前記書込要求に対する肯定応答を返す手段と、
前記タイミング制御部が、前記肯定応答を前記書込部から入力した時から、画像処理部は、画像処理を行い、書込部は、該画像処理により得られた画像データを書込みフレーム・メモリに書き込む手段と、
前記タイミング制御部が、前記画像処理及び書込みが終了した時刻を参照時刻と比較し、該比較の結果により、間隔パラメータを更新する手段と、
前記タイミング制御部が、前記参照時刻に前記間隔パラメータを加算した時刻を次回の参照時刻とする手段と、
前記タイミング制御部が、前回、書込部に対し、書込み要求を出力した時刻から、前記間隔パラメータを加算した時刻において、再度、書込部に対し、書込み要求を出力する手段とし、上記の動作を繰り返す手段と、
を備えることを特徴とするレンダリング装置。
Two frame memories alternately and complementarily as a write frame memory and a display frame memory;
Means for outputting a write request to the writing unit by the timing control unit;
In the case where image data that has not yet been read by the reading unit remains in the current writing frame memory, the writing unit has finished reading image data from the display frame memory by the reading unit, When the timing control unit returns an affirmative response to the write request and there is no image data that has not yet been read out by the reading unit in the current write frame memory, a delay occurs after the write request is input. And means for returning an affirmative response to the write request to the timing control unit,
When the timing control unit inputs the acknowledgment from the writing unit, the image processing unit performs image processing, and the writing unit stores the image data obtained by the image processing in a writing frame memory. Means for writing;
Means for comparing the time when the image processing and writing are completed with a reference time, and updating an interval parameter according to a result of the comparison;
Means for setting the timing control unit as a next reference time a time obtained by adding the interval parameter to the reference time;
The timing control unit is configured to output the write request to the writing unit again at the time when the interval parameter is added from the time when the write request was previously output to the writing unit. Means to repeat,
A rendering device comprising:
交互に相補的に書込みフレーム・メモリ及び表示フレーム・メモリとなる2つのフレーム・メモリと、
タイミング制御部が、書込部に対し、書込み要求を出力する手段と、
前記書込部が、現在書込みフレーム・メモリに、読出部によりまだ読み出されていない画像データが残っている場合には、読出部による画像データの表示フレーム・メモリからの読出しが終了した時に、前記タイミング制御部に対し、前記書込み要求に対する肯定応答を返し、現在書込みフレーム・メモリに、読出部によりまだ読み出されていない画像データが残っていない場合には、書込み要求を入力してから遅滞なく、前記タイミング制御部に対し、前記書込要求に対する肯定応答を返す手段と、
前記タイミング制御部が、前記肯定応答を前記書込部から入力した時から、画像処理部は、画像処理を行い、書込部は、該画像処理により得られた画像データを書込みフレーム・メモリに書き込む手段と、
前記タイミング制御部が、前記画像処理及び書込みが終了した時刻を参照時刻と比較し、該比較の結果により、間隔パラメータを更新する手段と、
前記タイミング制御部が、前記参照時刻に前記間隔パラメータを加算した時刻を次回の参照時刻とする手段と、
前記タイミング制御部が、前回、書込部に対し、書込み要求を出力した時刻から、前記間隔パラメータを加算した時刻において、再度、書込部に対し、書込み要求を出力する手段とし、上記の動作を繰り返す手段と、
を備えることを特徴とするレンダリング装置としてコンピュータを機能させるためのプログラム。
Two frame memories alternately and complementarily as a write frame memory and a display frame memory;
Means for outputting a write request to the writing unit by the timing control unit;
In the case where image data that has not yet been read by the reading unit remains in the current writing frame memory, the writing unit has finished reading image data from the display frame memory by the reading unit, When the timing control unit returns an affirmative response to the write request and there is no image data that has not yet been read out by the reading unit in the current write frame memory, a delay occurs after the write request is input. And means for returning an affirmative response to the write request to the timing control unit,
When the timing control unit inputs the acknowledgment from the writing unit, the image processing unit performs image processing, and the writing unit stores the image data obtained by the image processing in a writing frame memory. Means for writing;
Means for comparing the time when the image processing and writing are completed with a reference time, and updating an interval parameter according to a result of the comparison;
Means for setting the timing control unit as a next reference time a time obtained by adding the interval parameter to the reference time;
The timing control unit is configured to output the write request to the writing unit again at the time when the interval parameter is added from the time when the write request was previously output to the writing unit. Means to repeat,
A program for causing a computer to function as a rendering device.
JP2010265737A 2010-11-29 2010-11-29 Rendering method and rendering apparatus Expired - Fee Related JP5051673B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010265737A JP5051673B2 (en) 2010-11-29 2010-11-29 Rendering method and rendering apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010265737A JP5051673B2 (en) 2010-11-29 2010-11-29 Rendering method and rendering apparatus

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2005049023A Division JP4708811B2 (en) 2005-02-24 2005-02-24 Method for converting interlaced image data into progressive image data, apparatus therefor and program therefor

Publications (2)

Publication Number Publication Date
JP2011045147A true JP2011045147A (en) 2011-03-03
JP5051673B2 JP5051673B2 (en) 2012-10-17

Family

ID=43832149

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010265737A Expired - Fee Related JP5051673B2 (en) 2010-11-29 2010-11-29 Rendering method and rendering apparatus

Country Status (1)

Country Link
JP (1) JP5051673B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6065681A (en) * 1983-09-21 1985-04-15 Nec Home Electronics Ltd Dynamic information detecting system of picture
JPS63205778A (en) * 1987-02-20 1988-08-25 Sumitomo Electric Ind Ltd Video signal digitizing circuit
JPH06139133A (en) * 1992-10-27 1994-05-20 Sony Corp Input/output device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6065681A (en) * 1983-09-21 1985-04-15 Nec Home Electronics Ltd Dynamic information detecting system of picture
JPS63205778A (en) * 1987-02-20 1988-08-25 Sumitomo Electric Ind Ltd Video signal digitizing circuit
JPH06139133A (en) * 1992-10-27 1994-05-20 Sony Corp Input/output device

Also Published As

Publication number Publication date
JP5051673B2 (en) 2012-10-17

Similar Documents

Publication Publication Date Title
JP5039192B2 (en) Spatio-temporal adaptive video deinterlacing
CN103369208A (en) Self-adaptive de-interlacing method and device
US8411974B2 (en) Image processing apparatus, method, and program for detecting still-zone area
JP2004007696A (en) Method and system for edge adaptive interpolation for interlace-progressive transformation
US9215353B2 (en) Image processing device, image processing method, image display device, and image display method
US8385430B2 (en) Video signal processing apparatus and video signal processing method
JP5049882B2 (en) Interpolation frame creation device, interpolation frame creation method, and broadcast reception device
JP5241632B2 (en) Image processing circuit and image processing method
JP5051673B2 (en) Rendering method and rendering apparatus
JP5124008B2 (en) Image display method, image display apparatus, and program
JP4708811B2 (en) Method for converting interlaced image data into progressive image data, apparatus therefor and program therefor
JP4339237B2 (en) Sequential scan converter
JP4463171B2 (en) Autocorrelation value calculation method, interpolation pixel generation method, apparatus thereof, and program thereof
JP4505000B2 (en) Image display apparatus and method, image processing apparatus and method
JP4492100B2 (en) Image signal processing apparatus and processing method
JP2003289511A (en) Image scan converting method and apparatus
JP5123643B2 (en) Video processing device
JP5018198B2 (en) Interpolation signal generation circuit, interpolation signal generation method, program, and video signal processing apparatus
JP2009124261A5 (en)
JP2007082096A (en) Frame frequency conversion method, frame frequency conversion apparatus, and frame frequency conversion program
JP2007235300A (en) Video processing apparatus, and video processing method
EP1841205A1 (en) Motion detection in an interlaced field sequence
JP6117484B2 (en) IP conversion video processing method by clip processing, its program, and its video processing apparatus
JP2008263399A (en) Interpolation signal generating circuit, interpolation signal generating method, program, and video signal processor
JP2013074384A (en) Image processing apparatus and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101213

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20110706

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20110831

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120705

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120717

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120717

R150 Certificate of patent or registration of utility model

Ref document number: 5051673

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150803

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees