JP2011216967A - Image processor and method, and program - Google Patents

Image processor and method, and program Download PDF

Info

Publication number
JP2011216967A
JP2011216967A JP2010080522A JP2010080522A JP2011216967A JP 2011216967 A JP2011216967 A JP 2011216967A JP 2010080522 A JP2010080522 A JP 2010080522A JP 2010080522 A JP2010080522 A JP 2010080522A JP 2011216967 A JP2011216967 A JP 2011216967A
Authority
JP
Japan
Prior art keywords
image
pixel
motion vector
motion
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2010080522A
Other languages
Japanese (ja)
Inventor
Takashi Miyai
岳志 宮井
Masashi Uchida
真史 内田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2010080522A priority Critical patent/JP2011216967A/en
Publication of JP2011216967A publication Critical patent/JP2011216967A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Television Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To suppress image quality degradation when performing IP conversion and scaling processing.SOLUTION: An IP conversion scaling part 121 IP converts input interlaced SD images to progressive SD images based on a specified method, and then converts the SD images to HD middle images. Based on a motion vector V, an MC block differential value BD and the positional relationship L between input image pixels and middle image pixels, a cyclic coefficient setting part 133 sets a cyclic coefficient K for every pixel. A product sum operation part 135 composites the middle image and a motion compensation image at a rate that is indicated by the cyclic coefficient K, and generates output images that are progressive HD images. This method can apply to image converters which perform IP conversion and scaling processing.

Description

本発明は、画像処理装置および方法、並びにプログラムに関し、特に、IP変換およびスケーリング処理を行う際の画質の低減を抑制することができるようにした画像処理装置および方法、並びにプログラムに関する。   The present invention relates to an image processing apparatus, method, and program, and more particularly, to an image processing apparatus, method, and program that can suppress a reduction in image quality when performing IP conversion and scaling processing.

垂直方向に動く被写体を撮影したり、撮影装置を垂直方向に動かして撮影した場合、インターレース方式の画像(以下、インターレース画像とも称する)においては、垂直方向の帯域制限が不十分なため、垂直方向の折り返し歪み(以下、垂直折り返し歪みと称する)が発生し、水平方向の線の太さが変動したり、エッジの強さが変動したりする現象が発生する。また、垂直折り返し歪みは、インターレース方式の画像をプログレッシブ方式の画像(以下、プログレッシブ画像とも称する)に変換(以下、IP変換と称する)した場合、さらに目立って見える特徴がある。   When shooting a subject moving in the vertical direction or shooting with the shooting device moved in the vertical direction, the interlaced image (hereinafter also referred to as an interlaced image) has insufficient bandwidth in the vertical direction. Aliasing distortion (hereinafter, referred to as vertical aliasing distortion) occurs, and a phenomenon occurs in which the thickness of the line in the horizontal direction varies and the strength of the edge varies. Further, the vertical aliasing distortion has a feature that is more conspicuous when an interlaced image is converted into a progressive image (hereinafter also referred to as a progressive image) (hereinafter referred to as IP conversion).

ところで、IP変換の後に、画像サイズを変換するスケーリング処理を行う場合がある(例えば特許文献1および特許文献2参照)。   By the way, there is a case where scaling processing for converting the image size is performed after the IP conversion (see, for example, Patent Document 1 and Patent Document 2).

特許文献1に記載の方法では、図1に示されるように、例えば720×480のインターレース画像がIP変換処理によりプログレッシブ画像(720×480p)に変換され、さらに、超解像スケーリング処理されて1440×960pの画像に変換される。   In the method described in Patent Document 1, as shown in FIG. 1, for example, a 720 × 480 interlaced image is converted into a progressive image (720 × 480p) by IP conversion processing, and is further subjected to super-resolution scaling processing 1440. It is converted into a × 960p image.

特許文献2に記載の方法では、図2に示されるように、例えば720×480のインターレース画像が仮のIP変換処理によりプログレッシブ画像(720×480p)に変換される。その後、巡回型処理により、動きベクトルにより動き補償した過去の出力を巡回係数で入力足し込みが行われ、垂直折り返し歪みやノイズが除去される。そして、スケーリング処理されて1440×960pの画像に変換される。   In the method described in Patent Document 2, as shown in FIG. 2, for example, a 720 × 480 interlaced image is converted into a progressive image (720 × 480p) by a temporary IP conversion process. Thereafter, the past output subjected to motion compensation by the motion vector is added by the cyclic coefficient by cyclic processing, and vertical aliasing distortion and noise are removed. Then, it is scaled and converted into an image of 1440 × 960p.

特開2008−252701号公報JP 2008-252701 A 特開2007−251686号公報JP 2007-251686 A

しかしながら、特許文献1に記載の方法の場合、スケーリング処理がIP変換結果に対して行われるので、入力画像の動き量を利用する事ができず、スケーリング処理による画質の低減を抑制することができない恐れがあった。また、超解像アルゴリズムの場合、反復法を用いるので繰り返し演算が必要であった。そのため、処理の負荷が増大したり、遅延時間が増大したりする恐れがあった。そのため、入力画像を変換しながら出力するといった即時的な処理に不向きであった。   However, in the case of the method described in Patent Document 1, since the scaling process is performed on the IP conversion result, the amount of motion of the input image cannot be used, and the reduction in image quality due to the scaling process cannot be suppressed. There was a fear. In the case of the super-resolution algorithm, iterative calculation is necessary because it uses an iterative method. As a result, the processing load may increase or the delay time may increase. Therefore, it is not suitable for immediate processing such as outputting an input image while converting it.

また、引用文献2に記載の方法の場合、入力の動き情報を使った良好なIP変換を行うことができるものの、スケーリング処理では、入力の動き情報が使われないため、スケーリング処理による画質の低減を抑制することができない恐れがあった。   In the case of the method described in the cited document 2, although good IP conversion using input motion information can be performed, since the input motion information is not used in the scaling process, the image quality is reduced by the scaling process. There was a fear that it could not be suppressed.

本発明は上述したような実情に鑑みて提案されたものであり、入力画像の動き情報を用いて、IP変換およびスケーリング処理を行う際の画質の低減を抑制することを目的とするものである。   The present invention has been proposed in view of the above-described circumstances, and an object thereof is to suppress a reduction in image quality when performing IP conversion and scaling processing using motion information of an input image. .

本発明の一側面は、インターレース方式の入力画像を、スケーリングされたプログレッシブ方式の出力画像に変換する画像処理装置において、前記入力画像をプログレッシブ方式の画像に変換し、さらに画像サイズを変換することにより、スケーリングされたプログレッシブ方式の中間画像に変換するIP変換スケーリング手段と、前記入力画像の画素の間隔より短い距離を最小単位とする前記入力画像の動きベクトルを検出する動きベクトル検出手段と、前記動きベクトル検出手段により検出された前記動きベクトル、並びに、前記入力画像の画素と、前記IP変換スケーリング手段により前記入力画像が変換された前記中間画像の画素との位置関係に基づいて、画素毎に巡回係数を設定する巡回係数設定手段と、前記動きベクトル検出手段により検出された前記動きベクトルに基づいて、過去の前記出力画像に対して動き補償を施した画像である動き補償画像を生成する動き補償手段と、前記IP変換スケーリング手段により前記入力画像が変換された前記中間画像の画素の画素値と、前記動き補償手段により生成された前記動き補償画像の対応する位置にある画素の画素値とを、前記巡回係数設定手段により設定された前記巡回係数を用いて重み付け加算することにより前記出力画像を生成する出力画像生成手段とを備える画像処理装置である。   One aspect of the present invention is an image processing apparatus that converts an interlaced input image into a scaled progressive output image by converting the input image into a progressive image and further converting the image size. An IP conversion scaling means for converting to a scaled progressive intermediate image, a motion vector detecting means for detecting a motion vector of the input image having a distance shorter than an interval between pixels of the input image as a minimum unit, and the motion Based on the motion vector detected by the vector detection unit, and the positional relationship between the pixel of the input image and the pixel of the intermediate image obtained by converting the input image by the IP conversion scaling unit, a cycle is performed for each pixel. A cyclic coefficient setting means for setting a coefficient and the motion vector detecting means. On the basis of the detected motion vector, the input image is converted by a motion compensation unit that generates a motion compensated image, which is an image obtained by performing motion compensation on the past output image, and the IP conversion scaling unit. Further, the pixel value of the pixel of the intermediate image and the pixel value of the pixel at the corresponding position of the motion compensated image generated by the motion compensation unit are used by the cyclic coefficient set by the cyclic coefficient setting unit. And an output image generation means for generating the output image by weighted addition.

前記巡回係数設定手段は、前記中間画像の現在のフレームにおいて、注目画素と、前記注目画像に最も近い入力画像の画素との距離が近いほど、前記巡回係数の値を小さく設定することができる。   The cyclic coefficient setting means can set the value of the cyclic coefficient to be smaller as the distance between the target pixel and the pixel of the input image closest to the target image is shorter in the current frame of the intermediate image.

前記巡回係数設定手段は、前記中間画像の過去のフレームにおいて、前記注目画素から前記動きベクトル分移動した位置と、前記位置に最も近い入力画像の画素との距離が近いほど、前記巡回係数の値を大きく設定することができる。   The cyclic coefficient setting means determines the value of the cyclic coefficient as the distance between the position moved by the motion vector from the pixel of interest and the pixel of the input image closest to the position is shorter in the past frame of the intermediate image. Can be set large.

前記動きベクトルの信頼度を検出する信頼度検出手段と、前記動きベクトルの信頼度に基づいて、前記巡回係数を補正する補正手段とをさらに備えることができる。   The apparatus may further include reliability detection means for detecting the reliability of the motion vector and correction means for correcting the cyclic coefficient based on the reliability of the motion vector.

前記信頼度検出手段は、前記動きベクトルの信頼度として、それぞれの前記動きベクトルについて、周辺の前記動きベクトルとのばらつきの度合いを示す第1の動き分散を検出し、前記補正手段は、前記第1の動き分散が大きいほど、前記巡回係数を小さくするように補正することができる。   The reliability detection means detects, as the reliability of the motion vector, a first motion variance indicating a degree of variation of each motion vector from the surrounding motion vectors, and the correction means The larger the motion variance of 1, the smaller the cyclic coefficient can be corrected.

前記信頼度検出手段は、さらに、前記動きベクトルの信頼度として、それぞれの前記動きベクトルについて、その前記動きベクトルに対応する画素を前記動きベクトルで示される方向および距離だけ移動した位置の周辺における1フレーム前の動きベクトルとのばらつきの度合いを示す第2の動き分散を検出し、前記補正手段は、さらに、前記第2の動き分散が大きいほど、前記巡回係数を小さくするように補正することができる。   The reliability detection means further determines, as the reliability of the motion vector, 1 for each of the motion vectors around the position where the pixel corresponding to the motion vector is moved by the direction and distance indicated by the motion vector. The second motion variance indicating the degree of variation with the motion vector before the frame is detected, and the correction means further corrects the cyclic coefficient so as to decrease as the second motion variance increases. it can.

前記動きベクトル検出手段は、所定の大きさのブロックごとに前記動きベクトルを検出し、前記信頼度検出手段は、前記入力画像の前記ブロック内の画素値と、前記ブロックを前記動きベクトルで示される方向および距離だけ移動させた前記過去の出力画像のブロック内の画素値との差分値を検出し、前記補正手段は、前記差分値が大きいほど、前記巡回係数を小さくするように補正することができる。   The motion vector detection means detects the motion vector for each block of a predetermined size, and the reliability detection means indicates a pixel value in the block of the input image and the block by the motion vector. A difference value with a pixel value in a block of the past output image moved by a direction and a distance may be detected, and the correction unit may correct the cyclic coefficient so as to decrease as the difference value increases. it can.

前記出力画像生成手段は、前記巡回係数が大きいほど前記出力画像における前記動き補償画像の割合を多くし、前記巡回係数が小さいほど前記出力画像における前記中間画像の割合を多くすることができる。   The output image generation means can increase the ratio of the motion compensated image in the output image as the cyclic coefficient increases, and increase the ratio of the intermediate image in the output image as the cyclic coefficient decreases.

本発明の一側面は、また、インターレース方式の入力画像を、スケーリングされたプログレッシブ方式の出力画像に変換する画像処理装置の画像処理方法であって、前記画像処理装置のIP変換スケーリング手段が、前記入力画像をプログレッシブ方式の画像に変換し、さらに画像サイズを変換することにより、スケーリングされたプログレッシブ方式の中間画像に変換し、前記画像処理装置の動きベクトル検出手段が、前記入力画像の画素の間隔より短い距離を最小単位とする前記入力画像の動きベクトルを検出し、前記画像処理装置の巡回係数設定手段が、検出された前記動きベクトル、並びに、前記入力画像の画素と、前記入力画像が変換された前記中間画像の画素との位置関係に基づいて、画素毎に巡回係数を設定し、前記画像処理装置の動き補償手段が、検出された前記動きベクトルに基づいて、過去の前記出力画像に対して動き補償を施した画像である動き補償画像を生成し、前記画像処理装置の出力画像生成手段が、前記入力画像が変換された前記中間画像の画素の画素値と、生成された前記動き補償画像の対応する位置にある画素の画素値とを、設定された前記巡回係数を用いて重み付け加算することにより前記出力画像を生成する画像処理方法である。   One aspect of the present invention is also an image processing method of an image processing apparatus that converts an interlaced input image into a scaled progressive output image, wherein the IP conversion scaling unit of the image processing apparatus includes The input image is converted into a progressive image, and further converted into a scaled intermediate image by converting the image size, and the motion vector detecting means of the image processing device detects the pixel interval of the input image. A motion vector of the input image having a shorter distance as a minimum unit is detected, and a cyclic coefficient setting unit of the image processing apparatus converts the detected motion vector, the pixel of the input image, and the input image. A cyclic coefficient is set for each pixel based on the positional relationship with the pixels of the intermediate image, and the image processing device Based on the detected motion vector, generates a motion compensated image that is a motion compensated image of the past output image, and the output image generating means of the image processing device includes: Weighting and adding the pixel value of the pixel of the intermediate image converted from the input image and the pixel value of the pixel at the corresponding position of the generated motion compensated image using the set cyclic coefficient This is an image processing method for generating the output image.

本発明の一側面は、さらに、インターレース方式の入力画像を、スケーリングされたプログレッシブ方式の出力画像に変換するコンピュータを、前記入力画像をプログレッシブ方式の画像に変換し、さらに画像サイズを変換することにより、スケーリングされたプログレッシブ方式の中間画像に変換するIP変換スケーリング手段と、前記入力画像の画素の間隔より短い距離を最小単位とする前記入力画像の動きベクトルを検出する動きベクトル検出手段と、前記動きベクトル検出手段により検出された前記動きベクトル、並びに、前記入力画像の画素と、前記IP変換スケーリング手段により前記入力画像が変換された前記中間画像の画素との位置関係に基づいて、画素毎に巡回係数を設定する巡回係数設定手段と、前記動きベクトル検出手段により検出された前記動きベクトルに基づいて、過去の前記出力画像に対して動き補償を施した画像である動き補償画像を生成する動き補償手段と、前記IP変換スケーリング手段により前記入力画像が変換された前記中間画像の画素の画素値と、前記動き補償手段により生成された前記動き補償画像の対応する位置にある画素の画素値とを、前記巡回係数設定手段により設定された前記巡回係数を用いて重み付け加算することにより前記出力画像を生成する出力画像生成手段として機能させるプログラムである。   According to an aspect of the present invention, a computer that converts an interlaced input image into a scaled progressive output image is further converted into a progressive image, and the image size is further converted. An IP conversion scaling means for converting to a scaled progressive intermediate image, a motion vector detecting means for detecting a motion vector of the input image having a distance shorter than an interval between pixels of the input image as a minimum unit, and the motion Based on the motion vector detected by the vector detection unit, and the positional relationship between the pixel of the input image and the pixel of the intermediate image obtained by converting the input image by the IP conversion scaling unit, a cycle is performed for each pixel. A cyclic coefficient setting means for setting a coefficient and the motion vector detecting means; Based on the detected motion vector, the input image is converted by a motion compensation unit that generates a motion compensated image that is an image obtained by performing motion compensation on the past output image, and the IP conversion scaling unit. Further, the pixel value of the pixel of the intermediate image and the pixel value of the pixel at the corresponding position of the motion compensated image generated by the motion compensation unit are used by the cyclic coefficient set by the cyclic coefficient setting unit. This is a program that functions as output image generation means for generating the output image by weighted addition.

本発明の一側面においては、入力画像がプログレッシブ方式の画像に変換され、さらにその画像サイズが変換されることにより、スケーリングされたプログレッシブ方式の中間画像に変換され、入力画像の画素の間隔より短い距離を最小単位とする入力画像の動きベクトルが検出され、検出された動きベクトル、並びに、入力画像の画素と、入力画像が変換された中間画像の画素との位置関係に基づいて、画素毎に巡回係数が設定され、検出された動きベクトルに基づいて、過去の出力画像に対して動き補償を施した画像である動き補償画像が生成され、入力画像が変換された中間画像の画素の画素値と、生成された動き補償画像の対応する位置にある画素の画素値とが、設定された巡回係数を用いて重み付け加算されることにより出力画像が生成される。   In one aspect of the present invention, an input image is converted into a progressive image, and the image size is converted into a scaled progressive intermediate image, which is shorter than the pixel interval of the input image. The motion vector of the input image having the minimum unit of distance is detected, and the detected motion vector and the positional relationship between the pixel of the input image and the pixel of the intermediate image obtained by converting the input image are determined for each pixel. Based on the detected motion vector, a cyclic coefficient is set, a motion compensated image that is a motion compensated image for the past output image is generated, and the pixel value of the pixel of the intermediate image obtained by converting the input image And the pixel value of the pixel at the corresponding position of the generated motion compensated image is weighted and added using the set cyclic coefficient to output an image It is generated.

本発明によれば、画像を処理することができる。特に、IP変換およびスケーリング処理を行う際の画質の低減を抑制することができる。   According to the present invention, an image can be processed. In particular, it is possible to suppress a reduction in image quality when performing IP conversion and scaling processing.

従来のIP変換およびスケーリングの方法を説明する図である。It is a figure explaining the method of the conventional IP conversion and scaling. 従来のIP変換およびスケーリングの方法を説明する図である。It is a figure explaining the method of the conventional IP conversion and scaling. 本発明を適用した画像変換装置の主な構成例を示すブロック図である。It is a block diagram which shows the main structural examples of the image converter to which this invention is applied. 巡回型IP変換スケーリング部の主な構成例を示すブロック図である。It is a block diagram which shows the main structural examples of a cyclic IP conversion scaling part. IP変換スケーリング部の主な構成例を示すブロック図である。It is a block diagram which shows the main structural examples of an IP conversion scaling part. IP変換スケーリング部の他の構成例を示すブロック図である。It is a block diagram which shows the other structural example of an IP conversion scaling part. IP変換スケーリングの様子の例を説明する図である。It is a figure explaining the example of the mode of IP conversion scaling. IP変換スケーリングの様子の例を説明する図である。It is a figure explaining the example of the mode of IP conversion scaling. IP変換スケーリングの様子の例を説明する図である。It is a figure explaining the example of the mode of IP conversion scaling. IP変換スケーリングの様子の例を説明する図である。It is a figure explaining the example of the mode of IP conversion scaling. 動きベクトル検出部の主な構成例を示すブロック図である。It is a block diagram which shows the main structural examples of a motion vector detection part. 巡回係数設定部の主な構成例を示すブロック図である。It is a block diagram which shows the main structural examples of the cyclic coefficient setting part. 画像処理の流れの例を説明するフローチャートである。It is a flowchart explaining the example of the flow of an image process. 巡回型IP変換スケーリング処理の流れの例を説明するフローチャートである。It is a flowchart explaining the example of the flow of cyclic type IP conversion scaling processing. 巡回型変換処理の流れの例を説明するフローチャートである。It is a flowchart explaining the example of the flow of cyclic type conversion processing. MCブロック差分値BDの検出方法を説明するための図である。It is a figure for demonstrating the detection method of MC block difference value BD. MCブロック差分値BDの検出方法を説明するための図である。It is a figure for demonstrating the detection method of MC block difference value BD. 基本巡回係数設定の様子の例を説明する図である。It is a figure explaining the example of the mode of a basic cyclic coefficient setting. 基本巡回係数設定の様子の例を説明する図である。It is a figure explaining the example of the mode of a basic cyclic coefficient setting. 基本巡回係数設定の様子の例を説明する図である。It is a figure explaining the example of the mode of a basic cyclic coefficient setting. 動きベクトルの分布の例を示す図である。It is a figure which shows the example of distribution of a motion vector. 動きベクトルの分布の他の例を示す図である。It is a figure which shows the other example of distribution of a motion vector. 動き分散MD0の算出方法を説明するための図である。It is a figure for demonstrating the calculation method of motion dispersion | distribution MD0. 動き分散MD1の算出方法を説明するための図である。It is a figure for demonstrating the calculation method of motion dispersion | distribution MD1. 動きベクトル検出処理の流れの例を説明するフローチャートである。It is a flowchart explaining the example of the flow of a motion vector detection process. 画素以下精度の動きベクトルを検出する方法を説明するための図である。It is a figure for demonstrating the method to detect the motion vector of pixel precision. 巡回型IP変換スケーリング部の他の構成例を示すブロック図である。It is a block diagram which shows the other structural example of the cyclic | annular IP conversion scaling part. 巡回型IP変換スケーリング部の、さらに他の構成例を示すブロック図である。FIG. 10 is a block diagram illustrating still another configuration example of the cyclic IP conversion scaling unit. 本発明を適用したパーソナルコンピュータの主な構成例を示すブロック図である。It is a block diagram which shows the main structural examples of the personal computer to which this invention is applied.

以下、発明を実施するための形態(以下実施の形態とする)について説明する。なお、説明は以下の順序で行う。
1.第1の実施の形態(画像変換装置)
2.第2の実施の形態(画像変換装置)
3.第3の実施の形態(画像変換装置)
4.第4の実施の形態(パーソナルコンピュータ)
Hereinafter, modes for carrying out the invention (hereinafter referred to as embodiments) will be described. The description will be given in the following order.
1. First embodiment (image conversion apparatus)
2. Second embodiment (image conversion apparatus)
3. Third Embodiment (Image Conversion Device)
4). Fourth embodiment (personal computer)

<1.第1の実施の形態>
[画像変換装置の構成]
図3は、本発明を適用した画像処理装置の主な構成例を示すブロック図である。
<1. First Embodiment>
[Configuration of Image Conversion Device]
FIG. 3 is a block diagram showing a main configuration example of an image processing apparatus to which the present invention is applied.

図3に示される画像変換装置100は、インターレース方式のSD(Standard Definition)画像を、IP変換し、さらにスケーリング処理して、HD(High Definition)画像に変換する装置である。   An image conversion apparatus 100 shown in FIG. 3 is an apparatus that converts an interlaced SD (Standard Definition) image into an IP (High Definition) image by performing IP conversion and further scaling processing.

図3に示されるように、画像変換装置100は、巡回型IP変換スケーリング部111、自然画予測部113、人工画予測部114、自然画人工画判定部115、および、合成部116を有する。   As illustrated in FIG. 3, the image conversion apparatus 100 includes a cyclic IP conversion scaling unit 111, a natural image prediction unit 113, an artificial image prediction unit 114, a natural image / artificial image determination unit 115, and a synthesis unit 116.

巡回型IP変換スケーリング部111は、IP変換及びスケーリング処理を行う処理部であり、入力画像の動き情報を用いて、IP変換およびスケーリング処理を行う際の画質の低減を抑制する。巡回型IP変換スケーリング部111は、IP変換スケーリング部121および巡回型変換部122を有する。   The cyclic IP conversion scaling unit 111 is a processing unit that performs IP conversion and scaling processing, and suppresses reduction in image quality when performing IP conversion and scaling processing using motion information of an input image. The cyclic IP conversion scaling unit 111 includes an IP conversion scaling unit 121 and a cyclic conversion unit 122.

IP変換スケーリング部121は、所定の方法に基づいて、入力されたインターレース方式のSD画像(以下、入力画像とも称する)をプログレッシブ方式のSD画像にIP変換し、さらにそのSD画像をHD画像(以下、中間画像とも称する)に変換する。IP変換スケーリング部121は、変換後のプログレッシブ方式のHD画像を巡回型変換部122に供給する。   Based on a predetermined method, the IP conversion scaling unit 121 IP-converts an input interlaced SD image (hereinafter also referred to as an input image) into a progressive SD image, and further converts the SD image into an HD image (hereinafter referred to as an HD image). , Also referred to as an intermediate image). The IP conversion scaling unit 121 supplies the progressive HD image after conversion to the cyclic conversion unit 122.

巡回型変換部122は、入力画像と、1フレーム前に巡回型変換部122から出力されたプログレッシブ方式のHD画像(以下、出力画像とも称する)から生成したSD画像との間の動きベクトルを求める。   The cyclic conversion unit 122 obtains a motion vector between an input image and an SD image generated from a progressive HD image (hereinafter also referred to as an output image) output from the cyclic conversion unit 122 one frame before. .

巡回型変換部122は、入力画像の画素値と、求めた動きベクトルに基づいて、出力画像に動き補償を施した画像の画素値とを、巡回係数を用いて重み付け加算することにより、中間画像をより高画質のプログレッシブ方式のHD画像である出力画像に変換する。   The cyclic conversion unit 122 weights and adds the pixel value of the input image and the pixel value of the image that has been subjected to motion compensation to the output image based on the obtained motion vector, using the cyclic coefficient. Is converted to an output image that is a progressive HD image with higher image quality.

巡回型変換部122は、出力画像を、自然画予測部113、人工画予測部114、および、自然画人工画判定部115に供給する。なお、巡回係数は、中間画像の各画素について、入力画像と中間画像の画素の位置関係と、動きベクトルの確からしさを表す信頼度確からしさに基づいて設定される。   The cyclic conversion unit 122 supplies the output image to the natural image prediction unit 113, the artificial image prediction unit 114, and the natural image / artificial image determination unit 115. Note that the cyclic coefficient is set for each pixel of the intermediate image based on the positional relationship between the input image and the pixel of the intermediate image and the reliability probability indicating the likelihood of the motion vector.

自然画予測部113は、巡回型変換部122から供給されるHD画像から、そのHD画像のうちの自然画像を高品質にしたHD画像(以下、自然高品画像と称する)を予測する。具体的には、自然画予測部113は、HD画像の特徴に応じて、そのHD画像から求められる自然高品質画像の画素である注目画素を、自然画像の特徴に適したクラスに分類する。   The natural image prediction unit 113 predicts, from the HD image supplied from the cyclic conversion unit 122, an HD image (hereinafter referred to as a natural high-quality image) in which the natural image of the HD image is of high quality. Specifically, the natural image prediction unit 113 classifies the target pixel, which is a pixel of a natural high-quality image obtained from the HD image, into a class suitable for the feature of the natural image according to the feature of the HD image.

そして、自然画予測部113は、そのクラスに対応する、自然高品質画像を予測するための予測係数と、HD画像とを用いて演算することにより、出力位相変換部112から供給されたHD画像から、自然高品質画像を予測する。自然画予測部113は、その自然高品質画像を合成部116に供給する。   Then, the natural image prediction unit 113 performs an operation using a prediction coefficient for predicting a natural high-quality image corresponding to the class and the HD image, so that the HD image supplied from the output phase conversion unit 112 is obtained. Predict natural high-quality images. The natural image prediction unit 113 supplies the natural high quality image to the synthesis unit 116.

ここで、自然画像とは、後述する人工画像ではない画像のことであり、自然界に存在するものをそのまま撮像することにより得られる画像である。   Here, the natural image is an image that is not an artificial image, which will be described later, and is an image obtained by directly capturing an image existing in the natural world.

人工画予測部114は、自然画予測部113と同様に、巡回型変換部122から供給されるHD画像から、そのHD画像のうちの人工画像を高品質にしたHD画像(以下、人工高品質画像と称する)を予測する。具体的には、人工画予測部114は、HD画像の特徴に応じて、そのHD画像から求められる人工高品質画像の画素である注目画素を、人工画像の特徴に適したクラスに分類する。   Similar to the natural image prediction unit 113, the artificial image prediction unit 114 uses an HD image (hereinafter referred to as artificial high quality) obtained from the HD image supplied from the cyclic conversion unit 122 with a high quality of the artificial image of the HD image. (Referred to as image). Specifically, the artificial image prediction unit 114 classifies the target pixel, which is a pixel of an artificial high quality image obtained from the HD image, into a class suitable for the feature of the artificial image according to the feature of the HD image.

そして、人工画予測部114は、そのクラスに対応する、人工高品質画像を予測するための予測係数と、HD画像とを用いて演算することにより、出力位相変換部112から供給されたHD画像から、人工高品質画像を予測する。人工画予測部114は、その人工高品質画像を合成部116に出力する。   Then, the artificial image prediction unit 114 calculates the HD image supplied from the output phase conversion unit 112 by using the prediction coefficient for predicting the artificial high quality image corresponding to the class and the HD image. To predict artificial high quality images. The artificial image prediction unit 114 outputs the artificial high quality image to the synthesis unit 116.

ここで、人工画像とは、文字や単純な図形などの、階調が少なく位相情報であるエッジ位相情報がはっきりした、すなわち、平坦部分が多い人工的な画像である。換言すれば、人工画像は、文字や単純図形等の階調があまり無く、輪郭等の位相情報が支配的になっている画像である。   Here, the artificial image is an artificial image such as a character or a simple figure with little gradation and with clear edge phase information which is phase information, that is, with many flat portions. In other words, the artificial image is an image in which there are not many gradations such as characters and simple figures, and phase information such as contours is dominant.

自然画人工画判定部115は、巡回型変換部122より供給されるHD画像の各画素について、人工画像に分類される領域、または、自然画像に分類される領域のいずれの領域に属するかを判定し、判定結果を人工画度として合成部116に出力する。すなわち、人工画度とは、人工画像と自然画像との中間に分類される領域において自然画像における人工画像の割合を0乃至1の値で示したものである。   The natural image / artificial image determination unit 115 determines whether each pixel of the HD image supplied from the cyclic conversion unit 122 belongs to an area classified as an artificial image or an area classified as a natural image. Judgment is performed, and the determination result is output to the synthesis unit 116 as an artificial image degree. That is, the artificial degree of art is a value of 0 to 1 indicating the ratio of the artificial image in the natural image in the region classified between the artificial image and the natural image.

合成部116は、自然画人工画判定部115より供給される判定結果に基づいて、自然画予測部113から供給される自然高品質画像の各画素の画素値と、人工画予測部114から供給される人工高品質画像の各画素の画素値とを人工画度に応じた割合で合成し、合成の結果得られるHD画像を出力する。   Based on the determination result supplied from the natural-image / artificial-image determination unit 115, the synthesis unit 116 supplies the pixel value of each pixel of the natural high-quality image supplied from the natural-image prediction unit 113 and the artificial-image prediction unit 114. A pixel value of each pixel of the artificial high-quality image to be synthesized is synthesized at a ratio corresponding to the artificial picture degree, and an HD image obtained as a result of the synthesis is output.

[巡回型IP変換スケーリング部の構成]
図4は、巡回型IP変換スケーリング部111の主な構成例を示すブロック図である。
[Configuration of cyclic IP conversion scaling unit]
FIG. 4 is a block diagram illustrating a main configuration example of the cyclic IP conversion scaling unit 111.

図4に示されるように、巡回型IP変換スケーリング部111の巡回型変換部122は、動きベクトル検出部131、MC(Motion Compensation)ブロック差分検出部132、巡回係数設定部133、動き補償部134、積和演算部135、フレームメモリ136、およびスケーリング部137を有する。   As shown in FIG. 4, the cyclic conversion unit 122 of the cyclic IP conversion scaling unit 111 includes a motion vector detection unit 131, an MC (Motion Compensation) block difference detection unit 132, a cyclic coefficient setting unit 133, and a motion compensation unit 134. A product-sum operation unit 135, a frame memory 136, and a scaling unit 137.

なお、以下、巡回型IP変換スケーリング部111で処理される各画像の画素の位置を表す座標系について、水平(横)方向をx軸方向とし、垂直(縦)方向をy軸方向とする。すなわち、各画素の座標は、(x,y)で表される。また、以下、外部からIP変換スケーリング部121に入力されるインターレース方式のSD画像である入力画像を画像I1とも称し、IP変換スケーリング部121から出力されるプログレッシブ方式のHD画像である中間画像を画像P1とも称する。   Hereinafter, in the coordinate system representing the pixel position of each image processed by the cyclic IP conversion scaling unit 111, the horizontal (horizontal) direction is the x-axis direction and the vertical (vertical) direction is the y-axis direction. That is, the coordinates of each pixel are represented by (x, y). Hereinafter, an input image that is an interlaced SD image input to the IP conversion scaling unit 121 from the outside is also referred to as an image I1, and an intermediate image that is a progressive HD image output from the IP conversion scaling unit 121 is referred to as an image. Also referred to as P1.

動きベクトル検出部131は、画像I1の各画素の動きベクトルを検出する。巡回型変換部122から出力されたプログレッシブHD画像である出力画像は、フレームメモリ136に記憶される。このようにフレームメモリ136に記憶されている1フレーム前の画像(以下、画像P3とも称する)は、フレームメモリ136から読み出され、スケーリング部137において、スケーリング処理され、入力画像I1と同じ画像サイズのSD画像に変換される。このように変換されたSD画像(以下、画像P3’とも称する)が、動きベクトル検出部131に供給される。   The motion vector detection unit 131 detects a motion vector of each pixel of the image I1. An output image that is a progressive HD image output from the recursive conversion unit 122 is stored in the frame memory 136. Thus, the image one frame before (hereinafter also referred to as image P3) stored in the frame memory 136 is read from the frame memory 136, scaled in the scaling unit 137, and the same image size as the input image I1. To an SD image. The SD image converted in this way (hereinafter also referred to as image P <b> 3 ′) is supplied to the motion vector detection unit 131.

動きベクトル検出部131は、画像I1を、所定の大きさ、すなわち、縦N×横M画素(N,Mは任意の正の整数)のブロックに分割し、ブロックごとに動きベクトルを検出する。   The motion vector detection unit 131 divides the image I1 into blocks having a predetermined size, that is, N × M pixels (N and M are arbitrary positive integers), and detects a motion vector for each block.

なお、以下、ブロックなど、各画像内の所定のブロックの位置を表す座標系について、画素の位置を表す座標系と区別するために、水平(横)方向をX軸方向とし、垂直(縦)方向をY軸方向とする。すなわち、各ブロックの座標は(X,Y)で表される。また、以下、座標(X,Y)のブロックの動きベクトルをV(X,Y)と表す。なお、各ブロックの左上隅の画素を基準画素といい、基準画素の座標を基準座標という。   Hereinafter, in order to distinguish the coordinate system representing the position of a predetermined block in each image such as a block from the coordinate system representing the position of the pixel, the horizontal (horizontal) direction is taken as the X-axis direction, and the vertical (vertical) The direction is the Y-axis direction. That is, the coordinates of each block are represented by (X, Y). Further, hereinafter, the motion vector of the block of coordinates (X, Y) is represented as V (X, Y). The pixel in the upper left corner of each block is referred to as a reference pixel, and the coordinates of the reference pixel are referred to as reference coordinates.

動きベクトル検出部131は、検出した動きベクトルVを示す情報を、MCブロック差分検出部132、巡回係数設定部133、および、動き補償部134に供給する。また、動きベクトル検出部131は、動きベクトルの検出に用いた画像I1および画像P3’をMCブロック差分検出部132に供給する。   The motion vector detection unit 131 supplies information indicating the detected motion vector V to the MC block difference detection unit 132, the cyclic coefficient setting unit 133, and the motion compensation unit 134. In addition, the motion vector detection unit 131 supplies the image I1 and the image P3 ′ used for detection of the motion vector to the MC block difference detection unit 132.

MCブロック差分検出部132は、画像I1のブロックごとに、各ブロックの画素値と、そのブロックに対応する画像P3’のブロック、すなわち、画像I1の各ブロックを動きベクトルVで示される方向および距離だけ移動させた位置にある画像P3’のブロックの画素値との差分値であるMCブロック差分値を検出する。MCブロック差分検出部132は、検出したMCブロック差分値を示す情報を巡回係数設定部133に供給する。   The MC block difference detection unit 132 for each block of the image I1, the pixel value of each block and the block of the image P3 ′ corresponding to the block, that is, the direction and distance indicated by the motion vector V for each block of the image I1. The MC block difference value, which is a difference value with the pixel value of the block of the image P3 ′ at the position moved by only the position, is detected. The MC block difference detection unit 132 supplies information indicating the detected MC block difference value to the cyclic coefficient setting unit 133.

なお、以下、画像I1の座標(X,Y)のブロックに対応するブロック差分値を、BD(X,Y)と表す。   Hereinafter, the block difference value corresponding to the block of the coordinates (X, Y) of the image I1 is represented as BD (X, Y).

巡回係数設定部133は、動きベクトルV、MCブロック差分値BD、および、IP変換スケーリング部121から供給される入力画像I1の画素と中間画像P1の画素との位置関係Lに基づいて、画素毎に巡回係数Kを設定する。なお、以下、座標(x,y)の画素に対する巡回係数KをK(x,y)と表す。巡回係数設定部133は、設定した巡回係数Kを示す情報を積和演算部135に供給する。   The cyclic coefficient setting unit 133 performs pixel-by-pixel based on the motion vector V, the MC block difference value BD, and the positional relationship L between the pixels of the input image I1 and the pixels of the intermediate image P1 supplied from the IP conversion scaling unit 121. The cyclic coefficient K is set to. Hereinafter, the cyclic coefficient K for the pixel at the coordinates (x, y) is represented as K (x, y). The cyclic coefficient setting unit 133 supplies information indicating the set cyclic coefficient K to the product-sum operation unit 135.

動き補償部134は、フレームメモリ136から画像P3を読み出す。動き補償部134は、動きベクトルVに基づいて、画像P3に対して動き補償を施した画像P4を生成する。なお、動きベクトルVはSD画像で検出されたものであるので、動き補償部134は、動きベクトルVをHD画像に対応させてから(HD画像上での表現に変更してから)動き補償を行う。動き補償部134は、画像P4を積和演算部135に供給する。   The motion compensation unit 134 reads the image P3 from the frame memory 136. Based on the motion vector V, the motion compensation unit 134 generates an image P4 obtained by performing motion compensation on the image P3. Since the motion vector V is detected in the SD image, the motion compensation unit 134 performs motion compensation after the motion vector V is made to correspond to the HD image (after changing to the representation on the HD image). Do. The motion compensation unit 134 supplies the image P4 to the product-sum operation unit 135.

積和演算部135は、画像P1と画像P4とを巡回係数Kで示される割合で合成し(重み付け加算し)、プログレッシブ方式のHD画像である出力画像(以下、画像P2とも称する)を生成する。積和演算部135は、画像P2を自然画予測部113、人口画予測部114、および自然画人口画判定部115に供給するとともに、フレームメモリ136に記憶させる。   The product-sum operation unit 135 combines the images P1 and P4 at a ratio indicated by the cyclic coefficient K (weighted addition), and generates an output image (hereinafter also referred to as an image P2) that is a progressive HD image. . The product-sum operation unit 135 supplies the image P2 to the natural image prediction unit 113, the population image prediction unit 114, and the natural image population image determination unit 115 and stores the image P2 in the frame memory 136.

[IP変換スケーリング部の構成]
入力画像を中間画像に変換するIP変換スケーリングの方法は任意である。したがって、IP変換スケーリング部121の構成は任意である。例えば、図5に示されるように、IP変換スケーリング部121が、クラス分類適応処理を用いてIP変換とスケーリング処理を行うようにしてもよい。
[Configuration of IP conversion scaling unit]
An IP conversion scaling method for converting an input image into an intermediate image is arbitrary. Therefore, the configuration of the IP conversion scaling unit 121 is arbitrary. For example, as illustrated in FIG. 5, the IP conversion scaling unit 121 may perform IP conversion and scaling processing using class classification adaptation processing.

図5の例の場合、IP変換スケーリング部121は、クラス分類適応処理部141を有する。クラス分類適応処理部141は、入力画像より選択的に取り出された、出力画像を構成する単位画素ブロック内の各画素(注目画素)に対応するタップのデータよりクラスコードを得る。また、クラス分類適応処理部141は、各クラスの係数種データと注目画素の位相情報に基づいて各クラスの係数データを生成する。そして、クラス分類適応処理部141は、注目画素に対応するタップのデータと、クラスコードで読み出された係数データとから、推定式を使用して注目画素のデータを演算する。   In the case of the example in FIG. 5, the IP conversion scaling unit 121 includes a class classification adaptation processing unit 141. The class classification adaptive processing unit 141 obtains a class code from tap data corresponding to each pixel (target pixel) in the unit pixel block constituting the output image, which is selectively extracted from the input image. The class classification adaptive processing unit 141 generates coefficient data of each class based on the coefficient seed data of each class and the phase information of the target pixel. Then, the class classification adaptive processing unit 141 calculates the data of the target pixel from the tap data corresponding to the target pixel and the coefficient data read by the class code using the estimation formula.

このようにすることにより、クラス分類適応処理部141は、入力画像I1に対して、IP変換およびスケーリング処理を行い、中間画像P1を生成し、それを積和演算部135に供給する。また、クラス分類適応処理部141は、入力画像I1の画素と中間画像P1の画素との位置関係Lを巡回係数設定部133に供給する。   In this way, the class classification adaptation processing unit 141 performs IP conversion and scaling processing on the input image I1, generates an intermediate image P1, and supplies it to the product-sum operation unit 135. In addition, the class classification adaptive processing unit 141 supplies the cyclic coefficient setting unit 133 with the positional relationship L between the pixels of the input image I1 and the pixels of the intermediate image P1.

なお、クラス分類適応処理の詳細の例については、特開2002−196737号公報に記載されている。   An example of the details of the class classification adaptive processing is described in Japanese Patent Laid-Open No. 2002-196737.

また、IP変換スケーリング部121は、図6に示されるように、IP変換とスケーリング処理を順次行うようにしてもよい。図6の例の場合、IP変換スケーリング部121は、動き適応型IP変換部142および線形補間スケーリング部143を有している。   The IP conversion scaling unit 121 may sequentially perform IP conversion and scaling processing as shown in FIG. In the case of the example in FIG. 6, the IP conversion scaling unit 121 includes a motion adaptive IP conversion unit 142 and a linear interpolation scaling unit 143.

動き適応型IP変換部142は、新たに生成する注目画素について、その注目画素と同じ位置の画素の時間的変化よりも、注目画素と同じフィールドの位置的変化の方が大きい場合、その注目画素が、画像の動きが少ない静止領域に含まれると見なされる。この場合、動き適応型IP変換部142は、前後のフィールドの同位置の画素の画素値の平均値を注目画素の画素値とする。   The motion-adaptive IP conversion unit 142 determines that a pixel of interest is newly generated when the positional change in the same field as the pixel of interest is larger than the temporal change of the pixel at the same position as the pixel of interest. Are considered to be included in a still region where there is little motion of the image. In this case, the motion adaptive IP conversion unit 142 uses the average value of the pixel values at the same position in the preceding and following fields as the pixel value of the target pixel.

また、動き適応型IP変換部142は、新たに生成する注目画素について、その注目画素と同じ位置の画素の時間的変化の方が、注目画素と同じフィールドの位置的変化よりも大きい場合、その注目画素が、画像の動きが大きい動作領域に含まれると見なされる。この場合、動き適応型IP変換部142は、注目画素に隣接する画素の画素値の平均値を注目画素の画素値とする。   In addition, when the temporal change of the pixel at the same position as the target pixel is greater than the positional change of the same field as the target pixel, the motion adaptive IP conversion unit 142 The pixel of interest is considered to be included in an operation area where the motion of the image is large. In this case, the motion adaptive IP conversion unit 142 sets the average value of the pixel values adjacent to the target pixel as the pixel value of the target pixel.

線形補間スケーリング部143は、動き適応型IP変換部142により生成されたIP変換結果画像P0に対して、線形補間を用いた画像の拡大若しくは縮小を行い、中間画像P1を生成する。線形補間スケーリング部143は、生成した中間画像P1を積和演算部135に供給するとともに、入力画像I1の画素と中間画像P1の画素との位置関係Lを巡回係数設定部133に供給する。   The linear interpolation scaling unit 143 performs image enlargement or reduction using linear interpolation on the IP conversion result image P0 generated by the motion adaptive IP conversion unit 142 to generate an intermediate image P1. The linear interpolation scaling unit 143 supplies the generated intermediate image P1 to the product-sum operation unit 135 and supplies the positional relationship L between the pixels of the input image I1 and the pixels of the intermediate image P1 to the cyclic coefficient setting unit 133.

[入力画像と中間画像の位置関係]
次に、入力画像の画素と中間画像の画素との位置関係Lの例について説明する。図7および図8は、IP変換の後、水平方向および垂直方向にそれぞれ2倍ずつ拡大した場合の位置関係の例を示している。図7は、水平方向および垂直方向の位置関係を示し、図8は、時間方向と垂直方向の位置関係を示している。黒丸が中間画像の画素を示しており、白丸が入力画像の画素を示している。なお、実線の白丸と点線の白丸はフィールドの違いを示す。
[Positional relationship between input image and intermediate image]
Next, an example of the positional relationship L between the pixels of the input image and the pixels of the intermediate image will be described. 7 and 8 show an example of the positional relationship when the IP conversion is performed and the horizontal direction and the vertical direction are each doubled. FIG. 7 shows the positional relationship between the horizontal direction and the vertical direction, and FIG. 8 shows the positional relationship between the time direction and the vertical direction. Black circles indicate pixels of the intermediate image, and white circles indicate pixels of the input image. The solid white circle and the dotted white circle indicate the difference between fields.

図9および図10は、IP変換の後、水平方向および垂直方向にそれぞれ8/3倍ずつ拡大した場合の位置関係の例を示している。図9は、水平方向および垂直方向の位置関係を示し、図10は、時間方向と垂直方向の位置関係を示している。このように、スケーリングは整数倍に限定されない。   FIG. 9 and FIG. 10 show examples of the positional relationship when the horizontal and vertical directions are each expanded by 8/3 after IP conversion. FIG. 9 shows the positional relationship between the horizontal direction and the vertical direction, and FIG. 10 shows the positional relationship between the time direction and the vertical direction. Thus, scaling is not limited to integer multiples.

[動きベクトル検出部の構成]
図11は、動きベクトル検出部131の主な構成例を示すブロック図である。
[Configuration of motion vector detection unit]
FIG. 11 is a block diagram illustrating a main configuration example of the motion vector detection unit 131.

図11に示されるように、動きベクトル検出部131は、動き評価値検出部201、画素精度動きベクトル検出部202、タップ抽出部203、およびタップ抽出部204を有する。また、動きベクトル検出部131は、ADRC(Adaptive Dynamic Range Coding)処理部205、クラス分類部206、係数メモリ207、予測演算部208、および、画素以下精度動きベクトル検出部209を有する。   As illustrated in FIG. 11, the motion vector detection unit 131 includes a motion evaluation value detection unit 201, a pixel accuracy motion vector detection unit 202, a tap extraction unit 203, and a tap extraction unit 204. The motion vector detection unit 131 includes an ADRC (Adaptive Dynamic Range Coding) processing unit 205, a class classification unit 206, a coefficient memory 207, a prediction calculation unit 208, and a sub-pixel accuracy motion vector detection unit 209.

動き評価値検出部201は、外部から入力される画像I1を取得し、フレームメモリ136から画像P3を取得する。動き評価値検出部201は、画像I1を所定の大きさのブロックに分割し、各ブロックを順次注目ブロックとする。さらに、動き評価値検出部201は、画像P3の所定の範囲内の画素を、順次、注目画素とし、注目画素を基準画素とする注目ブロックと同じ大きさのブロック(以下、比較対象ブロックと称する)と注目ブロックとの対応する位置にある画素の画素値との差分をとり、その差分値の絶対値を合計した値を、注目画素に対する動き評価値として求める。動き評価値検出部201は、検出した動き評価値を示す情報を、画素精度動きベクトル検出部202、タップ抽出部203、およびタップ抽出部204に供給する。また、動き評価値検出部201は、動きベクトルの検出に用いた画像I1および画像P3をMCブロック差分検出部132に供給する。   The motion evaluation value detection unit 201 acquires an image I1 input from the outside, and acquires an image P3 from the frame memory 136. The motion evaluation value detection unit 201 divides the image I1 into blocks of a predetermined size, and sequentially sets each block as a target block. Further, the motion evaluation value detection unit 201 sequentially sets pixels within a predetermined range of the image P3 as a target pixel, and a block having the same size as the target block having the target pixel as a reference pixel (hereinafter referred to as a comparison target block). ) And the pixel value of the pixel at the position corresponding to the target block, and the sum of the absolute values of the difference values is obtained as a motion evaluation value for the target pixel. The motion evaluation value detection unit 201 supplies information indicating the detected motion evaluation value to the pixel accuracy motion vector detection unit 202, the tap extraction unit 203, and the tap extraction unit 204. Further, the motion evaluation value detection unit 201 supplies the image I1 and the image P3 used for detection of the motion vector to the MC block difference detection unit 132.

なお、以下、座標(x,y)の注目画素に対する動き評価値をM(x,y)と表す。   Hereinafter, the motion evaluation value for the pixel of interest at coordinates (x, y) is represented as M (x, y).

画素精度動きベクトル検出部202は、動き評価値Mが最小となる画素(以下、最小評価値画素と称する)の座標と、注目ブロックの基準画素の座標とを結ぶベクトルを、注目ブロックに対する画素精度、すなわち、プログレッシブ画像における画素の間隔と等しい距離を最小単位とする動きベクトルとして検出する。画素精度動きベクトル検出部202は、検出した画素精度の動きベクトルを示す情報をタップ抽出部203およびタップ抽出部204に供給する。   The pixel accuracy motion vector detection unit 202 uses a vector connecting the coordinates of the pixel having the smallest motion evaluation value M (hereinafter referred to as the minimum evaluation value pixel) and the coordinates of the reference pixel of the target block, as a pixel accuracy for the target block. That is, it is detected as a motion vector whose minimum unit is a distance equal to the pixel interval in the progressive image. The pixel accuracy motion vector detection unit 202 supplies information indicating the detected pixel accuracy motion vector to the tap extraction unit 203 and the tap extraction unit 204.

タップ抽出部203は、最小評価値画素と最小評価値画素に隣接する画素との間の位置、すなわち、画素以下精度の位置(以下、予測位置ともいう)における動き評価値を予測するのに用いる画素であって、最小評価値画素を含む最小評価値画素の近傍の画像P3の画素に対応する動き評価値Mを予測タップとして抽出する。タップ抽出部203は、抽出した予測タップを予測演算部208に供給する。   The tap extraction unit 203 is used to predict a motion evaluation value at a position between the minimum evaluation value pixel and a pixel adjacent to the minimum evaluation value pixel, that is, a position with a pixel accuracy or less (hereinafter also referred to as a predicted position). A motion evaluation value M corresponding to a pixel of the image P3 that is a pixel and is adjacent to the minimum evaluation value pixel including the minimum evaluation value pixel is extracted as a prediction tap. The tap extraction unit 203 supplies the extracted prediction tap to the prediction calculation unit 208.

タップ抽出部204は、最小評価値画素を、幾つかのクラスのうちのいずれかにクラス分けするクラス分類を行うのに用いる画像P3のいくつかの画素に対応する動き評価値Mを、クラスタップとして抽出する。タップ抽出部204は、抽出したクラスタップをADRC処理部205に供給する。   The tap extraction unit 204 classifies the motion evaluation values M corresponding to some pixels of the image P3 used for classifying the minimum evaluation value pixels into any of several classes. Extract as The tap extraction unit 204 supplies the extracted class tap to the ADRC processing unit 205.

ADRC処理部205は、クラスタップを構成する画素の動き評価値MをADRC処理し、その結果得られるADRCコードを示す情報をクラス分類部206に供給する。   The ADRC processing unit 205 performs ADRC processing on the motion evaluation value M of the pixels constituting the class tap, and supplies information indicating the resulting ADRC code to the class classification unit 206.

なお、KビットADRCにおいては、例えば、クラスタップを構成する画素の動き評価値Mの最大値MAXと最小値MINが検出され、DR=MAX−MINを、クラスタップを構成する動き評価値Mの集合の局所的なダイナミックレンジとし、このダイナミックレンジDRに基づいて、クラスタップを構成する動き評価値MがKビットに再量子化される。即ち、クラスタップを構成する各画素の動き評価値Mから、最小値MINが減算され、その減算値がDR/2Kで除算(量子化)される。そして、以上のようにして得られる、クラスタップを構成するKビットの各画素の動き評価値Mを、所定の順番で並べたビット列が、ADRCコードとして出力される。   In the K-bit ADRC, for example, the maximum value MAX and the minimum value MIN of the motion evaluation value M of the pixels constituting the class tap are detected, and DR = MAX−MIN is set to the motion evaluation value M constituting the class tap. Based on the dynamic range DR, the motion evaluation value M constituting the class tap is requantized to K bits based on the local dynamic range of the set. That is, the minimum value MIN is subtracted from the motion evaluation value M of each pixel constituting the class tap, and the subtracted value is divided (quantized) by DR / 2K. Then, a bit string in which the motion evaluation values M of the K-bit pixels constituting the class tap obtained in the above manner are arranged in a predetermined order is output as an ADRC code.

クラス分類部206は、ADRC処理部205からのADRCコードに基づき、最小評価値画素をクラス分類し、その結果得られるクラスに対応するクラスコードを示す情報を、係数メモリ207に供給する。   The class classification unit 206 classifies the minimum evaluation value pixels based on the ADRC code from the ADRC processing unit 205, and supplies information indicating the class code corresponding to the class obtained as a result to the coefficient memory 207.

係数メモリ207は、学習によってあらかじめ求められたクラスごとのタップ係数のセットを記憶している。係数メモリ207は、その記憶しているタップ係数のセットのうちの、クラス分類部206から供給されるクラスコードに対応するアドレスに記憶されているタップ係数、すなわち、クラス分類部206から供給されるクラスコードが表すクラスのタップ係数を、予測演算部208に供給する。   The coefficient memory 207 stores a set of tap coefficients for each class obtained in advance by learning. The coefficient memory 207 is supplied from the tap coefficient stored in the address corresponding to the class code supplied from the class classification unit 206 in the stored tap coefficient set, that is, supplied from the class classification unit 206. The tap coefficient of the class represented by the class code is supplied to the prediction calculation unit 208.

予測演算部208は、タップ抽出部203が出力する予測タップと、係数メモリ207が出力するタップ係数とを取得し、その予測タップとタップ係数とを用いて、予測位置における動き評価値Mの真値の予測値を求める所定の予測演算を行う。これにより、予測演算部208は、予測位置における動き評価値M’の予測値を求めて、画素以下精度動きベクトル検出部209に供給する。   The prediction calculation unit 208 acquires the prediction tap output from the tap extraction unit 203 and the tap coefficient output from the coefficient memory 207, and uses the prediction tap and the tap coefficient to calculate the true value of the motion evaluation value M at the prediction position. A predetermined prediction calculation for obtaining a predicted value is performed. Thereby, the prediction calculation unit 208 obtains a predicted value of the motion evaluation value M ′ at the predicted position, and supplies it to the sub-pixel accuracy motion vector detection unit 209.

画素以下精度動きベクトル検出部209は、最小評価値画素および予測位置の中から動き評価値が最小となる画素または位置を検出し、検出した画素または位置の座標と、注目ブロックの基準画素の座標とを結ぶベクトルを、注目ブロックに対する画素以下精度の動きベクトルVとして検出する。画素以下精度動きベクトル検出部209は、検出した動きベクトルVを示す情報をMCブロック差分検出部132、巡回係数設定部133、および動き補償部134に供給する。   The sub-pixel accuracy motion vector detection unit 209 detects the pixel or position where the motion evaluation value is minimum from the minimum evaluation value pixel and the predicted position, and the coordinates of the detected pixel or position and the coordinates of the reference pixel of the target block Are detected as motion vectors V with subpixel accuracy for the block of interest. The sub-pixel accuracy motion vector detection unit 209 supplies information indicating the detected motion vector V to the MC block difference detection unit 132, the cyclic coefficient setting unit 133, and the motion compensation unit 134.

[巡回係数設定部の構成]
図12は、巡回係数設定部133の主な構成例を示すブロック図である。
[Configuration of cyclic coefficient setting unit]
FIG. 12 is a block diagram illustrating a main configuration example of the cyclic coefficient setting unit 133.

図12に示されるように、巡回係数設定部133は、基本巡回係数設定部251、動き分散検出部252、および巡回係数算出部253を有する。また、巡回係数算出部253は、動き分散差し引き量算出部261、MCブロック差分差し引き量算出部262、演算部263、および演算部264を有する。   As illustrated in FIG. 12, the cyclic coefficient setting unit 133 includes a basic cyclic coefficient setting unit 251, a motion variance detection unit 252, and a cyclic coefficient calculation unit 253. The cyclic coefficient calculation unit 253 includes a motion variance subtraction amount calculation unit 261, an MC block difference subtraction amount calculation unit 262, a calculation unit 263, and a calculation unit 264.

基本巡回係数設定部251は、動きベクトルVと、入力画像の画素と中間画像の画素との位置関係Lに基づいて、基本巡回係数K0を設定する。なお、以下、座標(x,y)の画素に対する基本巡回係数K0をK0(x,y)と表す。基本巡回係数設定部251は、基本巡回係数K0を演算部263に供給する。   The basic cyclic coefficient setting unit 251 sets the basic cyclic coefficient K0 based on the motion vector V and the positional relationship L between the pixels of the input image and the intermediate image. Hereinafter, the basic cyclic coefficient K0 for the pixel at the coordinates (x, y) is represented as K0 (x, y). The basic cyclic coefficient setting unit 251 supplies the basic cyclic coefficient K0 to the calculation unit 263.

動き分散検出部252は、動きベクトル検出部131により検出された動きベクトルVの信頼度として、周囲の動きベクトルVとの間のばらつきの度合いを示す動き分散MDを検出する。なお、以下、動きベクトルV(X,Y)に対する動き分散MDを、MD(X,Y)と表す。動き分散検出部252は、動き分散MDを示す情報を動き分散差し引き量算出部261に供給する。   The motion variance detection unit 252 detects motion variance MD indicating the degree of variation with the surrounding motion vector V as the reliability of the motion vector V detected by the motion vector detection unit 131. Hereinafter, the motion variance MD for the motion vector V (X, Y) is represented as MD (X, Y). The motion variance detection unit 252 supplies information indicating the motion variance MD to the motion variance subtraction amount calculation unit 261.

動き分散差し引き量算出部261は、動き分散MDに基づいて、基本巡回係数K0を補正するための補正値である動き分散差し引き量KM1を算出する。なお、以下、画像P1の座標(x,y)の画素に対する動き分散差し引き量KM1を、KM1(x,y)と表す。動き分散差し引き量算出部261は、動き分散差し引き量KM1を示す情報を演算部263に供給する。   The motion variance subtraction amount calculation unit 261 calculates a motion variance subtraction amount KM1 that is a correction value for correcting the basic cyclic coefficient K0 based on the motion variance MD. Hereinafter, the motion dispersion subtraction amount KM1 for the pixel at the coordinates (x, y) of the image P1 is represented as KM1 (x, y). The motion variance subtraction amount calculation unit 261 supplies information indicating the motion variance subtraction amount KM1 to the calculation unit 263.

MCブロック差分差し引き量算出部262は、MCブロック差分値BDに基づいて、基本巡回係数K0を補正するための補正値であるMCブロック差分差し引き量KM2を算出する。なお、以下、画像P1の座標(x,y)の画素に対するMCブロック差分差し引き量KM2を、KM2(x,y)と表す。MCブロック差分差し引き量算出部262は、MCブロック差分差し引き量KM2を示す情報を演算部264に供給する。   The MC block difference subtraction amount calculation unit 262 calculates an MC block difference subtraction amount KM2 that is a correction value for correcting the basic cyclic coefficient K0 based on the MC block difference value BD. Hereinafter, the MC block difference subtraction amount KM2 for the pixel at the coordinates (x, y) of the image P1 is represented as KM2 (x, y). The MC block difference subtraction amount calculation unit 262 supplies information indicating the MC block difference subtraction amount KM2 to the calculation unit 264.

演算部263は、基本巡回係数K0から動き分散差し引き量KM1を減算する。演算部264は、演算部263により算出された値からMCブロック差分差し引き量KM2を減算する。これにより、巡回係数Kが算出される。なお、以下、画像P1の座標(x,y)の画素に対する巡回係数KをK(x,y)と表す。演算部264は、巡回係数Kを示す情報を積和演算部135に供給する。   The calculation unit 263 subtracts the motion variance subtraction amount KM1 from the basic cyclic coefficient K0. The calculation unit 264 subtracts the MC block difference subtraction amount KM2 from the value calculated by the calculation unit 263. Thereby, the cyclic coefficient K is calculated. Hereinafter, the cyclic coefficient K for the pixel at the coordinates (x, y) of the image P1 is represented as K (x, y). The calculation unit 264 supplies information indicating the cyclic coefficient K to the product-sum calculation unit 135.

[画像処理の流れ]
次に、図13のフローチャートを参照して、画像変換装置100により実行される画像処理の流れの例を説明する。画像処理は、例えば、外部から画像I1の入力が開始されたとき開始される。
[Image processing flow]
Next, an example of the flow of image processing executed by the image conversion apparatus 100 will be described with reference to the flowchart of FIG. The image processing is started, for example, when input of the image I1 is started from the outside.

画像処理が開始されると、巡回型IP変換スケーリング部111は、ステップS101において、巡回型IP変換スケーリング処理を行う。   When the image processing is started, the cyclic IP conversion scaling unit 111 performs cyclic IP conversion scaling processing in step S101.

ステップS102において、自然画予測部113は、自然画予測処理を行う。具体的には、巡回型IP変換スケーリング部111から供給されるHD画像から、そのHD画像のうちの自然画像を高品質にした自然高品画像を予測する。すなわち、自然画予測部113は、HD画像の特徴に応じて、そのHD画像から求められる自然高品質画像の画素である注目画素を、自然画像の特徴に適したクラスに分類する。   In step S102, the natural image prediction unit 113 performs natural image prediction processing. Specifically, a natural high-quality image in which the natural image of the HD image is of high quality is predicted from the HD image supplied from the cyclic IP conversion scaling unit 111. That is, the natural image prediction unit 113 classifies the target pixel, which is a pixel of a natural high quality image obtained from the HD image, into a class suitable for the feature of the natural image, according to the feature of the HD image.

そして、自然画予測部113は、そのクラスに対応する、自然高品質画像を予測するための予測係数と、HD画像とを用いて演算することにより、巡回型IP変換スケーリング部111から供給されたHD画像から、自然高品質画像を予測する。自然画予測部113は、その自然高品質画像を合成部116に供給する。   Then, the natural image prediction unit 113 is supplied from the cyclic IP conversion scaling unit 111 by calculating using a prediction coefficient for predicting a natural high quality image corresponding to the class and the HD image. Predict natural high quality images from HD images. The natural image prediction unit 113 supplies the natural high quality image to the synthesis unit 116.

ステップS103において、人工画予測部114は、人工画予測処理を行う。具体的には、人工画予測部114は、自然画予測部113と同様に、巡回型IP変換スケーリング部111から供給されるHD画像から、そのHD画像のうちの人工画像を高品質にした人工高品質画像を予測する。すなわち、人工画予測部114は、HD画像の特徴に応じて、そのHD画像から求められる人工高品質画像の画素である注目画素を、人工画像の特徴に適したクラスに分類する。   In step S103, the artificial image prediction unit 114 performs an artificial image prediction process. Specifically, similarly to the natural image prediction unit 113, the artificial image prediction unit 114 is an artificial image obtained by improving the quality of an artificial image of the HD image from the HD image supplied from the cyclic IP conversion scaling unit 111. Predict high quality images. That is, the artificial image prediction unit 114 classifies the target pixel, which is a pixel of an artificial high quality image obtained from the HD image, into a class suitable for the feature of the artificial image according to the feature of the HD image.

そして、人工画予測部114は、そのクラスに対応する、人工高品質画像を予測するための予測係数と、HD画像とを用いて演算することにより、巡回型IP変換スケーリング部111から供給されたHD画像から、人工高品質画像を求める。人工画予測部114は、その人工高品質画像を合成部116に出力する。   Then, the artificial image prediction unit 114 is supplied from the cyclic IP conversion scaling unit 111 by calculating using a prediction coefficient for predicting the artificial high quality image corresponding to the class and the HD image. An artificial high quality image is obtained from the HD image. The artificial image prediction unit 114 outputs the artificial high quality image to the synthesis unit 116.

ステップS104において、自然画人工画判定部115は、自然画人工画判定処理を行う。具体的には、自然画人工画判定部115は、巡回型IP変換スケーリング部111より供給されるHD画像の各画素について、人工画像に分類される領域、または、自然画像に分類される領域のいずれの領域に属するかを判定し、判定結果を人工画度として合成部116に出力する。   In step S104, the natural-image / artificial-image determination unit 115 performs a natural-image / artificial-image determination process. Specifically, the natural-image / artificial-image determination unit 115 determines, for each pixel of the HD image supplied from the cyclic IP conversion scaling unit 111, an area classified as an artificial image or an area classified as a natural image. It is determined to which region it belongs, and the determination result is output to the synthesis unit 116 as an artificial image degree.

ステップS105において、合成部116は、画像を合成する。具体的には、合成部116は、自然画人工画判定部115より供給される判定結果に基づいて、自然画予測部113から供給される自然高品質画像の各画素の画素値と、人工画予測部114から供給される人工高品質画像の各画素の画素値とを人工画度に応じた割合で合成する。合成部116は、合成した画像を後段の装置に出力する。   In step S105, the synthesizing unit 116 synthesizes the images. Specifically, based on the determination result supplied from the natural-image / artificial-image determination unit 115, the composition unit 116 determines the pixel value of each pixel of the natural high-quality image supplied from the natural-image prediction unit 113, and the artificial image. The pixel values of the respective pixels of the artificial high quality image supplied from the prediction unit 114 are combined at a ratio corresponding to the artificial image quality. The combining unit 116 outputs the combined image to a subsequent apparatus.

なお、複数の画像の画像変換を連続して行う場合、上述したステップS101乃至S105の処理が繰り返し実行される。   In addition, when performing image conversion of a plurality of images continuously, the processing of steps S101 to S105 described above is repeatedly executed.

[巡回型IP変換スケーリング処理の流れ]
次に、図14のフローチャートを参照して、図13のステップS101において実行される巡回型IP変換スケーリング処理の流れの例を説明する。
[Flow of cyclic IP conversion scaling processing]
Next, an example of the flow of the cyclic IP conversion scaling process executed in step S101 of FIG. 13 will be described with reference to the flowchart of FIG.

巡回型IP変換スケーリング処理が開始されると、IP変換スケーリング部121は、ステップS121において、IP変換スケーリング処理を行い、中間画像P1を生成する。ステップS122において、巡回型変換部122は、巡回型変換処理を行い、出力画像P2を生成する。   When the cyclic IP conversion scaling process is started, the IP conversion scaling unit 121 performs the IP conversion scaling process in step S121 to generate the intermediate image P1. In step S122, the cyclic conversion unit 122 performs cyclic conversion processing to generate an output image P2.

ステップS102の処理が終了すると、巡回型IP変換スケーリング部111は、巡回型IP変換スケーリング処理を終了し、処理を図13のステップS101に戻し、ステップS102に処理を進める。   When the process of step S102 ends, the cyclic IP conversion scaling unit 111 ends the cyclic IP conversion scaling process, returns the process to step S101 of FIG. 13, and advances the process to step S102.

[巡回型変換処理の流れ]
次に、図15のフローチャートを参照して、図14のステップS122において実行される巡回型変換処理の流れの例を説明する。
[Flow of cyclic conversion processing]
Next, an example of the flow of the cyclic conversion process executed in step S122 of FIG. 14 will be described with reference to the flowchart of FIG.

巡回型変換処理が開始されると、動きベクトル検出部131は、ステップS141において、動きベクトル検出処理を行う。この処理により、画像I1の各画素の画素以下精度の動きベクトルVが検出される。   When the cyclic conversion process is started, the motion vector detection unit 131 performs a motion vector detection process in step S141. By this processing, a motion vector V with a precision equal to or lower than that of each pixel of the image I1 is detected.

ステップS142において、MCブロック差分検出部132は、MCブロック差分値を検出する。ここで、図16および図17を参照して、MCブロック差分値の検出方法を説明する。   In step S142, the MC block difference detection unit 132 detects the MC block difference value. Here, an MC block difference value detection method will be described with reference to FIGS. 16 and 17.

まず、図16に示されるように、画像I1のブロックB0に対応する位置にある画像P3’のブロックをB0’とする。また、ブロックB0の動きベクトルVで示される方向および距離だけブロックB0’を移動させたブロックをブロックB1とする。   First, as shown in FIG. 16, the block of the image P3 'located at the position corresponding to the block B0 of the image I1 is defined as B0'. A block obtained by moving the block B0 'by the direction and distance indicated by the motion vector V of the block B0 is referred to as a block B1.

動きベクトルVは画素以下精度であるため、水平動き量または垂直動き量に小数部分が存在する場合、ブロックB1の画素の位置は、画像P3’の実際の画素の位置と一致しない。ここで、図17を参照して、ブロックB1が、画像P3’における実際の画素の位置と一致しない場合に、ブロックB1の各画素の画素値を算出する方法を説明する。   Since the motion vector V has subpixel accuracy, the position of the pixel in the block B1 does not coincide with the actual pixel position in the image P3 'when there is a fractional part in the horizontal motion amount or the vertical motion amount. Here, a method for calculating the pixel value of each pixel of the block B1 when the block B1 does not coincide with the actual pixel position in the image P3 'will be described with reference to FIG.

図17の黒丸で示される画素zは、ブロックB1内の1つの画素であって、画像P3’に実在しない位置にある画素である。白丸で示される画素a乃至dは、画素zに隣接する(すなわち、最も近い)画像P3’に実在する画素である。画素a乃至dおよび画素zの画素値を、それぞれa乃至dおよびzとし、画素zの左斜め上にある画素aと画素zと間のx軸方向の距離をxd、y軸方向の距離をydとした場合、画素zの画素値zは、以下の式(1)に基づいて算出される。   A pixel z indicated by a black circle in FIG. 17 is one pixel in the block B1 and is located at a position that does not actually exist in the image P3 '. Pixels a to d indicated by white circles are pixels that exist in the image P <b> 3 ′ adjacent to (ie closest to) the pixel z. The pixel values of the pixels a to d and the pixel z are a to d and z, respectively, and the distance in the x-axis direction between the pixel a and the pixel z diagonally above and to the left of the pixel z is xd, and the distance in the y-axis direction is In the case of yd, the pixel value z of the pixel z is calculated based on the following formula (1).

z=(1−yd)×((1−xd)×a+xd×b)+yd×((1−xd)×c+xd×d) ・・・(1)   z = (1−yd) × ((1−xd) × a + xd × b) + yd × ((1−xd) × c + xd × d) (1)

なお、ブロックB1の画素の位置が、画像P3’に実在する画素の位置と一致する場合、そのまま画像P3’の画素値がブロックB1の各画素の画素値とされる。   When the pixel position of the block B1 matches the pixel position actually present in the image P3 ', the pixel value of the image P3' is directly used as the pixel value of each pixel of the block B1.

MCブロック差分検出部132は、ブロックB1の各画素の画素値を算出した後、以下の式(2)に基づいて、MCブロック差分値BDを算出する。   After calculating the pixel value of each pixel of the block B1, the MC block difference detection unit 132 calculates the MC block difference value BD based on the following equation (2).

Figure 2011216967
Figure 2011216967

なお、B0(i,j)は、ブロックB0の左上隅の画素である基準画素を原点(0,0)とする位置(i,j)にあるブロックB0内の画素の画素値を示し、B1(i,j)は、ブロックB1の基準画素を原点(0,0)とする位置(i,j)にあるブロックB1内の画素の画素値を示す。すなわち、MCブロック差分値BDは、ブロックB0とブロックB1の対応する位置にある画素の画素値の差分をとり、その差分値の絶対値の合計値となる。   B0 (i, j) indicates the pixel value of the pixel in the block B0 at the position (i, j) with the reference pixel being the pixel in the upper left corner of the block B0 as the origin (0,0), and B1 (I, j) indicates the pixel value of the pixel in the block B1 at the position (i, j) with the reference pixel of the block B1 as the origin (0,0). That is, the MC block difference value BD is the sum of the absolute values of the difference values of the pixels at the corresponding positions in the block B0 and the block B1.

従って、現在のフレームと1つ前のフレームの対応するブロック内の画像の変化が大きいほど、MCブロック差分値BDは大きくなる。すなわち、MCブロック差分値BDが大きいブロックは、被写体が変形もしくは複雑な動きをしていたり、小さな被写体が複数存在していたり、被写体のエッジ部分を含んでいたりするなどの原因により、画像の動きが複雑な領域のブロックである可能性が高い。従って、そのブロックについて検出された動きベクトルVは正確に検出されていない可能性が高く、その動きベクトルVの信頼度は低いと言える。   Therefore, the greater the change in the image in the block corresponding to the current frame and the previous frame, the greater the MC block difference value BD. That is, a block having a large MC block difference value BD has a motion of the image due to a subject being deformed or complicated, a plurality of small subjects, or including an edge portion of the subject. Is likely to be a complex block. Therefore, there is a high possibility that the motion vector V detected for the block is not accurately detected, and it can be said that the reliability of the motion vector V is low.

MCブロック差分検出部132は、画像I1の各ブロックについて、MCブロック差分値BDを検出し、検出したMCブロック差分値BDを示す情報をMCブロック差分差し引き量算出部262に供給する。   The MC block difference detection unit 132 detects the MC block difference value BD for each block of the image I1, and supplies information indicating the detected MC block difference value BD to the MC block difference subtraction amount calculation unit 262.

図15に戻り、ステップS143において、基本巡回係数設定部251は、基本巡回係数K0を設定する。   Returning to FIG. 15, in step S143, the basic cyclic coefficient setting unit 251 sets the basic cyclic coefficient K0.

従来の方法においては、入力画像の画素以下精度の動き量を利用して過去から画素情報を得ることで入力画像の1フィールドだけからでは作成することができない高精細なIP変換結果を得ることができた。   In the conventional method, it is possible to obtain a high-definition IP conversion result that cannot be created from only one field of the input image by obtaining pixel information from the past by using a motion amount with sub-pixel accuracy of the input image. did it.

このとき、巡回係数は、図18に示されるように、中間画像の、その巡回係数を用いて画素値を補正する画素が、入力画像に存在する画素であるか否かによって2種類(kaとkb)用意される。   At this time, as shown in FIG. 18, there are two types of cyclic coefficients depending on whether or not the pixel of the intermediate image whose pixel value is corrected using the cyclic coefficient is a pixel existing in the input image (ka and kb) Prepared.

これに対して、本発明の場合、入力画像の画素以下精度の動き量を利用して過去から画素情報を得ることで、入力画像の1フィールドやIP変換結果だけからでは作成することができない高精細なIP変換スケーリング結果を得ることができる。   On the other hand, in the case of the present invention, pixel information is obtained from the past by using the amount of motion with sub-pixel accuracy of the input image, which cannot be created from only one field of the input image or the IP conversion result. A fine IP conversion scaling result can be obtained.

この場合、スケーリング処理においては任意に拡大縮小が可能であるので、入力画像に存在する画素であるか否か以上の分類が必要である。また、この場合、スケーリング処理が行われるので、水平方向についての動きも考慮する必要がある。   In this case, since scaling can be arbitrarily performed in the scaling process, it is necessary to classify whether or not the pixel exists in the input image. In this case, since the scaling process is performed, it is necessary to consider the movement in the horizontal direction.

そこで、この場合、巡回係数は、図19に示されるように、入力画像の画素と中間画像の画素との位置関係Lに応じて、画素毎に求める。   Therefore, in this case, as shown in FIG. 19, the cyclic coefficient is obtained for each pixel according to the positional relationship L between the pixel of the input image and the pixel of the intermediate image.

なお、図19においては、説明の便宜上、複数の入力フィールドを用いて中間画像の画素を生成するように示されているが、実際には、過去の出力1フレームのみを参照し、巡回係数を用いて補正することにより、等価的に中間画像の画素を生成する。   In FIG. 19, for convenience of explanation, it is shown that the pixels of the intermediate image are generated using a plurality of input fields. However, in practice, only the past output 1 frame is referred to and the cyclic coefficient is set. By using and correcting, pixels of the intermediate image are generated equivalently.

そこで、基本巡回係数設定部251は、図20に示されるように、中間画像の注目画素と、その注目画素に最も近い入力画像の画素との距離d0と、1つ前のフレームにおける、注目画素から動きベクトル分だけ動かしたの画素と、その画素に最も近い入力画像の画素との距離dを求める。   Therefore, as shown in FIG. 20, the basic cyclic coefficient setting unit 251 determines the distance d0 between the target pixel of the intermediate image and the pixel of the input image closest to the target pixel, and the target pixel in the previous frame. Then, the distance d between the pixel moved by the motion vector and the pixel of the input image closest to the pixel is obtained.

この2つの変数d0およびdについて、基本巡回係数設定部251は、距離d0が小さい、すなわち、注目画素が現在のフレームの入力画像の画素に近い場合、その現在のフレームの入力画像から生成された中間画像に重みを付ける。逆に、距離dが小さい、すなわち、注目画素が1つ前のフレームの(過去の)入力画像の画素に近い場合、基本巡回係数設定部251は、その過去の入力画像から生成された中間画像に重みを付ける。   For these two variables d0 and d, the basic cyclic coefficient setting unit 251 generates the input image of the current frame when the distance d0 is small, that is, when the target pixel is close to the pixel of the input image of the current frame. Weight intermediate images. On the contrary, when the distance d is small, that is, when the target pixel is close to the pixel of the (past) input image of the previous frame, the basic cyclic coefficient setting unit 251 generates the intermediate image generated from the past input image. Weight the.

つまり、基本巡回係数設定部251は、以下の式(3)に示されるように、基本巡回係数K0を算出する。   That is, the basic cyclic coefficient setting unit 251 calculates the basic cyclic coefficient K0 as shown in the following formula (3).

K0=d0/(d0+d) ・・・(3)   K0 = d0 / (d0 + d) (3)

このように、入力画像の画素と中間画像の画素との位置関係Lに応じて、基本巡回係数K0を設定することにより、画像P1の解像度を良好に保ちつつ、すなわち、画像をぼかさずに、垂直折り返し歪みやノイズを除去することが可能になる。   In this way, by setting the basic cyclic coefficient K0 according to the positional relationship L between the pixels of the input image and the pixels of the intermediate image, the image P1 can be kept in good resolution, that is, without blurring the image. It is possible to remove vertical folding distortion and noise.

ステップS144において、動き分散検出部252は、動き分散を検出する。ここで、図21および図22を参照して、動き分散について説明する。   In step S144, the motion variance detector 252 detects motion variance. Here, motion dispersion will be described with reference to FIGS. 21 and 22.

図21および図22は、動きベクトルの分布の例を示す図である。図21に示されるように、斜線で示されるブロックの動きベクトルV0aが、周辺の動きベクトルV1a乃至V8aとほぼ同様である場合、すなわち、動きベクトルV0aと周辺のブロックの動きベクトルV1a乃至V8aとの類似性が高い場合、動きベクトルV0aは正確に求められている可能性が高く、動きベクトルV0aの信頼度は高いと言える。   21 and 22 are diagrams showing examples of motion vector distribution. As shown in FIG. 21, when the motion vector V0a of the block indicated by diagonal lines is substantially the same as the peripheral motion vectors V1a to V8a, that is, the motion vector V0a and the motion vectors V1a to V8a of the peripheral blocks When the similarity is high, it is highly possible that the motion vector V0a is accurately obtained, and it can be said that the reliability of the motion vector V0a is high.

一方、図22に示されるように、斜線で示されるブロックの動きベクトルV0bおよび周辺のブロックの動きベクトルV1b乃至V8bの大きさや向きが大きく異なる場合、すなわち、動きベクトルV0bと周辺の動きベクトルV1b乃至V8bとの類似性が低い場合、動きベクトルV0bは正確に求められていない可能性が高く、動きベクトルV0bの信頼度は低いと言える。   On the other hand, as shown in FIG. 22, when the size and direction of the motion vector V0b of the block indicated by hatching and the motion vectors V1b to V8b of the peripheral blocks are greatly different, that is, the motion vector V0b and the peripheral motion vectors V1b to When the similarity with V8b is low, it is highly possible that the motion vector V0b is not accurately obtained, and it can be said that the reliability of the motion vector V0b is low.

そこで、動き分散検出部252は、動きベクトル検出部131により検出された動きベクトルVの信頼度として、各動きベクトルVについて、周辺の動きベクトルVとのばらつきの度合いを示す動き分散MD0を検出する。   Therefore, the motion variance detection unit 252 detects, as the reliability of the motion vector V detected by the motion vector detection unit 131, a motion variance MD0 indicating the degree of variation from the surrounding motion vector V for each motion vector V. .

具体的には、例えば、図23の斜線で示される座標(X,Y)のブロックBpの動きベクトルV(X,Y)に対する動き分散MD0(X,Y)を、ブロックBpを中心とする縦Nb0×横Mb0ブロック(画素数で表現した場合、縦Np0×横Mp0画素)の領域D0を対象に、以下の式(4)に基づいて算出する。なお、領域D0の左上隅の画素の座標を(x0,y0)とする。   Specifically, for example, the motion variance MD0 (X, Y) with respect to the motion vector V (X, Y) of the block Bp at the coordinates (X, Y) indicated by the oblique lines in FIG. The calculation is performed based on the following equation (4) for a region D0 of Nb0 × horizontal Mb0 block (vertical Np0 × horizontal Mp0 pixel when expressed in the number of pixels). Note that the coordinates of the pixel in the upper left corner of the region D0 are (x0, y0).

Figure 2011216967
Figure 2011216967

なお、vx0(x,y)は、座標(x,y)の画素が含まれるブロックの水平動き量を示し、vy0(x,y)は、座標(x,y)の画素が含まれるブロックの垂直動き量を示す。   Note that vx0 (x, y) indicates the horizontal motion amount of the block including the pixel at the coordinate (x, y), and vy0 (x, y) indicates the block including the pixel at the coordinate (x, y). Indicates the amount of vertical movement.

すなわち、動き分散MD0は、ブロックBpの動きベクトルVと、領域D0内の各画素の動きベクトルVとの間の距離の2乗の平均値を表す。   That is, the motion variance MD0 represents an average value of the squares of the distances between the motion vector V of the block Bp and the motion vector V of each pixel in the region D0.

また、動き分散検出部252は、動きベクトルVの信頼度として、各動きベクトルVについて、その動きベクトルVに対応する画素(またはブロック)を、動きベクトルVで示される方向および距離だけ移動した位置の周辺における1フレーム前の動きベクトルVとのばらつきを示す動き分散MD1を検出する。   In addition, as the reliability of the motion vector V, the motion variance detection unit 252 moves, for each motion vector V, a pixel (or block) corresponding to the motion vector V by the direction and distance indicated by the motion vector V. Motion variance MD1 indicating a variation with the motion vector V one frame before in the vicinity of is detected.

具体的には、例えば、まず、図23のブロックBpに対応する位置にある1フレーム前の画像のブロックを、図24のブロックBp'とする。また、ブロックBpの動きベクトルV(X,Y)の水平動き量VX(X,Y)および垂直動き量VY(X,Y)の小数点以下を四捨五入した値により示される方向および距離だけブロックBp'を移動させたブロックをブロックBmとする。動き分散検出部252は、ブロックBpの動きベクトルV(X,Y)に対する動き分散MD1(X,Y)を、ブロックBmを中心とする縦Nb1×横Mb1ブロック(画素数で表現した場合、縦Np1×横Mp1画素)の領域D1を対象に、以下の式(5)に基づいて算出する。なお、領域D1の左上隅の画素の座標を(x1,y1)とする。   Specifically, for example, first, a block of an image one frame before at a position corresponding to the block Bp in FIG. 23 is referred to as a block Bp ′ in FIG. Further, the block Bp ′ is in the direction and the distance indicated by the values rounded off to the nearest decimal point of the horizontal motion amount VX (X, Y) and the vertical motion amount VY (X, Y) of the motion vector V (X, Y) of the block Bp. The block to which is moved is referred to as block Bm. The motion variance detection unit 252 represents the motion variance MD1 (X, Y) for the motion vector V (X, Y) of the block Bp as a vertical Nb1 × horizontal Mb1 block centered on the block Bm. Np1 × horizontal Mp1 pixel) is calculated based on the following equation (5). Note that the coordinates of the pixel at the upper left corner of the region D1 are (x1, y1).

Figure 2011216967
Figure 2011216967

なお、vx1(x,y)は、1フレーム前の座標(x,y)の画素が含まれるブロックの水平動き量を示し、vy1(x,y)は、1フレーム前の座標(x,y)の画素が含まれるブロックの垂直動き量を示す。   Note that vx1 (x, y) indicates the horizontal motion amount of the block including the pixel at the coordinate (x, y) of the previous frame, and vy1 (x, y) indicates the coordinate (x, y) of the previous frame. ) Indicates the vertical motion amount of the block including the pixel.

すなわち、動き分散MD1は、ブロックBpの動きベクトルVと、領域D1内の各画素の動きベクトルVとの間の距離の2乗の平均値を表す。   That is, the motion variance MD1 represents an average value of the square of the distance between the motion vector V of the block Bp and the motion vector V of each pixel in the region D1.

さらに、動き分散検出部252は、以下の式(6)に基づいて、動き分散MD(X,Y)を算出する。   Furthermore, the motion variance detection unit 252 calculates motion variance MD (X, Y) based on the following equation (6).

MD(X,Y)=MD1(X,Y)+MD2(X,Y) ・・・(6)   MD (X, Y) = MD1 (X, Y) + MD2 (X, Y) (6)

従って、対象となる動きベクトルVと周囲の動きベクトルVとの間のばらつきが大きいほど、動き分散MD(X,Y)は大きくなる。すなわち、その動きベクトルV(X,Y)に対応する画素およびその近傍は、被写体が変形もしくは複雑な動きをしていたり、小さな被写体が複数存在していたりするなどの原因により、画像の動きが複雑な領域である可能性が高い。従って、その動きベクトルVは正確に検出されていない可能性が高く、その動きベクトルV(X,Y)の信頼度は低いと言える。   Accordingly, the greater the variation between the target motion vector V and the surrounding motion vector V, the greater the motion variance MD (X, Y). In other words, the pixel corresponding to the motion vector V (X, Y) and its vicinity have image movement due to the subject being deformed or complicated, or the presence of a plurality of small subjects. It is likely to be a complex area. Therefore, there is a high possibility that the motion vector V is not accurately detected, and it can be said that the reliability of the motion vector V (X, Y) is low.

動き分散検出部252は、上述した方法に従って、各動きベクトルVに対する動き分散MDを算出し、動き分散MDを示す情報を動き分散差し引き量算出部261に供給する。   The motion variance detection unit 252 calculates the motion variance MD for each motion vector V in accordance with the method described above, and supplies information indicating the motion variance MD to the motion variance subtraction amount calculation unit 261.

ステップS145において、動き分散差し引き量算出部261は、動き分散差し引き量を算出する。具体的には、動き分散差し引き量算出部261は、画像P1の各画素に対する動き分散差し引き量KM1を、その画素が含まれるブロックの動き分散MDを用いて、以下の式(7)に基づいて算出する。   In step S145, the motion variance subtraction amount calculation unit 261 calculates a motion variance subtraction amount. Specifically, the motion variance subtraction amount calculation unit 261 calculates the motion variance subtraction amount KM1 for each pixel of the image P1 based on the following equation (7) using the motion variance MD of the block including the pixel. calculate.

KM1(x,y)=a1×MD(X,Y)+b1 ・・・(7)   KM1 (x, y) = a1 × MD (X, Y) + b1 (7)

なお、a1およびb1は所定の値の定数である。ただし、定数a1は正の値とされる。また、式(7)の右辺の値が0より小さくなる場合、KM1(x,y)は0に補正される。   Note that a1 and b1 are constants having predetermined values. However, the constant a1 is a positive value. Further, when the value on the right side of Expression (7) is smaller than 0, KM1 (x, y) is corrected to 0.

ステップS146において、MCブロック差分差し引き量算出部262は、MCブロック差分差し引き量を求める。具体的には、MCブロック差分差し引き量算出部262は、画像P1の各画素に対するMCブロック差分差し引き量KM2を、その画素が含まれるブロックのMCブロック差分値BDを用いて、以下の式(8)に基づいて算出する。   In step S146, the MC block difference subtraction amount calculation unit 262 calculates the MC block difference subtraction amount. Specifically, the MC block difference subtraction amount calculation unit 262 uses the MC block difference subtraction amount KM2 for each pixel of the image P1 as the following formula (8) using the MC block difference value BD of the block including the pixel. ).

KM2(x,y)=a2×BD(X,Y)+b2 ・・・(8)   KM2 (x, y) = a2 * BD (X, Y) + b2 (8)

なお、a2,b2は所定の定数である。ただし、定数a2は正の値とされる。また、式(8)の右辺の値が0より小さくなった場合、KM2(x,y)は0に補正される。   Note that a2 and b2 are predetermined constants. However, the constant a2 is a positive value. Further, when the value on the right side of Expression (8) becomes smaller than 0, KM2 (x, y) is corrected to 0.

ステップS147において、演算部263および演算部264は、巡回係数を算出する。具体的には、演算部263は、基本巡回係数K0から動き分散差し引き量KM1を減算する。演算部264は、演算部263における演算結果からMCブロック差分差し引き量KM2を減算する。その減算結果が巡回係数Kとされる。すなわち、画像P1の座標(x,y)にある画素に対する巡回係数K(x,y)は、以下の式(9)のように算出される。   In step S147, the calculation unit 263 and the calculation unit 264 calculate a cyclic coefficient. Specifically, the calculation unit 263 subtracts the motion variance subtraction amount KM1 from the basic cyclic coefficient K0. The calculation unit 264 subtracts the MC block difference subtraction amount KM2 from the calculation result in the calculation unit 263. The subtraction result is the cyclic coefficient K. That is, the cyclic coefficient K (x, y) for the pixel at the coordinates (x, y) of the image P1 is calculated as in the following equation (9).

K(x,y)=K0(x,y)−KM1(x,y)−KM2(x,y) ・・・(9)   K (x, y) = K0 (x, y) −KM1 (x, y) −KM2 (x, y) (9)

すなわち、巡回係数K(x,y)は、動き分散差し引き量KM1(x,y)またはMCブロック差分差し引き量KM2(x,y)が大きいほど、すなわち、動き分散MD(x,y)またはMCブロック差分値BD(x,y)が大きいほど、小さくなるように補正される。   That is, the cyclic coefficient K (x, y) increases as the motion variance subtraction amount KM1 (x, y) or the MC block difference subtraction amount KM2 (x, y) increases, that is, the motion variance MD (x, y) or MC. The larger the block difference value BD (x, y), the smaller the correction.

ステップS148において、動き補償部134は、1フレーム前の出力画像に対して動き補償を施す。具体的には、動き補償部134は、フレームメモリ136から1フレーム前の画像P3を読み出す。動き補償部134は、動きベクトルVを用いて、画像P3に対して動き補償を施した画像P4を生成する。   In step S148, the motion compensation unit 134 performs motion compensation on the output image one frame before. Specifically, the motion compensation unit 134 reads the image P3 of the previous frame from the frame memory 136. The motion compensation unit 134 uses the motion vector V to generate an image P4 obtained by performing motion compensation on the image P3.

なお、画像P4の各画素の画素値は、その画素に対応する位置にある画像P1の画素の動きベクトルVで示される方向および距離だけ移動した位置にある画像P3の画素の画素値とされる。ただし、動きベクトルVの水平動き量または垂直動き量に小数部分が存在し、画像P3の動きベクトルVだけ移動した位置に実際の画素が存在しない場合、図17を参照して上述した方法と同様の方法により、画像P4の画素値が算出される。   Note that the pixel value of each pixel of the image P4 is the pixel value of the pixel of the image P3 at the position moved by the direction and distance indicated by the motion vector V of the pixel of the image P1 at the position corresponding to that pixel. . However, when there is a fractional part in the horizontal motion amount or the vertical motion amount of the motion vector V and there is no actual pixel at the position moved by the motion vector V of the image P3, the same method as described above with reference to FIG. By this method, the pixel value of the image P4 is calculated.

ステップS149において、積和演算部135は、画像を合成し、巡回型変換処理は終了する。具体的には、積和演算部135は、画像P1と画像P4の対応する位置にある画素の画素値を、巡回係数Kを用いて、重み付け加算する。すなわち、積和演算部135は、巡回係数Kを用いて、以下の式(10)に基づいて、画像P2の画素値を算出する。   In step S149, the product-sum operation unit 135 combines the images, and the cyclic conversion process ends. Specifically, the product-sum operation unit 135 weights and adds the pixel values of the pixels at the corresponding positions in the image P1 and the image P4 using the cyclic coefficient K. That is, the product-sum operation unit 135 uses the cyclic coefficient K to calculate the pixel value of the image P2 based on the following equation (10).

出力画像P2=(1−K)×中間画像P1+K×動き補償画像P4 ・・・(10)   Output image P2 = (1−K) × intermediate image P1 + K × motion compensation image P4 (10)

一般的に、巡回係数Kの値が大きくなるほど、出力画像P2における動き補償画像P4の成分の占める割合が大きくなるため、出力画像P2における、垂直折り返し歪みの発生の抑制効果が高くなる一方、画像のボケが発生しやすくなる。   In general, as the value of the cyclic coefficient K increases, the proportion of the component of the motion compensated image P4 in the output image P2 increases. Therefore, the effect of suppressing the occurrence of vertical aliasing distortion in the output image P2 increases. The blur is likely to occur.

逆に、巡回係数Kの値が小さくなるほど、出力画像P2において動き補償画像P4の成分の占める割合が小さくなるため、出力画像P2における垂直折り返し歪みの発生の抑制効果が低くなる一方、画像のボケの発生は抑制される。   Conversely, the smaller the value of the cyclic coefficient K, the smaller the proportion of the motion compensated image P4 component in the output image P2, so the effect of suppressing the occurrence of vertical aliasing distortion in the output image P2 is reduced, while the blurring of the image is reduced. The occurrence of is suppressed.

本発明の実施の形態では、巡回係数Kは、上述したように、動き分散差し引き量KM1またはMCブロック差分差し引き量KM2が大きいほど、すなわち、動き分散MDまたはMCブロック差分値BDが大きいほど小さくなる。   In the embodiment of the present invention, as described above, the cyclic coefficient K decreases as the motion variance subtraction amount KM1 or the MC block difference subtraction amount KM2 increases, that is, as the motion variance MD or MC block difference value BD increases. .

すなわち、座標(x,y)の画素の動きベクトルV(X,Y)の信頼度が低く、重み付け加算する中間画像P1の画素と動き補償画像P4の画素との相関が低い可能性が高い場合、または、その画素が、折り返し歪みまたはランダムノイズが目立ちにくい、画像の動きが複雑な領域に含まれる可能性が高い場合、画素値P2(x,y)における画素値P1(x,y)の成分が占める割合が大きくなる。   That is, when the reliability of the motion vector V (X, Y) of the pixel at the coordinate (x, y) is low and the possibility that the correlation between the pixel of the intermediate image P1 to be weighted and the pixel of the motion compensated image P4 is low is high. Or, if the pixel is likely to be included in a region where the aliasing distortion or random noise is not noticeable and the motion of the image is complicated, the pixel value P1 (x, y) of the pixel value P2 (x, y) The proportion of components increases.

これに対して、座標(x,y)の画素の動きベクトルV(X,Y)の信頼度が高く、重み付け加算する中間画像P1の画素と動き補償画像P4の画素との相関が高い可能性が高い場合、または、その画素が、折り返し歪みまたはランダムノイズが目立ちやすい、広い範囲にわたって画像の動きが少ない領域に含まれる可能性が高い場合、画素値P2(x,y)における画素値P1(x,y)の成分が占める割合が大きくなる。   On the other hand, the reliability of the motion vector V (X, Y) of the pixel at the coordinate (x, y) is high, and the correlation between the pixel of the intermediate image P1 to be weighted and the pixel of the motion compensated image P4 may be high. Is high, or when the pixel is likely to be included in a region where the motion of the image is small over a wide range in which aliasing distortion or random noise is conspicuous, the pixel value P1 ( The proportion of x, y) components increases.

また、垂直折り返し歪みが大きいほど、巡回係数Kの値は大きくなり、画素値P2(x,y)における画素値P4(x,y)の成分が占める割合が大きくなる。一方、垂直折り返し歪みが小さいほど、巡回係数Kの値は小さくなり、画素値P2(x,y)における画素値P1(x,y)の成分が占める割合が大きくなる。   In addition, as the vertical folding distortion increases, the value of the cyclic coefficient K increases, and the ratio of the pixel value P4 (x, y) component to the pixel value P2 (x, y) increases. On the other hand, the smaller the vertical folding distortion, the smaller the value of the cyclic coefficient K, and the greater the proportion of the pixel value P1 (x, y) component in the pixel value P2 (x, y).

[巡回型変換処理の流れ]
次に、図25のフローチャートを参照して、図15のステップS141の動きベクトル検出処理の詳細を説明する。
[Flow of cyclic conversion processing]
Next, the details of the motion vector detection processing in step S141 in FIG. 15 will be described with reference to the flowchart in FIG.

ステップS161において、動き評価値検出部201は、1フレーム前の画像を取得する。具体的には、動き評価値検出部201は、1フレーム前の出力画像である画像P3’を、スケーリング部137から取得する。   In step S161, the motion evaluation value detection unit 201 acquires an image one frame before. Specifically, the motion evaluation value detection unit 201 acquires an image P3 ′, which is an output image one frame before, from the scaling unit 137.

ステップS162において、動き評価値検出部201は、画素位置の動き評価値を算出する。具体的には、動き評価値検出部201は、画像I1内のブロックのうち、まだ動きベクトルを検出していないブロックを1つ選択して、注目ブロックとする。動き評価値検出部201は、画像P3’の所定の範囲内の画素を、順次、注目画素とし、各注目画素における動き評価値M(x,y)を、以下の式(11)により求める。   In step S162, the motion evaluation value detection unit 201 calculates a motion evaluation value of the pixel position. Specifically, the motion evaluation value detection unit 201 selects one block that has not yet detected a motion vector from among the blocks in the image I1, and sets it as a target block. The motion evaluation value detection unit 201 sequentially sets pixels within a predetermined range of the image P3 ′ as a target pixel, and obtains a motion evaluation value M (x, y) at each target pixel by the following equation (11).

Figure 2011216967
Figure 2011216967

なお、式(11)において、注目画素の座標を(x,y)とし、注目ブロックの基準画素(左上隅)の座標を(xb,yb)とする。   In equation (11), the coordinates of the pixel of interest are (x, y), and the coordinates of the reference pixel (upper left corner) of the block of interest are (xb, yb).

すなわち、動き評価値Mは、注目画素を基準画素とする比較対象ブロックと注目ブロックとの対応する位置にある画素の画素値の差分をとり、その差分値の絶対値を合計した値であり、動き評価値Mが小さいほど、比較対象ブロック内の画像は、より注目ブロック内の画像に近いと言える。   That is, the motion evaluation value M is a value obtained by taking the difference between the pixel values of the pixels at the corresponding positions of the comparison target block and the target block with the target pixel as a reference pixel, and summing the absolute values of the difference values. It can be said that the smaller the motion evaluation value M, the closer the image in the comparison target block is to the image in the target block.

ステップS163において、画素精度動きベクトル検出部202は、画素精度の動きベクトルを検出する。具体的には、画素精度動きベクトル検出部202は、動き評価値Mが最小となる最小評価値画素を検出する。画素精度動きベクトル検出部202は、最小評価値画素の座標と注目ブロックの基準画素の座標とを結ぶベクトルを、注目ブロックの画素精度の動きベクトルとして検出する。画素精度動きベクトル検出部202は、検出した画素精度の動きベクトルを示す情報をタップ抽出部203およびタップ抽出部204に供給する。   In step S163, the pixel accuracy motion vector detection unit 202 detects a pixel accuracy motion vector. Specifically, the pixel accuracy motion vector detection unit 202 detects a minimum evaluation value pixel that minimizes the motion evaluation value M. The pixel accuracy motion vector detection unit 202 detects a vector connecting the coordinates of the minimum evaluation value pixel and the coordinates of the reference pixel of the target block as a pixel accuracy motion vector of the target block. The pixel accuracy motion vector detection unit 202 supplies information indicating the detected pixel accuracy motion vector to the tap extraction unit 203 and the tap extraction unit 204.

ステップS164において、タップ抽出部203は、予測タップを抽出する。具体的には、タップ抽出部203は、最小評価値画素を含む最小評価値画素の近傍の画像P3’の画素に対応する動き評価値Mを予測タップとして抽出する。   In step S164, the tap extraction unit 203 extracts a prediction tap. Specifically, the tap extraction unit 203 extracts a motion evaluation value M corresponding to a pixel of the image P3 ′ in the vicinity of the minimum evaluation value pixel including the minimum evaluation value pixel as a prediction tap.

図26は、画像P3’の一部を示す図である。なお、図26において、最小評価値画素を画素P0とし、画素P0乃至P24に対応する動き評価値を動き評価値M0乃至M24とする。例えば、タップ抽出部203は、最小評価値画素である画素P0、画素P0の外周に隣接する画素P1乃至P8、および、画素P1乃至P8の外周に隣接する画素P9乃至P24に対応する動き評価値M0乃至M24を、予測タップとして抽出する。タップ抽出部203は、抽出した予測タップを予測演算部208に供給する。   FIG. 26 is a diagram illustrating a part of the image P3 '. In FIG. 26, the minimum evaluation value pixel is a pixel P0, and the motion evaluation values corresponding to the pixels P0 to P24 are the motion evaluation values M0 to M24. For example, the tap extraction unit 203 performs motion evaluation values corresponding to the pixel P0 that is the minimum evaluation value pixel, the pixels P1 to P8 adjacent to the outer periphery of the pixel P0, and the pixels P9 to P24 adjacent to the outer periphery of the pixels P1 to P8. M0 to M24 are extracted as prediction taps. The tap extraction unit 203 supplies the extracted prediction tap to the prediction calculation unit 208.

ステップS165において、タップ抽出部204は、クラスタップを抽出する。例えば、タップ抽出部204は、図26に示される例において、最小評価値画素である画素P0および画素P0に隣接する画素P1乃至P8に対応する動き評価値M0乃至M8を、クラスタップとして抽出する。タップ抽出部204は、抽出したクラスタップをADRC処理部205に供給する。   In step S165, the tap extraction unit 204 extracts class taps. For example, in the example illustrated in FIG. 26, the tap extraction unit 204 extracts the motion evaluation values M0 to M8 corresponding to the pixel P0 that is the minimum evaluation value pixel and the pixels P1 to P8 adjacent to the pixel P0 as class taps. . The tap extraction unit 204 supplies the extracted class tap to the ADRC processing unit 205.

ステップS166において、ADRC処理部205は、ADRC処理を行う。具体的には、ADRC処理部205は、クラスタップを構成する画素の動き評価値MをADRC処理し、その結果得られるADRCコードを示す情報をクラス分類部206に供給する。   In step S166, the ADRC processing unit 205 performs ADRC processing. Specifically, the ADRC processing unit 205 performs ADRC processing on the motion evaluation value M of the pixels constituting the class tap, and supplies information indicating the ADRC code obtained as a result to the class classification unit 206.

ステップS167において、クラス分類部206は、クラス分類を行う。具体的には、クラス分類部206は、ADRC処理部205からのADRCコードに基づき、最小評価値画素をクラス分類し、その結果得られるクラスに対応するクラスコードを示す情報を、係数メモリ207に供給する。   In step S167, the class classification unit 206 performs class classification. Specifically, the class classification unit 206 classifies the minimum evaluation value pixel based on the ADRC code from the ADRC processing unit 205, and stores information indicating the class code corresponding to the resulting class in the coefficient memory 207. Supply.

ステップS168において、係数メモリ207は、タップ係数を供給する。具体的には、係数メモリ207は、内部に記憶しているタップ係数のセットのうち、最小評価値画素のクラスコードに対応するタップ係数を取得する。係数メモリ207は、取得したタップ係数を予測演算部208に供給する。   In step S168, the coefficient memory 207 supplies tap coefficients. Specifically, the coefficient memory 207 acquires a tap coefficient corresponding to the class code of the minimum evaluation value pixel from the set of tap coefficients stored therein. The coefficient memory 207 supplies the acquired tap coefficient to the prediction calculation unit 208.

ステップS169において、予測演算部208は、予測演算を行う。具体的には、例えば、図26に示される例において、画素P0と画素P1乃至P8とを結ぶ直線上の位置であって、ちょうど中間の位置P1'乃至P8'を予測位置とした場合、予測演算部208は、以下の式(12)に基づいて、位置P1'乃至P8'における動き評価値M1'乃至M8'を算出する。   In step S169, the prediction calculation unit 208 performs prediction calculation. Specifically, for example, in the example illustrated in FIG. 26, when the position on the straight line connecting the pixel P0 and the pixels P1 to P8 and the intermediate positions P1 ′ to P8 ′ are set as the predicted positions, the prediction is performed. The computing unit 208 calculates motion evaluation values M1 ′ to M8 ′ at the positions P1 ′ to P8 ′ based on the following equation (12).

Figure 2011216967
ただし、m=1乃至8である。
Figure 2011216967
However, m = 1 to 8.

なお、wmn(n=0乃至24)は、位置Pm'(m=1乃至8)の動き評価値Mm'(m=1乃至8)を算出するために用いるタップ係数である。 Note that w mn (n = 0 to 24) is a tap coefficient used to calculate the motion evaluation value Mm ′ (m = 1 to 8) at the position Pm ′ (m = 1 to 8).

予測演算部208は、各予測位置における動き評価値Mm'を、画素以下精度動きベクトル検出部209に供給する。   The prediction calculation unit 208 supplies the motion evaluation value Mm ′ at each prediction position to the sub-pixel accuracy motion vector detection unit 209.

ステップS170において、画素以下精度動きベクトル検出部209は、画素以下精度の動きベクトルを検出する。具体的には、例えば、図26に示される例の場合、画素以下精度動きベクトル検出部209は、画素P0および位置P1'乃至P8'の動き評価値のうち、最小となるものを検出する。画素以下精度動きベクトル検出部209は、動き評価値が最小の画素または位置の座標と、注目ブロックの基準画素の座標とを結ぶベクトルを、注目ブロックに対する画素以下精度の動きベクトルVとして検出する。すなわち、図26の例においては、画素の間隔の2分の1の精度で動きベクトルが検出される。   In step S170, the sub-pixel accuracy motion vector detection unit 209 detects a sub-pixel accuracy motion vector. Specifically, for example, in the case of the example shown in FIG. 26, the sub-pixel precision motion vector detection unit 209 detects the smallest one of the motion evaluation values of the pixel P0 and the positions P1 ′ to P8 ′. The sub-pixel accuracy motion vector detection unit 209 detects a vector connecting the coordinates of the pixel or position having the smallest motion evaluation value and the coordinates of the reference pixel of the target block as a sub-pixel accuracy motion vector V for the target block. That is, in the example of FIG. 26, a motion vector is detected with an accuracy of one half of the pixel interval.

なお、画素間に設定する予測位置の数を増やすことにより、より高い精度で、すなわち、より小さい単位で動きベクトルを検出することが可能となる。   Note that by increasing the number of predicted positions set between pixels, it is possible to detect a motion vector with higher accuracy, that is, in smaller units.

画素以下精度動きベクトル検出部209は、検出した動きベクトルVを示す情報をMCブロック差分検出部132、巡回係数設定部133、および、動き補償部134に供給する。   The sub-pixel accuracy motion vector detection unit 209 supplies information indicating the detected motion vector V to the MC block difference detection unit 132, the cyclic coefficient setting unit 133, and the motion compensation unit 134.

ステップS171において、動き評価値検出部201は、動きベクトルを全て検出したかを判定する。まだ動きベクトルを検出していないブロックが残っている場合、動き評価値検出部201は、動きベクトルをまだ全て検出していないと判定し、処理はステップS162に戻る。その後、ステップS171において、動きベクトルを全て検出したと判定されるまで、ステップS162乃至S171の処理が繰り返し実行される。   In step S171, the motion evaluation value detection unit 201 determines whether all motion vectors have been detected. If there is still a block for which no motion vector has been detected, the motion evaluation value detection unit 201 determines that all motion vectors have not been detected, and the process returns to step S162. Thereafter, the processes in steps S162 to S171 are repeatedly executed until it is determined in step S171 that all motion vectors have been detected.

ステップS171において、動きベクトルが全て検出されたと判定された場合、処理はステップS172に進む。   If it is determined in step S171 that all motion vectors have been detected, the process proceeds to step S172.

ステップS172において、動き評価値検出部201は、動きベクトルの検出に用いた画像を供給し、画素以下精度動きベクトル検出処理は終了する。具体的には、動き評価値検出部201は、動きベクトルの検出に用いた画像I1および画像P3’をMCブロック差分検出部132に供給する。   In step S172, the motion evaluation value detection unit 201 supplies the image used for the motion vector detection, and the sub-pixel precision motion vector detection process ends. Specifically, the motion evaluation value detection unit 201 supplies the image I1 and the image P3 ′ used for detection of the motion vector to the MC block difference detection unit 132.

次に、係数メモリ207に記憶されるタップ係数の学習について説明する。   Next, learning of tap coefficients stored in the coefficient memory 207 will be described.

まず、より一般化した例に基づいて、クラス分類適応処理におけるタップ係数の学習について説明する。具体的には、HD画像を構成する画素(以下、適宜、HD画素という)の画素値yを、SD画像を構成する画素(以下、適宜、SD画素という)から、HD画素を予測するための予測タップとして抽出される複数のSD画素と、タップ係数とを用いて、次の線形1次式による線形結合によって求める線形1次結合モデルの例に基づいて、タップ係数の学習について説明する。   First, learning of tap coefficients in the class classification adaptation process will be described based on a more general example. Specifically, a pixel value y of a pixel constituting an HD image (hereinafter, appropriately referred to as HD pixel) is used to predict an HD pixel from a pixel constituting the SD image (hereinafter appropriately referred to as SD pixel). Learning of tap coefficients will be described based on an example of a linear linear combination model obtained by linear combination of the following linear linear expressions using a plurality of SD pixels extracted as prediction taps and tap coefficients.

Figure 2011216967
Figure 2011216967

但し、式(13)において、xnは、HD画素yについての予測タップを構成する、n番目のSD画像データの画素の画素値を表し、wnは、n番目のSD画素の画素値と乗算されるn番目のタップ係数を表す。なお、式(13)では、予測タップが、N個のSD画素x1,x2,・・・,xNで構成されるものとしてある。 However, in Expression (13), x n represents the pixel value of the pixel of the n th SD image data constituting the prediction tap for the HD pixel y, and w n represents the pixel value of the n th SD pixel. Represents the nth tap coefficient to be multiplied. In Equation (13), the prediction tap is assumed to be composed of N SD pixels x1, x2,..., XN.

いま、第kサンプルのHD画素の画素値の真値をykと表すとともに、式(13)によって得られるその真値ykの予測値をyk’と表すと、その予測誤差ekは、次式で表される。   Now, when the true value of the pixel value of the HD pixel of the k-th sample is expressed as yk and the predicted value of the true value yk obtained by the equation (13) is expressed as yk ′, the prediction error ek is expressed by the following equation: expressed.

Figure 2011216967
Figure 2011216967

式(14)の予測値yk’は、式(13)にしたがって求められるため、式(14)のyk’を、式(13)にしたがって置き換えると、次式が得られる。   Since the predicted value yk ′ of equation (14) is obtained according to equation (13), the following equation is obtained by replacing yk ′ of equation (14) according to equation (13).

Figure 2011216967
Figure 2011216967

但し、式(15)において、xn,kは、第kサンプルのHD画素についての予測タップを構成するn番目のSD画素を表す。   In equation (15), xn, k represents the nth SD pixel constituting the prediction tap for the HD pixel of the kth sample.

式(15)の予測誤差ekを0とするタップ係数wnが、HD画素を予測するのに最適なものとなるが、すべてのHD画素について、そのようなタップ係数wnを求めることは、一般には困難である。 Tap coefficient w n of the prediction error ek and 0 of the formula (15) is the optimal for predicting the HD pixel, for all the HD pixels, to determine such tap coefficients w n is Generally difficult.

そこで、タップ係数wnが最適なものであることを表す規範として、例えば、最小自乗法を採用することとすると、最適なタップ係数wnは、統計的な誤差としての、例えば、次式で表される自乗誤差の総和Eを最小にすることで求めることができる。 Therefore, as the standard for indicating that the tap coefficient w n is optimal, for example, when adopting the method of least squares, optimal tap coefficient w n, as statistical errors, for example, by the following formula It can be obtained by minimizing the sum E of the squared errors represented.

Figure 2011216967
Figure 2011216967

但し、式(16)において、Kは、HD画素ykと、そのHD画素ykについての予測タップを構成するSD画素x1,k,x2,k,・・・,xN,kとのセットのサンプル数を表す。   However, in Expression (16), K is the number of samples in the set of the HD pixel yk and the SD pixels x1, k, x2, k,..., XN, k constituting the prediction tap for the HD pixel yk. Represents.

式(16)の自乗誤差の総和Eを極小にするタップ係数wnは、その総和Eをタップ係数wnで偏微分したものを0とするものであり、従って、次式を満たす必要がある。 The tap coefficient w n that minimizes the sum E of square errors in the equation (16) is a value obtained by partially differentiating the sum E by the tap coefficient w n , and therefore, it is necessary to satisfy the following equation: .

Figure 2011216967
Figure 2011216967

そこで、上述の式(17)をタップ係数wnで偏微分すると、次式が得られる。 Therefore, when partial differentiation of above equation (17) by the tap coefficients w n, the following equation is obtained.

Figure 2011216967
Figure 2011216967

式(17)と式(18)から、次式が得られる。   From the equations (17) and (18), the following equation is obtained.

Figure 2011216967
Figure 2011216967

式(19)のekに、式(15)を代入することにより、式(19)は、式(20)に示す正規方程式で表すことができる。   By substituting equation (15) into ek in equation (19), equation (19) can be expressed by the normal equation shown in equation (20).

Figure 2011216967
Figure 2011216967

式(20)の正規方程式は、HD画素ykとSD画素xn,kのセットを、ある程度の数だけ用意することで、求めるべきタップ係数wnの数と同じ数だけたてることができ、従って、式(20)を解くことで、最適なタップ係数wnを求めることができる。なお、式(20)を解くにあたっては、例えば、掃き出し法(Gauss-Jordanの消去法)などを採用することが可能である。但し、式(20)を解くには、式(20)において、タップ係数wnにかかる左辺の行列が正則である必要がある。 Normal equation of Equation (20), HD pixel yk and SD pixels xn, a set of k, by preparing only a certain number, it is possible to formulate the same number as the number of tap coefficients w n to be determined, thus by solving equation (20) it is possible to find the optimum tap coefficients w n. In solving the equation (20), for example, a sweeping method (Gauss-Jordan elimination method) or the like can be employed. However, in order to solve the equation (20), in the equation (20), the left side matrix related to the tap coefficient w n needs to be regular.

以上のように、多数のHD画素y1,y2,・・・,yKを、タップ係数の学習の教師となる教師データとするとともに、各HD画素ykについての予測タップを構成するSD画素x1,k,x2,k,・・・,xN,kを、タップ係数の学習の生徒となる生徒データとして、式(20)を解くことにより、最適なタップ係数wnを求めることができる。 As described above, a large number of HD pixels y1, y2,..., YK are used as teacher data that serves as a teacher for learning tap coefficients, and SD pixels x1, k constituting the prediction tap for each HD pixel yk. , x2, k, · · ·, xN, a k, as student data serving as a student of the tap coefficient learning, by solving equation (20), it is possible to find the optimal tap coefficient w n.

ここで、教師データyとして、予測位置にも画素が存在する、画像P3’より画素密度が高い画像の各画素について検出した動き評価値Mからなる画像(以下、教師画像と称する)を採用し、生徒データxとして、画像P3’と同じ画素密度となるように、教師画像から画素を間引いた画像を採用することにより、式(12)で用いられるタップ係数を求めることができる。   Here, as the teacher data y, an image (hereinafter referred to as a teacher image) composed of the motion evaluation value M detected for each pixel of an image having a pixel density higher than that of the image P3 ′, which also has a pixel at the predicted position. By adopting an image obtained by thinning out pixels from the teacher image so that the student data x has the same pixel density as the image P3 ′, the tap coefficient used in the equation (12) can be obtained.

なお、クラス分類適応処理を用いた画素以下精度の動きベクトルを検出する方法については、例えば、本件出願人が先に出願した特開平9−187013号公報などに、その詳細が開示されている。   Note that details of a method for detecting a motion vector with sub-pixel accuracy using the class classification adaptive processing are disclosed in, for example, Japanese Patent Application Laid-Open No. 9-187003 filed earlier by the present applicant.

以上のようにして、IP変換およびスケーリング処理を行う際の画質の低減を抑制することができる。   As described above, it is possible to suppress a reduction in image quality when performing IP conversion and scaling processing.

また、例えば、巡回型IP変換スケーリング部111からは、垂直折り返し歪みやノイズが取り除かれた画像が出力されるため、後段の画像処理装置において、より良好な画質を得ることができる。例えば、本件出願人が先に出願した特開2002−218413号公報に記載されている、クラス分類適応処理を用いて画質を複数の軸で自由に調整する処理において、より強く解像度を上げるように調整することが可能となり、より良好な画質を得ることができる。   Further, for example, the cyclic IP conversion scaling unit 111 outputs an image from which vertical aliasing distortion and noise are removed, so that a better image quality can be obtained in the subsequent image processing apparatus. For example, in the process of freely adjusting the image quality on a plurality of axes using the class classification adaptive process described in Japanese Patent Application Laid-Open No. 2002-218413 filed earlier by the present applicant, the resolution is increased more strongly. It becomes possible to adjust, and better image quality can be obtained.

<2.第2の実施の形態>
[巡回型IP変換スケーリング部の構成]
なお、以上の説明では、画像I1の動きベクトルVを検出する対象となる画像を1フレーム前の出力画像である画像P3’とする例について説明したが、例えば、画像P3’の代わりに、1フィールド前の入力画像である画像I2を用いるようにしてもよい。
<2. Second Embodiment>
[Configuration of cyclic IP conversion scaling unit]
In the above description, the example in which the image that is the target for detecting the motion vector V of the image I1 is the image P3 ′ that is the output image one frame before has been described. For example, instead of the image P3 ′, 1 You may make it use the image I2 which is the input image before a field.

図27は、画像I1の動きベクトルVを検出する対象となる画像として、1フィールド前の入力画像である画像I2を用いる場合の巡回型IP変換スケーリング部111の主な構成例を示すブロック図である。   FIG. 27 is a block diagram illustrating a main configuration example of the cyclic IP conversion scaling unit 111 in the case where the image I2 that is the input image one field before is used as the target image for detecting the motion vector V of the image I1. is there.

この場合の巡回型IP変換スケーリング部111は、基本的に図4の場合と同様の構成を有するが、図4の巡回型変換部122の代わりに巡回型変換部322を有する。   The cyclic IP conversion scaling unit 111 in this case basically has the same configuration as that of FIG. 4, but includes a cyclic conversion unit 322 instead of the cyclic conversion unit 122 of FIG.

巡回型変換部322は、基本的に図4の巡回型変換部122と同様の構成を有するが、スケーリング部137の代わりに、フレームメモリ341を有する。また、巡回型変換部322は、動きベクトル検出部131の代わりに動きベクトル検出部331を有し、MCブロック差分検出部132の代わりにMCブロック差分検出部332を有する。   The cyclic conversion unit 322 basically has the same configuration as the cyclic conversion unit 122 of FIG. 4, but includes a frame memory 341 instead of the scaling unit 137. The cyclic conversion unit 322 includes a motion vector detection unit 331 instead of the motion vector detection unit 131, and includes an MC block difference detection unit 332 instead of the MC block difference detection unit 132.

フレームメモリ341は、外部から入力された画像I1を記憶し、1フィールド分遅延させて、動きベクトル検出部331に供給する。すなわち、巡回型変換部322に入力されてから1フィールド分遅延された画像I1である画像I2が動きベクトル検出部331に供給される。   The frame memory 341 stores the image I1 input from the outside, delays it by one field, and supplies it to the motion vector detection unit 331. That is, an image I2, which is an image I1 delayed by one field after being input to the cyclic conversion unit 322, is supplied to the motion vector detection unit 331.

動きベクトル検出部331は、画像I1の画像I2に対する動きベクトルVを、上述した動きベクトル検出部131と同様の方法により検出する。動きベクトル検出部331は、検出した動きベクトルVを、MCブロック差分検出部332、巡回係数設定部133、および、動き補償部134に供給する。また、動きベクトル検出部331は、動きベクトルVの検出に用いた画像I1および画像I2をMCブロック差分検出部332に供給する。   The motion vector detection unit 331 detects the motion vector V of the image I1 with respect to the image I2 by the same method as the motion vector detection unit 131 described above. The motion vector detection unit 331 supplies the detected motion vector V to the MC block difference detection unit 332, the cyclic coefficient setting unit 133, and the motion compensation unit 134. In addition, the motion vector detection unit 331 supplies the image I1 and the image I2 used for the detection of the motion vector V to the MC block difference detection unit 332.

MCブロック差分検出部332は、画像I1のブロックごとに、各ブロックの画素値と、そのブロックに対応する画像I2のブロック、すなわち、画像I1の各ブロックを動きベクトルVで示される方向および距離だけ移動させた位置にある画像I2のブロックの画素値との差分値であるMCブロック差分値を検出する。MCブロック差分検出部332は、検出したMCブロック差分値BDを示す情報を巡回係数設定部133に供給する。   For each block of the image I1, the MC block difference detection unit 332 has the pixel value of each block and the block of the image I2 corresponding to the block, that is, each block of the image I1 in the direction and distance indicated by the motion vector V. An MC block difference value that is a difference value from the pixel value of the block of the image I2 at the moved position is detected. The MC block difference detection unit 332 supplies information indicating the detected MC block difference value BD to the cyclic coefficient setting unit 133.

<3.第3の実施の形態>
[巡回型IP変換スケーリング部の構成]
また、例えば、画像P3’の代わりに、2フィールド前の入力画像である画像I3を用いるようにしてもよい。
<3. Third Embodiment>
[Configuration of cyclic IP conversion scaling unit]
For example, instead of the image P3 ′, an image I3 that is an input image two fields before may be used.

図28は、画像I1の動きベクトルVを検出する対象となる画像として、2フィールド前の入力画像である画像I3を用いる場合の巡回型IP変換スケーリング部111の主な構成例を示すブロック図である。   FIG. 28 is a block diagram illustrating a main configuration example of the cyclic IP conversion scaling unit 111 in the case where the image I3 that is the input image two fields before is used as the target image for detecting the motion vector V of the image I1. is there.

この場合の巡回型IP変換スケーリング部111も、基本的に図4の場合と同様の構成を有するが、図4の巡回型変換部122の代わりに巡回型変換部422を有する。   The cyclic IP conversion scaling unit 111 in this case also basically has the same configuration as that of FIG. 4, but includes a cyclic conversion unit 422 instead of the cyclic conversion unit 122 of FIG.

巡回型変換部422は、基本的に図4の巡回型変換部122と同様の構成を有するが、スケーリング部137の代わりに、フレームメモリ341およびフレームメモリ441を有する。また、巡回型変換部422は、動きベクトル検出部131の代わりに動きベクトル検出部431を有し、MCブロック差分検出部132の代わりにMCブロック差分検出部432を有する。   The cyclic conversion unit 422 basically has the same configuration as the cyclic conversion unit 122 of FIG. 4, but includes a frame memory 341 and a frame memory 441 instead of the scaling unit 137. The cyclic conversion unit 422 includes a motion vector detection unit 431 instead of the motion vector detection unit 131, and includes an MC block difference detection unit 432 instead of the MC block difference detection unit 132.

フレームメモリ341は、外部から入力された画像I1を記憶し、1フィールド分遅延させて、フレームメモリ441に供給する。すなわち、巡回型IP変換スケーリング部111に入力されてから1フィールド分遅延された画像I1である画像I2がフレームメモリ441に供給される。   The frame memory 341 stores the image I1 input from the outside, delays it by one field, and supplies it to the frame memory 441. That is, an image I2 that is an image I1 delayed by one field after being input to the cyclic IP conversion scaling unit 111 is supplied to the frame memory 441.

フレームメモリ441は、画像I2を記憶し、1フィールド分遅延させて、動きベクトル検出部431に供給する。すなわち、巡回型IP変換スケーリング部111に入力されてから2フィールド分遅延された画像I1である画像I3が動きベクトル検出部431に供給される。   The frame memory 441 stores the image I2, delays it by one field, and supplies it to the motion vector detection unit 431. That is, an image I3 that is an image I1 delayed by two fields after being input to the cyclic IP conversion scaling unit 111 is supplied to the motion vector detection unit 431.

動きベクトル検出部431は、画像I1の画像I3に対する動きベクトルVを、上述した動きベクトル検出部131と同様の方法により検出する。なお、検出した動きベクトルVは、画像I1が入力されるフィールド間隔および画像P2が出力されるフレーム間隔の2倍の間隔、すなわち、2フィールドの間における動きベクトルであるため、動きベクトル検出部431は、整合性をとるために、検出した動きベクトルの大きさを半分にしたベクトルを示す情報を、MCブロック差分検出部432、巡回係数設定部133、および、動き補償部134に供給する。また、動きベクトル検出部431は、動きベクトルVの検出に用いた画像I1および画像I3をMCブロック差分検出部432に供給する。   The motion vector detection unit 431 detects the motion vector V of the image I1 with respect to the image I3 by the same method as the motion vector detection unit 131 described above. Note that the detected motion vector V is a motion vector that is twice as long as the field interval at which the image I1 is input and the frame interval at which the image P2 is output, that is, a motion vector between two fields. Supplies the MC block difference detection unit 432, the cyclic coefficient setting unit 133, and the motion compensation unit 134 with information indicating a vector obtained by halving the size of the detected motion vector in order to ensure consistency. In addition, the motion vector detection unit 431 supplies the image I1 and the image I3 used for detection of the motion vector V to the MC block difference detection unit 432.

MCブロック差分検出部432は、画像I1のブロックごとに、各ブロックの画素値と、各ブロックに対応する画像I3のブロック、すなわち、画像I1の各ブロックを動きベクトルVの2分の1のベクトルで示される方向および距離だけ移動させた位置にある画像I3のブロックの画素値との差分値であるMCブロック差分値を検出する。MCブロック差分検出部432は、検出したMCブロック差分値BDを示す情報を巡回係数設定部133に供給する。   For each block of the image I1, the MC block difference detection unit 432 converts the pixel value of each block and the block of the image I3 corresponding to each block, that is, each block of the image I1 to a vector that is a half of the motion vector V. The MC block difference value, which is a difference value from the pixel value of the block of the image I3 at the position moved by the direction and distance indicated by. The MC block difference detection unit 432 supplies information indicating the detected MC block difference value BD to the cyclic coefficient setting unit 133.

また、画素以下精度の動きベクトルの検出方法は、上述した方法に限定されるものではなく、他の方法を用いるようにしてもよい。   In addition, the motion vector detection method with subpixel accuracy is not limited to the above-described method, and other methods may be used.

さらに、以上の説明では、SD画像に対してIP変換処理とスケーリング処理を行う例について説明したが、もちろん、本発明は、HD画像など高解像度の画像に対してIP変換処理とスケーリング処理を行う場合にも適用することが可能である。   Furthermore, in the above description, an example in which IP conversion processing and scaling processing are performed on an SD image has been described. Of course, the present invention performs IP conversion processing and scaling processing on a high-resolution image such as an HD image. It can also be applied to cases.

<4.第4の実施の形態>
[パーソナルコンピュータ]
上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。この場合、例えば、図29に示されるようなパーソナルコンピュータとして構成されるようにしてもよい。
<4. Fourth Embodiment>
[Personal computer]
The series of processes described above can be executed by hardware or can be executed by software. In this case, for example, a personal computer as shown in FIG. 29 may be configured.

図28において、パーソナルコンピュータ500のCPU501は、ROM(Read Only Memory)502に記憶されているプログラム、または記憶部513からRAM(Random Access Memory)503にロードされたプログラムに従って各種の処理を実行する。RAM503にはまた、CPU501が各種の処理を実行する上において必要なデータなども適宜記憶される。   In FIG. 28, the CPU 501 of the personal computer 500 executes various processes according to a program stored in a ROM (Read Only Memory) 502 or a program loaded from a storage unit 513 to a RAM (Random Access Memory) 503. The RAM 503 also appropriately stores data necessary for the CPU 501 to execute various processes.

CPU501、ROM502、およびRAM503は、バス504を介して相互に接続されている。このバス504にはまた、入出力インタフェース510も接続されている。   The CPU 501, ROM 502, and RAM 503 are connected to each other via a bus 504. An input / output interface 510 is also connected to the bus 504.

入出力インタフェース510には、キーボード、マウスなどよりなる入力部511、CRT(Cathode Ray Tube)やLCD(Liquid Crystal Display)などよりなるディスプレイ、並びにスピーカなどよりなる出力部512、ハードディスクなどより構成される記憶部513、モデムなどより構成される通信部514が接続されている。通信部514は、インターネットを含むネットワークを介しての通信処理を行う。   The input / output interface 510 includes an input unit 511 including a keyboard and a mouse, a display including a CRT (Cathode Ray Tube) and an LCD (Liquid Crystal Display), an output unit 512 including a speaker, and a hard disk. A communication unit 514 including a storage unit 513 and a modem is connected. The communication unit 514 performs communication processing via a network including the Internet.

入出力インタフェース510にはまた、必要に応じてドライブ515が接続され、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア521が適宜装着され、それらから読み出されたコンピュータプログラムが、必要に応じて記憶部513にインストールされる。   A drive 515 is connected to the input / output interface 510 as necessary, and a removable medium 521 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory is appropriately mounted, and a computer program read from them is It is installed in the storage unit 513 as necessary.

上述した一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、ネットワークや記録媒体からインストールされる。   When the above-described series of processing is executed by software, a program constituting the software is installed from a network or a recording medium.

この記録媒体は、例えば、図29に示されるように、装置本体とは別に、ユーザにプログラムを配信するために配布される、プログラムが記録されている磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc - Read Only Memory),DVD(Digital Versatile Disc)を含む)、光磁気ディスク(MD(Mini Disc)を含む)、もしくは半導体メモリなどよりなるリムーバブルメディア521により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに配信される、プログラムが記録されているROM502や、記憶部513に含まれるハードディスクなどで構成される。   For example, as shown in FIG. 29, the recording medium is distributed to distribute the program to the user separately from the apparatus main body, and includes a magnetic disk (including a flexible disk) on which the program is recorded, an optical disk ( It only consists of removable media 521 consisting of CD-ROM (compact disc-read only memory), DVD (including digital versatile disc), magneto-optical disc (including MD (mini disc)), or semiconductor memory. Rather, it is composed of a ROM 502 on which a program is recorded and a hard disk included in the storage unit 513, which is distributed to the user in a state of being pre-installed in the apparatus main body.

なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。   The program executed by the computer may be a program that is processed in time series in the order described in this specification, or in parallel or at a necessary timing such as when a call is made. It may be a program for processing.

また、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   Further, in the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in chronological order according to the described order, but may be performed in parallel or It also includes processes that are executed individually.

また、本明細書において、システムとは、複数のデバイス(装置)により構成される装置全体を表すものである。   Further, in this specification, the system represents the entire apparatus composed of a plurality of devices (apparatuses).

また、以上において、1つの装置(または処理部)として説明した構成を分割し、複数の装置(または処理部)として構成するようにしてもよい。逆に、以上において複数の装置(または処理部)として説明した構成をまとめて1つの装置(または処理部)として構成されるようにしてもよい。また、各装置(または各処理部)の構成に上述した以外の構成を付加するようにしてももちろんよい。さらに、システム全体としての構成や動作が実質的に同じであれば、ある装置(または処理部)の構成の一部を他の装置(または他の処理部)の構成に含めるようにしてもよい。つまり、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。   In addition, in the above description, the configuration described as one device (or processing unit) may be divided and configured as a plurality of devices (or processing units). Conversely, the configurations described above as a plurality of devices (or processing units) may be combined into a single device (or processing unit). Of course, a configuration other than that described above may be added to the configuration of each device (or each processing unit). Furthermore, if the configuration and operation of the entire system are substantially the same, a part of the configuration of a certain device (or processing unit) may be included in the configuration of another device (or other processing unit). . That is, the embodiment of the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the gist of the present invention.

なお、本発明は、例えば、テレビジョン受像機など、インターレース画像をプログレッシブ画像に変換する画像処理装置に適用することができる。   The present invention can be applied to an image processing apparatus that converts an interlaced image into a progressive image, such as a television receiver.

100 画像変換装置, 111 巡回型IP変換スケーリング部, 121 IP変換スケーリング部, 122 巡回型変換部, 131 動きベクトル検出部, 132 MCブロック差分検出部, 133 巡回係数設定部, 134 動き補償部, 135 積和演算部, 136 フレームメモリ, 137 スケーリング部, 251 基本巡回係数設定部, 252 動き分散検出部, 253 巡回係数算出部, 261 動き分散差し引き量算出部, 262 MCブロック差分差し引き量算出部, 263 演算部, 264 演算部, 331 動きベクトル検出部, 332 MCブロック差分検出部, 341 フレームメモリ, 431 動きベクトル検出部, 432 MCブロック差分検出部, 441 フレームメモリ   100 image converter, 111 cyclic IP conversion scaling unit, 121 IP conversion scaling unit, 122 cyclic conversion unit, 131 motion vector detection unit, 132 MC block difference detection unit, 133 cyclic coefficient setting unit, 134 motion compensation unit, 135 Product-sum operation unit, 136 frame memory, 137 scaling unit, 251 basic cyclic coefficient setting unit, 252 motion variance detection unit, 253 cyclic coefficient calculation unit, 261 motion variance subtraction amount calculation unit, 262 MC block difference subtraction amount calculation unit, 263 Calculation unit, 264 calculation unit, 331 motion vector detection unit, 332 MC block difference detection unit, 341 frame memory, 431 motion vector detection unit, 432 MC block difference detection unit, 441 frame memory

Claims (10)

インターレース方式の入力画像を、スケーリングされたプログレッシブ方式の出力画像に変換する画像処理装置において、
前記入力画像をプログレッシブ方式の画像に変換し、さらに画像サイズを変換することにより、スケーリングされたプログレッシブ方式の中間画像に変換するIP変換スケーリング手段と、
前記入力画像の画素の間隔より短い距離を最小単位とする前記入力画像の動きベクトルを検出する動きベクトル検出手段と、
前記動きベクトル検出手段により検出された前記動きベクトル、並びに、前記入力画像の画素と、前記IP変換スケーリング手段により前記入力画像が変換された前記中間画像の画素との位置関係に基づいて、画素毎に巡回係数を設定する巡回係数設定手段と、
前記動きベクトル検出手段により検出された前記動きベクトルに基づいて、過去の前記出力画像に対して動き補償を施した画像である動き補償画像を生成する動き補償手段と、
前記IP変換スケーリング手段により前記入力画像が変換された前記中間画像の画素の画素値と、前記動き補償手段により生成された前記動き補償画像の対応する位置にある画素の画素値とを、前記巡回係数設定手段により設定された前記巡回係数を用いて重み付け加算することにより前記出力画像を生成する出力画像生成手段と
を備える画像処理装置。
In an image processing apparatus that converts an interlaced input image into a scaled progressive output image,
IP conversion scaling means for converting the input image into a progressive image, and further converting the image size into a scaled intermediate intermediate image;
A motion vector detecting means for detecting a motion vector of the input image having a distance shorter than an interval between pixels of the input image as a minimum unit;
Based on the positional relationship between the motion vector detected by the motion vector detection means and the pixels of the input image and the pixels of the intermediate image obtained by converting the input image by the IP conversion scaling means. Cyclic coefficient setting means for setting a cyclic coefficient in
Motion compensation means for generating a motion compensated image, which is an image obtained by performing motion compensation on the past output image, based on the motion vector detected by the motion vector detection means;
A pixel value of a pixel of the intermediate image obtained by converting the input image by the IP conversion scaling unit and a pixel value of a pixel at a corresponding position of the motion compensation image generated by the motion compensation unit An image processing apparatus comprising: output image generation means for generating the output image by weighted addition using the cyclic coefficient set by the coefficient setting means.
前記巡回係数設定手段は、前記中間画像の現在のフレームにおいて、注目画素と、前記注目画像に最も近い入力画像の画素との距離が近いほど、前記巡回係数の値を小さく設定する
請求項1に記載の画像処理装置。
The cyclic coefficient setting means sets the value of the cyclic coefficient to be smaller as the distance between the target pixel and the pixel of the input image closest to the target image is shorter in the current frame of the intermediate image. The image processing apparatus described.
前記巡回係数設定手段は、前記中間画像の過去のフレームにおいて、前記注目画素から前記動きベクトル分移動した位置と、前記位置に最も近い入力画像の画素との距離が近いほど、前記巡回係数の値を大きく設定する
請求項1に記載の画像処理装置。
The cyclic coefficient setting means determines the value of the cyclic coefficient as the distance between the position moved by the motion vector from the pixel of interest and the pixel of the input image closest to the position is shorter in the past frame of the intermediate image. The image processing apparatus according to claim 1, wherein a large value is set.
前記動きベクトルの信頼度を検出する信頼度検出手段と、
前記動きベクトルの信頼度に基づいて、前記巡回係数を補正する補正手段と
をさらに備える請求項1に記載の画像処理装置。
Reliability detection means for detecting the reliability of the motion vector;
The image processing apparatus according to claim 1, further comprising: a correcting unit that corrects the cyclic coefficient based on the reliability of the motion vector.
前記信頼度検出手段は、前記動きベクトルの信頼度として、それぞれの前記動きベクトルについて、周辺の前記動きベクトルとのばらつきの度合いを示す第1の動き分散を検出し、
前記補正手段は、前記第1の動き分散が大きいほど、前記巡回係数を小さくするように補正する
請求項4に記載の画像処理装置。
The reliability detection means detects, as the reliability of the motion vector, a first motion variance indicating a degree of variation from the surrounding motion vector for each of the motion vectors,
The image processing apparatus according to claim 4, wherein the correction unit corrects the cyclic coefficient to be smaller as the first motion variance is larger.
前記信頼度検出手段は、さらに、前記動きベクトルの信頼度として、それぞれの前記動きベクトルについて、その前記動きベクトルに対応する画素を前記動きベクトルで示される方向および距離だけ移動した位置の周辺における1フレーム前の動きベクトルとのばらつきの度合いを示す第2の動き分散を検出し、
前記補正手段は、さらに、前記第2の動き分散が大きいほど、前記巡回係数を小さくするように補正する
請求項5に記載の画像処理装置。
The reliability detection means further determines, as the reliability of the motion vector, 1 for each of the motion vectors around the position where the pixel corresponding to the motion vector is moved by the direction and distance indicated by the motion vector. Detecting a second motion variance indicating the degree of variation with the motion vector before the frame;
The image processing apparatus according to claim 5, wherein the correction unit further corrects the cyclic coefficient so as to decrease as the second motion variance increases.
前記動きベクトル検出手段は、所定の大きさのブロックごとに前記動きベクトルを検出し、
前記信頼度検出手段は、前記入力画像の前記ブロック内の画素値と、前記ブロックを前記動きベクトルで示される方向および距離だけ移動させた前記過去の出力画像のブロック内の画素値との差分値を検出し、
前記補正手段は、前記差分値が大きいほど、前記巡回係数を小さくするように補正する
請求項4に記載の画像処理装置。
The motion vector detection means detects the motion vector for each block of a predetermined size,
The reliability detection means is a difference value between a pixel value in the block of the input image and a pixel value in the block of the past output image obtained by moving the block by a direction and a distance indicated by the motion vector. Detect
The image processing apparatus according to claim 4, wherein the correction unit corrects the cyclic coefficient so as to decrease as the difference value increases.
前記出力画像生成手段は、前記巡回係数が大きいほど前記出力画像における前記動き補償画像の割合を多くし、前記巡回係数が小さいほど前記出力画像における前記中間画像の割合を多くする
請求項1に記載の画像処理装置。
The output image generation means increases the ratio of the motion compensated image in the output image as the cyclic coefficient increases, and increases the ratio of the intermediate image in the output image as the cyclic coefficient decreases. Image processing apparatus.
インターレース方式の入力画像を、スケーリングされたプログレッシブ方式の出力画像に変換する画像処理装置の画像処理方法であって、
前記画像処理装置のIP変換スケーリング手段が、前記入力画像をプログレッシブ方式の画像に変換し、さらに画像サイズを変換することにより、スケーリングされたプログレッシブ方式の中間画像に変換し、
前記画像処理装置の動きベクトル検出手段が、前記入力画像の画素の間隔より短い距離を最小単位とする前記入力画像の動きベクトルを検出し、
前記画像処理装置の巡回係数設定手段が、検出された前記動きベクトル、並びに、前記入力画像の画素と、前記入力画像が変換された前記中間画像の画素との位置関係に基づいて、画素毎に巡回係数を設定し、
前記画像処理装置の動き補償手段が、検出された前記動きベクトルに基づいて、過去の前記出力画像に対して動き補償を施した画像である動き補償画像を生成し、
前記画像処理装置の出力画像生成手段が、前記入力画像が変換された前記中間画像の画素の画素値と、生成された前記動き補償画像の対応する位置にある画素の画素値とを、設定された前記巡回係数を用いて重み付け加算することにより前記出力画像を生成する
画像処理方法。
An image processing method of an image processing apparatus for converting an interlaced input image into a scaled progressive output image,
The IP conversion scaling means of the image processing device converts the input image into a progressive image, and further converts the image size into a scaled progressive intermediate image,
The motion vector detection means of the image processing device detects a motion vector of the input image having a minimum unit of a distance shorter than an interval of pixels of the input image;
The cyclic coefficient setting means of the image processing device, for each pixel, based on the detected motion vector and the positional relationship between the pixel of the input image and the pixel of the intermediate image obtained by converting the input image. Set the cyclic coefficient
The motion compensation unit of the image processing device generates a motion compensated image that is an image obtained by performing motion compensation on the past output image based on the detected motion vector,
The output image generation means of the image processing device sets the pixel value of the pixel of the intermediate image obtained by converting the input image and the pixel value of the pixel at the corresponding position of the generated motion compensation image. An image processing method for generating the output image by performing weighted addition using the cyclic coefficient.
インターレース方式の入力画像を、スケーリングされたプログレッシブ方式の出力画像に変換するコンピュータを、
前記入力画像をプログレッシブ方式の画像に変換し、さらに画像サイズを変換することにより、スケーリングされたプログレッシブ方式の中間画像に変換するIP変換スケーリング手段と、
前記入力画像の画素の間隔より短い距離を最小単位とする前記入力画像の動きベクトルを検出する動きベクトル検出手段と、
前記動きベクトル検出手段により検出された前記動きベクトル、並びに、前記入力画像の画素と、前記IP変換スケーリング手段により前記入力画像が変換された前記中間画像の画素との位置関係に基づいて、画素毎に巡回係数を設定する巡回係数設定手段と、
前記動きベクトル検出手段により検出された前記動きベクトルに基づいて、過去の前記出力画像に対して動き補償を施した画像である動き補償画像を生成する動き補償手段と、
前記IP変換スケーリング手段により前記入力画像が変換された前記中間画像の画素の画素値と、前記動き補償手段により生成された前記動き補償画像の対応する位置にある画素の画素値とを、前記巡回係数設定手段により設定された前記巡回係数を用いて重み付け加算することにより前記出力画像を生成する出力画像生成手段
として機能させるプログラム。
A computer that converts interlaced input images to scaled progressive output images.
IP conversion scaling means for converting the input image into a progressive image, and further converting the image size into a scaled intermediate intermediate image;
A motion vector detecting means for detecting a motion vector of the input image having a distance shorter than an interval between pixels of the input image as a minimum unit;
Based on the positional relationship between the motion vector detected by the motion vector detection means and the pixels of the input image and the pixels of the intermediate image obtained by converting the input image by the IP conversion scaling means. Cyclic coefficient setting means for setting a cyclic coefficient in
Motion compensation means for generating a motion compensated image, which is an image obtained by performing motion compensation on the past output image, based on the motion vector detected by the motion vector detection means;
A pixel value of a pixel of the intermediate image obtained by converting the input image by the IP conversion scaling unit and a pixel value of a pixel at a corresponding position of the motion compensation image generated by the motion compensation unit A program that functions as an output image generation unit that generates the output image by performing weighted addition using the cyclic coefficient set by a coefficient setting unit.
JP2010080522A 2010-03-31 2010-03-31 Image processor and method, and program Withdrawn JP2011216967A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010080522A JP2011216967A (en) 2010-03-31 2010-03-31 Image processor and method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010080522A JP2011216967A (en) 2010-03-31 2010-03-31 Image processor and method, and program

Publications (1)

Publication Number Publication Date
JP2011216967A true JP2011216967A (en) 2011-10-27

Family

ID=44946304

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010080522A Withdrawn JP2011216967A (en) 2010-03-31 2010-03-31 Image processor and method, and program

Country Status (1)

Country Link
JP (1) JP2011216967A (en)

Similar Documents

Publication Publication Date Title
US8189941B2 (en) Image processing device, display device, image processing method, and program
US8264600B2 (en) Image processing apparatus for converting a lower resolution image into a higher resolution image using cyclic coefficients
US8254726B2 (en) Image processing apparatus, image processing method, and program
EP2164040B1 (en) System and method for high quality image and video upscaling
US8331710B2 (en) Image processing apparatus and method, learning apparatus and method, and program
US20030081144A1 (en) Video data de-interlacing using perceptually-tuned interpolation scheme
US20080013835A1 (en) Image processing apparatus and method, program recording medium, and program
JP2009239726A (en) Interpolated image generating apparatus, method, and program
JP2013021635A (en) Image processor, image processing method, program and recording medium
JP2009533928A (en) Method for determining estimated motion vector in image signal, computer program, computer program product, and display device
US8675128B2 (en) Image processing method and system with repetitive pattern detection
JP4470898B2 (en) Image processing apparatus and method, and program
TW201429227A (en) Noise estimation apparatus and method thereof
JP2021184594A (en) Video frame interpolation device and method
JP2009152820A (en) Learning apparatus and method, image processing apparatus and method, and program
JP2012235407A (en) Image processing apparatus and image processing method
JP2011119824A (en) Image processor and image processing program
CN111784733A (en) Image processing method, device, terminal and computer readable storage medium
CN103793892B (en) Image processing apparatus and image processing method
JP2011216967A (en) Image processor and method, and program
JP2007251690A (en) Image processing apparatus and method therefor, learning apparatus and method therefor, and program
JP4470324B2 (en) Image signal conversion apparatus and method
JP2005311588A (en) Signal processing apparatus and method, recording medium, and program
JP2011142400A (en) Motion vector detecting device and method, video display device, video recorder, video reproducing device, program and recording medium
JP4470282B2 (en) Image processing apparatus and image processing method

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20130604