JP2009272713A - Image processor, image processing method, coefficient data generator and coefficient data generation method - Google Patents

Image processor, image processing method, coefficient data generator and coefficient data generation method Download PDF

Info

Publication number
JP2009272713A
JP2009272713A JP2008119135A JP2008119135A JP2009272713A JP 2009272713 A JP2009272713 A JP 2009272713A JP 2008119135 A JP2008119135 A JP 2008119135A JP 2008119135 A JP2008119135 A JP 2008119135A JP 2009272713 A JP2009272713 A JP 2009272713A
Authority
JP
Japan
Prior art keywords
class
pixel data
edge
feature amount
curved surface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008119135A
Other languages
Japanese (ja)
Inventor
Hironari Aoki
裕也 青木
Takeshi Kunihiro
威 國弘
Tetsujiro Kondo
哲二郎 近藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2008119135A priority Critical patent/JP2009272713A/en
Publication of JP2009272713A publication Critical patent/JP2009272713A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Television Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To steeply erect the edge of an image and to reduce ringing. <P>SOLUTION: From an interpolated curved surface generated by an interpolated curved surface generation circuit 1, a feature amount indicating the phase of the edge in the image signals of a high resolution and a feature amount indicating the direction of the edge are calculated. From the calculated feature amounts indicating the phase and direction of the edge, a class to which the pixel data of a position under consideration belongs is detected. Thus, when generating the image signals of the high resolution, the edge is steeply erected and ringing is reduced. Especially, during high density (zoom), the image signals of the high resolution for which the edge is more steeply erected than before are obtained. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、標準解像度の画像を高解像度の画像に変換する場合などに用いて好適な画像処理装置及び画像処理方法並びに係数データ生成装置及び係数データ生成方法に関するものである。詳しくは、補間曲面生成部により生成された補間曲面から、高解像度の画像信号におけるエッジの位相を示す特徴量を算出し、該算出されたエッジの位相を示す特徴量から、注目位置の画素データが属するクラスを検出することで、高解像度の画像信号を生成する場合に、エッジを急峻に立たせることができようにすると共にリンギングを低減できるようにしたものである。   The present invention relates to an image processing apparatus, an image processing method, a coefficient data generation apparatus, and a coefficient data generation method that are suitable for use in converting a standard resolution image into a high resolution image. Specifically, a feature amount indicating the phase of the edge in the high-resolution image signal is calculated from the interpolation curved surface generated by the interpolation curved surface generation unit, and the pixel data of the target position is calculated from the feature amount indicating the calculated phase of the edge. By detecting the class to which the image belongs, when generating a high-resolution image signal, the edge can be made to stand sharply and the ringing can be reduced.

従来、標準解像度または低解像度の画像(以下SD画像ともいう)を、高解像度の画像(以下HD画像ともいう)に変換したり、また、画像を拡大したりする処理が行われている。この場合、いわゆる補間フィルタなどによって、不足している画素の画素値の補間(補償)を行う。   Conventionally, processing of converting a standard resolution or low resolution image (hereinafter also referred to as an SD image) into a high resolution image (hereinafter also referred to as an HD image) or enlarging the image has been performed. In this case, the interpolation (compensation) of the pixel values of the missing pixels is performed by a so-called interpolation filter or the like.

しかしながら、補間フィルタによって画素の補間を行っても、SD画像に含まれていない、HD画像の成分(高周波成分)を復元することはできないため、高解像度の画像を得ることは困難であった。   However, even if pixel interpolation is performed using an interpolation filter, it is difficult to obtain a high-resolution image because the HD image component (high-frequency component) that is not included in the SD image cannot be restored.

この問題を解決した画像処理装置は、SD画像と所定の係数データとの線形結合により、HD画像の画素の予測値を求める適応処理を行うことで、SD画像には含まれていない高周波成分を復元する。   An image processing apparatus that has solved this problem performs high-frequency components that are not included in the SD image by performing an adaptive process for obtaining a predicted value of a pixel of the HD image by linear combination of the SD image and predetermined coefficient data. Restore.

例えば、いま、HD画像を構成する画素(以下HD画素ともいう)の画素値yの予測値E[y]を、幾つかのSD画素(SD画像を構成する画素)の画素値(以下学習データともいう)x1、x2、・・・、xiと、所定の係数データw1、w2、・・・、wiの線形結合により規定される線形1次結合モデルにより求めることを考える。この場合、予測値E[y]は、下記の式(1)で表すことができる。   For example, the predicted value E [y] of the pixel value y of a pixel constituting the HD image (hereinafter also referred to as HD pixel) is set to the pixel value (hereinafter referred to as learning data) of several SD pixels (pixels constituting the SD image). (Also referred to as) x1, x2,..., Xi and predetermined coefficient data w1, w2,. In this case, the predicted value E [y] can be expressed by the following formula (1).

そこで、一般化するために、係数データwの集合でなる行列W、学習データの集合でなる行列X、および予測値E[y]の集合でなる行列Y’を、下記の式(2)で定義する。   Therefore, in order to generalize, a matrix W composed of a set of coefficient data w, a matrix X composed of a set of learning data, and a matrix Y ′ composed of a set of predicted values E [y] are expressed by the following equation (2). Define.

これにより、下記の式(3)のような観測方程式が成立する。   As a result, an observation equation such as the following equation (3) is established.

そして、式(3)に示す観測方程式に最小自乗法を適用して、HD画素の画素値yに近い予測値E[y]を求めることを考える。この場合、教師データとなるHD画素の真の画素値yの集合でなる行列Y、およびHD画素の画素値yに対する予測値E[y]の残差eの集合でなる行列Eを下記の式(4)で定義する。   Then, it is considered that the least square method is applied to the observation equation shown in Expression (3) to obtain a predicted value E [y] close to the pixel value y of the HD pixel. In this case, a matrix Y composed of a set of true pixel values y of HD pixels serving as teacher data and a matrix E composed of a set of residuals e of predicted values E [y] with respect to the pixel values y of HD pixels are expressed by the following equations: It is defined in (4).

これにより、式(3)から下記の式(5)に示す残差方程式が成立する。   Thereby, the residual equation shown in the following formula (5) is established from the formula (3).

この場合、HD画素の画素値yに近い予測値E[y]を求めるための係数データwiは、例えば、下記の式(6)に示す自乗誤差を最小にすることで求めることができる。   In this case, the coefficient data wi for obtaining the predicted value E [y] close to the pixel value y of the HD pixel can be obtained, for example, by minimizing the square error shown in the following equation (6).

従って、式(6)の自乗誤差を係数データwiで微分したものが0になる場合、即ち、下記の式(7)を満たす係数データwiが、HD画素の画素値yに近い予測値E[y]を求めるため最適値ということになる。   Accordingly, when the square error of the equation (6) is differentiated by the coefficient data wi is 0, that is, the coefficient data wi satisfying the following equation (7) is the predicted value E [ This is an optimum value for obtaining y].

そこで、まず、式(7)を、係数データwiで微分することにより、下記の式(8)が成立する。   Therefore, first, the following equation (8) is established by differentiating the equation (7) with the coefficient data wi.

式(7)および式(8)より、下記の式(9)が得られる。   From the equations (7) and (8), the following equation (9) is obtained.

さらに、式(5)の残差方程式における学習データx、係数データw、教師データy、および残差eの関係を考慮すると、式(9)から、下記の式(10)に示す正規方程式を得ることができる。   Further, considering the relationship between the learning data x, the coefficient data w, the teacher data y, and the residual e in the residual equation of the equation (5), the normal equation shown in the following equation (10) is obtained from the equation (9). Obtainable.

式(10)の正規方程式は、求めるべき係数データwの数と同じ数だけたてることができ、従って、式(10)を解くことで(但し、式(10)を解くには、式(10)において、係数データwにかかる係数で構成される行列が正則である必要がある)、最適な係数データwを求めることができる。なお、式(10)を解くにあたっては、例えば、掃き出し法(Gauss-Jordanの消去法)などを適用することが可能である。   The normal equation of equation (10) can be formed by the same number as the number of coefficient data w to be obtained. Therefore, by solving equation (10) (however, to solve equation (10), equation (10) 10), the matrix composed of the coefficients related to the coefficient data w needs to be regular), and the optimum coefficient data w can be obtained. In solving the equation (10), for example, a sweeping method (Gauss-Jordan elimination method) or the like can be applied.

以上のようにして、最適な係数データwを求めておき、さらに、その係数データwを用い、式1により、HD画素の画素値yに近い予測値E[y]を求めるのが適応処理である。なお、適応処理は、SD画像には含まれていない、HD画像に含まれる成分が再現される点で、補間処理とは異なる。即ち、適応処理では、式(1)だけを見る限りは、いわゆる補間フィルタを用いての補間処理と同一であるが、その補間フィルタのタップ係数に相当する係数データwが、教師データyを用いての、いわば学習により求められるため、HD画像に含まれる成分を再現することができる。即ち、容易に、高解像度の画像を得ることができる。このことから、適応処理は、いわば画像(の解像度)の創造作用がある処理ということができる。   As described above, the optimum coefficient data w is obtained, and further, the adaptive data is obtained by using the coefficient data w to obtain the predicted value E [y] close to the pixel value y of the HD pixel using Equation 1. is there. Note that the adaptive processing is different from the interpolation processing in that a component included in the HD image that is not included in the SD image is reproduced. That is, the adaptive process is the same as the interpolation process using a so-called interpolation filter as long as only Expression (1) is seen, but the coefficient data w corresponding to the tap coefficient of the interpolation filter uses the teacher data y. In other words, since it is obtained by learning, the components included in the HD image can be reproduced. That is, a high-resolution image can be easily obtained. From this, it can be said that the adaptive process is a process having an effect of creating an image (resolution).

図18は、以上のような適応処理により、SD画像データDinをHD画像データDoutに変換する画像処理装置400の構成例を示すブロック図である。SD画像データDinは、入力として予測タップ選択回路6とクラスタップ選択回路10に供給される。   FIG. 18 is a block diagram illustrating a configuration example of the image processing apparatus 400 that converts the SD image data Din into the HD image data Dout by the adaptive processing as described above. The SD image data Din is supplied as an input to the prediction tap selection circuit 6 and the class tap selection circuit 10.

クラスタップ選択回路10は、適応処理により予測値を求めようとするHD画素(以下注目画素ともいう)に対応するSD画素(以下クラスタップともいう)を選択する。クラス検出回路11は、クラスタップを構成するSD画素の画素値のレベルパターン(画素値の分布)を検出する。例えば、クラス検出回路11は、クラスタップを構成するSD画素の特徴量をADRC(Adaptive Dynamic Range Coding)を用いて求めて所定のクラスにクラス分類する。クラスコード生成回路4Cは、そのレベルパターンにあらかじめ割り当てられた値を注目画素のクラスコードとして算出して係数メモリ5Cに出力する。   The class tap selection circuit 10 selects an SD pixel (hereinafter also referred to as a class tap) corresponding to an HD pixel (hereinafter also referred to as a target pixel) for which a predicted value is to be obtained by adaptive processing. The class detection circuit 11 detects a level pattern (pixel value distribution) of pixel values of SD pixels constituting the class tap. For example, the class detection circuit 11 obtains the feature amount of the SD pixel constituting the class tap using ADRC (Adaptive Dynamic Range Coding) and classifies the feature amount into a predetermined class. The class code generation circuit 4C calculates a value assigned in advance to the level pattern as the class code of the target pixel and outputs it to the coefficient memory 5C.

係数メモリ5Cは、このクラスコードに基づいて係数データを推定予測演算回路7に出力する。すなわち、係数メモリ5Cは、あらかじめ学習が行われることにより求められた係数データをクラス毎に記憶しており、クラスコードが供給されるとそのクラスコードに対応する係数データを読み出し、推定予測演算回路7に供給する。   The coefficient memory 5C outputs coefficient data to the estimated prediction calculation circuit 7 based on this class code. That is, the coefficient memory 5C stores coefficient data obtained by learning in advance for each class. When a class code is supplied, the coefficient data corresponding to the class code is read, and an estimated prediction calculation circuit 7 is supplied.

これにより、推定予測演算回路7には、予測タップ選択回路6からの注目画素に対応する予測タップと、その注目画素のクラスについての係数データとが供給される。そして、推定予測演算回路7は、係数データw1、w2、・・・、wiと、予測タップ選択回路からの予測タップを構成するSD画素x1、x2、・・・、xiとを用いて、式(1)に示した演算を行う。これにより、注目画素(HD画素)の画素値yの予測値E[y]が求められ、これが、HD画素の画素値として出力される。   As a result, the prediction prediction calculation circuit 7 is supplied with the prediction tap corresponding to the target pixel from the prediction tap selection circuit 6 and the coefficient data for the class of the target pixel. Then, the estimated prediction calculation circuit 7 uses the coefficient data w1, w2,..., Wi and the SD pixels x1, x2,. The calculation shown in (1) is performed. Thereby, the predicted value E [y] of the pixel value y of the target pixel (HD pixel) is obtained, and this is output as the pixel value of the HD pixel.

このような従来例に関連して、特許文献1には、SD画素をHD画素に変換する画像信号変換装置が開示されている。この画像信号変換装置によれば、ADRCにより求められた空間クラス、及びフレーム間差分値から求められた動きクラスに基づいてクラスを決定している。   In relation to such a conventional example, Patent Document 1 discloses an image signal conversion device that converts SD pixels into HD pixels. According to this image signal conversion apparatus, the class is determined based on the space class obtained by ADRC and the motion class obtained from the inter-frame difference value.

特開2001−238185号公報JP 2001-238185 A

ところで、従来例及び特許文献1に係るクラス検出回路は、クラスタップを構成するSD画素の特徴量をADRCを用いて求めて所定のクラスにクラス分類している。このように、画素精度(画素単位)での特徴量を利用しているので、高倍密(ズーム)変換を行ったときにエッジの波形が立たないという問題があった。また、リンギングが発生する問題があった。   By the way, the class detection circuit according to the conventional example and Patent Document 1 obtains the feature amount of the SD pixel constituting the class tap using ADRC and classifies the feature amount into a predetermined class. As described above, since the feature amount with pixel accuracy (pixel unit) is used, there is a problem that the waveform of the edge does not appear when performing high-density (zoom) conversion. There is also a problem that ringing occurs.

そこで、本発明はこのような課題を解決したものであって、画像のエッジを急峻に立たせることができようにすると共にリンギングを低減できるようにした画像処理装置及び画像処理方法並びに係数データ生成装置及び係数データ生成方法を提供することを目的とする。   Therefore, the present invention solves such a problem, and an image processing apparatus, an image processing method, and coefficient data generation capable of reducing the ringing while allowing the edges of the image to stand sharply. An object is to provide an apparatus and a coefficient data generation method.

上述した課題を解決するために、本発明に係る画像処理装置は、第1の画像信号から、当該第1の画像信号よりも高解像度の第2の画像信号における注目位置の周辺に位置する複数の第1の画素データを選択して補間曲面を生成する補間曲面生成部と、前記補間曲面生成部により生成された補間曲面から、前記第2の画像信号におけるエッジの位相を示す特徴量を算出する特徴量算出部と、前記特徴量算出部により算出されたエッジの位相を示す特徴量から、前記注目位置の画素データが属するクラスを検出する第1のクラス検出部と、前記第1のクラス検出部で検出されたクラスを参照して係数データを選択する係数データ選択部と、前記第1の画像信号から、前記第2の画像信号における注目位置の周辺に位置する複数の第2の画素データを選択する第1の画素データ選択部と、前記第1の画素データ選択部で選択された複数の第2の画素データと前記係数データ選択部で選択された係数データとを演算して、前記注目位置の画素データを求める推定演算部とを備えるものである。   In order to solve the above-described problem, an image processing apparatus according to the present invention includes a plurality of image processing devices that are located around a target position in a second image signal having a higher resolution than the first image signal. A feature amount indicating the phase of the edge in the second image signal is calculated from an interpolation curved surface generation unit that selects the first pixel data and generates an interpolation curved surface, and the interpolation curved surface generated by the interpolation curved surface generation unit A first class detection unit that detects a class to which the pixel data of the target position belongs, from the feature quantity indicating the phase of the edge calculated by the feature quantity calculation unit, and the first class A coefficient data selection unit that selects coefficient data with reference to the class detected by the detection unit; and a plurality of second pixels located around the target position in the second image signal from the first image signal Day Calculating a first pixel data selection unit that selects the plurality of second pixel data selected by the first pixel data selection unit and the coefficient data selected by the coefficient data selection unit, An estimation calculation unit for obtaining pixel data of the target position.

本発明に係る画像処理装置によれば、補間曲面生成部は、第1の画像信号から、当該第1の画像信号よりも高解像度の第2の画像信号における注目位置の周辺に位置する複数の第1の画素データを選択して補間曲面を生成する。特徴量算出部は、この補間曲面から、第2の画像信号におけるエッジの位相を示す特徴量を算出する。第1のクラス検出部は、エッジの位相を示す特徴量から、注目位置の画素データが属するクラスを検出する。係数データ選択部は、検出されたクラスを参照して係数データを選択する。推定演算部は、複数の第2の画素データと係数データとを演算して注目位置の画素データを求める。   According to the image processing device of the present invention, the interpolation curved surface generation unit includes a plurality of positions located around the position of interest in the second image signal having a higher resolution than the first image signal from the first image signal. The first pixel data is selected to generate an interpolation curved surface. The feature amount calculation unit calculates a feature amount indicating the phase of the edge in the second image signal from the interpolation curved surface. The first class detection unit detects the class to which the pixel data of the target position belongs from the feature quantity indicating the phase of the edge. The coefficient data selection unit selects coefficient data with reference to the detected class. The estimation calculation unit calculates a plurality of second pixel data and coefficient data to obtain pixel data of the target position.

この例で、上述の特徴量算出部は、補間曲面から、第2の画像信号におけるエッジの方向を示す特徴量を算出する。第1のクラス検出部は、エッジの位相を示す特徴量及びエッジの方向を示す特徴量から、注目位置の画素データが属するクラスを検出する。これにより、高解像度の画像信号を生成する場合に、エッジを急峻に立たせることができると共にリンギングを低減することができる。   In this example, the feature amount calculation unit described above calculates a feature amount indicating the direction of the edge in the second image signal from the interpolation curved surface. The first class detection unit detects a class to which the pixel data of the target position belongs, from the feature quantity indicating the edge phase and the feature quantity indicating the edge direction. As a result, when a high-resolution image signal is generated, edges can be sharply raised and ringing can be reduced.

上述した課題を解決するために、本発明に係る画像処理方法は、第1の画像信号から、当該第1の画像信号よりも高解像度の第2の画像信号における注目位置の周辺に位置する複数の第1の画素データを選択して補間曲面を生成する第1のステップと、前記第1のステップで生成された補間曲面から、前記第2の画像信号におけるエッジの位相を示す特徴量を算出する第2のステップと、前記第2のステップで算出されたエッジの位相を示す特徴量から、前記注目位置の画素データが属するクラスを検出する第3のステップと、前記第3のステップで検出されたクラスを参照して係数データを選択する第4のステップと、前記第1の画像信号から、前記第2の画像信号における注目位置の周辺に位置する複数の第2の画素データを選択する第5のステップと、前記第5のステップで選択された複数の第2の画素データと前記第4のステップで選択された係数データとを演算して、前記注目位置の画素データを求める第6のステップとを有するものである。   In order to solve the above-described problem, an image processing method according to the present invention includes a plurality of images that are located around a target position in a second image signal having a higher resolution than the first image signal. A feature amount indicating the phase of an edge in the second image signal is calculated from a first step of generating an interpolation curved surface by selecting the first pixel data and an interpolation curved surface generated in the first step. A second step of detecting, a third step of detecting a class to which the pixel data of the target position belongs from the feature amount indicating the phase of the edge calculated in the second step, and detecting in the third step A fourth step of selecting coefficient data with reference to the determined class, and selecting a plurality of second pixel data located around the position of interest in the second image signal from the first image signal First And a sixth step of calculating the plurality of second pixel data selected in the fifth step and the coefficient data selected in the fourth step to obtain the pixel data of the target position It has.

上述した課題を解決するために、本発明に係る係数データ生成装置は、第1の画像信号よりも高解像度の第2の画像信号に対応する教師信号から前記第1の画像信号に対応する生徒信号を生成する生徒信号生成部と、前記生徒信号生成部により生成された前記生徒信号から、前記教師信号における注目位置の周辺に位置する複数の第1の画素データを選択して補間曲面を生成する補間曲面生成部と、前記補間曲面生成部により生成された補間曲面から、前記教師信号におけるエッジの位相を示す特徴量を算出する特徴量算出部と、前記特徴量算出部により算出されたエッジの位相を示す特徴量から、前記注目位置の画素データが属するクラスを検出する第1のクラス検出部と、前記生徒信号生成部により生成された生徒信号から、前記教師信号における注目位置の周辺に位置する複数の第2の画素データを選択する第1の画素データ選択部と、前記第1のクラス検出部で検出されたクラス、前記第1の画素データ選択部で選択された複数の第2の画素データおよび前記教師信号における注目位置の画素データを用いた演算により、前記第1の画像信号を前記第2の画像信号に変換する際に用いられる係数データをクラス毎に求める演算部とを備えるものである。   In order to solve the above-described problem, the coefficient data generation device according to the present invention includes a student corresponding to the first image signal from a teacher signal corresponding to the second image signal having a higher resolution than the first image signal. A student signal generation unit that generates a signal, and a plurality of first pixel data located around a target position in the teacher signal are selected from the student signal generated by the student signal generation unit to generate an interpolation curved surface An interpolated curved surface generation unit, a feature amount calculating unit that calculates a feature amount indicating a phase of an edge in the teacher signal from the interpolated curved surface generated by the interpolated curved surface generation unit, and an edge calculated by the feature amount calculating unit A first class detection unit that detects a class to which the pixel data of the target position belongs from a feature amount indicating a phase of the target position, and the teacher signal from the student signal generated by the student signal generation unit. A first pixel data selection unit that selects a plurality of second pixel data located around the target position in FIG. 1, a class detected by the first class detection unit, and a selection by the first pixel data selection unit Coefficient data used when converting the first image signal into the second image signal by calculation using the plurality of second pixel data and the pixel data of the target position in the teacher signal for each class And an arithmetic unit to be obtained.

本発明に係る係数データ生成装置によれば、補間曲面生成部は、教師信号における注目位置の周辺に位置する複数の第1の画素データを生徒信号から選択して補間曲面を生成する。特徴量算出部は、この補間曲面から、教師信号におけるエッジの位相を示す特徴量を算出する。第1のクラス検出部は、エッジの位相を示す特徴量から、注目位置の画素データが属するクラスを検出する。演算部は、第1のクラス検出部で検出されたクラス、第1の画素データ選択部で選択された複数の第2の画素データおよび教師信号における注目位置の画素データを用いた演算により、第1の画像信号を第2の画像信号に変換する際に用いられる係数データをクラス毎に求める。   According to the coefficient data generation apparatus of the present invention, the interpolation curved surface generation unit generates a interpolation curved surface by selecting a plurality of first pixel data located around the target position in the teacher signal from the student signal. The feature amount calculation unit calculates a feature amount indicating the phase of the edge in the teacher signal from the interpolation curved surface. The first class detection unit detects the class to which the pixel data of the target position belongs from the feature quantity indicating the phase of the edge. The calculation unit performs calculation using the class detected by the first class detection unit, the plurality of second pixel data selected by the first pixel data selection unit, and the pixel data of the target position in the teacher signal. Coefficient data used when converting one image signal into a second image signal is obtained for each class.

この例で、上述の特徴量算出部は、補間曲面から、教師信号におけるエッジの方向を示す特徴量を算出する。第1のクラス検出部は、エッジの位相を示す特徴量及びエッジの方向を示す特徴量から、注目位置の画素データが属するクラスを検出する。これにより、高解像度の画像信号を生成する場合に、エッジを急峻に立たせることができると共にリンギングを低減することができる係数データを提供できるようになる。   In this example, the feature amount calculation unit described above calculates a feature amount indicating the direction of the edge in the teacher signal from the interpolation curved surface. The first class detection unit detects a class to which the pixel data of the target position belongs, from the feature quantity indicating the edge phase and the feature quantity indicating the edge direction. As a result, when generating a high-resolution image signal, it is possible to provide coefficient data that can make edges sharply and reduce ringing.

本発明に係る画像処理装置及び画像処理方法によれば、補間曲面生成部により生成された補間曲面から、高解像度の画像信号におけるエッジの位相を示す特徴量を算出し、該算出されたエッジの位相を示す特徴量から、注目位置の画素データが属するクラスを検出するものである。   According to the image processing device and the image processing method of the present invention, the feature amount indicating the phase of the edge in the high-resolution image signal is calculated from the interpolation curved surface generated by the interpolation curved surface generation unit, and the calculated edge The class to which the pixel data of the target position belongs is detected from the feature quantity indicating the phase.

この構成によって、高解像度の画像信号を生成する場合に、エッジを急峻に立たせることができると共にリンギングを低減することができる。特に、高倍密(ズーム) 時に、今まで以上にエッジを急峻に立たせた高解像度の画像信号を得ることができる。   With this configuration, when a high-resolution image signal is generated, an edge can be made to be steep and ringing can be reduced. In particular, at the time of high-density (zoom), it is possible to obtain a high-resolution image signal having edges sharper than ever.

また、本発明に係る係数データ生成装置及び係数データ生成方法によれば、補間曲面生成部により生成された補間曲面から、高解像度の画像信号におけるエッジの位相を示す特徴量を算出し、該算出されたエッジの位相を示す特徴量から、注目位置の画素データが属するクラスを検出して、当該クラス毎に、第1の画像信号を高解像度の第2の画像信号に変換する際に用いられる係数データを求めるものである。   Further, according to the coefficient data generation device and the coefficient data generation method according to the present invention, the feature amount indicating the phase of the edge in the high-resolution image signal is calculated from the interpolation curved surface generated by the interpolation curved surface generation unit, and the calculation is performed. The class to which the pixel data of the target position belongs is detected from the feature amount indicating the phase of the edge, and is used when converting the first image signal into the high-resolution second image signal for each class. Coefficient data is obtained.

この構成によって、高解像度の画像信号を生成する場合に、エッジを急峻に立たせることができると共にリンギングを低減することができる係数データを提供できる。   With this configuration, when generating a high-resolution image signal, it is possible to provide coefficient data that can make edges sharp and can reduce ringing.

続いて、本発明に係る画像処理装置及び画像処理方法並びに係数データ生成装置及び係数データ生成方法の第1の実施の形態について、図面を参照しながら説明をする。図1は、第1の実施形態に係る画像処理装置100の構成例を示すブロック図である。図1に示す画像処理装置100は、画素精度による特徴量を利用したクラス分類適応処理(例えばADRC)ではなく、画素精度より細かい情報、すなわち画素以下の情報を用いてクラス分類適応処理を行うものである。本発明ではエッジに特化した特徴量を用いる。具体的には、エッジの位相とエッジの方向を入力画像の補間曲面から求めた注目画素位置における一次微分値、二次微分値を用いて、それらをクラス化する。   Next, a first embodiment of an image processing apparatus, an image processing method, a coefficient data generation apparatus, and a coefficient data generation method according to the present invention will be described with reference to the drawings. FIG. 1 is a block diagram illustrating a configuration example of an image processing apparatus 100 according to the first embodiment. The image processing apparatus 100 shown in FIG. 1 performs class classification adaptive processing using information finer than pixel accuracy, that is, information below a pixel, instead of class classification adaptive processing (for example, ADRC) using feature quantities based on pixel accuracy. It is. In the present invention, feature quantities specialized for edges are used. Specifically, the first and second differential values at the target pixel position obtained from the interpolation curved surface of the input image for the edge phase and the edge direction are classified into classes.

図1に示す画像処理装置100は、補間曲面生成回路1、特徴量算出判定回路2、クラス検出回路3、クラスコード生成回路4A、係数メモリ5A、予測タップ選択回路6、推定予測演算回路7、入力端子8及び出力端子9を備えている。   An image processing apparatus 100 shown in FIG. 1 includes an interpolation curved surface generation circuit 1, a feature amount calculation determination circuit 2, a class detection circuit 3, a class code generation circuit 4A, a coefficient memory 5A, a prediction tap selection circuit 6, an estimated prediction calculation circuit 7, An input terminal 8 and an output terminal 9 are provided.

入力端子8には、SD画像データDinが入力される。補間曲面生成回路1は補間曲面生成部の一例であり、SD画像データDinから、当該SD画像データDinよりも高解像度のHD画像データDoutにおける注目位置の周辺に位置する複数の画素データを選択して補間曲面を生成する。例えば、補間曲面生成回路1は、補間曲面としてスプライン補間曲面を生成する。なお、補間曲面は、キュービック補間や、ラグランジュ補間、ランツォシュ補間などを利用しても良い。ただし、この補間曲面はなめらかにつながないと性能が出にくいため、DRC(デジタル・リアリティー・クリエーション)でつくった曲面は含まない。これは、なめらかにつながないとクラスの連続性が保たれないためである。スプライン補間曲面を生成方法は、図3で詳述する。補間曲面生成回路1は、生成したスプライン補間曲面の情報を特徴量算出判定回路2に出力する。   The SD image data Din is input to the input terminal 8. The interpolated curved surface generating circuit 1 is an example of an interpolated curved surface generating unit, and selects a plurality of pixel data located around the target position in the HD image data Dout having higher resolution than the SD image data Din from the SD image data Din. To generate an interpolated curved surface. For example, the interpolation curved surface generation circuit 1 generates a spline interpolation curved surface as the interpolation curved surface. The interpolation curved surface may use cubic interpolation, Lagrange interpolation, Lanczos interpolation, or the like. However, this interpolated curved surface does not include a curved surface created by DRC (Digital Reality Creation) because performance is difficult to obtain unless it is smoothly connected. This is because the continuity of the class cannot be maintained unless it is connected smoothly. A method of generating the spline interpolation curved surface will be described in detail with reference to FIG. The interpolation curved surface generation circuit 1 outputs the generated spline interpolation curved surface information to the feature amount calculation determination circuit 2.

特徴量算出判定回路2は特徴量算出部の一例であり、スプライン補間曲面から、HD画像データDoutにおけるエッジの位相を示す特徴量及びエッジの方向を示す特徴量を算出する。図2は、エッジ位相及びエッジ方向の一例を示す概念図である。特徴量算出判定回路2は、注目画素位置でスプライン補間曲面から一次微分値および二次微分値を求める。ここで、一次微分値は、スプライン補間曲面における接線ベクトルを示し、二次微分値は、スプライン補間曲面における曲率を示している。この一次微分値と二次微分値は、図2に示すエッジ位相やエッジ方向を判定するために使用される。なお、一次微分値および二次微分値の算出方法は、図4で詳述する。   The feature amount calculation determination circuit 2 is an example of a feature amount calculation unit, and calculates a feature amount indicating an edge phase and an edge direction in the HD image data Dout from a spline interpolation curved surface. FIG. 2 is a conceptual diagram illustrating an example of an edge phase and an edge direction. The feature amount calculation determination circuit 2 obtains a primary differential value and a secondary differential value from the spline interpolation curved surface at the target pixel position. Here, the primary differential value indicates a tangent vector on the spline interpolation curved surface, and the secondary differential value indicates a curvature on the spline interpolation curved surface. The primary differential value and the secondary differential value are used to determine the edge phase and the edge direction shown in FIG. The calculation method of the primary differential value and the secondary differential value will be described in detail with reference to FIG.

クラス検出回路3は第1のクラス検出部の一例であり、エッジの位相を示す特徴量や、エッジの方向を示す特徴量から、注目位置の画素データ(注目画素)が属するクラスを検出する。例えば、クラス検出回路3は、スプライン補間曲面の一次微分値および二次微分値から、注目画素の属するクラスを検出する。この例で、クラス検出回路3は、スプライン補間曲面の一次微分値と二次微分値で構成される平面上で円周方向にクラスの分割を行い、スプライン補間曲面の一次微分値および二次微分値をその平面上に展開してエッジ位相クラスを求める。また、クラス検出回路3は、スプライン補間曲面のxの一次微分値とyの一次微分値で構成される平面上で円周方向にクラスの分割を行い、スプライン補間曲面のx、yの一次微分値をその平面上に展開してエッジ方向クラスを求める。クラス検出回路3は、求めたエッジ位相クラス及びエッジ方向クラス(微分値クラス)をクラスコード生成回路4Aに出力する。   The class detection circuit 3 is an example of a first class detection unit, and detects a class to which pixel data (a pixel of interest) of a target position belongs from a feature amount indicating an edge phase and a feature amount indicating an edge direction. For example, the class detection circuit 3 detects the class to which the pixel of interest belongs from the primary differential value and the secondary differential value of the spline interpolation curved surface. In this example, the class detection circuit 3 divides the class in the circumferential direction on the plane composed of the primary differential value and the secondary differential value of the spline interpolation curved surface, and the primary differential value and the secondary differential value of the spline interpolation curved surface. The value is developed on the plane to obtain the edge phase class. The class detection circuit 3 divides the class in the circumferential direction on a plane composed of the first derivative value of x and the first derivative value of y of the spline interpolated curved surface, and the first derivative of x and y of the spline interpolated curved surface. The value is developed on the plane to obtain the edge direction class. The class detection circuit 3 outputs the obtained edge phase class and edge direction class (differential value class) to the class code generation circuit 4A.

クラスコード生成回路4Aは、注目画素の属するクラスに基づいてクラスコードを生成して係数メモリ5Aに出力する。例えば、クラスコード生成回路4Aは、3ビットの位相クラスデータと4ビットの方向クラスデータをクラスコードとして出力する。係数メモリ5Aは係数データ選択部の一例であり、このクラスコードを参照して係数データを選択して推定予測演算回路7に出力する。すなわち、係数メモリ5Aは、あらかじめ学習が行われることにより求められた係数データをクラス毎に記憶しており、クラスコードが供給されるとそのクラスコードに対応する係数データを読み出し、推定予測演算回路7に供給する。   The class code generation circuit 4A generates a class code based on the class to which the target pixel belongs and outputs it to the coefficient memory 5A. For example, the class code generation circuit 4A outputs 3-bit phase class data and 4-bit direction class data as class codes. The coefficient memory 5 </ b> A is an example of a coefficient data selection unit, selects coefficient data with reference to this class code, and outputs the selected coefficient data to the estimated prediction calculation circuit 7. That is, the coefficient memory 5A stores coefficient data obtained by learning in advance for each class. When a class code is supplied, the coefficient data corresponding to the class code is read and an estimated prediction calculation circuit 7 is supplied.

予測タップ選択回路6は第1の画素データ選択部の一例であり、SD画像データDinから、注目画素に対応する予測タップを選択して推定予測演算回路7に出力する。推定予測演算回路7は推定演算部の一例であり、係数データと予測タップ選択回路6からの予測タップを構成するSD画素とを用いて、式(1)に示した演算を行う。これにより、注目画素(HD画素)の画素値yの予測値E[y]が求められ、これが、HD画素の画素値から構成されるHD画像データDoutとして出力端子9から出力される。   The prediction tap selection circuit 6 is an example of a first pixel data selection unit, and selects a prediction tap corresponding to the target pixel from the SD image data Din and outputs the prediction tap to the estimated prediction calculation circuit 7. The estimated prediction calculation circuit 7 is an example of an estimation calculation unit, and uses the coefficient data and the SD pixels that form the prediction tap from the prediction tap selection circuit 6 to perform the calculation shown in Expression (1). Thereby, the predicted value E [y] of the pixel value y of the target pixel (HD pixel) is obtained, and this is output from the output terminal 9 as HD image data Dout composed of the pixel value of the HD pixel.

このように、図1に示す画像処理装置100は、エッジ位相及びエッジ方向の特徴量を用いて注目画素のクラスを分類している。これにより、例えばSD画素からHD画素に変換する場合に、HD画素のエッジ部分の位置を明確に把握することができる。これにより、高倍密変換を行ったときにエッジ波形が立たつようになると共に、リンギングの発生を防止できるようになる。   As described above, the image processing apparatus 100 illustrated in FIG. 1 classifies the class of the pixel of interest using the feature values of the edge phase and the edge direction. Thereby, for example, when the SD pixel is converted to the HD pixel, the position of the edge portion of the HD pixel can be clearly grasped. As a result, when high-density conversion is performed, an edge waveform rises and ringing can be prevented from occurring.

図3は、スプライン補間曲面の生成例を示す概念図である。スプライン補間曲面は、図3に示す例えば4×4の16点(Q00〜Q33)の入力画素からB-spline曲面を生成する。このとき、画素間を生成する3次の式(11)は、下記のようになる。式(11)のPが作りたい画素値(注目画素)で、Qが入力の画素値、tが作りたい位相(0−1)となる。なお、注目画素Pの位置が変わると図3に示すQ00〜Q33の16点の入力画素の位置も変わる。 FIG. 3 is a conceptual diagram illustrating an example of generating a spline interpolation curved surface. As the spline interpolation curved surface, a B-spline curved surface is generated from, for example, 4 × 4 16 points (Q 00 to Q 33 ) input pixels shown in FIG. At this time, the cubic expression (11) for generating between pixels is as follows. In Expression (11), P is a pixel value (target pixel) to be created, Q is an input pixel value, and t is a phase (0-1) to be created. Note that when the position of the pixel of interest P changes, the positions of the 16 input pixels Q 00 to Q 33 shown in FIG. 3 also change.

式(11)をxについて一次微分すると下記の式(12)になる。また、式(11)をyについて一次微分すると下記の式(13)になる。   When the equation (11) is first-order differentiated with respect to x, the following equation (12) is obtained. Further, when the equation (11) is first-order differentiated with respect to y, the following equation (13) is obtained.

また、式(11)をxについて二次微分すると下記の式(14)になる。また、式(11)をyについて二次微分すると下記の式(15)になる。   Further, when the equation (11) is second-order differentiated with respect to x, the following equation (14) is obtained. Further, when the equation (11) is second-order differentiated with respect to y, the following equation (15) is obtained.

続いて、エッジの位相クラスの算出例を説明する。図4は、エッジの位相クラスの算出例を示す概念図である。入力画像から求めたスプライン補間曲面における注目画素P1の位置で、一次微分値、二次微分値を求める。例えば、図4に示す注目画素P1の位置で、上述の式(12)により、xの一次微分値を求め、上述の式(13)により、yの一次微分値を求める。また、注目画素P1の位置で、上述の式(14)により、xの二次微分値を求め、上述の式(15)により、yの二次微分値を求める。そして、一次微分値と二次微分値で構成される平面上に、求めた一次微分値及び二次微分値を展開して、その平面上で円周方向にクラスの分割を行う。   Next, an example of calculating the edge phase class will be described. FIG. 4 is a conceptual diagram illustrating an example of calculating the edge phase class. A primary differential value and a secondary differential value are obtained at the position of the target pixel P1 on the spline interpolation curved surface obtained from the input image. For example, at the position of the target pixel P1 shown in FIG. 4, the first differential value of x is obtained by the above equation (12), and the first differential value of y is obtained by the above equation (13). Further, at the position of the target pixel P1, the secondary differential value of x is obtained by the above-described equation (14), and the secondary differential value of y is obtained by the above-described equation (15). Then, the obtained primary differential value and secondary differential value are developed on a plane composed of the primary differential value and the secondary differential value, and classes are divided in the circumferential direction on the plane.

例えば、下記の式(16)により、x、yの一次微分値の長さd1を求める。また、下記の式(17)により、x、yの二次微分値の長さd2を求める。   For example, the length d1 of the first differential value of x and y is obtained by the following equation (16). Further, the length d2 of the secondary differential value of x and y is obtained by the following equation (17).

長さd1、d2はどちらも正であるために、下記の式(18)により内積を求め符合sgnを求める。例えば、式(18)で求められた内積が負の場合、符号sgnに−1を設定する。また、式(18)で求められた内積が正の場合、符号sgnに+1を設定する。   Since the lengths d1 and d2 are both positive, the inner product is obtained by the following equation (18) to obtain the sign sgn. For example, when the inner product obtained by Expression (18) is negative, −1 is set to the sign sgn. Further, when the inner product obtained by Expression (18) is positive, +1 is set to the code sgn.

例えば位相のクラス数が8のときには、下記の式(19)のようにして求める。この例で、tan-1(x)の値が、例えばπ/2であるときと、−π/2であるときでは、そのクラスは、同じクラスとして扱う。すなわち、図4に示す領域Q1と領域Q2に属するクラスは、同じクラスとして扱う。 For example, when the number of phase classes is 8, the following equation (19) is used. In this example, when the value of tan −1 (x) is π / 2, for example, and −π / 2, the class is treated as the same class. That is, the classes belonging to the areas Q1 and Q2 shown in FIG. 4 are treated as the same class.

また、ハードウェアの実装を考えたときには、図5に示すように変換テーブルを持つことで処理を行う。図5は、tan-1−クラスコード変換テーブルの構成例を示す説明図である。図5に示す変換テーブルは、tanの値(式(19)のd2×sgn/d1)とクラスコードの関係を示している。例えば、tanの値が「0.0〜0.41421」の範囲の場合、クラスコードは「0」となる。また、tanの値が「0.41421〜1.0」の範囲の場合、クラスコードは「1」となる。同様に、クラスコードは、クラスコード「2」〜「7」まで設定されている。 When hardware implementation is considered, processing is performed by having a conversion table as shown in FIG. FIG. 5 is an explanatory diagram showing a configuration example of a tan −1 -class code conversion table. The conversion table shown in FIG. 5 shows the relationship between the value of tan (d2 × sgn / d1 in Expression (19)) and the class code. For example, when the value of tan is in the range of “0.0 to 0.41421,” the class code is “0”. When the tan value is in the range of “0.41421 to 1.0”, the class code is “1”. Similarly, class codes “2” to “7” are set.

続いて、エッジの方向クラスの算出例を説明する。図6は、エッジの方向クラスの算出例を示す概念図である。入力画像から求めたスプライン補間曲面における注目画素P2の位置で、x、yの一次微分値を求める。例えば、図6に示す注目画素P2の位置で、上述の式(12)により、xの一次微分値を求め、上述の式(13)により、yの一次微分値を求める。そして、x方向の一次微分値とy方向の一次微分値で構成される平面上に、求めたx、yの一次微分値を展開して、その平面上で円周方向にクラスの分割を行う。   Next, an example of calculating the edge direction class will be described. FIG. 6 is a conceptual diagram illustrating an example of calculating an edge direction class. First-order differential values of x and y are obtained at the position of the target pixel P2 on the spline interpolation curved surface obtained from the input image. For example, at the position of the pixel of interest P2 shown in FIG. 6, the first differential value of x is obtained by the above equation (12), and the first differential value of y is obtained by the above equation (13). Then, the obtained first differential values of x and y are developed on a plane composed of the first differential value in the x direction and the first differential value in the y direction, and the class is divided in the circumferential direction on the plane. .

例えば方向のクラス数が16のときには、下記の式(20)のようにして求める。この例で、tan-1(x)の値が、例えばπ/2であるときと、−π/2であるときでは、そのクラスは、同じクラスとして扱う。すなわち、図6に示す領域Q3と領域Q4に属するクラスは、同じクラスとして扱う。 For example, when the number of classes in the direction is 16, it is obtained as in the following equation (20). In this example, when the value of tan −1 (x) is π / 2, for example, and −π / 2, the class is treated as the same class. That is, the classes belonging to the region Q3 and the region Q4 shown in FIG. 6 are treated as the same class.

また、ハードウェアの実装を考えたときには、図7に示すように変換テーブルを持つことで処理を行う。図7は、tan-1−クラスコード変換テーブルの構成例を示す説明図である。図7に示す変換テーブルは、tanの値(式(20)のdy/dx)とクラスコードの関係を示している。例えば、tanの値が「0.0〜0.19891」の範囲の場合、クラスコードは「0」となる。また、tanの値が「0.19891〜0.41421」の範囲の場合、クラスコードは「1」となる。同様に、クラスコードは、クラスコード「2」〜「15」まで設定されている。 When hardware implementation is considered, processing is performed by having a conversion table as shown in FIG. FIG. 7 is an explanatory diagram showing a configuration example of a tan −1 -class code conversion table. The conversion table shown in FIG. 7 shows the relationship between the value of tan (dy / dx in Expression (20)) and the class code. For example, when the value of tan is in the range of “0.0 to 0.19891”, the class code is “0”. When the tan value is in the range of “0.19891 to 0.41421,” the class code is “1”. Similarly, class codes “2” to “15” are set.

続いて、エッジの方向クラスの効果について詳述する。図8A及び図8Bは、目標(教師)画像のエッジの一例を示す概略図である。図8Aは垂直方向のエッジと、その断面における画素値のレベルを示している。また、図8Bは斜め方向のエッジと、その断面における画素値のレベルを示している。このとき、図8A及び図8Bに示す各エッジの方向が異なっても、水平方向で見たときの図8A及び図8Bに示す波形は等しくなり、各エッジの画素値のレベルは等しくなっている。   Next, the effect of the edge direction class will be described in detail. 8A and 8B are schematic diagrams illustrating an example of an edge of a target (teacher) image. FIG. 8A shows the edge in the vertical direction and the level of the pixel value in the cross section. FIG. 8B shows the edge in the oblique direction and the level of the pixel value in the cross section. At this time, even if the directions of the edges shown in FIGS. 8A and 8B are different, the waveforms shown in FIGS. 8A and 8B when viewed in the horizontal direction are the same, and the levels of the pixel values of the edges are the same. .

図9A及び図9Bは、入力(生徒)画像のエッジの一例を示す概略図である。図9Aは垂直方向のエッジと、その断面における画素値のレベルを示している。また、図9Bは斜め方向のエッジと、その断面における画素値のレベルを示している。このとき、図9A及び図9Bに示す各エッジの方向が異なると、水平方向で見たときの図9A及び図9Bに示す波形は異なり、各エッジの画素値のレベルは異なっている。この場合、エッジ方向が異なると、予測タップで使用する画素データは異なる。すなわち、図9Aに示す予測に使うタップの画素データは、黒境界と白境界の間に属する3個の画素データである。これに対して、図9Bに示す予測に使うタップの画素データは、黒境界と白境界の間に属する5個の画素データである。   9A and 9B are schematic diagrams illustrating an example of an edge of an input (student) image. FIG. 9A shows the edge in the vertical direction and the level of the pixel value in the cross section. FIG. 9B shows the edge in the oblique direction and the level of the pixel value in the cross section. At this time, if the directions of the edges shown in FIGS. 9A and 9B are different, the waveforms shown in FIGS. 9A and 9B when viewed in the horizontal direction are different, and the pixel value levels of the edges are different. In this case, if the edge direction is different, the pixel data used in the prediction tap is different. That is, the pixel data of the tap used for prediction illustrated in FIG. 9A is three pieces of pixel data that belong between the black boundary and the white boundary. On the other hand, the pixel data of the tap used for prediction shown in FIG. 9B is five pieces of pixel data that belong between the black boundary and the white boundary.

このように、エッジ位相は同じ値でも予測に使うタップはエッジ方向に関係なく常に同じ場所(方向)であるためにエッジ方向によってタップは異なってくる。従って、エッジ方向でクラス分類を行う必要がある。予測に使うタップは、例えば図10に示す15個のタップを使用する。図10は、予測タップの構成例を示す概略図である。   In this way, even if the edge phase is the same value, the tap used for prediction is always the same place (direction) regardless of the edge direction, so the tap differs depending on the edge direction. Therefore, it is necessary to classify in the edge direction. As taps used for prediction, for example, 15 taps shown in FIG. 10 are used. FIG. 10 is a schematic diagram illustrating a configuration example of a prediction tap.

なお、エッジ位相は同じ値で、予測に使うタップはエッジ方向に対して常に同じ場所(方向)、例えば図9Bの矢印方向Rであれば、エッジ方向によってタップは同じになる。従って、エッジ方向のクラスは必要なくなる。   If the edge phase has the same value and the tap used for prediction is always in the same place (direction) with respect to the edge direction, for example, the arrow direction R in FIG. 9B, the tap is the same depending on the edge direction. Therefore, the edge direction class is not necessary.

続いて、図18に示した従来例に係る画像処理装置400と本発明に係る図1に示した画像処理装置100の機能を比較する。図11は、予測タップ及びクラスタップの構成例を示す概略図である。図11に示す予測タップ及びクラスタップは、水平方向に5個のタップを選択している。この比較例では、水平方向のみの画素数を8倍にする(水平8倍処理)。   Subsequently, the functions of the image processing apparatus 400 according to the conventional example shown in FIG. 18 and the image processing apparatus 100 shown in FIG. 1 according to the present invention will be compared. FIG. 11 is a schematic diagram illustrating a configuration example of a prediction tap and a class tap. As the prediction tap and the class tap shown in FIG. 11, five taps are selected in the horizontal direction. In this comparative example, the number of pixels only in the horizontal direction is multiplied by 8 (horizontal 8 times processing).

図12A及び図12Bは、水平方向のみの画素数を8倍にしたHD変換処理の結果の一例を示す説明図である。図12A及び図12Bに示すグラフの縦軸は画素値のレベルを示し、横軸は座標を示している。なお、この例では、微分値クラスは位相クラスのみを使用し、方向クラスは使用していない。   12A and 12B are explanatory diagrams illustrating an example of a result of HD conversion processing in which the number of pixels only in the horizontal direction is increased by eight times. 12A and 12B, the vertical axis represents the pixel value level, and the horizontal axis represents the coordinates. In this example, the differential value class uses only the phase class and does not use the direction class.

図12Aは、入力画素間における1/8の位置に画素を補間する例である。図12Aに示す入力画像データ(2点鎖線)は波形が立っておらず、なまった状態の波形になっている。これに対して、微分値クラスを使用した画像データは、波形が立って矩形状態の波形になっている。このとき、微分値クラス(実線)を使用した画像データは、破線で示した真値の波形と略等しくなっている。また、ADRCクラスを使用した画像データ(1点鎖線)は、真値の波形とは乖離した波形になっている。   FIG. 12A is an example in which a pixel is interpolated at a 1/8 position between input pixels. The input image data (two-dot chain line) shown in FIG. 12A has no waveform, and has a distorted waveform. On the other hand, the image data using the differential value class has a rectangular waveform with standing waveforms. At this time, the image data using the differential value class (solid line) is substantially equal to the true waveform shown by the broken line. Further, the image data (one-dot chain line) using the ADRC class has a waveform deviating from the true value waveform.

図12Bは、入力画素間における8/8の位置に画素を補間する例である。図12Bに示す入力画像データ(2点鎖線)は波形が立っておらず、なまった状態の波形になっている。これに対して、微分値クラスを使用した画像データ(実線)は、波形が立って矩形状態の波形になっている。このとき、微分値クラスを使用した画像データは、破線で示した真値の波形と略等しくなっている。また、ADRCクラスを使用した画像データ(1点鎖線)は、真値の波形とは乖離した波形になっている。   FIG. 12B is an example in which a pixel is interpolated at a position of 8/8 between input pixels. The input image data (two-dot chain line) shown in FIG. 12B has no waveform and has a distorted waveform. On the other hand, the image data (solid line) using the differential value class has a waveform with a rectangular shape. At this time, the image data using the differential value class is substantially equal to the true waveform shown by the broken line. Further, the image data (one-dot chain line) using the ADRC class has a waveform deviating from the true value waveform.

図13Aは、従来例に係る画像処理装置400の定性評価の一例を示す説明図である。図13Bは、本発明に係る画像処理装置100の定性評価の一例を示す説明図である。図13A及び図13Bは、SDデータを8×8倍のHDデータに変換した例を示している。このとき、画像処理装置400のADRCクラスを使用した画像に比べて、画像処理装置100の微分値クラスを使用した画像は、リンギングが減少していることが分かる。   FIG. 13A is an explanatory diagram illustrating an example of qualitative evaluation of the image processing apparatus 400 according to the related art. FIG. 13B is an explanatory diagram showing an example of qualitative evaluation of the image processing apparatus 100 according to the present invention. 13A and 13B show an example in which SD data is converted into 8 × 8 times HD data. At this time, it can be seen that the ringing is reduced in the image using the differential value class of the image processing apparatus 100 as compared with the image using the ADRC class of the image processing apparatus 400.

続いて、図1及び図14を参照して、画像処理装置100の動作例を説明する。図14は、本発明に係る画像処理装置100の動作例を示すフローチャートである。この例では、学習にて得られた係数データを用いてSD画像からHD画像を得るマッピング処理を行う。また、図1に示した係数メモリ5Aは、あらかじめ学習が行われることにより求められた係数データをクラス毎に記憶しており、クラスコードが供給されるとそのクラスコードに対応する係数データを読み出し、推定予測演算回路7に供給する。   Subsequently, an operation example of the image processing apparatus 100 will be described with reference to FIGS. 1 and 14. FIG. 14 is a flowchart showing an operation example of the image processing apparatus 100 according to the present invention. In this example, mapping processing for obtaining an HD image from an SD image is performed using coefficient data obtained by learning. Further, the coefficient memory 5A shown in FIG. 1 stores coefficient data obtained by learning in advance for each class, and reads the coefficient data corresponding to the class code when the class code is supplied. The estimated prediction calculation circuit 7 is supplied.

図14に示すステップST1で、画像処理装置100は、その入力端子8からSD画像データDinを入力してステップST2に移行する。ステップST2で、補間曲面生成回路1は、このSD画像データDinから補間曲面を生成する。例えば、補間曲面生成回路1は、補間曲面としてスプライン補間曲面を生成する。続いてステップST3に移行する。   In step ST1 shown in FIG. 14, the image processing apparatus 100 inputs the SD image data Din from the input terminal 8 and proceeds to step ST2. In step ST2, the interpolation curved surface generation circuit 1 generates an interpolation curved surface from the SD image data Din. For example, the interpolation curved surface generation circuit 1 generates a spline interpolation curved surface as the interpolation curved surface. Subsequently, the process proceeds to step ST3.

ステップST3で、特徴量算出判定回路2は、スプライン補間曲面からエッジ位相の特徴量及びエッジ方向の特徴量を算出する。例えば、特徴量算出判定回路2は、注目画素位置でスプライン補間曲面から、接線ベクトルを示す一次微分値および曲率を示す二次微分値を求める。この一次微分値と二次微分値は、エッジ位相やエッジ方向を判定するために使用される。続いて、ステップST4に移行する。   In step ST3, the feature amount calculation determination circuit 2 calculates the feature amount of the edge phase and the feature amount of the edge direction from the spline interpolation curved surface. For example, the feature amount calculation determination circuit 2 obtains a primary differential value indicating the tangent vector and a secondary differential value indicating the curvature from the spline interpolation curved surface at the target pixel position. The primary differential value and the secondary differential value are used to determine the edge phase and the edge direction. Subsequently, the process proceeds to step ST4.

ステップST4で、クラス検出回路3は、スプライン補間曲面の一次微分値および二次微分値から、注目画素の属するクラスを検出する。例えば、クラス検出回路3は、スプライン補間曲面の一次微分値と二次微分値で構成される平面上で円周方向にクラスの分割を行い、スプライン補間曲面の一次微分値および二次微分値をその平面上に展開してエッジ位相クラスを求める。また、クラス検出回路3は、スプライン補間曲面のxの一次微分値とyの一次微分値で構成される平面上で円周方向にクラスの分割を行い、スプライン補間曲面のx、yの一次微分値をその平面上に展開してエッジ方向クラスを求める。続いて、ステップST5に移行する。   In step ST4, the class detection circuit 3 detects the class to which the pixel of interest belongs from the primary differential value and the secondary differential value of the spline interpolation curved surface. For example, the class detection circuit 3 divides the class in the circumferential direction on the plane composed of the primary differential value and the secondary differential value of the spline interpolation curved surface, and obtains the primary differential value and the secondary differential value of the spline interpolation curved surface. The edge phase class is obtained by expanding on the plane. The class detection circuit 3 divides the class in the circumferential direction on a plane composed of the first derivative value of x and the first derivative value of y of the spline interpolated curved surface, and the first derivative of x and y of the spline interpolated curved surface. The value is developed on the plane to obtain the edge direction class. Subsequently, the process proceeds to step ST5.

ステップST5で、クラスコード生成回路4Aは、注目画素の属するクラスに基づいてクラスコードを生成して係数メモリ5Aに出力する。係数メモリ5Aは、このクラスコードに基づいて係数データを推定予測演算回路7に出力する。続いて、ステップST6に移行する。   In step ST5, the class code generation circuit 4A generates a class code based on the class to which the target pixel belongs and outputs it to the coefficient memory 5A. The coefficient memory 5A outputs coefficient data to the estimated prediction calculation circuit 7 based on this class code. Subsequently, the process proceeds to step ST6.

ステップST6で、予測タップ選択回路6は、入力端子8から入力したSD画像データDinから、注目画素に対応する予測タップ(図10参照)を選択して推定予測演算回路7に出力してステップST7に移行する。   In step ST6, the prediction tap selection circuit 6 selects a prediction tap (see FIG. 10) corresponding to the target pixel from the SD image data Din input from the input terminal 8, and outputs the prediction tap to the estimated prediction calculation circuit 7 to output the step ST7. Migrate to

ステップST7で、推定予測演算回路7は、係数データと予測タップ選択回路6からの予測タップを用いて、上述の式(1)に示した積和演算を行う。これにより、注目画素(HD画素)の画素値yの予測値E[y]が求められ、これが、HD画素の画素値として出力される。続いてステップST8に移行する。   In step ST7, the estimated prediction calculation circuit 7 uses the coefficient data and the prediction tap from the prediction tap selection circuit 6 to perform the product-sum calculation shown in the above equation (1). Thereby, the predicted value E [y] of the pixel value y of the target pixel (HD pixel) is obtained, and this is output as the pixel value of the HD pixel. Subsequently, the process proceeds to step ST8.

ステップST8で、画像処理装置100は、入力端子8から入力されるSD画像データDinが終了か否かを判定する。入力端子8から入力されるSD画像データDinが終了した場合処理の終了となる。また、入力端子8から入力されるSD画像データDinが終了しなかった場合、ステップST1に戻る。   In step ST8, the image processing apparatus 100 determines whether or not the SD image data Din input from the input terminal 8 is finished. When the SD image data Din input from the input terminal 8 is finished, the process is finished. If the SD image data Din input from the input terminal 8 has not been completed, the process returns to step ST1.

このように、本発明に係る画像処理装置110及び画像処理方法によれば、補間曲面生成回路1により生成された補間曲面から、高解像度の画像信号におけるエッジの位相を示す特徴量を算出し、該算出されたエッジの位相を示す特徴量から、注目位置の画素データが属するクラスを検出するものである。   As described above, according to the image processing device 110 and the image processing method according to the present invention, the feature amount indicating the phase of the edge in the high-resolution image signal is calculated from the interpolation curved surface generated by the interpolation curved surface generation circuit 1, The class to which the pixel data at the target position belongs is detected from the calculated feature quantity indicating the phase of the edge.

この構成によって、高解像度の画像信号を生成する場合に、エッジを急峻に立たせることができると共にリンギングを低減することができる。特に、高倍密(ズーム) 時に、今まで以上にエッジを急峻に立たせた高解像度の画像信号を得ることができる。   With this configuration, when a high-resolution image signal is generated, an edge can be made to be steep and ringing can be reduced. In particular, at the time of high-density (zoom), it is possible to obtain a high-resolution image signal having edges sharper than ever.

続いて、第2の実施形態に係る画像処理装置200の構成例を説明する。図15は、第2の実施形態に係る画像処理装置200の構成例を示すブロック図である。図15に示す画像処理装置200は、ADRCクラス及び微分値クラスを用いてクラス分類適応処理を行うものである。なお、上述した第1の実施形態の画像処理装置100と同じ構成要素には、同一の符号を付し、その詳細な説明は省略する。   Subsequently, a configuration example of the image processing apparatus 200 according to the second embodiment will be described. FIG. 15 is a block diagram illustrating a configuration example of the image processing apparatus 200 according to the second embodiment. An image processing apparatus 200 shown in FIG. 15 performs class classification adaptive processing using an ADRC class and a differential value class. In addition, the same code | symbol is attached | subjected to the same component as the image processing apparatus 100 of 1st Embodiment mentioned above, and the detailed description is abbreviate | omitted.

図15に示す画像処理装置200は、補間曲面生成回路1、特徴量算出判定回路2、クラス検出回路3、クラス合成回路4B、係数メモリ5B、予測タップ選択回路6、推定予測演算回路7、入力端子8、出力端子9、クラスタップ選択回路10及びクラス検出回路11を備えている。この例で、上述した第1の実施形態の画像処理装置100と異なる構成要素は、クラス合成回路4B、係数メモリ5B、クラスタップ選択回路10及びクラス検出回路11である。   An image processing apparatus 200 shown in FIG. 15 includes an interpolation curved surface generation circuit 1, a feature amount calculation determination circuit 2, a class detection circuit 3, a class synthesis circuit 4B, a coefficient memory 5B, a prediction tap selection circuit 6, an estimated prediction calculation circuit 7, and an input. A terminal 8, an output terminal 9, a class tap selection circuit 10, and a class detection circuit 11 are provided. In this example, components different from the image processing apparatus 100 of the first embodiment described above are a class synthesis circuit 4B, a coefficient memory 5B, a class tap selection circuit 10, and a class detection circuit 11.

入力端子8には、SD画像データDinが入力される。補間曲面生成回路1は、このSD画像データDinからスプライン補間曲面を生成して、その情報を特徴量算出判定回路2に出力する。特徴量算出判定回路2は、スプライン補間曲面からエッジ位相の特徴量及びエッジ方向の特徴量を算出する。例えば、特徴量算出判定回路2は、エッジ位相やエッジ方向を判定するために、注目画素位置でスプライン補間曲面から一次微分値および二次微分値を求める。クラス検出回路3は、スプライン補間曲面の一次微分値および二次微分値から、注目画素の属する微分値クラスを検出する(図4及び図6参照)。   The SD image data Din is input to the input terminal 8. The interpolation curved surface generation circuit 1 generates a spline interpolation curved surface from the SD image data Din and outputs the information to the feature amount calculation determination circuit 2. The feature amount calculation determination circuit 2 calculates the feature amount of the edge phase and the feature amount of the edge direction from the spline interpolation curved surface. For example, the feature amount calculation determination circuit 2 obtains a primary differential value and a secondary differential value from a spline interpolation curved surface at the target pixel position in order to determine an edge phase and an edge direction. The class detection circuit 3 detects the differential value class to which the pixel of interest belongs from the primary differential value and the secondary differential value of the spline interpolation curved surface (see FIGS. 4 and 6).

一方、クラスタップ選択回路10は第2の画素データ選択部の一例であり、SD画像データDinを入力して、注目画素に対応するクラスタップとして、例えば、注目画素に対して所定の位置関係にある複数のSD画素を選択する。クラス検出回路11は第2のクラス検出部の一例であり、クラスタップを構成するSD画素のレベル分布パターンを検出し、当該レベル分布パターンに基づいて注目画素が属するクラスを検出する。例えば、クラス検出回路11はクラスタップを構成するSD画素の特徴量をADRCを用いて求めて所定のクラスにクラス分類する。   On the other hand, the class tap selection circuit 10 is an example of a second pixel data selection unit, and inputs SD image data Din, and as a class tap corresponding to the target pixel, for example, has a predetermined positional relationship with the target pixel. A plurality of SD pixels are selected. The class detection circuit 11 is an example of a second class detection unit, detects a level distribution pattern of SD pixels constituting a class tap, and detects a class to which the target pixel belongs based on the level distribution pattern. For example, the class detection circuit 11 obtains the feature amount of the SD pixel constituting the class tap using ADRC and classifies it into a predetermined class.

クラス合成回路4Bは、クラス検出回路11により求められたADRCクラスと、クラス検出回路3により求められた微分値クラスに基づいてクラスコードを生成して係数メモリ5Bに出力する。係数メモリ5Bは、このクラスコードに基づいて係数データを推定予測演算回路7に出力する。   The class synthesis circuit 4B generates a class code based on the ADRC class obtained by the class detection circuit 11 and the differential value class obtained by the class detection circuit 3, and outputs it to the coefficient memory 5B. The coefficient memory 5B outputs coefficient data to the estimated prediction calculation circuit 7 based on this class code.

予測タップ選択回路6は、SD画像データDinから、注目画素に対応する予測タップを選択して推定予測演算回路7に出力する。推定予測演算回路7は、係数データと予測タップ選択回路6からの予測タップを構成するSD画素とを用いて、式(1)に示した演算を行う。これにより、注目画素(HD画素)の画素値yの予測値E[y]が求められ、これが、HD画素の画素値から構成されるHD画像データDoutとして出力端子9から出力される。   The prediction tap selection circuit 6 selects a prediction tap corresponding to the target pixel from the SD image data Din and outputs the prediction tap to the estimated prediction calculation circuit 7. The estimated prediction calculation circuit 7 performs the calculation shown in Expression (1) using the coefficient data and the SD pixels constituting the prediction tap from the prediction tap selection circuit 6. Thereby, the predicted value E [y] of the pixel value y of the target pixel (HD pixel) is obtained, and this is output from the output terminal 9 as HD image data Dout composed of the pixel value of the HD pixel.

このように、図15に示す画像処理装置200は、ADRCクラスと微分値クラスを組み合わせて注目画素のクラスを分類している。これにより、SD画素からHD画素に変換する場合に、微分値クラスによりHD画素のエッジ部分の位置を明確に把握することができると共に、ADRCクラスにより、画素レベルにおいて精度の高い変換を実現できるようになる。   As described above, the image processing apparatus 200 illustrated in FIG. 15 classifies the class of the pixel of interest by combining the ADRC class and the differential value class. As a result, when the SD pixel is converted to the HD pixel, the position of the edge portion of the HD pixel can be clearly grasped by the differential value class, and highly accurate conversion can be realized at the pixel level by the ADRC class. become.

続いて、図16及び図17を参照して、係数データ生成装置300の構成例及び動作例を説明する。図16は、係数データ生成装置300の構成例を示すブロック図である。図17は、係数データ生成装置300の動作例を示すフローチャートである。   Next, a configuration example and an operation example of the coefficient data generation device 300 will be described with reference to FIGS. 16 and 17. FIG. 16 is a block diagram illustrating a configuration example of the coefficient data generation device 300. FIG. 17 is a flowchart illustrating an operation example of the coefficient data generation device 300.

図16に示す係数データ生成装置300は、学習により係数データを生成する装置である。係数データ生成装置300は、生徒画像生成回路21、補間曲面生成回路1、特徴量算出判定回路2、クラス検出回路3、クラスコード生成回路4A、予測タップ選択回路6、教師タップ選択回路29、正規化方程式加算回路30、係数データ生成回路31、入力端子32及び出力端子33を備えている。なお、上述した第1の実施形態の画像処理装置100と同じ構成要素には、同一の符号を付し、その詳細な説明は省略する。   A coefficient data generation apparatus 300 illustrated in FIG. 16 is an apparatus that generates coefficient data by learning. The coefficient data generation device 300 includes a student image generation circuit 21, an interpolation curved surface generation circuit 1, a feature amount calculation determination circuit 2, a class detection circuit 3, a class code generation circuit 4A, a prediction tap selection circuit 6, a teacher tap selection circuit 29, a regularity A chemical equation adding circuit 30, a coefficient data generating circuit 31, an input terminal 32, and an output terminal 33 are provided. In addition, the same code | symbol is attached | subjected to the same component as the image processing apparatus 100 of 1st Embodiment mentioned above, and the detailed description is abbreviate | omitted.

図17に示すステップST21で、入力端子32に、サンプルとしての教師画像(HD)データを入力してステップST22に移行する。ステップST22で、生徒画像生成回路21は生徒信号生成部の一例であり、この教師画像データをダウンコンバートして生徒画像(SD)データを生成する。生徒画像生成回路21は、例えばLPF(Low Pass Filter)により構成されている。続いてステップST23に移行する。   In step ST21 shown in FIG. 17, the teacher image (HD) data as a sample is input to the input terminal 32, and the process proceeds to step ST22. In step ST22, the student image generation circuit 21 is an example of a student signal generation unit, and downconverts this teacher image data to generate student image (SD) data. The student image generation circuit 21 is configured by, for example, an LPF (Low Pass Filter). Subsequently, the process proceeds to step ST23.

ステップST23で、補間曲面生成回路1は、この生徒画像データからスプライン補間曲面を生成して、その情報を特徴量算出判定回路2に出力してステップST24に移行する。ステップST24で、特徴量算出判定回路2は、スプライン補間曲面からエッジ位相の特徴量及びエッジ方向の特徴量を算出する。例えば、特徴量算出判定回路2は、エッジ位相やエッジ方向を判定するために、注目画素位置でスプライン補間曲面から一次微分値および二次微分値を求める。続いてステップST25に移行する。   In step ST23, the interpolation curved surface generation circuit 1 generates a spline interpolation curved surface from the student image data, outputs the information to the feature amount calculation determination circuit 2, and proceeds to step ST24. In step ST24, the feature amount calculation determination circuit 2 calculates the feature amount of the edge phase and the feature amount of the edge direction from the spline interpolation curved surface. For example, the feature amount calculation determination circuit 2 obtains a primary differential value and a secondary differential value from a spline interpolation curved surface at the target pixel position in order to determine an edge phase and an edge direction. Subsequently, the process proceeds to step ST25.

ステップST25で、クラス検出回路3は、スプライン補間曲面の一次微分値および二次微分値から、注目画素の属する微分値クラスを生成する(図4及び図6参照)。続いてステップST26に移行する。   In step ST25, the class detection circuit 3 generates a differential value class to which the target pixel belongs from the primary differential value and the secondary differential value of the spline interpolation curved surface (see FIGS. 4 and 6). Subsequently, the process proceeds to step ST26.

ステップST26で、クラスコード生成回路4Aは、クラス検出回路3により求められた微分値クラスに基づいてクラスコードを生成して正規化方程式加算回路30に出力してステップST27に移行する。ステップST27で、予測タップ選択回路6は、生徒画像データから、注目画素に対応する予測タップ(図10参照)を選択して正規化方程式加算回路30に出力する。続いてステップST28に移行する。ステップST28で、教師タップ選択回路29は、教師画像データから、注目画素に対応する教師タップを選択して正規化方程式加算回路30に出力してステップ9に移行する。   In step ST26, the class code generation circuit 4A generates a class code based on the differential value class obtained by the class detection circuit 3, outputs the class code to the normalized equation addition circuit 30, and proceeds to step ST27. In step ST27, the prediction tap selection circuit 6 selects a prediction tap (see FIG. 10) corresponding to the target pixel from the student image data, and outputs the prediction tap to the normalization equation addition circuit 30. Subsequently, the process proceeds to step ST28. In step ST28, the teacher tap selection circuit 29 selects a teacher tap corresponding to the target pixel from the teacher image data, outputs the selected teacher tap to the normalization equation addition circuit 30, and proceeds to step 9.

ステップST29で、正規化方程式加算回路30は、クラスコード、予測タップデータ及び教師タップデータに基づいて、クラスコード毎に上述した式(10)に示す正規方程式を求める。続いてステップST30に移行する。ステップST30で、サンプルとしての教師画像データが終了したか否かを判定する。サンプルとしての教師画像データが終了していな場合ステップST21に戻る。また、サンプルとしての教師画像データが終了した場合ステップST31に移行する。   In step ST29, the normalization equation adding circuit 30 obtains the normal equation shown in the above-described equation (10) for each class code based on the class code, the prediction tap data, and the teacher tap data. Subsequently, the process proceeds to step ST30. In step ST30, it is determined whether or not the teacher image data as a sample has been completed. If the teacher image data as a sample has not been completed, the process returns to step ST21. When the teacher image data as a sample is completed, the process proceeds to step ST31.

ステップST31で、係数データ生成回路31は、求める係数データの数だけ正規方程式を算出した後に、正規方程式を解くことで係数データを求める。なお、式(10)を解くにあたっては、例えば、掃き出し法(Gauss-Jordanの消去法)などを適用することが可能である。求めた係数データは出力端子33に出力される。この出力端子33の後段には、例えば、不図示の不揮発性メモリが設けられ、係数データはクラスコード毎にこの不揮発性メモリに保存される。なお、正規化方程式加算回路30および係数データ生成回路31は、演算部の一例である。   In step ST31, the coefficient data generation circuit 31 calculates coefficient equations by solving the normal equations after calculating the number of normal equations for the number of coefficient data to be obtained. In solving the equation (10), for example, a sweeping method (Gauss-Jordan elimination method) or the like can be applied. The obtained coefficient data is output to the output terminal 33. For example, a non-volatile memory (not shown) is provided at the subsequent stage of the output terminal 33, and coefficient data is stored in the non-volatile memory for each class code. Note that the normalized equation addition circuit 30 and the coefficient data generation circuit 31 are examples of a calculation unit.

このように、図16に示す係数データ生成装置300は、微分値クラスにより分類したクラスコードに基づいて係数データを生成している。これにより、係数データを用いてSD画素からHD画素に変換する場合に、HD画素のエッジ部分の位置を明確に把握することができるようになる。   As described above, the coefficient data generation device 300 shown in FIG. 16 generates coefficient data based on the class code classified by the differential value class. Thereby, when converting from the SD pixel to the HD pixel using the coefficient data, the position of the edge portion of the HD pixel can be clearly grasped.

なお、ADRCクラス及び微分値クラスを併用して係数データを生成するようにしてもよい。すなわち、生徒画像データを入力してクラスタップを選択し、このクラスタップを用いて画素の特徴量をADRCにより求める。そしてADRCの特徴量から所定のクラスにクラス分類して、クラスコードを図16のクラスコード生成回路4Aに出力する。これにより、ADRCクラスと微分値クラスを組み合わせた注目画素のクラスコードを生成できるようになる。このクラスコードに基づいて生成された係数データは、図15に示した画像処理装置200に適用される。   Note that coefficient data may be generated using both the ADRC class and the differential value class. That is, student image data is input, a class tap is selected, and a feature amount of a pixel is obtained by ADRC using this class tap. Then, the ADRC feature quantity is classified into a predetermined class, and the class code is output to the class code generation circuit 4A in FIG. As a result, the class code of the pixel of interest combining the ADRC class and the differential value class can be generated. The coefficient data generated based on this class code is applied to the image processing apparatus 200 shown in FIG.

本発明は、標準解像度の画像を高解像度の画像に変換する処理に用いて好適である。   The present invention is suitable for use in processing for converting a standard resolution image into a high resolution image.

第1の実施形態に係る画像処理装置100の構成例を示すブロック図である。1 is a block diagram illustrating a configuration example of an image processing apparatus 100 according to a first embodiment. エッジ位相及びエッジ方向の一例を示す概念図である。It is a conceptual diagram which shows an example of an edge phase and an edge direction. スプライン補間曲面の生成例を示す概念図である。It is a conceptual diagram which shows the example of a production | generation of a spline interpolation curved surface. エッジの位相クラスの算出例を示す概念図である。It is a conceptual diagram which shows the example of calculation of the phase class of an edge. tan-1−クラスコード変換テーブル(エッジの位相クラス)の構成例を示す説明図である。It is explanatory drawing which shows the structural example of a tan < -1 > -class code conversion table (edge phase class). エッジの方向クラスの算出例を示す概念図である。It is a conceptual diagram which shows the example of calculation of the direction class of edge. tan-1−クラスコード変換テーブル(エッジの方向クラス)の構成例を示す説明図である。It is explanatory drawing which shows the structural example of a tan < -1 > -class code conversion table (edge direction class). A及びBは、目標(教師)画像のエッジの一例を示す概略図である。A and B are schematic diagrams illustrating an example of an edge of a target (teacher) image. A及びBは、入力(生徒)画像のエッジの一例を示す概略図である。A and B are schematic diagrams illustrating an example of an edge of an input (student) image. 予測タップの構成例を示す概略図である。It is the schematic which shows the structural example of a prediction tap. 予測タップ及びクラスタップの構成例を示す概略図である。It is the schematic which shows the structural example of a prediction tap and a class tap. A及びBは、水平方向のみの画素数を8倍にしたHD変換処理の結果の一例を示す説明図である。A and B are explanatory diagrams illustrating an example of a result of HD conversion processing in which the number of pixels only in the horizontal direction is increased by eight times. A及びBは、画像処理装置100、400の定性評価の一例を示す説明図である。A and B are explanatory diagrams illustrating an example of qualitative evaluation of the image processing apparatuses 100 and 400. 本発明に係る画像処理装置100の動作例を示すフローチャートである。4 is a flowchart illustrating an operation example of the image processing apparatus 100 according to the present invention. 第2の実施形態に係る画像処理装置200の構成例を示すブロック図である。It is a block diagram which shows the structural example of the image processing apparatus 200 which concerns on 2nd Embodiment. 本発明に係る係数データ生成装置300の構成例を示すブロック図である。It is a block diagram which shows the structural example of the coefficient data generation apparatus 300 which concerns on this invention. 係数データ生成装置300の動作例を示すフローチャートである。5 is a flowchart illustrating an operation example of a coefficient data generation device 300. 従来例に係る画像処理装置400の構成例を示すブロック図である。It is a block diagram which shows the structural example of the image processing apparatus 400 which concerns on a prior art example.

符号の説明Explanation of symbols

1・・・補間曲面生成回路(補間曲面生成部)、2・・・特徴量算出判定回路(特徴量算出部)、3・・・クラス検出回路(第1のクラス検出部)、5A,5B・・・係数メモリ(係数データ選択部)、6・・・予測タップ選択回路(第1の画素データ選択部)、7・・・推定予測演算回路(推定演算部)、10・・・クラスタップ選択回路(第2の画素データ選択部)、11・・・クラス検出回路(第2のクラス検出部)、21・・・生徒画像生成回路(生徒信号生成部)、30・・・正規化方程式加算回路(演算部)、31・・・係数データ生成回路(演算部)、100,200・・・画像処理装置、300・・・係数データ生成装置   DESCRIPTION OF SYMBOLS 1 ... Interpolation curved surface production | generation circuit (interpolation curved surface production | generation part), 2 ... Feature quantity calculation determination circuit (feature quantity calculation part), 3 ... Class detection circuit (1st class detection part), 5A, 5B ... Coefficient memory (coefficient data selection unit), 6 ... Prediction tap selection circuit (first pixel data selection unit), 7 ... Estimated prediction calculation circuit (estimation calculation unit), 10 ... Class tap Selection circuit (second pixel data selection unit), 11... Class detection circuit (second class detection unit), 21... Student image generation circuit (student signal generation unit), 30. Adder circuit (arithmetic unit), 31... Coefficient data generation circuit (arithmetic unit), 100, 200... Image processing device, 300.

Claims (11)

第1の画像信号から、当該第1の画像信号よりも高解像度の第2の画像信号における注目位置の周辺に位置する複数の第1の画素データを選択して補間曲面を生成する補間曲面生成部と、
前記補間曲面生成部により生成された補間曲面から、前記第2の画像信号におけるエッジの位相を示す特徴量を算出する特徴量算出部と、
前記特徴量算出部により算出されたエッジの位相を示す特徴量から、前記注目位置の画素データが属するクラスを検出する第1のクラス検出部と、
前記第1のクラス検出部で検出されたクラスを参照して係数データを選択する係数データ選択部と、
前記第1の画像信号から、前記第2の画像信号における注目位置の周辺に位置する複数の第2の画素データを選択する第1の画素データ選択部と、
前記第1の画素データ選択部で選択された複数の第2の画素データと前記係数データ選択部で選択された係数データとを演算して、前記注目位置の画素データを求める推定演算部と
を備える画像処理装置。
Interpolation curved surface generation for generating an interpolation curved surface by selecting a plurality of first pixel data located around the target position in the second image signal having a higher resolution than the first image signal from the first image signal And
A feature amount calculation unit that calculates a feature amount indicating a phase of an edge in the second image signal from the interpolation curved surface generated by the interpolation curved surface generation unit;
A first class detection unit that detects a class to which the pixel data of the target position belongs from a feature amount indicating a phase of an edge calculated by the feature amount calculation unit;
A coefficient data selection unit that selects coefficient data with reference to the class detected by the first class detection unit;
A first pixel data selection unit that selects, from the first image signal, a plurality of second pixel data located around a target position in the second image signal;
An estimation calculation unit that calculates a plurality of second pixel data selected by the first pixel data selection unit and coefficient data selected by the coefficient data selection unit to obtain pixel data at the target position; An image processing apparatus.
前記特徴量算出部は、
前記補間曲面生成部により生成された補間曲面から、前記第2の画像信号におけるエッジの方向を示す特徴量を算出し、
前記第1のクラス検出部は、
前記エッジの位相を示す特徴量及び前記エッジの方向を示す特徴量から、前記注目位置の画素データが属するクラスを検出する請求項1に記載の画像処理装置。
The feature amount calculation unit includes:
A feature amount indicating the direction of an edge in the second image signal is calculated from the interpolation curved surface generated by the interpolation curved surface generation unit,
The first class detection unit includes:
The image processing apparatus according to claim 1, wherein a class to which pixel data of the target position belongs is detected from a feature quantity indicating the phase of the edge and a feature quantity indicating the direction of the edge.
前記第1の画像信号から、前記第2の画像信号における注目位置の周辺に位置する複数の第3の画素データを選択する第2の画素データ選択部と、
前記第2の画素データ選択部で選択された前記複数の第3の画素データのレベル分布パターンを検出し、当該レベル分布パターンに基づいて前記注目位置の画素データが属するクラスを検出する第2のクラス検出部とを備える請求項1又は2に記載の画像処理装置。
A second pixel data selection unit that selects, from the first image signal, a plurality of third pixel data located around a target position in the second image signal;
A second level detection unit that detects a level distribution pattern of the plurality of third pixel data selected by the second pixel data selection unit, and detects a class to which the pixel data of the target position belongs based on the level distribution pattern; The image processing apparatus according to claim 1, further comprising a class detection unit.
前記特徴量算出部は、
前記補間曲面を所定の成分に基づいて微分して一次微分値および二次微分値を求めて前記エッジの位相を示す特徴量とし、
前記第1のクラス検出部は、
前記一次微分値と前記二次微分値で構成される平面上で円周方向にクラスの分割を行い、求めた一次微分値及び二次微分値を前記平面上に展開して、前記注目位置の画素データが属する位相のクラスを検出する請求項2に記載の画像処理装置。
The feature amount calculation unit includes:
Differentiating the interpolated curved surface based on a predetermined component to obtain a primary differential value and a secondary differential value as a feature amount indicating the phase of the edge,
The first class detection unit includes:
Class division is performed in a circumferential direction on a plane composed of the primary differential value and the secondary differential value, and the obtained primary differential value and secondary differential value are developed on the plane, The image processing apparatus according to claim 2, wherein the phase class to which the pixel data belongs is detected.
前記特徴量算出部は、
前記補間曲面を所定の成分に基づいて微分して一次微分値を求めて前記エッジの方向を示す特徴量とし、
前記第1のクラス検出部は、
前記一次微分値の各々で構成される平面上で円周方向にクラスの分割を行い、求めた一次微分値を前記平面上に展開して、前記注目位置の画素データが属する方向のクラスを検出する請求項4に記載の画像処理装置。
The feature amount calculation unit includes:
Differentiating the interpolated curved surface based on a predetermined component to obtain a first derivative value as a feature amount indicating the direction of the edge,
The first class detection unit includes:
Class division is performed in the circumferential direction on a plane constituted by each of the primary differential values, and the obtained primary differential value is developed on the plane to detect the class in the direction to which the pixel data of the target position belongs. The image processing apparatus according to claim 4.
第1の画像信号から、当該第1の画像信号よりも高解像度の第2の画像信号における注目位置の周辺に位置する複数の第1の画素データを選択して補間曲面を生成する第1のステップと、
前記第1のステップで生成された補間曲面から、前記第2の画像信号におけるエッジの位相を示す特徴量を算出する第2のステップと、
前記第2のステップで算出されたエッジの位相を示す特徴量から、前記注目位置の画素データが属するクラスを検出する第3のステップと、
前記第3のステップで検出されたクラスを参照して係数データを選択する第4のステップと、
前記第1の画像信号から、前記第2の画像信号における注目位置の周辺に位置する複数の第2の画素データを選択する第5のステップと、
前記第5のステップで選択された複数の第2の画素データと前記第4のステップで選択された係数データとを演算して、前記注目位置の画素データを求める第6のステップと
を有する画像処理方法。
A first interpolation signal is generated by selecting a plurality of first pixel data located around a target position in a second image signal having a higher resolution than the first image signal from the first image signal. Steps,
A second step of calculating a feature amount indicating a phase of an edge in the second image signal from the interpolation curved surface generated in the first step;
A third step of detecting a class to which the pixel data of the target position belongs from the feature amount indicating the phase of the edge calculated in the second step;
A fourth step of selecting coefficient data with reference to the class detected in the third step;
A fifth step of selecting, from the first image signal, a plurality of second pixel data located around a target position in the second image signal;
A sixth step of calculating a plurality of second pixel data selected in the fifth step and coefficient data selected in the fourth step to obtain pixel data of the target position; Processing method.
前記第2のステップでは、
前記第1のステップで生成された補間曲面から、前記第2の画像信号におけるエッジの方向を示す特徴量を算出し、
前記第3のステップでは、
前記エッジの位相を示す特徴量及び前記エッジの方向を示す特徴量から、前記注目位置の画素データが属するクラスを検出する請求項6に記載の画像処理方法。
In the second step,
A feature amount indicating the direction of an edge in the second image signal is calculated from the interpolation curved surface generated in the first step,
In the third step,
The image processing method according to claim 6, wherein a class to which pixel data of the target position belongs is detected from a feature amount indicating the phase of the edge and a feature amount indicating the direction of the edge.
第1の画像信号よりも高解像度の第2の画像信号に対応する教師信号から前記第1の画像信号に対応する生徒信号を生成する生徒信号生成部と、
前記生徒信号生成部により生成された前記生徒信号から、前記教師信号における注目位置の周辺に位置する複数の第1の画素データを選択して補間曲面を生成する補間曲面生成部と、
前記補間曲面生成部により生成された補間曲面から、前記教師信号におけるエッジの位相を示す特徴量を算出する特徴量算出部と、
前記特徴量算出部により算出されたエッジの位相を示す特徴量から、前記注目位置の画素データが属するクラスを検出する第1のクラス検出部と、
前記生徒信号生成部により生成された生徒信号から、前記教師信号における注目位置の周辺に位置する複数の第2の画素データを選択する第1の画素データ選択部と、
前記第1のクラス検出部で検出されたクラス、前記第1の画素データ選択部で選択された複数の第2の画素データおよび前記教師信号における注目位置の画素データを用いた演算により、前記第1の画像信号を前記第2の画像信号に変換する際に用いられる係数データをクラス毎に求める演算部とを備える係数データ生成装置。
A student signal generator for generating a student signal corresponding to the first image signal from a teacher signal corresponding to the second image signal having a higher resolution than the first image signal;
An interpolation curved surface generation unit that generates an interpolation curved surface by selecting a plurality of first pixel data located around a target position in the teacher signal from the student signal generated by the student signal generation unit;
A feature amount calculation unit that calculates a feature amount indicating a phase of an edge in the teacher signal from the interpolation curved surface generated by the interpolation curved surface generation unit;
A first class detection unit that detects a class to which the pixel data of the target position belongs from a feature amount indicating a phase of an edge calculated by the feature amount calculation unit;
A first pixel data selection unit that selects a plurality of second pixel data located around a target position in the teacher signal from the student signal generated by the student signal generation unit;
The calculation is performed using the class detected by the first class detection unit, the plurality of second pixel data selected by the first pixel data selection unit, and the pixel data of the target position in the teacher signal. A coefficient data generation apparatus comprising: an arithmetic unit that obtains coefficient data used for converting one image signal into the second image signal for each class.
前記特徴量算出部は、
前記補間曲面生成部により生成された補間曲面から、前記教師信号におけるエッジの方向を示す特徴量を算出し、
前記第1のクラス検出部は、
前記エッジの位相を示す特徴量及び前記エッジの方向を示す特徴量から、前記注目位置の画素データが属するクラスを検出する請求項8に記載の係数データ生成装置。
The feature amount calculation unit includes:
From the interpolated curved surface generated by the interpolated curved surface generating unit, a feature amount indicating the direction of the edge in the teacher signal is calculated,
The first class detection unit includes:
9. The coefficient data generation apparatus according to claim 8, wherein a class to which pixel data of the target position belongs is detected from a feature amount indicating the phase of the edge and a feature amount indicating the direction of the edge.
第1の画像信号よりも高解像度の第2の画像信号に対応する教師信号から前記第1の画像信号に対応する生徒信号を生成する第1のステップと、
前記第1のステップで生成された前記生徒信号から、前記教師信号における注目位置の周辺に位置する複数の第1の画素データを選択して補間曲面を生成する第2のステップと、
前記第2のステップで生成された補間曲面から、前記教師信号におけるエッジの位相を示す特徴量を算出する第3のステップと、
前記第3のステップで算出されたエッジの位相を示す特徴量から、前記注目位置の画素データが属するクラスを検出する第4のステップと、
前記第1のステップで生成された生徒信号から、前記教師信号における注目位置の周辺に位置する複数の第3の画素データを選択する第5のステップと、
前記第4のステップで検出されたクラス、前記第5のステップで選択された複数の第3の画素データおよび前記教師信号における注目位置の画素データを用いた演算により、前記第1の画像信号を前記第2の画像信号に変換する際に用いられる係数データをクラス毎に求める第6のステップとを有する係数データ生成方法。
A first step of generating a student signal corresponding to the first image signal from a teacher signal corresponding to the second image signal having a higher resolution than the first image signal;
A second step of generating an interpolated curved surface by selecting a plurality of first pixel data located around a target position in the teacher signal from the student signal generated in the first step;
A third step of calculating a feature amount indicating a phase of an edge in the teacher signal from the interpolation curved surface generated in the second step;
A fourth step of detecting a class to which the pixel data of the target position belongs from the feature amount indicating the phase of the edge calculated in the third step;
A fifth step of selecting, from the student signal generated in the first step, a plurality of third pixel data located around a target position in the teacher signal;
The first image signal is calculated by using the class detected in the fourth step, the plurality of third pixel data selected in the fifth step, and the pixel data of the target position in the teacher signal. And a sixth step of obtaining, for each class, coefficient data used when converting to the second image signal.
前記第3のステップでは、
前記第2のステップで生成された補間曲面から、前記教師信号におけるエッジの方向を示す特徴量を算出し、
前記第4のステップでは、
前記エッジの位相を示す特徴量及び前記エッジの方向を示す特徴量から、前記注目位置の画素データが属するクラスを検出する請求項10に記載の係数データ生成方法。
In the third step,
From the interpolation curved surface generated in the second step, a feature amount indicating the direction of the edge in the teacher signal is calculated,
In the fourth step,
The coefficient data generation method according to claim 10, wherein a class to which pixel data of the target position belongs is detected from a feature quantity indicating the phase of the edge and a feature quantity indicating the direction of the edge.
JP2008119135A 2008-04-30 2008-04-30 Image processor, image processing method, coefficient data generator and coefficient data generation method Withdrawn JP2009272713A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008119135A JP2009272713A (en) 2008-04-30 2008-04-30 Image processor, image processing method, coefficient data generator and coefficient data generation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008119135A JP2009272713A (en) 2008-04-30 2008-04-30 Image processor, image processing method, coefficient data generator and coefficient data generation method

Publications (1)

Publication Number Publication Date
JP2009272713A true JP2009272713A (en) 2009-11-19

Family

ID=41438915

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008119135A Withdrawn JP2009272713A (en) 2008-04-30 2008-04-30 Image processor, image processing method, coefficient data generator and coefficient data generation method

Country Status (1)

Country Link
JP (1) JP2009272713A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2336969A1 (en) 2009-11-30 2011-06-22 Sony Corporation Information processing apparatus, method, and computer-readable medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2336969A1 (en) 2009-11-30 2011-06-22 Sony Corporation Information processing apparatus, method, and computer-readable medium

Similar Documents

Publication Publication Date Title
US7149355B2 (en) Image processing apparatus, image processing method, image processing program, and computer-readable record medium storing image processing program
JP5452116B2 (en) High resolution video acquisition apparatus and method
KR101354819B1 (en) Anisometric texture synthesis
JP2008098803A (en) Resolution enhancing device and method
US8264600B2 (en) Image processing apparatus for converting a lower resolution image into a higher resolution image using cyclic coefficients
JP2008244846A (en) Device and method for interpolating frame
US20100040304A1 (en) Image quality improvement processing apparatus, image quality improvement processing method and computer-readable recording medium storing image quality improvement processing computer program
WO2010023982A1 (en) Motion vector detection device and image processing device
JP4470898B2 (en) Image processing apparatus and method, and program
US20120038785A1 (en) Method for producing high resolution image
JP5289540B2 (en) Image processing apparatus and image processing method
US8971627B2 (en) Template matching processing device and template matching processing program
JP2009272713A (en) Image processor, image processing method, coefficient data generator and coefficient data generation method
JP6158956B2 (en) Image processing device
JP4055908B2 (en) Wipe pattern generator
US8675998B2 (en) Method and apparatus for high frequency component smoothing, and image display apparatus
JP5388780B2 (en) Image processing apparatus, image processing method, and image processing program
JP2010118940A (en) Image processing apparatus, image processing method, and program
JP2009065283A (en) Image shake correction apparatus
JP2006050481A (en) Image processing apparatus, image processing method and program thereof
JP2005303705A (en) Image processing device and image processing method
CN102946522B (en) Based on super-resolution method and the equipment of non-local mean
JP5131534B2 (en) Information processing apparatus and method, and program
JP3972625B2 (en) Image processing apparatus and image processing method
JP6800938B2 (en) Image processing equipment, image processing methods and programs

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20090916

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20091110

A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20110705