JP2006331163A - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP2006331163A
JP2006331163A JP2005155243A JP2005155243A JP2006331163A JP 2006331163 A JP2006331163 A JP 2006331163A JP 2005155243 A JP2005155243 A JP 2005155243A JP 2005155243 A JP2005155243 A JP 2005155243A JP 2006331163 A JP2006331163 A JP 2006331163A
Authority
JP
Japan
Prior art keywords
value
noise
feature amount
image processing
edge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005155243A
Other languages
Japanese (ja)
Inventor
Yoshiaki Owaki
義明 尾脇
Shuichi Oshima
修一 尾島
Original Assignee
Matsushita Electric Ind Co Ltd
松下電器産業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Ind Co Ltd, 松下電器産業株式会社 filed Critical Matsushita Electric Ind Co Ltd
Priority to JP2005155243A priority Critical patent/JP2006331163A/en
Publication of JP2006331163A publication Critical patent/JP2006331163A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To enhance quality in both cases where edged places are arranged continuously and distributed discretely. <P>SOLUTION: An edge feature calculation part 101 inputs input image information and outputs a value depending on the distribution of edge information. A noise generation part 102 generates and outputs noise. A noise correction part 103 computes a correction factor from the value calculated by the edge feature calculation part and corrects the noise with the correction factor. Output image information can be computed from the sum of the corrected noise and the input image information to enhance quality in both cases where edged places are arranged continuously and distributed discretely. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は例えばTV放送受信機やプロジェクターなどのディスプレイ装置に関するものである。   The present invention relates to a display device such as a TV broadcast receiver or a projector.
高周波成分が失われた画像は画素値に変化がある部分で質感が下がっている。   The image in which the high-frequency component is lost has a lowered texture at the portion where the pixel value changes.
この部分の質感を上げるためには各画素値に変化を与える必要があり、この変化を与える要素として例えばノイズがあげられる。   In order to improve the texture of this portion, it is necessary to change each pixel value, and noise is an example of an element that gives this change.
ノイズを使って質感を上げる従来技術としては、解像度変換前の画像情報から注目画素周辺の画素値の差を求め、その差に応じてノイズの大きさを決定し、解像度変換後の画像情報に付加するものがあった(例えば、特許文献1参照)。図21は、前記特許文献1に記載された従来技術を示すものである。   As a conventional technique for increasing the texture using noise, the difference between pixel values around the target pixel is obtained from the image information before resolution conversion, the size of the noise is determined according to the difference, and the image information after resolution conversion is obtained. There was something to add (see, for example, Patent Document 1). FIG. 21 shows the prior art described in Patent Document 1.
図21において、線形補間部2101は入力画像情報に対して線形補間を行なう。ダイナミックレンジ算出部2104は入力画像情報からノイズ発生部102の出力値の大きさを補正する値を出力する。ノイズ発生部102は乱数を発生し出力する。ノイズ補正部103はダイナミックレンジ算出部2104の出力値で乱数の大きさを補正する。ノイズ補正部103の出力値を線形補間後の画像情報に加算し、出力画像情報を得る。
特開平7−44701号公報(第3頁、図4)
In FIG. 21, a linear interpolation unit 2101 performs linear interpolation on input image information. The dynamic range calculator 2104 outputs a value for correcting the magnitude of the output value of the noise generator 102 from the input image information. The noise generator 102 generates and outputs a random number. The noise correction unit 103 corrects the size of the random number with the output value of the dynamic range calculation unit 2104. The output value of the noise correction unit 103 is added to the image information after linear interpolation to obtain output image information.
Japanese Laid-Open Patent Publication No. 7-44701 (page 3, FIG. 4)
しかしながら、前記従来の構成では、ノイズの大きさを補正する値が注目画素周辺の画素値の差から算出されるので、エッジのある場所が連続して並んでいる場合と離散的に分布している場合を区別できない。そのため、これら2つの場合に同じ大きさのノイズを付加してしまい、どちらかの場合の質感を下げるという課題を有していた。   However, in the conventional configuration, since the value for correcting the magnitude of the noise is calculated from the difference between the pixel values around the target pixel, it is distributed discretely from the case where the locations with the edges are continuously arranged. I cannot distinguish between the cases. Therefore, the noise of the same magnitude is added in these two cases, and there is a problem of lowering the texture in either case.
本発明は、前記従来の課題を解決するもので、これら2つの場合に対してそれぞれ質感を上げる方法を提供することを目的とする。   The present invention solves the above-described conventional problems, and an object of the present invention is to provide a method for improving the texture in each of these two cases.
前記従来の課題を解決するために、本発明の画像処理装置は、入力画像情報を構成する画素において、注目画素とその周辺画素からエッジ情報の分布に基づく値であるエッジ特徴量を算出するエッジ特徴量算出部と、所定の大きさを有するノイズを発生させるノイズ発生部と、前記エッジ特徴量によって前記ノイズの大きさを補正するノイズ補正部と、前記ノイズ補正部で算出された値を入力画像情報に加算する加算部を備えることを特徴としている。   In order to solve the above-described conventional problems, the image processing apparatus according to the present invention calculates an edge feature amount that is a value based on a distribution of edge information from a target pixel and its surrounding pixels in pixels constituting input image information. Input a value calculated by the feature amount calculation unit, a noise generation unit that generates noise having a predetermined magnitude, a noise correction unit that corrects the magnitude of the noise by the edge feature amount, and the noise correction unit An addition unit for adding to image information is provided.
この明細書中ではエッジの大きさや方向、傾きなどのエッジに関する情報をエッジ情報と定義する。   In this specification, information about an edge such as the size, direction, and inclination of the edge is defined as edge information.
この構成により、エッジのある場所が連続して並んでいる場合と離散的に分布している場合を区別できる値でノイズを補正し画像情報に付加するので、画像の形状に合った変化を与え質感を上げるという作用が達成できる。   With this configuration, noise is corrected and added to image information with a value that can distinguish between cases where edges are arranged side by side and cases where they are discretely distributed, so that changes that match the shape of the image are given. The effect of raising the texture can be achieved.
本発明の画像処理装置によれば、エッジ情報の分布に基づく値でノイズの大きさを補正するという構成にしたことにより、エッジのある場所が連続して並んでいる場合と離散的に分布している場合の違いを区別できるので、画像の形状に合った変化を与え質感を上げることができる。   According to the image processing apparatus of the present invention, the noise magnitude is corrected with a value based on the distribution of the edge information, so that the locations where the edges are located are discretely distributed. Can be distinguished from each other, so that a change according to the shape of the image can be given and the texture can be improved.
以下、本発明の実施の形態について、図面を参照しながら説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(実施の形態1)
図1は、本発明の実施の形態1における画像処理装置のブロック図である。
(Embodiment 1)
FIG. 1 is a block diagram of an image processing apparatus according to Embodiment 1 of the present invention.
図1において、エッジ特徴量算出部101は入力画像情報を入力とし、エッジ情報の分布に基づく値であるエッジ特徴量を出力とする。ノイズ発生部102はノイズを発生し出力とする。ノイズ補正部103はエッジ特徴量と、ノイズを入力とする。そしてエッジ特徴量から補正係数を求め、ノイズを補正する。補正されたノイズを入力画像情報に加算し出力画像情報を得る。   In FIG. 1, an edge feature quantity calculation unit 101 receives input image information and outputs an edge feature quantity that is a value based on the distribution of edge information. The noise generator 102 generates noise and outputs it. The noise correction unit 103 receives an edge feature amount and noise. Then, a correction coefficient is obtained from the edge feature amount, and noise is corrected. The corrected noise is added to the input image information to obtain output image information.
以上のように構成された画像処理装置について、以下、その動作を説明する。   The operation of the image processing apparatus configured as described above will be described below.
まず、本実施の形態において、エッジ特徴量算出部101について説明する。   First, the edge feature quantity calculation unit 101 will be described in the present embodiment.
図2はエッジ特徴量算出部101の動作を説明するためのブロック図である。   FIG. 2 is a block diagram for explaining the operation of the edge feature quantity calculation unit 101.
図2において、算出領域抽出部201は算出過程で用いる画素値を注目画素とその周辺画素を含め一つのブロックとして抽出する。例えば注目画素を中心に65×65画素を抽出する。このブロックは画像情報を構成する全画素に対して抽出される。   In FIG. 2, the calculation area extraction unit 201 extracts pixel values used in the calculation process as one block including the target pixel and its surrounding pixels. For example, 65 × 65 pixels are extracted around the target pixel. This block is extracted for all the pixels constituting the image information.
エッジ方向分類部202はブロック内の各画素群に対してエッジの方向を求め、その方向で各クラスに分類する。図5は1ブロックに対するエッジ方向分類部202の処理を説明するためのフローチャートである。まず、算出領域抽出部で抽出されたブロック内から、図3のように算出画素を中心としたフィルタと同サイズの画素群Xを抽出する(ステップS501)。この明細書中では、ブロック内の処理で現在対象としている画素群の中心位置にある画素を算出画素と定義する。その画素群Xに対して、図4の各エッジの方向に対応するフィルタ(A〜H)を順次掛ける。そして(数1)のように各フィルタと画素群の算出値から最大値を求める。   The edge direction classification unit 202 obtains the edge direction for each pixel group in the block, and classifies it into each class based on the direction. FIG. 5 is a flowchart for explaining the processing of the edge direction classification unit 202 for one block. First, a pixel group X having the same size as the filter centered on the calculated pixel as shown in FIG. 3 is extracted from the block extracted by the calculation area extraction unit (step S501). In this specification, a pixel at the center position of a pixel group that is currently targeted by processing in a block is defined as a calculated pixel. Filters (A to H) corresponding to the directions of the edges in FIG. 4 are sequentially applied to the pixel group X. Then, the maximum value is obtained from the calculated values of each filter and pixel group as shown in (Equation 1).
最大値になるフィルタに対応するエッジの方向が算出画素でのエッジの方向になる(ステップS502)。図4の方向に対応するクラスの値を算出画素の値とする(ステップS503)。クラスの値をブロック内の全画素について求めるとエッジ方向分類部202の処理を終了する(ステップS504)。処理を終えた結果は例えば図6のようになる。   The edge direction corresponding to the filter having the maximum value becomes the edge direction of the calculated pixel (step S502). The class value corresponding to the direction of FIG. 4 is set as the value of the calculated pixel (step S503). When the class value is obtained for all the pixels in the block, the processing of the edge direction classifying unit 202 is terminated (step S504). The result of finishing the process is as shown in FIG. 6, for example.
行列作成部203はエッジ方向分類部202で求めたクラスの値に対して、ランレングス行列を求める。ランレングス行列は同じクラスが連続して並んでいる数を直線上で数えるので、その直線の角度ごとにランレングス行列を作成することになる。ここでは水平方向を角度0°とし、角度45°、90°、135°の4つの角度について、それぞれランレングス行列を求める。図7は角度0°について数えたときの一例であり、行は連続数、列はクラスの値であり、行列内の値は頻度数である。   The matrix creation unit 203 obtains a run length matrix for the class value obtained by the edge direction classification unit 202. Since the run-length matrix counts the number of the same class that is continuously arranged on a straight line, a run-length matrix is created for each angle of the straight line. Here, the horizontal direction is assumed to be 0 °, and run-length matrices are obtained for four angles of 45 °, 90 °, and 135 °, respectively. FIG. 7 shows an example when counting is performed for an angle of 0 °. The rows are continuous numbers, the columns are class values, and the values in the matrix are frequency numbers.
特徴量算出部204はエッジのある場所の連続数に注目した値を算出する。まず、(数2)のようにエッジのある場所が長く連続しているときほど大きい値になるFを算出する。   The feature amount calculation unit 204 calculates a value paying attention to the number of consecutive locations where there is an edge. First, as shown in (Expression 2), F is calculated such that the larger the position where the edge is, the longer the position is.
ここでθは連続数を数えるときの角度、iはクラスの値、jは連続数、Pθ(i,j)は頻度である。このFを使ってエッジのある場所が長く連続しているときは小さい値であり、連続していないときは大きい値となるエッジ特徴量を図8の関数から求める。この関数で求めたエッジ特徴量をエッジ特徴量算出部101の出力値とする。 Here, θ is an angle when counting consecutive numbers, i is a class value, j is a consecutive number, and P θ (i, j) is a frequency. Using this function F, an edge feature amount that is a small value when the location of the edge is long and continuous and is a large value when the location is not continuous is obtained from the function of FIG. The edge feature value obtained by this function is used as the output value of the edge feature value calculation unit 101.
以上がエッジ特徴量算出部の動作の説明である。   The above is the description of the operation of the edge feature quantity calculation unit.
本実施の形態において、ノイズ発生部102について説明する。   In the present embodiment, the noise generation unit 102 will be described.
ノイズ発生部では平均0、分散1の一様乱数を発生し、その値をノイズとして出力する。尚、一様乱数ではなく、ガウス乱数、指数乱数でも良い。   The noise generator generates a uniform random number with an average of 0 and a variance of 1, and outputs the value as noise. Note that a Gaussian random number or an exponential random number may be used instead of a uniform random number.
本実施の形態において、ノイズ補正部103の動作を説明する。   In the present embodiment, the operation of the noise correction unit 103 will be described.
図9はノイズ補正部103の動作を説明するためのブロック図である。   FIG. 9 is a block diagram for explaining the operation of the noise correction unit 103.
補正係数算出部901はエッジ特徴量算出部101の出力であるエッジ特徴量に調整係数を掛け、ノイズの大きさを補正する補正係数を求める。この調整係数は所定の値である。   The correction coefficient calculation unit 901 multiplies the edge feature value, which is an output of the edge feature value calculation unit 101, by an adjustment coefficient to obtain a correction coefficient for correcting the noise magnitude. This adjustment coefficient is a predetermined value.
補正部902はノイズ発生部102の出力であるノイズと補正係数を掛け合わせ、その値をノイズ補正部103の出力とする。   The correction unit 902 multiplies the noise that is the output of the noise generation unit 102 and the correction coefficient, and uses the value as the output of the noise correction unit 103.
ノイズ補正部103の出力値を入力画像情報に加算し、出力画像情報を得る。   The output value of the noise correction unit 103 is added to the input image information to obtain output image information.
かかる構成によればエッジ情報の分布に基づく値でノイズの大きさを補正することにより、エッジのある場所が連続して並んでいる場合とエッジのある場所が離散的に分布している場合が区別できるため、画像の形状に合った変化を与え質感を上げることができる。   According to such a configuration, by correcting the magnitude of noise with a value based on the distribution of edge information, there are cases where the locations with the edges are arranged side by side and the locations with the edges are distributed discretely. Since they can be distinguished, it is possible to give a change according to the shape of the image and improve the texture.
(実施の形態2)
図10は、本発明の実施の形態2の画像処理装置のブロック図である。図10において、図1と同じ構成要素については同じ符号を用い、説明を省略する。
(Embodiment 2)
FIG. 10 is a block diagram of the image processing apparatus according to the second embodiment of the present invention. 10, the same components as those in FIG. 1 are denoted by the same reference numerals, and description thereof is omitted.
図10において、高周波特徴量算出部1003は入力画像情報を入力とし、各画素群の高周波成分の分布に基づく値である高周波特徴量を出力する。ノイズ補正部1004はエッジ特徴量と高周波特徴量とノイズを入力とする。そして、エッジ特徴量と高周波特徴量から補正係数を求め、ノイズを補正する。補正されたノイズをノイズ補正部1004の出力とする。   In FIG. 10, a high frequency feature quantity calculation unit 1003 receives input image information and outputs a high frequency feature quantity that is a value based on the distribution of high frequency components of each pixel group. The noise correction unit 1004 receives an edge feature value, a high frequency feature value, and noise as inputs. Then, a correction coefficient is obtained from the edge feature quantity and the high frequency feature quantity, and noise is corrected. The corrected noise is set as the output of the noise correction unit 1004.
本実施の形態と実施の形態1と同様の部分については、その詳細な説明を省略する。本実施の形態と実施の形態1との相違点は高周波特徴量算出部1003とノイズ補正部1004である。   Detailed description of the same parts as in the present embodiment and the first embodiment will be omitted. The difference between the present embodiment and the first embodiment is a high-frequency feature amount calculation unit 1003 and a noise correction unit 1004.
本実施の形態において、高周波特徴量算出部1003について説明する。   In the present embodiment, the high frequency feature amount calculation unit 1003 will be described.
図11は高周波特徴量算出部1003の動作を説明するためのブロック図である。   FIG. 11 is a block diagram for explaining the operation of the high-frequency feature amount calculation unit 1003.
図11において、算出領域抽出部201は図2の算出領域抽出部201と同様になるので説明を省略する。閾値判定部1102は算出領域抽出部201で選ばれたブロックの各画素群で高周波成分の大きさを求め、閾値判定処理で2つのクラスに分類する。特徴量算出部1103は閾値判定部1102で分類した一方のクラスに注目した値を算出する。   In FIG. 11, the calculation area extraction unit 201 is the same as the calculation area extraction unit 201 of FIG. The threshold value determination unit 1102 obtains the magnitude of the high-frequency component in each pixel group of the block selected by the calculation region extraction unit 201, and classifies it into two classes by threshold value determination processing. The feature amount calculation unit 1103 calculates a value focusing on one of the classes classified by the threshold determination unit 1102.
閾値判定部1102は図3のように算出画素を中心としたフィルタと同サイズの画素群Xに、図12のサイズが3×3のハイパスフィルタHPFを掛ける。その出力値に対して(数3)の閾値判定を行い、0と1のクラスに分類する。   The threshold determination unit 1102 multiplies the pixel group X having the same size as the filter centered on the calculated pixel as shown in FIG. 3 by the 3 × 3 high-pass filter HPF shown in FIG. The threshold value of (Equation 3) is determined for the output value, and classified into 0 and 1 classes.
ここで、Tは所定の閾値である。ブロック内の全画素群に対してYを求め、例えば図13のようになる。   Here, T is a predetermined threshold value. Y is obtained for all the pixel groups in the block, for example, as shown in FIG.
特徴量算出部1103は(数4)のように閾値判定部1102でY=1と判定されたクラスに注目した値を算出する。   The feature amount calculation unit 1103 calculates a value focusing on the class determined as Y = 1 by the threshold determination unit 1102 as shown in (Expression 4).
ここで、iはブロックの行、jはブロックの列、C(i,j)はクラスの値である。(数4)で算出した高周波特徴量を高周波特徴量算出部1003の出力値とする。よって、高周波特徴量は所定の閾値以上の高周波成分を持っている画素群が多いほど大きな値となる。   Here, i is a block row, j is a block column, and C (i, j) is a class value. The high frequency feature value calculated in (Equation 4) is set as the output value of the high frequency feature value calculation unit 1003. Therefore, the higher the high frequency feature amount, the larger the pixel group having a high frequency component equal to or higher than a predetermined threshold value.
以上が高周波特徴量算出部1003の動作の説明である。   The above is the description of the operation of the high-frequency feature amount calculation unit 1003.
本実施の形態において、ノイズ補正部1004の動作を説明する。   In this embodiment, the operation of the noise correction unit 1004 will be described.
図14はノイズ補正部1004の動作を説明するためのブロック図である。   FIG. 14 is a block diagram for explaining the operation of the noise correction unit 1004.
補正係数算出部1401は、エッジ特徴量算出部101の出力であるエッジ特徴量と高周波特徴量算出部1003の出力である高周波特徴量を掛け合わせた値に調整係数を掛ける。この値がノイズの大きさを決める補正係数である。   The correction coefficient calculation unit 1401 multiplies the value obtained by multiplying the edge feature value output from the edge feature value calculation unit 101 by the high frequency feature value output from the high frequency feature value calculation unit 1003 by an adjustment coefficient. This value is a correction coefficient that determines the magnitude of noise.
補正部1402は、ノイズ発生部102の出力であるノイズと補正係数を掛け合わせ、補正したノイズをノイズ補正部の出力とする。   The correction unit 1402 multiplies the noise output from the noise generation unit 102 and the correction coefficient, and uses the corrected noise as the output of the noise correction unit.
かかる構成によれば高周波特徴量算出部を更に備え、高周波特徴量でノイズの大きさを補正することで、エッジのある場所の数が多い場合と少ない場合を区別できるため、画像の形状に合った変化を与え質感を上げることができる。   According to such a configuration, a high-frequency feature quantity calculation unit is further provided, and by correcting the noise magnitude with the high-frequency feature quantity, it is possible to distinguish between cases where the number of locations with edges is large and cases where the number of places is small. Can change the texture.
また区別できる種類が異なる2つの値でノイズの大きさを補正することにより、さらに質感を上げることができる。   Further, the texture can be further improved by correcting the magnitude of noise with two different values that can be distinguished.
(実施の形態3)
図15は、本発明の実施の形態3の画像処理装置のブロック図である。図15において、図1と同じ構成要素については同じ符号を用い、説明を省略する。
(Embodiment 3)
FIG. 15 is a block diagram of an image processing apparatus according to the third embodiment of the present invention. In FIG. 15, the same components as those in FIG.
図15において、総和特徴量算出部1504は入力画像情報を入力とし、周波数成分の総和に基づく値である総和特徴量を出力する。分散特徴量算出部1505は入力画像情報を入力とし、画素値の分散に基づく値である分散特徴量を出力する。色相特徴量算出部1506は入力画像情報を入力とし、画素値の色相に基づく値である色相特徴量を出力する。ノイズ補正部1507はエッジ特徴量と総和特徴量と分散特徴量と色相特徴量とノイズを入力とする。そして、エッジ特徴量と総和特徴量と分散特徴量と色相特徴量から補正係数を求め、ノイズを補正する。補正されたノイズをノイズ補正部1507の出力とする。   In FIG. 15, a total feature amount calculation unit 1504 receives input image information and outputs a total feature amount which is a value based on the sum of frequency components. The variance feature quantity calculation unit 1505 receives input image information and outputs a variance feature quantity that is a value based on the variance of pixel values. A hue feature quantity calculation unit 1506 receives input image information and outputs a hue feature quantity that is a value based on the hue of the pixel value. A noise correction unit 1507 receives an edge feature value, a total feature value, a dispersion feature value, a hue feature value, and noise. Then, a correction coefficient is obtained from the edge feature value, the total feature value, the dispersion feature value, and the hue feature value, and noise is corrected. The corrected noise is set as the output of the noise correction unit 1507.
本実施の形態と実施の形態1と同様の部分については、その詳細な説明を省略する。本実施の形態と実施の形態1との相違点は総和特徴量算出部1504と分散特徴量算出部1505、色相特徴量算出部1506、ノイズ補正部1507である。   Detailed description of the same parts as in the present embodiment and the first embodiment will be omitted. The difference between the present embodiment and the first embodiment is a total feature amount calculation unit 1504, a dispersion feature amount calculation unit 1505, a hue feature amount calculation unit 1506, and a noise correction unit 1507.
本実施の形態において、総和特徴量算出部1504を説明する。   In the present embodiment, the total feature amount calculation unit 1504 will be described.
図16は、総和特徴量算出部1504の動作を説明するためのブロック図である。   FIG. 16 is a block diagram for explaining the operation of the total feature amount calculation unit 1504.
図16において、算出領域抽出部201は図2の算出領域抽出部201と同様になるので説明を省略する。FFT部1602は算出領域抽出部201で選んだブロックに対してFFTを行う。特徴量算出部1503はFFT部1602の出力値から振幅成分の総和を算出する。   In FIG. 16, the calculation region extraction unit 201 is the same as the calculation region extraction unit 201 of FIG. The FFT unit 1602 performs FFT on the block selected by the calculation area extraction unit 201. A feature amount calculation unit 1503 calculates the sum of amplitude components from the output value of the FFT unit 1602.
FFT部1602は算出領域抽出部201で選んだブロックに対してFFTを行い、周波数ごとの振幅成分を求める。尚、FFTの代わりに、DFTやDCTを行っても良い。   The FFT unit 1602 performs an FFT on the block selected by the calculation region extraction unit 201 to obtain an amplitude component for each frequency. Note that DFT or DCT may be performed instead of FFT.
特徴量算出部1603は(数5)のように所定の閾値以上の周波数で振幅成分の総和を求める。   The feature amount calculation unit 1603 calculates the sum of the amplitude components at a frequency equal to or higher than a predetermined threshold as shown in (Expression 5).
ここで、iは実数軸、jは虚数軸、FFT(i,j)は振幅である。またT1は実数軸の閾値、T2は虚数軸の閾値である。(数5)で算出した総和特徴量を総和特徴量算出部1504の出力値とする。よって、総和特徴量は総和の値が大きいほど大きな値となる。   Here, i is a real axis, j is an imaginary axis, and FFT (i, j) is an amplitude. T1 is a real axis threshold, and T2 is an imaginary axis threshold. The total feature amount calculated in (Equation 5) is used as the output value of the total feature amount calculation unit 1504. Therefore, the total feature amount becomes larger as the total value is larger.
本実施の形態において、分散特徴量算出部1505を説明する。   In the present embodiment, the distributed feature amount calculation unit 1505 will be described.
図17は、分散特徴量算出部1505の動作を説明するためのブロック図である。   FIG. 17 is a block diagram for explaining the operation of the distributed feature quantity calculation unit 1505.
図17において、算出領域抽出部201は図2の算出領域抽出部201と同様になるので説明を省略する。輝度変換部1702は算出領域抽出部201のブロック内の画素値に対してそれぞれ輝度成分を求める。特徴量算出部1703は輝度変換部1702の出力から輝度成分の分散を算出する。   In FIG. 17, the calculation area extraction unit 201 is the same as the calculation area extraction unit 201 of FIG. The luminance conversion unit 1702 obtains a luminance component for each pixel value in the block of the calculation area extraction unit 201. The feature amount calculation unit 1703 calculates the variance of the luminance component from the output of the luminance conversion unit 1702.
輝度変換部1702はYCrCb変換を行い、算出領域抽出部201のブロック内の画素値に対してそれぞれ輝度成分を算出する。   The luminance conversion unit 1702 performs YCrCb conversion and calculates a luminance component for each pixel value in the block of the calculation region extraction unit 201.
特徴量算出部1703は輝度変換部1702で輝度変換したブロックに対して(数6)のように求める。   The feature amount calculation unit 1703 obtains the block whose luminance has been converted by the luminance conversion unit 1702 as shown in (Expression 6).
ここで、iはブロックの行、jはブロックの列、Nは行の最大値、Mは列の最大値、Xは輝度成分、Xaveは輝度成分の平均である。(数6)で算出した分散特徴量を分散特徴量算出部1505の出力値とする。よって、分散特徴量は分散の値が大きいほど大きな値となる。 Here, i is the row of the block, j is the column of the block, N is the maximum value of the row, M is the maximum value of the column, X is the luminance component, and X ave is the average of the luminance component. The variance feature value calculated in (Equation 6) is used as the output value of the variance feature value calculation unit 1505. Therefore, the variance feature amount increases as the variance value increases.
本実施の形態において、色相特徴量算出部1506を説明する。   In the present embodiment, a hue feature amount calculation unit 1506 will be described.
図18は、色相特徴量算出部1506の動作を説明するためのブロック図である。   FIG. 18 is a block diagram for explaining the operation of the hue feature quantity calculation unit 1506.
図18において、色変換部1801は注目画素の画素値から色相を分離する。特徴量算出部1702は色変換部1801の出力値である色相から色相特徴量を求める。   In FIG. 18, the color conversion unit 1801 separates the hue from the pixel value of the target pixel. A feature amount calculation unit 1702 obtains a hue feature amount from the hue that is an output value of the color conversion unit 1801.
色変換部1801はHSV変換を行い、色相角を得る。尚、HSV変換の代わりに、YCrCb変換やL*a*b*変換を行っても良い。   A color conversion unit 1801 performs HSV conversion to obtain a hue angle. In place of HSV conversion, YCrCb conversion or L * a * b * conversion may be performed.
特徴量算出部1802は図19のような色相が緑成分を多く含むほど大きな値となり、赤成分を多く含むほど小さな値となる関数から色相特徴量を得る。関数で算出した色相特徴量を色相特徴量算出部1506の出力値とする。   The feature amount calculation unit 1802 obtains a hue feature amount from a function that has a larger value as the hue includes more green components and a smaller value as the more red components are included. The hue feature amount calculated by the function is set as an output value of the hue feature amount calculation unit 1506.
本実施の形態において、ノイズ補正部1507を説明する。   In the present embodiment, the noise correction unit 1507 will be described.
図20は、ノイズ補正部1507の動作を説明するためのブロック図である。   FIG. 20 is a block diagram for explaining the operation of the noise correction unit 1507.
補正係数算出部2001は、エッジ特徴量算出部101の出力であるエッジ特徴量と総和特徴量算出部1504の出力である総和特徴量と分散特徴量算出部1505の出力である分散特徴量と色相特徴量算出部1506の出力である色相特徴量を掛け合わせ、その値に調整係数を掛ける。この値がノイズの大きさを決める補正係数である。   The correction coefficient calculation unit 2001 includes an edge feature value output from the edge feature value calculation unit 101, a total feature value output from the total feature value calculation unit 1504, and a dispersion feature value and hue output from the dispersion feature value calculation unit 1505. The hue feature amount that is the output of the feature amount calculation unit 1506 is multiplied and the value is multiplied by the adjustment coefficient. This value is a correction coefficient that determines the magnitude of noise.
補正部2002は、ノイズ発生部102の出力値と補正係数を掛け合わせ、その値をノイズ補正部1507の出力とする。   The correction unit 2002 multiplies the output value of the noise generation unit 102 and the correction coefficient, and uses the value as the output of the noise correction unit 1507.
かかる構成によれば総和特徴量算出部を更に備え、総和に基づく値でノイズの大きさを補正することで、エッジのある場所の数が多い場合と少ない場合を区別できるため、画像の形状に合った変化を与え質感を上げることができる。   According to such a configuration, the sum total feature amount calculation unit is further provided, and by correcting the noise magnitude with a value based on the sum, it is possible to distinguish between the case where the number of places with edges is large and the case where the number is small. Can give a suitable change and raise the texture.
また分散特徴量算出部を更に備え、分散に基づく値でノイズの大きさを補正することで、画素値の変化が大きい場合と小さい場合を区別できるため、画像の形状に合った変化を与え質感を上げることができる。   In addition, a dispersion feature amount calculation unit is further provided, and by correcting the noise magnitude with a value based on dispersion, it is possible to distinguish between a case where the change in the pixel value is large and a case where the change is small. Can be raised.
色相特徴量算出部を更に備え、色相特徴量でもノイズの大きさを補正することで、色による付加対象物の絞り込みができ、画像の形状に合った変化を与え質感を上げることができる。   A hue feature amount calculation unit is further provided, and by correcting the magnitude of noise even in the hue feature amount, it is possible to narrow down the additional objects by color, and to change the image according to the shape of the image and improve the texture.
区別できる種類が異なる複数の値でノイズの大きさを補正することにより、さらに質感を上げることができる。   The texture can be further improved by correcting the magnitude of the noise with a plurality of different values that can be distinguished.
本発明にかかる画像処理装置は、エッジ情報の分布に基づく値でノイズの大きさを補正し画像情報に付加するように構成したので、画像の質感を上げることができ、TV放送受信機やプロジェクターなどのディスプレイ装置に用いることができる。   The image processing apparatus according to the present invention is configured to correct the magnitude of noise with a value based on the distribution of edge information and add it to the image information, so that the texture of the image can be improved, and a TV broadcast receiver or projector It can be used for display devices such as.
本発明の実施の形態1における画像処理装置のブロック図1 is a block diagram of an image processing apparatus according to Embodiment 1 of the present invention. エッジ特徴量算出部のブロック図Block diagram of edge feature quantity calculator ブロック内の画素ごとの処理を示す図Diagram showing processing for each pixel in the block エッジ検出フィルタとエッジの方向とクラスの値の関係を示す図Diagram showing the relationship between edge detection filter, edge direction and class value 1ブロックに対するエッジ方向分類部の処理を示すフローチャートThe flowchart which shows the process of the edge direction classification | category part with respect to 1 block エッジ方向検出部の処理結果の一例を示す図The figure which shows an example of the processing result of an edge direction detection part ランレングス行列を示す図Diagram showing run-length matrix エッジ特徴量を求める関数を示す図The figure which shows the function which calculates the edge feature quantity 実施の形態1におけるノイズ補正部の構成を示すブロック図FIG. 3 is a block diagram showing a configuration of a noise correction unit in the first embodiment. 本発明の実施の形態2における画像処理装置のブロック図Block diagram of an image processing apparatus in Embodiment 2 of the present invention 高周波特徴量算出部のブロック図Block diagram of the high-frequency feature quantity calculator ハイパスフィルタの一例を示す図Diagram showing an example of a high-pass filter 閾値判定部の処理結果の一例を示す図The figure which shows an example of the process result of a threshold value determination part 実施の形態2におけるノイズ補正部の構成を示すブロック図Block diagram showing a configuration of a noise correction unit according to the second embodiment 本発明の実施の形態3における画像処理装置のブロック図Block diagram of an image processing apparatus in Embodiment 3 of the present invention 総和特徴量算出部のブロック図Block diagram of total feature amount calculation unit 分散特徴量算出部のブロック図Block diagram of distributed feature quantity calculation unit 色相特徴量算出部のブロック図Block diagram of the hue feature quantity calculator 色相特徴量を求める関数を示す図The figure which shows the function which calculates the hue feature quantity 実施の形態3におけるノイズ補正部の構成を示すブロック図Block diagram showing a configuration of a noise correction unit according to the third embodiment ノイズを付加することで質感を上げる従来技術のブロック図Prior art block diagram that improves the texture by adding noise
符号の説明Explanation of symbols
101 エッジ特徴量算出部
102 ノイズ発生部
103 ノイズ補正部
1003 高周波特徴量算出部
1504 総和特徴量算出部
1505 分散特徴量算出部
1506 色相特徴量算出部
DESCRIPTION OF SYMBOLS 101 Edge feature-value calculation part 102 Noise generation part 103 Noise correction part 1003 High frequency feature-value calculation part 1504 Sum total feature-value calculation part 1505 Dispersion feature-value calculation part 1506 Hue feature-value calculation part

Claims (12)

  1. 入力画像情報を構成する画素において、注目画素とその周辺画素からエッジ情報の分布に基づく値であるエッジ特徴量を算出するエッジ特徴量算出部と、
    所定の大きさを有するノイズを発生させるノイズ発生部と、
    前記エッジ特徴量によって前記ノイズの大きさを補正するノイズ補正部と、
    前記ノイズ補正部で算出された値を入力画像情報に加算する加算部と、
    を備えた画像処理装置。
    An edge feature amount calculation unit that calculates an edge feature amount that is a value based on a distribution of edge information from the target pixel and its surrounding pixels in the pixels constituting the input image information;
    A noise generating unit for generating noise having a predetermined magnitude;
    A noise correction unit that corrects the magnitude of the noise by the edge feature amount;
    An addition unit for adding the value calculated by the noise correction unit to the input image information;
    An image processing apparatus.
  2. 前記エッジ情報の分布は、エッジの方向の分布であることを特徴とする請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the distribution of the edge information is a distribution in an edge direction.
  3. 前記エッジ特徴量は、注目画素周辺に同じエッジの方向をもつ場所が長く集まるほど、前記ノイズの大きさが小さくなるように補正する値であることを特徴とする請求項2に記載の画像処理装置。 3. The image processing according to claim 2, wherein the edge feature amount is a value that is corrected so that the magnitude of the noise decreases as the locations having the same edge direction around the pixel of interest gather longer. apparatus.
  4. 入力画像情報を構成する画素において、注目画素とその周辺画素から局部ごとの高周波成分に基づく値である高周波特徴量を算出する高周波特徴量算出部を更に備え、
    前記ノイズ補正部は、前記高周波特徴量に基づいて前記ノイズの大きさを補正することを特徴とする請求項1、2または3に記載の画像処理装置。
    The pixel constituting the input image information further includes a high-frequency feature amount calculation unit that calculates a high-frequency feature amount that is a value based on a high-frequency component for each local area from the target pixel and its surrounding pixels,
    The image processing apparatus according to claim 1, wherein the noise correction unit corrects the magnitude of the noise based on the high-frequency feature amount.
  5. 前記高周波特徴量は、注目画素周辺に所定の閾値以上の高周波成分を持つ局部が多いほど、前記ノイズの大きさが大きくなるように補正する値であることを特徴とする請求項4に記載の画像処理装置。 The high-frequency feature amount is a value that is corrected so that the larger the local area having a high-frequency component equal to or higher than a predetermined threshold around the target pixel, the larger the noise level. Image processing device.
  6. 入力画像情報を構成する画素において、注目画素とその周辺画素から周波数成分の総和に基づく値である総和特徴量を算出する総和特徴量算出部を更に備え、
    前記ノイズ補正部は、前記総和特徴量に基づいて前記ノイズの大きさを補正することを特徴とする請求項1〜5のいずれか1つに記載の画像処理装置。
    A pixel that constitutes the input image information further includes a total feature amount calculation unit that calculates a total feature amount that is a value based on the sum of frequency components from the target pixel and its surrounding pixels,
    The image processing apparatus according to claim 1, wherein the noise correction unit corrects the magnitude of the noise based on the total feature amount.
  7. 前記総和特徴量は、前記総和の値が大きいほど、前記ノイズの大きさが大きくなるように補正する値であることを特徴とする請求項6に記載の画像処理装置。 The image processing apparatus according to claim 6, wherein the total feature amount is a value that is corrected so that the magnitude of the noise increases as the value of the total sum increases.
  8. 入力画像情報を構成する画素において、注目画素とその周辺画素から画素値の分散に基づく値である分散特徴量を算出する分散特徴量算出部を更に備え、
    前記ノイズ補正部は、前記分散特徴量に基づいて前記ノイズの大きさを補正することを特徴とする請求項1〜7のいずれか1つに記載の画像処理装置。
    The pixel constituting the input image information further includes a dispersion feature amount calculation unit that calculates a dispersion feature amount that is a value based on the dispersion of the pixel value from the target pixel and its surrounding pixels,
    The image processing apparatus according to claim 1, wherein the noise correction unit corrects the magnitude of the noise based on the variance feature amount.
  9. 前記分散特徴量は、前記分散の値が大きいほど、前記ノイズの大きさが大きくなるように補正する値であることを特徴とする請求項8に記載の画像処理装置。 The image processing apparatus according to claim 8, wherein the variance feature value is a value that is corrected so that the magnitude of the noise increases as the variance value increases.
  10. 入力画像情報を構成する画素から、色相に基づく値である色相特徴量を算出する色相特徴量算出部を更に備え、
    前記ノイズ補正部は、前記色相特徴量に基づいて前記ノイズの大きさを補正することを特徴とする請求項1〜9のいずれか1つに記載の画像処理装置。
    A hue feature amount calculation unit that calculates a hue feature amount that is a value based on the hue from the pixels constituting the input image information;
    The image processing apparatus according to claim 1, wherein the noise correction unit corrects the magnitude of the noise based on the hue feature amount.
  11. 前記色相特徴量は、前記色相が緑成分を多く含むほど、前記ノイズの大きさが大きくなるように補正する値であることを特徴とする請求項10に記載の画像処理装置。 The image processing apparatus according to claim 10, wherein the hue feature amount is a value that is corrected so that the noise amount increases as the hue includes more green components.
  12. 前記色相特徴量は、前記色相が赤成分を多く含むほど、前記ノイズの大きさが小さくなるように補正する値であることを特徴とする請求項10または11に記載の画像処理装置。 The image processing apparatus according to claim 10, wherein the hue feature amount is a value that is corrected so that the noise amount decreases as the hue includes more red components.
JP2005155243A 2005-05-27 2005-05-27 Image processing device Pending JP2006331163A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005155243A JP2006331163A (en) 2005-05-27 2005-05-27 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005155243A JP2006331163A (en) 2005-05-27 2005-05-27 Image processing device

Publications (1)

Publication Number Publication Date
JP2006331163A true JP2006331163A (en) 2006-12-07

Family

ID=37552777

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005155243A Pending JP2006331163A (en) 2005-05-27 2005-05-27 Image processing device

Country Status (1)

Country Link
JP (1) JP2006331163A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013201641A (en) * 2012-03-26 2013-10-03 Nikon Corp Image processing apparatus, camera, and image processing program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013201641A (en) * 2012-03-26 2013-10-03 Nikon Corp Image processing apparatus, camera, and image processing program

Similar Documents

Publication Publication Date Title
US7359576B1 (en) Using difference kernels for image filtering
US9649839B2 (en) Image processing apparatus and image processing method
US11080831B2 (en) Image data conversion device, image data conversion method, image data conversion program, POS terminal device, and server
JP5295431B2 (en) Image processing device
TWI588757B (en) Edge detection system and methods
US8248662B2 (en) Image forming apparatus and method thereof
US10348932B2 (en) Image processing apparatus, method of controlling the same, and non-transitory computer-readable storage medium that decrease the lightness of pixels, except for a highlight region, based on a generated lightness histogram
JP2007249436A (en) Image signal processor and processing method
US9456106B2 (en) Image processing apparatus and image processing method
JP2006331163A (en) Image processing device
JP5614550B2 (en) Image processing method, image processing apparatus, and program
JP2006133055A (en) Unevenness defect detection method and device, spatial filter, unevenness defect inspection system, and program for unevenness defect detection method
US10163035B2 (en) Edge detecting apparatus and edge detecting method
JP2010039832A (en) Image processor and image processing program
TWI401616B (en) Gradient-based halftoning method
US9639776B2 (en) Image evaluation device and image evaluation system
CN101364303B (en) Edge pixel extracting and processing method
JP4089780B2 (en) Color image processing method
JP4937417B1 (en) Character area pixel determination apparatus or method thereof
JP6139608B2 (en) Image enhancement based on pseudo-skeleton for document image reproduction
CN105719260B (en) It is a kind of improve image information can perceptibility Image Warping Enhancement Method
KR20160069452A (en) Image processing device, image processing method and program
JP2018195262A (en) Image processing apparatus, image processing method, and program
JP6320130B2 (en) Image processing apparatus, control method thereof, and control program
JP2017085238A (en) Dot determination device, image processing device, dot determination method, and program