JP5940403B2 - Edge direction discriminator - Google Patents
Edge direction discriminator Download PDFInfo
- Publication number
- JP5940403B2 JP5940403B2 JP2012166810A JP2012166810A JP5940403B2 JP 5940403 B2 JP5940403 B2 JP 5940403B2 JP 2012166810 A JP2012166810 A JP 2012166810A JP 2012166810 A JP2012166810 A JP 2012166810A JP 5940403 B2 JP5940403 B2 JP 5940403B2
- Authority
- JP
- Japan
- Prior art keywords
- flatness
- edge
- determination result
- result
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Description
本発明は、画像における各画素のエッジの方向を判別するエッジ方向判別装置に関するものである。 The present invention relates to an edge direction discriminating apparatus that discriminates the edge direction of each pixel in an image.
画像における各画素のエッジの方向を判別することで、画像の構造的属性を保持しながら、例えば、ノイズ除去等のその後の画像処理を単純化することができることから、エッジの方向判別の精度の向上が望まれている。
このようなエッジの方向判別に関する技術として、例えば、特開2008−293425号公報(特許文献1)には、入力画像信号を多重解像度変換して、互いに異なる周波数帯域を有する複数の帯域画像信号を作成し、この帯域画像信号の周波数帯域およびこの周波数帯域よりも低域側の周波数の情報を含む第1の画像信号と、帯域画像信号の周波数帯域よりも低域側の周波数の情報を含む第2の画像信号とを用いて、帯域画像信号のエッジ成分の方向を判別すると共にエッジ成分の方向に応じて帯域画像信号のノイズを除去するノイズ除去装置が開示されている。
By determining the edge direction of each pixel in the image, it is possible to simplify subsequent image processing such as noise removal while retaining the structural attributes of the image. Improvement is desired.
As a technique related to edge direction discrimination, for example, Japanese Patent Application Laid-Open No. 2008-293425 (Patent Document 1) discloses that a plurality of band image signals having different frequency bands are obtained by performing multi-resolution conversion on an input image signal. A first image signal that includes information on a frequency band of the band image signal and information on a frequency lower than the frequency band, and information on a frequency lower than the frequency band of the band image signal. There is disclosed a noise removing device that determines the direction of an edge component of a band image signal using two image signals and removes noise of the band image signal in accordance with the direction of the edge component.
しかしながら、上記した特許文献1に記載のノイズ除去装置では、ノイズ除去処理が、方向性を有するフィルタ処理に基づいて行われるため、エッジの保存能力が高いという利点がある反面、平坦部等に存在する微小なエッジをエッジとして捉えて保存する傾向があり、出力画像に模様状のノイズが残留する虞がある。
特許文献1では、模様状のノイズを除去するために、方向判別処理後にコアリング処理を行ってエッジを保持することを提案している。しかしながら、ノイズ量が多く模様状のノイズが目立つ場合には、ノイズ除去のためにコアリング処理の強度を上げる必要があり、これによって画質が劣化するという不具合がある。
However, in the noise removal apparatus described in
Japanese Patent Application Laid-Open No. 2004-228620 proposes to hold the edge by performing a coring process after the direction determination process in order to remove pattern noise. However, when the amount of noise is large and pattern-like noise is conspicuous, it is necessary to increase the intensity of the coring process in order to remove noise, which causes a problem that the image quality deteriorates.
本発明は、上述した事情に鑑みてなされたものであって、ノイズの多少とは無関係に、注目画素のエッジの方向をより高精度に判別することを目的とする。 The present invention has been made in view of the above-described circumstances, and an object thereof is to determine the direction of the edge of a pixel of interest with higher accuracy regardless of the amount of noise.
上記目的を達成するため、本発明は以下の手段を提供する。
本発明は、注目画素におけるエッジの方向を判別して第1の判別結果を出力する第1の方向判別手段と、該第1の方向判別手段よりもローパス効果が高く、前記注目画素におけるエッジの方向を判別して第2の判別結果を出力する第2の方向判別手段と、前記注目画素の平坦度を算出する平坦度算出手段と、該平坦度算出手段により算出された平坦度に応じた前記第1の判別結果と前記第2の判別結果との合成比率として、前記平坦度が高いほど第1判別結果の割合を高くし、前記平坦度が低いほど前記第2判別結果の割合を高くした合成比率を算出する合成比率算出手段と、該合成比率算出手段により算出された合成比率に基づいて前記第1の判別結果と前記第2の判別結果とを合成する合成手段とを備え、 該合成手段による合成結果に対応する方向を注目画素のエッジ方向として判別するエッジ方向判別装置を提供する。
In order to achieve the above object, the present invention provides the following means.
The present invention has a first direction discriminating means for discriminating the direction of an edge in a target pixel and outputting a first discrimination result, and has a low-pass effect higher than that of the first direction discriminating means. A second direction discriminating unit that discriminates a direction and outputs a second discrimination result; a flatness calculating unit that calculates the flatness of the pixel of interest; and a flatness calculated by the flatness calculating unit. As a combination ratio of the first determination result and the second determination result, the higher the flatness, the higher the ratio of the first determination result, and the lower the flatness, the higher the ratio of the second determination result. Combining ratio calculating means for calculating the combined ratio, and combining means for combining the first determination result and the second determination result based on the combining ratio calculated by the combining ratio calculating means, Paired with the result of synthesis by synthesis means An edge direction discriminating apparatus for discriminating a corresponding direction as an edge direction of a target pixel is provided.
本発明によれば、注目画素のエッジの方向を第1の方向判別手段及び第1の方向判別手段よりもローパス効果が高い第2の方向判別手段の2つの方向判別手段により判別し、第1の判別結果と第2の判別結果とを夫々出力する。ここで、第1の方向判別手段は、第2の方向判別手段に比してローパス効果が低い、すなわち、ノイズ除去効果が小さいので、エッジを保持する力が弱いという欠点がある。一方、第2の方向判別手段は、第1の方向判別手段に比してローパス効果が高い、すなわち、ノイズ除去効果が高いので、例えば、ノイズの影響で途切れてしまったエッジを繋げる等エッジを保持する力が強い反面、平坦部等の微小ノイズをエッジと判別する虞がある。そこで、平坦度算出手段により注目画素の平坦度を算出し、この平坦度に応じた合成比率に基づいて第1の判別結果と第2の判別結果とを合成し、合成結果に対応する方向を注目画素のエッジ方向として判別する。従って、ノイズの多少とは無関係に注目画素のエッジの方向をより高精度に判別することができる。 According to the present invention, the direction of the edge of the pixel of interest is discriminated by the two direction discriminating units of the first direction discriminating unit and the second direction discriminating unit having a low pass effect higher than that of the first direction discriminating unit. And the second discrimination result are output. Here, the first direction discriminating means has a drawback that the low-pass effect is low as compared with the second direction discriminating means, that is, the noise removal effect is small, and thus the edge holding force is weak. On the other hand, the second direction discriminating unit has a high low-pass effect as compared with the first direction discriminating unit, that is, the noise removing effect is high. While the holding force is strong, there is a risk that minute noise such as a flat portion may be identified as an edge. Therefore, the flatness calculation means calculates the flatness of the target pixel, combines the first determination result and the second determination result based on the combination ratio according to the flatness, and determines the direction corresponding to the combination result. The edge direction of the pixel of interest is determined. Therefore, the direction of the edge of the target pixel can be determined with higher accuracy regardless of the amount of noise.
上記した発明において、前記第1の判別結果及び前記第2の判別結果がベクトル値であり、前記合成手段が、前記合成比率算出手段により算出された合成比率に基づいて、ベクトル値を加重加算することにより前記第1の判別結果と前記第2の判別結果とを合成することが好ましい。
このようにすることで、第1の判別結果と第2の判別結果との合成の際の演算を単純化することができるので、容易に、かつ高精度にノイズの多少とは無関係に注目画素のエッジの方向をより高精度に判別することができる。
In the above-described invention, the first determination result and the second determination result are vector values, and the combining unit weights and adds the vector values based on the combination ratio calculated by the combination ratio calculation unit. Accordingly, it is preferable to combine the first determination result and the second determination result.
In this way, since the calculation at the time of combining the first discrimination result and the second discrimination result can be simplified, the target pixel can be easily and highly accurately irrespective of the amount of noise. The edge direction can be determined with higher accuracy.
上記した発明において、前記第1の判別結果及び前記第2の判別結果が角度又は角度を離散化した数値であり、前記合成手段が、前記角度又は角度を離散化した数値に前記合成比率算出手段により算出された合成比率を乗算して加算することにより前記第1の判別結果と前記第2の判別結果とを合成することが好ましい。
このようにすることで、第1の判別結果と第2の判別結果との合成際の演算を単純化することができるので、容易に、かつ高精度にノイズの多少とは無関係に注目画素のエッジの方向をより高精度に判別することができる。
In the above-described invention, the first discrimination result and the second discrimination result are numerical values obtained by discretizing an angle or an angle, and the synthesizing unit calculates the synthetic ratio calculating unit to a numerical value obtained by discretizing the angle or the angle. It is preferable that the first discrimination result and the second discrimination result are synthesized by multiplying and adding the synthesis ratio calculated by the above.
By doing so, the calculation at the time of synthesizing the first discrimination result and the second discrimination result can be simplified, so that the pixel of interest can be easily and highly accurately irrespective of the amount of noise. The direction of the edge can be determined with higher accuracy.
本発明によれば、ノイズの多少とは無関係に、注目画素のエッジの方向をより高精度に判別するという効果を奏する。 According to the present invention, there is an effect that the direction of the edge of the pixel of interest is determined with higher accuracy regardless of the amount of noise.
以下に、本発明の一実施形態に係るエッジ方向判別装置1について図面を参照して説明する。
図1に示すように、エッジ方向判別装置1は、入力画像の注目画素におけるエッジの方向を判別する第1方向判別部10、第2方向判別部11、注目画素の平坦度を算出する平坦度算出部12、各方向判別部10,11の出力結果の合成比率を平坦度に応じて算出する合成比率算出部13、及び合成比率に基づいて各方向判別部10,11の出力結果を合成する合成部14を備えている。
Hereinafter, an edge direction
As shown in FIG. 1, the edge
第1方向判別部10は、入力画像に含まれる各画素のエッジの方向を判別して出力結果を後述する合成部14に出力する。第1方向判別部10によるエッジの方向の判別は例えば、以下のように行われる。
The first direction
まず、第1方向判別部10は、エッジの方向を判別すべき画素である注目画素を中心として所定数の画素を含む所定範囲を抽出する。すなわち、第1方向判別部10では、エッジの方向を判別するために、注目画素を中心として所定数の画素を含む所定範囲のフィルタを用いる。本実施形態においては、第1方向判別部10が、注目画素を中心とする5画素×5画素のフィルタを用いることとして説明する。図2に、注目画素X22を中心とする5画素×5画素の計25画素(X00〜X44)を含む正方形のフィルタを例示した。図2に示すように、フィルタは、注目画素X22を起点として放射状に向かうe0〜e7の8つの方向を持つものとする。
First, the first direction
第1方向判別部10は、以下の数式1−0乃至数式1−7に従って、e0〜e7の方向毎に注目画素X22と各比較画素との差分を算出し、方向毎に差分の絶対値和を当該方向の評価値として出力する。すなわち、方向毎に以下の演算を行い、演算結果をその方向の評価値とする。そして、第1方向判別部10は、各方向についての評価値のうち最小値を示す方向を第1の判別結果として合成部14に出力する。
The first direction
第2方向判別部11は、第1方向判別部10と同様に入力画像に含まれる各画素のエッジの方向を判別して出力結果を後述する合成部14に出力する。ここで、第2方向判別部11は、第1方向判別部10に比してローパス効果、すなわち、ノイズ除去効果が高いものとなっており、第2方向判別部11によるエッジの方向の判別は例えば、以下のように行われる。
Similar to the
第2方向判別部11は、エッジの方向を判別すべき画素である注目画素を中心として所定数の画素を含む所定範囲を抽出する。このとき、第2方向判別部11は、第1方向判別部10よりもローパス効果が高いので、例えば、第1方向判別部におけるフィルタよりもフィルタサイズを大きくなっている。本実施形態においては、第2方向判別部11が、注目画素を中心とする7画素×7画素のフィルタを用いることとして説明する。図3に、注目画素Y33を中心とする7画素×7画素の計49画素(Y00〜Y66)を含む正方形のフィルタを例示した。図3に示すように、フィルタは、注目画素Y33を起点として放射状に向かうe0〜e7の8つの方向を持つものとする。
The second direction
第2方向判別部11は、以下の数式2−0乃至数式2−7に従って、e0〜e7の方向毎に注目画素Y33と各比較画素との差分を算出し、方向毎に差分の絶対値和を当該方向の評価値として出力する。すなわち、方向毎に以下の演算を行い、演算結果をその方向の評価値とする。そして、第2方向判別部11は、各方向についての評価値のうち最小値を示す方向を第2の判別結果として合成部14に出力する。
The second
なお、上記した各方向e0〜e7は、例えば、角度、方向ベクトル又はこれらを数字でラベル付けしたラベルで表現することができる。以下に、各方向e0〜e7にラベル付けを行い、これらのラベルとベクトル値とを対応付けて表現した例を示す。 In addition, each above-mentioned direction e0-e7 can be represented by the label which labeled these with the angle, the direction vector, or these, for example. In the following, an example is shown in which labels are assigned to the directions e0 to e7, and these labels are associated with vector values.
平坦度算出部12は、注目画素の平坦度を算出する。ここで、平坦度とは、入力画像の画素毎に算出されるものであり、注目画素が平坦である度合いを示すものである。従って、平坦度が高い場合には、当該注目画素が平坦である度合いが高く、すなわち、エッジがないと判断することができる。一方、平坦度が低い場合には、当該注目画素が平坦である度合いが低く、細かいテクスチャ等の模様やエッジがあると判断することができる。
The
平坦度算出部12は、第2方向判別部により得られた各方向e0〜e7の評価値のばらつきを示す分散値を算出し、この分散値を平坦度を示す値として算出する。従って、平坦度算出部12は、算出した分散値が高い場合に平坦度が高いと判定し、分散値が低い場合に平坦度が低いと判定する。
The
なお、平坦度の算出は、上記した手法に限られず、例えば、注目画素近傍の複数ブロックに対して、注目画素と各ブロックに含まれる画素との画素値の差分の最大値を演算し、各ブロックに対する最大値のうちの最小値に基づいて平坦度を判断することもできる。 The flatness calculation is not limited to the above-described method. For example, for a plurality of blocks near the target pixel, the maximum value of the pixel value difference between the target pixel and the pixel included in each block is calculated. The flatness can also be determined based on the minimum value among the maximum values for the block.
合成比率算出部13は、平坦度算出部12により算出された平坦度に応じて、すなわち、本実施形態においては分散値に応じて、第1の判別結果と第2の判別結果との合成比率を算出する。この合成比率は、平坦度が高いほど第1判別結果の割合を高くし、平坦度が低いほど前記第2判別結果の割合を高くした合成比率を算出する。算出した合成比率は、合成部14に出力される。
The combination
合成比率の算出に際しては、予め1又は複数の閾値を定めておくことができる。閾値が一つの場合の例を図4に、閾値が2つの場合の例を図5に示した。閾値としてTh1が1つ設定されている場合には、例えば、図4に示すように、平坦度がTh1までは第1の判別結果の割合が最小かつ第2の判別結果の割合が最大となる一定の合成比率を算出し、Th1以上では、平坦度が高くなるのに応じて第1判別結果の割合が高くなるような合成比率を算出する。 In calculating the composition ratio, one or a plurality of threshold values can be determined in advance. An example in the case of one threshold is shown in FIG. 4, and an example in the case of two thresholds is shown in FIG. When one threshold Th1 is set, for example, as shown in FIG. 4, the ratio of the first determination result is the minimum and the ratio of the second determination result is the maximum until the flatness is Th1. A constant composition ratio is calculated, and for Th1 or more, a composition ratio is calculated such that the ratio of the first determination result increases as the flatness increases.
また、閾値がTh1、Th2の2つ設定されている場合には、例えば、図5に示すように、平坦度がTh1までは第1の判別結果の割合が最小かつ第2の判別結果の割合が最大となる一定の合成比率を算出し、Th1とTh2との間では、平坦度が高くなるのに応じて第1判別結果の割合が高くなるような合成比率を算出する。そして、平坦度がTh2以上となった場合に、第1の判別結果の割合が最大かつ第2の判別結果の割合が最小となる一定の合成比率を算出する。 When two threshold values, Th1 and Th2, are set, for example, as shown in FIG. 5, the ratio of the first determination result is the minimum and the ratio of the second determination result until the flatness is Th1. Is calculated so that the ratio of the first determination result increases as the flatness increases between Th1 and Th2. Then, when the flatness is equal to or greater than Th2, a fixed composition ratio is calculated in which the ratio of the first determination result is the maximum and the ratio of the second determination result is the minimum.
合成部14は、合成比率算出部13により算出された合成比率に基づいて第1の判別結果と第2の判別結果とを合成する。すなわち、合成比率算出部13により算出された合成比率に基づく各判別結果に対する合成率を各判別結果に乗算し、これらを足し合わせて合成結果として出力する。
The combining
なお、各判別結果が、ベクトル値である場合には、x成分y成分それぞれに重みを掛け、以下の式(3)、式(4)に従って算出する。
第1の判別結果については、x成分をDX1、y成分の判別結果をDY1、x成分の合成率をWX1とし、y成分の合成率をWX1とする。
第2の判別結果については、x成分のをDX2、y成分の判別結果をDY2、x成分の合成率をWX2とし、y成分の合成率をWX2とする。
X成分の合成結果=DX1×WX1+DX2×WX2 …(3)
Y成分の合成結果=DY1×WY1+DY2×WY2 …(4)
When each determination result is a vector value, each x component and y component are weighted and calculated according to the following equations (3) and (4).
Regarding the first discrimination result, the x component is DX1, the y component discrimination result is DY1, the x component synthesis rate is WX1, and the y component synthesis rate is WX1.
Regarding the second discrimination result, the x component is DX2, the y component discrimination result is DY2, the x component synthesis rate is WX2, and the y component synthesis rate is WX2.
X component synthesis result = DX1 × WX1 + DX2 × WX2 (3)
Y component synthesis result = DY1 × WY1 + DY2 × WY2 (4)
エッジ方向判別装置1は、合成部14による合成結果に対応する方向を、最終的に注目画素のエッジ方向として判別する。
The edge
続いて、このように構成されたエッジ方向判別装置1の作用について図6のフローチャートに従って、説明する。なお、以下の説明においては、図2及び図3を参照し、第1方向判別部は5画素×5画素のフィルタ、第2方向判別部は7画素×7画素のフィルタを用いるものとして説明する。
Next, the operation of the edge
本実施形態に係るエッジ方向判別装置1によって画像中のエッジの方向を判別するために、エッジの方向を判別すべき注目画素を特定し、ステップS11において、第1方向判別部10により注目画素X22を中心とする5画素×5画素の範囲を定め、この範囲に対してe0〜e7の方向毎に注目画素X22と各比較画素との差分を算出し、方向毎に差分の絶対値和を当該方向の評価値を算出する。そして、各評価値のうち最小値を示す方向を第1の判別結果として合成部14に出力する。次のステップS12では、第2方向判別部により注目画素Y33を中心とする7画素×7画素の範囲を定め、この範囲に対してe0〜e7の方向毎に注目画素Y33と各比較画素との差分を算出し、方向毎に差分の絶対値和を当該方向の評価値を算出する。そして、各評価値のうち最小値を示す方向を第2の判別結果として合成部14に出力する。
In order to discriminate the direction of the edge in the image by the edge
次のステップS13では、注目画素の平坦度を算出する。上述のように、平坦度算出部では、第2方向判別部により得られた各方向e0〜e7の評価値のばらつきを示す分散値を算出し、この分散値を平坦度を示す値として算出し、合成比率算出部13に出力する。
In the next step S13, the flatness of the target pixel is calculated. As described above, the flatness calculation unit calculates a dispersion value indicating the variation in the evaluation value in each direction e0 to e7 obtained by the second direction determination unit, and calculates this dispersion value as a value indicating the flatness. And output to the composite
次のステップS14では、合成比率算出部13により、平坦度(分散値)に基づいて合成比率を算出し、合成部14に出力する。ステップS15において、合成部14では、合成比率算出部13により算出された合成比率に基づいて第1の判別結果と第2の判別結果とを合成し、これによりエッジ方向判別装置1として、合成結果に対応する方向を、最終的に注目画素のエッジ方向として判別する。
In the next step S <b> 14, the composition
このように、ノイズ除去効果又は方向判別精度等の特性が異なる2つの方向判別部により、注目画素のエッジの方向を一旦判別しておき、注目画素の平坦度に応じた合成比率に基づいて2つの判別結果を合成し、合成結果に対応する方向を注目画素のエッジ方向として判別することで、ノイズの多少とは無関係に注目画素のエッジの方向をより高精度に判別することができる。 As described above, the direction of the edge of the target pixel is once determined by the two direction determination units having different characteristics such as the noise removal effect or the direction determination accuracy, and 2 based on the combination ratio corresponding to the flatness of the target pixel. By combining the two determination results and determining the direction corresponding to the combination result as the edge direction of the target pixel, the direction of the edge of the target pixel can be determined with higher accuracy regardless of the amount of noise.
(変形例)
上記した実施形態においては、第1方向判別部と第2方向判別部とはフィルタサイズが異なるものとして例示したが、これに限られることはなく、例えば、フィルタサイズが同じで、係数の異なるフィルタを用いることもできる。
(Modification)
In the above-described embodiment, the first direction discriminating unit and the second direction discriminating unit are exemplified as those having different filter sizes. However, the present invention is not limited to this. For example, filters having the same filter size and different coefficients Can also be used.
この場合には、ローパス効果を異ならせるために、注目画素との距離が近い画素の重みが遠い画素の重みに比べ高くすることでローパス効果を低減させ、注目画素との距離が近い画素も遠い画素も同じ重みとすることでローパス効果を高くする。方向は0〜360度とすることができ、ここでの方向判別結果は、エッジの勾配方向である。 In this case, in order to make the low-pass effect different, the low-pass effect is reduced by increasing the weight of the pixel that is close to the target pixel compared to the weight of the far pixel, and the pixel that is close to the target pixel is also far. By setting the pixels to the same weight, the low pass effect is increased. The direction can be 0 to 360 degrees, and the direction discrimination result here is the gradient direction of the edge.
図7(A)に第1方向判別部で用いるローパス効果の比較的低い3画素×3画素のフィルタを、図7(B)に第2方向判別部で用いるローパス効果の比較的高い3画素×3画素のフィルタを例示した。
第1方向判別部では、図7(A)の縦のフィルタをかけた値の出力Tx1と、横のフィルタをかけた値の出力Yx1の値を算出する。それらの値を下記の式(5−1)に代入して方向を計算する。
FIG. 7A shows a 3 pixel × 3 pixel filter having a relatively low low-pass effect used in the first direction discriminating unit, and FIG. 7B shows 3 pixels × a relatively high low-pass effect used in the second direction discriminating unit. A three pixel filter was illustrated.
The first direction discriminating unit calculates the value Tx1 of the value obtained by applying the vertical filter in FIG. 7A and the value Yx1 of the value obtained by applying the horizontal filter. The direction is calculated by substituting those values into the following equation (5-1).
第2の方向判別処理部も同様に、図7(B)の縦のフィルタをかけた値の出力Tx2と、横のフィルタをかけた値の出力Yx2の値を算出する。それらの値を下記の式(5−2)に代入して方向を計算する。 Similarly, the second direction discrimination processing unit calculates the value of the output Tx2 obtained by applying the vertical filter in FIG. 7B and the value of the output Yx2 obtained by applying the horizontal filter. The direction is calculated by substituting these values into the following equation (5-2).
上記したエッジ方向判別装置1を画像処理装置に適用することにより、各画素のエッジの方向が判別された画像に対して、判別された方向の情報を用いてノイズ低減処理を行うことができる。この場合には、図8に示すように、例えば、画像入力部20、メモリ21、エッジ方向判別装置1、画像処理部22を備える画像処理装置2とすることができる。 画像処理部22は、方向に沿った平滑化部25、平坦部の平滑化部26、及びメモリ21から出力された原画像と平滑化後の画像を合成する画像合成部27を備えている。
By applying the edge
画像処理部22では、エッジ方向判別装置1で得られた方向判別結果と平坦度の結果に基づいて、エッジであり、方向を持っている場合は平滑化部25により方向に沿った平滑化を、エッジでない平坦な場合には平滑化部26により所定ブロックを用いた平滑化をかけ、最後にメモリ21から出力された原画像と合成する。
In the
平滑化の処理は、ある注目画素が持つ決められた方向に沿った周辺の複数画素の平均値を注目画素の値にし、方向を持たない場合はある注目画素の周辺の複数画素の平均値を用いることで平滑化するなどしても良い。これにより、エッジ上にのっているノイズを、エッジを鈍らせることなく落とすことができる。 In the smoothing process, the average value of a plurality of surrounding pixels along a determined direction of a certain pixel of interest is set to the value of the pixel of interest, and if there is no direction, the average value of a plurality of pixels around a certain pixel of interest is calculated. It may be smoothed by using it. Thereby, the noise on the edge can be dropped without dulling the edge.
1 エッジ方向判別装置
2 画像処理装置
10 第1方向判別部
11 第2方向判別部
12 平坦度算出部
13 合成比率算出部
14 合成部
DESCRIPTION OF
Claims (3)
該第1の方向判別手段よりもローパス効果が高く、前記注目画素におけるエッジの方向を判別して第2の判別結果を出力する第2の方向判別手段と、
前記注目画素の平坦度を算出する平坦度算出手段と、
該平坦度算出手段により算出された平坦度に応じた前記第1の判別結果と前記第2の判別結果との合成比率として、前記平坦度が高いほど第1の判別結果の割合を高くし、前記平坦度が低いほど前記第2の判別結果の割合を高くした合成比率を算出する合成比率算出手段と、
該合成比率算出手段により算出された合成比率に基づいて前記第1の判別結果と前記第2の判別結果とを合成する合成手段とを備え、
該合成手段による合成結果に対応する方向を注目画素のエッジ方向として判別するエッジ方向判別装置。 First direction discrimination means for discriminating the direction of the edge of the pixel of interest and outputting a first discrimination result;
A second direction determining unit that has a low-pass effect higher than that of the first direction determining unit, determines a direction of an edge in the target pixel, and outputs a second determination result;
Flatness calculating means for calculating the flatness of the target pixel;
As a combination ratio of the first determination result and the second determination result according to the flatness calculated by the flatness calculation means, the higher the flatness, the higher the ratio of the first determination result, A composition ratio calculating means for calculating a composition ratio in which the ratio of the second determination result is increased as the flatness is lower;
Combining means for combining the first determination result and the second determination result based on the combination ratio calculated by the combination ratio calculation means;
An edge direction discriminating apparatus that discriminates a direction corresponding to a synthesis result by the synthesizing unit as an edge direction of a target pixel.
前記合成手段が、前記合成比率算出手段により算出された合成比率に基づいて、ベクトル値を加重加算することにより前記第1の判別結果と前記第2の判別結果とを合成する請求項1記載のエッジ方向判別装置。 The first discrimination result and the second discrimination result are vector values;
2. The combination according to claim 1, wherein the combining unit combines the first determination result and the second determination result by weighted addition of vector values based on the combination ratio calculated by the combination ratio calculation unit. Edge direction discriminator.
前記合成手段が、前記角度又は角度を離散化した数値に前記合成比率算出手段により算出された合成比率を乗算して加算することにより前記第1の判別結果と前記第2の判別結果とを合成する請求項1記載のエッジ方向判別装置。 The first discrimination result and the second discrimination result are angles or numerical values obtained by discretizing angles,
The combining means combines the first determination result and the second determination result by multiplying the angle or a numerical value obtained by discretizing the angle by the multiplication ratio calculated by the combining ratio calculation means and adding the result. The edge direction discriminating apparatus according to claim 1.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012166810A JP5940403B2 (en) | 2012-07-27 | 2012-07-27 | Edge direction discriminator |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012166810A JP5940403B2 (en) | 2012-07-27 | 2012-07-27 | Edge direction discriminator |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014026497A JP2014026497A (en) | 2014-02-06 |
JP5940403B2 true JP5940403B2 (en) | 2016-06-29 |
Family
ID=50200075
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012166810A Expired - Fee Related JP5940403B2 (en) | 2012-07-27 | 2012-07-27 | Edge direction discriminator |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5940403B2 (en) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3073599B2 (en) * | 1992-04-22 | 2000-08-07 | 本田技研工業株式会社 | Image edge detection device |
JPH1196372A (en) * | 1997-09-16 | 1999-04-09 | Omron Corp | Method and device for processing image and recording medium of control program for image processing |
JP5388779B2 (en) * | 2009-09-28 | 2014-01-15 | 京セラ株式会社 | Image processing apparatus, image processing method, and image processing program |
-
2012
- 2012-07-27 JP JP2012166810A patent/JP5940403B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2014026497A (en) | 2014-02-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101248808B1 (en) | Apparatus and method for removing noise on edge area | |
US9324153B2 (en) | Depth measurement apparatus, image pickup apparatus, depth measurement method, and depth measurement program | |
JP6164926B2 (en) | Noise reduction processing device | |
US20160112659A1 (en) | Image processing apparatus and image processing method, and program | |
JP2010258710A5 (en) | ||
EP3016383B1 (en) | Method, device, and system for pre-processing a video stream for subsequent motion detection processing | |
JP6205685B2 (en) | Active sonar device, active sonar signal processing method, and signal processing program thereof | |
EP3667610A1 (en) | Spatially dynamic fusion of images of different qualities | |
KR101799143B1 (en) | System and method for estimating target size | |
JP6161847B1 (en) | Image processing apparatus and image processing method | |
JP6256703B2 (en) | Image processing method and image processing apparatus | |
JP5940403B2 (en) | Edge direction discriminator | |
EP3540685B1 (en) | Image-processing apparatus to reduce staircase artifacts from an image signal | |
KR101585963B1 (en) | Filtering Method based on Image Sensor Noise-Model and Image System using the same | |
CN102163322A (en) | Suppression method of co-channel interference in radar image based on Laplace operator | |
JP2010169644A (en) | Apparatus, method and program for detecting target signal | |
RU2630744C2 (en) | Method of detecting periodical textures | |
JP6938282B2 (en) | Image processing equipment, image processing methods and programs | |
JP4612522B2 (en) | Change area calculation method, change area calculation device, change area calculation program | |
JP7315089B2 (en) | Target area detection device, target area detection method, and target area detection program | |
Choudhary et al. | A novel approach for edge detection for blurry images by using digital image processing | |
US11403736B2 (en) | Image processing apparatus to reduce noise in an image | |
Jeon et al. | Multi-point measurement of structural vibration using pattern recognition from camera image | |
JP5420049B1 (en) | Magnification rate estimation apparatus or method | |
JP2019097004A (en) | Image generation apparatus, image generation method and image generation program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150618 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160421 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160426 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160518 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5940403 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |