JP5940403B2 - Edge direction discriminator - Google Patents

Edge direction discriminator Download PDF

Info

Publication number
JP5940403B2
JP5940403B2 JP2012166810A JP2012166810A JP5940403B2 JP 5940403 B2 JP5940403 B2 JP 5940403B2 JP 2012166810 A JP2012166810 A JP 2012166810A JP 2012166810 A JP2012166810 A JP 2012166810A JP 5940403 B2 JP5940403 B2 JP 5940403B2
Authority
JP
Japan
Prior art keywords
flatness
edge
determination result
result
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012166810A
Other languages
Japanese (ja)
Other versions
JP2014026497A (en
Inventor
日淑 高井
日淑 高井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2012166810A priority Critical patent/JP5940403B2/en
Publication of JP2014026497A publication Critical patent/JP2014026497A/en
Application granted granted Critical
Publication of JP5940403B2 publication Critical patent/JP5940403B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像における各画素のエッジの方向を判別するエッジ方向判別装置に関するものである。   The present invention relates to an edge direction discriminating apparatus that discriminates the edge direction of each pixel in an image.

画像における各画素のエッジの方向を判別することで、画像の構造的属性を保持しながら、例えば、ノイズ除去等のその後の画像処理を単純化することができることから、エッジの方向判別の精度の向上が望まれている。
このようなエッジの方向判別に関する技術として、例えば、特開2008−293425号公報(特許文献1)には、入力画像信号を多重解像度変換して、互いに異なる周波数帯域を有する複数の帯域画像信号を作成し、この帯域画像信号の周波数帯域およびこの周波数帯域よりも低域側の周波数の情報を含む第1の画像信号と、帯域画像信号の周波数帯域よりも低域側の周波数の情報を含む第2の画像信号とを用いて、帯域画像信号のエッジ成分の方向を判別すると共にエッジ成分の方向に応じて帯域画像信号のノイズを除去するノイズ除去装置が開示されている。
By determining the edge direction of each pixel in the image, it is possible to simplify subsequent image processing such as noise removal while retaining the structural attributes of the image. Improvement is desired.
As a technique related to edge direction discrimination, for example, Japanese Patent Application Laid-Open No. 2008-293425 (Patent Document 1) discloses that a plurality of band image signals having different frequency bands are obtained by performing multi-resolution conversion on an input image signal. A first image signal that includes information on a frequency band of the band image signal and information on a frequency lower than the frequency band, and information on a frequency lower than the frequency band of the band image signal. There is disclosed a noise removing device that determines the direction of an edge component of a band image signal using two image signals and removes noise of the band image signal in accordance with the direction of the edge component.

特開2008−293425号公報JP 2008-293425 A

しかしながら、上記した特許文献1に記載のノイズ除去装置では、ノイズ除去処理が、方向性を有するフィルタ処理に基づいて行われるため、エッジの保存能力が高いという利点がある反面、平坦部等に存在する微小なエッジをエッジとして捉えて保存する傾向があり、出力画像に模様状のノイズが残留する虞がある。
特許文献1では、模様状のノイズを除去するために、方向判別処理後にコアリング処理を行ってエッジを保持することを提案している。しかしながら、ノイズ量が多く模様状のノイズが目立つ場合には、ノイズ除去のためにコアリング処理の強度を上げる必要があり、これによって画質が劣化するという不具合がある。
However, in the noise removal apparatus described in Patent Document 1 described above, noise removal processing is performed based on directional filter processing, so that there is an advantage of high edge storage capability, but it exists in a flat portion or the like. There is a tendency to capture and save minute edges as edges, and pattern-like noise may remain in the output image.
Japanese Patent Application Laid-Open No. 2004-228620 proposes to hold the edge by performing a coring process after the direction determination process in order to remove pattern noise. However, when the amount of noise is large and pattern-like noise is conspicuous, it is necessary to increase the intensity of the coring process in order to remove noise, which causes a problem that the image quality deteriorates.

本発明は、上述した事情に鑑みてなされたものであって、ノイズの多少とは無関係に、注目画素のエッジの方向をより高精度に判別することを目的とする。   The present invention has been made in view of the above-described circumstances, and an object thereof is to determine the direction of the edge of a pixel of interest with higher accuracy regardless of the amount of noise.

上記目的を達成するため、本発明は以下の手段を提供する。
本発明は、注目画素におけるエッジの方向を判別して第1の判別結果を出力する第1の方向判別手段と、該第1の方向判別手段よりもローパス効果が高く、前記注目画素におけるエッジの方向を判別して第2の判別結果を出力する第2の方向判別手段と、前記注目画素の平坦度を算出する平坦度算出手段と、該平坦度算出手段により算出された平坦度に応じた前記第1の判別結果と前記第2の判別結果との合成比率として、前記平坦度が高いほど第1判別結果の割合を高くし、前記平坦度が低いほど前記第2判別結果の割合を高くした合成比率を算出する合成比率算出手段と、該合成比率算出手段により算出された合成比率に基づいて前記第1の判別結果と前記第2の判別結果とを合成する合成手段とを備え、 該合成手段による合成結果に対応する方向を注目画素のエッジ方向として判別するエッジ方向判別装置を提供する。
In order to achieve the above object, the present invention provides the following means.
The present invention has a first direction discriminating means for discriminating the direction of an edge in a target pixel and outputting a first discrimination result, and has a low-pass effect higher than that of the first direction discriminating means. A second direction discriminating unit that discriminates a direction and outputs a second discrimination result; a flatness calculating unit that calculates the flatness of the pixel of interest; and a flatness calculated by the flatness calculating unit. As a combination ratio of the first determination result and the second determination result, the higher the flatness, the higher the ratio of the first determination result, and the lower the flatness, the higher the ratio of the second determination result. Combining ratio calculating means for calculating the combined ratio, and combining means for combining the first determination result and the second determination result based on the combining ratio calculated by the combining ratio calculating means, Paired with the result of synthesis by synthesis means An edge direction discriminating apparatus for discriminating a corresponding direction as an edge direction of a target pixel is provided.

本発明によれば、注目画素のエッジの方向を第1の方向判別手段及び第1の方向判別手段よりもローパス効果が高い第2の方向判別手段の2つの方向判別手段により判別し、第1の判別結果と第2の判別結果とを夫々出力する。ここで、第1の方向判別手段は、第2の方向判別手段に比してローパス効果が低い、すなわち、ノイズ除去効果が小さいので、エッジを保持する力が弱いという欠点がある。一方、第2の方向判別手段は、第1の方向判別手段に比してローパス効果が高い、すなわち、ノイズ除去効果が高いので、例えば、ノイズの影響で途切れてしまったエッジを繋げる等エッジを保持する力が強い反面、平坦部等の微小ノイズをエッジと判別する虞がある。そこで、平坦度算出手段により注目画素の平坦度を算出し、この平坦度に応じた合成比率に基づいて第1の判別結果と第2の判別結果とを合成し、合成結果に対応する方向を注目画素のエッジ方向として判別する。従って、ノイズの多少とは無関係に注目画素のエッジの方向をより高精度に判別することができる。   According to the present invention, the direction of the edge of the pixel of interest is discriminated by the two direction discriminating units of the first direction discriminating unit and the second direction discriminating unit having a low pass effect higher than that of the first direction discriminating unit. And the second discrimination result are output. Here, the first direction discriminating means has a drawback that the low-pass effect is low as compared with the second direction discriminating means, that is, the noise removal effect is small, and thus the edge holding force is weak. On the other hand, the second direction discriminating unit has a high low-pass effect as compared with the first direction discriminating unit, that is, the noise removing effect is high. While the holding force is strong, there is a risk that minute noise such as a flat portion may be identified as an edge. Therefore, the flatness calculation means calculates the flatness of the target pixel, combines the first determination result and the second determination result based on the combination ratio according to the flatness, and determines the direction corresponding to the combination result. The edge direction of the pixel of interest is determined. Therefore, the direction of the edge of the target pixel can be determined with higher accuracy regardless of the amount of noise.

上記した発明において、前記第1の判別結果及び前記第2の判別結果がベクトル値であり、前記合成手段が、前記合成比率算出手段により算出された合成比率に基づいて、ベクトル値を加重加算することにより前記第1の判別結果と前記第2の判別結果とを合成することが好ましい。
このようにすることで、第1の判別結果と第2の判別結果との合成の際の演算を単純化することができるので、容易に、かつ高精度にノイズの多少とは無関係に注目画素のエッジの方向をより高精度に判別することができる。
In the above-described invention, the first determination result and the second determination result are vector values, and the combining unit weights and adds the vector values based on the combination ratio calculated by the combination ratio calculation unit. Accordingly, it is preferable to combine the first determination result and the second determination result.
In this way, since the calculation at the time of combining the first discrimination result and the second discrimination result can be simplified, the target pixel can be easily and highly accurately irrespective of the amount of noise. The edge direction can be determined with higher accuracy.

上記した発明において、前記第1の判別結果及び前記第2の判別結果が角度又は角度を離散化した数値であり、前記合成手段が、前記角度又は角度を離散化した数値に前記合成比率算出手段により算出された合成比率を乗算して加算することにより前記第1の判別結果と前記第2の判別結果とを合成することが好ましい。
このようにすることで、第1の判別結果と第2の判別結果との合成際の演算を単純化することができるので、容易に、かつ高精度にノイズの多少とは無関係に注目画素のエッジの方向をより高精度に判別することができる。
In the above-described invention, the first discrimination result and the second discrimination result are numerical values obtained by discretizing an angle or an angle, and the synthesizing unit calculates the synthetic ratio calculating unit to a numerical value obtained by discretizing the angle or the angle. It is preferable that the first discrimination result and the second discrimination result are synthesized by multiplying and adding the synthesis ratio calculated by the above.
By doing so, the calculation at the time of synthesizing the first discrimination result and the second discrimination result can be simplified, so that the pixel of interest can be easily and highly accurately irrespective of the amount of noise. The direction of the edge can be determined with higher accuracy.

本発明によれば、ノイズの多少とは無関係に、注目画素のエッジの方向をより高精度に判別するという効果を奏する。   According to the present invention, there is an effect that the direction of the edge of the pixel of interest is determined with higher accuracy regardless of the amount of noise.

本発明の一実施形態に係るエッジ方向判別装置の概略構成を示すブロック図である。It is a block diagram showing a schematic structure of an edge direction discriminating device concerning one embodiment of the present invention. 本発明の一実施形態に係るエッジ方向判別装置において、注目画素のエッジを判別するために第1方向判別部によって設定されるフィルタの例を示す概念図である。FIG. 4 is a conceptual diagram illustrating an example of a filter set by a first direction determining unit in order to determine an edge of a target pixel in an edge direction determining device according to an embodiment of the present invention. 本発明の一実施形態に係るエッジ方向判別装置において、注目画素のエッジを判別するために第2方向判別部によって設定されるフィルタの例を示す概念図である。FIG. 4 is a conceptual diagram illustrating an example of a filter set by a second direction determining unit in order to determine an edge of a target pixel in an edge direction determining device according to an embodiment of the present invention. 本発明の一実施形態に係るエッジ方向判別装置において、閾値が1つ設定された場合の平坦度と合成率との関係を示すグラフである。In the edge direction discriminating device concerning one embodiment of the present invention, it is a graph which shows the relation between flatness and composition rate when one threshold is set up. 本発明の一実施形態に係るエッジ方向判別装置において、閾値が2つ設定された場合の平坦度と合成率との関係を示すグラフである。In the edge direction discriminating device concerning one embodiment of the present invention, it is a graph which shows the relation between flatness and composition rate when two thresholds are set up. 本発明の一実施形態に係るエッジ方向判別装置において、注目画素のエッジ方向を判別する際のフローチャートである。5 is a flowchart for determining an edge direction of a pixel of interest in an edge direction determination device according to an embodiment of the present invention. 本発明の一実施形態の変形例に係るエッジ方向判別装置において、注目画素のエッジを判別するために設定されるフィルタの例を示す概念図であって、(A)は第1方向判別部のフィルタの例を、(B)は第2方向判別部のフィルタの例を示す。FIG. 6 is a conceptual diagram illustrating an example of a filter that is set to determine the edge of a target pixel in an edge direction determination device according to a modified example of an embodiment of the present invention, and (A) illustrates a first direction determination unit; (B) shows an example of the filter of the second direction discriminating unit. 本発明の一実施形態に係るエッジ方向判別装置が適用される画像処理装置の概略構成を示すブロック図である。1 is a block diagram illustrating a schematic configuration of an image processing apparatus to which an edge direction determination device according to an embodiment of the present invention is applied.

以下に、本発明の一実施形態に係るエッジ方向判別装置1について図面を参照して説明する。
図1に示すように、エッジ方向判別装置1は、入力画像の注目画素におけるエッジの方向を判別する第1方向判別部10、第2方向判別部11、注目画素の平坦度を算出する平坦度算出部12、各方向判別部10,11の出力結果の合成比率を平坦度に応じて算出する合成比率算出部13、及び合成比率に基づいて各方向判別部10,11の出力結果を合成する合成部14を備えている。
Hereinafter, an edge direction discriminating apparatus 1 according to an embodiment of the present invention will be described with reference to the drawings.
As shown in FIG. 1, the edge direction determination device 1 includes a first direction determination unit 10, a second direction determination unit 11 that determines the direction of an edge in a target pixel of an input image, and a flatness that calculates the flatness of the target pixel. The calculation unit 12, the synthesis ratio calculation unit 13 that calculates the synthesis ratio of the output results of the direction determination units 10 and 11 according to the flatness, and the output result of the direction determination units 10 and 11 based on the synthesis ratio. A synthesis unit 14 is provided.

第1方向判別部10は、入力画像に含まれる各画素のエッジの方向を判別して出力結果を後述する合成部14に出力する。第1方向判別部10によるエッジの方向の判別は例えば、以下のように行われる。   The first direction discriminating unit 10 discriminates the direction of the edge of each pixel included in the input image and outputs the output result to the synthesizing unit 14 described later. The determination of the edge direction by the first direction determination unit 10 is performed as follows, for example.

まず、第1方向判別部10は、エッジの方向を判別すべき画素である注目画素を中心として所定数の画素を含む所定範囲を抽出する。すなわち、第1方向判別部10では、エッジの方向を判別するために、注目画素を中心として所定数の画素を含む所定範囲のフィルタを用いる。本実施形態においては、第1方向判別部10が、注目画素を中心とする5画素×5画素のフィルタを用いることとして説明する。図2に、注目画素X22を中心とする5画素×5画素の計25画素(X00〜X44)を含む正方形のフィルタを例示した。図2に示すように、フィルタは、注目画素X22を起点として放射状に向かうe0〜e7の8つの方向を持つものとする。   First, the first direction discriminating unit 10 extracts a predetermined range including a predetermined number of pixels around a target pixel that is a pixel whose edge direction is to be discriminated. In other words, the first direction discriminating unit 10 uses a filter in a predetermined range including a predetermined number of pixels centered on the pixel of interest in order to determine the direction of the edge. In the present embodiment, the first direction determination unit 10 will be described as using a 5 × 5 pixel filter centered on the target pixel. FIG. 2 illustrates a square filter including a total of 25 pixels (X00 to X44) of 5 pixels × 5 pixels centered on the pixel of interest X22. As shown in FIG. 2, it is assumed that the filter has eight directions e0 to e7 that start radially from the target pixel X22.

第1方向判別部10は、以下の数式1−0乃至数式1−7に従って、e0〜e7の方向毎に注目画素X22と各比較画素との差分を算出し、方向毎に差分の絶対値和を当該方向の評価値として出力する。すなわち、方向毎に以下の演算を行い、演算結果をその方向の評価値とする。そして、第1方向判別部10は、各方向についての評価値のうち最小値を示す方向を第1の判別結果として合成部14に出力する。   The first direction discriminating unit 10 calculates the difference between the target pixel X22 and each comparison pixel for each of the directions e0 to e7 according to the following formulas 1-0 to 1-7, and sums the absolute values of the differences for each direction. Is output as an evaluation value in the direction. That is, the following calculation is performed for each direction, and the calculation result is used as an evaluation value for the direction. Then, the first direction determination unit 10 outputs the direction indicating the minimum value among the evaluation values for each direction to the synthesis unit 14 as the first determination result.

Figure 0005940403
Figure 0005940403

第2方向判別部11は、第1方向判別部10と同様に入力画像に含まれる各画素のエッジの方向を判別して出力結果を後述する合成部14に出力する。ここで、第2方向判別部11は、第1方向判別部10に比してローパス効果、すなわち、ノイズ除去効果が高いものとなっており、第2方向判別部11によるエッジの方向の判別は例えば、以下のように行われる。   Similar to the first direction discriminator 10, the second direction discriminator 11 discriminates the edge direction of each pixel included in the input image and outputs the output result to the synthesizing unit 14 described later. Here, the second direction determination unit 11 has a low-pass effect, that is, a noise removal effect higher than that of the first direction determination unit 10, and the second direction determination unit 11 determines the edge direction. For example, it is performed as follows.

第2方向判別部11は、エッジの方向を判別すべき画素である注目画素を中心として所定数の画素を含む所定範囲を抽出する。このとき、第2方向判別部11は、第1方向判別部10よりもローパス効果が高いので、例えば、第1方向判別部におけるフィルタよりもフィルタサイズを大きくなっている。本実施形態においては、第2方向判別部11が、注目画素を中心とする7画素×7画素のフィルタを用いることとして説明する。図3に、注目画素Y33を中心とする7画素×7画素の計49画素(Y00〜Y66)を含む正方形のフィルタを例示した。図3に示すように、フィルタは、注目画素Y33を起点として放射状に向かうe0〜e7の8つの方向を持つものとする。   The second direction discriminating unit 11 extracts a predetermined range including a predetermined number of pixels around a target pixel which is a pixel whose edge direction is to be discriminated. At this time, since the second direction determination unit 11 has a higher low-pass effect than the first direction determination unit 10, for example, the filter size is larger than the filter in the first direction determination unit. In the present embodiment, the second direction determination unit 11 will be described as using a 7 × 7 pixel filter centered on the target pixel. FIG. 3 exemplifies a square filter including 49 pixels (Y00 to Y66) of 7 pixels × 7 pixels centered on the target pixel Y33. As shown in FIG. 3, it is assumed that the filter has eight directions e0 to e7 that start radially from the target pixel Y33.

第2方向判別部11は、以下の数式2−0乃至数式2−7に従って、e0〜e7の方向毎に注目画素Y33と各比較画素との差分を算出し、方向毎に差分の絶対値和を当該方向の評価値として出力する。すなわち、方向毎に以下の演算を行い、演算結果をその方向の評価値とする。そして、第2方向判別部11は、各方向についての評価値のうち最小値を示す方向を第2の判別結果として合成部14に出力する。   The second direction discriminating unit 11 calculates the difference between the target pixel Y33 and each comparison pixel for each of the directions e0 to e7 according to the following formulas 2-0 to 2-7, and sums the absolute values of the differences for each direction. Is output as an evaluation value in the direction. That is, the following calculation is performed for each direction, and the calculation result is used as an evaluation value for the direction. Then, the second direction determination unit 11 outputs the direction indicating the minimum value among the evaluation values for each direction as the second determination result to the synthesis unit 14.

Figure 0005940403
Figure 0005940403

なお、上記した各方向e0〜e7は、例えば、角度、方向ベクトル又はこれらを数字でラベル付けしたラベルで表現することができる。以下に、各方向e0〜e7にラベル付けを行い、これらのラベルとベクトル値とを対応付けて表現した例を示す。   In addition, each above-mentioned direction e0-e7 can be represented by the label which labeled these with the angle, the direction vector, or these, for example. In the following, an example is shown in which labels are assigned to the directions e0 to e7, and these labels are associated with vector values.

Figure 0005940403
Figure 0005940403

平坦度算出部12は、注目画素の平坦度を算出する。ここで、平坦度とは、入力画像の画素毎に算出されるものであり、注目画素が平坦である度合いを示すものである。従って、平坦度が高い場合には、当該注目画素が平坦である度合いが高く、すなわち、エッジがないと判断することができる。一方、平坦度が低い場合には、当該注目画素が平坦である度合いが低く、細かいテクスチャ等の模様やエッジがあると判断することができる。   The flatness calculation unit 12 calculates the flatness of the target pixel. Here, the flatness is calculated for each pixel of the input image and indicates the degree to which the target pixel is flat. Therefore, when the flatness is high, it can be determined that the target pixel is high in flatness, that is, there is no edge. On the other hand, when the flatness is low, the degree of flatness of the target pixel is low, and it can be determined that there is a pattern such as a fine texture or an edge.

平坦度算出部12は、第2方向判別部により得られた各方向e0〜e7の評価値のばらつきを示す分散値を算出し、この分散値を平坦度を示す値として算出する。従って、平坦度算出部12は、算出した分散値が高い場合に平坦度が高いと判定し、分散値が低い場合に平坦度が低いと判定する。   The flatness calculation unit 12 calculates a dispersion value indicating variation in evaluation values in the directions e0 to e7 obtained by the second direction determination unit, and calculates this dispersion value as a value indicating flatness. Accordingly, the flatness calculation unit 12 determines that the flatness is high when the calculated dispersion value is high, and determines that the flatness is low when the dispersion value is low.

なお、平坦度の算出は、上記した手法に限られず、例えば、注目画素近傍の複数ブロックに対して、注目画素と各ブロックに含まれる画素との画素値の差分の最大値を演算し、各ブロックに対する最大値のうちの最小値に基づいて平坦度を判断することもできる。   The flatness calculation is not limited to the above-described method. For example, for a plurality of blocks near the target pixel, the maximum value of the pixel value difference between the target pixel and the pixel included in each block is calculated. The flatness can also be determined based on the minimum value among the maximum values for the block.

合成比率算出部13は、平坦度算出部12により算出された平坦度に応じて、すなわち、本実施形態においては分散値に応じて、第1の判別結果と第2の判別結果との合成比率を算出する。この合成比率は、平坦度が高いほど第1判別結果の割合を高くし、平坦度が低いほど前記第2判別結果の割合を高くした合成比率を算出する。算出した合成比率は、合成部14に出力される。   The combination ratio calculation unit 13 combines the first determination result and the second determination result according to the flatness calculated by the flatness calculation unit 12, that is, according to the variance value in the present embodiment. Is calculated. As the synthesis ratio, the higher the flatness, the higher the ratio of the first discrimination result, and the lower the flatness, the higher the ratio of the second discrimination result. The calculated composition ratio is output to the composition unit 14.

合成比率の算出に際しては、予め1又は複数の閾値を定めておくことができる。閾値が一つの場合の例を図4に、閾値が2つの場合の例を図5に示した。閾値としてTh1が1つ設定されている場合には、例えば、図4に示すように、平坦度がTh1までは第1の判別結果の割合が最小かつ第2の判別結果の割合が最大となる一定の合成比率を算出し、Th1以上では、平坦度が高くなるのに応じて第1判別結果の割合が高くなるような合成比率を算出する。   In calculating the composition ratio, one or a plurality of threshold values can be determined in advance. An example in the case of one threshold is shown in FIG. 4, and an example in the case of two thresholds is shown in FIG. When one threshold Th1 is set, for example, as shown in FIG. 4, the ratio of the first determination result is the minimum and the ratio of the second determination result is the maximum until the flatness is Th1. A constant composition ratio is calculated, and for Th1 or more, a composition ratio is calculated such that the ratio of the first determination result increases as the flatness increases.

また、閾値がTh1、Th2の2つ設定されている場合には、例えば、図5に示すように、平坦度がTh1までは第1の判別結果の割合が最小かつ第2の判別結果の割合が最大となる一定の合成比率を算出し、Th1とTh2との間では、平坦度が高くなるのに応じて第1判別結果の割合が高くなるような合成比率を算出する。そして、平坦度がTh2以上となった場合に、第1の判別結果の割合が最大かつ第2の判別結果の割合が最小となる一定の合成比率を算出する。   When two threshold values, Th1 and Th2, are set, for example, as shown in FIG. 5, the ratio of the first determination result is the minimum and the ratio of the second determination result until the flatness is Th1. Is calculated so that the ratio of the first determination result increases as the flatness increases between Th1 and Th2. Then, when the flatness is equal to or greater than Th2, a fixed composition ratio is calculated in which the ratio of the first determination result is the maximum and the ratio of the second determination result is the minimum.

合成部14は、合成比率算出部13により算出された合成比率に基づいて第1の判別結果と第2の判別結果とを合成する。すなわち、合成比率算出部13により算出された合成比率に基づく各判別結果に対する合成率を各判別結果に乗算し、これらを足し合わせて合成結果として出力する。   The combining unit 14 combines the first determination result and the second determination result based on the combination ratio calculated by the combination ratio calculation unit 13. That is, each discrimination result is multiplied by a combination rate for each discrimination result based on the combination ratio calculated by the synthesis ratio calculation unit 13, and these are added together and output as a synthesis result.

なお、各判別結果が、ベクトル値である場合には、x成分y成分それぞれに重みを掛け、以下の式(3)、式(4)に従って算出する。
第1の判別結果については、x成分をDX1、y成分の判別結果をDY1、x成分の合成率をWX1とし、y成分の合成率をWX1とする。
第2の判別結果については、x成分のをDX2、y成分の判別結果をDY2、x成分の合成率をWX2とし、y成分の合成率をWX2とする。

X成分の合成結果=DX1×WX1+DX2×WX2 …(3)
Y成分の合成結果=DY1×WY1+DY2×WY2 …(4)
When each determination result is a vector value, each x component and y component are weighted and calculated according to the following equations (3) and (4).
Regarding the first discrimination result, the x component is DX1, the y component discrimination result is DY1, the x component synthesis rate is WX1, and the y component synthesis rate is WX1.
Regarding the second discrimination result, the x component is DX2, the y component discrimination result is DY2, the x component synthesis rate is WX2, and the y component synthesis rate is WX2.

X component synthesis result = DX1 × WX1 + DX2 × WX2 (3)
Y component synthesis result = DY1 × WY1 + DY2 × WY2 (4)

エッジ方向判別装置1は、合成部14による合成結果に対応する方向を、最終的に注目画素のエッジ方向として判別する。   The edge direction discriminating apparatus 1 finally discriminates the direction corresponding to the synthesis result by the synthesis unit 14 as the edge direction of the target pixel.

続いて、このように構成されたエッジ方向判別装置1の作用について図6のフローチャートに従って、説明する。なお、以下の説明においては、図2及び図3を参照し、第1方向判別部は5画素×5画素のフィルタ、第2方向判別部は7画素×7画素のフィルタを用いるものとして説明する。   Next, the operation of the edge direction discriminating apparatus 1 configured as described above will be described with reference to the flowchart of FIG. In the following description, FIG. 2 and FIG. 3 will be referred to, assuming that the first direction discriminating unit uses a 5 pixel × 5 pixel filter, and the second direction discriminating unit uses a 7 pixel × 7 pixel filter. .

本実施形態に係るエッジ方向判別装置1によって画像中のエッジの方向を判別するために、エッジの方向を判別すべき注目画素を特定し、ステップS11において、第1方向判別部10により注目画素X22を中心とする5画素×5画素の範囲を定め、この範囲に対してe0〜e7の方向毎に注目画素X22と各比較画素との差分を算出し、方向毎に差分の絶対値和を当該方向の評価値を算出する。そして、各評価値のうち最小値を示す方向を第1の判別結果として合成部14に出力する。次のステップS12では、第2方向判別部により注目画素Y33を中心とする7画素×7画素の範囲を定め、この範囲に対してe0〜e7の方向毎に注目画素Y33と各比較画素との差分を算出し、方向毎に差分の絶対値和を当該方向の評価値を算出する。そして、各評価値のうち最小値を示す方向を第2の判別結果として合成部14に出力する。   In order to discriminate the direction of the edge in the image by the edge direction discriminating apparatus 1 according to the present embodiment, the pixel of interest for which the direction of the edge is to be discriminated is specified. A range of 5 pixels by 5 pixels is defined, and a difference between the pixel of interest X22 and each comparison pixel is calculated for each direction of e0 to e7 with respect to this range, and the sum of absolute values of the differences is calculated for each direction. A direction evaluation value is calculated. And the direction which shows the minimum value among each evaluation value is output to the synthetic | combination part 14 as a 1st discrimination | determination result. In the next step S12, a range of 7 pixels × 7 pixels centered on the pixel of interest Y33 is defined by the second direction discriminating unit, and the pixel of interest Y33 and each comparison pixel are compared with this range in each of the directions e0 to e7. The difference is calculated, and the absolute value sum of the differences is calculated for each direction, and the evaluation value for the direction is calculated. Then, the direction indicating the minimum value among the evaluation values is output to the synthesis unit 14 as the second discrimination result.

次のステップS13では、注目画素の平坦度を算出する。上述のように、平坦度算出部では、第2方向判別部により得られた各方向e0〜e7の評価値のばらつきを示す分散値を算出し、この分散値を平坦度を示す値として算出し、合成比率算出部13に出力する。   In the next step S13, the flatness of the target pixel is calculated. As described above, the flatness calculation unit calculates a dispersion value indicating the variation in the evaluation value in each direction e0 to e7 obtained by the second direction determination unit, and calculates this dispersion value as a value indicating the flatness. And output to the composite ratio calculation unit 13.

次のステップS14では、合成比率算出部13により、平坦度(分散値)に基づいて合成比率を算出し、合成部14に出力する。ステップS15において、合成部14では、合成比率算出部13により算出された合成比率に基づいて第1の判別結果と第2の判別結果とを合成し、これによりエッジ方向判別装置1として、合成結果に対応する方向を、最終的に注目画素のエッジ方向として判別する。   In the next step S <b> 14, the composition ratio calculation unit 13 calculates a composition ratio based on the flatness (dispersion value) and outputs the composition ratio to the composition unit 14. In step S <b> 15, the combining unit 14 combines the first determination result and the second determination result based on the combination ratio calculated by the combination ratio calculation unit 13, and thereby the edge direction determination device 1 serves as the combination result. Is finally determined as the edge direction of the target pixel.

このように、ノイズ除去効果又は方向判別精度等の特性が異なる2つの方向判別部により、注目画素のエッジの方向を一旦判別しておき、注目画素の平坦度に応じた合成比率に基づいて2つの判別結果を合成し、合成結果に対応する方向を注目画素のエッジ方向として判別することで、ノイズの多少とは無関係に注目画素のエッジの方向をより高精度に判別することができる。   As described above, the direction of the edge of the target pixel is once determined by the two direction determination units having different characteristics such as the noise removal effect or the direction determination accuracy, and 2 based on the combination ratio corresponding to the flatness of the target pixel. By combining the two determination results and determining the direction corresponding to the combination result as the edge direction of the target pixel, the direction of the edge of the target pixel can be determined with higher accuracy regardless of the amount of noise.

(変形例)
上記した実施形態においては、第1方向判別部と第2方向判別部とはフィルタサイズが異なるものとして例示したが、これに限られることはなく、例えば、フィルタサイズが同じで、係数の異なるフィルタを用いることもできる。
(Modification)
In the above-described embodiment, the first direction discriminating unit and the second direction discriminating unit are exemplified as those having different filter sizes. However, the present invention is not limited to this. For example, filters having the same filter size and different coefficients Can also be used.

この場合には、ローパス効果を異ならせるために、注目画素との距離が近い画素の重みが遠い画素の重みに比べ高くすることでローパス効果を低減させ、注目画素との距離が近い画素も遠い画素も同じ重みとすることでローパス効果を高くする。方向は0〜360度とすることができ、ここでの方向判別結果は、エッジの勾配方向である。   In this case, in order to make the low-pass effect different, the low-pass effect is reduced by increasing the weight of the pixel that is close to the target pixel compared to the weight of the far pixel, and the pixel that is close to the target pixel is also far. By setting the pixels to the same weight, the low pass effect is increased. The direction can be 0 to 360 degrees, and the direction discrimination result here is the gradient direction of the edge.

図7(A)に第1方向判別部で用いるローパス効果の比較的低い3画素×3画素のフィルタを、図7(B)に第2方向判別部で用いるローパス効果の比較的高い3画素×3画素のフィルタを例示した。
第1方向判別部では、図7(A)の縦のフィルタをかけた値の出力Tx1と、横のフィルタをかけた値の出力Yx1の値を算出する。それらの値を下記の式(5−1)に代入して方向を計算する。
FIG. 7A shows a 3 pixel × 3 pixel filter having a relatively low low-pass effect used in the first direction discriminating unit, and FIG. 7B shows 3 pixels × a relatively high low-pass effect used in the second direction discriminating unit. A three pixel filter was illustrated.
The first direction discriminating unit calculates the value Tx1 of the value obtained by applying the vertical filter in FIG. 7A and the value Yx1 of the value obtained by applying the horizontal filter. The direction is calculated by substituting those values into the following equation (5-1).

Figure 0005940403
Figure 0005940403

第2の方向判別処理部も同様に、図7(B)の縦のフィルタをかけた値の出力Tx2と、横のフィルタをかけた値の出力Yx2の値を算出する。それらの値を下記の式(5−2)に代入して方向を計算する。   Similarly, the second direction discrimination processing unit calculates the value of the output Tx2 obtained by applying the vertical filter in FIG. 7B and the value of the output Yx2 obtained by applying the horizontal filter. The direction is calculated by substituting these values into the following equation (5-2).

Figure 0005940403
上記計算式より得られた、direction1を第1の判別結果とし、direction2を第2の判別結果として出力し、平坦度算出、合成比率算出等以後の演算を行い、最終的にエッジ方向を判別する。
Figure 0005940403
The direction 1 obtained from the above formula is output as the first discrimination result, the direction 2 is output as the second discrimination result, and the subsequent calculations such as flatness calculation and composition ratio calculation are performed, and the edge direction is finally discriminated. .

上記したエッジ方向判別装置1を画像処理装置に適用することにより、各画素のエッジの方向が判別された画像に対して、判別された方向の情報を用いてノイズ低減処理を行うことができる。この場合には、図8に示すように、例えば、画像入力部20、メモリ21、エッジ方向判別装置1、画像処理部22を備える画像処理装置2とすることができる。 画像処理部22は、方向に沿った平滑化部25、平坦部の平滑化部26、及びメモリ21から出力された原画像と平滑化後の画像を合成する画像合成部27を備えている。   By applying the edge direction discriminating apparatus 1 described above to an image processing apparatus, it is possible to perform noise reduction processing on the image in which the edge direction of each pixel is discriminated using information on the discriminated direction. In this case, as illustrated in FIG. 8, for example, the image processing device 2 including the image input unit 20, the memory 21, the edge direction determination device 1, and the image processing unit 22 can be provided. The image processing unit 22 includes a smoothing unit 25 along the direction, a smoothing unit 26 of a flat part, and an image composition unit 27 that combines the original image output from the memory 21 and the smoothed image.

画像処理部22では、エッジ方向判別装置1で得られた方向判別結果と平坦度の結果に基づいて、エッジであり、方向を持っている場合は平滑化部25により方向に沿った平滑化を、エッジでない平坦な場合には平滑化部26により所定ブロックを用いた平滑化をかけ、最後にメモリ21から出力された原画像と合成する。   In the image processing unit 22, based on the direction determination result and the flatness result obtained by the edge direction determination device 1, if the image processing unit 22 is an edge and has a direction, the smoothing unit 25 performs smoothing along the direction. In the case of flatness that is not an edge, smoothing using a predetermined block is performed by the smoothing unit 26 and finally synthesized with the original image output from the memory 21.

平滑化の処理は、ある注目画素が持つ決められた方向に沿った周辺の複数画素の平均値を注目画素の値にし、方向を持たない場合はある注目画素の周辺の複数画素の平均値を用いることで平滑化するなどしても良い。これにより、エッジ上にのっているノイズを、エッジを鈍らせることなく落とすことができる。   In the smoothing process, the average value of a plurality of surrounding pixels along a determined direction of a certain pixel of interest is set to the value of the pixel of interest, and if there is no direction, the average value of a plurality of pixels around a certain pixel of interest is calculated. It may be smoothed by using it. Thereby, the noise on the edge can be dropped without dulling the edge.

1 エッジ方向判別装置
2 画像処理装置
10 第1方向判別部
11 第2方向判別部
12 平坦度算出部
13 合成比率算出部
14 合成部
DESCRIPTION OF SYMBOLS 1 Edge direction discrimination apparatus 2 Image processing apparatus 10 1st direction discrimination | determination part 11 2nd direction discrimination | determination part 12 Flatness calculation part 13 Synthesis | combination ratio calculation part 14 Synthesis | combination part

Claims (3)

注目画素におけるエッジの方向を判別して第1の判別結果を出力する第1の方向判別手段と、
該第1の方向判別手段よりもローパス効果が高く、前記注目画素におけるエッジの方向を判別して第2の判別結果を出力する第2の方向判別手段と、
前記注目画素の平坦度を算出する平坦度算出手段と、
該平坦度算出手段により算出された平坦度に応じた前記第1の判別結果と前記第2の判別結果との合成比率として、前記平坦度が高いほど第1の判別結果の割合を高くし、前記平坦度が低いほど前記第2の判別結果の割合を高くした合成比率を算出する合成比率算出手段と、
該合成比率算出手段により算出された合成比率に基づいて前記第1の判別結果と前記第2の判別結果とを合成する合成手段とを備え、
該合成手段による合成結果に対応する方向を注目画素のエッジ方向として判別するエッジ方向判別装置。
First direction discrimination means for discriminating the direction of the edge of the pixel of interest and outputting a first discrimination result;
A second direction determining unit that has a low-pass effect higher than that of the first direction determining unit, determines a direction of an edge in the target pixel, and outputs a second determination result;
Flatness calculating means for calculating the flatness of the target pixel;
As a combination ratio of the first determination result and the second determination result according to the flatness calculated by the flatness calculation means, the higher the flatness, the higher the ratio of the first determination result, A composition ratio calculating means for calculating a composition ratio in which the ratio of the second determination result is increased as the flatness is lower;
Combining means for combining the first determination result and the second determination result based on the combination ratio calculated by the combination ratio calculation means;
An edge direction discriminating apparatus that discriminates a direction corresponding to a synthesis result by the synthesizing unit as an edge direction of a target pixel.
前記第1の判別結果及び前記第2の判別結果がベクトル値であり、
前記合成手段が、前記合成比率算出手段により算出された合成比率に基づいて、ベクトル値を加重加算することにより前記第1の判別結果と前記第2の判別結果とを合成する請求項1記載のエッジ方向判別装置。
The first discrimination result and the second discrimination result are vector values;
2. The combination according to claim 1, wherein the combining unit combines the first determination result and the second determination result by weighted addition of vector values based on the combination ratio calculated by the combination ratio calculation unit. Edge direction discriminator.
前記第1の判別結果及び前記第2の判別結果が角度又は角度を離散化した数値であり、
前記合成手段が、前記角度又は角度を離散化した数値に前記合成比率算出手段により算出された合成比率を乗算して加算することにより前記第1の判別結果と前記第2の判別結果とを合成する請求項1記載のエッジ方向判別装置。
The first discrimination result and the second discrimination result are angles or numerical values obtained by discretizing angles,
The combining means combines the first determination result and the second determination result by multiplying the angle or a numerical value obtained by discretizing the angle by the multiplication ratio calculated by the combining ratio calculation means and adding the result. The edge direction discriminating apparatus according to claim 1.
JP2012166810A 2012-07-27 2012-07-27 Edge direction discriminator Expired - Fee Related JP5940403B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012166810A JP5940403B2 (en) 2012-07-27 2012-07-27 Edge direction discriminator

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012166810A JP5940403B2 (en) 2012-07-27 2012-07-27 Edge direction discriminator

Publications (2)

Publication Number Publication Date
JP2014026497A JP2014026497A (en) 2014-02-06
JP5940403B2 true JP5940403B2 (en) 2016-06-29

Family

ID=50200075

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012166810A Expired - Fee Related JP5940403B2 (en) 2012-07-27 2012-07-27 Edge direction discriminator

Country Status (1)

Country Link
JP (1) JP5940403B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3073599B2 (en) * 1992-04-22 2000-08-07 本田技研工業株式会社 Image edge detection device
JPH1196372A (en) * 1997-09-16 1999-04-09 Omron Corp Method and device for processing image and recording medium of control program for image processing
JP5388779B2 (en) * 2009-09-28 2014-01-15 京セラ株式会社 Image processing apparatus, image processing method, and image processing program

Also Published As

Publication number Publication date
JP2014026497A (en) 2014-02-06

Similar Documents

Publication Publication Date Title
KR101248808B1 (en) Apparatus and method for removing noise on edge area
US9324153B2 (en) Depth measurement apparatus, image pickup apparatus, depth measurement method, and depth measurement program
JP6164926B2 (en) Noise reduction processing device
US20160112659A1 (en) Image processing apparatus and image processing method, and program
JP2010258710A5 (en)
EP3016383B1 (en) Method, device, and system for pre-processing a video stream for subsequent motion detection processing
JP6205685B2 (en) Active sonar device, active sonar signal processing method, and signal processing program thereof
EP3667610A1 (en) Spatially dynamic fusion of images of different qualities
KR101799143B1 (en) System and method for estimating target size
JP6161847B1 (en) Image processing apparatus and image processing method
JP6256703B2 (en) Image processing method and image processing apparatus
JP5940403B2 (en) Edge direction discriminator
EP3540685B1 (en) Image-processing apparatus to reduce staircase artifacts from an image signal
KR101585963B1 (en) Filtering Method based on Image Sensor Noise-Model and Image System using the same
CN102163322A (en) Suppression method of co-channel interference in radar image based on Laplace operator
JP2010169644A (en) Apparatus, method and program for detecting target signal
RU2630744C2 (en) Method of detecting periodical textures
JP6938282B2 (en) Image processing equipment, image processing methods and programs
JP4612522B2 (en) Change area calculation method, change area calculation device, change area calculation program
JP7315089B2 (en) Target area detection device, target area detection method, and target area detection program
Choudhary et al. A novel approach for edge detection for blurry images by using digital image processing
US11403736B2 (en) Image processing apparatus to reduce noise in an image
Jeon et al. Multi-point measurement of structural vibration using pattern recognition from camera image
JP5420049B1 (en) Magnification rate estimation apparatus or method
JP2019097004A (en) Image generation apparatus, image generation method and image generation program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150618

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160421

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160426

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160518

R151 Written notification of patent or utility model registration

Ref document number: 5940403

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees