JP6164977B2 - Image processing apparatus, image processing method, and image processing program - Google Patents

Image processing apparatus, image processing method, and image processing program Download PDF

Info

Publication number
JP6164977B2
JP6164977B2 JP2013168521A JP2013168521A JP6164977B2 JP 6164977 B2 JP6164977 B2 JP 6164977B2 JP 2013168521 A JP2013168521 A JP 2013168521A JP 2013168521 A JP2013168521 A JP 2013168521A JP 6164977 B2 JP6164977 B2 JP 6164977B2
Authority
JP
Japan
Prior art keywords
pixel
similarity
value
target
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013168521A
Other languages
Japanese (ja)
Other versions
JP2015036913A (en
Inventor
輝彬 山▲崎▼
輝彬 山▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2013168521A priority Critical patent/JP6164977B2/en
Publication of JP2015036913A publication Critical patent/JP2015036913A/en
Application granted granted Critical
Publication of JP6164977B2 publication Critical patent/JP6164977B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、入力画像の所定領域における平坦度の指標となる平坦度指標値を出力する画像処理装置、画像処理方法及び画像処理プログラムに関するものである。   The present invention relates to an image processing apparatus, an image processing method, and an image processing program that output a flatness index value that is an index of flatness in a predetermined region of an input image.

画像の構造的属性を保持しながらその後の画像処理を単純化することができることから、平坦度判定に関する技術として、例えば、特開2008−293425号公報(特許文献1)が提案されている。
すなわち、特許文献1では、注目画素と注目画素を中心とする複数の周辺画素との絶対値差分の和を、複数方向に対して夫々算出し、それらのうち最大値を採用することで注目画素の平坦度を判定する技術が開示されている。
Since the subsequent image processing can be simplified while retaining the structural attribute of the image, for example, Japanese Unexamined Patent Application Publication No. 2008-293425 (Patent Document 1) has been proposed as a technique relating to flatness determination.
That is, in Patent Document 1, the sum of absolute value differences between a target pixel and a plurality of peripheral pixels centered on the target pixel is calculated for each of a plurality of directions, and the maximum value among them is adopted to calculate the target pixel. A technique for determining the flatness of the image is disclosed.

特開2008−293425号公報JP 2008-293425 A

しかしながら、上記した特許文献1に開示された技術では、高感度撮影画像において低コントラストのエッジやテクスチャはノイズの振幅と酷似しており、エッジやテクスチャが存在する領域における注目画素と複数の周辺画素との差分絶対値和と、ノイズを含む平坦部(明瞭なエッジやテクスチャが存在しない領域)における注目画素と複数の周辺画素との差分絶対値和には明確な差が出ない。このため、高感度撮影画像において、ある領域が平坦であるか否かを判定する平坦判定の精度が低下する。
一方、各画素の周辺に存在する画素も含めた注目領域を設定して処理することでノイズの影響を平均化して抑制しつつ平坦であるか否かの判定をする方法が考えられる。しかしながら、この場合には、処理対象の領域を設定することにより、当該領域に高コントラスト部が入り込み、低コントラスト領域と平坦領域との間の判別の精度を落としてしまう虞がある。
However, in the technique disclosed in Patent Document 1 described above, a low-contrast edge or texture in a high-sensitivity photographed image is very similar to the amplitude of noise, and a pixel of interest and a plurality of peripheral pixels in an area where the edge or texture exists. There is no clear difference between the sum of absolute differences between and the sum of absolute differences between the pixel of interest and a plurality of peripheral pixels in a flat portion including noise (a region where no clear edge or texture exists). For this reason, in the high-sensitivity photographed image, the accuracy of flatness determination for determining whether or not a certain region is flat is reduced.
On the other hand, a method of determining whether or not the image is flat while averaging and suppressing the influence of noise by setting and processing a region of interest including pixels existing around each pixel can be considered. However, in this case, setting the processing target area may cause a high-contrast portion to enter the area, thereby reducing the accuracy of discrimination between the low-contrast area and the flat area.

本発明は、上述した事情に鑑みてなされたものであって、ノイズによる振幅に影響されることなく低コントラスト領域と平坦領域との間の判別の精度を向上させることを目的とする。   The present invention has been made in view of the above-described circumstances, and an object thereof is to improve the accuracy of discrimination between a low-contrast region and a flat region without being affected by amplitude due to noise.

上記目的を達成するため、本発明は以下の手段を提供する。
本発明の一態様は、入力画像のうち、処理対象の領域である処理領域を定める処理領域設定手段と、前記処理領域において、注目画素を中心とする領域を注目ブロックとして抽出すると共に、注目画素と異なる参照画素を中心として前記注目ブロックと同サイズの領域を参照ブロックとして抽出するブロック抽出手段と、前記注目ブロックに含まれる画素と前記参照ブロックに含まれる画素との画素値の差分に基づいて、前記注目画素と前記参照画素との類似度を算出する類似度算出手段と、前記参照画素に対して、前記類似度に応じて、該類似度が高いほど高く、前記類似度が低いほど低い重み値を算出する重み付け手段と、前記処理領域内の各画素の画素値、および前記参照画素に対する前記重み値に基づいて、前記処理領域の平坦度の指標となる平坦度指標値を算出する平坦度指標値算出手段と、を備える画像処理装置を提供する。
In order to achieve the above object, the present invention provides the following means.
According to an aspect of the present invention, a processing region setting unit that determines a processing region that is a processing target region from an input image, and a region centered on the target pixel in the processing region is extracted as a target block. Based on a difference between pixel values of a pixel included in the target block and a pixel included in the reference block; The similarity calculation means for calculating the similarity between the target pixel and the reference pixel, and the reference pixel according to the similarity, the higher the similarity, the lower the similarity. Based on the weighting means for calculating the weight value, the pixel value of each pixel in the processing region, and the weight value for the reference pixel, the flatness of the processing region To provide an image processing apparatus comprising: a flatness index value calculating means for calculating a flatness index value as a target, a.

本態様によれば、処理領域設定手段により入力画像中の処理対象となる領域を処理領域として設定し、この処理領域において、ブロック抽出手段が、注目画素を中心とする領域を注目ブロックとして抽出すると共に、注目画素と異なる参照画素を中心として注目ブロックと同サイズの領域を参照ブロックとして抽出する。そして、類似度算出手段が、処理領域の各画素に対して、注目ブロックに含まれる画素と参照ブロックに含まれる画素との画素値の差分に基づいて、注目画素と参照画素との類似度を算出し、重み付け手段により、類似度に応じて各画素の重み値を算出する。これにより、注目画素が低コントラストである場合に、注目画素との類似度が低い高コントラスト部分の寄与率を低くして、処理領域の平坦度の指標となる平坦度指標値を算出することができる。
このように、処理対象領域における高コントラストのエッジやテクスチャを混在させずに、または、混在してもその寄与率を低くして平坦度指標値が算出されるので、低コントラスト領域と平坦領域との間の判別精度を向上させることができる。
According to this aspect, the processing area setting means sets the area to be processed in the input image as the processing area, and in this processing area, the block extraction means extracts the area centered on the target pixel as the target block. At the same time, an area having the same size as the target block is extracted as a reference block with a reference pixel different from the target pixel as a center. Then, the similarity calculation means calculates the similarity between the target pixel and the reference pixel for each pixel in the processing region based on the difference in pixel values between the pixel included in the target block and the pixel included in the reference block. The weight value of each pixel is calculated according to the similarity by the weighting means. As a result, when the target pixel has low contrast, the contribution ratio of the high-contrast portion with low similarity to the target pixel can be reduced to calculate a flatness index value that is an index of the flatness of the processing region. it can.
In this way, the flatness index value is calculated without mixing high-contrast edges and textures in the processing target area, or even if they are mixed, so that the flatness index value is calculated. Can be improved.

上記した態様において、前記平坦度指標算出手段が、前記処理領域内の各画素の高周波成分の振幅に相当する特徴量を算出する特徴量算出手段を備え、前記特徴量を前記重み値に従って重み付けして前記平坦度指標値を算出することが好ましい。
このようにすることで、処理領域における低コントラスト部分に振幅の大きなノイズが含まれている場合にも、平坦領域と低コントラスト領域との判別精度を向上させることができる。
In the aspect described above, the flatness index calculating unit includes a feature amount calculating unit that calculates a feature amount corresponding to an amplitude of a high frequency component of each pixel in the processing region, and weights the feature amount according to the weight value. The flatness index value is preferably calculated.
In this way, even when noise having a large amplitude is included in the low contrast portion in the processing region, it is possible to improve the discrimination accuracy between the flat region and the low contrast region.

上記した態様において、前記平坦度指標値算出手段が、前記処理領域の複数方向において、隣接する画素間の画素値の差分二乗平均を方向毎に算出し、これらのうちの最大値を平坦度指標値とすることが好ましい。
このようにすることで、処理領域における低コントラスト部分に振幅の大きなノイズが含まれている場合にも、平坦領域と低コントラスト領域との判別精度を向上させることができる。
In the aspect described above, the flatness index value calculating unit calculates a root mean square of pixel values between adjacent pixels in a plurality of directions of the processing region for each direction, and the maximum value among these is calculated as a flatness index It is preferable to use a value.
In this way, even when noise having a large amplitude is included in the low contrast portion in the processing region, it is possible to improve the discrimination accuracy between the flat region and the low contrast region.

上記した態様において、前記特徴量算出手段が、前記処理領域内の各画素について、所定の複数の方向毎に隣接する画素との間の画素値の差分に基づく値を算出し、前記所定の複数の方向毎の前記差分に基づく値の最大値を前記各画素の特徴量とすることが好ましい。
このようにすることで、処理領域における低コントラスト部分に振幅の大きなノイズが含まれている場合にも、平坦領域と低コントラスト領域との判別精度を向上させることができる。
In the aspect described above, the feature amount calculation unit calculates a value based on a difference in pixel values between adjacent pixels in each of a plurality of predetermined directions for each pixel in the processing region, It is preferable that the maximum value based on the difference for each direction is the feature amount of each pixel.
In this way, even when noise having a large amplitude is included in the low contrast portion in the processing region, it is possible to improve the discrimination accuracy between the flat region and the low contrast region.

上記した態様において、前記重み付け手段が、前記類似度が予め定めた閾値よりも小さい場合には重み値を1とし、前記類似度が前記閾値よりも大きい場合には重み値をゼロとすることが好ましい。
このようにすることで、高コントラスト領域を処理領域から除外して平坦度指標値が算出されるので、容易に平坦領域と低コントラスト領域との判別精度を向上させることができる。
In the above aspect, the weighting unit may set the weight value to 1 when the similarity is smaller than a predetermined threshold, and set the weight value to zero when the similarity is larger than the threshold. preferable.
In this way, since the flatness index value is calculated by excluding the high contrast region from the processing region, it is possible to easily improve the discrimination accuracy between the flat region and the low contrast region.

上記した態様において、前記重み付け手段が、前記入力画像のエッジの情報を示すエッジ情報に基づいて前記重み値を補正することが好ましい。
また、上記した態様において、前記重み付け手段が、前記入力画像の各画素にエッジがある度合いを示すエッジ情報を算出して、参照画素のエッジ情報の値が高い場合前記重み値が低くなるように前記重み値を補正することが好ましい。
このようにすることで、よりノイズや影、明るさの変動などの影響を受けずに低コントラスト領域と平坦領域との間の判別の精度を向上させることができる。
In the aspect described above, it is preferable that the weighting unit corrects the weight value based on edge information indicating edge information of the input image.
In the above aspect, the weighting unit calculates edge information indicating a degree of edge in each pixel of the input image, and the weight value is decreased when the edge information value of the reference pixel is high. It is preferable to correct the weight value.
By doing so, it is possible to improve the accuracy of discrimination between the low contrast region and the flat region without being affected by noise, shadows, brightness variations, and the like.

上記した態様において、前記入力画像が特定の色成分が欠落した画像信号である場合に、前記処理領域の各画素における色成分を判定して色情報として出力する色成分判定手段を備え、
前記類似度算出手段が、色情報毎に、前記注目ブロックに含まれる画素と前記参照ブロックに含まれる画素の画素値の差分を算出し、該差分に基づいて前記注目画素と前記参照画素との類似度を算出することが好ましい。
このようにすることで、色成分毎の構造物の有無に関する情報を得ることができるので、より精度よく平坦度指標値を算出することができる。
In the above aspect, when the input image is an image signal in which a specific color component is missing, color component determination means that determines a color component in each pixel of the processing region and outputs it as color information,
The similarity calculation means calculates, for each color information, a difference between a pixel value of a pixel included in the target block and a pixel included in the reference block, and based on the difference, between the target pixel and the reference pixel It is preferable to calculate the similarity.
By doing in this way, since the information regarding the presence or absence of the structure for each color component can be obtained, the flatness index value can be calculated more accurately.

また、本発明の一態様は、入力画像のうち、処理対象の領域である処理領域を定める処理領域設定ステップと、前記処理領域において、注目画素を中心とする領域を注目ブロックとして抽出すると共に、注目画素と異なる参照画素を中心として前記注目ブロックと同サイズの領域を参照ブロックとして抽出するブロック抽出ステップと、前記注目ブロックに含まれる画素と前記参照ブロックに含まれる画素との画素値の差分に基づいて、前記注目画素と前記参照画素との類似度を算出する類似度算出ステップと、前記参照画素に対して、前記類似度に応じて、該類似度が高いほど高く、前記類似度が低いほど低い重み値を算出する重み付けステップと、前記処理領域内の各画素の画素値、および前記参照画素に対する前記重み値に基づいて、前記処理領域の平坦度の指標となる平坦度指標値を算出する平坦度指標値算出ステップと、を備える画像処理方法を提供する。   Further, according to one aspect of the present invention, a processing region setting step that determines a processing region that is a processing target region from the input image, and in the processing region, a region centered on the target pixel is extracted as a target block, A block extraction step of extracting a reference block having an area of the same size as the target block with a reference pixel different from the target pixel as a center, and a pixel value difference between the pixel included in the target block and the pixel included in the reference block; Based on the similarity calculation step for calculating the similarity between the target pixel and the reference pixel based on the reference pixel, the higher the similarity, the lower the similarity. Based on the weighting step of calculating a lower weight value, the pixel value of each pixel in the processing region, and the weight value for the reference pixel, A flatness index value calculation step of calculating a flatness index value as an index of the flatness of the serial processing region, to provide an image processing method comprising.

さらに、本発明の一態様は、入力画像のうち、処理対象の領域である処理領域を定める処理領域設定ステップと、前記処理領域において、注目画素を中心とする領域を注目ブロックとして抽出すると共に、注目画素と異なる参照画素を中心として前記注目ブロックと同サイズの領域を参照ブロックとして抽出するブロック抽出ステップと、前記注目ブロックに含まれる画素と前記参照ブロックに含まれる画素との画素値の差分に基づいて、前記注目画素と前記参照画素との類似度を算出する類似度算出ステップと、前記参照画素に対して、前記類似度に応じて、該類似度が高いほど高く、前記類似度が低いほど低い重み値を算出する重み付けステップと、前記処理領域内の各画素の画素値、および前記参照画素に対する前記重み値に基づいて、前記処理領域の平坦度の指標となる平坦度指標値を算出する平坦度指標値算出ステップと、をコンピュータに実行させる画像処理プログラムを提供する。   Further, according to one aspect of the present invention, a processing region setting step that determines a processing region that is a processing target region from the input image, and in the processing region, a region centered on the target pixel is extracted as a target block, A block extraction step of extracting a reference block having an area of the same size as the target block with a reference pixel different from the target pixel as a center, and a pixel value difference between the pixel included in the target block and the pixel included in the reference block; Based on the similarity calculation step for calculating the similarity between the target pixel and the reference pixel based on the reference pixel, the higher the similarity, the lower the similarity. A weighting step for calculating a lower weight value, a pixel value of each pixel in the processing region, and the weight value for the reference pixel To provide an image processing program for executing a calculation step flatness index value calculating a flatness flatness index value indicative of the processing area in a computer.

本発明によれば、ノイズによる振幅に影響されることなく平坦領域と低コントラスト領域との判別精度を向上させることができるという効果を奏する。   According to the present invention, it is possible to improve the discrimination accuracy between a flat region and a low contrast region without being affected by the amplitude due to noise.

本発明の第1の実施形態に係る画像処理装置の概略構成を示すブロック図である。1 is a block diagram illustrating a schematic configuration of an image processing apparatus according to a first embodiment of the present invention. 本発明の第1の実施形態において、注目ブロックと参照ブロックの抽出例を示す説明図である。It is explanatory drawing which shows the extraction example of an attention block and a reference block in the 1st Embodiment of this invention. 本発明の第1の実施形態において、平坦度指標値を算出する際の計算方向を示す参考図である。In the 1st Embodiment of this invention, it is a reference figure which shows the calculation direction at the time of calculating a flatness index value. 本発明の第1の実施形態において、重み値をゼロまたは1としてマスク情報を生成した場合の例を示す説明図である。In the 1st Embodiment of this invention, it is explanatory drawing which shows the example at the time of producing | generating mask information by making a weight value into 0 or 1. FIG. 本発明の第1の実施形態において、マスク情報を生成して平坦度指標値を算出する際の計算方向を示す参考図である。FIG. 5 is a reference diagram illustrating a calculation direction when generating mask information and calculating a flatness index value in the first embodiment of the present invention. 本発明の第2の実施形態に係る画像処理装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the image processing apparatus which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施形態において、注目ブロックと参照ブロックの抽出例を示す説明図である。It is explanatory drawing which shows the extraction example of an attention block and a reference block in the 2nd Embodiment of this invention.

(第1の実施形態)
以下に、本発明の第1の実施形態に係る画像処理装置について図面を参照して説明する。
図1に示すように、画像処理装置は、入力画像のうち処理対象の所定領域を定める処理領域設定部11、注目ブロック及び参照ブロックを抽出するブロック抽出部12、参照画素の注目画素に対する類似度を算出する類似度算出部13、類似度に応じた重み付け値を算出する重み付け部14及び処理領域の平坦度の指標となる平坦度指標値を算出する平坦度指標値算出部15を備えている。
(First embodiment)
The image processing apparatus according to the first embodiment of the present invention will be described below with reference to the drawings.
As shown in FIG. 1, the image processing apparatus includes a processing region setting unit 11 that determines a predetermined region to be processed in an input image, a block extraction unit 12 that extracts a target block and a reference block, and a similarity of a reference pixel to a target pixel. A similarity calculation unit 13 that calculates a weight, a weighting unit 14 that calculates a weighting value according to the similarity, and a flatness index value calculation unit 15 that calculates a flatness index value that is an index of the flatness of the processing region. .

処理領域設定部11は、入力画像のうち、処理対象の所定領域を定める。例えば、図2に示すように、注目画素を中心とする9画素×9画素の矩形領域を処理領域として設定する。この処理領域において以後の処理が行われ、注目画素を中心とする処理領域の平坦度を示す指標となる平坦度指標値が算出される。   The processing area setting unit 11 determines a predetermined area to be processed in the input image. For example, as shown in FIG. 2, a 9 × 9 rectangular area centered on the target pixel is set as the processing area. Subsequent processing is performed in this processing region, and a flatness index value serving as an index indicating the flatness of the processing region centered on the target pixel is calculated.

なお本明細書では、平坦度とは、入力画像の画素毎に算出されるものであり、注目画素を含む領域が平坦である度合いを示すものである。注目画素を含む領域の平坦度が高い場合には、注目画素の周辺にエッジがない(または少ない)と判断することができる。一方、平坦度が低い場合には、当該注目画素が平坦である度合いが低く、細かいテクスチャ等の模様やエッジがあると判断することができる。また本実施の形態では、平坦度が高ければ高いほど低くなり、平坦度が低ければ低いほど高くなるような平坦度指標値を算出する。   In this specification, the flatness is calculated for each pixel of the input image and indicates the degree to which the region including the target pixel is flat. When the flatness of the region including the target pixel is high, it can be determined that there is no edge (or few) around the target pixel. On the other hand, when the flatness is low, the degree of flatness of the target pixel is low, and it can be determined that there is a pattern such as a fine texture or an edge. In this embodiment, the flatness index value is calculated such that the higher the flatness, the lower the flatness, and the higher the flatness, the higher the flatness index value.

ブロック抽出部12は、処理領域設定部11によって設定された処理領域において、注目画素を中心とする所定領域を注目ブロックとして抽出すると共に、注目画素と異なる参照画素を中心とする前記注目ブロックと同サイズの領域を参照ブロックとして抽出する。   In the processing region set by the processing region setting unit 11, the block extraction unit 12 extracts a predetermined region centered on the target pixel as the target block, and is the same as the target block centered on a reference pixel different from the target pixel. The size area is extracted as a reference block.

図2の例では、注目画素を中心とする3画素×3画素の矩形領域を注目ブロックTP1とし、注目画素以外の画素である参照画素を中心とする3画素×3画素の矩形領域を参照ブロックRP1〜RP8とする。図2では、注目ブロックの周囲に8個の参照ブロックが設定されている例を示している。参照ブロックは、例えば、参照画素を1画素ずつずらして複数設定していくことができる。   In the example of FIG. 2, a rectangular area of 3 pixels × 3 pixels centered on the target pixel is set as the target block TP1, and a rectangular area of 3 pixels × 3 pixels centered on a reference pixel other than the target pixel is a reference block. RP1 to RP8. FIG. 2 shows an example in which eight reference blocks are set around the block of interest. For example, a plurality of reference blocks can be set by shifting the reference pixels one pixel at a time.

類似度算出部13は、注目ブロックに含まれる画素と参照ブロックに含まれる画素との画素値の差分に基づいて、注目画素と参照画素との類似度を表す類似度指標値を算出する。例えば、注目ブロックに含まれる画素と参照ブロックに含まれる画素との差分平均や、差分二乗平均、差分絶対値平均などを、類似度を表す類似度指標値とすることができる。これらの類似度指標値を用いる場合、類似度指標値が高いほど類似度が低く、類似度指標値が低いほど類似度が高くなる。   The similarity calculation unit 13 calculates a similarity index value representing the similarity between the target pixel and the reference pixel based on the difference in pixel value between the pixel included in the target block and the pixel included in the reference block. For example, a difference average between a pixel included in the block of interest and a pixel included in the reference block, a difference square average, a difference absolute value average, or the like can be used as the similarity index value indicating the similarity. When using these similarity index values, the higher the similarity index value, the lower the similarity, and the lower the similarity index value, the higher the similarity.

ここで、類似度が差分二乗平均であって、図2の例の場合、注目ブロックTP1の注目画素と参照ブロックRP1参照画素との類似度を表す類似度指標値D1の計算は以下の(1)式で算出される。   Here, in the case of the example of FIG. 2 where the similarity is the mean square difference, the calculation of the similarity index value D1 representing the similarity between the target pixel of the target block TP1 and the reference pixel of the reference block RP1 is as follows ).

Figure 0006164977
注目画素とその他の参照ブロックRP2〜8における参照画素の類似度を表す類似度指標値D2〜D8も同様に算出する。さらに、TP1とRP1〜8の類似度指標値D1〜D8は最大値の類似度指標(MAX_D)で正規化される。
Figure 0006164977
Similarity index values D2 to D8 representing the similarity between the target pixel and the reference pixels in the other reference blocks RP2 to RP8 are calculated in the same manner. Further, the similarity index values D1 to D8 of TP1 and RP1 to RP8 are normalized with the maximum similarity index (MAX_D).

なお、差分平均を類似度指標値とする場合は以下の(2)式により算出される。

Figure 0006164977
注目画素とその他の参照ブロックRP2〜8における参照画素の類似度指標値D2〜D8も同様に算出する。さらに、TP1とRP1〜8の類似度指標値D1〜D8は最大値の類似度指標値(MAX_D)で正規化される。 When the difference average is used as the similarity index value, it is calculated by the following equation (2).
Figure 0006164977
Similarity index values D2 to D8 of the target pixel and reference pixels in the other reference blocks RP2 to RP8 are calculated in the same manner. Further, the similarity index values D1 to D8 of TP1 and RP1 to RP8 are normalized by the maximum similarity index value (MAX_D).

また、差分絶対値平均を類似度とする場合は以下の(3)式により算出される

Figure 0006164977
注目画素とその他の参照ブロックRP2〜8における参照画素の類似度指標値D2〜D8も同様に算出する。さらに、TP1とRP1〜8の類似度指標値D1〜D8は最大値の類似度指標値(MAX_D)で正規化される。 When the difference absolute value average is used as the similarity, it is calculated by the following equation (3).
Figure 0006164977
Similarity index values D2 to D8 of the target pixel and reference pixels in the other reference blocks RP2 to RP8 are calculated in the same manner. Further, the similarity index values D1 to D8 of TP1 and RP1 to RP8 are normalized by the maximum similarity index value (MAX_D).

重み付け部14は、類似度算出部13により算出された類似度に応じて各参照画素の重み値を算出する。このとき、各参照画素の類似度が高いほど高く、類似度が低いほど低い重み値を算出する。つまり、各注目画素に類似している参照画素については重み値が高く、類似していない参照画素については重み値を低くなるように算出する。   The weighting unit 14 calculates the weight value of each reference pixel according to the similarity calculated by the similarity calculation unit 13. At this time, a higher weight value is calculated as the similarity of each reference pixel is higher and lower as the similarity is lower. That is, the reference pixel similar to each target pixel is calculated so that the weight value is high, and the reference pixel not similar is calculated so that the weight value is low.

平坦度指標値算出部15は、処理領域内の各画素の高周波成分の振幅に相当する特徴量とし、特徴量を前記重み付け部によって算出された重み値(W)に従って重み付け平均することで平坦度の指標となる平坦度指標値を算出する。
例えば、処理領域の複数方向において、上記重み値(W)に対し、隣接する画素間の画素値の重み付け差分二乗平均を方向毎に算出し、これらのうちの最大値を平坦度指標値とする。
The flatness index value calculation unit 15 sets a feature amount corresponding to the amplitude of the high-frequency component of each pixel in the processing region, and weights and averages the feature amount according to the weight value (W) calculated by the weighting unit. The flatness index value serving as the index of is calculated.
For example, in a plurality of directions of the processing area, a weighted difference mean square of pixel values between adjacent pixels is calculated for each direction with respect to the weight value (W), and the maximum value among these is used as the flatness index value. .

具体的には、各画素P(x,y)に対する重みW(x,y)に対し、図3に示すように特定方向(図3では、縦、横、右斜め、左斜めの4方向)に存在する画素同士の差分二乗を算出しその重み付け平均を求める。このとき、処理領域の隅等の画素同士で差分二乗が算出できない部分は処理対象外とする。
例えば、横方向の差分二乗平均Dhの計算は以下の(4)式で算出される。
Dh=ΣΣ(P(x,y)−P(x+1,y))*W(x,y)/(N*M)
・・・(4)
(x=0〜N、y=0〜M:但し、差分値が算出できない座標に存在する画素の場合はスキップする)
他の3方向も同様に算出し、これらのうちの最大値を平坦度指標値とする。
Specifically, for the weight W (x, y) for each pixel P (x, y), as shown in FIG. 3, specific directions (in FIG. 3, four directions of vertical, horizontal, right diagonal, and left diagonal). The square of the difference between the pixels existing in is calculated and the weighted average is obtained. At this time, a portion where a square of difference cannot be calculated between pixels such as a corner of the processing region is excluded from processing.
For example, the difference square average Dh in the horizontal direction is calculated by the following equation (4).
Dh = ΣΣ (P (x, y) −P (x + 1, y)) 2 * W (x, y) / (N * M)
... (4)
(X = 0 to N, y = 0 to M: However, in the case of a pixel existing at coordinates where a difference value cannot be calculated, it is skipped)
The other three directions are calculated in the same manner, and the maximum value among them is used as the flatness index value.

あるいは、処理領域内の各画素で先に縦、横、右斜め、左斜め方向各々に対する特徴量、例えば、隣接画素値の差分二乗Dを求め、その最大値を重み付け平均するようにしてもよい。
すなわち、隣接画素値の差分二乗Dの計算は以下の(4)’式で算出される。
Alternatively, a feature amount for each of the vertical, horizontal, right diagonal, and left diagonal directions, for example, the difference square D of adjacent pixel values may be obtained first for each pixel in the processing region, and the maximum value may be weighted averaged. .
That is, the calculation of the difference square D of adjacent pixel values is calculated by the following equation (4) ′.

Figure 0006164977
Figure 0006164977

なお、上述の例では、隣接する画素間の画素値の差分二乗平均を算出したが、隣接する画素間に限られない。また、差分二乗平均を平坦度指標値としたが、これに限られず、他の差分に基づく値、例えば差分平均や差分絶対値平均などを平坦度指標値とすることもできる。更には画素間の画素値の差分だけでなく、画素間の画素値の比に基づく値を用いることもできる。   In the above example, the root mean square of pixel values between adjacent pixels is calculated, but is not limited to between adjacent pixels. Further, the mean square difference is used as the flatness index value. However, the present invention is not limited to this, and a value based on another difference, for example, a difference average or a difference absolute value average may be used as the flatness index value. Furthermore, not only the difference of the pixel value between pixels but the value based on the ratio of the pixel value between pixels can also be used.

差分平均を平坦度指標値とする場合は、以下の(5)式のように算出される。
Dh=ΣΣ(P(x,y)−P(x+1,y))*W(x,y)/(N*M)
・・・(5)
(x=0〜N、y=0〜M:但し、差分値が算出できない座標に存在する画素については差分値の算出をスキップする)
When the difference average is used as the flatness index value, it is calculated as in the following equation (5).
Dh = ΣΣ (P (x, y) −P (x + 1, y)) * W (x, y) / (N * M)
... (5)
(X = 0 to N, y = 0 to M: However, the calculation of the difference value is skipped for pixels existing at coordinates where the difference value cannot be calculated)

また、差分絶対値平均を平坦度指標値とする場合は、以下の(6)式のように算出される。
Dh=ΣΣ|P(x,y)−P(x+1,y)|*W(x,y)/(N*M)
・・・(6)
(x=0〜N、y=0〜M:但し、差分値が算出できない座標に存在する画素については差分値の算出をスキップする)
Further, when the difference absolute value average is used as the flatness index value, it is calculated as in the following equation (6).
Dh = ΣΣ | P (x, y) −P (x + 1, y) | * W (x, y) / (N * M)
... (6)
(X = 0 to N, y = 0 to M: However, the calculation of the difference value is skipped for pixels existing at coordinates where the difference value cannot be calculated)

このように本実施形態によれば、注目画素が低コントラストである場合に、注目画素との類似度が低い高コントラスト部分の寄与率を低くして、処理領域の平坦度の指標となる平坦度指標値を算出することができる。したがって、処理対象領域における高コントラストのエッジやテクスチャを混在させずに、または、混在してもその寄与率を低くして平坦度指標値が算出されるので、低コントラスト領域と平坦領域との間の判別精度を向上させることができる。   As described above, according to the present embodiment, when the target pixel has low contrast, the flatness that serves as an index of the flatness of the processing region is reduced by reducing the contribution ratio of the high-contrast portion having low similarity to the target pixel. An index value can be calculated. Accordingly, the flatness index value is calculated without mixing high-contrast edges and textures in the processing target area, or even if they are mixed, and the flatness index value is calculated. Can be improved.

なお、重み付け部14による重み値(W)は、類似度指標値に応じて以下の(7)式のように算出される。
W=exp(−D1/MAX_D)・・・(7)
It should be noted that the weight value (W) by the weighting unit 14 is calculated as the following equation (7) according to the similarity index value.
W = exp (−D1 / MAX_D) (7)

また、予め閾値を設定しておき、類似度指標値と閾値とを比較して重み値を定めることもできる。
特に、各画素について、類似度指標値が閾値よりも低い場合には重み値を1とし、類似度が閾値よりも高い場合には重み値をゼロとすることで、平坦度指標値の演算を単純化することができる。つまり、この場合には、図4に示すように、重み値がゼロの画素を処理対象外とするマスク情報を生成することができる。
In addition, a threshold value can be set in advance, and the weight value can be determined by comparing the similarity index value with the threshold value.
In particular, for each pixel, when the similarity index value is lower than the threshold value, the weight value is set to 1. When the similarity is higher than the threshold value, the weight value is set to zero, thereby calculating the flatness index value. It can be simplified. That is, in this case, as shown in FIG. 4, it is possible to generate mask information that excludes pixels having a weight value of zero from being processed.

注目ブロックが平坦部又は低コントラスト部である場合において、類似度が高い、すなわち類似度指標値が閾値よりも低い参照画素は、参照ブロックが平坦部又は低コントラスト部である可能性が高い。このため、類似度が高い参照画素は平坦度指標算出の際の対象画素とする。一方、類似度が低い、すなわち、類似度指標値が閾値よりも高い参照画素は、平坦部又は低コントラスト部でない可能性が高い。このため、類似度が低い参照画素は平坦度指標算出の際の対象画素とせずにマスク対象としてマスク情報を生成する。   In the case where the target block is a flat part or a low contrast part, a reference pixel having a high similarity, that is, a similarity index value lower than a threshold value, is highly likely to be a flat part or a low contrast part. For this reason, a reference pixel having a high similarity is set as a target pixel when calculating the flatness index. On the other hand, a reference pixel having a low similarity, that is, a similarity index value higher than a threshold is highly likely not to be a flat portion or a low contrast portion. For this reason, the reference information with a low similarity is not set as a target pixel when the flatness index is calculated, and mask information is generated as a mask target.

なお、図4の例では、黒で示す画素が処理対象外の画素であり、白で示す画素が処理対象の画素となっている。
そして、処理領域にこのマスク情報を適用することで、図5に示すように平坦度指標値算出の際に算出の対象とする画素を制限し、対象画素とした画素のみから平坦度指標値を算出する。
In the example of FIG. 4, pixels shown in black are pixels that are not processed, and pixels shown in white are processed pixels.
Then, by applying this mask information to the processing region, as shown in FIG. 5, the calculation target pixel is limited when calculating the flatness index value, and the flatness index value is obtained only from the target pixel. calculate.

このようにすることで、処理対象領域における高コントラストのエッジやテクスチャを混在させずに、または、混在してもその寄与率を低くして平坦度指標値が算出されるので、低コントラスト領域と平坦領域との間の判別精度を向上させることができるほか、平坦度指標値の演算の際に演算対象画素を少なくすることができ、演算を単純化することができる。   By doing so, the flatness index value is calculated without mixing high-contrast edges and textures in the processing target area, or even if they are mixed, and the flatness index value is calculated. In addition to improving the discrimination accuracy with respect to the flat region, it is possible to reduce the number of calculation target pixels when calculating the flatness index value, thereby simplifying the calculation.

(変形例)
また、上記した第1の実施形態にかかる重み付け部14が、入力画像のエッジの度合いを示すエッジ情報(E)を用いて重み値(W)を補正することとしてもよい。すなわち、エッジと判断された画素に対しては重みを低くし、非エッジと判断された画素に対しては重みを高くするなどの補正を行っても良い。
(Modification)
The weighting unit 14 according to the first embodiment described above may correct the weight value (W) using edge information (E) indicating the degree of edge of the input image. In other words, correction may be performed such that a weight is reduced for a pixel determined to be an edge and a weight is increased for a pixel determined to be a non-edge.

この場合、エッジ情報(E)としては、公知の任意の手法を用いることが出来る。
例えば、補正された重み値(W_C)は、以下の(8)式により得られる。なお、エッジ情報は最大エッジ情報信号で正規化が施されている。
W_C=W*exp(−E)・・・(8)
In this case, any known method can be used as the edge information (E).
For example, the corrected weight value (W_C) is obtained by the following equation (8). Note that the edge information is normalized with the maximum edge information signal.
W_C = W * exp (−E) (8)

別の手法として、注目画素のエッジ情報(E)とその周辺の参照画素のエッジ情報(E)の類似度が低い(エッジ情報(E)の差分値(E_dif)が高い)ほど重み値(W)を低くし、類似度が高い(エッジ情報(E)の差分地(E_dif)が低い)ほど重み値(W)を高くするといった補正を行うことができる。
実際の計算は、以下の(9)式により行われる。
W_C=W*exp(−E_dif)・・・(9)
As another method, as the similarity between the edge information (E) of the pixel of interest and the edge information (E) of the surrounding reference pixels is lower (the difference value (E_dif) of the edge information (E) is higher), the weight value (W ) Is lowered, and the weight value (W) is increased as the similarity is higher (the difference area (E_dif) of the edge information (E) is lower).
Actual calculation is performed by the following equation (9).
W_C = W * exp (−E_dif) (9)

上記の(8)式や(9)式で得られた補正された重み値(W_C)を上記(5)式、(6)式、(7)式の重み値(W)と置き換える。
また、上述のようにマスク情報を生成している場合には、例えば、マスク情報において処理対象画素とされた画素が、エッジ画素である場合に処理対象外の画素となるように補正することができる。
The corrected weight value (W_C) obtained by the above equations (8) and (9) is replaced with the weight values (W) of the above equations (5), (6), and (7).
Further, when the mask information is generated as described above, for example, when a pixel that is a processing target pixel in the mask information is an edge pixel, correction may be performed so that the pixel is not a processing target pixel. it can.

(第2の実施形態)
以下、本発明の第2の実施形態について説明する。上記した第1の実施形態と同一の構成には同符号を付し、その説明を省略する。
図6に示すように、本実施形態は、入力画像が特定の色成分が欠落した画像信号である場合に、処理領域の各画素における色成分を判定して色情報として出力する色成分判定部を備えている。
(Second Embodiment)
Hereinafter, a second embodiment of the present invention will be described. The same components as those in the first embodiment described above are denoted by the same reference numerals, and the description thereof is omitted.
As shown in FIG. 6, the present embodiment is a color component determination unit that determines a color component in each pixel in the processing region and outputs it as color information when the input image is an image signal lacking a specific color component. It has.

類似度算出部13は、色成分判定部18から出力された色情報毎に、注目ブロックに含まれる画素と参照ブロックに含まれる画素の画素値の差分を算出し、これら差分に基づいて注目画素と参照画素との類似度を算出する。   The similarity calculation unit 13 calculates, for each color information output from the color component determination unit 18, a difference between the pixel values of the pixel included in the target block and the pixel included in the reference block, and based on these differences, the target pixel And the similarity between the reference pixel and the reference pixel are calculated.

例えば、ブロック抽出部12が、図7に示すように処理領域内において、注目画素を中心とする5画素×5画素の注目ブロックTP1と、注目画素と異なる参照画素を中心とする5画素×5画素の参照ブロックRP1〜RP8を抽出する。図7の例では、入力画像の色成分の種類はRGBとしている。   For example, as illustrated in FIG. 7, the block extraction unit 12 has a 5-pixel × 5-pixel target block TP1 centered on the target pixel and a 5-pixel × 5 centered on a reference pixel different from the target pixel in the processing region. Pixel reference blocks RP1 to RP8 are extracted. In the example of FIG. 7, the color component type of the input image is RGB.

類似度算出部13は、色成分判定部18からの色情報に基づいて、色情報毎に、注目ブロックに含まれる画素と参照ブロックに含まれる画素との画素値の差分を算出し、これらの差分に基づいて、注目画素と参照画素との類似度を算出する。   Based on the color information from the color component determination unit 18, the similarity calculation unit 13 calculates, for each color information, a pixel value difference between a pixel included in the target block and a pixel included in the reference block. Based on the difference, the similarity between the target pixel and the reference pixel is calculated.

類似度を表す類似度指標値としては、例えば、色情報ごとに、各色の差分二乗平均を夫々求める。つまり、図7の例では、R成分の差分二乗平均DR、Gr成分の差分二乗平均DGr、Gb成分の差分二乗平均DGb、B成分の差分二乗平均DBを夫々算出する。そして、これらの差分二乗平均を加算して当該参照画素の類似度指標値とする。これらの類似度指標値を用いる場合、類似度指標値が高いほど類似度が低く、指標値指標値が低いほど類似度が高くなる。   As the similarity index value indicating the similarity, for example, a mean square difference of each color is obtained for each color information. That is, in the example of FIG. 7, the root mean square difference DR of the R component, the root mean square difference DGr of the Gr component, the root mean square DGb of the Gb component, and the root mean square DB of the B component are calculated. Then, the mean square difference is added to obtain the similarity index value of the reference pixel. When using these similarity index values, the higher the similarity index value, the lower the similarity, and the lower the index value index value, the higher the similarity.

図7の場合、注目ブロックTP1と参照ブロックRP1との差分二乗平均の和は、すなわち、参照ブロックRP1の中心画素である参照画素の類似度指標値D1は、以下の(10)式〜(14)式に従って容易に算出される。   In the case of FIG. 7, the sum of the root mean square of the target block TP1 and the reference block RP1, that is, the similarity index value D1 of the reference pixel that is the center pixel of the reference block RP1 is expressed by the following equations (10) to (14) ) Easily calculated according to the equation.

Figure 0006164977
注目ブロックTP1とその他の参照ブロックRP2〜RP8との差分二乗平均の和、つまり他の参照画素の類似度指標値も同様に算出される。さらに、TP1とRP1〜8の類似度指標値D1R〜D8R、D1Gb〜D8Gb、D1Gr〜D8Gr、D1B〜D8Bは夫々の類似度指標値の最大値(MAX_DR、MAX_DGb、MAX_DGr、MAX_DB)で正規化される。
Figure 0006164977
The sum of the root mean square difference between the target block TP1 and the other reference blocks RP2 to RP8, that is, the similarity index value of other reference pixels is calculated in the same manner. Further, the similarity index values D1R to D8R, D1Gb to D8Gb, D1Gr to D8Gr, and D1B to D8B of TP1 and RP1 to 8 are normalized with the maximum values (MAX_DR, MAX_DGb, MAX_DGr, MAX_DB) of the respective similarity index values. The

なお、類似度指標値として、他の指標を用いてもよく、例えば、差分平均を類似度指標値に用いた場合が、以下の(15)式〜(19)式で算出される。

Figure 0006164977
注目ブロックTP1とその他の参照ブロックRP2〜RP8との差分平均の和、つまり他の参照画素の類似度指標値も同様に算出される。さらに、TP1とRP1〜8の類似度指標値D1R〜D8R、D1Gb〜D8Gb、D1Gr〜D8Gr、D1B〜D8Bは夫々の類似度指標値の最大値(MAX_DR、MAX_DGb、MAX_DGr、MAX_DB)で正規化される。 In addition, you may use another parameter | index as a similarity index value, for example, when the difference average is used for a similarity index value, it calculates with the following (15) Formula-(19) Formula.
Figure 0006164977
The sum of the average difference between the target block TP1 and the other reference blocks RP2 to RP8, that is, the similarity index value of other reference pixels is calculated in the same manner. Further, the similarity index values D1R to D8R, D1Gb to D8Gb, D1Gr to D8Gr, and D1B to D8B of TP1 and RP1 to 8 are normalized with the maximum values (MAX_DR, MAX_DGb, MAX_DGr, MAX_DB) of the respective similarity index values. The

また、差分絶対値平均を類似度指標値とした場合は、以下の(20)式〜(24)式に従って算出される。

Figure 0006164977
注目ブロックTP1とその他の参照ブロックRP2〜RP8との差分絶対値平均の和、つまり他の参照画素の類似度指標値も同様に算出される。さらに、TP1とRP1〜8の類似度指標値D1R〜D8R、D1Gb〜D8Gb、D1Gr〜D8Gr、D1B〜D8Bは夫々の類似度指標値の最大値(MAX_DR、MAX_DGb、MAX_DGr、MAX_DB)で正規化される。 Further, when the difference absolute value average is used as the similarity index value, it is calculated according to the following equations (20) to (24).
Figure 0006164977
The sum of absolute difference averages between the target block TP1 and the other reference blocks RP2 to RP8, that is, the similarity index value of other reference pixels is calculated in the same manner. Further, the similarity index values D1R to D8R, D1Gb to D8Gb, D1Gr to D8Gr, and D1B to D8B of TP1 and RP1 to 8 are normalized with the maximum values (MAX_DR, MAX_DGb, MAX_DGr, MAX_DB) of the respective similarity index values. The

このように本実施形態によれば、注目画素が低コントラストである場合に、注目画素との類似度が低い高コントラスト部分の寄与率を低くして、処理領域の平坦度の指標となる平坦度指標値を算出することができる。したがって、処理対象領域における高コントラストのエッジやテクスチャを混在させずに、または、混在してもその寄与率を低くして平坦度指標値が算出されるので、低コントラスト領域と平坦領域との間の判別精度を向上させることができる。特に、色成分毎の構造物の有無に関する情報を得ることができ、より精度よく平坦度指標値を算出することができる。   As described above, according to the present embodiment, when the target pixel has low contrast, the flatness that serves as an index of the flatness of the processing region is reduced by reducing the contribution ratio of the high-contrast portion having low similarity to the target pixel. An index value can be calculated. Accordingly, the flatness index value is calculated without mixing high-contrast edges and textures in the processing target area, or even if they are mixed, and the flatness index value is calculated. Can be improved. In particular, information regarding the presence or absence of a structure for each color component can be obtained, and the flatness index value can be calculated more accurately.

なお、上述した実施形態では、画像処理装置としてハードウェアによる処理を前提として説明したが、このような構成に限定される必要はない。例えば、ソフトウェアにて処理する構成も可能である。この場合、CPU(中央演算装置)、ROM(Read Only Memory)、RAM(Random Access Memory)等を備えた汎用又は専用のコンピュータが、CPU等により、上記処理の全て或いは一部を実現させるためのプログラムが記録されたコンピュータ読み取り可能な記録媒体から当該プログラムを読み出して、プログラムをROMやRAMなどに展開し、情報の加工・演算処理を実行することにより、上述の画像処理装置と同様の処理を実現させる。   In the above-described embodiments, the image processing apparatus has been described on the premise of processing by hardware, but it is not necessary to be limited to such a configuration. For example, a configuration for processing by software is also possible. In this case, a general-purpose or dedicated computer equipped with a CPU (Central Processing Unit), ROM (Read Only Memory), RAM (Random Access Memory), etc. can realize all or part of the above processing by the CPU. By reading the program from a computer-readable recording medium in which the program is recorded, developing the program in a ROM, a RAM, etc., and executing information processing / arithmetic processing, the same processing as the above-described image processing apparatus is performed. make it happen.

ここでコンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリ等をいう。また、このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該プログラムを実行するようにしても良い。   Here, the computer-readable recording medium means a magnetic disk, a magneto-optical disk, a CD-ROM, a DVD-ROM, a semiconductor memory, or the like. Alternatively, the computer program may be distributed to the computer via a communication line, and the computer that has received the distribution may execute the program.

11 処理領域設定部
12 ブロック抽出部
13 類似度算出部
14 重み付け部
15 平坦度指標値算出部
18 色成分判定部
DESCRIPTION OF SYMBOLS 11 Processing area | region setting part 12 Block extraction part 13 Similarity calculation part 14 Weighting part 15 Flatness index value calculation part 18 Color component determination part

Claims (10)

入力画像のうち、処理対象の領域である処理領域を定める処理領域設定手段と、
前記処理領域において、注目画素を中心とする領域を注目ブロックとして抽出すると共に、注目画素と異なる参照画素を中心として前記注目ブロックと同サイズの領域を参照ブロックとして抽出するブロック抽出手段と、
前記注目ブロックに含まれる画素と前記参照ブロックに含まれる画素との画素値の差分に基づいて、前記注目画素と前記参照画素との類似度を算出する類似度算出手段と、
前記参照画素に対して、前記類似度に応じて、該類似度が高いほど高く、前記類似度が低いほど低い重み値を算出する重み付け手段と、
前記処理領域内の各画素の画素値、および前記参照画素に対する前記重み値に基づいて、前記処理領域の平坦度の指標となる平坦度指標値を算出する平坦度指標値算出手段と、
を備える画像処理装置。
A processing region setting means for determining a processing region that is a processing target region of the input image;
In the processing region, a block extracting unit that extracts a region centered on the target pixel as a target block and extracts a region having the same size as the target block as a reference block around a reference pixel different from the target pixel;
Similarity calculation means for calculating the similarity between the target pixel and the reference pixel based on a difference in pixel value between a pixel included in the target block and a pixel included in the reference block;
A weighting unit that calculates a lower weight value for the reference pixel according to the similarity, the higher the similarity is, and the lower the similarity is,
A flatness index value calculating means for calculating a flatness index value as an index of flatness of the processing area based on the pixel value of each pixel in the processing area and the weight value for the reference pixel;
An image processing apparatus comprising:
前記平坦度指標算出手段が、前記処理領域内の各画素の高周波成分の振幅に相当する特徴量を算出する特徴量算出手段を備え、前記特徴量を前記重み値に従って重み付けして前記平坦度指標値を算出する請求項1記載の画像処理装置。   The flatness index calculation means includes a feature quantity calculation means for calculating a feature quantity corresponding to the amplitude of a high frequency component of each pixel in the processing region, and weights the feature quantity according to the weight value so that the flatness index The image processing apparatus according to claim 1, wherein the value is calculated. 前記平坦度指標値算出手段が、前記処理領域において所定の複数の方向毎に隣接する画素間の画素値の差分に基づいて前記特徴量を算出し、前記特徴量を前記重み値に従って重み付け平均を算出し、前記所定の方向毎の重み付け平均の最大値を平坦度指標値とする請求項2記載の画像処理装置。   The flatness index value calculating means calculates the feature amount based on a difference in pixel values between adjacent pixels in each of a plurality of predetermined directions in the processing region, and calculates a weighted average of the feature amount according to the weight value. The image processing apparatus according to claim 2, wherein the image processing apparatus calculates and sets a maximum value of the weighted average for each predetermined direction as a flatness index value. 前記特徴量算出手段が、前記処理領域内の各画素について、所定の複数の方向毎に隣接する画素との間の画素値の差分に基づく値を算出し、前記所定の複数の方向毎の前記差分に基づく値の最大値を前記各画素の特徴量とする請求項2記載の画像処理装置。   The feature amount calculating means calculates a value based on a difference in pixel value between adjacent pixels in each of a plurality of predetermined directions for each pixel in the processing region, and The image processing apparatus according to claim 2, wherein a maximum value based on the difference is a feature amount of each pixel. 前記重み付け手段が、前記類似度を表す類似度指標値が予め定めた閾値よりも低い場合には重み値を1とし、前記類似度指標値が前記閾値よりも高い場合には重み値をゼロとする請求項1乃至請求項4の何れか1項に記載の画像処理装置。   The weighting means sets the weight value to 1 when the similarity index value representing the similarity is lower than a predetermined threshold, and sets the weight value to zero when the similarity index value is higher than the threshold. The image processing apparatus according to any one of claims 1 to 4. 前記重み付け手段が、前記入力画像の各画素にエッジがある度合いを示すエッジ情報を算出して、注目画素のエッジ情報とその参照画素のエッジ情報の類似性が低いほど前記重み値が低くなるように前記重み値を補正する請求項1乃至請求項5の何れか1項に記載の画像処理装置。   The weighting means calculates edge information indicating the degree of edge in each pixel of the input image, and the weight value decreases as the similarity between the edge information of the target pixel and the edge information of the reference pixel decreases. The image processing apparatus according to claim 1, wherein the weight value is corrected. 前記重み付け手段が、前記入力画像の各画素にエッジがある度合いを示すエッジ情報を算出して、参照画素のエッジ情報の値が高い場合前記重み値が低くなるように前記重み値を補正する請求項1乃至請求項6の何れか1項に記載の画像処理装置。   The weighting unit calculates edge information indicating a degree of edge in each pixel of the input image, and corrects the weight value so that the weight value becomes low when the value of edge information of a reference pixel is high. The image processing apparatus according to any one of claims 1 to 6. 前記入力画像が特定の色成分が欠落した画像信号である場合に、前記処理領域の各画素における色成分を判定して色情報として出力する色成分判定手段を備え、
前記類似度算出手段が、色情報毎に、前記注目ブロックに含まれる画素と前記参照ブロックに含まれる画素の画素値の差分を算出し、該差分に基づいて前記注目画素と前記参照画素との類似度を算出する請求項1乃至請求項6の何れか1項に記載の画像処理装置。
When the input image is an image signal lacking a specific color component, color component determination means for determining a color component in each pixel of the processing region and outputting it as color information,
The similarity calculation means calculates, for each color information, a difference between a pixel value of a pixel included in the target block and a pixel included in the reference block, and based on the difference, between the target pixel and the reference pixel The image processing apparatus according to claim 1, wherein the similarity is calculated.
入力画像のうち、処理対象の領域である処理領域を定める処理領域設定ステップと、
前記処理領域において、注目画素を中心とする領域を注目ブロックとして抽出すると共に、注目画素と異なる参照画素を中心として前記注目ブロックと同サイズの領域を参照ブロックとして抽出するブロック抽出ステップと、
前記注目ブロックに含まれる画素と前記参照ブロックに含まれる画素との画素値の差分に基づいて、前記注目画素と前記参照画素との類似度を算出する類似度算出ステップと、
前記参照画素に対して、前記類似度に応じて、該類似度が高いほど高く、前記類似度が低いほど低い重み値を算出する重み付けステップと、
前記処理領域内の各画素の画素値、および前記参照画素に対する前記重み値に基づいて、前記処理領域の平坦度の指標となる平坦度指標値を算出する平坦度指標値算出ステップと、
を備える画像処理方法。
A processing region setting step for determining a processing region which is a processing target region in the input image;
In the processing region, a block extracting step of extracting a region centered on the target pixel as a target block and extracting a region having the same size as the target block as a reference block around a reference pixel different from the target pixel;
A similarity calculation step of calculating a similarity between the target pixel and the reference pixel based on a difference in pixel value between a pixel included in the target block and a pixel included in the reference block;
A weighting step for calculating a weight value that is higher as the similarity is higher and lower as the similarity is lower, according to the similarity, with respect to the reference pixel;
A flatness index value calculating step for calculating a flatness index value serving as an index of flatness of the processing region based on a pixel value of each pixel in the processing region and the weight value for the reference pixel;
An image processing method comprising:
入力画像のうち、処理対象の領域である処理領域を定める処理領域設定ステップと、
前記処理領域において、注目画素を中心とする領域を注目ブロックとして抽出すると共に、注目画素と異なる参照画素を中心として前記注目ブロックと同サイズの領域を参照ブロックとして抽出するブロック抽出ステップと、
前記注目ブロックに含まれる画素と前記参照ブロックに含まれる画素との画素値の差分に基づいて、前記注目画素と前記参照画素との類似度を算出する類似度算出ステップと、
前記参照画素に対して、前記類似度に応じて、該類似度が高いほど高く、前記類似度が低いほど低い重み値を算出する重み付けステップと、
前記処理領域内の各画素の画素値、および前記参照画素に対する前記重み値に基づいて、前記処理領域の平坦度の指標となる平坦度指標値を算出する平坦度指標値算出ステップと、
をコンピュータに実行させる画像処理プログラム。
A processing region setting step for determining a processing region which is a processing target region in the input image;
In the processing region, a block extracting step of extracting a region centered on the target pixel as a target block and extracting a region having the same size as the target block as a reference block around a reference pixel different from the target pixel;
A similarity calculation step of calculating a similarity between the target pixel and the reference pixel based on a difference in pixel value between a pixel included in the target block and a pixel included in the reference block;
A weighting step for calculating a weight value that is higher as the similarity is higher and lower as the similarity is lower, according to the similarity, with respect to the reference pixel;
A flatness index value calculating step for calculating a flatness index value serving as an index of flatness of the processing region based on a pixel value of each pixel in the processing region and the weight value for the reference pixel;
An image processing program for causing a computer to execute.
JP2013168521A 2013-08-14 2013-08-14 Image processing apparatus, image processing method, and image processing program Active JP6164977B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013168521A JP6164977B2 (en) 2013-08-14 2013-08-14 Image processing apparatus, image processing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013168521A JP6164977B2 (en) 2013-08-14 2013-08-14 Image processing apparatus, image processing method, and image processing program

Publications (2)

Publication Number Publication Date
JP2015036913A JP2015036913A (en) 2015-02-23
JP6164977B2 true JP6164977B2 (en) 2017-07-19

Family

ID=52687372

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013168521A Active JP6164977B2 (en) 2013-08-14 2013-08-14 Image processing apparatus, image processing method, and image processing program

Country Status (1)

Country Link
JP (1) JP6164977B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112862726B (en) * 2021-03-12 2023-11-10 湖南国科微电子股份有限公司 Image processing method, device and computer readable storage medium
CN115049585A (en) * 2022-04-28 2022-09-13 南通东德纺织科技有限公司 Cotton fabric desizing treatment monitoring method based on computer vision

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63200278A (en) * 1987-02-17 1988-08-18 Toshiba Corp Image quality inspection apparatus
JP4730121B2 (en) * 2006-02-07 2011-07-20 ソニー株式会社 Image processing apparatus and method, recording medium, and program

Also Published As

Publication number Publication date
JP2015036913A (en) 2015-02-23

Similar Documents

Publication Publication Date Title
US9569827B2 (en) Image processing apparatus and method, and program
KR102146560B1 (en) Method and apparatus for adjusting image
JP2006350557A5 (en)
JP6115214B2 (en) Pattern processing apparatus, pattern processing method, and pattern processing program
JP2007128206A (en) Signal processor and processing method, recording medium and program
US20140079341A1 (en) Image processing apparatus and image processing method
KR102404557B1 (en) Image proccessing apparatus and image proccessing method
JP2013020617A (en) Grayscale character image normalization device and method
US20200143582A1 (en) Image processing apparatus, image processing method, and storage medium
US10163035B2 (en) Edge detecting apparatus and edge detecting method
JP6771134B2 (en) Image correction method and image correction device
JP6164977B2 (en) Image processing apparatus, image processing method, and image processing program
US9235773B2 (en) Image processing device capable of determining types of images accurately
WO2018078806A1 (en) Image processing device, image processing method, and image processing program
JP5614550B2 (en) Image processing method, image processing apparatus, and program
CN113888509A (en) Method, device and equipment for evaluating image definition and storage medium
JP6256703B2 (en) Image processing method and image processing apparatus
JP6256704B2 (en) Image processing method and image processing apparatus
JP4997266B2 (en) Electronic watermark embedding apparatus and method, and program thereof
JP4771087B2 (en) Image processing apparatus and image processing program
JP5110161B2 (en) Image correction apparatus, image correction program, and image correction method
US11403736B2 (en) Image processing apparatus to reduce noise in an image
JP2010239600A (en) Brightness correction program, brightness correction method, and brightness correction device
KR20160069452A (en) Image processing device, image processing method and program
JP6184277B2 (en) Image processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160502

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170530

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170620

R151 Written notification of patent or utility model registration

Ref document number: 6164977

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250