JP6121013B2 - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP6121013B2
JP6121013B2 JP2016028215A JP2016028215A JP6121013B2 JP 6121013 B2 JP6121013 B2 JP 6121013B2 JP 2016028215 A JP2016028215 A JP 2016028215A JP 2016028215 A JP2016028215 A JP 2016028215A JP 6121013 B2 JP6121013 B2 JP 6121013B2
Authority
JP
Japan
Prior art keywords
gain coefficient
image
edge
gain
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2016028215A
Other languages
Japanese (ja)
Other versions
JP2016085764A (en
Inventor
裕行 近江
裕行 近江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016028215A priority Critical patent/JP6121013B2/en
Publication of JP2016085764A publication Critical patent/JP2016085764A/en
Application granted granted Critical
Publication of JP6121013B2 publication Critical patent/JP6121013B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像信号における所定の周波数成分の強調もしくは抑制を行うための画像処理装置及び画像処理方法に関する。   The present invention relates to an image processing apparatus and an image processing method for emphasizing or suppressing a predetermined frequency component in an image signal.

従来、周波数強調を行って放射線画像の診断性能を向上させる数々の画像処理技術が提案されている。周波数強調もしくは抑制の方法は、原画像を基に、ある限られた周波数帯域の周波数成分を表す複数の帯域制限画像を作成して、帯域制限画像毎に強調もしくは抑制することで行われる。複数の帯域制限画像を作成する方法としては、ラプラシアンピラミッド分解を用いた方法や、ウェーブレット変換を用いた方法や、アンシャープマスクを利用する方法等がある。例えば、アンシャープマスクを利用した場合、ボケ画像をSusLvとすると、帯域制限画像HLvは、(式1)のようになる。 Conventionally, a number of image processing techniques for improving the diagnostic performance of radiographic images by performing frequency enhancement have been proposed. The frequency enhancement or suppression method is performed by creating a plurality of band limited images representing frequency components in a limited frequency band based on the original image and enhancing or suppressing each band limited image. As a method of creating a plurality of band limited images, there are a method using Laplacian pyramid decomposition, a method using wavelet transform, a method using an unsharp mask, and the like. For example, when an unsharp mask is used and the blurred image is SusLv , the band limited image H Lv is as shown in (Expression 1).

Figure 0006121013
Figure 0006121013

ここで、Lv=0であるときのボケ画像Sus0は原画像Sorgを表す。Lvは帯域制限画像のインデックスである。周波数応答特性が異なるボケ画像を作成することにより、様々な帯域制限画像を得ることができる。帯域制限画像のうちの最も低周波画像をLとすると、原画像との関係は、(式2)で表すことができる。 Here, the blurred image S us0 when Lv = 0 represents the original image S org . Lv is an index of the band limited image. By creating blurred images with different frequency response characteristics, various band limited images can be obtained. When the lowest frequency image of the band limited images is L, the relationship with the original image can be expressed by (Equation 2).

Figure 0006121013
Figure 0006121013

つまり、分解された帯域制限画像を加算していくことで原画像に再構成される。低周波画像Lに対し、低周波画像L以外の帯域制限画像のことを高周波画像とする。高周波画像に対し、(式3)のようにゲイン係数αによってゲインを調整することで、様々な周波数強調もしくは抑制を行った画像を作成することができる。   That is, it is reconstructed into the original image by adding the decomposed band-limited images. For the low frequency image L, a band limited image other than the low frequency image L is a high frequency image. By adjusting the gain with respect to the high-frequency image by the gain coefficient α as in (Equation 3), it is possible to create an image with various frequency enhancements or suppressions.

Figure 0006121013
Figure 0006121013

ゲイン係数αは周波数帯域毎に設定する。ゲイン係数αを大きくすることで、その周波数帯域成分を強調することができる。ゲイン係数αを小さくすることで、その周波数帯域成分を抑制することができる。しかし、定数αによる強調処理では、すべての成分を同一に強調処理することになる。つまり、強調対象であるエッジ成分を強調するだけではなく、ノイズ成分も同等に強調されてしまい、所望の強調効果を得ることができないという課題がある。その課題に対し、高周波画像からエッジ成分のみを検出して強調することでエッジのみの強調効果を得る技術が提案されている(例えば、特許文献1、2参照)。特に、特許文献2においては、複数の帯域制限された高周波画像に分解して強調処理する方法であって、周波数帯域毎にエッジを検出して強調処理を行うことが提案されている。   The gain coefficient α is set for each frequency band. The frequency band component can be emphasized by increasing the gain coefficient α. By reducing the gain coefficient α, the frequency band component can be suppressed. However, in the enhancement process using the constant α, all components are subjected to the same enhancement process. That is, there is a problem that not only the edge component to be emphasized is emphasized, but also the noise component is equally enhanced, and a desired enhancement effect cannot be obtained. In response to this problem, a technique has been proposed in which only an edge component is detected from a high-frequency image and enhanced to obtain an edge enhancement effect (see, for example, Patent Documents 1 and 2). In particular, Patent Document 2 proposes a method of performing an enhancement process by decomposing into a plurality of band-limited high-frequency images, and performing an enhancement process by detecting an edge for each frequency band.

特開平9−248291号公報JP-A-9-248291 特開2005−296331号公報JP 2005-296331 A

ユーザは、ゲイン係数αを周波数帯域毎に調整し、様々な周波数処理を行った画像を作成することができる。放射線画像においては、検出器の特性や撮影部位に依存して周波数帯域毎にノイズが支配的な領域とそうではない領域とが存在する。そのため、ゲイン係数αの調整作業は、撮影部位毎にそして周波数帯域毎に細かな調整が必要である。ゲイン係数αの調整を行うことで所望の周波数応答特性を得られるようになる。一方で、ゲイン係数αの調整作業は、経験の少ないユーザにとっては非常に困難な作業であり、また熟練したユーザにとっても時間のかかる作業となる。このように設定されたゲイン係数をエッジ領域にのみ適用して処理を行うことで、エッジのみを強調した画像を作成することができる。   The user can adjust the gain coefficient α for each frequency band and create an image that has been subjected to various frequency processes. In the radiographic image, there are regions where noise is dominant and regions where this is not the case for each frequency band depending on the characteristics of the detector and the imaging region. Therefore, the adjustment of the gain coefficient α requires fine adjustment for each imaging region and for each frequency band. A desired frequency response characteristic can be obtained by adjusting the gain coefficient α. On the other hand, the adjustment work of the gain coefficient α is a very difficult work for a user with little experience, and a time-consuming work for a skilled user. By applying the gain coefficient set in this way only to the edge region and performing processing, an image in which only the edge is emphasized can be created.

しかし、特許文献1、2に記載されたような技術では、ゲイン係数を最適なバランスに調整はしたが、エッジ検出の結果を失敗し、結果的にエッジと同様にノイズも強調してしまうことが発生していた。これは、エッジ検出方法がすべての周波数帯域で共通であるために、ノイズが支配的な周波数帯域ではエッジ検出が困難になり、ノイズもエッジとして検出してしまっていたためである。   However, in the techniques as described in Patent Documents 1 and 2, the gain coefficient is adjusted to an optimal balance, but the result of edge detection fails, and as a result, noise is emphasized as well as the edge. Had occurred. This is because the edge detection method is common to all frequency bands, so that edge detection becomes difficult in the frequency band where noise is dominant, and noise is detected as an edge.

本発明の目的は、ノイズが支配的である周波数帯域であってもノイズ成分を強調することなくエッジを強調することができる画像処理装置及び画像処理方法を提供することにある。   An object of the present invention is to provide an image processing apparatus and an image processing method capable of enhancing edges without enhancing noise components even in a frequency band in which noise is dominant.

本発明に係る画像処理装置は、原画像から複数の周波数成分の画像を生成する周波成分生成手段と、前記複数の周波数成分の画像の少なくとも一つのゲイン補正を行うためのゲイン係数を取得する係数取得手段と、前記ゲイン係数に基づいてエッジ検出方法を選択し、前記複数の周波数成分の画像の少なくとも一つのエッジ情報を検出する検出手段と、前記エッジ情報に基づき、前記ゲイン係数を調整する調整手段と、前記調整手段により前記ゲイン係数が調整された前記複数の周波数成分の画像の少なくとも一つに基づき、画像を生成する画像生成手段とを備えることを特徴とする。 An image processing apparatus according to the present invention includes a frequency component generation unit that generates an image of a plurality of frequency components from an original image, and a coefficient that acquires a gain coefficient for performing at least one gain correction of the images of the plurality of frequency components. an acquiring unit, and select the edge detection method based on the above gain coefficient, a detecting means for detecting at least one of edge information of the image of the plurality of frequency components, based on the edge information, adjusts the gain factor and adjustment means, based on at least one of the front Sulfur butterfly integer unit by the plurality of frequency components gain coefficients are adjusted image, characterized by comprising an image producing means for producing an image.

本発明によれば、ノイズが支配的である周波数帯域であってもノイズ成分を強調することなくエッジを強調することが可能となり、ユーザが意図する強調効果を得ることが可能となる。   According to the present invention, even in a frequency band in which noise is dominant, an edge can be emphasized without enhancing a noise component, and an enhancement effect intended by a user can be obtained.

本発明の実施形態における画像処理装置の構成例を示す図である。It is a figure which shows the structural example of the image processing apparatus in embodiment of this invention. 本実施形態における画像処理装置を実現可能なコンピュータ機能を示す図である。It is a figure which shows the computer function which can implement | achieve the image processing apparatus in this embodiment. 本実施形態における画像処理装置の流れを示すフローチャートである。It is a flowchart which shows the flow of the image processing apparatus in this embodiment. 本実施形態におけるゲイン係数補正値算出方法の例を示す図である。It is a figure which shows the example of the gain coefficient correction value calculation method in this embodiment. モーメントオペレータによるエッジ検出の例を示す図である。It is a figure which shows the example of the edge detection by a moment operator. 基準距離を説明するための図である。It is a figure for demonstrating a reference distance.

以下、本発明の実施形態を図面に基づいて説明する。
図1は、本発明の実施形態における画像処理装置の構成例を示す図であり、一例としてX線画像処理装置の構成を示している。図1に示すように、X線画像処理装置は、周波成分作成手段101、ゲイン係数取得手段102、ゲイン係数補正値算出手段103、ゲイン調整手段104、及び処理画像作成手段105を有する。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram illustrating a configuration example of an image processing apparatus according to an embodiment of the present invention, and illustrates a configuration of an X-ray image processing apparatus as an example. As shown in FIG. 1, the X-ray image processing apparatus includes a frequency component creation unit 101, a gain coefficient acquisition unit 102, a gain coefficient correction value calculation unit 103, a gain adjustment unit 104, and a processed image creation unit 105.

周波成分作成手段101は、X線センサにより取得されたX線画像に所定の前処理を施した画像を入力とし、当該画像を基に、ある限られた周波数帯域の周波数成分を表す複数の高周波画像と1つの低周波画像とを作成して出力する。ゲイン係数取得手段102は、周波数強調に係る周波数応答特性がユーザにより設定され、周波数強調処理に必要なゲイン係数を出力する。ゲイン係数補正値算出手段103は、ゲイン係数取得手段102より出力されたゲイン係数を入力とし、ゲイン係数を補正するゲイン係数補正値を算出して出力する。ゲイン係数補正値の算出は、ゲイン係数に応じたゲイン係数補正値算出方法によって行われる。   The frequency component creating unit 101 receives an image obtained by performing predetermined preprocessing on an X-ray image acquired by an X-ray sensor, and based on the image, a plurality of high frequency components representing frequency components in a limited frequency band. Create and output an image and one low-frequency image. The gain coefficient acquisition unit 102 sets a frequency response characteristic related to frequency enhancement by a user and outputs a gain coefficient necessary for frequency enhancement processing. The gain coefficient correction value calculation means 103 receives the gain coefficient output from the gain coefficient acquisition means 102, calculates and outputs a gain coefficient correction value for correcting the gain coefficient. The calculation of the gain coefficient correction value is performed by a gain coefficient correction value calculation method corresponding to the gain coefficient.

ゲイン調整手段104は、周波成分作成手段101より出力された高周波画像と、ゲイン係数取得手段102より出力されたゲイン係数と、ゲイン係数補正値算出手段103より出力されたゲイン係数補正値を入力とする。ゲイン調整手段104は、ゲイン係数補正値を用いて修正したゲイン係数にて高周波画像を調整し、調整結果を出力する。処理画像作成手段105は、ゲイン調整手段104にて高周波画像を調整した結果と、周波成分作成手段101より出力された低周波画像とを入力として、画像の再構成を行い、再構成結果を出力する。   The gain adjustment unit 104 receives the high frequency image output from the frequency component generation unit 101, the gain coefficient output from the gain coefficient acquisition unit 102, and the gain coefficient correction value output from the gain coefficient correction value calculation unit 103. To do. The gain adjusting unit 104 adjusts the high frequency image with the gain coefficient corrected using the gain coefficient correction value, and outputs the adjustment result. The processed image creation means 105 receives the result of adjusting the high-frequency image by the gain adjustment means 104 and the low-frequency image output from the frequency component creation means 101 as input, reconstructs the image, and outputs the reconstruction result To do.

図2は、コンピュータ(PC)を使用して、図1に示した画像処理装置を実現する場合の例を示す図である。コントロールPC201、X線センサ202、及びX線発生装置210が、光ファイバー222でつながっている。コントロールPC201、X線センサ202、及びX線発生装置210を接続するための信号線は、光ファイバーでなくてもよい。また、コントロールPC201、X線センサ202、及びX線発生装置210が、CAN(Controller Area Network)やギガビットイーサネット(登録商標)などのネットワークで通信可能に接続されていても良い。光ファイバー222には、表示部209、記憶部211、及びネットワークインタフェース部212等が接続されている。   FIG. 2 is a diagram illustrating an example in which the image processing apparatus illustrated in FIG. 1 is realized using a computer (PC). The control PC 201, the X-ray sensor 202, and the X-ray generator 210 are connected by an optical fiber 222. A signal line for connecting the control PC 201, the X-ray sensor 202, and the X-ray generator 210 may not be an optical fiber. In addition, the control PC 201, the X-ray sensor 202, and the X-ray generator 210 may be connected to be communicable via a network such as CAN (Controller Area Network) or Gigabit Ethernet (registered trademark). A display unit 209, a storage unit 211, a network interface unit 212, and the like are connected to the optical fiber 222.

コントロールPC201は、CPU(中央演算装置)203、RAM(Random Access Memory)204、ROM(Read Only Memory)205、入力部206、表示部207、及び記憶部208を有する。CPU203、RAM204、ROM205、入力部206、表示部207、及び記憶部208は、例えばバス221を介して通信可能に接続されている。コントロールPC201を介して、X線センサ202や表示部209などにコマンドが送られる。コントロールPC201では、撮影モード毎の処理内容がソフトウェアモジュールとして記憶部208に格納されており、不図示の指示手段によりRAM204に読み込まれて実行される。図1に示した各手段101〜105は、ソフトウェアモジュールとして記憶部208に格納されている。なお、本実施形態はこれに限定されず、図1に示した各手段101〜105を例えば専用の画像処理ボードとして実装してもよいし、目的に応じて最適な実装を行うようにすればよい。   The control PC 201 includes a CPU (Central Processing Unit) 203, a RAM (Random Access Memory) 204, a ROM (Read Only Memory) 205, an input unit 206, a display unit 207, and a storage unit 208. The CPU 203, the RAM 204, the ROM 205, the input unit 206, the display unit 207, and the storage unit 208 are connected to be communicable via a bus 221, for example. A command is sent to the X-ray sensor 202 and the display unit 209 via the control PC 201. In the control PC 201, the processing content for each shooting mode is stored as a software module in the storage unit 208, and is read into the RAM 204 and executed by an instruction unit (not shown). The means 101 to 105 shown in FIG. 1 are stored in the storage unit 208 as software modules. Note that the present embodiment is not limited to this, and each of the units 101 to 105 shown in FIG. 1 may be mounted as, for example, a dedicated image processing board, or may be optimally mounted depending on the purpose. Good.

以下、X線画像処理装置の詳細に関して4つの実施形態にそって説明する。
(第1の実施形態)
第1の実施形態について説明する。
図1に示した構成図及び図3に示すフローチャートを参照して、第1の実施形態における画像処理を説明する。まず、X線センサにてX線画像を取得する(ステップ301)。次に、取得されたX線画像に対して前処理を行う(ステップ302)。前処理は、例えば、オフセット補正、Log変換、ゲイン補正、欠陥補正などのセンサの特性を補正する処理と、グリッドモアレを抑制するグリッド縞抑制処理とを行う。また、必要であれば、前処理として、ランダムノイズを低減する処理などの信号対ノイズ比(S/N)を向上させる処理を行ってもよい。
Hereinafter, details of the X-ray image processing apparatus will be described according to four embodiments.
(First embodiment)
A first embodiment will be described.
Image processing in the first embodiment will be described with reference to the configuration diagram shown in FIG. 1 and the flowchart shown in FIG. First, an X-ray image is acquired by an X-ray sensor (step 301). Next, preprocessing is performed on the acquired X-ray image (step 302). The preprocessing includes, for example, processing for correcting sensor characteristics such as offset correction, log conversion, gain correction, and defect correction, and grid stripe suppression processing for suppressing grid moire. Further, if necessary, processing for improving the signal-to-noise ratio (S / N) such as processing for reducing random noise may be performed as preprocessing.

次に、周波成分作成手段101は、前処理が施された原画像から複数の高周波画像と1つの低周波画像とを作成する(ステップ303)。帯域制限画像の作成の方法としては、ラプラシアンピラミッド分解を用いた方法やウェーブレット変換を用いた方法等を利用する。ダウンサンプリングをすることで有効に得られる高周波画像が制限されるが、本実施形態では、少なくとも1つ以上の高周波画像が必要である。   Next, the frequency component creation unit 101 creates a plurality of high frequency images and one low frequency image from the preprocessed original image (step 303). As a method of creating the band limited image, a method using Laplacian pyramid decomposition, a method using wavelet transform, or the like is used. Although high-frequency images that can be effectively obtained by downsampling are limited, in the present embodiment, at least one or more high-frequency images are required.

次に、ゲイン係数取得手段102が、ゲイン係数を設定する(ステップ304)。ここで、ゲイン係数とは(式3)に示すαの値を指し、ユーザが周波数帯域毎に指定する。ユーザがゲイン係数αの値を直接に指定するようにしてもよいし、別手段として周波数応答特性作成ツールを用意し、ゲイン係数αを意識せずに特性を作成したものを、ゲイン係数αへと自動変換する方法で指定するようにしてもよい。   Next, the gain coefficient acquisition unit 102 sets a gain coefficient (step 304). Here, the gain coefficient indicates the value of α shown in (Equation 3), and is designated by the user for each frequency band. The user may directly specify the value of the gain coefficient α. Alternatively, a frequency response characteristic creation tool is prepared as another means, and the characteristic created without considering the gain coefficient α is changed to the gain coefficient α. It may be specified by the automatic conversion method.

次に、ゲイン係数補正値算出手段103は、ゲイン係数取得手段102により指定されたゲイン係数αの値を用いてゲイン係数補正値の算出方法を選択する(ステップ305)。ゲイン係数を補正するとは、高周波画像のエッジ部分のみに選択的に強調処理を行うために、エッジ以外の画素のゲイン係数を弱めることである。よって、ゲイン係数補正値の算出方法とは、高周波画像のエッジ成分を検出し、その検出結果に基づいてゲイン係数を補正する値を出力する方法である。本実施形態においてはエッジ検出方法が複数用意され、ゲイン係数に基づいて周波数帯域毎に選択される。   Next, the gain coefficient correction value calculation means 103 selects a gain coefficient correction value calculation method using the gain coefficient α value designated by the gain coefficient acquisition means 102 (step 305). To correct the gain coefficient is to weaken the gain coefficient of pixels other than the edge in order to selectively perform enhancement processing only on the edge portion of the high-frequency image. Therefore, the gain coefficient correction value calculation method is a method of detecting an edge component of a high-frequency image and outputting a value for correcting the gain coefficient based on the detection result. In the present embodiment, a plurality of edge detection methods are prepared and selected for each frequency band based on the gain coefficient.

図4(a)にエッジ検出方法を選択するためのテーブルの例を示す。図4(a)に示すように、エッジ検出方法は、ノイズ耐性の異なるものを複数用意する。ゲイン係数が小さい値のときほどノイズ耐性の強いエッジ検出方法が選択されるようにし、ノイズをエッジとして誤検出することを防止する。図4(a)に示す例では、エッジ検出のための特徴量として積分した値を使用するモーメントオペレータや、信号成分の絶対値に閾値を設けるパーセンタイルフィルタなど、ノイズ耐性の強い検出方法をゲイン係数の小さい場合に割り当てている。   FIG. 4A shows an example of a table for selecting an edge detection method. As shown in FIG. 4A, a plurality of edge detection methods having different noise immunity are prepared. The edge detection method with higher noise resistance is selected as the gain coefficient is smaller, thereby preventing erroneous detection of noise as an edge. In the example shown in FIG. 4A, a detection method with high noise resistance such as a moment operator that uses an integrated value as a feature quantity for edge detection or a percentile filter that sets a threshold value for the absolute value of a signal component is used as a gain coefficient. Allocation is made in case of small.

次に、ゲイン係数補正値算出手段103は、ゲイン係数補正値の算出方法の選択処理にて選択されたエッジ検出方法で、ゲイン係数補正値を算出した結果を出力する(ステップ306)。ゲイン係数補正値は、対象の高周波画像に対してエッジ検出を行った結果、すなわちエッジ情報が補正値として反映される。エッジ検出処理は高周波画像に対して直接検出処理を行ってもよいし、(式1)に示される原画像Sorg又はボケ画像Susに対して処理を行い、その結果を間接的に利用してもよい。 Next, the gain coefficient correction value calculation means 103 outputs the result of calculating the gain coefficient correction value by the edge detection method selected in the gain coefficient correction value calculation method selection process (step 306). The gain coefficient correction value reflects the result of edge detection performed on the target high-frequency image, that is, edge information as the correction value. Edge detection process may be performed direct detection processing for high-frequency image, it performs processing on the original image S org or the unsharp image S us shown in (Equation 1), indirectly by utilizing the results May be.

エッジ検出方法として、モーメントオペレータが選択された例を、図5を参照して説明する。モーメントオペレータを利用する方法は、原画像を処理対象画像として間接的に高周波画像のエッジ検出を行う。まず、ゲイン係数補正値算出手段103は、処理対象画素を中心とした局所領域を設定し、局所領域内の0次モーメントと1次モーメントとを算出する(ステップ501、502)。各モーメントは、(式4)で求められる。   An example in which a moment operator is selected as an edge detection method will be described with reference to FIG. The method using a moment operator indirectly detects the edge of a high-frequency image using the original image as a processing target image. First, the gain coefficient correction value calculation unit 103 sets a local region centered on the processing target pixel, and calculates a zeroth-order moment and a first-order moment in the local region (steps 501 and 502). Each moment is obtained by (Equation 4).

Figure 0006121013
Figure 0006121013

(式4)において、m00が0次モーメントを表し、m10がx方向の1次モーメントを表し、m01がy方向の1次モーメントを表す。次に、ゲイン係数補正値算出手段103は、1次モーメントから重心を算出する(ステップ503)。重心は力のつりあいがとれている位置であるため、その座標(gx,gy)は(式5)のように求まる。 In (Equation 4), m 00 represents a zero-order moment, m 10 represents a first moment in the x direction, m 01 represents a first-order moment of the y-direction. Next, the gain coefficient correction value calculation means 103 calculates the center of gravity from the primary moment (step 503). Since the center of gravity is a position where the force is balanced, the coordinates (gx, gy) are obtained as in (Equation 5).

Figure 0006121013
Figure 0006121013

次に、ゲイン係数補正値算出手段103は、重心座標と局所領域の中心座標との距離を(式6)を用いて算出する(ステップ504)。   Next, the gain coefficient correction value calculation means 103 calculates the distance between the center-of-gravity coordinates and the center coordinates of the local area using (Equation 6) (step 504).

Figure 0006121013
Figure 0006121013

局所領域内にエッジが存在する場合には、重心は局所領域の中心からずれる。したがって(式6)により算出されるΔの値は大きくなる。一方、局所領域内にエッジが存在しない場合には、重心は局所領域の中心に非常に近い位置となり、(式6)により算出されるΔの値は小さくなる。したがって、(式6)により算出されるΔの値がエッジを検出する特徴量となる。(式6)により算出されるΔの値は、絶対値のままでは値として使用しづらいため、本実施形態では最後に基準距離Δbaseにて正規化し、Δnormを(式7)のように算出する(ステップ505)。 If an edge is present in the local area, the center of gravity deviates from the center of the local area. Therefore, the value of Δ calculated by (Equation 6) increases. On the other hand, when there is no edge in the local area, the center of gravity is very close to the center of the local area, and the value of Δ calculated by (Equation 6) is small. Therefore, the value of Δ calculated by (Expression 6) is a feature amount for detecting an edge. The value of delta is calculated by (Equation 6), since hard to use as a value remains absolute value, in the present embodiment by normalizing at last reference distance delta base, as the delta norm (Equation 7) Calculate (step 505).

Figure 0006121013
Figure 0006121013

なお、基準距離Δbaseとは、図6に示すように局所領域内に所定段差dのエッジが存在する場合に(式6)により算出される値である。所定段差dでのエッジ特徴量を基準値とするということは、所定段差dが検出の目標となるエッジということである。(式6)で計算した各局所領域内のΔの値が、このエッジ特徴量よりも大きければエッジが存在すると認識し、このエッジ特徴量よりも小さければエッジが存在する確率が小さいと考える。したがって、基準距離Δbaseによって正規化されたΔnormは、Δnormの値が1である場合がエッジ検出特徴量としての最大値を表し、エッジが存在することを示す。一方、Δnormの値が0である場合がエッジ検出特徴量としての最小値を表し、エッジが存在しないことを示す。Δnormの値において0〜1の間の値は、1に近づくほどエッジが存在する確率が高く、0に近づくほどエッジが存在する確率が低いということを表す。本実施形態では、このΔnormの値をゲイン係数補正値とする。 Note that the reference distance delta base, is a value calculated by (Equation 6) If the edge of the predetermined step difference d is present in the local area as shown in Figure 6. Using the edge feature amount at the predetermined step d as a reference value means that the predetermined step d is an edge to be detected. If the value of Δ in each local area calculated by (Equation 6) is larger than this edge feature amount, it is recognized that an edge exists, and if it is smaller than this edge feature amount, it is considered that the probability that an edge exists is small. Accordingly, Δ norm normalized by the reference distance Δ base represents a maximum value as an edge detection feature amount when the value of Δ norm is 1, indicating that an edge exists. On the other hand, the case where the value of Δ norm is 0 represents the minimum value as the edge detection feature amount, and indicates that no edge exists. Value between 0 and 1 in the value of delta norm represents the high probability that an edge closer to 1 is present, the probability that more edge exists closer to 0 low. In the present embodiment, the value of Δnorm is set as a gain coefficient correction value.

次に、ゲイン調整手段104は、ゲイン係数取得手段102により指定されたゲイン係数αと、ゲイン係数補正値算出手段103により算出されたゲイン係数補正値Cの値とを用いて、高周波画像を(式8)に基づき調整する(ステップ307)。   Next, the gain adjustment unit 104 uses the gain coefficient α designated by the gain coefficient acquisition unit 102 and the gain coefficient correction value C calculated by the gain coefficient correction value calculation unit 103 to obtain a high frequency image ( An adjustment is made based on equation (8) (step 307).

Figure 0006121013
Figure 0006121013

ゲイン係数補正値Cは、エッジである可能性が高い領域に関しては1に近い値となるので、ゲイン係数値に近い値にて調整することとなる。一方、ゲイン係数補正値Cは、エッジではない可能性が高い領域に関しては0に近い値となるので、ゲイン係数を小さくして調整することとなる。ゲイン調整手段104によるゲイン係数α及びゲイン係数補正値Cを用いた高周波画像の調整は、画素毎に処理が行われる。   The gain coefficient correction value C is a value close to 1 for a region that is highly likely to be an edge, and thus is adjusted to a value close to the gain coefficient value. On the other hand, the gain coefficient correction value C is a value close to 0 for a region that has a high possibility of not being an edge, so that the gain coefficient is adjusted to be small. The adjustment of the high-frequency image using the gain coefficient α and the gain coefficient correction value C by the gain adjusting unit 104 is performed for each pixel.

次に、処理画像作成手段105は、ゲインが調整された高周波画像H'から画像を再構成する。(式2)に示される高周波画像Hをゲインが調整された高周波画像H'に置き換えることで、ゲイン調整済みの再構成画像が作成される(ステップ308)。   Next, the processed image creation means 105 reconstructs an image from the high-frequency image H ′ whose gain has been adjusted. By replacing the high-frequency image H shown in (Expression 2) with the high-frequency image H ′ whose gain has been adjusted, a reconfigured image with gain adjusted is created (step 308).

処理画像作成手段105により再構成された画像は、幾何変換、WW(ウィンドウ幅)/WL(ウィンドウレベル)等の後処理を行い、画像をモニタ又はメモリに出力をする(ステップ309、310)。   The image reconstructed by the processed image creation means 105 is subjected to post-processing such as geometric transformation, WW (window width) / WL (window level), and the image is output to a monitor or memory (steps 309 and 310).

前述したステップ304からステップ307までの処理を周波数帯域毎に繰り返すことで、周波数帯域毎に最適化されたエッジ検出が行われ、その検出結果に応じたゲイン補正係数値が得られる。これらを用いることで、ノイズの影響を受けにくい選択的な周波数強調処理が行われ、ユーザの選定した周波数応答が維持されたままで、より強調効果を得られる画像になる。   By repeating the processing from step 304 to step 307 described above for each frequency band, edge detection optimized for each frequency band is performed, and a gain correction coefficient value corresponding to the detection result is obtained. By using these, selective frequency emphasis processing that is not easily affected by noise is performed, and an image that can obtain an emphasis effect while the frequency response selected by the user is maintained.

(第2の実施形態)
次に、第2の実施形態について説明する。
第1の実施形態においては、複数のゲイン係数補正値の算出方法として複数のエッジ検出方法を示した。第2の実施形態においては、同一の検出方法にて複数の出力結果を利用する方法を示す。図1に示した構成図及び図3に示すフローチャートを参照して、第2の実施形態における画像処理を説明する。ステップ301からステップ304までの処理は、第1の実施形態と同じ処理であるので、その説明は省略する。
(Second Embodiment)
Next, a second embodiment will be described.
In the first embodiment, a plurality of edge detection methods are shown as a method of calculating a plurality of gain coefficient correction values. In the second embodiment, a method of using a plurality of output results with the same detection method will be described. Image processing in the second embodiment will be described with reference to the configuration diagram shown in FIG. 1 and the flowchart shown in FIG. Since the processing from step 301 to step 304 is the same as that in the first embodiment, description thereof is omitted.

ステップ305にて、ゲイン係数補正値算出手段103は、ゲイン係数取得手段102により指定されたゲイン係数αの値を用いてゲイン係数補正値を算出する方法を選択する。ゲイン係数補正値の算出方法とは、前述のように高周波画像のエッジ成分を検出し、その検出結果に基づいてゲイン係数を補正する値を出力する方法である。本実施形態においては1つのエッジ検出方法に対し異なる検出感度をもったものが複数用意され、ゲイン係数に基づいて周波数帯域毎に選択される。   In step 305, the gain coefficient correction value calculation unit 103 selects a method for calculating the gain coefficient correction value using the gain coefficient α value designated by the gain coefficient acquisition unit 102. The gain coefficient correction value calculation method is a method of detecting an edge component of a high-frequency image as described above and outputting a value for correcting the gain coefficient based on the detection result. In the present embodiment, a plurality of methods having different detection sensitivities for one edge detection method are prepared, and are selected for each frequency band based on a gain coefficient.

図4(b)に異なるエッジ検出感度とゲイン係数との関係の例を示す。エッジ検出感度とは、エッジに対する反応のしやすさを示し、エッジ検出感度が高いとエッジとして認識する可能性が高くなることになる。その一方で、エッジ検出感度が高いとノイズなどのエッジ以外のものに対してもエッジとして誤認識する可能性も高くなる。そこで、図4(b)に示すように、ゲイン係数が小さい値の場合にはエッジ検出感度を小さくする。ゲイン係数が小さく設定されている場合はノイズが支配的な周波数帯域であるために誤認識を防ぐ。ゲイン係数が大きい値の場合には、所定の検出感度SDにて処理をする。もしくは検出感度SDよりも大きな値にして、より詳細なエッジ検出を行うようにしてもよい。 FIG. 4B shows an example of the relationship between different edge detection sensitivities and gain coefficients. The edge detection sensitivity indicates the ease of reaction with respect to the edge. If the edge detection sensitivity is high, the possibility of recognition as an edge increases. On the other hand, when the edge detection sensitivity is high, there is a high possibility that an object other than an edge such as noise is erroneously recognized as an edge. Therefore, as shown in FIG. 4B, the edge detection sensitivity is reduced when the gain coefficient is a small value. When the gain coefficient is set small, erroneous recognition is prevented because noise is a dominant frequency band. When the gain coefficient is a large value, processing is performed with a predetermined detection sensitivity SD . Alternatively, more detailed edge detection may be performed by setting a value larger than the detection sensitivity SD .

エッジ検出方法としてモーメントオペレータを利用した場合について、エッジ検出感度を変更する例を示す。モーメントオペレータを利用した場合のエッジ特徴量は、第1の実施形態にて示した(式7)に示すΔの値を基準距離Δbaseにて正規化したΔnormの値である。 An example in which the edge detection sensitivity is changed when a moment operator is used as the edge detection method will be described. The edge feature amount when the moment operator is used is a value of Δ norm obtained by normalizing the value of Δ shown in (Expression 7) shown in the first embodiment with the reference distance Δ base .

基準距離とは、第1の実施形態でも示した通り、局所領域内に所定段差dのエッジが存在する場合に(式6)により算出される値である。所定段差dは検出の目標となるエッジであり、その段差における距離に対する割合がエッジの可能性を示すことになる。したがって、所定段差dが小さくなると目標となるエッジが小さいものに設定され、検出感度が高くなる。Δnormの値もΔの値が同じで所定段差dの値を小さくすると大きくなる。すなわち、エッジとしての可能性が高い値となる。所定段差dの値は、検出感度を決めるパラメータであるといえる。図4(b)に示すように、ゲイン係数が小さくなるにつれて検出感度を下げるには、所定段差dの値を下げることで調整することができる。本実施形態においても、Δnormの値をゲイン係数補正値Cとする(ステップ306)。 The reference distance is a value calculated by (Equation 6) when the edge of the predetermined step d exists in the local region, as shown in the first embodiment. The predetermined step d is an edge that is a detection target, and the ratio of the step to the distance indicates the possibility of an edge. Therefore, when the predetermined level difference d is reduced, the target edge is set to be small, and the detection sensitivity is increased. The value of Δnorm is also the same as Δ and increases as the value of the predetermined step d is decreased. That is, the value is highly likely to be an edge. It can be said that the value of the predetermined step d is a parameter that determines the detection sensitivity. As shown in FIG. 4B, in order to decrease the detection sensitivity as the gain coefficient decreases, the value can be adjusted by decreasing the value of the predetermined step d. Also in this embodiment, the value of Δnorm is set as the gain coefficient correction value C (step 306).

次に、ゲイン調整手段104は、ゲイン係数取得手段102により指定されたゲイン係数αと、ゲイン係数補正値算出手段103により算出されたゲイン係数補正値Cの値とを用いて、高周波画像を(式8)に基づき調整する(ステップ307)。以降のステップ308からステップ310までの処理は、第1の実施形態と同じ処理であるので、その説明は省略する。   Next, the gain adjustment unit 104 uses the gain coefficient α designated by the gain coefficient acquisition unit 102 and the gain coefficient correction value C calculated by the gain coefficient correction value calculation unit 103 to obtain a high frequency image ( An adjustment is made based on equation (8) (step 307). Since the subsequent processing from step 308 to step 310 is the same processing as in the first embodiment, the description thereof will be omitted.

第2の実施形態によれば、ノイズ成分を強調することなくエッジを強調する周波数強調処理が可能になり、ユーザの選定した周波数応答が維持されたままで、より強調効果を得られることができる。   According to the second embodiment, it is possible to perform frequency emphasis processing for emphasizing an edge without emphasizing a noise component, and it is possible to obtain more emphasis effect while maintaining the frequency response selected by the user.

(第3の実施形態)
次に、第3の実施形態について説明する。
第3の実施形態においては、複数のゲイン係数補正値の算出方法として同一の検出方法にて複数の出力結果を利用する第2の方法を示す。図1に示した構成図及び図3に示すフローチャートを参照して、第3の実施形態における画像処理を説明する。ステップ301からステップ304までの処理は、第1の実施形態と同じ処理であるので、その説明は省略する。
(Third embodiment)
Next, a third embodiment will be described.
In the third embodiment, a second method of using a plurality of output results by the same detection method as a method of calculating a plurality of gain coefficient correction values will be described. Image processing in the third embodiment will be described with reference to the configuration diagram shown in FIG. 1 and the flowchart shown in FIG. Since the processing from step 301 to step 304 is the same as that in the first embodiment, description thereof is omitted.

ステップ305にて、ゲイン係数補正値算出手段103は、ゲイン係数取得手段102により指定されたゲイン係数αの値を用いてゲイン係数補正値を算出する方法を選択する。ゲイン係数を補正するとは、高周波画像のエッジ部分のみに選択的に強調処理を行うために、エッジ以外の画素のゲイン係数を弱めることである。また、高周波画像のノイズ成分のみに選択的に抑制処理を行うために、ノイズ以外の画素のゲイン係数を弱めることでもある。よって、ゲイン係数補正値の算出方法とは、高周波画像のエッジ成分もしくはノイズ成分を検出し、その検出結果に基づいてゲイン係数を補正する値を出力する方法である。本実施形態においては1つの検出方法に対し異なる出力値補正係数が用意され、ゲイン係数に基づいて周波数帯域毎に選択される。   In step 305, the gain coefficient correction value calculation unit 103 selects a method for calculating the gain coefficient correction value using the gain coefficient α value designated by the gain coefficient acquisition unit 102. To correct the gain coefficient is to weaken the gain coefficient of pixels other than the edge in order to selectively perform enhancement processing only on the edge portion of the high-frequency image. In addition, in order to selectively suppress only the noise component of the high-frequency image, the gain coefficient of pixels other than noise is also weakened. Therefore, the gain coefficient correction value calculation method is a method of detecting an edge component or a noise component of a high-frequency image and outputting a value for correcting the gain coefficient based on the detection result. In the present embodiment, different output value correction coefficients are prepared for one detection method, and are selected for each frequency band based on the gain coefficient.

検出方法としてモーメントオペレータを利用した場合について、出力値補正係数を変更する例を示す。モーメントオペレータを利用した場合のエッジ特徴量は、第1の実施形態にて示した(式7)に示すΔの値を基準距離Δbaseにて正規化したΔnormの値である。Δnormの値が1に近いほど、エッジである可能性が高くなり、Δnormの値が0に近いほどエッジではない可能性が高まる。つまり、ノイズである可能性が高まる。このことにより、検出補正係数をKとすると、ゲイン補正係数値Cは(式9)のようになる。 An example in which the output value correction coefficient is changed when a moment operator is used as the detection method will be described. The edge feature amount when the moment operator is used is a value of Δ norm obtained by normalizing the value of Δ shown in (Expression 7) shown in the first embodiment with the reference distance Δ base . The closer the value of Δnorm is to 1, the higher the possibility of being an edge, and the closer the value of Δnorm is to 0, the more likely it is not an edge. That is, the possibility of noise increases. Thus, when the detection correction coefficient is K, the gain correction coefficient value C is as shown in (Equation 9).

Figure 0006121013
Figure 0006121013

ここで、検出補正係数Kは、図4(c)に示すようなステップ関数を示す。ゲイン係数値αが1以上である場合にはK=1となり、ゲイン補正係数値CとしてΔnormの値をそのまま使用する。一方、ゲイン係数値αが1未満である場合にはK=0となり、ゲイン補正係数値Cとして(1−Δnorm)の値を使用することになる。ゲイン係数値αが1未満のときは、高周波画像の成分を抑制することになり、ノイズを抑える役目を果たす。この場合にゲイン係数値αが1以上であるときと同様にエッジと検出された画素のゲイン係数を保持すると、エッジを抑制することになり、画像全体がボケてしまう。したがって、その際は、エッジのゲイン係数を強めるのではなく、ノイズのゲイン係数を強めることが必要である。 Here, the detection correction coefficient K indicates a step function as shown in FIG. When the gain coefficient value α is 1 or more, K = 1, and the value of Δnorm is used as it is as the gain correction coefficient value C. On the other hand, when the gain coefficient value α is less than 1, K = 0, and the value of (1−Δ norm ) is used as the gain correction coefficient value C. When the gain coefficient value α is less than 1, the component of the high frequency image is suppressed, and the noise is suppressed. In this case, if the gain coefficient of a pixel detected as an edge is held in the same manner as when the gain coefficient value α is 1 or more, the edge is suppressed and the entire image is blurred. Therefore, in that case, it is necessary to increase the gain coefficient of noise, not the edge gain coefficient.

したがって、エッジ検出感度よりもノイズ検出感度を高めるために、エッジとして検出した結果を反転して使用しノイズのゲイン係数が大きくなるように設定する。それはゲイン係数αが1未満であるときにはノイズ検出方法として動作することになる。本実施形態では、正規化した値を特徴量として使用しているために、エッジ検出方法として出力した第1のエッジ情報である値とノイズ検出方法として出力した第2のエッジ情報である値とは1の補数の関係となる。図4(c)に示した例では、ゲイン係数αが1を閾値としたステップ関数になっているが、ステップ関数に限らず、連続的に切り替わる関数であってもよい(ステップ306)。   Therefore, in order to increase the noise detection sensitivity over the edge detection sensitivity, the result detected as the edge is inverted and used so that the noise gain coefficient is increased. When the gain coefficient α is less than 1, it operates as a noise detection method. In the present embodiment, since the normalized value is used as the feature amount, the value that is the first edge information output as the edge detection method and the value that is the second edge information output as the noise detection method Is a one's complement relationship. In the example shown in FIG. 4C, the gain function α is a step function with a threshold value of 1. However, the step function is not limited to a step function, and may be a function that switches continuously (step 306).

次に、ゲイン調整手段104は、ゲイン係数取得手段102により指定されたゲイン係数αと、ゲイン係数補正値算出手段103により算出されたゲイン係数補正値Cの値とを用いて、高周波画像を(式8)に基づき調整する(ステップ307)。以降のステップ308からステップ310までの処理は、第1の実施形態と同じ処理であるので、その説明は省略する。   Next, the gain adjustment unit 104 uses the gain coefficient α designated by the gain coefficient acquisition unit 102 and the gain coefficient correction value C calculated by the gain coefficient correction value calculation unit 103 to obtain a high frequency image ( An adjustment is made based on equation (8) (step 307). Since the subsequent processing from step 308 to step 310 is the same processing as in the first embodiment, the description thereof will be omitted.

第3の実施形態によれば、ノイズ成分を強調することなくエッジを強調する周波数強調処理が可能になり、ユーザの選定した周波数応答が維持されたままで、より強調効果を得られることができる。   According to the third embodiment, it is possible to perform frequency emphasis processing for emphasizing an edge without emphasizing a noise component, and a more emphasis effect can be obtained while the frequency response selected by the user is maintained.

(第4の実施形態)
次に、第4の実施形態について説明する。
第4の実施形態においては、複数のゲイン係数補正値の算出方法として同一の検出方法にて複数の出力結果を利用する第3の方法を示す。図1に示した構成図及び図3に示すフローチャートを参照して、第4の実施形態における画像処理を説明する。ステップ301からステップ304までの処理は、第1の実施形態と同じ処理であるので、その説明は省略する。
(Fourth embodiment)
Next, a fourth embodiment will be described.
In the fourth embodiment, a third method of using a plurality of output results by the same detection method as a method of calculating a plurality of gain coefficient correction values will be described. Image processing according to the fourth embodiment will be described with reference to the configuration diagram shown in FIG. 1 and the flowchart shown in FIG. Since the processing from step 301 to step 304 is the same as that in the first embodiment, description thereof is omitted.

ステップ305にて、ゲイン係数補正値算出手段103は、ゲイン係数取得手段102により指定されたゲイン係数αの値を用いてゲイン係数補正値を算出する方法を選択する。ゲイン係数を補正するとは、高周波画像のノイズ部分のみに選択的に抑制処理を行うために、ノイズ以外の画素のゲイン係数を弱めることである。よって、ゲイン係数補正値の算出方法とは、高周波画像のノイズ成分を検出し、その検出結果、すなわちノイズ情報に基づいてゲイン係数を補正する値を出力する方法である。本実施形態においては1つのノイズ検出方法に対し異なる検出感度をもったものが複数用意され、ゲイン係数に基づいて周波数帯域毎に選択される。   In step 305, the gain coefficient correction value calculation unit 103 selects a method for calculating the gain coefficient correction value using the gain coefficient α value designated by the gain coefficient acquisition unit 102. To correct the gain coefficient is to weaken the gain coefficient of pixels other than noise in order to selectively perform suppression processing only on the noise portion of the high-frequency image. Therefore, the gain coefficient correction value calculation method is a method of detecting a noise component of a high-frequency image and outputting a value for correcting the gain coefficient based on the detection result, that is, noise information. In the present embodiment, a plurality of methods having different detection sensitivities for one noise detection method are prepared, and are selected for each frequency band based on a gain coefficient.

図4(d)に異なるノイズ検出感度とゲイン係数との関係の例を示す。ノイズ検出方法として分散値を算出する方法を利用した場合について、検出感度を変更する例を示す。分散値を算出する方法を利用した場合のノイズ特徴量とは、画像上に局所的な領域を設定し、領域内の分散値とする。そして、領域内の平均値から以下のように理論的にノイズ量を計算する。X線画像上のランダムノイズは、一定の強さ“X”のX線量で照射した場合の特定する領域内での画素値変動量で表される。そして、X線量である“X”に起因する標準偏差σq(X)で画素値を変動させるランダム量子のノイズと、センサ及び周辺電気回路から受ける標準偏差σsで画素値変動させる電気的なノイズであるランダムシステムノイズとの2種類に分類される。この2種類のランダムノイズがX線画像上にランダムノイズとして加算されるので、理論的なノイズ量σ(X)は、(式10)、(式11)で表現できる。ここで変数Xは局所的な領域の平均値とする。 FIG. 4D shows an example of the relationship between different noise detection sensitivities and gain coefficients. An example in which the detection sensitivity is changed in the case where the method of calculating the variance value is used as the noise detection method will be described. With respect to the noise feature amount when the method for calculating the variance value is used, a local region is set on the image, and is used as the variance value in the region. Then, the amount of noise is theoretically calculated from the average value in the region as follows. Random noise on the X-ray image is represented by a pixel value fluctuation amount in a specified region when irradiation is performed with an X-ray dose having a constant intensity “X”. Then, random quantum noise that fluctuates the pixel value with the standard deviation σ q (X) caused by “X” that is the X-ray dose, and electrical that fluctuates the pixel value with the standard deviation σ s received from the sensor and the peripheral electric circuit. Random system noise, which is noise, is classified into two types. Since these two types of random noise are added as random noise on the X-ray image, the theoretical noise amount σ (X) can be expressed by (Expression 10) and (Expression 11). Here, the variable X is an average value of the local region.

Figure 0006121013
Figure 0006121013

ここで、標準偏差σq(X)は、平均値Xに依存して(式10)に従って変化するが、標準偏差σsは、電気的な熱雑音であってX線強度には依存しない一定値である。(式11)においてKqは、X線強度からノイズ量を計算する際の変換係数である。(式12)に示すように、局所的な領域内の分散値σimgが理論的なノイズ量σ(X)以下である画素に関してはノイズとして検出し、ノイズの抑制処理を行うためにゲイン係数補正値Cを1とする。一方、局所的な領域内の分散値σimgが理論的なノイズ量σ(X)以上である画素に関してはエッジとして検出し、ノイズ抑制処理を行わないためにゲイン係数補正値Cを0とする。この比較をする際に理論的なノイズ量に検出感度SDを乗ずる。 Here, the standard deviation σ q (X) changes according to (Equation 10) depending on the average value X, but the standard deviation σ s is an electrical thermal noise and is constant regardless of the X-ray intensity. Value. In (Expression 11), K q is a conversion coefficient when calculating the noise amount from the X-ray intensity. As shown in (Equation 12), a pixel whose variance value σ img in the local region is less than or equal to the theoretical noise amount σ (X) is detected as noise, and a gain coefficient is used to perform noise suppression processing. The correction value C is 1. On the other hand, a pixel whose variance value σ img in the local region is equal to or greater than the theoretical noise amount σ (X) is detected as an edge, and the gain coefficient correction value C is set to 0 in order to prevent noise suppression processing. . When making this comparison, the detection sensitivity S D is multiplied by the theoretical noise amount.

Figure 0006121013
Figure 0006121013

検出感度SDは、ゲイン係数αの関数であり、図4(d)に示したような関係を示す。ゲイン係数αが小さい値である場合には検出感度を大きくする。ゲイン係数αが小さく設定されている場合にはノイズが支配的な周波数帯域であるためにノイズの抽出の漏れを防ぐ。ゲイン係数αが大きい値の場合には、所定の検出感度SDにて処理をする。もしくは検出感度SDよりも小さな値にし、ノイズの過度な抽出を防いでもよい(ステップ306)。 The detection sensitivity S D is a function of the gain coefficient α and has a relationship as shown in FIG. When the gain coefficient α is a small value, the detection sensitivity is increased. When the gain coefficient α is set to a small value, noise is a dominant frequency band, and thus leakage of noise extraction is prevented. When the gain coefficient α is a large value, processing is performed with a predetermined detection sensitivity SD . Alternatively, a value smaller than the detection sensitivity SD may be used to prevent excessive noise extraction (step 306).

次に、ゲイン調整手段104は、ゲイン係数取得手段102により指定されたゲイン係数αと、ゲイン係数補正値算出手段103により算出されたゲイン係数補正値Cの値とを用いて、高周波画像を(式8)に基づき調整する(ステップ307)。以降のステップ308からステップ310までの処理は、第1の実施形態と同じ処理であるので、その説明は省略する。   Next, the gain adjustment unit 104 uses the gain coefficient α designated by the gain coefficient acquisition unit 102 and the gain coefficient correction value C calculated by the gain coefficient correction value calculation unit 103 to obtain a high frequency image ( An adjustment is made based on equation (8) (step 307). Since the subsequent processing from step 308 to step 310 is the same processing as in the first embodiment, the description thereof will be omitted.

第4の実施形態によれば、ノイズ成分を強調することなくエッジを強調する周波数強調処理が可能になり、ユーザの選定した周波数応答が維持されたままで、より強調効果を得られることができる。   According to the fourth embodiment, it is possible to perform frequency emphasis processing for emphasizing an edge without emphasizing a noise component, and a more emphasis effect can be obtained while the frequency response selected by the user is maintained.

(本発明の他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、前述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other embodiments of the present invention)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

なお、前記実施形態は、何れも本発明を実施するにあたっての具体化のほんの一例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。   The above-described embodiments are merely examples of implementation in carrying out the present invention, and the technical scope of the present invention should not be construed as being limited thereto. That is, the present invention can be implemented in various forms without departing from the technical idea or the main features thereof.

101 周波成分作成手段、102 ゲイン係数取得手段、103 ゲイン係数補正値算出手段、104 ゲイン調整手段、105 処理画像作成手段 101 frequency component creation means, 102 gain coefficient acquisition means, 103 gain coefficient correction value calculation means, 104 gain adjustment means, 105 processed image creation means

Claims (11)

原画像から複数の周波数成分の画像を生成する周波成分生成手段と、
前記複数の周波数成分の画像の少なくとも一つのゲイン補正を行うためのゲイン係数を取得する係数取得手段と、
前記ゲイン係数に基づいてエッジ検出方法を選択し、前記複数の周波数成分の画像の少なくとも一つのエッジ情報を検出する検出手段と、
前記エッジ情報に基づき、前記ゲイン係数を調整する調整手段と、
前記調整手段により前記ゲイン係数が調整された前記複数の周波数成分の画像の少なくとも一つに基づき、画像を生成する画像生成手段とを備えることを特徴とする画像処理装置。
Frequency component generation means for generating an image of a plurality of frequency components from the original image;
Coefficient acquisition means for acquiring a gain coefficient for performing at least one gain correction of the images of the plurality of frequency components;
Detecting means for selecting an edge detection method based on the gain coefficient and detecting at least one edge information of the images of the plurality of frequency components;
Adjusting means for adjusting the gain coefficient based on the edge information;
An image processing apparatus comprising: an image generation unit configured to generate an image based on at least one of the plurality of frequency component images whose gain coefficients have been adjusted by the adjustment unit.
前記調整手段は、前記エッジ情報に基づき前記ゲイン係数を補正し、前記ゲイン係数を調整することを特徴とする請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the adjustment unit corrects the gain coefficient based on the edge information and adjusts the gain coefficient. 前記検出手段は、前記ゲイン係数に基づくエッジ検出感度で、前記複数の周波数成分の画像の少なくとも一つのエッジ情報を検出することを特徴とする請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the detection unit detects at least one edge information of the images of the plurality of frequency components with edge detection sensitivity based on the gain coefficient. 前記検出手段は、前記ゲイン係数の値が1未満であるときには、エッジ検出感度がノイズ検出感度よりも小さくなるエッジ情報を、前記複数の周波数成分の画像の少なくとも一つから検出することを特徴とする請求項1記載の画像処理装置。   When the gain coefficient value is less than 1, the detection means detects edge information whose edge detection sensitivity is lower than noise detection sensitivity from at least one of the plurality of frequency component images. The image processing apparatus according to claim 1. 前記調整手段は、第1のエッジ情報により補正された前記ゲイン係数と第2のエッジ情報により補正された前記ゲイン係数とが1の補数の関係を有することを特徴とする請求項2記載の画像処理装置。   3. The image according to claim 2, wherein the adjustment means has a one's complement relationship between the gain coefficient corrected by the first edge information and the gain coefficient corrected by the second edge information. Processing equipment. 前記検出手段は、前記ゲイン係数に基づくエッジ特徴量の基準値で、前記複数の周波数成分の画像の少なくとも一つのエッジ情報を検出することを特徴とする請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the detection unit detects at least one edge information of the images of the plurality of frequency components with a reference value of an edge feature amount based on the gain coefficient. 前記検出手段は、複数の前記エッジ検出方法の内から、前記複数の周波数成分の画像毎に、前記ゲイン係数に基づいてエッジ検出方法を選択することを特徴とする請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the detection unit selects an edge detection method based on the gain coefficient for each of the plurality of frequency component images from among the plurality of edge detection methods. . 前記複数のエッジ検出方法は、ノイズ耐性の異なる複数のエッジ検出方法を含むことを特徴とする請求項記載の画像処理装置。 The image processing apparatus according to claim 7, wherein the plurality of edge detection methods include a plurality of edge detection methods having different noise tolerances. 前記検出手段は、前記ゲイン係数の値が小さいほどノイズ耐性の強いエッジ検出方法を選択することを特徴とする請求項記載の画像処理装置。 The image processing apparatus according to claim 8 , wherein the detection unit selects an edge detection method having higher noise resistance as the gain coefficient value is smaller. 原画像から複数の周波数成分の画像を生成する周波成分生成工程と、
前記周波数成分の画像の少なくとも一つのゲイン補正を行うためのゲイン係数を取得する係数取得工程と、
前記ゲイン係数に基づいてエッジ検出方法を選択し、前記複数の周波数成分の画像の少なくとも一つのエッジ情報を検出する検出工程と、
前記エッジ情報に基づき、前記ゲイン係数を調整する調整工程と、
前記調整工程にて前記ゲイン係数が調整された前記複数の周波数成分の画像の少なくとも一つに基づき、画像を生成する画像生成工程とを有することを特徴とする画像処理方法。
A frequency component generation step of generating an image of a plurality of frequency components from the original image;
A coefficient acquisition step of acquiring a gain coefficient for performing at least one gain correction of the image of the frequency component;
A detection step of selecting an edge detection method based on the gain coefficient and detecting at least one edge information of the images of the plurality of frequency components;
An adjustment step of adjusting the gain coefficient based on the edge information;
And an image generation step of generating an image based on at least one of the images of the plurality of frequency components, the gain coefficient of which has been adjusted in the adjustment step.
原画像から複数の周波数成分の画像を生成する周波成分生成ステップと、
前記複数の周波数成分の画像の少なくとも一つのゲイン補正を行うためのゲイン係数を取得する係数取得ステップと、
前記ゲイン係数に基づいてエッジ検出方法を選択し、前記複数の周波数成分の画像の少なくとも一つのエッジ情報を検出する検出ステップと、
前記エッジ情報に基づき、前記ゲイン係数を調整する調整ステップと、
前記調整ステップにて前記ゲイン係数が調整された前記複数の周波数成分の画像の少なくとも一つに基づき、画像を生成する画像生成ステップとをコンピュータに実行させるためのコンピュータプログラム。
A frequency component generation step for generating an image of a plurality of frequency components from the original image;
A coefficient acquisition step of acquiring a gain coefficient for performing at least one gain correction of the images of the plurality of frequency components;
A detection step of selecting an edge detection method based on the gain coefficient and detecting at least one edge information of the images of the plurality of frequency components;
An adjustment step of adjusting the gain coefficient based on the edge information;
A computer program for causing a computer to execute an image generation step of generating an image based on at least one of the images of the plurality of frequency components in which the gain coefficient is adjusted in the adjustment step.
JP2016028215A 2016-02-17 2016-02-17 Image processing apparatus and image processing method Expired - Fee Related JP6121013B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016028215A JP6121013B2 (en) 2016-02-17 2016-02-17 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016028215A JP6121013B2 (en) 2016-02-17 2016-02-17 Image processing apparatus and image processing method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2012020223A Division JP5889013B2 (en) 2012-02-01 2012-02-01 Image processing apparatus and image processing method

Publications (2)

Publication Number Publication Date
JP2016085764A JP2016085764A (en) 2016-05-19
JP6121013B2 true JP6121013B2 (en) 2017-04-26

Family

ID=55971839

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016028215A Expired - Fee Related JP6121013B2 (en) 2016-02-17 2016-02-17 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP6121013B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6817104B2 (en) * 2016-10-24 2021-01-20 株式会社デンソーテン Adhesion detection device, deposit detection method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3669455B2 (en) * 1996-03-15 2005-07-06 富士写真フイルム株式会社 Image processing method and image processing apparatus
JP4156419B2 (en) * 2003-03-25 2008-09-24 富士フイルム株式会社 Image processing method, apparatus, and program
JP4632685B2 (en) * 2004-04-12 2011-02-16 株式会社東芝 Ultrasonic diagnostic apparatus and image data processing apparatus
JP2006323045A (en) * 2005-05-18 2006-11-30 Seiko Epson Corp Image processing method, and image display device and projector using method

Also Published As

Publication number Publication date
JP2016085764A (en) 2016-05-19

Similar Documents

Publication Publication Date Title
JP5889013B2 (en) Image processing apparatus and image processing method
US20170323430A1 (en) Image processing apparatus and image processing method
US7792384B2 (en) Image processing apparatus, image processing method, program, and recording medium therefor
KR101558653B1 (en) System and method for improving quality in images using neural network
US9418417B2 (en) Image processing apparatus, tomography apparatus, image processing method, and storage medium
JP2014045488A (en) Method for substantially removing dot noise and image processing system
CN108765312B (en) Image denoising method based on variance information
US7555169B2 (en) Method and a device for reducing image noises
JP6121013B2 (en) Image processing apparatus and image processing method
JP2016086347A (en) Image processing system, image processing method and program
US10755389B2 (en) Image processing apparatus, image processing method, and medium
JP6548403B2 (en) IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND PROGRAM
JP2015173923A (en) Image processing device, image processing method, and program
US9165350B2 (en) Image sharpening method and image processing device
US11823441B2 (en) Machine learning apparatus, machine learning method, and non-transitory computer-readable storage medium
JP4072491B2 (en) Image processing apparatus, image processing method, program, and computer-readable medium
US9031302B2 (en) Image processing apparatus configured to change a parameter determined based on user input so that an amplitude response of a processed image with respect to an original image is to be zero or more and related image processing method
US8792747B2 (en) Image processing method and device, and medical imaging instrument
JP7409606B2 (en) Image processing device, image processing method and program
WO2015052890A1 (en) X-ray image processing device and method, x-ray imaging device, and program
JP2006251850A (en) Image processing system, image processing method, program for image processing method, and recording medium recording the same program
JP6250988B2 (en) Image processing method and apparatus
JP7409607B2 (en) Image processing device, image processing method and program
CN113570526A (en) Gamma curve generation method, device, equipment and medium
JP2012212229A (en) Image processing device and image processing method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160317

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160317

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170228

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170328

R151 Written notification of patent or utility model registration

Ref document number: 6121013

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees