JP2012059118A - Noise removal device, and method and program therefor - Google Patents

Noise removal device, and method and program therefor Download PDF

Info

Publication number
JP2012059118A
JP2012059118A JP2010203077A JP2010203077A JP2012059118A JP 2012059118 A JP2012059118 A JP 2012059118A JP 2010203077 A JP2010203077 A JP 2010203077A JP 2010203077 A JP2010203077 A JP 2010203077A JP 2012059118 A JP2012059118 A JP 2012059118A
Authority
JP
Japan
Prior art keywords
noise
frequency information
learning
training
filter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010203077A
Other languages
Japanese (ja)
Other versions
JP5594665B2 (en
Inventor
Akiya Minamoto
晃弥 皆本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Saga University NUC
Original Assignee
Saga University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Saga University NUC filed Critical Saga University NUC
Priority to JP2010203077A priority Critical patent/JP5594665B2/en
Publication of JP2012059118A publication Critical patent/JP2012059118A/en
Application granted granted Critical
Publication of JP5594665B2 publication Critical patent/JP5594665B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Picture Signal Circuits (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a new technique of accurate noise removal by wavelets using a dyadic lifting scheme while preserving edges.SOLUTION: A noise removal device comprises: a training image information unit 21 that stores noiseless training image information and noisy training image information obtained by adding, for each of one or plural kinds of noise, the noise to the noiseless training image information; a learning area cutout unit 22 that associates the noiseless training image information with the noisy training image information, and cuts out any learning areas for each kind of noise from the respective pieces of training image information; a filter generation unit 23 that generates a filter that has learned to eliminate a difference between both of the cutout learning areas; and a noise removal unit 25 that applies the generated filter to a noise image 26 to be a target of noise removal for each learning area to remove noises of the noise image 26.

Description

本発明は、デジタル画像から様々なノイズを除去するノイズ除去装置等に関する。   The present invention relates to a noise removing device for removing various noises from a digital image.

デジタル画像処理は、ウェブカメラや携帯電話のカメラ等を含むデジタルカメラの有用性によって、ここ10年で著しく発達している。これらの機器に保存されたデジタル画像は、劣悪な条件(例えば、照明が暗い中)で撮像される場合があり、その結果として様々なタイプのノイズが混入する。そこで、優れた画像の修復手法が必要とされる。   Digital image processing has developed significantly over the last decade due to the usefulness of digital cameras, including webcams and mobile phone cameras. Digital images stored in these devices may be imaged under poor conditions (eg, in dark lighting), resulting in various types of noise. Therefore, an excellent image restoration technique is required.

画像のノイズを低減する加重平均やメディアンフィルタのような空間領域フィルタが既に使用されている。特に、過去数十年間にわたって偏微分方程式(PDEs)に基づく手法は、画像のエッジを保持しながらのノイズを除去する技術で広く利用されてきた。これらの手法は、非線形拡散問題、又はエネルギー汎関数最小化問題に対する変分法的なアプローチに基づいている(非特許文献1を参照)。これら以外にもベイズ理論の意味で最適な最小平均2乗推定(minimum mean square estimation:MMSE)に基づくノイズ除去法がある(非特許文献7を参照)。   Spatial domain filters such as weighted average and median filters that reduce image noise are already used. In particular, over the past several decades, methods based on partial differential equations (PDEs) have been widely used in techniques for removing noise while preserving image edges. These methods are based on a variational approach to the nonlinear diffusion problem or the energy functional minimization problem (see Non-Patent Document 1). In addition to these methods, there is a noise removal method based on minimum mean square estimation (MMSE) that is optimal in the Bayesian sense (see Non-Patent Document 7).

空間領域フィルタに代わる1つのアプローチとして、周波数領域が利用されてきた。特に、ウェーブレット変換は画像処理でよく使われてきた。Donohoは、soft-threshold法を提案している。この方法は、ある閾値以下のウェーブレット係数が徐々に0まで減少する(非特許文献3を参照)。この手法はダウンサンプリング型のウェーブレット変換に基づいており、スケールと平行移動パラメータの両方をサンプリングしている。しかしながら、ダウンサンプリング型のウェーブレット変換はシフト不変ではなく、エッジ検出、特徴抽出、ノイズ除去等の処理を実行したときに、失敗する傾向にある。対照的に、ダイアディックウェーブレット変換(2進ウェーブレット)は、連続ウェーブレット変換のスケールパラメータのみをサンプリングすることで、シフト不変に維持されているため、シフト不変型のウェーブレット変換となる。例えば、Mallatは、二次のスプラインダイアディックウェーブレットを用いた離散ダイアディックウェーブレット変換を使用してエッジ抽出を行った(非特許文献5、6を参照)。   As an alternative to the spatial domain filter, the frequency domain has been used. In particular, the wavelet transform has been often used in image processing. Donoho has proposed a soft-threshold method. In this method, the wavelet coefficient below a certain threshold gradually decreases to 0 (see Non-Patent Document 3). This method is based on a downsampling wavelet transform and samples both the scale and translation parameters. However, the downsampling wavelet transform is not shift-invariant and tends to fail when processing such as edge detection, feature extraction, and noise removal is executed. In contrast, the dyadic wavelet transform (binary wavelet) is a shift-invariant wavelet transform because only the scale parameter of the continuous wavelet transform is sampled to maintain the shift-invariant. For example, Mallat performed edge extraction using discrete dyadic wavelet transform using quadratic spline dyadic wavelets (see Non-Patent Documents 5 and 6).

一般的に、ノイズ除去アルゴリズムは、ノイズ除去と画像・信号構造の保持とのトレードオフのバランスを取らなければならない。そのため、近年エッジを保持するアルゴリズムの研究が多くなされてきた。標準的なアルゴリズムは、非線形拡散かウェーブレットに基づいている(非特許文献1、4を参照)。ところが、近年の高度の提案手法に関わらず、ほとんどのアルゴリズムは、まだ望ましいレベルに達しておらず適用範囲も狭い。そのため、効果的な画像ノイズ除去法の決定版というものは存在しない。   In general, the noise removal algorithm must balance the trade-off between noise removal and image / signal structure preservation. For this reason, in recent years, much research has been conducted on algorithms for retaining edges. Standard algorithms are based on non-linear diffusion or wavelets (see Non-Patent Documents 1 and 4). However, regardless of the advanced proposal methods in recent years, most algorithms have not yet reached the desired level and their application range is narrow. For this reason, there is no definitive version of an effective image noise removal method.

このような状況下で、多くのウェーブレットに基づくノイズ除去手法が提案された(非特許文献2、4、8−10、12を参照)。いくつかの効果的な手法は、例えば非特許文献9のBLS−GSM法のように、ウェーブレット領域あるいはベイズ理論に基づく統計モデルにおいて空間やスケールの依存性を考慮している。これらの手法は、信号数の統計量を単純化して扱いやすくするために、ダウンサンプリング型の離散ウェーブレット変換を使用している。   Under such circumstances, many wavelet-based noise removal methods have been proposed (see Non-Patent Documents 2, 4, 8-10, and 12). Some effective methods consider the dependence of space and scale in a statistical model based on the wavelet domain or Bayesian theory, such as the BLS-GSM method of Non-Patent Document 9. These techniques use a down-sampling discrete wavelet transform to simplify the statistic of the number of signals and make it easier to handle.

一方、非特許文献4、12に示すような、ダイアディックウェーブレット変換を使った手法はまれである。一般的に、ダイアディックウェーブレット変換は、平行移動パラメータをサンプリングしないため、非常に冗長な画像信号を作り出す。それゆえ、変換を繰り
返しても信号数の統計量は単純化されない。しかしながら、ダイアディックウェーブレット変換はシフト不変であるため、ノイズ除去法として適用できる。
On the other hand, techniques using the dyadic wavelet transform as shown in Non-Patent Documents 4 and 12 are rare. In general, the dyadic wavelet transform does not sample the translation parameter and thus produces a very redundant image signal. Therefore, even if the conversion is repeated, the statistic of the number of signals is not simplified. However, since the dyadic wavelet transform is shift invariant, it can be applied as a noise removal method.

つい最近、Sweldensのリフティングスキーム(非特許文献11を参照)を拡張したダイアディックリフティングスキームが提案された(非特許文献12を参照)。Sweldensのリフティングスキームは、ダウンサンプリング型のウェーブレットの特性を改良するために双直交ウェーブレットフィルタの集合から新しい双直交ウェーブレットフィルタを作成する。これらのスキームは、制御可能な自由変数をもつ双直交のリフティングウェーブレット変換を使用する。ダイアディックリフティングスキームは、ダイアディックウェーブレットから新しいウェーブレットフィルタを作り出す。   More recently, a dyadic lifting scheme that extends the Swelldens lifting scheme (see Non-Patent Document 11) has been proposed (see Non-Patent Document 12). The Swelldens lifting scheme creates a new bi-orthogonal wavelet filter from a set of bi-orthogonal wavelet filters to improve the characteristics of the downsampling wavelet. These schemes use a bi-orthogonal lifting wavelet transform with controllable free variables. The dyadic lifting scheme creates a new wavelet filter from a dyadic wavelet.

Turukiらは、好ましい数のバニシングモーメントを持つように、ダイアディックリフティングスキームに現われる自由変数を決定した(非特許文献12を参照)。この方法を、以下ではVM手法と呼ぶことにする。彼らは、デジタル画像のノイズ除去のために、より大きい数のバニシングモーメントを持つスプラインダイアディックウェーブレットフィルタを設計し、この手法の有効性を示した。しかしながら、彼らはエッジの保持については全く触れていない。   Turuki et al. Determined the free variables that appear in the dyadic lifting scheme to have a favorable number of burnishing moments (see Non-Patent Document 12). Hereinafter, this method is referred to as a VM method. They designed a spline dyadic wavelet filter with a larger number of burnishing moments for digital image denoising and demonstrated the effectiveness of this approach. However, they are silent about edge retention.

また、各非特許文献に比べて、より高精度にノイズ画像からノイズを除去する技術として、複数のノイズ画像を用いてリフティングダイアディックウェーブレットを行い、トレーニング画像をダイアディックウェーブレット変換した高周波成分とノイズ画像のリフティングウェーブレットの高周波成分の差がなくなるように自由変数を定め、この自由変数に基づいて新たな高周波フィルタを作成してノイズを除去する技術が、発明者により非特許文献13に開示されている。   In addition, as a technique for removing noise from noise images with higher accuracy than each non-patent document, lifting dyadic wavelets are performed using a plurality of noise images, and high frequency components and noise obtained by dyadic wavelet transform of training images are used. Non-Patent Document 13 discloses a technique for determining a free variable so as to eliminate a difference in high-frequency components of a lifting wavelet of an image and creating a new high-frequency filter based on the free variable to remove noise. Yes.

Aubert, G. and Kornprobst, P.: Mathermatical problems in image processing - Partial differential equations and the calculus of variations, Springer, 2nd edition, 2006.Aubert, G. and Kornprobst, P .: Mathermatical problems in image processing-Partial differential equations and the calculus of variations, Springer, 2nd edition, 2006. Cho, D.: Image Denoising Using Wavelet Transforms, VDM Verlag, 2008.Cho, D .: Image Denoising Using Wavelet Transforms, VDM Verlag, 2008. Donoho, D.L.: De-noising by soft-thresholding, IDEE Trans. Inform. Theory, Vol.41, No.3, pp.613-627, 1995.Donoho, D.L .: De-noising by soft-thresholding, IDEE Trans.Inform.Theory, Vol.41, No.3, pp.613-627, 1995. Lazzaro, D. and Montefusco, L.B.: Edge-preserving wavelet thresholding for image denoising, J. Comput. Appl. Math., Vol.210, pp.222-231, 2007.Lazzaro, D. and Montefusco, L.B .: Edge-preserving wavelet thresholding for image denoising, J. Comput.Appl. Math., Vol.210, pp.222-231, 2007. Mallat, S.: A wavelet tour of signal processing, Academic press, 1998.Mallat, S .: A wavelet tour of signal processing, Academic press, 1998. Mallat, S. and Zhong, S.: Characterization of signals from multiscale edges, IEEE Trans. Pattern Anal. Mach. Intell., Vol.14, No.7, pp.710-732, 1992.Mallat, S. and Zhong, S .: Characterization of signals from multiscale edges, IEEE Trans.Pattern Anal.Mach.Intell., Vol.14, No.7, pp.710-732, 1992. Papari, G., Petkov, P.C. and Neri, A.: Contour detection by multiresolution sur-round inhibition, Proc. Int. Conf. on Image Processing ICIP 2006, Atlanta, Georgia, pp.749-752, 2006.Papari, G., Petkov, P.C. and Neri, A .: Contour detection by multiresolution sur-round inhibition, Proc. Int. Conf. On Image Processing ICIP 2006, Atlanta, Georgia, pp.749-752, 2006. Portilla, J.: Blind Non-White Noise Removal in Images using Gaussian Scale Mixtures in the Wavelet Domain, Proc. 4th IEEE Benelux Signal Proc. Symposium, Hilvarenbeek, The Netherlands, pp.17-20, 2004.Portilla, J .: Blind Non-White Noise Removal in Images using Gaussian Scale Mixtures in the Wavelet Domain, Proc. 4th IEEE Benelux Signal Proc.Symposium, Hilvarenbeek, The Netherlands, pp. 17-20, 2004. Portilla, J.: Full Blind Denoising through Noise Covariance Estimation using Gaussian Scale Mixtures in the Wavelet Domain, 10th IEEE Int'l Conf on Image Processing, Singapore, pp.1217-1220, 2004.Portilla, J .: Full Blind Denoising through Noise Covariance Estimation using Gaussian Scale Mixtures in the Wavelet Domain, 10th IEEE Int'l Conf on Image Processing, Singapore, pp. 1217-1220, 2004. Portilla, J., Strela, V., Wainwright, M. and Simoncelli, E.: Image Denoising using Scale Mixtures of Gaussians in the Wavelet Domain, IEEE transactions on Image Processing, Vol.12, No.11, pp.1338-1351, 2003.Portilla, J., Strela, V., Wainwright, M. and Simoncelli, E .: Image Denoising using Scale Mixtures of Gaussians in the Wavelet Domain, IEEE transactions on Image Processing, Vol.12, No.11, pp.1338- 1351, 2003. Sweldens, W.: The lifting scheme: A construction of second generation wavelets, SIAM J. Math. Anal., Vol.29, No.2, pp.511-546, 1997.Sweldens, W .: The lifting scheme: A construction of second generation wavelets, SIAM J. Math. Anal., Vol.29, No.2, pp.511-546, 1997. Turuki, T.A., Niijima, M.H.K. and Takano, S.: The dyadic lifting schemes and the denoising of digital images, International Journal of Wavelets, Vo1.6, No.3, pp.331-351, 2008.Turuki, T.A., Niijima, M.H.K. and Takano, S .: The dyadic lifting schemes and the denoising of digital images, International Journal of Wavelets, Vo1.6, No.3, pp.331-351, 2008. 鶴田圭佑,皆本晃弥,”Dyadic Lifting Schemeを利用したデジタル画像のノイズ除去”,可視化情報学会全国講演会(米沢2009)講演論文集、99−100、2009年10月24日Satoshi Tsuruta, Shinya Minamoto, “Noise Removal of Digital Images Using Dyadic Lifting Scheme”, Proceedings of the National Institute of Visualization Information Society (Yonezawa 2009), 99-100, October 24, 2009

しかしながら、非特許文献13に示す技術は、トレーニング画像の高周波成分とノイズ画像の高周波成分との差をなくすように自由変数を定めることが示唆されているが、その具体的な手法が何ら記載されておらず、単にトレーニング画像の高周波成分とノイズ画像の高周波成分とを比較して、それぞれが同じ高周波成分となるように処理することが示されているにすぎない。   However, although it is suggested that the technique shown in Non-Patent Document 13 determines a free variable so as to eliminate the difference between the high-frequency component of the training image and the high-frequency component of the noise image, no specific method is described. However, it merely shows that the high-frequency component of the training image and the high-frequency component of the noise image are compared and processed so as to have the same high-frequency component.

本発明は、非特許文献4に提案されたエッジを保持する方法を利用し、ダイアディックリフティングスキームを利用したウェーブレットによるノイズ除去の新しい手法を提供する。VM手法と異なり、非特許文献12に示された手法を使用しない。また、ノイズ画像の高周波成分がオリジナル画像に近づくように、ダイアディックリフティングスキームの適切な自由変数を決定する。具体的には、連立一次方程式を解くことで、ノイズがないトレーニングパターンの高周波成分と同じになるように自由変数を決定する。   The present invention uses a method for retaining edges proposed in Non-Patent Document 4 and provides a new technique for noise removal by wavelets using a dyadic lifting scheme. Unlike the VM method, the method shown in Non-Patent Document 12 is not used. Further, an appropriate free variable of the dyadic lifting scheme is determined so that the high frequency component of the noise image approaches the original image. Specifically, the free variable is determined so as to be the same as the high frequency component of the training pattern without noise by solving the simultaneous linear equations.

本願に開示するノイズ除去装置は、ノイズが含まれていないノイズなしトレーニング周波数情報と、当該ノイズなしトレーニング周波数情報に、一又は複数種類のノイズごとに当該ノイズを含ませたノイズありトレーニング周波数情報とを記憶するトレーニング周波数情報記憶手段と、前記ノイズなしトレーニング周波数情報と前記ノイズありトレーニング周波数情報とを対応付けて、それぞれのトレーニング周波数情報からノイズの種類ごとに任意の学習領域を切り出す学習領域切出手段と、前記学習領域切出手段が切り出した前記ノイズなしトレーニング周波数情報の学習領域と前記ノイズありトレーニング周波数情報の学習領域との差分を無くすように学習したフィルタを生成するフィルタ生成手段と、ノイズの除去を行う対象となる処理対象周波数情報に対して、前記学習領域切出手段が切り出した学習領域ごとに、前記フィルタ生成手段が生成したフィルタを適用させて前記処理対象周波数情報のノイズの除去を行うノイズ除去手段とを備えるものである。   The noise removal device disclosed in the present application includes noise-free training frequency information that does not include noise, and noise-free training frequency information in which the noise is included for each one or more types of noise in the noise-free training frequency information. Training frequency information storage means for storing the training frequency information and the training frequency information with no noise and the training frequency information with noise are associated with each other, and a learning region is extracted from each training frequency information for each type of noise. And a filter generating means for generating a filter that learns so as to eliminate a difference between the learning area of the training frequency information without noise and the learning area of the training frequency information with noise cut out by the learning area cutting out means, and noise To be removed Noise removing means for removing noise from the processing target frequency information by applying the filter generated by the filter generating means to each learning region cut out by the learning region cutting out means for the target frequency information. It is to be prepared.

このように、本願に開示するノイズ除去装置においては、ノイズを含むトレーニング周波数情報とノイズを含まないトレーニング周波数情報とを対応付けて任意の学習領域を切り出し、その学習領域ごとに、ノイズを含むトレーニング周波数情報とノイズを含まないトレーニング周波数情報との差がなくなるように学習したフィルタを生成し、切り出した学習領域ごとに、生成されたフィルタを適用することで、処理対象周波数情報のノイズを除去するため、予め学習した様々な種類のノイズを除去することができると共に、学習領域ごとにフィルタを作成するため、どのような画像であっても、その領域ごとに特徴を保持したままノイズを除去することができるという効果を奏する。   Thus, in the noise removal device disclosed in the present application, training frequency information including noise and training frequency information not including noise are associated with each other to cut out an arbitrary learning region, and training including noise is performed for each learning region. Generates a filter learned so that there is no difference between frequency information and training frequency information that does not contain noise, and applies the generated filter to each extracted learning region to remove noise in the processing target frequency information Therefore, it is possible to remove various types of noise learned in advance, and to create a filter for each learning area, so that noise can be removed while maintaining the characteristics for each area in any image. There is an effect that can be.

本願に開示するノイズ除去装置は、前記周波数情報が、音声情報又は画像情報であるものである。
このように、本願に開示するノイズ除去装置においては、周波数情報が、音声情報又は画像情報であるため、音声情報の場合には雑音の除去、画像情報の場合にはホワイトノイズ、ISOノイズ、ごま塩ノイズ、輝度やコントラストの不具合等の画像の乱れを除去して、鮮明な音声情報や画像情報を得ることができるという効果を奏する。
In the noise removing device disclosed in the present application, the frequency information is audio information or image information.
Thus, in the noise removal device disclosed in the present application, since the frequency information is audio information or image information, noise is removed in the case of audio information, white noise, ISO noise, sesame salt in the case of image information. There is an effect that clear audio information and image information can be obtained by removing image disturbances such as noise, luminance and contrast defects.

本願に開示するノイズ除去装置は、前記周波数情報が画像情報であり、前記フィルタ生成手段が、シフト不変のウェーブレット変換により縦方向、横方向、及び斜め方向の高周波成分に基づいて、前記ノイズなしトレーニング周波数情報の学習領域と前記ノイズありトレーニング周波数情報の学習領域との差分を無くすように学習するものである。   In the noise removal device disclosed in the present application, the frequency information is image information, and the filter generation unit performs the noiseless training based on high-frequency components in the vertical direction, the horizontal direction, and the diagonal direction by shift-invariant wavelet transform. Learning is performed so as to eliminate the difference between the learning region of frequency information and the learning region of the training frequency information with noise.

このように、本願に開示するノイズ除去装置においては、画像情報のノイズを除去する場合に、シフト不変のウェーブレット変換により画像情報における縦方向、横方向の高周波成分だけでなく、斜め方向の高周波成分にも基づいて学習を行うので、より高機能なノイズ除去のフィルタを生成することができるという効果を奏する。   Thus, in the noise removal device disclosed in the present application, when removing noise of image information, not only vertical and horizontal high-frequency components in image information but also oblique high-frequency components in image information by shift-invariant wavelet transform. Since learning is also performed based on the above, it is possible to generate a more sophisticated noise removal filter.

本願に開示するノイズ除去装置は、前記学習領域切出手段が、予め設定された所定のサイズの切出領域で前記ノイズなしトレーニング周波数情報と前記ノイズありトレーニング周波数情報とを対応付け、前記切出領域の高周波成分の特徴に応じて切り出す学習領域を決定するものである。   In the noise removing device disclosed in the present application, the learning area cutting means associates the training frequency information without noise and the training frequency information with noise in a cutting area of a predetermined size set in advance, and The learning area to be cut out is determined according to the characteristics of the high frequency component of the area.

このように、本願に開示するノイズ除去装置においては、予め設定された所定の画素サイズの切出領域でノイズなしトレーニング周波数情報とノイズありトレーニング周波数情報とを対応付け、切出領域の高周波成分の特徴に応じて切り出す学習領域を決定するため、特徴に応じて学習領域が決定され、様々な特徴を有する処理対象周波数に対してノイズ除去を行うことが可能になるという効果を奏する。例えば、特徴の例として、画像情報の場合、髪の毛が流れている方向に注目したときは、縦方向に流れている領域、横方向に流れている領域、右斜方向に流れている領域、左斜方向に流れている領域をそれぞれ各学習領域として決定するようにしてもよく、音声情報の場合は、高音領域、低音領域をそれぞれ各学習領域として決定するようにしてもよい。   As described above, in the noise removal device disclosed in the present application, the training frequency information with no noise and the training frequency information with noise are associated with each other in a cut-out area having a predetermined pixel size set in advance, and the high-frequency component of the cut-out area is Since the learning region to be cut out is determined according to the feature, the learning region is determined according to the feature, and it is possible to perform noise removal on the processing target frequency having various features. For example, in the case of image information as an example of features, when attention is paid to the direction in which the hair is flowing, the region flowing in the vertical direction, the region flowing in the horizontal direction, the region flowing in the right oblique direction, the left A region flowing in the oblique direction may be determined as each learning region, and in the case of speech information, a high sound region and a low sound region may be determined as each learning region.

本願に開示するノイズ除去装置は、前記ノイズ除去手段が、前記学習領域切出手段で切り出された学習領域の高周波成分と前記処理対象周波数情報における任意の領域の高周波成分とを比較し、それぞれが似ていると判断される領域に対して、当該学習領域に対応する前記フィルタを適用させてノイズを除去するものである。   In the noise removal device disclosed in the present application, the noise removal unit compares the high-frequency component of the learning region cut out by the learning region cut-out unit with the high-frequency component of an arbitrary region in the processing target frequency information. Noise is removed by applying the filter corresponding to the learning region to a region determined to be similar.

このように、本願に開示するノイズ除去装置においては、学習領域の高周波成分と処理対象画像における任意の領域の高周波成分とを比較し、それぞれが似ていると判断される領域に対して、その領域と比較した学習領域に対応するフィルタによりノイズを除去するため、学習領域の単位で類似の判断をしてノイズを除去することができ、トレーニング周波数情報と処理対象周波数情報とが全体として全く異なる周波数情報であっても、学習領域単位で似ている部分にフィルタを適用しノイズを除去することで、未知の処理対象周波数情報であっても確実にノイズを除去することができると共に、複雑な特徴を有する処理対象周波数情報に対しても、学習領域ごとにノイズ除去に対応することが可能になるという効果を奏する。   As described above, in the noise removal device disclosed in the present application, the high-frequency component in the learning area is compared with the high-frequency component in an arbitrary area in the processing target image. Since noise is removed by a filter corresponding to the learning region compared with the region, it is possible to remove the noise by making a similar determination in units of the learning region, and the training frequency information and the processing target frequency information are totally different as a whole. Even if it is frequency information, by applying a filter to the similar part in the learning area unit and removing noise, even if it is unknown processing target frequency information, noise can be removed reliably and complicated The processing target frequency information having characteristics also has an effect of being able to cope with noise removal for each learning region.

第1の実施形態に係るノイズ除去装置のハードウェア構成図である。It is a hardware block diagram of the noise removal apparatus which concerns on 1st Embodiment. 第1の実施形態に係るノイズ除去装置の機能ブロック図である。It is a functional block diagram of the noise removal apparatus which concerns on 1st Embodiment. 第1の実施形態に係るノイズ除去装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the noise removal apparatus which concerns on 1st Embodiment. 実施例で使用するベンチマーク画像である。It is a benchmark image used in an Example. ノイズ除去を行った結果を示す第1の図である。It is a 1st figure which shows the result of having performed noise removal. ノイズ除去を行った結果を示す第2の図である。It is a 2nd figure which shows the result of having performed noise removal. 学習領域と特定する例を示す図である。It is a figure which shows the example identified with a learning area | region. 輝度を変えた画像に対してノイズ除去を行った結果を示す図である。It is a figure which shows the result of having performed noise removal with respect to the image which changed the brightness | luminance. コントラストを変えた画像に対してノイズ除去を行った結果を示す図である。It is a figure which shows the result of having performed noise removal with respect to the image which changed contrast. ごま塩ノイズが入った画像に対してノイズ除去を行った結果を示す図である。It is a figure which shows the result of having performed noise removal with respect to the image containing sesame salt noise. ISOノイズが入った画像に対してノイズ除去を行った結果を示す図である。It is a figure which shows the result of having performed noise removal with respect to the image containing ISO noise.

本実施形態の全体を通して同じ要素には同じ符号を付けている。また、以下の実施の形態では、主に装置について説明するが、所謂当業者であれば明らかな通り、本発明は方法、及び、コンピュータを動作させるためのプログラムとしても実施できる。また、本発明はハードウェア、ソフトウェア、または、ハードウェア及びソフトウェアの実施形態で実施可能である。プログラムは、ハードディスク、CD−ROM、DVD−ROM、光記憶装置、または、磁気記憶装置等の任意のコンピュータ可読媒体に記録できる。さらに、プログラムはネットワークを介した他のコンピュータに記録することができる。   Throughout the present embodiment, the same elements are denoted by the same reference numerals. In the following embodiments, the apparatus will be mainly described. However, as is apparent to those skilled in the art, the present invention can also be implemented as a method and a program for operating a computer. In addition, the present invention can be implemented in hardware, software, or hardware and software embodiments. The program can be recorded on any computer-readable medium such as a hard disk, CD-ROM, DVD-ROM, optical storage device, or magnetic storage device. Furthermore, the program can be recorded on another computer via a network.

(本発明の第1の実施形態)
本実施形態に係るノイズ除去装置について、図1ないし図3を用いて説明する。図1は、本実施形態に係るノイズ除去装置のハードウェア構成図、図2は、本実施形態に係るノイズ除去装置の機能ブロック図、図3は、本実施形態に係るノイズ除去装置の動作を示すフローチャートである。
(First embodiment of the present invention)
The noise removal apparatus according to the present embodiment will be described with reference to FIGS. FIG. 1 is a hardware configuration diagram of the noise removing device according to the present embodiment, FIG. 2 is a functional block diagram of the noise removing device according to the present embodiment, and FIG. 3 is an operation of the noise removing device according to the present embodiment. It is a flowchart to show.

なお、ここでは主に画像情報に対するノイズ除去について説明するが、画像情報と同様に周波数情報からなる音声情報に対しても本実施形態に係るノイズ除去装置を適用することができるものである。   In addition, although the noise removal with respect to image information is mainly demonstrated here, the noise removal apparatus which concerns on this embodiment is applicable also to the audio | voice information which consists of frequency information similarly to image information.

図1において、ノイズ除去装置1は、オペレーティングシステムや各種プログラム(例えば、ノイズ除去プログラム、学習プログラム、画像表示プログラム等)が格納されているROM13と、各種データ(例えば、トレーニング画像情報、フィルタ情報、ノイズ画像情報等)が格納されているHD(ハードディスク)14と、各種プログラム等が必要に応じて読み出されるRAM12と、読み出されたプログラム等に基づいて実際の演算を実行するCPU11と、他の装置(例えば、サーバ等)と通信を行うためのインタフェースである通信I/F15と、キーボードやマウス等の入力機器からの入力を受け付けたり、プリンタやモニタ等にデータを出力するためのインタフェースである入出力I/F16とを備える。   In FIG. 1, a noise removal apparatus 1 includes an operating system and a ROM 13 that stores various programs (for example, a noise removal program, a learning program, an image display program, etc.) and various data (for example, training image information, filter information, HD (hard disk) 14 in which noise image information and the like are stored, a RAM 12 from which various programs and the like are read out as necessary, a CPU 11 that executes an actual calculation based on the read out programs and the like, and other A communication I / F 15 that is an interface for communicating with a device (for example, a server) and an interface for receiving input from an input device such as a keyboard or a mouse, or outputting data to a printer, a monitor, or the like And an input / output I / F 16.

図2において、ノイズ除去装置1は、トレーニング画像情報部21と学習領域切出部22とフィルタ生成部23とフィルタ情報記憶部24とノイズ除去部25とを備える。   In FIG. 2, the noise removal device 1 includes a training image information unit 21, a learning region extraction unit 22, a filter generation unit 23, a filter information storage unit 24, and a noise removal unit 25.

トレーニング画像情報部21は、ノイズが含まれていない一のノイズなしトレーニング画像と、その一のノイズなしトレーニング画像にノイズが挿入された一又は複数のノイズありトレーニング画像とを記憶する。ノイズありトレーニング画像は、ノイズの種類(例えば、ホワイトノイズ、ISOノイズ、ごま塩ノイズ等)ごとに用意される。   The training image information unit 21 stores one noise-free training image that does not include noise and one or more training images with noise in which noise is inserted into the one noise-free training image. A training image with noise is prepared for each type of noise (for example, white noise, ISO noise, sesame salt noise, etc.).

学習領域切出部22は、ノイズなしトレーニング画像とノイズありトレーニング画像とを対応付けながら、設定されたサイズの領域(例えば、32×32画素)でトレーニング画像をスキャニングし、それぞれの領域における高周波成分の特徴に応じて、学習領域を決定する。例えば、トレーニング画像における平坦部分の領域、縦のエッジが含まれている領域、横のエッジが含まれる領域、斜めのエッジが含まれる領域等を高周波成分に基づいて特定し、その特徴ごとに学習領域を決定する。   The learning region cutout unit 22 scans the training image in a region having a set size (for example, 32 × 32 pixels) while associating the training image without noise with the training image with noise, and the high-frequency component in each region The learning area is determined according to the characteristics of For example, a flat area, a vertical edge area, a horizontal edge area, a diagonal edge area, etc. in a training image are identified based on high-frequency components and learned for each feature. Determine the area.

フィルタ生成部23は、決定された学習領域ごとに、ノイズなしトレーニング画像に対してダイアディックウェーブレット変換した高周波成分と、ノイズありトレーニング画像に対するリフティングウェーブレットの高周波成分との差がなくなるように学習させて自由変数を決定し、フィルタを生成する。生成されたフィルタは、フィルタ情報記憶部24に格納される。これらの処理については、詳細を後述する。   For each determined learning region, the filter generation unit 23 learns so that there is no difference between the high-frequency component obtained by performing dyadic wavelet transform on the training image without noise and the high-frequency component of the lifting wavelet for the training image with noise. Determine free variables and generate filters. The generated filter is stored in the filter information storage unit 24. Details of these processes will be described later.

ノイズ除去部25は、処理対象となるノイズ画像26に対して、フィルタ情報記憶部24に格納されているフィルタを使って、ノイズ画像26からノイズを除去したノイズ除去画像27を復元する。フィルタを適用する際には、フィルタの高周波成分と特徴と、ノイズ画像26の任意の領域の高周波成分の特徴とを比較し、似ている領域がある場合にその領域に対してフィルタを適用する。フィルタ情報記憶部24には、様々な特徴を有するフィルタがノイズの種類ごとに格納されているので、それらを複数組み合わせてノイズ画像26の一部又は全部のノイズを除去する。   The noise removal unit 25 restores a noise-removed image 27 obtained by removing noise from the noise image 26 using a filter stored in the filter information storage unit 24 for the noise image 26 to be processed. When applying the filter, the high-frequency component and feature of the filter are compared with the feature of the high-frequency component in an arbitrary region of the noise image 26, and if there is a similar region, the filter is applied to that region. . Since filters having various characteristics are stored in the filter information storage unit 24 for each type of noise, a plurality of them are combined to remove part or all of the noise in the noise image 26.

次に、本実施形態に係るノイズ除去装置の動作について説明する。図3において、まずフィルタのサイズを指定する(S31)。フィルタのサイズは、使用者が任意のサイズに設定してもよいし、トレーニング画像として使用する画素数や処理対象となるノイズ画像の画素数に応じて装置内のCPUが演算して設定するようにしてもよい。例えば、トレーニング画像の画素数の10分の1等に設定するように演算してもよい。   Next, the operation of the noise removal device according to the present embodiment will be described. In FIG. 3, the filter size is first designated (S31). The size of the filter may be set to an arbitrary size by the user, or may be calculated and set by the CPU in the apparatus according to the number of pixels used as the training image and the number of pixels of the noise image to be processed. It may be. For example, the calculation may be performed so that the number of pixels of the training image is set to 1/10.

フィルタのサイズが指定されると、学習領域切出部22が、指定されたサイズ領域でトレーニング画像をスキャニングし、学習する学習領域を決定する(S32)。フィルタ生成部23が、決定された学習領域ごとに、ノイズありトレーニング画像とノイズなしトレーニング画像との差がなくなるように自由変数を定めてフィルタを作成し、フィルタ情報記憶部24に記憶する(S33)。ノイズ除去部25が、処理対象となるノイズ画像26に対して、フィルタ情報記憶部24のフィルタを適用してノイズを除去し、ノイズ除去画像27を復元して(S34)、処理を終了する。   When the size of the filter is designated, the learning area cutout unit 22 scans the training image in the designated size area and determines the learning area to be learned (S32). The filter generation unit 23 creates a filter by determining a free variable so that there is no difference between the training image with noise and the training image without noise for each determined learning region, and stores the filter in the filter information storage unit 24 (S33). ). The noise removal unit 25 applies the filter of the filter information storage unit 24 to the noise image 26 to be processed to remove noise, restores the noise removal image 27 (S34), and ends the process.

以下に、より具体的な処理を説明する。まず、ダイアディックリフティングスキームについて説明する。
f(t)をτだけ平行移動したものをfτ(t)=f(t−τ)と表すと、ウェーブレット変換は、
A more specific process will be described below. First, the dyadic lifting scheme will be described.
When f (t) translated by τ is expressed as fτ (t) = f (t−τ), the wavelet transform is

と表せる。ただし、ψは実ウェーブレット関数である。このとき、 It can be expressed. Where ψ is a real wavelet function. At this time,

なので、この変換はシフト不変である。シフト不変なウェーブレット表現を構成するため、スケールsの部分だけを離散化し、平行移動uの部分は離散化しないことにする。そして、スケール部分はコンピュータ上での計算を簡単にするために2進の列{2jjzでサンプリングする。 So this transformation is shift invariant. In order to construct a shift-invariant wavelet representation, only the portion of the scale s is discretized, and the portion of the translation u is not discretized. Then, the scale portion is sampled at binary sequence {2 j} jz in order to simplify the calculations on a computer.

次に、この考え方にしたがって、ダイアディックウェーブレット変換(2進ウェーブレット変換)を導入する。L2(R)を実数R上の2乗可積分な空間とする。また、関数のψ∈L2(R)のフーリエ変換を Next, dyadic wavelet transform (binary wavelet transform) is introduced according to this concept. Let L 2 (R) be a square-integrable space on the real number R. Also, the Fourier transform of the function ψ∈L 2 (R)

と表す。もし、 It expresses. if,

を満たす定数A>0とBが存在すれば、関数ψ(t)はダイアディックウェーブレット関数(2進ウェーブレット関数)と呼ばれる。式(1)よりψ^(0)=0、すなわち If there are constants A> 0 and B satisfying the condition, the function ψ (t) is called a dyadic wavelet function (binary wavelet function). From equation (1), ψ ^ (0) = 0,

である。f(t)の2進ウェーブレット変換は、2進ウェーブレット関数ψ(t)を用いて、 It is. The binary wavelet transform of f (t) uses the binary wavelet function ψ (t),

と定義される。2進ウェーブレット関数を構成するために、ツー・スケール関係 Is defined. Two-scale relationship to construct a binary wavelet function

を満たすスケーリング関数φ(t)を利用する。なお、通常スケーリング関数φ(t) A scaling function φ (t) that satisfies the above is used. Normal scaling function φ (t)

と正規化される。このスケーリング関数(3)のフーリエ変換は、 And is normalized. The Fourier transform of this scaling function (3) is

となる。ただし、h^(ω)は離散フーリエ変換 It becomes. Where h ^ (ω) is the discrete Fourier transform

である。 It is.

φ^(0)=1なので、(4)、(5)を使うとh^(0)=√2あるいはΣkh[k]=√2を得る。スケーリング関数φ(t)とウェーブレット・フィルタg[k]を使うと、2進ウェーブレット関数はψ(t)=Σkg[k](√2)φ(2t−k)と定義される。任意の関数f∈L2(R)を2進ウェーブレットで展開したものは、非特許文献5で述べられたような再構成条件を満たせば再構成可能である。この再構成条件を導くために、双対スケーリング関数と双対ウェーブレット関数が必要である。双対スケーリング関数φ~(t)(「~」はチルダとする)をφ~(t)=Σlh~[l](√2)φ~(2t−l)で定義する。ただし、 Since φ ^ (0) = 1, when (4) and (5) are used, h ^ (0) = √2 or Σ k h [k] = √2 is obtained. Using the scaling function φ (t) and the wavelet filter g [k], the binary wavelet function is defined as ψ (t) = Σ k g [k] (√2) φ (2t−k). An arbitrary function fεL 2 (R) expanded with a binary wavelet can be reconfigured if the reconfiguration condition described in Non-Patent Document 5 is satisfied. In order to derive this reconstruction condition, a dual scaling function and a dual wavelet function are required. The dual scaling function φ˜ (t) (“˜” is a tilde) is defined by φ˜ (t) = Σ l h˜ [l] (√2) φ˜ (2t−l). However,

であり、δk,lはクロネッカーのデルタ記号である。また、双対ウェーブレット関数ψ~(t)は、ψ~(t)=Σlg~[l](√2)φ~(2t−l)で与えられる。 Δ k, l is the Kronecker delta symbol. The dual wavelet function ψ˜ (t) is given by ψ˜ (t) = Σ l g˜ [l] (√2) φ˜ (2t−1).

フィルタh[k],g[k],h~[k],g~[k]の離散フーリエ変換を、それぞれh^(ω),g^(ω),h~^(ω),g~^(ω)と表すと、再構成条件は、   The discrete Fourier transforms of the filters h [k], g [k], h ~ [k], and g ~ [k] are respectively expressed as h ^ (ω), g ^ (ω), h ~ ^ (ω), and g ~. Representing ^ (ω), the reconstruction condition is

と表される。ここで、*は複素共役を表す。再構成条件(6)は、リフティングダイアディックウェーブレットフィルタを構成するのに重要な役割を果たす。 It is expressed. Here, * represents a complex conjugate. The reconstruction condition (6) plays an important role in constructing a lifting dyadic wavelet filter.

(命題1)
初期フィルタh0[k],g0[k],h~0[k],g~0[k]の離散フーリエ変換をそれぞれh^0(ω),g^0(ω),h~^0(ω),g~^0(ω)とし、これらが再構成条
件(6)を満たすとする。このとき、
(Proposition 1)
The discrete Fourier transforms of the initial filters h 0 [k], g 0 [k], h ~ 0 [k], and g ~ 0 [k] are represented as h ^ 0 (ω), g ^ 0 (ω), h ~ ^, respectively. It is assumed that 0 (ω), g˜ ^ 0 (ω), and these satisfy the reconstruction condition (6). At this time,

で定義される共役リフティング2進ウェーブレットフィルタのフーリエ変換h^(ω),g^(ω),h~^(ω),g~^(ω)は再構成条件(6)を満たす。ここで、s[l]は自由変数である。2進ウェーブレット変換とその逆変換を計算するためには、次の命題が役に立つ。 The Fourier transforms h ^ (ω), g ^ (ω), h ^^ (ω), and g ^^ (ω) of the conjugate lifting binary wavelet filter defined by (5) satisfy the reconstruction condition (6). Here, s [l] is a free variable. The following proposition is useful for computing the binary wavelet transform and its inverse.

(命題2)
再構成条件(6)の下で、変換公式
(Proposition 2)
Conversion formula under reconstruction condition (6)

及び逆変換公式 And inverse transformation formula

が成り立つ。ここで、a0[n]は Holds. Where a 0 [n] is

で与えられる。 Given in.

これは、一次元信号に対する変換公式と逆変換公式であるが、画像の場合にはこれらの公式を水平方向(横)と垂直方向(縦)に適用すればよい。以下に、より詳細に述べる。そのために、Cj[m,n],D1 j[m,n],D2 j[m,n],D3 j[m,n]を、それぞれ低周波成分、横方向の高周波成分、縦方向の高周波成分、斜め方向の高周波成分とする。mとnは、それぞれ水平方向と垂直方向との位置を表すものとする。まず、D1 j+1[m,n]を求めるために、式(8)をCj[m,n]の縦方向に適用すると、 This is a conversion formula and an inverse conversion formula for a one-dimensional signal. In the case of an image, these formulas may be applied in the horizontal direction (horizontal) and the vertical direction (vertical). This will be described in more detail below. Therefore, C j [m, n], D 1 j [m, n], D 2 j [m, n], and D 3 j [m, n] are respectively converted into a low frequency component, a horizontal high frequency component, A high-frequency component in the vertical direction and a high-frequency component in the oblique direction are used. m and n represent positions in the horizontal direction and the vertical direction, respectively. First, in order to obtain D 1 j + 1 [m, n], when Expression (8) is applied in the vertical direction of C j [m, n],

となり、次に(9)をCj,row[m,n]の水平方向に適用すると、 Next, when (9) is applied in the horizontal direction of C j, row [m, n],

を得る。同様に(8)をCj[m,n]の水平方向に適用すると、 Get. Similarly, when (8) is applied in the horizontal direction of C j [m, n],

となり、これを(9)を垂直方向に適用すると、 When (9) is applied in the vertical direction,

を得る。そして、(9)を水平・垂直方向にそれぞれ適用すると、 Get. And when (9) is applied respectively in the horizontal and vertical directions,

を得る。このとき、画像に対する再構成公式は、 Get. At this time, the reconstruction formula for the image is

で与えられる。 Given in.

次に、学習アルゴリズムについて説明する。ここでは、(7)の自由変数s[l]をどのように決定するかを説明する。水平方向と垂直方向の変数を区別するために、水平方向の高周波成分をgh[k]と表し、垂直方向の高周波成分をgv[k]と表す。このとき、命題1より、 Next, the learning algorithm will be described. Here, how to determine the free variable s [l] in (7) will be described. In order to distinguish the horizontal and vertical variables, the high-frequency component in the horizontal direction is expressed as g h [k], and the high-frequency component in the vertical direction is expressed as g v [k]. At this time, from Proposition 1,

を得る。ただし、s1とs2は自由変数である。そして、s1[l]とs2[l]をノイズがない学習用画像(ノイズなしトレーニング画像)の高周波成分と同じになるように決定する。(11)と(12)に対して、(15)と(16)を適用すると、 Get. However, s 1 and s 2 are free variables. Then, s 1 [l] and s 2 [l] are determined so as to be the same as the high frequency component of the learning image without noise (the training image without noise). If (15) and (16) are applied to (11) and (12),

を得る。ただし、 Get. However,

である。 It is.

これに加えて、(13)及び自由変数s3を使って、D3 j+1[m,n]を次式で近似することにする。 In addition to this, D 3 j + 1 [m, n] is approximated by the following equation using (13) and the free variable s 3 .

ただし、 However,

である。 It is.

残りの議論を簡単にするために、ウェーブレット分解をレベル0からレベル1の分解に限定する。C0[m,n]をノイズ画像(ノイズありトレーニング画像)とすると、その高周波成分はD_1 1[m,n],D_2 1[m,n]である。(17)より、 To simplify the rest of the discussion, we will limit the wavelet decomposition to level 0 to level 1 decomposition. If C 0 [m, n] is a noise image (a training image with noise), its high-frequency components are D — 1 1 [m, n], D — 2 1 [m, n]. From (17)

を得るので、自由変数sr(r=1,2,3)をC0[m,n]の原画像(ノイズなしトレーニング画像)の高周波成分と同じになるように決定する。すなわち、Dr 1[m,n]に対応する高周波成分(ノイズなしトレーニング画像の高周波成分)をD~r 1[m,n](r=1,2,3)として、 Therefore, the free variable s r (r = 1, 2, 3) is determined to be the same as the high frequency component of the original image (no-noise training image) of C 0 [m, n]. That is, the high-frequency component corresponding to D r 1 [m, n] (the high-frequency component of the noise-free training image) is D˜r 1 [m, n] (r = 1, 2, 3),

を考える。 think of.

r 1[m,n](r=1,2,3)はいくつかの自由変数srを含むので、2N枚のよく似たノイズ画像C_1,v(v=1,2,・・・,2N)とこれらの原画像(ノイズが入っていない画像)を学習用画像(トレーニング画像)として用意し、条件 Since D r 1 [m, n] (r = 1, 2, 3) includes several free variables s r , 2N similar noise images C — 1, v (v = 1, 2,... ., 2N) and these original images (images without noise) are prepared as learning images (training images)

を課す。ただし、C_l 1,v[m,n]とD_l 1,v[m,n]は、それぞれノイズ画像に対する初期フィルタに基づく低周波成分と高周波成分であり、D~r 1,v[m,n]は、これらのノイズが入っていない原画像の高周波成分である。 Imposing. However, C_ l 1, v [m , n] and D_ l 1, v [m, n] is a low-frequency and high-frequency components based on the initial filter for each noise image, D ~ r 1, v [ m , N] are high-frequency components of the original image not including these noises.

自由変数srの数は2N+1だが、(19)の方程式の数が2Nであるため、srを一意に定めるためには、もう一つ方程式が必要となる。ghとgvはハイパスフィルタなので、これらのフィルタは、条件 Although the number of free variables s r is 2N + 1, since the number of equations (19) is 2N, another equation is required to uniquely determine s r . Since g h and g v are high-pass filters, these filters are conditional

を満たすべきである。ゆえに、Σk0[k]=0であり、Σk0[k]が定数であることに注意すれば、 Should be met. Therefore, if Σ k g 0 [k] = 0 and Σ k h 0 [k] is a constant,

が成り立つ。s3にも(20)と同じ条件を課す。(19)と(20)を行列形式で表すと、 Holds. The same condition as (20) is imposed on s 3 . When (19) and (20) are expressed in matrix form,

となる。したがって、連立一次方程式(21)を適当な数値計算法(例えば、ガウスの消去法)等で解けば、srを一意に定めることができる。 It becomes. Therefore, s r can be uniquely determined by solving the simultaneous linear equations (21) by an appropriate numerical calculation method (for example, Gaussian elimination method).

次に、輪郭保存方法について説明する。一般に、ノイズ除去アルゴリズムは、ノイズだけでなく画像の重要な特徴までも取り除いてしまう。シミュレーションが示すように、ここまでで説明した方法は、従来の方法に比べて画像の特徴をあまり取り除くことなくノイズを除去できるが、さらに画像の特徴を残せるように改良する。そのために、非特許文献4で提案された方法を取り込む。   Next, the outline storing method will be described. In general, the noise removal algorithm removes not only noise but also important features of an image. As the simulation shows, the method described so far can remove noise without removing image features much compared to the conventional method, but further improves to leave image features. For this purpose, the method proposed in Non-Patent Document 4 is incorporated.

C ̄[m,n]=C[m,n]+E[m,n]をノイズ入り画像とし、C[m,n]とE[m,n]を、それぞれ対応する原画像とノイズする。そして、ペナルティ汎関数Fp(Dr 1)を最小にする値D・r 1を探すような以下の最小化問題を考える。 Let C ̄ [m, n] = C [m, n] + E [m, n] be a noisy image, and noise C [m, n] and E [m, n] with the corresponding original image. Then, consider the following minimization problem in which a value D · r 1 that minimizes the penalty functional F p (D r 1 ) is searched.

ここで、‖・‖2はユークリッド・ノルム、p(・)は与えられたあるペナルティ関数、λはデータの忠実性とペナルティ項の効果を調整するような正数、D ̄r 1とDr 1は、それぞれC ̄とCに対応する各方向の高周波成分である。エッジの強さを Where ‖ · ‖ 2 is the Euclidean norm, p (·) is a given penalty function, λ is a positive number that adjusts the fidelity of the data and the effect of the penalty term, D ̄ r 1 and D r 1 is a high-frequency component in each direction corresponding to C ̄ and C, respectively. Edge strength

で定義し、S[m,n]を可能な限り保つためのペナルティ項として As a penalty term to keep S [m, n] as much as possible

を利用する。ここで、φとしては非線形拡散フィルタリング法で広く使われているポテンシャル関数を選ぶことにする。本実施形態の場合は、 Is used. Here, a potential function widely used in the nonlinear diffusion filtering method is selected as φ. In the case of this embodiment,

を利用することにする。この関数は非特許文献4に記載されている関数の一つで、パラメータμは、エッジとそうでない領域との間の閾値を表すスケールに依存するコントラストパラメータの役割を果たす。L×Lの画像に対して、 Will be used. This function is one of the functions described in Non-Patent Document 4, and the parameter μ serves as a contrast parameter depending on a scale representing a threshold value between an edge and a region other than the edge. For an L × L image,

とおく。この値は外れ値に影響を受けにくい統計量として昔からよく使われているもので、MADは、median absolute deviationを表す。このとき、非特許文献4より、ノイズ除去アルゴリズムは、次のような非線形方程式を解くことに帰着する。 far. This value is often used as a statistic that is not easily affected by outliers, and MAD represents median absolute deviation. At this time, from Non-Patent Document 4, the noise removal algorithm results in solving the following nonlinear equation.

適当な反復法を使ってこの方程式を解けば、(23)の近似解が得られる。   Solving this equation using a suitable iterative method yields an approximate solution of (23).

次に、前記で述べた方法に基づくノイズ除去アルゴリズムについて説明する。srの要素数が、(15)と(16)で与えられるh0[k]の要素数に等しいので、画像をいくつかの部分画像に分け、それぞれの部分画像に対してダイアディックリフティングスキームを適用しなければならない。そこで、各部分画像をCi 0(1≦i≦M)と表すとする。そして、前記で述べた(17)と(18)を使って、Ci 0(1≦i≦M)を各周波数成分Ci 1[m,n],D1,i 1[m,n],D2,i 1[m,n],D3,i 1[m,n]に分ける。そして、非特許文献4の方法を利用して、各部分画像ごとに(23)を解く。具体的には、以下のようになる。
(1)初期値(D10,(D20,(D30,k=0を定める。kは反復回数を表す。
(2)
Next, a noise removal algorithm based on the method described above will be described. Since the number of elements of s r is equal to the number of elements of h 0 [k] given by (15) and (16), the image is divided into several partial images, and a dyadic lifting scheme for each partial image Must be applied. Therefore, each partial image is represented as C i 0 (1 ≦ i ≦ M). Then, using (17) and (18) described above, C i 0 (1 ≦ i ≦ M) is changed to each frequency component C i 1 [m, n], D 1, i 1 [m, n]. , D 2, i 1 [m, n] and D 3, i 1 [m, n]. Then, using the method of Non-Patent Document 4, (23) is solved for each partial image. Specifically, it is as follows.
(1) The initial values (D 1 ) 0 , (D 2 ) 0 , (D 3 ) 0 , k = 0 are determined. k represents the number of iterations.
(2)

を計算する。 Calculate

(3)(Drkが収束すれば、k=k^として計算を終了し、次のステップへ移る。収束しなければ、k=k+1としてステップ(2)に戻る。
(4)(Drk^を使って、
(3) (D r ) If k converges, the calculation is terminated as k = k ^, and the process proceeds to the next step. If not converged, k = k + 1 and return to step (2).
(4) Using (D r ) k ^

を計算する。 Calculate

(5)Ci 1[m,n],D・1,i 1[m,n],D・2,i 1[m,n],D・3,i 1[m,n]と初期フィルタ、及び再構成公式(14)を使って、ノイズが除去された画像C・i 0を構成する。 (5) C i 1 [m, n], D · 1, i 1 [m, n], D · 2, i 1 [m, n], D · 3, i 1 [m, n] and initial filter , And the reconstruction formula (14) is used to construct a noise-removed image C · i 0 .

上記ステップ(2)〜(4)は、輪郭保存方法に対応する。   The above steps (2) to (4) correspond to the contour storing method.

h~とg~のサポート長をαとすると、式(14)よりα×α画像を再構成するためには、4枚の(3α−2)×(3α−2)分解された画像が必要である。このことは、α×α画像を(17)に基づいて分解し、(14)に基づいて再構成するには、(5α−4)×(5α−4)画像が必要となることを意味する。ゆえに、上記で示した手順を実行するためには、部分画像Ci 0をどのように拡張するかを考える必要がある。本実施形態における手法では、(17)を使ってCi 0を分解する際には、サイズが(5α−4)×(5α−4)画像であるようなCi 0の近傍を使い、境界ではミラー画像(鏡に写したような画像)を利用する。 If the support length of h ~ and g ~ is α, four (3α-2) × (3α-2) decomposed images are required to reconstruct an α × α image from equation (14). It is. This means that a (5α-4) × (5α-4) image is required to decompose the α × α image based on (17) and to reconstruct based on (14). . Therefore, in order to execute the procedure shown above, it is necessary to consider how to expand the partial image C i 0 . In the method according to the present embodiment, when C i 0 is decomposed using (17), the neighborhood of C i 0 whose size is a (5α-4) × (5α-4) image is used, and the boundary is used. Then, a mirror image (an image that appears in a mirror) is used.

なお、前述したように、上記手法は画像情報だけではなく音声情報に適用することもできる。すなわち、画像のような2次元の周波数情報を、音声のような1次元の周波数情報に代えて演算することで、雑音環境下における雑音を除去することができる。この場合、トレーニング画像情報部21をトレーニング音声情報部21aとし、ノイズ画像26をノイズ音声26aとし、ノイズ除去画像27をノイズ除去音声27aとし、各処理における2次元の画像情報を1次元の音声情報に置き換えることで、音声のノイズ除去に適用可能となる。   As described above, the above method can be applied not only to image information but also to audio information. That is, noise in a noisy environment can be removed by calculating two-dimensional frequency information such as an image instead of one-dimensional frequency information such as sound. In this case, the training image information unit 21 is the training sound information unit 21a, the noise image 26 is the noise sound 26a, the noise-removed image 27 is the noise-removed sound 27a, and the two-dimensional image information in each process is one-dimensional sound information. By replacing with, it can be applied to noise removal of voice.

以上の前記実施形態により本発明を説明したが、本発明の技術的範囲は実施形態に記載の範囲には限定されず、この実施形態に多様な変更又は改良を加えることが可能である。   Although the present invention has been described with the above embodiment, the technical scope of the present invention is not limited to the scope described in the embodiment, and various modifications or improvements can be added to this embodiment.

上記実施形態に関して、以下に実施例を示す。ベンチマークとして256×256のグ
レースケール画像を使用する。図4は、実施例で使用するベンチマーク画像である。ここでは、4種類の画像(Lenna:図4(A),Barbara:図4(B),Boat:図4(C),Title:図4(D))を使用する。また、これらの画像にガウシアンノイズを入れたものを、図5(A)に示す。また、エッジ情報(輪郭情報)が保持できていることを示すために、80×80に切り取った画像を図6に示す。各図については詳細を後述する。
An example is shown below regarding the said embodiment. A 256 × 256 grayscale image is used as a benchmark. FIG. 4 is a benchmark image used in the embodiment. Here, four types of images (Lenna: FIG. 4 (A), Barbara: FIG. 4 (B), Boat: FIG. 4 (C), Title: FIG. 4 (D)) are used. In addition, FIG. 5A shows an image obtained by adding Gaussian noise to these images. Further, FIG. 6 shows an image cut into 80 × 80 in order to show that edge information (contour information) can be held. Details of each figure will be described later.

本実施例では、初期フィルタとしてスプライン2進ウェーブレットフィルタを利用する。その係数を下記の表1に示す。   In this embodiment, a spline binary wavelet filter is used as an initial filter. The coefficients are shown in Table 1 below.

そして、上記に示したNの値をN=3とする。これは、6枚の部分原画像とこれにノイズが入った画像を学習に利用する(学習領域として決定する)ことを意味している。各部分画像は、32×32のグレースケール画像で、図7にその例を示す。   The value of N shown above is N = 3. This means that six partial original images and an image containing noise are used for learning (determined as a learning region). Each partial image is a 32 × 32 gray scale image, and an example is shown in FIG.

0のサポート長が、ノイズ情報を含んだ学習済みフィルタghとgvを構成するのには短すぎると考えられるため、まずは重要なエッジ情報を含まない部分画像とg0のサポート長を伸ばすために、(15)、(16)を利用する。そして、フィルタg0 hとg0 vを作成し、これらのフィルタをノイズ除去の際の初期フィルタとして利用する。さらに、自由変数srを決めるために画像の特徴に応じて学習領域を選ぶ。例えば、髪の毛を含む領域のノイズ除去を行いたい場合は、トレーニング画像のよく似た領域を学習領域として選択する。そのようにして、いくつかの種類の学習済みフィルタを用意した後に、処理対象となるノイズ画像の特徴に応じて最適なフィルタを選択する。すなわち、ノイズを効果的に除去するために、適当な学習領域を定め、画像の特徴に応じて最適な学習済みフィルタを選択する。 Since the support length of g 0 is considered to be too short to construct the learned filters g h and g v including noise information, first, the partial image not including important edge information and the support length of g 0 are selected. In order to stretch, (15) and (16) are used. Then, filters g 0 h and g 0 v are created, and these filters are used as initial filters for noise removal. Further, in order to determine the free variable s r , a learning region is selected according to the image characteristics. For example, when it is desired to remove noise from a region including hair, a region similar to the training image is selected as a learning region. In this way, after preparing several types of learned filters, an optimal filter is selected according to the characteristics of the noise image to be processed. That is, in order to effectively remove noise, an appropriate learning region is determined, and an optimal learned filter is selected according to the image characteristics.

0[n]のサポート長が4なので上記αを4にする。非特許文献4では式(23)のパラメータλは、画像の特徴に応じて手作業(試行錯誤)で求められたと述べられているが、具体的な数値は示されていない。そこで、本実施例では予備的な実験を行った結果、λ=11と定める。本実施例の演算は、市販の標準的なCPUを用いて行われ、アルゴリズムの実行時間が4.89秒であった。学習過程の実行時間は、学習領域の数に依存するが、これらは無視できるものと思われる。なぜなら、srを決めるには、小さいサイズの連立一次方程式を解けばいいだけであり、一般には10元程度の連立一次方程式を解くのに0.1秒もかからない。 Since the support length of h 0 [n] is 4, α is set to 4. Although Non-Patent Document 4 states that the parameter λ in Expression (23) is obtained manually (trial and error) in accordance with the characteristics of the image, no specific numerical value is shown. Therefore, in this embodiment, λ = 11 is determined as a result of a preliminary experiment. The calculation of this example was performed using a commercially available standard CPU, and the execution time of the algorithm was 4.89 seconds. The execution time of the learning process depends on the number of learning regions, which can be ignored. This is because, in order to determine s r , it is only necessary to solve a small-size simultaneous linear equation, and it generally takes 0.1 seconds to solve a simultaneous linear equation of about 10 elements.

画質の客観評価値としてPSNR(peak signal to noise ratio)を利用する。これは、   PSNR (peak signal to noise ratio) is used as an objective evaluation value of image quality. this is,

で定義される。ただし、f(i,j)はL×Lの原画像で、f ̄(i,j)はその近似である。下記の表2にスプラインウェーブレットフィルタの係数を示し、表3にPSNR値を示す。従来の方法の比較として、BLS−GSM法とVM法を取り上げている。また、LMEPは輪郭保持方法を含むもの、LMは輪郭保持方法を含まないものである。 Defined by Here, f (i, j) is an L × L original image, and f ̄ (i, j) is an approximation thereof. Table 2 below shows the coefficients of the spline wavelet filter, and Table 3 shows PSNR values. As a comparison with conventional methods, the BLS-GSM method and the VM method are taken up. LMEP includes a contour holding method, and LM does not include a contour holding method.

表1のスプラインウェーブレットフィルタは、1バニシングモーメントを持ち、表2のフィルタは、3バニシングモーメントを持つ(詳細は、非特許文献12を参照)。非特許文献12では、閾値を決定するためにシグモイド関数   The spline wavelet filter of Table 1 has 1 burnishing moment, and the filter of Table 2 has 3 burnishing moments (see Non-Patent Document 12 for details). In Non-Patent Document 12, a sigmoid function is used to determine a threshold value.

を利用し、分解係数がある閾値より小さくなれば急に0になるのではなく、徐々に0になるようにしている。これを実現するためには、パラメータaとbの値が重要になるが、非特許文献12では、その決定方法について記載されておらず、値のみが記載されている。そのため、本実施例では独自に試行錯誤をし、a=145、b=4.6と定めた。もし、a、bを画像に応じて最適に定められたら、より良い結果を得られる可能性がある。 Is used, and if the decomposition coefficient becomes smaller than a certain threshold value, it does not suddenly become 0 but gradually becomes 0. In order to realize this, the values of the parameters a and b are important. However, in Non-Patent Document 12, the determination method is not described, and only the value is described. For this reason, in this embodiment, trial and error were independently performed and a = 145 and b = 4.6 were determined. If a and b are optimally determined according to the image, better results may be obtained.

表3より、本願の手法であるLM、LMEP及びBLS−GSM法は、VM法よりも優れており、PSNRについてはほぼ同等である。しかしながら、BLS−GSM法と異なり、本願の手法は、図5、図6に示す通り輪郭情報が保持されている。ここで、図5(A)はノイズ画像、図5(B)はBLS−GSM法でノイズ除去を行った結果、図5(C)はVM法でノイズ除去を行った結果、図5(D)はLMEP法でノイズ除去を行った結果を示している。また、図6(A)はBLS−GSM法でノイズ除去を行った結果、図6(B)はVM法でノイズ除去を行った結果、図6(C)はLM法でノイズ除去を行った結果、図6(D)はLMEP法でノイズ除去を行った結果を示している。   From Table 3, the LM, LMEP, and BLS-GSM methods, which are the methods of the present application, are superior to the VM method, and the PSNR is almost equivalent. However, unlike the BLS-GSM method, the method of the present application retains contour information as shown in FIGS. Here, FIG. 5A shows a noise image, FIG. 5B shows the result of noise removal by the BLS-GSM method, and FIG. 5C shows the result of noise removal by the VM method. ) Shows the result of noise removal by the LMEP method. 6A shows the result of noise removal by the BLS-GSM method, FIG. 6B shows the result of noise removal by the VM method, and FIG. 6C shows the result of noise removal by the LM method. As a result, FIG. 6D shows the result of noise removal by the LMEP method.

実際、BLS−GSM法によってノイズ除去された画像は、本願の手法に比べて輪郭がぼやけている。LM法とLMEP法は、PSNRと輪郭保持についてほぼ同じであるが、LMEP法のほうが少しであるがPSNR値がよい。いずれにしても、本願の手法による効果が現われているものである。   Actually, an image from which noise has been removed by the BLS-GSM method has a blurred outline as compared with the method of the present application. The LM method and the LMEP method are almost the same in terms of PSNR and contour maintenance, but the LMEP method has a better PSNR value although it is a little. In any case, the effect of the technique of the present application appears.

VM法では、ゼロに近いウェーブレット係数の数が最大になるように自由変数を定めるため、2進ウェーブレットに1バニシングモーメントという仮定を課している。しかし、ノイズ情報が十分に考慮されない可能性がある。これに対して、本願の手法は、自由変数を定めるために学習画像としてノイズ画像を利用するため、ノイズ情報が十分に考慮されたものとなる。したがって、VM法より優れていると考えられる。総じて、本願の手法は、VM法、BLS−GSM法に比べて、輪郭を保持するという点でも優れていることがわかる。   In the VM method, in order to determine the free variable so that the number of wavelet coefficients close to zero is maximized, the binary wavelet is assumed to have one burnishing moment. However, noise information may not be fully considered. On the other hand, since the method of the present application uses a noise image as a learning image in order to determine a free variable, noise information is sufficiently taken into consideration. Therefore, it is considered superior to the VM method. In general, it can be seen that the method of the present application is superior to the VM method and the BLS-GSM method in that the contour is maintained.

さらに、輝度とコントラストを変えた画像に対しても、本願の手法を適用してノイズ除去を行った。その結果を図8、図9及び表4に示す。図8の上段が高輝度画像に対してノイズ除去を行った結果を示し、図8の下段が低輝度画像に対してノイズ除去を行った結果を示している。図8(A)はBLS−GSM法でノイズ除去を行った結果、図8(B)はVM法でノイズ除去を行った結果、図8(C)はLM法でノイズ除去を行った結果、図8(D)はLMEP法でノイズ除去を行った結果を示している。また、図9の上段が高コントラスト画像に対してノイズ除去を行った結果を示し、図9の下段が低コントラスト画像に対してノイズ除去を行った結果を示している。図9(A)はBLS−GSM法でノイズ除去を行った結果、図9(B)はVM法でノイズ除去を行った結果、図9(C)はLM法でノイズ除去を行った結果、図9(D)はLMEP法でノイズ除去を行った結果を示している。   Furthermore, noise removal was performed by applying the method of the present application to images with different brightness and contrast. The results are shown in FIGS. 8 and 9 and Table 4. The upper part of FIG. 8 shows the result of noise removal performed on the high brightness image, and the lower part of FIG. 8 shows the result of noise removal performed on the low brightness image. FIG. 8A shows the result of noise removal by the BLS-GSM method, FIG. 8B shows the result of noise removal by the VM method, and FIG. 8C shows the result of noise removal by the LM method. FIG. 8D shows the result of noise removal by the LMEP method. Further, the upper part of FIG. 9 shows the result of noise removal performed on the high contrast image, and the lower part of FIG. 9 shows the result of noise removal performed on the low contrast image. 9A shows the result of noise removal by the BLS-GSM method, FIG. 9B shows the result of noise removal by the VM method, and FIG. 9C shows the result of noise removal by the LM method. FIG. 9D shows the result of noise removal by the LMEP method.

高輝度と高コントラストの場合を除き、他の手法と同等又は優れた結果が得られた。本願の手法は、BLS−GSM法に比べてPSNR値が良くないが、BLS−GSM法とは異なりノイズの特徴を学習することができるため、ガウシアンノイズだけでなく、他のノイズに対しても適用することができる。この利点を示すために、ごま塩ノイズ画像に対して本願の手法を適用した結果を図10及び表5に示す。図10(A)はごま塩ノイズ画像、図10(B)はVM法でノイズ除去を行った結果、図10(C)はLM法でノイズ除去を行った結果、図10(D)はLMEP法でノイズ除去を行った結果を示している。図10から明らかなように、LM法及びLMEP法では、ごま塩ノイズが精度よく除去されていることがわかる。   Except for the case of high brightness and high contrast, the results were the same as or better than other methods. The method of the present application has a poor PSNR value compared to the BLS-GSM method, but unlike the BLS-GSM method, it can learn the characteristics of noise, so it can be used not only for Gaussian noise but also for other noises. Can be applied. In order to show this advantage, the result of applying the method of the present application to the sesame salt noise image is shown in FIG. 10A shows a sesame salt noise image, FIG. 10B shows the result of noise removal by the VM method, FIG. 10C shows the result of noise removal by the LM method, and FIG. 10D shows the LMEP method. Shows the result of noise removal. As is apparent from FIG. 10, it can be seen that sesame salt noise is accurately removed by the LM method and the LMEP method.

さらに、本願の手法をISOノイズにも適用した。この場合は、ノイズが入っていない原画像がないため、学習部分画像として重要な情報を含んでいない(あまり変化がないところ)領域を選び、自由変数を高周波成分が0になるように学習させた。その結果を図11に示す。図11(A)、(B)はISOノイズ画像、図11(C)、(D)はノイズ除去を行った結果を示している。図11の結果から明らかなように、本願の手法は、ISOノイズにも適用することができることがわかる。   Furthermore, the technique of the present application was also applied to ISO noise. In this case, since there is no original image that does not contain noise, select a region that does not contain important information as a learning partial image (where there is little change), and let the free variable be learned so that the high-frequency component is zero. It was. The result is shown in FIG. 11A and 11B show ISO noise images, and FIGS. 11C and 11D show the results of noise removal. As is clear from the results of FIG. 11, it can be seen that the technique of the present application can also be applied to ISO noise.

なお、上記の記載において、「^,・,~」等の記号は、都合上文字の後に記載している
が、実際は直前の文字の上に付くことを示しているものである。また、「_」の記号についても、都合上文字の後に記載しているが、実際は直前の文字の下に付くことを示しているものである。
In the above description, symbols such as “^,...” Are described after the characters for convenience, but actually indicate that they are added on the immediately preceding character. The symbol “_” is also shown after the character for the sake of convenience, but actually indicates that it is attached below the immediately preceding character.

1 ノイズ除去装置
11 CPU
12 RAM
13 ROM
14 HD
15 通信I/F
16 入出力I/F
21 トレーニング画像情報
22 学習領域切出部
23 フィルタ生成部
24 フィルタ情報記憶部
25 ノイズ除去部
26 ノイズ画像
27 ノイズ除去画像
1 Noise removal device 11 CPU
12 RAM
13 ROM
14 HD
15 Communication I / F
16 Input / output I / F
DESCRIPTION OF SYMBOLS 21 Training image information 22 Learning area extraction part 23 Filter production | generation part 24 Filter information storage part 25 Noise removal part 26 Noise image 27 Noise removal image

Claims (7)

ノイズが含まれていないノイズなしトレーニング周波数情報と、当該ノイズなしトレーニング周波数情報に、一又は複数種類のノイズごとに当該ノイズを含ませたノイズありトレーニング周波数情報とを記憶するトレーニング周波数情報記憶手段と、
前記ノイズなしトレーニング周波数情報と前記ノイズありトレーニング周波数情報とを対応付けて、それぞれのトレーニング周波数情報からノイズの種類ごとに任意の学習領域を切り出す学習領域切出手段と、
前記学習領域切出手段が切り出した前記ノイズなしトレーニング周波数情報の学習領域と前記ノイズありトレーニング周波数情報の学習領域との差分を無くすように学習したフィルタを生成するフィルタ生成手段と、
ノイズの除去を行う対象となる処理対象周波数情報に対して、前記学習領域切出手段が切り出した学習領域ごとに、前記フィルタ生成手段が生成したフィルタを適用させて前記処理対象周波数情報のノイズの除去を行うノイズ除去手段とを備えることを特徴とするノイズ除去装置。
Training frequency information storage means for storing training frequency information without noise, noise-free training frequency information, and training frequency information with noise in which the noise is included for each one or a plurality of types of noise in the noise-free training frequency information; ,
A learning region cutout unit that associates the training frequency information without noise and the training frequency information with noise, and cuts out an arbitrary learning region for each type of noise from each training frequency information,
Filter generating means for generating a filter that learns to eliminate the difference between the learning area of the training frequency information without noise and the learning area of the training frequency information with noise cut out by the learning area cutting out means;
The filter generated by the filter generation unit is applied to each of the learning regions cut out by the learning region extraction unit with respect to the processing target frequency information to be subjected to noise removal, and the noise of the processing target frequency information is applied. A noise removing device comprising noise removing means for performing removal.
請求項1に記載のノイズ除去装置において、
前記周波数情報が音声情報又は画像情報であることを特徴とするノイズ除去装置。
In the noise removal apparatus of Claim 1,
The noise removing apparatus, wherein the frequency information is audio information or image information.
請求項1に記載のノイズ除去装置において、
前記周波数情報が画像情報であり、
前記フィルタ生成手段が、シフト不変のウェーブレット変換により縦方向、横方向、及び斜め方向の高周波成分に基づいて、前記ノイズなしトレーニング周波数情報の学習領域と前記ノイズありトレーニング周波数情報の学習領域との差分を無くすように学習することを特徴とするノイズ除去装置。
In the noise removal apparatus of Claim 1,
The frequency information is image information;
A difference between the learning area of the training frequency information without noise and the learning area of the training frequency information with noise based on the high-frequency components in the vertical direction, the horizontal direction, and the diagonal direction by the shift invariant wavelet transform. A noise removing device that learns to eliminate the noise.
請求項1ないし3のいずれかに記載のノイズ除去装置において、
前記学習領域切出手段が、予め設定された所定のサイズの切出領域で前記ノイズなしトレーニング周波数情報と前記ノイズありトレーニング周波数情報とを対応付け、前記切出領域の高周波成分の特徴に応じて切り出す学習領域を決定することを特徴とするノイズ除去装置。
In the noise removal apparatus in any one of Claim 1 thru | or 3,
The learning area cutout means associates the noise-free training frequency information with the noise-trained training frequency information in a predetermined size cutout area set in advance, and according to the characteristics of the high-frequency component of the cutout area A noise removing device that determines a learning region to be cut out.
請求項1ないし4のいずれかに記載のノイズ除去装置において、
前記ノイズ除去手段が、前記学習領域切出手段で切り出された学習領域の高周波成分と前記処理対象周波数情報における任意の領域の高周波成分とを比較し、それぞれが似ていると判断される領域に対して、当該学習領域に対応する前記フィルタを適用させてノイズを除去することを特徴とするノイズ除去装置。
In the noise removal apparatus in any one of Claims 1 thru | or 4,
The noise removing unit compares the high frequency component of the learning region extracted by the learning region extracting unit with the high frequency component of an arbitrary region in the processing target frequency information, and determines that the regions are determined to be similar to each other. On the other hand, a noise removing apparatus that removes noise by applying the filter corresponding to the learning region.
コンピュータが、
ノイズが含まれていないノイズなしトレーニング周波数情報と、当該ノイズなしトレーニング周波数情報に、一又は複数種類のノイズごとに当該ノイズを含ませたノイズありトレーニング周波数情報とを対応付けて、それぞれのトレーニング周波数情報からノイズの種類ごとに任意の学習領域を切り出す学習領域切出ステップと、
前記学習領域切出ステップで切り出した前記ノイズなしトレーニング周波数情報の学習領域と前記ノイズありトレーニング周波数情報の学習領域との差分を無くすように学習したフィルタを生成するフィルタ生成ステップと、
ノイズの除去を行う対象となる処理対象周波数情報に対して、前記学習領域切出ステップが切り出した学習領域ごとに、前記フィルタ生成ステップが生成したフィルタを適用させて前記処理対象周波数情報のノイズの除去を行うノイズ除去ステップとを実行することを特徴とするノイズ除去方法。
Computer
The training frequency information without noise and the training frequency information without noise and the training frequency information with noise including the noise for each of one or more types of noise are associated with each training frequency. A learning region extraction step for extracting an arbitrary learning region for each type of noise from information,
A filter generation step of generating a filter that has been learned so as to eliminate the difference between the learning region of the training frequency information without noise cut out in the learning region extraction step and the learning region of the training frequency information with noise;
For the processing target frequency information to be subjected to noise removal, the filter generated by the filter generation step is applied to each learning region extracted by the learning region extraction step, and the noise of the processing target frequency information is And a noise removal step for performing the removal.
ノイズが含まれていないノイズなしトレーニング周波数情報と、当該ノイズなしトレーニング周波数情報に、一又は複数種類のノイズごとに当該ノイズを含ませたノイズありトレーニング周波数情報とを記憶するトレーニング周波数情報記憶手段、
前記ノイズなしトレーニング周波数情報と前記ノイズありトレーニング周波数情報とを対応付けて、それぞれのトレーニング周波数情報からノイズの種類ごとに任意の学習領域を切り出す学習領域切出手段、
前記学習領域切出手段が切り出した前記ノイズなしトレーニング周波数情報の学習領域と前記ノイズありトレーニング周波数情報の学習領域との差分を無くすように学習したフィルタを生成するフィルタ生成手段、
ノイズの除去を行う対象となる処理対象周波数情報に対して、前記学習領域切出手段が切り出した学習領域ごとに、前記フィルタ生成手段が生成したフィルタを適用させて前記処理対象周波数情報のノイズの除去を行うノイズ除去手段としてコンピュータを機能させるノイズ除去プログラム。
Training frequency information storage means for storing noise-free training frequency information that does not include noise, and noise-free training frequency information in which the noise is included for each of one or more types of noise in the noise-free training frequency information,
A learning area cutout unit that associates the training frequency information without noise and the training frequency information with noise, and cuts out an arbitrary learning area for each type of noise from each training frequency information,
Filter generation means for generating a filter that learns to eliminate a difference between the learning area of the training frequency information without noise and the learning area of the training frequency information with noise cut out by the learning area cutout means;
The filter generated by the filter generation unit is applied to each of the learning regions cut out by the learning region extraction unit with respect to the processing target frequency information to be subjected to noise removal, and the noise of the processing target frequency information is applied. A noise removal program that causes a computer to function as noise removal means for performing removal.
JP2010203077A 2010-09-10 2010-09-10 Noise removing apparatus, method thereof, and program Expired - Fee Related JP5594665B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010203077A JP5594665B2 (en) 2010-09-10 2010-09-10 Noise removing apparatus, method thereof, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010203077A JP5594665B2 (en) 2010-09-10 2010-09-10 Noise removing apparatus, method thereof, and program

Publications (2)

Publication Number Publication Date
JP2012059118A true JP2012059118A (en) 2012-03-22
JP5594665B2 JP5594665B2 (en) 2014-09-24

Family

ID=46056115

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010203077A Expired - Fee Related JP5594665B2 (en) 2010-09-10 2010-09-10 Noise removing apparatus, method thereof, and program

Country Status (1)

Country Link
JP (1) JP5594665B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102236788B1 (en) * 2019-10-21 2021-04-06 주식회사 픽스트리 Method and Apparatus for Restoring Image
KR102289045B1 (en) * 2020-03-23 2021-08-11 주식회사 픽스트리 Method and Apparatus for Providing Multi-scale Object Image Restoration
CN113640380A (en) * 2021-06-07 2021-11-12 济南大学 Multi-stage classification method and system for rail damage detection

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022099133A1 (en) * 2020-11-09 2022-05-12 Canon U.S.A., Inc. Using activation maps to detect best areas of an image for prediction of noise levels

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05346956A (en) * 1992-06-08 1993-12-27 Nec Corp Processor for image signal
JP2008298703A (en) * 2007-06-04 2008-12-11 Toyohashi Univ Of Technology Device for automatic inspection of surface defect and inspection method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05346956A (en) * 1992-06-08 1993-12-27 Nec Corp Processor for image signal
JP2008298703A (en) * 2007-06-04 2008-12-11 Toyohashi Univ Of Technology Device for automatic inspection of surface defect and inspection method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6014015372; 鶴田圭佑、外一名: 'Dyadic Lifting Schemeを利用したデジタル画像のノイズ除去' 可視化情報学会誌 第29巻、Suppl.No.2, 200910, 99-100, (社)可視化情報学会 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102236788B1 (en) * 2019-10-21 2021-04-06 주식회사 픽스트리 Method and Apparatus for Restoring Image
WO2021080233A1 (en) * 2019-10-21 2021-04-29 주식회사 픽스트리 Image restoration method and apparatus
KR102289045B1 (en) * 2020-03-23 2021-08-11 주식회사 픽스트리 Method and Apparatus for Providing Multi-scale Object Image Restoration
CN113640380A (en) * 2021-06-07 2021-11-12 济南大学 Multi-stage classification method and system for rail damage detection
CN113640380B (en) * 2021-06-07 2023-05-09 济南大学 Multistage classification method and system for rail damage detection

Also Published As

Publication number Publication date
JP5594665B2 (en) 2014-09-24

Similar Documents

Publication Publication Date Title
Jain et al. A survey of edge-preserving image denoising methods
Fathi et al. Efficient image denoising method based on a new adaptive wavelet packet thresholding function
Zhang et al. High-quality image restoration using low-rank patch regularization and global structure sparsity
Gu et al. A brief review of image denoising algorithms and beyond
Selesnick et al. Signal restoration with overcomplete wavelet transforms: Comparison of analysis and synthesis priors
Shreyamsha Kumar Image denoising based on non-local means filter and its method noise thresholding
Goyal et al. Two-dimensional gray scale image denoising via morphological operations in NSST domain & bitonic filtering
Khmag et al. Denoising of natural images through robust wavelet thresholding and genetic programming
Lyu et al. A nonsubsampled countourlet transform based CNN for real image denoising
JP5594665B2 (en) Noise removing apparatus, method thereof, and program
Shahdoosti et al. Combined ripplet and total variation image denoising methods using twin support vector machines
Habib et al. Wavelet denoising of multiframe optical coherence tomography data using similarity measures
Kumar et al. A framework for image denoising using first and second order fractional overlapping group sparsity (HF-OLGS) regularizer
Li et al. Multiplicative noise removal via adaptive learned dictionaries and TV regularization
Biswas et al. An image denoising threshold estimation method
Gifani et al. Echocardiography noise reduction using sparse representation
Banothu et al. High-order total bounded variation approach for gaussian noise and blur removal
El Hassani et al. Efficient image denoising method based on mathematical morphology reconstruction and the Non-Local Means filter for the MRI of the head
Diwakar et al. Blind noise estimation-based CT image denoising in tetrolet domain
CN108649926B (en) DAS data denoising method based on wavelet basis tensor sparse representation
Sun et al. Color image denoising based on guided filter and adaptive wavelet threshold
Sujitha et al. Hybrid laplacian Gaussian based speckle removal in SAR image processing
Singh et al. Noise reduction in ultrasound images using wavelet and spatial filtering techniques
Deyan et al. Image Denoising method based on NSCT bivariate model and Variational Bayes threshold estimation
Kaur et al. Image enhancement of ultrasound images using multifarious denoising filters and GA

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130805

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140327

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140415

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140613

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140616

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140722

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140728

R150 Certificate of patent or registration of utility model

Ref document number: 5594665

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees