JP3995854B2 - Image processing method and apparatus, and recording medium - Google Patents

Image processing method and apparatus, and recording medium Download PDF

Info

Publication number
JP3995854B2
JP3995854B2 JP36376699A JP36376699A JP3995854B2 JP 3995854 B2 JP3995854 B2 JP 3995854B2 JP 36376699 A JP36376699 A JP 36376699A JP 36376699 A JP36376699 A JP 36376699A JP 3995854 B2 JP3995854 B2 JP 3995854B2
Authority
JP
Japan
Prior art keywords
pixel
image signal
noise
signal
band
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP36376699A
Other languages
Japanese (ja)
Other versions
JP2001057677A (en
Inventor
雅彦 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP36376699A priority Critical patent/JP3995854B2/en
Priority to EP00112396A priority patent/EP1059811A2/en
Priority to US09/592,602 priority patent/US6754398B1/en
Publication of JP2001057677A publication Critical patent/JP2001057677A/en
Application granted granted Critical
Publication of JP3995854B2 publication Critical patent/JP3995854B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、原画像信号に対してノイズを除去する処理を施す画像処理方法および装置並びに画像処理方法をコンピュータに実行させるためのプログラムを記録したコンピュータ読取り可能な記録媒体に関するものである。
【0002】
【従来の技術】
画像処理の分野においては、画像信号に対して各周波数帯域毎に異なる画像処理を施すような場合に、画像信号を周波数帯域毎に分類する手段としてウェーブレット変換やラプラシアンピラミッドの手法が用いられている。ここで画像処理としては、例えばノイズ除去のための高周波の分離、さらにはノイズの多い周波数帯域のデータを削減することによる圧縮処理などが挙げられる。本出願人も、ウェーブレット変換を用いて画像中のエッジ成分のみを強調する等の画像処理を行なうようにした画像処理方法を種々提案している(例えば特開平6-274615号、特開平6-350989号等)。
【0003】
一方、ラプラシアンピラミッドなる方法は例えば特開平5-244508号、特開平6-96200 、特開平6-301766号等に記載されており、このラプラシアンピラミッドは、原画像に対してガウス関数で近似されたようなマスクによりマスク処理を施した後、画像をサブサンプリングして画素数を間引いて半分にすることにより、原画像の1/4のサイズのボケ画像を得、このボケ画像のサンプリングされた画素に値が0の画素を補間して元の大きさの画像に戻し、この画像に対してさらに上述したマスクによりマスク処理を施してボケ画像を得、このボケ画像を原画像から減算して、原画像信号のある限られた周波数帯域の周波数成分を表す、すなわち原画像の複数の周波数帯域毎の周波数応答特性を表す帯域制限画像信号(バンドパス信号)を得るものである。この処理を得られたボケ画像に対して繰り返すことにより原画像の1/22Nのサイズを有する帯域制限画像信号をN個作成するものである。なお、最低周波数帯域のボケ画像は原画像の低周波成分を表すものとなる。
【0004】
ここで、放射線画像においては、放射線量が少なく濃度が低い部分において、放射線の量子ノイズが目立ってしまう。このため、上記特開平6-96200号においては、放射線画像をラプラシアンピラミッドにより複数の周波数帯域の画像に分解して各周波数帯域毎の帯域制限画像信号を得、各帯域制限画像信号の局所分散値を算出し、この局所分散値の大きさに応じて帯域制限画像信号に対してノイズ成分を除去する処理を施し、処理を施した後の帯域制限画像信号を最低周波数帯域のボケ画像を表すボケ画像信号とともに再構成することにより、画像中の周波数帯域に応じたノイズ成分が低減された処理済み画像信号を得るようにした方法が提案されている。
【0005】
【発明が解決しようとする課題】
上記特開平6-96200号に記載された方法においては、各周波数帯域の帯域制限画像信号に対してノイズ成分を除去する処理を施しているため、ノイズを除去し過ぎたり、ノイズの除去の程度が不足していた場合には、再度帯域制限画像信号に対してノイズ除去の程度を変更した後に画像を再構成する必要があり、この結果、再処理には長時間を要するものとなる。したがって、CRTを観察しながらノイズ除去の程度を種々変更して適切にノイズ除去がなされた画像を得るような場合には、処理が施された画像が再生されるまでに長時間を要するものとなり、オペレータのストレスが大きい。
【0006】
本発明は上記事情に鑑みなされたものであり、原画像からノイズ成分を適切に除去することができる画像処理方法および装置並びに画像処理方法をコンピュータに実行させるためのプログラムを記録したコンピュータ読取り可能な記録媒体を提供することを目的とするものである。
【0007】
【課題を解決するための手段】
本発明による画像処理方法は、原画像を表す原画像信号に対して、前記原画像のノイズを低減する画像処理を施す画像処理方法において、原画像信号から帯域制限画像信号(少なくとも1つであればよい)を作成し、作成した帯域制限画像信号に基づいて原画像信号と同一画素数のノイズ信号を得、該ノイズ信号に基づいて原画像信号のノイズ成分を除去することを特徴とするものである。
【0008】
ここで、「原画像信号と同一画素数」とは、原画像信号により表される画像とノイズ信号により表されるノイズ画像の画像サイズが同一であることをいう。
【0009】
また、「ノイズ信号に基づいて、原画像信号のノイズ成分を除去する」とは、再生画像に含まれるノイズ成分が低減されるようにすることを意味し、例えば、原画像信号からノイズ成分、あるいはノイズ成分に所定のノイズ抑制レベルを表す係数を乗算したものを減算するなどして、原画像信号のノイズ成分を除去するとよい。なお、前記係数は原画像信号の信号値に依存して変更してもよい。
【0010】
本発明による画像処理方法においては、前記原画像信号を多重解像度変換することにより帯域制限画像信号を作成し、該帯域制限画像信号からノイズ成分を分離してノイズ帯域制限画像信号を得、該ノイズ帯域制限画像信号を逆多重解像度変換することにより前記ノイズ信号を得るものとすることができる。なお、逆多重解像度変換は、前記多重解像度変換に対応するものであって、この逆多重解像度変換を施すことにより、、元の信号を復元(可逆/非可逆のいずれでもよい)することができるものであることはいうまでもない。
【0011】
ここで、「原画像信号を多重解像度変換することにより帯域制限画像信号を作成」するに際しては、ラプラシアンピラミッドの手法によるラプラシアンピラミッド分解により、あるいはウェーブレット変換により原画像信号を複数の周波数帯域毎の周波数応答特性を表す信号に変換する方法などを用いることができる。この場合、「逆多重解像度変換」としては、ラプラシアンピラミッド分解により帯域制限画像信号を得た場合はラプラシアンピラミッド再構成の方法が用いられ、ウェーブレット変換により帯域制限画像信号を得た場合は逆ウェーブレット変換が用いられるのはいうまでもない。
【0012】
また、「ノイズ帯域制限画像信号」とは、帯域制限画像信号に含まれるノイズ成分のみを表す信号のことをいう。
【0013】
また、本発明による画像処理方法においては、前記ノイズ信号の取得を、アイリスフィルタによるフィルタリング処理に基づいて行なうことが好ましい。
【0014】
また、本発明による画像処理方法においては、帯域制限画像信号により表される帯域制限画像の各画素における画素ベクトルを算出し、ノイズ信号の取得を、該画素ベクトルに基づいて行なうこともできる。
【0015】
ここで「画素ベクトル」は、周波数帯域画像のある画素を注目画素とした場合、注目画素の画素値の傾斜方向および傾斜の大きさを表すものである。「画素ベクトル」を求めるに際しては、例えば、注目画素を中心とする複数の方向に対して、注目画素の画素値とその近傍の画素の画素値(近傍画素をある方向にある複数の画素とした場合はその平均値)との差を求め、その差が最も大きい方向あるいは最も小さい方向を決定し、その方向およびその差に基づいて画素ベクトルを算出するとよい。
【0016】
ここで、差が最も大きい方向を画素ベクトルとした場合はその画素ベクトルは信号勾配の方向を表し、差が最も小さい方向を画素ベクトルとした場合はその画素ベクトルは等信号線の方向を表すものとなる。なお、信号勾配の方向に画素ベクトルを求めた場合、その大きさを注目画素とその近傍画素の画素値の差とすれば、画素ベクトルが大きいほどその画素ベクトルを求めた画素はエッジ成分にあるものとなり、画素ベクトルが小さいほどその画素ベクトルを求めた画素は平坦部にあるものと見なせる。逆に、信号勾配の方向に画素ベクトルを求めた場合に、その大きさを注目画素とその近傍画素の画素値の差の逆数とすれば、画素ベクトルが小さいほどその画素ベクトルを求めた画素はエッジ成分にあるものとなり、画素ベクトルが大きいほどその画素ベクトルを求めた画素は平坦部にあるものと見なせる。
【0017】
さらに、等信号線方向に画素ベクトルを求めた場合、その大きさを注目画素とその近傍画素の画素値の差とすれば、画素ベクトルが小さいほどその画素ベクトルを求めた画素はエッジ成分にあるものとなり、画素ベクトルが大きいほどその画素ベクトルを求めた画素は平坦部にあるものと見なせる。逆に等信号線方向に画素ベクトルを求めた場合に、その大きさを注目画素とその近傍画素の画素値の差の逆数とすれば、画素ベクトルが大きいほどその画素ベクトルを求めた画素はエッジ成分にあるものとなり、画素ベクトルが小さいほどその画素ベクトルを求めた画素は平坦部にあるものと見なせる。
【0018】
なお、画素ベクトルの方向としては差が最も大きい方向と2番目に差が大きい方向、あるいは差が最も小さい方向と2番目に差が小さい方向の2種類のものを求めてもよく、この場合、画素ベクトルは2つのベクトルからなるものとなる。
【0019】
さらに、ある注目画素について画素ベクトルを等信号線の方向に求め、画素ベクトルの大きさを上記差の逆数とした場合、上述したように画素ベクトルが大きいほどその注目画素はエッジにあり、画素ベクトルが小さいほどその注目画素は濃度が平坦な部分にあると見なすことができ、平坦な部分においてはその画素はノイズと見なすことができる。
【0020】
以上のことから、「画素ベクトルに基づいてノイズ信号を取得する」に際しては、画素ベクトルの方向および/または大きさに応じて、その画素がエッジにあるか平坦部にあるかを判断し、その判断結果に応じて、帯域制限画像信号からノイズ信号を取得(ノイズ成分を分離)するとよいということが判る。
【0021】
なお、「帯域制限画像信号からノイズ信号を取得」するに際しては、例えば、画素ベクトルの大きさに基づいて、帯域制限画像信号のノイズ成分およびエッジ成分を分離し、帯域制限画像信号に対して、ノイズ成分に対する平滑化処理および/またはエッジ成分に対する強調処理を施して処理済帯域制限画像信号を得、該処理済帯域制限画像信号を用いて平滑化前の帯域制限画像信号に含まれるノイズ信号を取得するとよい。ここで、「ノイズ成分に対する平滑化処理」とはノイズ成分に対応する画素の画素値を小さくする処理であり、「エッジ成分に対する強調処理」とはエッジ成分に対応する画素の画素値を大きくする処理である。
【0022】
なお、このように画素ベクトルに基づいてノイズ信号を取得する場合においては、各画素の近傍の画素における画素ベクトル(周辺画素ベクトル)を算出し、この算出した周辺画素ベクトルにも基づいてノイズ信号を取得することが好ましい。
【0023】
また、画素ベクトルを算出する場合においては、一の周波数帯域における帯域制限画像の一の画素における画素ベクトルを、該一の周波数帯域よりも低周波数帯域の画像における前記一の画素に対応する画素の画素ベクトルに基づいて修正し、画素ベクトルの代わりに、該修正された画素ベクトルに基づいて、ノイズ信号を取得することが望ましい。
【0024】
ここで、「画素ベクトルを修正する」とは、一の周波数帯域における一の画素の画素ベクトルの方向を、一の周波数帯域よりも低周波数帯域における一の画素に対応する画素の画素ベクトルの方向と一致させることをいう。
【0025】
さらに、画素ベクトルを算出する場合においては、一の周波数帯域における帯域制限画像の一の画素を含む所定領域の分散値を算出し、該分散値に基づいて前記一の画素の画素ベクトルを修正するか否かを判断し、前記一の画素の画素ベクトルを修正すると判断された場合は、該一の画素における画素ベクトルを、前記一の周波数帯域よりも低周波数帯域の画像における前記一の画素に対応する画素の画素ベクトルに基づいて修正し、画素ベクトルの代わりに、該修正された画素ベクトルに基づいて、ノイズ信号を取得することが望ましい。
【0026】
ここで、「分散値」とは、上記所定領域の分散値のみならず、画素ベクトルを算出した際の注目画素とその近傍の画素との差分値であってもよい。また、この差分値としては、例えば注目画素近傍8画素から画素ベクトルを求めた場合は、注目画素と近傍8画素の差の和、あるいはこの差の平均値等としてもよい。
【0027】
また、「分散値に基づいて前記一の画素の画素ベクトルを修正するか否かを判断する」とは、ある画素を含む所定領域の分散値が他の領域における分散値よりも小さい場合にはそこを平坦部と見なして低周波数帯域の画像を参照せず、分散値が大きい場合は低周波数帯域の画像を参照するよう判断することをいう。
【0028】
また、「画素ベクトルを修正する」とは、上述同様に、一の周波数帯域における一の画素の画素ベクトルの方向を、一の周波数帯域よりも低周波数帯域における一の画素に対応する画素の画素ベクトルの方向と一致させることをいう。
【0029】
なお、「画素ベクトルを修正する」に際しては、周辺画素ベクトルも修正の対象としてもよい。
【0030】
また、本発明による画像処理方法においては、画素ベクトルに基づいて帯域制限画像信号を平滑化して平滑化帯域制限画像信号を得、画素ベクトルの代わりに、該平滑化帯域制限画像信号に基づいてノイズ信号を取得することもできる。
【0031】
この場合、画素ベクトルの代わりに、前述の各方法を用いて修正された画素ベクトルに基づいて、平滑化帯域制限画像信号を得ることが望ましい。
【0032】
ここで「画素ベクトルに基づいて帯域制限画像信号を平滑化」するとは、画素ベクトル、特に画素ベクトルの方向に基づいて、エッジ成分が保存されつつエッジ成分に含まれるノイズ(エッジ上のノイズ)が抑制されるように帯域制限画像信号を平滑化することを意味する。例えば、画素ベクトルが等信号線方向のベクトルの場合、画素ベクトルを求めた注目画素とそのベクトル方向にある画素さらにはベクトル方向とは反対側にある画素とを用いて平滑化するとよい。また「平滑化」に際しては、画素ベクトル方向にある画素の画素値の平均値を求める方法や、平滑化フィルタを用いて平滑化する方法などを用いることができる。
【0033】
また「平滑化帯域制限画像信号に基づいてノイズ信号を取得する」に際しては、平滑化帯域制限画像信号を用いて平滑化前の帯域制限画像信号に含まれるノイズ成分を分離してノイズ信号を取得するものである限りどのような方法を用いてもよく、例えば平滑化前の帯域制限画像信号から平滑化帯域制限画像信号を減算してノイズ信号(ノイズ帯域制限画像信号)を得るとよい。また、画素ベクトルの大きさに基づいて、平滑化帯域制限画像信号のノイズ成分およびエッジ成分を分離した後、平滑化帯域制限画像信号に対して、ノイズ成分に対する平滑化処理および/またはエッジ成分に対する強調処理を施して処理済帯域制限画像信号を得、該処理済帯域制限画像信号を用いて平滑化前の帯域制限画像信号に含まれるノイズ信号を取得するようにしてもよい。なお前述同様に「ノイズ成分に対する平滑化処理」はノイズ成分に対応する画素の画素値を小さくする処理であり、「エッジ成分に対する強調処理」はエッジ成分に対応する画素の画素値を大きくする処理である。
【0034】
また本発明による画像処理方法においては、原画像信号およびノイズ信号を記憶し、ノイズ成分を除去する度合いを示すパラメータの設定値が変更されたときには、原画像信号およびノイズ信号を読み出し、この読み出した原画像信号およびノイズ信号と変更されたパラメータとに基づいて原画像信号のノイズ成分を除去することが望ましい。
【0035】
本発明による画像処理装置は、原画像を表す原画像信号に対して、前記原画像のノイズを低減する画像処理を施す画像処理装置において、原画像信号から帯域制限画像信号を作成する帯域制限画像信号作成手段と、該帯域制限画像信号に基づいて、原画像信号と同一画素数のノイズ信号を得を得るノイズ信号取得手段と、該ノイズ信号に基づいて、原画像信号のノイズ成分を除去するノイズ除去手段とを備えたことを特徴とするものである。
【0036】
なお、本発明による画像処理装置においては、帯域制限画像信号作成手段を原画像信号を多重解像度変換することにより帯域制限画像信号を作成するものとすると共に、ノイズ信号取得手段を帯域制限画像信号からノイズ成分を分離してノイズ帯域制限画像信号を得、該ノイズ帯域制限画像信号を逆多重解像度変換することによりノイズ信号を得るものとすることができる。ここで、前記多重解像度変換は、ラプラシアンピラミッド分解による変換、またはウェーブレット変換とすることができる。
【0037】
さらに、本発明による画像処理装置のノイズ信号取得手段は、前記ノイズ信号の取得を、アイリスフィルタによるフィルタリング処理により行なう手段であることが好ましい。
【0038】
また、本発明による画像処理装置においては、帯域制限画像信号により表される帯域制限画像の各画素における画素ベクトルを算出する画素ベクトル算出手段を備えたものとすると共に、ノイズ信号取得手段を、画素ベクトル算出手段により算出された画素ベクトルに基づいてノイズ信号を取得するものとするのが望ましい。
【0039】
このように画素ベクトル算出手段を備えたものとする場合には、ノイズ信号取得手段は、各画素の近傍の画素における画素ベクトルにも基づいて、ノイズ信号を取得するものであることが望ましい。
【0040】
また、画素ベクトル算出手段を備えたものとする場合には、一の周波数帯域における帯域制限画像の一の画素における画素ベクトルを、該一の周波数帯域よりも低周波数帯域の画像における前記一の画素に対応する画素の画素ベクトルに基づいて修正する修正手段を備えたものとすると共に、ノイズ信号取得手段を、画素ベクトルの代わりに、修正された画素ベクトルに基づいてノイズ信号を取得するものとするのが望ましい。
【0041】
また、画素ベクトル算出手段を備えたものとする場合には、一の周波数帯域における帯域制限画像の一の画素を含む所定領域の分散値を算出する分散値算出手段と、該分散値に基づいて前記一の画素の画素ベクトルを修正するか否かを判断する判断手段と、前記一の画素の画素ベクトルを修正すると判断された場合は、該一の画素における画素ベクトルを、前記一の周波数帯域よりも低周波数帯域の画像における前記一の画素に対応する画素の画素ベクトルに基づいて修正する修正手段とを備えたものとすると共に、ノイズ信号取得手段を、画素ベクトルの代わりに、修正された画素ベクトルに基づいてノイズ信号を取得するものとすることが望ましい。
【0042】
さらに、画素ベクトル算出手段を備えたものとする場合には、画素ベクトルに基づいて帯域制限画像信号を平滑化して平滑化帯域制限画像信号を得る平滑化手段を備えたものとすると共に、ノイズ信号取得手段を、平滑化帯域制限画像信号に基づいてノイズ信号を取得するものとすることもできる。
【0043】
この場合、平滑化手段は、画素ベクトルの代わりに、前記修正手段により修正された画素ベクトルに基づいて、平滑化帯域制限画像信号を得るものであることが望ましい。
【0044】
また、本発明の画像処理装置においては、原画像信号を記憶する第1の記憶手段と、ノイズ信号取得手段により取得されたノイズ信号を記憶する第2の記憶手段(第1の記憶手段との兼用も可能)と、ノイズ成分を除去する度合いを示すパラメータをノイズ除去手段に対して設定するためのパラメータ設定手段とをさらに備えたものとし、
ノイズ除去手段を、パラメータ設定手段によりパラメータの設定値が変更されたときには、第1の記憶手段から原画像信号を読み出すとともに、第2の記憶手段からノイズ信号を読み出し、この読み出した原画像信号およびノイズ信号と変更されたパラメータとに基づいてノイズ除去済画像信号を生成するものとするのが望ましい。
【0045】
なお、本発明による画像処理方法をコンピュータに実行させるためのプログラムとして、コンピュータ読取り可能な記録媒体に記録して提供してもよい。
【0046】
【発明の効果】
本発明によれば、原画像信号から帯域制限画像信号を作成し、作成した帯域制限画像信号に基づいて原画像信号と同一画素数のノイズ信号を得、該ノイズ信号に基づいて原画像信号のノイズ成分を除去するようにしたので、原画像信号の周波数帯域に応じたノイズ成分を除去することができることとなる。
【0047】
また、原画像信号および生成したノイズ信号を記憶し、ノイズ成分を除去する度合いを示すパラメータの設定値が変更されたときには、原画像信号およびノイズ信号を読み出し、この読み出した原画像信号およびノイズ信号と変更されたパラメータとに基づいて原画像信号のノイズ成分を除去するようにすれば、一旦ノイズ信号を作成した後に再度ノイズ除去済信号に基づいてノイズ除去画像を出力する際には、記憶してあるノイズ信号を読み出して使用することができるので、パラメータを変更してノイズ信号のレベルを変更するのみで、原画像信号からのノイズ除去の程度を任意に変更することができるため、上記特開平6-96200 号に記載された方法と比較して、ノイズ除去の程度を簡易に変更することができ、これにより、ノイズ除去程度が変更された処理済み画像信号を得るための演算時間を短縮して、オペレータのストレスを低減することができる。
【0048】
また、帯域制限画像信号を生成する方法としては種々の方法を用いることができ、例えば、帯域制限画像信号を原画サイズで持つこともできる。これにより、原画に対して複数サイズのマスクで平滑化し、原画サイズの帯域制限画像信号を得て、各々ノイズ分離したノイズ帯域制限画像信号を全て加算してノイズ信号を生成することもできる。勿論、帯域制限画像信号を生成する方法として、多重解像度変換を利用することもできる。
【0049】
また、ノイズ信号の取得手法としても種々の方法を用いることもできる。例えば、帯域制限画像信号により表される帯域制限画像の各画素における画素ベクトルを算出し、該画素ベクトルに基づいてノイズ成分(ノイズ信号)の分離を行なう方法である。ここで、上述したように、画素ベクトルを等信号線方向に求めるか信号勾配方向に求めるか、さらには上記差として求めるか上記差の逆数として求めるかによって状況が異なるが、例えば画素ベクトルを等信号線方向に求め、画素ベクトルの大きさを上記差の逆数とした場合、エッジ部分においては画素ベクトルは大きく、平坦部すなわちノイズ部分においては画素ベクトルは小さくなる。したがって、この方法を用いると、画素ベクトルの大きさに応じて帯域制限画像のノイズ成分を分離することができる。そして、例えば、分離されたノイズ成分に対する画素の画素値を低減する平滑化処理を施した後、該平滑化処理が施された信号に基づいて帯域制限画像信号からノイズ成分を分離してノイズ信号を得、このノイズ信号に基づいて原画像信号の周波数帯域に応じたノイズ成分を除去できる。
【0050】
ここで、画素ベクトルを等信号線方向に求め、画素ベクトルの大きさを上記差の逆数とした場合において、画素ベクトルの値が比較的小さい場合は、その画素ベクトルを求めた一の画素は平坦部すなわちノイズにあると見なせるが、画像中の微小なエッジにある可能性もある。一方、その画素がエッジにある場合はその近傍の画素における画素ベクトルは同一の方向を向き、ノイズである場合はその近傍の画素における画素ベクトルはランダムな方向を向く。したがって、各画素の近傍画素の画素ベクトルにも基づくことにより、ある画素がエッジを表すものであるかノイズを表すものであるかの確度を向上させることができ、これによりノイズ成分をより正確に分離することができる。
【0051】
また、原画像に含まれる比較的大きなエッジは低周波数帯域の画像においても残るが、ノイズについては低周波帯域の画像ほど小さくなるものである。このため、一の周波数帯域における帯域制限画像の一の画素における画素ベクトルを、一の周波数帯域よりも低周波数帯域の画像における一の画素に対応する画素の画素ベクトルの方向と同じにすることにより、その画素がエッジ成分にある場合はその画素ベクトルはよりエッジ成分を表すものとなる。一方、その画素がノイズ成分にある場合は低周波帯域の画像の方が細かなノイズが小さくなることから画素ベクトルはランダムな方向を向きかつ大きさはさらに小さくなるため、その画素ベクトルはより平坦部すなわちノイズ成分を表すものとなる。したがって、一の周波数帯域における帯域制限画像の一の画素における画素ベクトルを、一の周波数帯域よりも低周波数帯域の画像における一の画素に対応する画素の画素ベクトルに基づいて修正することにより、その画素がエッジであるかノイズであるかの確度を向上させることができ、これによりノイズ成分およびエッジ成分の分離をより正確に行なうことができる。
【0052】
さらに、原画像信号を多重解像度変換した場合、比較的高周波数帯域の画像においては詳細なエッジ情報が表現され、中間周波数帯域の画像においては中間周波数帯域のエッジ情報が、低周波数帯域の画像においては低周波数帯域の大きなエッジ情報が表現されることとなる。一般的に周波数帯域の画像が持っているエネルギは高周波数帯域ほど小さくなるが、ノイズのエネルギは周波数帯域に依存しないという特性があるため、低周波数帯域の画像ほどS/Nが良好なものとなる。ここで、原画像におけるノイズが混入していない部分(図27(a)参照)は、いずれの帯域制限画像においてもエッジ部分にのみ信号を有することとなるため(図27(b)〜(d)参照)、比較的高周波数帯域の画像において、画素ベクトルを求めた画素を含む所定領域における画素値の分散値が小さければ、低周波帯域の画像の画素ベクトルを参照しなくてもその画素ベクトルを求めた注目画素は平坦部にあると見なすことができる。
【0053】
一方、原画像におけるノイズが混入した部分(図28(a))は、高周波数帯域の画像においてはノイズの影響により画素ベクトルの方向が乱されて分散値が大きくなるが(図28(b))、低周波数帯域となるほど信号に対するノイズの影響が小さくなって分散値が小さくなる(図28(c)、(d))。したがって、一の帯域制限画像において画素ベクトルを求めた一の画素を含む所定領域における画素値の分散値が大きい場合は、低周波数帯域の画像における対応する画素ベクトルを参照しなければ、その画素ベクトルを求めた画素が平坦部にあるものであるのかエッジ部分にあるものであるのかが分からない。このため、一の帯域制限画像において上記分散値が大きい場合は、低周波数帯域の画像を参照して、画素ベクトルを低周波帯域の画像における対応する画素の画素ベクトルと一致させることにより、平坦部の画素ベクトルはより平坦部を表すものとして、エッジ部分の画素ベクトルはよりエッジ部分を表すものとして修正されることとなる。したがって、修正された画素ベクトルに基づけば、ノイズ成分をより正確に分離することができることとなる。
【0054】
一方、画像にノイズが混入している場合、画像中のエッジ成分にもノイズが含まれることとなる。そこで、画素ベクトルあるいは前述の各方法を用いて修正された画素ベクトル(の方向)に基づいて帯域制限画像信号を平滑化して平滑化帯域制限画像信号を得、画素ベクトルの代わりに、該平滑化帯域制限画像信号に基づいてノイズ信号を得る方法を用いれば、エッジ成分を失うことなくエッジ上のノイズを抽出でき、またエッジ以外の平坦部のノイズも抽出できるので、最終的には、エッジ上のノイズが目立たなくなるとともに、平坦部におけるノイズも目立たなくなる。
【0055】
また、画素ベクトルの大きさに基づいて、平滑化帯域制限画像信号のノイズ成分およびエッジ成分を分離した後、平滑化帯域制限画像信号に対して、ノイズ成分に対する平滑化処理および/またはエッジ成分に対する強調処理を施して処理済帯域制限画像信号を得、該処理済帯域制限画像信号を用いて平滑化前の帯域制限画像信号に含まれるノイズ信号を取得するようにすれば、エッジ上のノイズを目立たせることなくエッジ強調を行なうことができ、また平坦部のノイズを一層低減することができるので、一層高画質の画像を再現することができる。
【0056】
【発明の実施の形態】
以下、本発明による画像処理方法および装置の一実施形態について、図面を参照して詳細に説明する。以下に示す画像処理装置は、蓄積性蛍光体シートに記録された人体の放射線画像を読み取って得た画像信号に対して、ノイズ除去処理を施すものであり、処理された画像信号は主としてフイルムに記録され、診断に用いられる。
【0057】
図1は本発明の第1の実施形態による画像処理装置の構成を示す概略ブロック図である。画像処理装置1は、読取装置等において得られた所定の解像度を有する原画像信号Sorgから原画像の複数の周波数帯域毎の周波数応答特性を表す帯域制限画像信号を作成する帯域制限画像信号作成手段2と、帯域制限画像信号に基づいて原画像信号Sorgに対してノイズを除去する処理を行なって処理済み画像信号Sprocを得る処理手段3とを有する。
【0058】
なお、本実施形態は、例えば特開昭 55-12492号や特開昭56-11395号等に記録されている蓄積性蛍光体シートを利用した放射線画像情報記録再生システムにおいて、蓄積性蛍光体シートに記録された人体の放射線画像をレーザビーム走査によりデジタル画像信号として読み取ったものを対象としている。なお、放射線画像の読み取りは、図2に示すように、蓄積性蛍光体シート10に対して主走査方向(横方向、X方向)にレーザビームを走査させながらシート10を副走査方向(縦方向、Y方向)に移動させてシート10を2次元走査することにより行なわれたものである。
【0059】
まず帯域制限画像信号の作成処理について詳細に説明する。図3は帯域制限画像作成処理の概要を示すブロック図、図4は帯域制限画像信号作成処理を模式的に示す図である。なお、本実施形態においては、例えば特開平5-244508号、同 6-96200号に記載されたラプラシアンピラミッドの手法により帯域制限画像信号を作成するものとする。
【0060】
まず図3に示すように、図1の帯域制限画像信号作成手段2は、フィルタリング処理手段10において原画像信号Sorg に対し、原画像のx方向およびy方向(図2参照)に対してフィルタリング処理を施して原画像信号Sorg よりも解像度が低い画像信号L(以下、低解像度画像信号という)を作成し、次にこの低解像度画像信号Lに対して同様のフィルタリング処理を施してこの低解像度画像信号Lよりもさらに解像度が低い低解像度画像信号Lを作成し、以降順次同様のフィルタリング処理を繰り返して各解像度毎の低解像度画像信号L(k=1〜n)を得るものである。そして、補間処理手段11において、このフィルタリング処理の各段において得られる低解像度画像信号Lに対して、それぞれ2倍の画素数となるように補間処理を施して、鮮鋭度が異なる複数のボケ画像信号Sus1〜Susn(以下Susk(k=1〜n)で代表させる)を得る。この後、減算器12により互いに対応する画素数を有する低解像度画像信号Lk−1とボケ画像信号Suskおよび原画像信号Sorgとボケ画像信号Sus1との差分を求め、これを帯域制限画像信号Bとする。
【0061】
本実施形態においては、上記フィルタリング処理のフィルタとして、1次元ガウス分布に略対応したフィルタを使用する。すなわちフィルタのフィルタ係数を、ガウス信号に関する下記の式(1)にしたがって定める。
【0062】
【数1】

Figure 0003995854
これは、ガウス信号は周波数空間および実空間の双方において局在性がよいためであり、例えば上記(1)式においてσ=1とした場合の5×1の1次元フィルタは図5に示すようなものとなる。
【0063】
フィルタリング処理は、図6に示すように、原画像信号Sorgに対して、あるいは低解像度画像信号に対して1画素おきに行なう。このような1画素おきのフィルタリング処理をx方向、y方向に行なうことにより、低解像度画像信号Lの画素数は原画像の1/4となり、フィルタリング処理により得られる低解像度画像信号に対して繰り返しこのフィルタリング処理を施すことにより、得られるn個の低解像度画像信号L(k=1〜n)は、それぞれ画素数が原画像信号Sorgの1/22kの画像信号となる。
【0064】
次に、このようにして得られた低解像度画像信号Lに対して施される補間処理について説明する。補間処理を行なうための補間演算の方法としては、Bスプラインによる方法等種々の方法が挙げられるが、本実施形態においては、上記フィルタリング処理においてガウス信号に基づくローパスフィルタを用いているため、補間演算についてもガウス信号を用いるものとする。具体的には、下記の式(2)において、σ=2k−1 と近似したものを用いる。
【0065】
【数2】
Figure 0003995854
例えば低解像度画像信号Lを補間する際には、k=1であるためσ=1となる。この場合、補間処理を行なうためのフィルタは、図7に示すように5×1の1次元フィルタとなる。この補間処理は、まず低解像度画像信号Lに対して1画素おきに値が0の画素を1つずつ補間することにより低解像度画像信号Lを原画像と同一の画素数となるように拡大し、次に、この補間された低解像度画像信号Lに対して上述した図7に示す1次元フィルタによりフィルタリング処理を施すことにより行なわれる。
【0066】
同様に、この補間拡大処理を全ての低解像度画像信号Lに対して行なう。低解像度画像信号Lを補間する際には、上記式(2)に基づいて、3×2−1の長さのフィルタを作成し、低解像度画像信号Lの各画素の間に値が0の画素を1個ずつ補間することにより、1段階高解像度の低解像度画像信号Lk−1と同一画素数となるように拡大し、この値が0の画素が補間された低解像度画像信号Lに対して3×2−1の長さのフィルタにより、フィルタリング処理を施すことにより補間拡大してボケ画像信号Suskを得る。
【0067】
次に、上記のようにして作成されたボケ画像信号Suskが、対応する画素数を有する低解像度画像信号Lk−1から減算されて、帯域制限画像信号B(k=1〜n)が得られる。なお、帯域制限画像信号Bは下記の式(3)に示すものとなる。
【0068】
=Sorg−Sus1
=L−Sus2
=L−Sus3
・ (3)

=L−Susk
具体的には、図4に示すように5段階の低解像度画像信号L〜Lが得られた場合、まず最低解像度の低解像度画像信号Lに対して補間処理を施して、低解像度画像信号Lと同一画素数を有するボケ画像信号Sus5を作成する。そして、低解像度画像信号Lからボケ画像信号Sus5を減算して帯域制限画像信号Bを得る。以下順次L−Sus4、L−Sus3、L−Sus2、Sorg−Sus1の演算を行なって、帯域制限画像信号B〜Bを得る。ここで、最低解像度の低解像度画像信号L(L)は、原画像を縮小した低周波の情報を表すものであるが、これ以降の演算において使用することはない。
【0069】
次に、上述したように算出された帯域制限画像信号Bを用いて行なわれる処理について説明する。図8は処理手段3の構成を帯域制限画像信号作成手段2とともに示す概略ブロック図である。図8に示すように、帯域制限画像信号作成手段2において作成された帯域制限画像信号Bは、本発明のノイズ信号生成手段としてのノイズ分離手段22においてノイズ成分が分離されて、ノイズ帯域制限画像信号NBが得られる。ここで、ノイズ分離手段22におけるノイズ成分の分離処理について説明する。
【0070】
図9はノイズ分離手段22の構成を示す概略ブロック図である。ノイズ分離手段22は、アイリスフィルタを用いた処理により、帯域制限画像信号Bからノイズ成分を分離するものであり、入力された帯域制限画像信号Bの全画素について、この帯域制限画像信号Bに基づく各画素毎の信号勾配ベクトルを算出する勾配ベクトル算出手段31と、全画素のうち1つを順次、注目画素として設定する注目画素設定手段34と、注目画素設定手段34により設定された注目画素を中心として、所定の角度間隔(例えば11.25 度間隔)で隣接する複数(例えば32本)の放射状の方向線(図10参照)を設定する方向線設定手段33と、設定された各方向線毎に、注目画素から予め定められた所定範囲内にある方向線上の各画素について、各画素の勾配ベクトルとこの方向線の延びる方向とのなす角度θil(32本の方向線のうち第i番目の方向線上における、注目画素から第l番目の画素の勾配ベクトルと、この第i番目の方向線の延びる方向とのなす角度を表す)に基づく指標値cosθilをそれぞれ求める指標値算出手段35と、注目画素を始点とし、終点を前記予め設定された範囲に応じた大きさまで変化させて、始点から終点の範囲内にある方向線上の各画素の指標値cosθilの平均値Ci(n)を、各方向線毎に下記の式(4)にしたがって求めるとともに、この平均値のうち最大値Cimax(式(5))を抽出する最大値算出手段36と、各方向線毎に抽出された最大値Cimaxを32本の方向線の全てについて加算平均((ΣCimax)/32)してこの注目画素についての勾配ベクトル群の集中度の値C(式(6))を算出する集中度算出手段37と、
【数3】
Figure 0003995854
【数4】
Figure 0003995854
集中度の値Cが大きいほど注目画素が画像中におけるエッジ上に位置するものとして大きな重み付けとなり、集中度の値Cが小さいほど注目画素がエッジ以外に部分に存在するものとして小さな重み付けとなるように、空間フィルタのフィルタ係数を設定するフィルタ設定手段38と、フィルタ設定手段38においてフィルタ係数が設定された空間フィルタにより、帯域制限画像信号Bに対してフィルタリング処理を施してフィルタ処理済み帯域制限画像信号FBを得るフィルタリング手段39と、帯域制限画像信号Bからフィルタ処理済み帯域制限画像信号FBを減算してノイズ帯域制限画像信号NBを算出する信号算出手段40とを備える。
【0071】
なお、アイリスフィルタについては、「小畑他、DR画像における腫瘤影検出(アイリスフィルタ)、電子情報通信学会論文誌 D-II Vol.J75-D-II No.3 P663〜670 1992年3月参照」、「小畑他、アイリスフィルタとその特性解析、計測自動制御学会論文集、1998 VOL.34 No.4、p.326-332」にその詳細が記載されている。このアイリスフィルタ処理は、特に乳癌における特徴的形態の1つである腫瘤陰影を検出するのに有効な手法として研究されており、アイリスフィルタ処理に用いられるアイリスフィルタは、画像信号の勾配を勾配ベクトルとして算出し、その勾配ベクトルの集中度を出力するものであり、アイリスフィルタ処理とはこの勾配ベクトルの集中度を基に腫瘤陰影を検出するものである。本実施形態においては、このアイリスフィルタ処理により、帯域制限画像信号Bの勾配ベクトルの集中度から各画素がエッジなどの線分上に位置する程度を求めるものである。
【0072】
勾配ベクトル算出手段31は、詳しくは例えば図11に示した縦5画素×横5画素の大きさのマスクの最外周部の画素の画像データ(画素値)を用いて、下記の式(7)にしたがって信号勾配ベクトルの向きθを求める。
【0073】
【数5】
Figure 0003995854
このマスクサイズは縦5画素×横5画素のもの限るものではなく、種々の大きさのものを用いることができる。
【0074】
方向線設定手段33が設定する方向線の数は、上記32本に限るものではないが、余りに多く設定すると計算処理に要する負担が急激に増大し、また少な過ぎればエッジ成分を精度よく検出することができないので、32本程度が好ましい。またこの方向線間の角度間隔は等間隔とするのが計算処理等において都合がよい。
【0075】
集中度算出手段37において算出される集中度の値Cが大きな値となるのは、勾配ベクトルの向きが注目画素に集中する場合である。
【0076】
フィルタ設定手段38においては集中度算出手段37において求められた集中度の値Cに応じて平滑化処理を行なうための空間フィルタのフィルタ係数が設定される。すなわち、集中度の値Cが大きいほど注目画素はエッジ上に存在し、集中度の値Cが小さいほど注目画素はエッジ以外の位置に存在することとなる。したがって、集中度の値Cが大きいほど重み付けが大きくなるようなフィルタ係数が定められて、空間フィルタが設定されることとなる。
【0077】
具体的には、まず集中度の値Cが所定の閾値よりも高い画素の値を1、所定の閾値以下の画素の値を0とする2値化処理を行ない、エッジ成分とそれ以外の成分との分離を行なう。ここで、基本となる空間フィルタをF0とし、この空間フィルタF0が3×3の平滑化フィルタであり、そのフィルタ係数が図12(a)に示すものであるとすると、集中度Cの2値化結果に応じてフィルタF0のフィルタ係数が重み付けされて帯域制限画像信号Bに対して施す空間フィルタF1のフィルタ係数が設定される。すなわち、ある注目画素がエッジ成分上にあり、この注目画素を中心とする3×3の範囲の集中度C(2値化後)が図12(b)に示すものであった場合、空間フィルタF1のフィルタ係数は図12(c)に示すものとなる。また、ある注目画素がエッジ成分以外の部分にあり、注目画素を中心とする3×3の範囲の集中度Cが図12(d)に示すものであった場合、空間フィルタF1のフィルタ係数は図12(e)に示すものとなる。したがって、この空間フィルタF1により帯域制限画像信号Bを平滑化すると、エッジ成分はぼかされることなく、それが存在する方向に対してぼかされることとなる。また、エッジ成分以外の成分は値が0とされることとなる。
【0078】
フィルタリング手段39は、フィルタ設定手段38において設定された空間フィルタF1により、帯域制限画像信号Bに対してフィルタリング処理を施してフィルタ処理済み帯域制限画像信号FBを得る。このフィルタリング処理により、帯域制限画像信号Bは平滑化されるが、エッジ成分においては、エッジが存在する方向に平滑化されることとなる。これにより、フィルタ処理済み帯域制限画像信号FBにおいては、平滑化されたエッジ成分のみが残ることとなる。
【0079】
信号算出手段40においては、帯域制限画像信号Bからフィルタ処理済み帯域制限画像信号FBを減算してノイズ帯域制限画像信号NBが得られる。ここで、フィルタ処理済み帯域制限画像信号FBは平滑化されているため、ノイズ帯域制限画像信号NBは、帯域制限画像信号Bに含まれるノイズ成分を表すものとなる。とくに、フィルタ処理済み帯域制限画像信号FBはエッジ成分が存在する方向に平滑化されているため、求められたノイズ成分にはエッジ上におけるノイズも含まれることとなる。
【0080】
ノイズ分離手段22に入力された帯域制限画像信号Bは、まず勾配ベクトル算出手段31、注目画素設定手段34、フィルタリング手段39および信号算出手段40に入力される。勾配ベクトル算出手段31は前述したように縦5画素×横5画素の大きさのマスクの最外周部の画素の画像データ(画素値)を用いて、全画素について信号勾配ベクトルの向きθを求める。求められた信号勾配ベクトルの向きθは指標値算出手段35に入力される。
【0081】
一方、注目画素設定手段34は、入力された帯域制限画像信号Bについて、その全画素のうち1つを順次注目画素として設定し、設定した注目画素を方向線設定手段33に入力する。方向線設定手段33は、注目画素を中心として例えば11.25 度の等間隔で隣接する32本の放射状の方向線を設定する。そしてこの設定された方向線は指標値算出手段35に入力される。
【0082】
指標値算出手段35は、勾配ベクトル算出手段31から入力された勾配ベクトルの向きθが定義された、帯域制限画像信号Bと同じ2次元に配列された画素に、方向線設定手段33から入力された32本の方向線を重ねて、この32本の方向線にそれぞれ重なる画素を抽出する。
【0083】
さらに指標値算出手段35は、各方向線毎に各画素に定義された勾配ベクトルの向きθとこの方向線の延びる方向とのなす角度θil(32本の方向線のうち第i番目の方向線上における、注目画素から第l(エル)番目の画素の勾配ベクトルと、この第i番目の方向線の延びる方向とのなす角度を表す)に基づく指標値cosθilをそれぞれ求める。
【0084】
この求められた各方向線上における各画素の指標値cosθilは最大値算出手段36に入力される。最大値算出手段36は、上記始点から終点の範囲内にある方向線上の各画素の指標値cosθilの平均値Ci(n)を、各方向線毎に求めるとともに、この平均値Ci(n)の最大値Cimaxを抽出する。
【0085】
このように各方向線毎に求められた最大値Cimaxは集中度算出手段37に入力される。集中度算出手段37は入力された各方向線毎に求められた最大値Cimaxを加算平均して、その注目画素についての勾配ベクトル群の集中度の値Cを算出する。算出された勾配ベクトル群の集中度の値Cはフィルタ設定手段38に入力される。
【0086】
以上の作用と同じ作用が、注目画素設定手段34が設定する注目画素を順次代えてなされ、入力された全ての画素についての上記集中度の値Cがフィルタ設定手段38に入力される。
【0087】
フィルタ設定手段38は、集中度の値Cが大きいほど大きな重み付けがなされるような空間フィルタF1を設定し、フィルタリング手段39が設定された空間フィルタにより帯域制限画像信号Bに対してフィルタリング処理を施して、フィルタ処理済み帯域制限画像信号FBを得、これが信号算出手段40に入力される。
【0088】
信号算出手段40は、帯域制限画像信号Bからフィルタ処理済み帯域制限画像信号FBを減算してノイズ帯域制限画像信号NBを算出する。
【0089】
このようにしてノイズ分離手段22において得られたノイズ帯域制限画像信号NBのうち、最低解像度のノイズ帯域制限画像信号NBはノイズ信号Snとされるとともに、ノイズ信号Snが1段階高解像度のノイズ帯域制限画像信号NBn−1と同一画素数となるように、補間処理手段24において上記補間処理手段11と同様に補間処理がなされて、拡大ノイズ信号Sn′が得られる。この後、ノイズ帯域制限画像信号NBn−1と拡大ノイズ信号Sn′とが加算器25において加算されて、ノイズ信号Sn−1が得られる。そして、ノイズ信号Sk−1の補間拡大による拡大ノイズ信号Sk−1′の取得、および拡大ノイズ信号Sk−1′とノイズ帯域制限画像信号NBk−1との加算によるノイズ信号Sk−2の取得を繰り返し行なって、最高解像度のノイズ信号S1を得る。
【0090】
具体的には図13に示すように、5段階のノイズ帯域制限画像信号NB〜NBが得られた場合には、まず最低解像度のノイズ帯域制限画像信号NBがノイズ信号S5とされる。そして、ノイズ信号S5に対して1段階高解像度のノイズ帯域制限画像信号NBと同一画素数となるように補間処理が施されて拡大ノイズ信号S5′が得られる。そして、ノイズ帯域制限画像信号NBと拡大ノイズ信号S5′とが加算されて、ノイズ信号S4が得られる。以下同様にしてノイズ信号S3,S2が得られ、最終的に最高解像度のノイズ信号S1が得られる。
【0091】
このようにして最高解像度のノイズ信号S1が得られると、本発明に係るノイズ除去手段としての演算器26において、下記の式(8)に示すようにノイズ信号S1に対して原画像信号Sorgの値に応じた、ノイズ成分を除去する度合いを示すパラメータとしての強調係数α(Sorg)が乗じられ、さらにこの強調係数α(Sorg)が乗じられたノイズ信号S1’が原画像信号Sorgから減算されて、ノイズ成分が低減された画像を表す処理済み画像信号Sprocが得られる。
【0092】
Sproc=Sorg−S1’=Sorg−α(Sorg)・S1 (8)
(但し、Sproc:ノイズが除去された画像信号
Sorg :原画像信号
α(Sorg):原画像信号に基づいて定められる強調係数
なお、原画像信号Sorgおよびノイズ信号S1を記憶する記憶手段と、強調係数α(Sorg)を演算器22に対して設定するためのパラメータ設定手段とをさらに備えたものとすれば、強調係数α(Sorg)の設定値が変更されたときには、原画像信号およびノイズ信号を読み出し、読み出したノイズ信号に対して変更された強調係数α(Sorg)を乗算して再度ノイズ信号S1’を計算し、再計算したノイズ信号S1’を読み出した原画像信号Sorgから除去することもできる。
【0093】
次いで、第1の実施形態の動作について説明する。図14は第1の実施形態の動作を示すフローチャートである。まず、読取装置等から原画像信号Sorgが画像処理装置1に入力される(ステップS1)。原画像信号Sorgは帯域制限画像信号作成手段2に入力されてここで原画像信号Sorgの周波数帯域毎の周波数応答特性を表す帯域制限画像信号Bが作成される(ステップS2)。帯域制限画像信号Bは、上述したようにノイズ成分が分離され(ステップS3)、ノイズ帯域制限画像信号NBが得られる(ステップS4)。この後、ノイズ帯域制限画像信号NB′の1段階高周波数帯域への補間処理によるノイズ信号Skの取得、およびノイズ信号Skと対応する周波数帯域のノイズ帯域制限画像信号NBとの加算によるノイズ信号Sk−1の取得を最高周波数帯域のノイズ帯域制限画像信号NBまで繰り返し行なって、ノイズ信号S1を得る(ステップS5)。そしてノイズ信号S1を用いて上記式(8)に示す演算を行なって処理済み画像信号Sprocを得(ステップS6)、処理済み画像信号Sprocを不図示のモニタに表示する(ステップS7)。オペレータは表示された画像を観察し、ノイズ除去の程度を変更する必要があれば(ステップS8)、どの程度変更するかを処理手段3に入力する。これにより処理手段3においては上記式(8)における強調係数α(Sorg)を変更してステップS6に戻り、ステップS6からステップS8の処理を行なう。ノイズ除去の程度が適切なものとなった場合にはステップS8が肯定されて処理を終了する。
【0094】
このように、本実施形態においては、上記式(8)における強調係数α(Sorg)の値を変更するのみで、原画像信号Sorgから減算するノイズ信号S1のレベルを任意に変更することができるため、上記特開平6-96200号に記載された方法と比較して、ノイズ除去の程度を簡易に変更することができ、これにより、ノイズ除去程度が変更された処理済み画像信号Sprocを得るための演算時間を短縮して、オペレータのストレスを低減することができる。
【0095】
なお、上記第1の実施形態においては、ラプラシアンピラミッドの手法により原画像信号Sorgから各周波数帯域毎の特性を表す帯域制限画像信号を得ているが、例えば特開平6-274615号に示すように、ウェーブレット変換により帯域制限画像信号を得るようにしてもよい。以下ウェーブレット変換を用いた画像処理の実施形態を第2の実施形態として説明する。
【0096】
図15は本発明の第2の実施形態による画像処理装置の構成を示す概略ブロック図である。図15に示すように、本発明の第2の実施形態による画像処理装置51は、読取装置等において得られた所定の解像度を有する原画像信号Sorgをウェーブレット変換するウェーブレット変換手段52と、ウェーブレット変換により得られた信号に基づいて、原画像信号Sorgのノイズを除去する処理を行なって処理済み画像信号Sprocを得る処理手段53とを有する。
【0097】
図16はウェーブレット変換手段52の構成を示す概略ブロック図である。なお、本実施形態においては、ウェーブレット変換の各係数が直交する直交ウェーブレット変換を行なうものである。
【0098】
まず、図16に示すように原画像信号Sorgに対してウェーブレット変換部61においてウェーブレット変換が施される。図17はウェーブレット変換部61において行なわれる処理を示すブロック図である。図17に示すように、原画像信号Sorg(信号LLk)の主走査方向に基本ウェーブレット関数H,Gによりフィルタリング処理を行なうとともに、主走査方向の画素を1画素おきに間引き(図中↓2で表す)、主走査方向の画素数を1/2にする。ここで、関数Hはハイパスフィルタであり、関数Gはローパスフィルタである。さらに、この画素が間引かれた信号のそれぞれに対して副走査方向に関数H,Gによりフィルタリング処理を行なうとともに、副走査方向の画素を1画素おきに間引き、副走査方向の画素数を1/2にして、ウェーブレット変換係数信号(以下単に信号とすることもある)HH1,HL1,LH1,LL1(HHk+1,HLk+1,LHk+1,LLk+1)を得る。ここで、信号LL1は原画像の縦横を1/2に縮小した画像を表し、信号HL1、LH1およびHH1はそれぞれ原画像の1/2縮小画像において縦エッジ、横エッジおよび斜めエッジ成分の画像を表すものとなる。
【0099】
次に、信号LL1に対してさらにウェーブレット変換部61においてウェーブレット変換が施されて、信号HH2,HL2,LH2,LL2が得られる。ここで、信号LL2は原画像の縦横を1/4に縮小した画像を表し、信号HL2、LH2およびHH2はそれぞれ原画像の1/4縮小画像において縦エッジ、横エッジおよび斜めエッジ成分の画像を表すものとなる。
【0100】
以下、上記と同様にして、各周波数帯域において得られるウェーブレット変換係数信号LLkに対するウェーブレット変換をn回繰り返すことによりウェーブレット変換係数信号HH1〜HHn,HL1〜HLn,LH1〜LHn,LL1〜LLnを得る。ここで、n回目のウェーブレット変換により得られるウェーブレット変換係数信号HHn,HLn,LHn,LLnは、原画像信号Sorgと比較して主副各方向の画素数が(1/2)となっているため、各ウェーブレット変換係数信号はnが大きいほど周波数帯域が低く、原画像データの周波数成分のうち低周波数成分を表すデータとなる。したがって、ウェーブレット変換係数信号HHk(k=0〜n、以下同様)は、原画像信号Sorgの主副両方向の周波数の変化を表すものであり、kが大きいほど低周波信号となる。またウェーブレット変換係数信号HLkは原画像信号Sorgの主走査方向の周波数の変化を表すものであり、kが大きいほど低周波信号となる。さらにウェーブレット変換係数信号LHkは原画像信号Sorg の副走査方向の周波数の変化を表すものであり、kが大きいほど低周波信号となる。
【0101】
ここで、図18にウェーブレット変換係数信号を複数の周波数帯域毎に示す。なお、図18においては便宜上2回目のウェーブレット変換を行った状態までを表すものとする。なお、図18において信号LL2は原画像を主副各方向が1/4に縮小した画像を表すものとなっている。
【0102】
なお、ウェーブレット変換係数信号HHk,HLk,LHk,LLk(k=1〜n)のうち、信号HHk,HLk,LHkはその周波数帯域におけるエッジ成分を表すものであり、換言すれば原画像における特定の周波数帯域(帯域制限画像特性)を有する画像を表すもの、すなわち主にその周波数帯域における画像のコントラストを表すものとなっている。また、ウェーブレット変換係数信号LLkは上述したように原画像を縮小した画像を表すものとなっている。なお、本実施形態においては、ウェーブレット変換係数信号HHk,HLk,LHkを帯域制限画像信号と称し、ウェーブレット変換係数信号LLkを解像度信号と称し、帯域制限画像信号および解像度信号を総称してウェーブレット変換係数信号と称するものとする。ここで、最低解像度の信号LLnは上記第1の実施形態と同様にこれ以降の演算において使用することはないため、値を0とする。
【0103】
処理手段53は、上記第1の実施形態における処理手段3と同様にノイズ除去処理を行なうものである。図19は処理手段53の構成をウェーブレット変換手段52とともに示す概略ブロック図である。図19に示すように、ウェーブレット変換手段52において得られた帯域制限画像信号HHk,HLk,LHk(以下Bで代表させる)が、各帯域制限画像信号Bに対応するように設けられた各ノイズ分離手段62に入力される。各ノイズ分離手段62は上記第1の実施形態におけるノイズ分離手段22と同様の構成を有するものであり、ここで上記第1の実施形態と同様にノイズ帯域制限画像信号NHHk,NHLk,NLHk(以下NBで代表させる)が得られる。すなわち、帯域制限画像信号HHk,HLk,LHkを上記第1の実施形態における帯域制限画像信号Bと見なすことにより、上記と同様にアイリスフィルタによる集中度の算出、空間フィルタの設定、空間フィルタによるフィルタリング処理およびフィルタリング処理後の信号の帯域制限画像信号HHk,HLk,LHkからの減算を全ての周波数帯域の帯域制限画像信号HHk,HLk,LHkについて行なうことにより、ノイズ帯域制限画像信号NHHk,NHLk,NLHkを得るものである。
【0104】
そして、得られたノイズ帯域制限画像信号NB(NHHk,NHLk,NLHk、k=1〜n)に対して逆ウェーブレット変換手段64において逆ウェーブレット変換が施される。図20は、逆ウェーブレット変換手段64において行なわれる逆ウェーブレット変換を説明するための図である。図20に示すように、最低周波数帯域のノイズ帯域制限画像信号NHHn,NHLn,NLHn,NLLn(=0)に対して逆ウェーブレット変換手段64において逆ウェーブレット変換を施して処理済み信号NLLn−1を得る。
【0105】
図21は逆ウェーブレット変換手段64において行なわれる処理を示すブロック図である。図21に示すようにノイズ帯域制限画像信号NLLn(NLLk,k=nの場合NLLn=0)およびノイズ帯域制限画像信号NLHn(NLHk)の副走査方向に対して画素間に1画素分の間隔をあける処理を行なうとともに(図中↑2で表す)、関数G,Hに対応する逆ウェーブレット変換関数G′,H′によりフィルタリング処理を副走査方向に施してこれらを加算し、さらに加算により得られた信号(第1の加算信号とする)の主走査方向に対して画素間に1画素分の間隔をあける処理を行なうとともに、関数G′によりフィルタリング処理を主走査方向に施して第1の信号を得る。一方、信号NHLn(NHLk)および信号NHHn(NHHk)の副走査方向に対して画素間に1画素分の間隔をあける処理を行なうとともに、関数G′,H′によりフィルタリング処理を副走査方向に施してこれらを加算し、さらに加算により得られた信号(第2の加算信号とする)の主走査方向に対して画素間に1画素分の間隔をあける処理を行なうとともに、関数H′によりフィルタリング処理を主走査方向に施して第2の信号を得る。そして第1および第2の信号を加算してノイズ帯域制限画像信号NLLn−1(NLLk−1)を得る。なお、最低解像度のウェーブレット変換係数信号NLLnは0とされているため、ノイズ帯域制限画像信号NLLn−1は原画像信号Sorgの帯域制限画像特性を表すものとなる。
【0106】
次に、ノイズ帯域制限画像信号NHHn−1,NHLn−1,NLHn−1,NLLn−1に対して上記と同様に逆ウェーブレット変換手段64において逆ウェーブレット変換を行なって、ノイズ帯域制限画像信号NLLn−2を得る。そして、以下上記と同様にして逆ウェーブレット変換を最高周波数帯域まで繰り返し、さらにノイズ帯域制限画像信号NHH1,NHL1,NLL1を逆ウェーブレット変換することによりノイズ信号S1が得られる。
【0107】
得られたノイズ信号S1は、演算器65において上記第1の実施形態と同様に式(8)に示すような演算が行なわれて処理済み画像信号Sprocが得られる。
【0108】
次いで、第2の実施形態の動作について説明する。図22は第2の実施形態の動作を示すフローチャートである。まず、読取装置等から原画像信号Sorgが画像処理装置51に入力される(ステップS11)。原画像信号Sorgはウェーブレット変換手段52においてウェーブレット変換が施されて各周波数帯域毎のウェーブレット変換係数信号が得られる(ステップS12)。各ウェーブレット変換係数信号Bはノイズ成分が分離されて(ステップS13)、ノイズ帯域制限画像信号NBが得られる(ステップS14)。この後、ノイズ帯域制限画像信号NBが、逆ウェーブレット変換手段64において逆ウェーブレット変換されてノイズ信号S1が得られる(ステップS15)。そしてノイズ信号S1を用いて上記式(8)に示す演算を行なって処理済み画像信号Sprocを得(ステップS16)、処理済み画像信号Sprocを不図示のモニタに表示する(ステップS17)。オペレータは表示された画像を観察し、ノイズ除去の程度を変更する必要があれば(ステップS18)、どの程度変更するかを処理手段53に入力する。これにより処理手段53においては上記式(8)における強調係数α(Sorg)を変更してステップS16に戻り、ステップS17からステップS18の処理を行なう。ノイズ除去の程度が適切なものとなった場合にはステップS18が肯定されて処理を終了する。
【0109】
このように、第2の実施形態においても、上記式(8)における強調係数α(Sorg)の値を変更することにより、原画像信号Sorgから減算するノイズ信号S1のレベルを任意に変更することができ、これにより、原画像信号Sorgからのノイズ除去の程度を任意に変更することができる。
【0110】
なお、上記各実施形態においては、アイリスフィルタを用いて帯域制限画像信号Bからノイズ成分を分離しているが、これに限定されるものではなく他の任意の手法によりノイズ成分を分離するようにしてもよい。例えば、帯域制限画像信号Bに対して所定サイズのマスク内の局所的な分散を求め、この分散が小さな値となる画素をノイズと見なす等してノイズ成分を分離してもよい。また、各帯域制限画像信号により表される各帯域制限画像の各画素における画素ベクトルを算出し、算出した画素ベクトルあるいは該画素ベクトルを修正した修正画素ベクトルを利用してノイズ成分を分離してもよい。以下画素ベクトルあるいは修正画素ベクトルを用いた画像処理の実施形態を第3の実施形態として説明する。
【0111】
図23は本発明の第3の実施形態による画像処理装置の構成を示す概略ブロック図である。この図23は、上記第2の実施形態における処理手段53の構成を示した図19に対応するものであって、ノイズ分離手段62を有する処理手段53に代えて、ノイズ分離手段72を有する処理手段73を設けている点が異なる。この処理手段73は、上記第2の実施形態における処理手段53と同様にノイズ除去処理を行なうものであり、ウェーブレット変換手段61において得られた帯域制限画像信号HHk,HLk,LHk(以下Bで代表させる)が、ノイズ分離手段72に入力される。
【0112】
図24は、各ノイズ分離手段72の構成を示す概略ブロック図である。この第3の実施形態によるノイズ分離手段72は、各帯域制限画像信号Bにより表される各帯域制限画像の各画素における画素ベクトルを各画素毎に算出し、算出した画素ベクトルあるいは該画素ベクトルを修正した修正画素ベクトルを利用してノイズ成分としてのノイズ帯域制限画像信号NBを分離するものであり、図24に示すように、ウェーブレット変換手段61において得られた各帯域制限画像信号Bから後述するようにして画素ベクトルを算出する画素ベクトル算出手段82と、画素ベクトル算出手段82において算出された画素ベクトルを修正する画素ベクトル修正手段83と、修正された画素ベクトルに基づいてノイズ成分NBを分離して出力する分離手段85とを備える。
【0113】
画素ベクトル算出手段82においては以下のようにして画素ベクトルが算出される。図25は画素ベクトルの算出方法を説明するための図である。なお、この画素ベクトルの算出は全周波数帯域の帯域制限画像信号B(ウェーブレット変換係数信号)により表される画像における全画素について行なわれる。ある画素を注目画素(図25において黒色で示す)とした場合において、注目画素を中心とした7×7の領域を設定する。そしてこの領域内における注目画素近傍の48画素について、注目画素を中心とした0〜15の16方向における一定長さ分(図25においては3画素分、例えば2の方向における斜線画素)の画素値の平均値を算出し、この平均値と注目画素の画素値との差が最も小さい方向を決定する。なお、図26に示すように注目画素の近傍8画素を用いて、8方向における注目画素と隣接画素との差を求め、この差が最も小さい方向を決定してもよい。このようにして求められた方向は濃度の傾きが最も小さい方向であり、等信号線すなわち信号勾配の法線方向を向くものである。そして、この方向と上述したように求められた差の逆数を大きさに持つベクトルを画素ベクトルとして求める。したがって、この画素ベクトルは、等信号線の方向において濃度差が小さいほど大きいものとなる。なお、上記差が0の場合は画素ベクトルの大きさは無限大となってしまうため、画素ベクトルの大きさに上限値(例えば8ビットの場合は255)を設定することが好ましい。
【0114】
なお、上述した平均値と注目画素の画素値との差(あるいは近傍画素と注目画素との差、以下単に差とする)が最も大きい方向は信号勾配方向となり、この方向に画素ベクトルを求めることもできる。この場合、画素ベクトルの大きさは上記差をそのまま用いることができる。なお、本実施形態においては画素ベクトルは等信号線方向を向き、画素ベクトルの大きさは上記差の逆数として説明する。
【0115】
画素ベクトル修正手段83においては以下のようにして画素ベクトルが修正される。原画像信号をウェーブレット変換した場合、比較的高周波数帯域の画像においては詳細なエッジ情報が表現され、中間周波数帯域の画像においては中間周波数帯域のエッジ情報が、低周波数帯域の画像においては低周波数帯域の大きなエッジ情報が表現されることとなる。一般的に各周波数帯域の画像が持っているエネルギは高周波数帯域ほど小さくなるが、ノイズのエネルギは周波数帯域に依存しないという特性があるため、低周波数帯域の画像ほどS/Nが良好なものとなる。ここで、原画像におけるノイズが混入していない部分(図27(a)参照)は、いずれの帯域制限画像においてもエッジ部分にのみ信号を有することとなるため(図27(b)〜(d)参照)、比較的高帯域制限画像において、画素ベクトルを求めた画素を含む所定領域における画素値の分散値が小さければ、低周波帯域の画像の画素ベクトルを参照しなくてもその画素ベクトルを求めた注目画素は平坦部にあると見なすことができる。
【0116】
一方、原画像におけるノイズが混入した部分(図28(a))は、高帯域制限画像においてはノイズの影響により画素ベクトルの方向が乱されて分散値が大きくなるが(図28(b))、低周波数帯域となるほど信号に対するノイズの影響が小さくなって分散値が小さくなる(図28(c)、(d))。したがって、高帯域制限画像において画素ベクトルを求めた注目画素を含む所定領域における画素値の分散値が大きい場合は、低周波数帯域の画像における対応する画素ベクトルを参照しなければ、その画素ベクトルを求めた注目画素が平坦部にあるものであるのかエッジ部分にあるものであるのかが分からない。
【0117】
このため、画素ベクトル修正手段83は、画素ベクトルを求めた注目画素を中心とする例えば3×3の領域内における画素値の分散値を全画素について求め、分散値が同一周波数帯域の画像における他の領域と比較して相対的に小さい場合には、そこは平坦部と見なして画素ベクトルの修正は行なわないで、画素ベクトル算出手段82において求められた画素ベクトルをそのまま修正画素ベクトルとする。一方、分散値が同一周波数帯域の画像における他の領域と比較して相対的に大きい場合には、そこは平坦部であるかエッジ部分であるか分からないため、低周波帯域の画像における対応する画素の画素ベクトルをその注目画素の修正画素ベクトルとして、その画素ベクトルを求めた注目画素が平坦部にあるかエッジ部分にあるかの確度を向上させるものである。これにより、平坦部の画素ベクトルはより平坦部を表すものとして、エッジ部分の画素ベクトルはよりエッジ部分を表すものとして修正されることとなる。
【0118】
なお、画素ベクトル修正手段83においては、画素ベクトルを算出した際の注目画素とその近傍の画素との差分値を分散値として求めてもよい。この差分値としては、例えば注目画素近傍8画素から画素ベクトルを求めた場合は、注目画素と近傍8画素の差の和、あるいはこの差の平均値等としてもよい。
【0119】
分離手段85においては以下のようにしてノイズ成分が分離される。上記画素ベクトル修正手段83において求められた修正画素ベクトルが小さい画素については平坦部にあってノイズ成分を含む画素であると見なすことで各周波数帯域の平滑化信号により表される画像の各画素をラベリングする、すなわち判定対象画素がノイズ成分を表す画素であるのか否かを判断する。
【0120】
なお、画素ベクトルが小さい場合には、注目画素は平坦部すなわちノイズ成分にあるものと見なせるが、微小エッジ部分にある可能性もある。このため、分離手段85においては、画素ベクトルが小さい場合には注目画素の画素ベクトルとその近傍画素の画素ベクトルの方向とを参照し、図29(a)に示すように近傍の画素ベクトルが注目画素の画素ベクトルと同一方向を向いている場合にはその注目画素をエッジ成分にあるものと見なし、図29(b)に示すように近傍の画素ベクトルが注目画素の画素ベクトルと異なる方向を向いている場合には、その注目画素をノイズ成分にあるものと見なすようにすることが好ましい。なお、図29においては各画素の数字は画素ベクトルの方向(図26参照)を示すものである。
【0121】
そして、このラベリングの結果に基づいて、ノイズ成分にあると見なされた画素については画素値を小さくする平滑化処理が行なわれる。なお、この処理は上述のようにして求められたノイズ成分に関する情報(ラベリングの結果)により、画素そのものを変更する処理すなわち各帯域制限画像における局所的なコントラストを変更するための処理であるため、各周波数帯域における画像のコントラストを表す帯域制限画像信号HHk,HLk,LHkに対してのみ処理が行なわれ、処理済み帯域制限画像信号HHk′,HLk′,LHk′(k=1〜n;以下B′で代表させる)が得られる。そして、各帯域制限画像信号HHk,HLk,LHkから、対応する処理済み帯域制限画像信号B′を差し引くことにより、ノイズ成分としてのノイズ帯域制限画像信号NHHk,NHLk,NLHk(すなわちNB=B−B′)が分離される。
【0122】
以下、上記第2の実施形態と同様に、得られたノイズ帯域制限画像信号NBに対して逆ウェーブレット変換手段64において逆ウェーブレット変換が最高周波数帯域まで繰り返して行われることによりノイズ信号S1が得られ、この得られたノイズ信号S1に基づいて、演算器65において上記第1の実施形態と同様に式(8)に示すような演算が行なわれて処理済み画像信号Sprocが得られる。
【0123】
上記第3の実施形態の動作を示すフローチャートを図30に示す。まず、読取装置等から原画像信号Sorg が画像処理装置51に入力され(ステップS21)、この原画像信号Sorg はウェーブレット変換手段52においてウェーブレット変換が施されて各周波数帯域毎のウェーブレット変換係数信号が得られる(ステップS22)。次に、各ウェーブレット変換係数信号に基づいて画素ベクトル算出手段82において上述したように画素ベクトルが算出される(ステップ23)。画素ベクトルの算出の後、画素ベクトル修正手段83において画素ベクトルが修正されて修正画素ベクトルが求められる(ステップS24)。
【0124】
次に分離手段85において画素ベクトル修正手段83において求められた修正画素ベクトルに基づいて、ノイズ成分を分離する処理が施されてノイズ帯域制限画像信号NBが分離される(ステップS25)。この後、逆ウェーブレット変換手段64においてノイズ帯域制限画像信号NBに対して逆ウェーブレット変換が最高周波数帯域まで繰り返し行なわれてノイズ信号S1が得られる(ステップS26)。そしてノイズ信号S1を用いて上記式(8)に示す演算を行なって処理済み画像信号Sprocを得(ステップS27)、処理済み画像信号Sprocに基づく画像を不図示のモニタに表示する(ステップS28)。オペレータは表示された画像を観察し、ノイズ除去の程度を変更する必要があれば(ステップS29)、どの程度変更するかを処理手段73に入力する。これにより処理手段73においては上記式(8)における強調係数α(Sorg) を変更してステップS27に戻り、ステップS28からステップS29の処理を行なう。ノイズ除去の程度が適切なものとなった場合にはステップS29が肯定されて処理を終了する。
【0125】
このように、第3の実施形態においても、上記式(8)における強調係数α(Sorg) の値を変更することにより、原画像信号Sorg から減算するノイズ信号S1のレベルを任意に変更することができ、これにより、原画像信号Sorg からのノイズ除去の程度を任意に変更することができる。
【0126】
また、各周波数帯域において得られる処理済み信号HHk′,HLk′,LHk′,LLn′はノイズ成分が低減される処理が施されているため、最終的に得られる処理済み画像信号Sprocにおいても、ノイズ成分が低減されたものとなる。したがって、ノイズが目立たなくなった高画質の画像を再現可能な処理済み画像信号Sprocを得ることができる。
【0127】
次いで、本発明の第4の実施形態について説明する。図31は本発明の第4の実施形態による画像処理装置の構成を示す概略ブロック図である。
【0128】
この図31は、上記第3の実施形態におけるノイズ分離手段72の構成を示した図24に対応するものであって、分離手段85に代えて、平滑化手段84を設けている点が異なる。なお、ウェーブレット変換手段61、画素ベクトル算出手段82、画素ベクトル修正手段83、および逆ウェーブレット変換手段64は上記第3の実施形態におけるものと同一であるため、ここでは詳細な説明は省略する。
【0129】
平滑化手段84は、画素ベクトル修正手段83において修正された修正画素ベクトルに基づいてウェーブレット変換係数信号に対して以下のようにして平滑化処理を施して平滑化信号を得るものである。なお、平滑化処理は各周波数帯域の帯域制限画像信号HHk,HLk,LHkに対して行なわれる。図32は平滑化手段84における平滑化処理を説明するための図である。注目画素を中心とする3×3の領域において各画素の画素値が図32(a)に示す値を有する場合、画素ベクトル(修正画素ベクトル)は図32(b)に示すものとなる。そして、図32(b)に斜線で示すように注目画素と画素ベクトル方向にある画素および画素ベクトル方向と反対方向にある画素を用いて平滑化フィルタによりフィルタリングを行なう。ここで、平滑化フィルタとしては、方向性を持っているフィルタであればどのようなフィルタを用いてもよく、例えば図33(a)に示す平均値フィルタや図33(b)に示す平滑化フィルタを用いることができる。図33(a)に示す平均値フィルタを用いた場合、図32(a)に示す画素値は図34(a)に示すように平滑化されて注目画素の画素値は101となる。また、図33(b)に示す平滑化フィルタを用いた場合、図34(b)に示すように注目画素の画素値は141となるように平滑化される。このように平滑化を行なうことにより、例えばエッジ上にノイズが混入されている場合に、そのノイズを目立たなくすることができる。また、エッジ上でなくとも平坦部において平滑化を行なうことにより、平坦部にあるノイズを目立たなくすることができる。なお、平滑化された帯域制限画像信号(ウェーブレット変換係数信号)を平滑化信号(平滑化帯域制限画像信号)とする。
【0130】
なお、ここでは画素ベクトル方向にある画素および画素ベクトル方向と反対方向にある画素を用いて平滑化を行なっているが、画素ベクトル方向にある画素のみを用いて平滑化を行なってもよい。この場合、図32(a)に示す注目画素は99(=(101+98)/2)の値を有するように平滑化される。
【0131】
また、注目画素の近傍48画素から画素ベクトルを求めた場合において、画素ベクトルの方向が図35に示す方向であった場合には、図35の斜線に示すように注目画素および画素ベクトル方向の画素(さらには画素ベクトルと反対方向の画素)を用いて平滑化を行えばよい。具体的には、図35に示す斜線で示す全7画素における画素値の平均値を注目画素の画素値とすればよい。
【0132】
このようにして各周波数帯域の平滑化信号が求められたら、平滑化前の帯域制限画像信号HHk,HLk,LHkから、対応する平滑化信号を差し引くことにより、ノイズ帯域制限画像信号NHHk,NHLk,NLHk(すなわちNB=B−B′)を分離する。
【0133】
以下、上記第3の実施形態と同様に、得られたノイズ帯域制限画像信号NBに対して逆ウェーブレット変換手段64において逆ウェーブレット変換が最高周波数帯域まで繰り返して行われることによりノイズ信号S1が得られ、この得られたノイズ信号S1に基づいて、演算器65において上記第1の実施形態と同様に式(8)に示すような演算が行なわれて処理済み画像信号Sprocが得られる。
【0134】
図36は第4の実施形態の動作を示すフローチャートである。図36に示すように、まず、原画像信号Sorg に対してウェーブレット変換手段61においてウェーブレット変換が行なわれて各周波数帯域毎のウェーブレット変換係数信号が得られる(ステップS31)。次に、各ウェーブレット変換係数信号に基づいて画素ベクトル算出手段82において上述したように画素ベクトルが算出される(ステップS32)。画素ベクトルの算出の後、画素ベクトル修正手段83において画素ベクトルが修正されて修正画素ベクトルが求められる(ステップS33)。そして、修正画素ベクトルに基づいて、各ウェーブレット変換係数信号に対して平滑化手段84において平滑化処理が施されて平滑化信号が得られた後(ステップS34)、該平滑化信号に基づいてノイズ成分を分離する処理が施されてノイズ帯域制限画像信号NBが分離される(ステップS35)。以下第3の実施の形態の動作を示すフローチャート(図30)に示すステップS27〜29の処理を行なう。
【0135】
ここで、原画像にノイズが混入している場合、画像中のエッジ成分にもノイズが含まれることとなる。この場合、画素ベクトルに基づいてノイズ成分を分離してエッジ成分を強調すると、エッジ成分に含まれるノイズをも強調してしまうこととなる。本実施形態においては、画素ベクトルや修正画素ベクトルの方向に基づいて平滑化手段84において平滑化処理を行っているため、エッジ成分を失うことなくエッジ上のノイズ成分を抽出でき、またエッジ以外の平坦部のノイズも抽出できるので、最終的には、エッジ上のノイズが目立たなくなるとともに、平坦部におけるノイズも目立たなくなり、高画質の画像を再現できる。
【0136】
なお、画素ベクトルの大きさに基づいて、平滑化帯域制限画像信号のノイズ成分およびエッジ成分を分離した後、平滑化帯域制限画像信号に対して、ノイズ成分に対する平滑化処理および/またはエッジ成分に対する強調処理を施して処理済帯域制限画像信号を得、該処理済帯域制限画像信号を用いて平滑化前の帯域制限画像信号に含まれるノイズ信号を取得するようにすれば、エッジ上のノイズを目立たせることなくエッジ強調を行なうことができ、また平坦部のノイズを一層低減することができるので、一層高画質の画像を再現することもできる。
【0137】
以上、本発明の好ましい実施の形態について説明したが、本発明は上記実施の形態に限定されるものではなく、発明の要旨を変更しない限りにおいて、種々変更することが可能である。
【0138】
例えば、上記各実施形態においては、上記式(8)においてノイズ信号S1に乗算する強調係数を原画像信号Sorg の関数としているが、これに限定されるものではなく、定数としてもよい。
【0139】
また、上記第3および第4の実施形態においては、画素ベクトル算出手段82において、注目画素の画素値とその近傍画素の画素値の平均値(あるいは近傍画素の画素値)との差が最も小さい方向を画素ベクトルの方向として求めているが、上記差が2番目に小さい方向を第2の画素ベクトルとして求めてもよい。あるいは信号勾配方向に画素ベクトルを求める場合には、上記差が2番目に大きい方向を第2の画素ベクトルとして求めてもよい。このように第2の画素ベクトルを求めることにより、例えば図37(a)に示すようにエッジ成分が屈曲して存在する場合においては図37(b)に示すように2つの画素ベクトルが求められる。そして、平滑化手段84において第1および第2の画素ベクトルの双方を用いて平滑化を行なうことにより、エッジ成分をその方向性を維持してより正確に平滑化することができる。
【0140】
また、画像に含まれる比較的大きなエッジは低周波帯域の画像においても残るが、ノイズについては低周波帯域の画像ほど小さくなるものである。このため、ある周波数帯域における帯域制限画像の一の画素における画素ベクトルの方向を、低周波数帯域の画像における一の画素に対応する画素の画素ベクトルの方向と同じにすることにより、その画素がエッジ成分にある場合はその画素ベクトルはよりエッジ成分を表すものとなる。一方、その画素がノイズ成分にある場合は低周波帯域の画像の方が細かなノイズが小さくなることから、画素ベクトルはランダムな方向を向きかつ大きさはさらに小さくなるため、その画素ベクトルはより平坦部すなわちノイズ成分を表すものとなる。したがって、上記第3および第4の実施形態においては、画素ベクトル修正手段83において、上記分散値に基づく処理に代えてある周波数帯域のある画素における画素ベクトルの方向を、さらに低周波数帯域の画像における上記ある画素に対応する画素の画素ベクトルの方向と同じになるように修正することにより、その画素がエッジ成分にあるかノイズ成分にあるかの確度を向上させることができる。特に第3の実施形態においては、これにより分離手段85におけるノイズ成分およびエッジ成分の分離を正確に行なうことができる。
【0141】
さらに、上記第3および第4の実施形態においては、画素ベクトル修正手段83において画素ベクトルを修正しているが、画素ベクトル算出手段82において算出された画素ベクトルをそのまま用いて、分離手段85はノイズ成分の分離を行ない、平滑手段84は平滑化を行なうものとしていもよい。
【0142】
また、例えば人体の胸部のように軟部および骨部から構成された被写体に互いにエネルギの異なる放射線を照射して複数の放射線画像を得、これら複数の放射線画像を読み取ってこれら複数の放射線画像のそれぞれを表す複数の画像信号を得、これら複数の画像信号に基づいてエネルギーサブトラクション処理を行なって被写体の主として軟部が記録された軟部画像を表す軟部画像信号もしくは被写体の主として骨部が記録された骨部画像を表す骨部画像信号を求め、求められた軟部画像もしくは骨部画像を観察の対象とする場合がある。この場合において、軟部画像もしくは骨部画像のノイズ成分を低減するために、骨部画像信号に対して平滑化処理を施して第1の平滑化画像信号を求め、原画像信号から第1の平滑化画像信号を減算することにより軟部画像を表す軟部画像信号を求める第1の処理を行ない、さらに軟部画像信号に対して平滑化処理を施して第2の平滑化画像信号を求め、原画像信号から第2の平滑化画像信号を減算することにより、ノイズが除去された骨部画像信号を求める第2の処理を行ない、上記第1および第2の処理を繰り返すことにより、ノイズ成分を低減するようにしたエネルギーサブトラクション画像生成方法が提案されている(例えば特開平5-236351号)。ここで、このようなエネルギーサブトラクション画像生成方法において、平滑化画像を求める際に、本発明による処理を施すようにしてもよいものである。このように、エネルギーサブトラクション画像生成方法において、本発明による処理を施すことによって平滑化画像信号を求めることにより、ノイズ成分のみが低減されてエッジ成分を目立つものとすることができ、これにより高画質の軟部画像もしくは骨部画像を得ることができる。
【0143】
また、上記第2〜第4の実施形態においては、原画像信号Sorg に対してウェーブレット変換を施すことにより得られる信号に対して、上述したような画素ベクトルに基づく処理を施しているが、ウェーブレット変換のみならずラプラシアンピラミッド等、原画像信号Sorg を多重解像度変換する手法において得られる周波数帯域毎の帯域制限画像信号に対しても、上記と同様に処理を施すことができる。
【図面の簡単な説明】
【図1】本発明の第1の実施形態による画像処理装置の構成を示す概略ブロック図
【図2】原画像の主走査方向および副走査方向を示す図
【図3】帯域制限画像信号作成処理の概要を示すブロック図
【図4】帯域制限画像信号作成処理を模式的に示す図
【図5】フィルタリング処理に使用されるフィルタの一例を示す図
【図6】低解像度画像信号作成処理の詳細を示す図
【図7】補間処理に使用されるフィルタの一例を示す図
【図8】処理手段の構成を帯域制限画像信号作成手段とともに示す概略ブロック図
【図9】ノイズ分離手段の構成を示す概略ブロック図
【図10】アイリスフィルタを示す概念図
【図11】アイリスフィルタにおける勾配ベクトルを算出するマスクを示す図
【図12】空間フィルタの算出を説明するための図
【図13】変換処理を模式的に示す図
【図14】第1の実施形態の動作を示すフローチャート
【図15】本発明の第2の実施形態による画像処理装置の構成を示す概略ブロック図
【図16】ウェーブレット変換手段の構成を示す概略ブロック図
【図17】ウェーブレット変換部において行なわれる処理を示すブロック図
【図18】ウェーブレット変換係数信号を複数の周波数帯域毎に示す図
【図19】処理手段の構成を帯域制限画像信号作成手段とともに示す概略ブロック図
【図20】逆ウェーブレット変換を説明するための図
【図21】逆ウェーブレット変換手段において行なわれる処理を示すブロック図
【図22】第2の実施形態の動作を示すフローチャート
【図23】本発明の第3の実施形態による画像処理装置に使用される処理手段の構成を帯域制限画像信号作成手段とともに示す概略ブロック図
【図24】本発明の第3の実施形態による画像処理装置に使用されるノイズ分離手段の構成を示す概略ブロック図
【図25】画素ベクトルの算出を説明するための図(その1)
【図26】画素ベクトルの算出を説明するための図(その2)
【図27】ウェーブレット変換係数信号を示す図(その1)
【図28】ウェーブレット変換係数信号を示す図(その2)
【図29】分離手段における画素ベクトルの参照結果を示す図
【図30】第3の実施形態の動作を示すフローチャート
【図31】本発明の第4の実施形態による画像処理装置の構成を示す概略ブロック図
【図32】平滑化処理を説明するための図(その1)
【図33】平滑化フィルタの一例を示す図
【図34】平滑化された画素値を示す図
【図35】平滑化処理を説明するための図(その2)
【図36】第4の実施形態の動作を示すフローチャート
【図37】平滑化処理の他の例を説明するための図
【符号の説明】
1,51 画像処理装置
2 帯域制限画像信号作成手段
3,53,73 処理手段
10 フィルタリング処理手段
11,24 補間処理手段
12 減算器
22,62,72 ノイズ分離手段
25 加算器
26,65 演算器
52 ウェーブレット変換手段
61 ウェーブレット変換部
64 逆ウェーブレット変換手段[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing method and apparatus for performing processing for removing noise on an original image signal, and a computer-readable recording medium on which a program for causing a computer to execute the image processing method is recorded.
[0002]
[Prior art]
In the field of image processing, wavelet transform and Laplacian pyramid techniques are used as means for classifying image signals for each frequency band when different image processing is performed on the image signal for each frequency band. . Examples of the image processing include high-frequency separation for noise removal, and compression processing by reducing data in a frequency band with a lot of noise. The present applicant has also proposed various image processing methods that perform image processing such as emphasizing only edge components in an image using wavelet transform (for example, Japanese Patent Laid-Open Nos. H6-274615 and H6- 350989).
[0003]
On the other hand, a method called Laplacian pyramid is described in, for example, Japanese Patent Application Laid-Open No. 5-244508, Japanese Patent Application Laid-Open No. 6-96200, Japanese Patent Application Laid-Open No. 6-301766, and the Laplacian pyramid is approximated by a Gaussian function with respect to the original image. After performing mask processing with such a mask, the image is sub-sampled, and the number of pixels is thinned out to halve to obtain a blurred image that is 1/4 the size of the original image. The pixel having a value of 0 is interpolated to return to the original size image, and this image is further subjected to mask processing with the mask described above to obtain a blurred image, and this blurred image is subtracted from the original image, A band-limited image signal (bandpass signal) representing a frequency component of a certain limited frequency band of the original image signal, that is, a frequency response characteristic for each of a plurality of frequency bands of the original image is obtained. By repeating this process for the blurred image obtained, 1/2 of the original image is obtained. 2N N band-limited image signals having the following size are generated. The blurred image in the lowest frequency band represents the low frequency component of the original image.
[0004]
Here, in the radiographic image, the quantum noise of the radiation becomes conspicuous in the portion where the radiation dose is low and the density is low. For this reason, in the above Japanese Patent Laid-Open No. 6-96200, the radiographic image is decomposed into a plurality of frequency band images by a Laplacian pyramid to obtain a band limited image signal for each frequency band, and the local dispersion value of each band limited image signal And processing for removing noise components from the band-limited image signal according to the size of the local dispersion value, and applying the processing to the band-limited image signal that represents the blurred image in the lowest frequency band. There has been proposed a method for obtaining a processed image signal in which a noise component corresponding to a frequency band in an image is reduced by reconstructing the image signal together with the image signal.
[0005]
[Problems to be solved by the invention]
In the method described in the above Japanese Patent Laid-Open No. 6-96200, since the noise component is removed from the band limited image signal in each frequency band, the noise is excessively removed or the degree of noise removal Is insufficient, it is necessary to reconstruct the image after changing the degree of noise removal with respect to the band limited image signal again. As a result, reprocessing takes a long time. Therefore, when an image with appropriate noise removal is obtained by variously changing the degree of noise removal while observing the CRT, it takes a long time to reproduce the processed image. The operator's stress is great.
[0006]
The present invention has been made in view of the above circumstances, and is an image processing method and apparatus capable of appropriately removing noise components from an original image, and a computer-readable recording medium storing a program for causing a computer to execute the image processing method. The object is to provide a recording medium.
[0007]
[Means for Solving the Problems]
An image processing method according to the present invention is an image processing method for performing image processing for reducing noise of an original image on an original image signal representing an original image. A noise signal having the same number of pixels as the original image signal is obtained based on the created band-limited image signal, and noise components of the original image signal are removed based on the noise signal It is.
[0008]
Here, “the same number of pixels as the original image signal” means that the image size of the image represented by the original image signal and the noise image represented by the noise signal are the same.
[0009]
Further, “removing the noise component of the original image signal based on the noise signal” means that the noise component included in the reproduced image is reduced. For example, the noise component from the original image signal, Alternatively, the noise component of the original image signal may be removed by subtracting the noise component multiplied by a coefficient representing a predetermined noise suppression level. The coefficient may be changed depending on the signal value of the original image signal.
[0010]
In the image processing method according to the present invention, a band-limited image signal is generated by performing multi-resolution conversion on the original image signal, a noise component is separated from the band-limited image signal to obtain a noise band-limited image signal, and the noise The noise signal can be obtained by inverse-multiresolution conversion of the band limited image signal. The inverse multi-resolution conversion corresponds to the multi-resolution conversion, and the original signal can be restored (reversible / irreversible) by performing the inverse multi-resolution conversion. It goes without saying that it is a thing.
[0011]
Here, when “creating a band-limited image signal by performing multi-resolution conversion of the original image signal”, the frequency of the original image signal for each of a plurality of frequency bands is determined by Laplacian pyramid decomposition using the Laplacian pyramid method or by wavelet transform. For example, a method of converting to a signal representing response characteristics can be used. In this case, as “inverse multi-resolution conversion”, a Laplacian pyramid reconstruction method is used when a band-limited image signal is obtained by Laplacian pyramid decomposition, and an inverse wavelet transform is used when a band-limited image signal is obtained by wavelet conversion. Needless to say, is used.
[0012]
Further, the “noise band limited image signal” refers to a signal that represents only a noise component included in the band limited image signal.
[0013]
In the image processing method according to the present invention, it is preferable that the noise signal is acquired based on a filtering process using an iris filter.
[0014]
In the image processing method according to the present invention, the pixel vector in each pixel of the band limited image represented by the band limited image signal can be calculated, and the noise signal can be acquired based on the pixel vector.
[0015]
Here, the “pixel vector” represents the inclination direction and the magnitude of the inclination of the pixel value of the target pixel when a pixel in the frequency band image is the target pixel. When calculating the “pixel vector”, for example, with respect to a plurality of directions centered on the target pixel, a pixel value of the target pixel and a pixel value of a pixel in the vicinity thereof (the neighboring pixels are a plurality of pixels in a certain direction). In this case, a difference from the average value) is obtained, a direction in which the difference is the largest or smallest is determined, and a pixel vector is calculated based on the direction and the difference.
[0016]
Here, when the direction with the largest difference is a pixel vector, the pixel vector indicates the direction of the signal gradient, and when the direction with the smallest difference is the pixel vector, the pixel vector indicates the direction of the equal signal line. It becomes. When the pixel vector is obtained in the direction of the signal gradient, if the magnitude is the difference between the pixel value of the target pixel and its neighboring pixels, the pixel for which the pixel vector is obtained is in the edge component as the pixel vector increases. As the pixel vector is smaller, the pixel for which the pixel vector is obtained can be regarded as being in a flat portion. Conversely, when the pixel vector is obtained in the direction of the signal gradient, if the magnitude is the reciprocal of the difference between the pixel values of the pixel of interest and its neighboring pixels, the smaller the pixel vector, the more the pixel for which the pixel vector is obtained. As the pixel vector is larger, the pixel for which the pixel vector is obtained can be regarded as being in the flat part.
[0017]
Furthermore, when the pixel vector is obtained in the direction of the equal signal line, if the size is the difference between the pixel value of the target pixel and its neighboring pixels, the smaller the pixel vector is, the more the pixel for which the pixel vector is obtained is in the edge component. As the pixel vector increases, the pixel for which the pixel vector is obtained can be regarded as being in a flat portion. Conversely, when the pixel vector is obtained in the direction of the equal signal line, if the size is the reciprocal of the difference between the pixel values of the pixel of interest and its neighboring pixels, the larger the pixel vector, the more the pixel for which the pixel vector was obtained is an edge. As the pixel vector is smaller, the pixel for which the pixel vector is obtained can be regarded as being in the flat part.
[0018]
In addition, as the direction of the pixel vector, two types of directions, that is, a direction having the largest difference and a direction having the second largest difference, or a direction having the smallest difference and a direction having the second smallest difference may be obtained. The pixel vector consists of two vectors.
[0019]
Further, when a pixel vector is obtained in the direction of the iso-signal line for a certain target pixel and the magnitude of the pixel vector is the reciprocal of the difference, as described above, the larger the pixel vector is, the more the target pixel is at the edge. Is smaller, the pixel of interest can be regarded as being in a flat portion, and the pixel can be regarded as noise in the flat portion.
[0020]
Based on the above, when “acquiring a noise signal based on a pixel vector”, it is determined whether the pixel is at an edge or a flat part according to the direction and / or size of the pixel vector. It can be seen that a noise signal should be obtained (a noise component is separated) from the band-limited image signal according to the determination result.
[0021]
In the case of “acquiring a noise signal from a band limited image signal”, for example, the noise component and the edge component of the band limited image signal are separated based on the size of the pixel vector, A processed band limited image signal is obtained by performing a smoothing process on the noise component and / or an emphasis process on the edge component, and a noise signal included in the band limited image signal before smoothing is processed using the processed band limited image signal. Get it. Here, the “smoothing process for the noise component” is a process for reducing the pixel value of the pixel corresponding to the noise component, and the “enhancement process for the edge component” is increased by the pixel value of the pixel corresponding to the edge component. It is processing.
[0022]
In addition, when acquiring a noise signal based on a pixel vector in this way, a pixel vector (peripheral pixel vector) in a pixel near each pixel is calculated, and the noise signal is also calculated based on the calculated peripheral pixel vector. It is preferable to obtain.
[0023]
Further, when calculating a pixel vector, a pixel vector in one pixel of a band-limited image in one frequency band is set to a pixel corresponding to the one pixel in an image in a frequency band lower than the one frequency band. It is desirable to perform correction based on the pixel vector and obtain a noise signal based on the corrected pixel vector instead of the pixel vector.
[0024]
Here, “correcting the pixel vector” means that the direction of the pixel vector of one pixel in one frequency band is the direction of the pixel vector of the pixel corresponding to one pixel in a frequency band lower than the one frequency band. To match.
[0025]
Further, when calculating a pixel vector, a variance value of a predetermined region including one pixel of a band-limited image in one frequency band is calculated, and the pixel vector of the one pixel is corrected based on the variance value. If it is determined that the pixel vector of the one pixel is to be corrected, the pixel vector in the one pixel is changed to the one pixel in the image in a frequency band lower than the one frequency band. It is desirable to correct based on the pixel vector of the corresponding pixel and obtain a noise signal based on the modified pixel vector instead of the pixel vector.
[0026]
Here, the “dispersion value” may be not only the dispersion value of the predetermined area, but also a difference value between the pixel of interest when the pixel vector is calculated and the neighboring pixels. In addition, as the difference value, for example, when a pixel vector is obtained from eight pixels near the target pixel, a sum of differences between the target pixel and the eight neighboring pixels, or an average value of the difference may be used.
[0027]
In addition, “determining whether or not to correct the pixel vector of the one pixel based on the variance value” means that when the variance value of a predetermined area including a certain pixel is smaller than the variance value in another area If the dispersion value is large, it is determined to refer to the low frequency band image without considering the low frequency band image as a flat portion.
[0028]
In addition, as described above, “correcting a pixel vector” means that the direction of the pixel vector of one pixel in one frequency band is the pixel of the pixel corresponding to one pixel in a frequency band lower than the one frequency band. Matching the direction of the vector.
[0029]
When “correcting the pixel vector”, the peripheral pixel vector may be corrected.
[0030]
In the image processing method according to the present invention, the band limited image signal is smoothed based on the pixel vector to obtain a smoothed band limited image signal, and the noise is calculated based on the smoothed band limited image signal instead of the pixel vector. A signal can also be acquired.
[0031]
In this case, it is desirable to obtain a smoothed band limited image signal based on the pixel vector corrected by using the above-described methods instead of the pixel vector.
[0032]
Here, “smoothing the band-limited image signal based on the pixel vector” means that the noise contained in the edge component (noise on the edge) is preserved while the edge component is stored based on the direction of the pixel vector, particularly the pixel vector. This means that the band-limited image signal is smoothed so as to be suppressed. For example, when the pixel vector is a vector in the equal signal line direction, smoothing may be performed using the pixel of interest for which the pixel vector has been obtained, a pixel in the vector direction, and a pixel on the opposite side of the vector direction. In “smoothing”, a method of obtaining an average value of pixel values of pixels in the pixel vector direction, a method of smoothing using a smoothing filter, or the like can be used.
[0033]
In addition, when “acquiring a noise signal based on a smoothed band-limited image signal”, the noise component contained in the band-limited image signal before smoothing is separated using the smoothed band-limited image signal to obtain the noise signal. Any method may be used as long as it is, for example, a noise signal (noise band limited image signal) may be obtained by subtracting the smoothed band limited image signal from the band limited image signal before smoothing. Further, after separating the noise component and the edge component of the smoothed band limited image signal based on the size of the pixel vector, the smoothing process for the noise component and / or the edge component is performed on the smoothed band limited image signal. A processed band limited image signal may be obtained by performing enhancement processing, and a noise signal included in the band limited image signal before smoothing may be acquired using the processed band limited image signal. As described above, “smoothing processing for noise components” is processing for reducing the pixel values of pixels corresponding to noise components, and “enhancement processing for edges components” is processing for increasing the pixel values of pixels corresponding to edge components. It is.
[0034]
In the image processing method according to the present invention, the original image signal and the noise signal are stored, and when the setting value of the parameter indicating the degree of removal of the noise component is changed, the original image signal and the noise signal are read out and read out. It is desirable to remove the noise component of the original image signal based on the original image signal and the noise signal and the changed parameters.
[0035]
An image processing apparatus according to the present invention is a band-limited image that creates a band-limited image signal from an original image signal in an image processing apparatus that performs image processing for reducing noise of the original image on an original image signal representing the original image. A signal generation unit; a noise signal acquisition unit that obtains a noise signal having the same number of pixels as the original image signal based on the band-limited image signal; and a noise component of the original image signal is removed based on the noise signal. And a noise removing means.
[0036]
In the image processing apparatus according to the present invention, the band-limited image signal creating unit creates the band-limited image signal by performing multi-resolution conversion of the original image signal, and the noise signal obtaining unit is configured from the band-limited image signal. A noise signal can be obtained by separating a noise component to obtain a noise band limited image signal and performing inverse multi-resolution conversion on the noise band limited image signal. Here, the multi-resolution conversion can be conversion by Laplacian pyramid decomposition or wavelet conversion.
[0037]
Furthermore, the noise signal acquisition means of the image processing apparatus according to the present invention is preferably means for acquiring the noise signal by filtering processing using an iris filter.
[0038]
The image processing apparatus according to the present invention further includes pixel vector calculation means for calculating a pixel vector in each pixel of the band limited image represented by the band limited image signal, and the noise signal acquisition means includes the pixel It is desirable to acquire a noise signal based on the pixel vector calculated by the vector calculation means.
[0039]
When the pixel vector calculating unit is provided as described above, it is preferable that the noise signal acquiring unit acquires a noise signal based on a pixel vector in a pixel near each pixel.
[0040]
Further, when the pixel vector calculating means is provided, the pixel vector in one pixel of the band limited image in one frequency band is set as the one pixel in the image in the lower frequency band than the one frequency band. And a noise signal acquisition means for acquiring a noise signal based on the corrected pixel vector instead of the pixel vector. Is desirable.
[0041]
Further, in the case where the pixel vector calculating unit is provided, a variance value calculating unit that calculates a variance value of a predetermined region including one pixel of the band limited image in one frequency band, and based on the variance value A determination means for determining whether or not to correct the pixel vector of the one pixel; and when it is determined to correct the pixel vector of the one pixel, the pixel vector in the one pixel is set to the one frequency band. Correction means for correcting based on the pixel vector of the pixel corresponding to the one pixel in the lower frequency band image, and the noise signal acquisition means is corrected instead of the pixel vector It is desirable to obtain a noise signal based on the pixel vector.
[0042]
Further, in the case where the pixel vector calculating means is provided, the smoothing means for obtaining the smoothed band limited image signal by smoothing the band limited image signal based on the pixel vector and the noise signal The acquisition unit may acquire a noise signal based on the smoothed band limited image signal.
[0043]
In this case, it is desirable that the smoothing unit obtains a smoothed band limited image signal based on the pixel vector corrected by the correcting unit instead of the pixel vector.
[0044]
In the image processing apparatus of the present invention, the first storage means for storing the original image signal and the second storage means (first storage means) for storing the noise signal acquired by the noise signal acquisition means. And a parameter setting means for setting a parameter indicating the degree of removal of the noise component to the noise removing means,
When the parameter setting value is changed by the parameter setting unit, the noise removing unit reads the original image signal from the first storage unit and reads the noise signal from the second storage unit. It is desirable to generate a denoised image signal based on the noise signal and the changed parameters.
[0045]
The image processing method according to the present invention may be provided by being recorded on a computer-readable recording medium as a program for causing a computer to execute the image processing method.
[0046]
【The invention's effect】
According to the present invention, a band limited image signal is generated from an original image signal, a noise signal having the same number of pixels as the original image signal is obtained based on the generated band limited image signal, and the original image signal is converted based on the noise signal. Since the noise component is removed, the noise component corresponding to the frequency band of the original image signal can be removed.
[0047]
The original image signal and the generated noise signal are stored, and when the setting value of the parameter indicating the degree to which the noise component is removed is changed, the original image signal and the noise signal are read, and the read original image signal and noise signal are read If the noise component of the original image signal is removed on the basis of the changed parameter and the changed parameter, the noise signal is stored once when the noise signal is output again based on the noise-removed signal after the noise signal is created once. Therefore, the degree of noise removal from the original image signal can be arbitrarily changed simply by changing the parameter and changing the level of the noise signal. Compared with the method described in Kaihei 6-96200, the degree of noise removal can be changed easily. There was shortened operation time for obtaining the modified processed image signal, it is possible to reduce the operator's stress.
[0048]
In addition, various methods can be used as a method for generating the band limited image signal. For example, the band limited image signal can have the original image size. As a result, the original image can be smoothed with a mask of a plurality of sizes, a band-limited image signal of the original image size can be obtained, and a noise signal can be generated by adding all the noise band-limited image signals that have been subjected to noise separation. Of course, multi-resolution conversion can be used as a method of generating the band limited image signal.
[0049]
Also, various methods can be used as a noise signal acquisition method. For example, a pixel vector in each pixel of the band limited image represented by the band limited image signal is calculated, and a noise component (noise signal) is separated based on the pixel vector. Here, as described above, the situation differs depending on whether the pixel vector is obtained in the equal signal line direction or the signal gradient direction, or as the difference or the inverse of the difference. When the pixel vector is obtained in the signal line direction and the magnitude of the pixel vector is the reciprocal of the above difference, the pixel vector is large in the edge portion, and the pixel vector is small in the flat portion, that is, the noise portion. Therefore, when this method is used, the noise component of the band limited image can be separated according to the size of the pixel vector. For example, after performing a smoothing process for reducing the pixel value of the pixel with respect to the separated noise component, the noise signal is separated from the band-limited image signal based on the signal subjected to the smoothing process. The noise component corresponding to the frequency band of the original image signal can be removed based on the noise signal.
[0050]
Here, when the pixel vector is obtained in the equal signal line direction and the size of the pixel vector is the reciprocal of the above difference, if the value of the pixel vector is relatively small, the pixel for which the pixel vector is obtained is flat. It can be considered that there is a part, that is, noise, but there is a possibility that it is at a minute edge in the image. On the other hand, when the pixel is at the edge, the pixel vector in the neighboring pixel is directed in the same direction, and when it is noise, the pixel vector in the neighboring pixel is directed in a random direction. Therefore, it is possible to improve the accuracy of whether a certain pixel represents an edge or noise by also based on a pixel vector of a neighboring pixel of each pixel, thereby more accurately determining a noise component. Can be separated.
[0051]
In addition, a relatively large edge included in the original image remains in the low frequency band image, but the noise becomes smaller in the low frequency band image. Therefore, by making the pixel vector in one pixel of the band limited image in one frequency band the same as the pixel vector direction of the pixel corresponding to one pixel in the image in the frequency band lower than the one frequency band. When the pixel is in the edge component, the pixel vector more represents the edge component. On the other hand, if the pixel is in the noise component, the finer noise will be smaller in the low frequency band image, so the pixel vector will be in a random direction and the size will be smaller, so the pixel vector will be flatter Part, that is, a noise component. Therefore, by correcting the pixel vector in one pixel of the band-limited image in one frequency band based on the pixel vector of the pixel corresponding to one pixel in the image in the lower frequency band than the one frequency band, It is possible to improve the accuracy of whether a pixel is an edge or noise, and thereby it is possible to more accurately separate a noise component and an edge component.
[0052]
Further, when the original image signal is subjected to multi-resolution conversion, detailed edge information is expressed in a relatively high frequency band image, and in the intermediate frequency band image, the edge information in the intermediate frequency band is expressed in the low frequency band image. Represents large edge information in the low frequency band. Generally, the energy of a frequency band image decreases as the frequency band increases, but the noise energy does not depend on the frequency band. Therefore, the image of the low frequency band has a better S / N. Become. Here, the portion in which noise is not mixed in the original image (see FIG. 27A) has a signal only in the edge portion in any band limited image (FIGS. 27B to 27D). If the variance of the pixel values in the predetermined region including the pixel for which the pixel vector is obtained is small in the relatively high frequency band image, the pixel vector can be referred to without referring to the pixel vector of the low frequency band image. It can be considered that the target pixel for which is obtained is in a flat portion.
[0053]
On the other hand, the portion of the original image mixed with noise (FIG. 28 (a)) has a large dispersion value due to the disturbance of the direction of the pixel vector due to the influence of noise in the high frequency band image (FIG. 28 (b)). ), The lower the frequency band, the smaller the influence of noise on the signal and the smaller the dispersion value (FIGS. 28C and 28D). Accordingly, when the variance of pixel values in a predetermined region including one pixel for which a pixel vector is obtained in one band-limited image is large, the pixel vector must be referred to unless the corresponding pixel vector in the low-frequency band image is referred to. It is not known whether the pixel for which the value is obtained is in the flat part or in the edge part. Therefore, when the variance value is large in one band-limited image, the flat portion is obtained by matching the pixel vector with the pixel vector of the corresponding pixel in the low-frequency band image with reference to the low-frequency band image. This pixel vector is corrected to represent a flat portion, and the pixel vector of an edge portion is corrected to represent an edge portion. Therefore, based on the corrected pixel vector, the noise component can be more accurately separated.
[0054]
On the other hand, when noise is mixed in the image, the edge component in the image also includes noise. Therefore, the band limited image signal is smoothed based on the pixel vector or the pixel vector (direction) corrected using the above-described methods to obtain a smoothed band limited image signal, and the smoothing is performed instead of the pixel vector. If a method for obtaining a noise signal based on a band-limited image signal is used, noise on the edge can be extracted without losing the edge component, and noise on a flat portion other than the edge can also be extracted. Noise becomes inconspicuous and noise in the flat portion also becomes inconspicuous.
[0055]
Further, after separating the noise component and the edge component of the smoothed band limited image signal based on the size of the pixel vector, the smoothing process for the noise component and / or the edge component is performed on the smoothed band limited image signal. By performing enhancement processing to obtain a processed band limited image signal, and using the processed band limited image signal to obtain a noise signal included in the band limited image signal before smoothing, noise on the edge is reduced. Edge emphasis can be performed without making it conspicuous, and noise on the flat portion can be further reduced, so that a higher quality image can be reproduced.
[0056]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an image processing method and apparatus according to an embodiment of the present invention will be described in detail with reference to the drawings. The image processing apparatus shown below performs noise removal processing on an image signal obtained by reading a radiation image of a human body recorded on a stimulable phosphor sheet, and the processed image signal is mainly applied to a film. Recorded and used for diagnosis.
[0057]
FIG. 1 is a schematic block diagram showing the configuration of the image processing apparatus according to the first embodiment of the present invention. The image processing apparatus 1 is a band-limited image signal creating unit that creates a band-limited image signal representing frequency response characteristics for each of a plurality of frequency bands of an original image from an original image signal Sorg having a predetermined resolution obtained by a reading device or the like. 2 and processing means 3 for obtaining a processed image signal Sproc by performing a process for removing noise on the original image signal Sorg based on the band-limited image signal.
[0058]
In this embodiment, for example, in the radiation image information recording / reproducing system using the stimulable phosphor sheet recorded in JP-A-55-12492 and JP-A-56-11395, the stimulable phosphor sheet is used. A radiographic image of the human body recorded in the above is read as a digital image signal by laser beam scanning. As shown in FIG. 2, the radiographic image is read by scanning the sheet 10 in the sub-scanning direction (vertical direction) while scanning the stimulable phosphor sheet 10 in the main scanning direction (lateral direction, X direction). , Y direction) and the sheet 10 is scanned two-dimensionally.
[0059]
First, the band limited image signal creation process will be described in detail. FIG. 3 is a block diagram showing an outline of the band-limited image creation process, and FIG. 4 is a diagram schematically showing the band-limited image signal creation process. In this embodiment, a band-limited image signal is created by the Laplacian pyramid method described in, for example, Japanese Patent Application Laid-Open Nos. 5-244508 and 6-96200.
[0060]
First, as shown in FIG. 3, the band-limited image signal creating means 2 in FIG. The image signal L having a lower resolution than the original image signal Sorg 1 (Hereinafter referred to as a low resolution image signal), and then this low resolution image signal L 1 The same filtering process is applied to the low resolution image signal L 1 Low-resolution image signal L whose resolution is even lower than 2 After that, the same filtering process is sequentially repeated, and the low resolution image signal L for each resolution is generated. k (K = 1 to n) is obtained. Then, in the interpolation processing means 11, the low resolution image signal L obtained at each stage of the filtering process. k On the other hand, interpolation processing is performed so that the number of pixels is doubled to obtain a plurality of blurred image signals Sus1 to Susn (hereinafter represented by Susk (k = 1 to n)) having different sharpness. Thereafter, the low-resolution image signal L having the number of pixels corresponding to each other by the subtractor 12. k-1 And the difference between the blurred image signal Susk and the original image signal Sorg and the blurred image signal Sus1, and this is obtained as the band limited image signal B. k And
[0061]
In the present embodiment, a filter substantially corresponding to a one-dimensional Gaussian distribution is used as the filter for the filtering process. That is, the filter coefficient of the filter is determined according to the following equation (1) regarding the Gaussian signal.
[0062]
[Expression 1]
Figure 0003995854
This is because the Gaussian signal has good localization in both frequency space and real space. For example, a 5 × 1 one-dimensional filter in the case where σ = 1 in the above equation (1) is as shown in FIG. It will be something.
[0063]
As shown in FIG. 6, the filtering process is performed on the original image signal Sorg or on the low resolution image signal every other pixel. By performing such filtering processing every other pixel in the x direction and the y direction, the low resolution image signal L 1 The number of pixels of is 1/4 of the original image, and n low-resolution image signals L obtained by repeatedly performing this filtering process on the low-resolution image signal obtained by the filtering process. k (K = 1 to n) each has half the number of pixels of the original image signal Sorg 2k Image signal.
[0064]
Next, the low-resolution image signal L thus obtained is k Interpolation processing to be performed on will be described. Various methods such as a B-spline method can be used as the interpolation calculation method for performing the interpolation processing. In this embodiment, since the low-pass filter based on the Gaussian signal is used in the filtering processing, the interpolation calculation is performed. A Gaussian signal is also used for. Specifically, in the following formula (2), σ = 2 k-1 Is used.
[0065]
[Expression 2]
Figure 0003995854
For example, the low resolution image signal L 1 When k is interpolated, σ = 1 because k = 1. In this case, the filter for performing the interpolation process is a 5 × 1 one-dimensional filter as shown in FIG. This interpolation processing is performed first by the low resolution image signal L 1 The low resolution image signal L is obtained by interpolating one pixel at a time every other pixel. 1 Is expanded to have the same number of pixels as the original image, and then this interpolated low-resolution image signal L 1 On the other hand, the filtering process is performed by the one-dimensional filter shown in FIG.
[0066]
Similarly, this interpolation enlargement process is performed for all the low resolution image signals L k To. Low resolution image signal L k Is interpolated based on the above equation (2), 3 × 2 k -1 filter is created and the low resolution image signal L k By interpolating one pixel having a value of 0 between each pixel, a low-resolution image signal L having a one-step high resolution k-1 The low-resolution image signal L is enlarged so that the number of pixels becomes the same, and the pixel whose value is 0 is interpolated. k 3x2 for k A blurred image signal Susk is obtained by performing interpolation with a filter having a length of −1 and performing interpolation.
[0067]
Next, the blurred image signal Susk created as described above has a low resolution image signal L having a corresponding number of pixels. k-1 Subtracted from the band-limited image signal B k (K = 1 to n) is obtained. Band-limited image signal B k Is as shown in the following formula (3).
[0068]
B 1 = Sorg-Sus1
B 2 = L 1 -Sus2
B 3 = L 2 -Sus3
・ (3)

B k = L k -Susk
More specifically, as shown in FIG. 1 ~ L 5 Is obtained, the low-resolution image signal L having the lowest resolution is first obtained. 5 Is subjected to interpolation processing to obtain a low resolution image signal L 4 A blurred image signal Sus5 having the same number of pixels as is generated. And the low resolution image signal L 4 The blurred image signal Sus5 is subtracted from the band-limited image signal B 5 Get. Sequentially L 3 -Sus4, L 2 -Sus3, L 1 -Sus2, Sorg-Sus1 are calculated, and the band limited image signal B 1 ~ B 5 Get. Here, the lowest resolution low resolution image signal L k (L 5 ) Represents low-frequency information obtained by reducing the original image, but is not used in subsequent calculations.
[0069]
Next, the band limited image signal B calculated as described above. k The process performed using is described. FIG. 8 is a schematic block diagram showing the configuration of the processing means 3 together with the band limited image signal creating means 2. As shown in FIG. 8, the band limited image signal B generated by the band limited image signal generating means 2 is used. k The noise component is separated in the noise separation means 22 as the noise signal generation means of the present invention, and the noise band limited image signal NB k Is obtained. Here, the noise component separation processing in the noise separation means 22 will be described.
[0070]
FIG. 9 is a schematic block diagram showing the configuration of the noise separating means 22. The noise separation means 22 performs band-limited image signal B by processing using an iris filter. k The noise component is separated from the input band-limited image signal B. k For all the pixels of the band-limited image signal B k The gradient vector calculation means 31 for calculating the signal gradient vector for each pixel based on the above, the attention pixel setting means 34 for sequentially setting one of all the pixels as the attention pixel, and the attention set by the attention pixel setting means 34 Direction line setting means 33 for setting a plurality of (for example, 32) radial direction lines (see FIG. 10) adjacent to each other at a predetermined angular interval (for example, 11.25 degree interval) around the pixel, and each set direction line For each pixel on the direction line within a predetermined range from the target pixel, an angle θil formed by the gradient vector of each pixel and the direction in which the direction line extends (i th of 32 direction lines) Index value calculation means for respectively obtaining an index value cosθil based on the gradient vector of the l-th pixel from the target pixel and the direction in which the i-th direction line extends. 5 and an average value Ci (n) of the index values cosθil of each pixel on the direction line within the range from the start point to the end point by changing the end point to a size corresponding to the preset range with the target pixel as the start point Is obtained for each direction line according to the following equation (4), and the maximum value calculating means 36 for extracting the maximum value Cimax (equation (5)) out of the average value is extracted for each direction line. Concentration calculation means for calculating the concentration value C (expression (6)) of the gradient vector group for this pixel of interest by averaging the maximum value Cimax for all 32 direction lines ((ΣCimax) / 32). 37,
[Equation 3]
Figure 0003995854
[Expression 4]
Figure 0003995854
The larger the concentration value C, the greater the weighting as the pixel of interest is located on the edge in the image, and the smaller the concentration value C, the smaller the weighting as the pixel of interest exists in a portion other than the edge. Further, the band-limited image signal B is set by a filter setting unit 38 for setting a filter coefficient of the spatial filter and a spatial filter for which the filter coefficient is set by the filter setting unit 38 k The filtered band-limited image signal FB after filtering processing k Filtering means 39 for obtaining the band-limited image signal B k To filtered band-limited image signal FB k To subtract the noise band limited image signal NB k And signal calculation means 40 for calculating.
[0071]
As for the iris filter, see “Obata et al., Detection of mass shadow in DR image (iris filter), IEICE Transactions D-II Vol.J75-D-II No.3 P663 ~ 670 March 1992” The details are described in “Obata et al., Iris filter and its characteristic analysis, Transactions of the Society of Instrument and Control Engineers, 1998 VOL.34 No.4, p.326-332”. The iris filter processing has been studied as an effective technique for detecting a mass shadow, which is one of the characteristic forms particularly in breast cancer. The iris filter used for the iris filter processing is used to determine the gradient of an image signal as a gradient vector. And the degree of concentration of the gradient vector is output, and the iris filter process is to detect a mass shadow based on the degree of concentration of the gradient vector. In the present embodiment, the band-limited image signal B is obtained by the iris filter processing. k The degree to which each pixel is located on a line segment such as an edge is obtained from the degree of concentration of the gradient vector.
[0072]
For example, the gradient vector calculating means 31 uses the image data (pixel value) of the pixel at the outermost periphery of the mask having a size of 5 pixels × 5 pixels shown in FIG. To obtain the direction θ of the signal gradient vector.
[0073]
[Equation 5]
Figure 0003995854
This mask size is not limited to 5 pixels vertical by 5 pixels horizontal, and masks of various sizes can be used.
[0074]
The number of direction lines set by the direction line setting means 33 is not limited to the above 32, but if it is set too much, the load required for the calculation process increases rapidly, and if it is too small, the edge component is detected accurately. Since it is not possible, about 32 is preferable. In addition, it is convenient in calculation processing and the like that the angular intervals between the direction lines are equal.
[0075]
The concentration degree value C calculated by the concentration degree calculation means 37 is a large value when the direction of the gradient vector is concentrated on the target pixel.
[0076]
In the filter setting means 38, the filter coefficient of the spatial filter for performing the smoothing process is set according to the concentration value C obtained by the concentration degree calculating means 37. That is, the pixel of interest exists on the edge as the concentration value C increases, and the pixel of interest exists at a position other than the edge as the concentration value C decreases. Therefore, a filter coefficient is set so that the weighting increases as the concentration value C increases, and the spatial filter is set.
[0077]
Specifically, first, binarization processing is performed in which the value of a pixel having a concentration level C higher than a predetermined threshold is 1, and the value of a pixel equal to or lower than the predetermined threshold is set to 0, whereby an edge component and other components are processed. And separation. Here, assuming that the basic spatial filter is F0, this spatial filter F0 is a 3 × 3 smoothing filter, and its filter coefficient is as shown in FIG. The filter coefficient of the filter F0 is weighted according to the conversion result, and the band limited image signal B k The filter coefficient of the spatial filter F1 to be applied to is set. That is, when a certain pixel of interest is on an edge component and the concentration C (after binarization) in a 3 × 3 range centered on this pixel of interest is as shown in FIG. The filter coefficient of F1 is as shown in FIG. Further, when a certain pixel of interest is in a portion other than the edge component, and the degree of concentration C in the 3 × 3 range centering on the pixel of interest is as shown in FIG. 12D, the filter coefficient of the spatial filter F1 is This is as shown in FIG. Therefore, the band-limited image signal B is obtained by the spatial filter F1. k Is smoothed, the edge component is not blurred, but in the direction in which it exists. In addition, components other than the edge component have a value of 0.
[0078]
The filtering unit 39 uses the spatial filter F1 set in the filter setting unit 38 to perform the band limited image signal B. k The filtered band-limited image signal FB after filtering processing k Get. By this filtering process, the band-limited image signal B k Is smoothed, but the edge component is smoothed in the direction in which the edge exists. As a result, the filtered band-limited image signal FB k In, only the smoothed edge component remains.
[0079]
In the signal calculation means 40, the band limited image signal B k To filtered band-limited image signal FB k To subtract the noise band limited image signal NB k Is obtained. Here, the filtered band-limited image signal FB k Is smoothed, the noise band limited image signal NB k Is the band-limited image signal B k It represents the noise component contained in. In particular, the filtered band-limited image signal FB k Is smoothed in the direction in which the edge component exists, the obtained noise component includes noise on the edge.
[0080]
Band-limited image signal B input to the noise separation means 22 k Are first input to the gradient vector calculation means 31, the target pixel setting means 34, the filtering means 39, and the signal calculation means 40. As described above, the gradient vector calculation means 31 uses the image data (pixel value) of the pixel at the outermost periphery of the mask having a size of 5 vertical pixels × 5 horizontal pixels to determine the direction θ of the signal gradient vector for all pixels. . The obtained direction θ of the signal gradient vector is input to the index value calculation means 35.
[0081]
On the other hand, the pixel-of-interest setting means 34 receives the input band-limited image signal B k , One of all the pixels is sequentially set as a target pixel, and the set target pixel is input to the direction line setting means 33. The direction line setting means 33 sets 32 radial direction lines adjacent to each other at equal intervals of, for example, 11.25 degrees with the target pixel as the center. The set direction line is input to the index value calculation means 35.
[0082]
The index value calculation means 35 is a band limited image signal B in which the direction θ of the gradient vector input from the gradient vector calculation means 31 is defined. k The 32 direction lines input from the direction line setting means 33 are overlapped on the same two-dimensionally arranged pixels, and pixels that respectively overlap the 32 direction lines are extracted.
[0083]
Further, the index value calculating means 35 is configured to determine the angle θil (the i-th direction line out of 32 direction lines) between the direction θ of the gradient vector defined for each pixel for each direction line and the direction in which the direction line extends. , Representing the angle between the gradient vector of the l-th pixel from the target pixel and the direction in which the i-th direction line extends).
[0084]
The obtained index value cosθil of each pixel on each direction line is input to the maximum value calculation means 36. The maximum value calculating means 36 obtains the average value Ci (n) of the index values cosθil of the pixels on the direction line within the range from the start point to the end point for each direction line, and calculates the average value Ci (n). The maximum value Cimax is extracted.
[0085]
Thus, the maximum value Cimax obtained for each direction line is input to the concentration degree calculating means 37. The concentration degree calculation means 37 calculates the concentration value C of the gradient vector group for the pixel of interest by averaging the maximum values Cimax obtained for each input direction line. The calculated concentration value C of the gradient vectors is input to the filter setting means 38.
[0086]
The same operation as the above is performed by sequentially replacing the pixel of interest set by the pixel-of-interest setting unit 34, and the concentration value C for all the input pixels is input to the filter setting unit 38.
[0087]
The filter setting unit 38 sets a spatial filter F1 that is weighted more as the concentration value C is larger, and the band limited image signal B is set by the spatial filter in which the filtering unit 39 is set. k Is subjected to filtering processing to obtain a filtered band-limited image signal FB k This is input to the signal calculation means 40.
[0088]
The signal calculation means 40 is configured to output the band limited image signal B k To filtered band-limited image signal FB k To subtract the noise band limited image signal NB k Is calculated.
[0089]
The noise band limited image signal NB obtained by the noise separating means 22 in this way. k Among them, noise band limited image signal NB with the lowest resolution n Is a noise signal Sn, and the noise signal Sn is a one-step high resolution noise band limited image signal NB. n-1 In the interpolation processing unit 24, the interpolation processing is performed in the same manner as the interpolation processing unit 11 so that the expanded noise signal Sn ′ is obtained. After this, the noise band limited image signal NB n-1 And the expanded noise signal Sn ′ are added by the adder 25 to obtain a noise signal Sn−1. Then, acquisition of the enlarged noise signal Sk-1 ′ by interpolation expansion of the noise signal Sk-1, and the enlarged noise signal Sk-1 ′ and the noise band limited image signal NB k-1 The noise signal Sk-2 is repeatedly obtained by adding the above to obtain the highest resolution noise signal S1.
[0090]
Specifically, as shown in FIG. 13, the noise band limited image signal NB in five stages 1 ~ NB 5 Is obtained, the noise band limited image signal NB having the lowest resolution is first obtained. 5 Is the noise signal S5. Then, the noise band limited image signal NB having a one-step high resolution with respect to the noise signal S5. 4 Is subjected to an interpolation process so as to obtain the same number of pixels, and an enlarged noise signal S5 'is obtained. The noise band limited image signal NB 4 And the enlarged noise signal S5 ′ are added to obtain a noise signal S4. Thereafter, noise signals S3 and S2 are obtained in the same manner, and finally a noise signal S1 having the highest resolution is obtained.
[0091]
When the noise signal S1 having the highest resolution is obtained in this way, the arithmetic unit 26 as the noise removing means according to the present invention obtains the original image signal Sorg with respect to the noise signal S1 as shown in the following equation (8). The enhancement coefficient α (Sorg) as a parameter indicating the degree of removal of the noise component according to the value is multiplied, and the noise signal S1 ′ multiplied by the enhancement coefficient α (Sorg) is further subtracted from the original image signal Sorg. Thus, a processed image signal Sproc representing an image with reduced noise components is obtained.
[0092]
Sproc = Sorg−S1 ′ = Sorg−α (Sorg) · S1 (8)
(However, Sproc: Image signal from which noise has been removed.
Sorg: Original image signal
α (Sorg): Enhancement coefficient determined based on the original image signal
Note that if the storage means for storing the original image signal Sorg and the noise signal S1 and the parameter setting means for setting the enhancement coefficient α (Sorg) to the computing unit 22 are further provided, the enhancement coefficient α. When the set value of (Sorg) is changed, the original image signal and the noise signal are read out, and the read out noise signal is multiplied by the changed enhancement coefficient α (Sorg) to calculate the noise signal S1 ′ again. The recalculated noise signal S1 ′ can be removed from the read original image signal Sorg.
[0093]
Next, the operation of the first embodiment will be described. FIG. 14 is a flowchart showing the operation of the first embodiment. First, an original image signal Sorg is input to the image processing apparatus 1 from a reading device or the like (step S1). The original image signal Sorg is input to the band-limited image signal creating means 2 where the band-limited image signal B representing the frequency response characteristic for each frequency band of the original image signal Sorg. k Is created (step S2). Band-limited image signal B k As described above, the noise component is separated (step S3), and the noise band limited image signal NB k Is obtained (step S4). After this, the noise band limited image signal NB k 'To obtain a noise signal Sk by interpolation processing into a one-step high frequency band, and a noise band limited image signal NB in a frequency band corresponding to the noise signal Sk k Acquisition of the noise signal Sk-1 by addition to the noise band limited image signal NB in the highest frequency band 1 Until the noise signal S1 is obtained (step S5). Then, the processed image signal Sproc is obtained by performing the calculation shown in the above equation (8) using the noise signal S1 (step S6), and the processed image signal Sproc is displayed on a monitor (not shown) (step S7). The operator observes the displayed image, and if it is necessary to change the degree of noise removal (step S8), the operator inputs the degree of change to the processing means 3. As a result, the processing means 3 changes the enhancement coefficient α (Sorg) in the above equation (8), returns to step S6, and performs the processing from step S6 to step S8. If the degree of noise removal is appropriate, step S8 is affirmed and the process is terminated.
[0094]
As described above, in the present embodiment, the level of the noise signal S1 subtracted from the original image signal Sorg can be arbitrarily changed only by changing the value of the enhancement coefficient α (Sorg) in the above equation (8). Therefore, compared with the method described in the above Japanese Patent Laid-Open No. 6-96200, it is possible to easily change the degree of noise removal, thereby obtaining a processed image signal Sproc in which the degree of noise removal is changed. Thus, the operator's stress can be reduced.
[0095]
In the first embodiment, a band-limited image signal representing the characteristics of each frequency band is obtained from the original image signal Sorg by the Laplacian pyramid technique. For example, as shown in Japanese Patent Application Laid-Open No. 6-24615. The band limited image signal may be obtained by wavelet transform. Hereinafter, an embodiment of image processing using wavelet transform will be described as a second embodiment.
[0096]
FIG. 15 is a schematic block diagram showing a configuration of an image processing apparatus according to the second embodiment of the present invention. As shown in FIG. 15, an image processing apparatus 51 according to the second embodiment of the present invention includes a wavelet transform unit 52 for performing wavelet transform on an original image signal Sorg having a predetermined resolution obtained by a reading device, and a wavelet transform. And processing means 53 for obtaining a processed image signal Sproc by performing a process for removing noise of the original image signal Sorg based on the signal obtained by the above.
[0097]
FIG. 16 is a schematic block diagram showing the configuration of the wavelet transform means 52. In the present embodiment, orthogonal wavelet transform in which the coefficients of wavelet transform are orthogonal is performed.
[0098]
First, as shown in FIG. 16, the wavelet transform unit 61 applies wavelet transform to the original image signal Sorg. FIG. 17 is a block diagram showing processing performed in the wavelet transform unit 61. As shown in FIG. 17, filtering is performed by basic wavelet functions H and G in the main scanning direction of the original image signal Sorg (signal LLk), and pixels in the main scanning direction are thinned out every other pixel (↓ 2 in the figure). And the number of pixels in the main scanning direction is halved. Here, the function H is a high-pass filter, and the function G is a low-pass filter. Further, filtering processing is performed on each of the signals from which the pixels are thinned out by the functions H and G in the sub-scanning direction, the pixels in the sub-scanning direction are thinned out every other pixel, and the number of pixels in the sub-scanning direction is set to 1. / 2 to obtain wavelet transform coefficient signals (hereinafter simply referred to as signals) HH1, HL1, LH1, LL1 (HHk + 1, HLk + 1, LHk + 1, LLk + 1). Here, the signal LL1 represents an image obtained by reducing the length and width of the original image to ½, and the signals HL1, LH1, and HH1 respectively represent the image of the vertical edge, the horizontal edge, and the diagonal edge component in the ½ reduced image of the original image. To represent.
[0099]
Next, wavelet transformation is further performed on the signal LL1 in the wavelet transformation unit 61, and signals HH2, HL2, LH2, and LL2 are obtained. Here, the signal LL2 represents an image obtained by reducing the length and width of the original image to ¼, and the signals HL2, LH2, and HH2 respectively represent the image of the vertical edge, the horizontal edge, and the diagonal edge component in the ¼ reduced image of the original image. To represent.
[0100]
In the same manner as described above, wavelet transform coefficient signals HH1 to HHn, HL1 to HLn, LH1 to LHn, and LL1 to LLn are obtained by repeating wavelet transform for the wavelet transform coefficient signal LLk obtained in each frequency band n times. Here, the wavelet transform coefficient signals HHn, HLn, LHn, and LLn obtained by the n-th wavelet transform have (1/2) the number of pixels in each of the main and sub directions compared to the original image signal Sorg. n Therefore, each wavelet transform coefficient signal has a lower frequency band as n is larger, and becomes data representing a low frequency component among the frequency components of the original image data. Therefore, the wavelet transform coefficient signal HHk (k = 0 to n, hereinafter the same) represents a change in frequency in both the main and sub directions of the original image signal Sorg, and becomes a lower frequency signal as k increases. The wavelet transform coefficient signal HLk represents a change in the frequency in the main scanning direction of the original image signal Sorg, and becomes a lower frequency signal as k is larger. Further, the wavelet transform coefficient signal LHk represents a change in frequency in the sub-scanning direction of the original image signal Sorg, and becomes a lower frequency signal as k is larger.
[0101]
Here, FIG. 18 shows a wavelet transform coefficient signal for each of a plurality of frequency bands. In FIG. 18, for the sake of convenience, the state up to the second wavelet transform is shown. In FIG. 18, the signal LL2 represents an image obtained by reducing the original image to 1/4 in the main and sub directions.
[0102]
Of the wavelet transform coefficient signals HHk, HLk, LHk, and LLk (k = 1 to n), the signals HHk, HLk, and LHk represent edge components in the frequency band, in other words, specific signals in the original image. It represents an image having a frequency band (band-limited image characteristics), that is, mainly represents an image contrast in the frequency band. The wavelet transform coefficient signal LLk represents an image obtained by reducing the original image as described above. In the present embodiment, the wavelet transform coefficient signals HHk, HLk, and LHk are referred to as band-limited image signals, the wavelet transform coefficient signal LLk is referred to as a resolution signal, and the band-limited image signal and the resolution signal are collectively referred to as wavelet transform coefficients. It shall be called a signal. Here, since the signal LLn having the lowest resolution is not used in the subsequent calculations as in the first embodiment, the value is set to 0.
[0103]
The processing unit 53 performs noise removal processing in the same manner as the processing unit 3 in the first embodiment. FIG. 19 is a schematic block diagram showing the configuration of the processing means 53 together with the wavelet transform means 52. As shown in FIG. 19, the band limited image signals HHk, HLk, LHk (hereinafter referred to as B) obtained by the wavelet transform means 52 k Each band-limited image signal B). k Is input to each noise separating means 62 provided so as to correspond to. Each noise separation means 62 has the same configuration as the noise separation means 22 in the first embodiment. Here, as in the first embodiment, the noise band limited image signals NHHk, NHLk, NLHk (hereinafter referred to as noise band limited image signals). NB k To be represented). That is, the band limited image signals BHH, HLk, and LHk are used as the band limited image signal B in the first embodiment. k As described above, the calculation of the degree of concentration by the iris filter, the setting of the spatial filter, the filtering process by the spatial filter, and the subtraction of the band-limited image signals HHk, HLk, and LHk after the filtering process at all frequencies The noise band limited image signals NHHk, NHLk, and NLHk are obtained by performing the band limited image signals HHk, HLk, and LHk of the band.
[0104]
Then, the obtained noise band limited image signal NB k The inverse wavelet transform unit 64 performs inverse wavelet transform on (NHHk, NHLk, NLHk, k = 1 to n). FIG. 20 is a diagram for explaining the inverse wavelet transform performed in the inverse wavelet transform unit 64. As shown in FIG. 20, the inverse wavelet transform unit 64 performs inverse wavelet transform on the noise band limited image signals NHHn, NHLn, NLHn, and NLLn (= 0) in the lowest frequency band to obtain a processed signal NLLn-1. .
[0105]
FIG. 21 is a block diagram showing processing performed in the inverse wavelet transform means 64. As shown in FIG. 21, an interval of one pixel is set between pixels in the sub-scanning direction of the noise band limited image signal NLLn (NLLn = 0 when NLLk, k = n) and the noise band limited image signal NLHn (NLHk). In addition to performing processing (represented by ↑ 2 in the figure), filtering processing is performed in the sub-scanning direction by inverse wavelet transform functions G ′ and H ′ corresponding to the functions G and H, and these are added, and further obtained by addition. The first signal is obtained by performing a process of spacing one pixel between pixels in the main scanning direction of the received signal (referred to as the first addition signal) and performing a filtering process in the main scanning direction by the function G ′. Get. On the other hand, processing is performed to leave an interval of one pixel between pixels in the sub-scanning direction of the signals NHLn (NHLk) and the signal NHHn (NHHk), and filtering processing is performed in the sub-scanning direction using the functions G ′ and H ′. These are added, and further, a process is performed to leave an interval of one pixel between the pixels in the main scanning direction of the signal obtained by the addition (referred to as a second addition signal), and a filtering process is performed using the function H ′. In the main scanning direction to obtain a second signal. Then, the first and second signals are added to obtain a noise band limited image signal NLLn-1 (NLLk-1). Since the wavelet transform coefficient signal NLLn with the lowest resolution is set to 0, the noise band limited image signal NLLn-1 represents the band limited image characteristics of the original image signal Sorg.
[0106]
Next, the inverse wavelet transform unit 64 performs inverse wavelet transform on the noise band limited image signals NHHn-1, NHLn-1, NLHn-1, and NLLn-1 in the same manner as described above to obtain the noise band limited image signal NLLn-. Get 2. Then, the inverse wavelet transform is repeated until the highest frequency band in the same manner as described above, and the noise signal S1 is obtained by performing inverse wavelet transform on the noise band limited image signals NHH1, NHL1, and NLL1.
[0107]
The obtained noise signal S1 is subjected to calculation as shown in Expression (8) in the calculator 65 in the same manner as in the first embodiment to obtain a processed image signal Sproc.
[0108]
Next, the operation of the second embodiment will be described. FIG. 22 is a flowchart showing the operation of the second embodiment. First, an original image signal Sorg is input to the image processing device 51 from a reading device or the like (step S11). The original image signal Sorg is subjected to wavelet transform in the wavelet transform means 52, and a wavelet transform coefficient signal for each frequency band is obtained (step S12). Each wavelet transform coefficient signal B k The noise component is separated (step S13), and the noise band limited image signal NB k Is obtained (step S14). After this, the noise band limited image signal NB k However, the inverse wavelet transform means 64 performs inverse wavelet transform to obtain a noise signal S1 (step S15). Then, the processed image signal Sproc is obtained by performing the calculation shown in the above equation (8) using the noise signal S1 (step S16), and the processed image signal Sproc is displayed on a monitor (not shown) (step S17). The operator observes the displayed image, and if it is necessary to change the degree of noise removal (step S18), the operator inputs the degree of change to the processing means 53. As a result, the processing means 53 changes the enhancement coefficient α (Sorg) in the above equation (8), returns to step S16, and performs the processing from step S17 to step S18. If the degree of noise removal is appropriate, step S18 is affirmed and the process ends.
[0109]
As described above, also in the second embodiment, the level of the noise signal S1 to be subtracted from the original image signal Sorg can be arbitrarily changed by changing the value of the enhancement coefficient α (Sorg) in the above equation (8). Accordingly, the degree of noise removal from the original image signal Sorg can be arbitrarily changed.
[0110]
In each of the above embodiments, the band-limited image signal B is obtained using an iris filter. k However, the present invention is not limited to this, and the noise component may be separated by any other method. For example, the band limited image signal B k Alternatively, a local variance in a mask of a predetermined size may be obtained, and a noise component may be separated by regarding a pixel having a small variance as noise. Further, a pixel vector in each pixel of each band limited image represented by each band limited image signal is calculated, and noise components are separated using the calculated pixel vector or a corrected pixel vector obtained by correcting the pixel vector. Good. Hereinafter, an embodiment of image processing using a pixel vector or a modified pixel vector will be described as a third embodiment.
[0111]
FIG. 23 is a schematic block diagram showing the configuration of an image processing apparatus according to the third embodiment of the present invention. FIG. 23 corresponds to FIG. 19 showing the configuration of the processing means 53 in the second embodiment, and the processing having the noise separating means 72 instead of the processing means 53 having the noise separating means 62. The difference is that means 73 is provided. The processing means 73 performs noise removal processing in the same manner as the processing means 53 in the second embodiment, and the band limited image signals HHk, HLk, LHk (hereinafter referred to as B) obtained in the wavelet transform means 61. k ) Is input to the noise separating means 72.
[0112]
FIG. 24 is a schematic block diagram showing the configuration of each noise separating means 72. The noise separation means 72 according to the third embodiment is configured to use each band limited image signal B k A pixel vector in each pixel of each band limited image represented by the above is calculated for each pixel, and a noise band limited image signal NB as a noise component is calculated using the calculated pixel vector or a modified pixel vector obtained by correcting the pixel vector. k As shown in FIG. 24, each band limited image signal B obtained by the wavelet transform unit 61 is separated. k As described later, a pixel vector calculation means 82 for calculating a pixel vector, a pixel vector correction means 83 for correcting the pixel vector calculated by the pixel vector calculation means 82, and a noise component NB based on the corrected pixel vector k Separating means 85 for separating and outputting the data.
[0113]
The pixel vector calculation means 82 calculates a pixel vector as follows. FIG. 25 is a diagram for explaining a pixel vector calculation method. Note that this pixel vector is calculated using the band-limited image signal B in the entire frequency band. k This is performed for all the pixels in the image represented by (wavelet transform coefficient signal). When a certain pixel is a pixel of interest (shown in black in FIG. 25), a 7 × 7 region centered on the pixel of interest is set. Then, for 48 pixels in the vicinity of the target pixel in this region, pixel values of a certain length in 16 directions from 0 to 15 centering on the target pixel (in FIG. 25, for three pixels, for example, hatched pixels in the two directions). Is calculated, and the direction in which the difference between the average value and the pixel value of the target pixel is the smallest is determined. Note that, as shown in FIG. 26, the difference between the target pixel and the adjacent pixels in the eight directions may be obtained using eight pixels in the vicinity of the target pixel, and the direction with the smallest difference may be determined. The direction obtained in this way is the direction where the gradient of the density is the smallest, and faces the equal signal line, that is, the normal direction of the signal gradient. Then, a vector having the magnitude of the reciprocal of this direction and the difference obtained as described above is obtained as a pixel vector. Therefore, this pixel vector becomes larger as the density difference is smaller in the direction of the equal signal line. Note that when the difference is 0, the size of the pixel vector becomes infinite, so it is preferable to set an upper limit value (for example, 255 for 8 bits) for the size of the pixel vector.
[0114]
The direction in which the difference between the above average value and the pixel value of the target pixel (or the difference between neighboring pixels and the target pixel, hereinafter simply referred to as “difference”) is the signal gradient direction, and the pixel vector is obtained in this direction. You can also. In this case, the above difference can be used as it is for the size of the pixel vector. In the present embodiment, the pixel vector is directed in the equal signal line direction, and the size of the pixel vector is described as the reciprocal of the difference.
[0115]
In the pixel vector correcting means 83, the pixel vector is corrected as follows. When the original image signal is wavelet transformed, detailed edge information is expressed in an image in a relatively high frequency band, edge information in the intermediate frequency band is displayed in an image in an intermediate frequency band, and low frequency is displayed in an image in a low frequency band. Edge information with a large bandwidth is expressed. Generally, the energy of an image in each frequency band is smaller as the frequency is higher, but the noise energy does not depend on the frequency band, so the image in the lower frequency band has better S / N. It becomes. Here, the portion in which noise is not mixed in the original image (see FIG. 27A) has a signal only in the edge portion in any band limited image (FIGS. 27B to 27D). If the variance of the pixel values in the predetermined area including the pixel for which the pixel vector is obtained is small in the relatively high-band restricted image, the pixel vector can be selected without referring to the pixel vector of the low-frequency band image. The obtained target pixel can be regarded as being in a flat portion.
[0116]
On the other hand, in the high-band limited image, the portion of the original image where noise is mixed (FIG. 28 (a)) is disturbed in the direction of the pixel vector due to the influence of noise, and the variance value becomes large (FIG. 28 (b)). The lower the frequency band, the smaller the influence of noise on the signal and the smaller the dispersion value (FIGS. 28C and 28D). Therefore, when the variance of pixel values in a predetermined region including the target pixel for which the pixel vector is obtained in the high-band restricted image is large, the pixel vector is obtained unless the corresponding pixel vector in the low-frequency band image is referred to. It is not known whether the target pixel is in a flat part or an edge part.
[0117]
For this reason, the pixel vector correcting unit 83 obtains a variance value of pixel values in, for example, a 3 × 3 region centered on the pixel of interest for which the pixel vector is obtained, for other pixels in the image in which the variance value is the same frequency band. If the area is relatively small compared to the above area, it is regarded as a flat part and the pixel vector is not corrected, and the pixel vector obtained by the pixel vector calculating means 82 is used as the corrected pixel vector as it is. On the other hand, if the variance value is relatively large compared to other regions in the image of the same frequency band, it is not known whether it is a flat part or an edge part, so that the corresponding value in the image of the low frequency band corresponds. By using the pixel vector of the pixel as the corrected pixel vector of the target pixel, the accuracy of whether the target pixel for which the pixel vector was obtained is in a flat portion or an edge portion is improved. As a result, the pixel vector of the flat portion is corrected to represent the flat portion, and the pixel vector of the edge portion is corrected to represent the edge portion.
[0118]
Note that the pixel vector correcting unit 83 may obtain the difference value between the target pixel and the neighboring pixels when the pixel vector is calculated as a variance value. As the difference value, for example, when a pixel vector is obtained from eight pixels near the target pixel, the difference value may be the sum of the differences between the target pixel and the eight neighboring pixels, or an average value of the differences.
[0119]
In the separating means 85, noise components are separated as follows. Pixels having a small corrected pixel vector obtained by the pixel vector correcting means 83 are assumed to be pixels that are in a flat part and include noise components, so that each pixel of the image represented by the smoothed signal in each frequency band is obtained. It is determined whether labeling is performed, that is, whether the determination target pixel is a pixel representing a noise component.
[0120]
When the pixel vector is small, the target pixel can be regarded as being in a flat portion, that is, a noise component, but may be in a minute edge portion. Therefore, in the separation unit 85, when the pixel vector is small, the pixel vector of the target pixel and the direction of the pixel vector of the neighboring pixel are referred to, and the neighboring pixel vector is focused as shown in FIG. If the pixel vector is oriented in the same direction as the pixel vector of the pixel, the pixel of interest is considered to be in the edge component, and the neighboring pixel vector is oriented in a different direction from the pixel vector of the pixel of interest as shown in FIG. If it is, it is preferable to regard the target pixel as being in the noise component. In FIG. 29, the number of each pixel indicates the direction of the pixel vector (see FIG. 26).
[0121]
Based on the result of the labeling, a smoothing process for reducing the pixel value is performed for the pixels considered to be in the noise component. This process is a process for changing the pixel itself, that is, a process for changing the local contrast in each band-limited image, based on the information (labeling result) regarding the noise component obtained as described above. Only the band limited image signals HHk, HLk, and LHk representing the contrast of the image in each frequency band are processed, and the processed band limited image signals HHk ′, HLk ′, LHk ′ (k = 1 to n; hereinafter B) k '). Then, from each band limited image signal HHk, HLk, LHk, the corresponding processed band limited image signal B k By subtracting ′, noise band limited image signals NHHk, NHLk, NLHk (ie, NB) as noise components k = B k -B k ′) Is separated.
[0122]
Thereafter, the obtained noise band limited image signal NB is obtained as in the second embodiment. k On the other hand, the inverse wavelet transform means 64 repeatedly performs the inverse wavelet transform up to the maximum frequency band to obtain a noise signal S1, and based on the obtained noise signal S1, the arithmetic unit 65 performs the first implementation. Similar to the embodiment, the calculation shown in the equation (8) is performed to obtain the processed image signal Sproc.
[0123]
FIG. 30 is a flowchart showing the operation of the third embodiment. First, an original image signal Sorg is input to the image processing device 51 from a reading device or the like (step S21), and this original image signal Sorg is subjected to wavelet transform in the wavelet transform means 52, and wavelet transform coefficient signals for each frequency band are obtained. Is obtained (step S22). Next, a pixel vector is calculated in the pixel vector calculation means 82 based on each wavelet transform coefficient signal as described above (step 23). After the calculation of the pixel vector, the pixel vector correcting unit 83 corrects the pixel vector to obtain a corrected pixel vector (step S24).
[0124]
Next, the separation unit 85 performs a process of separating the noise component based on the corrected pixel vector obtained by the pixel vector correcting unit 83, and the noise band limited image signal NB. k Are separated (step S25). Thereafter, the noise band limited image signal NB is processed by the inverse wavelet transform means 64. k Inverse wavelet transform is repeatedly performed up to the maximum frequency band to obtain a noise signal S1 (step S26). Then, the processed image signal Sproc is obtained by performing the calculation shown in the above equation (8) using the noise signal S1 (step S27), and an image based on the processed image signal Sproc is displayed on a monitor (not shown) (step S28). . The operator observes the displayed image, and if it is necessary to change the degree of noise removal (step S29), the operator inputs the degree of change to the processing means 73. As a result, the processing means 73 changes the enhancement coefficient α (Sorg) in the above equation (8), returns to step S27, and performs the processing from step S28 to step S29. If the degree of noise removal is appropriate, step S29 is affirmed and the process is terminated.
[0125]
As described above, also in the third embodiment, the level of the noise signal S1 subtracted from the original image signal Sorg can be arbitrarily changed by changing the value of the enhancement coefficient α (Sorg) in the above equation (8). Thus, the degree of noise removal from the original image signal Sorg can be arbitrarily changed.
[0126]
In addition, since the processed signals HHk ′, HLk ′, LHk ′, and LLn ′ obtained in each frequency band are subjected to processing for reducing noise components, the processed image signal Sproc that is finally obtained is also The noise component is reduced. Therefore, it is possible to obtain a processed image signal Sproc that can reproduce a high-quality image in which noise is not noticeable.
[0127]
Next, a fourth embodiment of the present invention will be described. FIG. 31 is a schematic block diagram showing the configuration of the image processing apparatus according to the fourth embodiment of the present invention.
[0128]
FIG. 31 corresponds to FIG. 24 showing the configuration of the noise separating means 72 in the third embodiment, and differs in that a smoothing means 84 is provided in place of the separating means 85. The wavelet transform unit 61, the pixel vector calculation unit 82, the pixel vector correction unit 83, and the inverse wavelet transform unit 64 are the same as those in the third embodiment, and thus detailed description thereof is omitted here.
[0129]
The smoothing unit 84 performs a smoothing process on the wavelet transform coefficient signal based on the corrected pixel vector corrected by the pixel vector correcting unit 83 as follows to obtain a smoothed signal. The smoothing process is performed on the band limited image signals HHk, HLk, and LHk in each frequency band. FIG. 32 is a diagram for explaining the smoothing process in the smoothing means 84. When the pixel value of each pixel has the value shown in FIG. 32A in the 3 × 3 region centered on the target pixel, the pixel vector (corrected pixel vector) is as shown in FIG. Then, filtering is performed by a smoothing filter using a pixel of interest, a pixel in the pixel vector direction, and a pixel in the opposite direction to the pixel vector direction as indicated by diagonal lines in FIG. Here, as the smoothing filter, any filter having directionality may be used. For example, the average value filter shown in FIG. 33A or the smoothing shown in FIG. A filter can be used. When the average value filter shown in FIG. 33A is used, the pixel value shown in FIG. 32A is smoothed as shown in FIG. When the smoothing filter shown in FIG. 33B is used, the pixel value of the target pixel is smoothed to 141 as shown in FIG. By performing smoothing in this way, for example, when noise is mixed on the edge, the noise can be made inconspicuous. Further, by performing smoothing in the flat portion even if not on the edge, the noise in the flat portion can be made inconspicuous. Note that the smoothed band-limited image signal (wavelet transform coefficient signal) is a smoothed signal (smoothed band-limited image signal).
[0130]
Here, smoothing is performed using pixels in the pixel vector direction and pixels in the direction opposite to the pixel vector direction, but smoothing may be performed using only pixels in the pixel vector direction. In this case, the target pixel shown in FIG. 32A is smoothed so as to have a value of 99 (= (101 + 98) / 2).
[0131]
Further, when the pixel vector is obtained from the 48 pixels in the vicinity of the target pixel and the direction of the pixel vector is the direction shown in FIG. 35, the target pixel and the pixel in the pixel vector direction are indicated by the hatched lines in FIG. (Furthermore, smoothing may be performed using a pixel in a direction opposite to the pixel vector). Specifically, an average value of pixel values of all seven pixels indicated by hatching shown in FIG. 35 may be used as the pixel value of the target pixel.
[0132]
When the smoothed signals of the respective frequency bands are obtained in this way, the noise band limited image signals NHHk, NHLk,... Are subtracted from the corresponding band limited image signals HHk, HLk, LHk before smoothing. NLHk (ie NB k = B k -B k ′) Is separated.
[0133]
Thereafter, the obtained noise band limited image signal NB is obtained as in the third embodiment. k On the other hand, the inverse wavelet transform means 64 repeatedly performs the inverse wavelet transform up to the maximum frequency band to obtain a noise signal S1, and based on the obtained noise signal S1, the arithmetic unit 65 performs the first implementation. Similar to the embodiment, the calculation shown in the equation (8) is performed to obtain the processed image signal Sproc.
[0134]
FIG. 36 is a flowchart showing the operation of the fourth embodiment. As shown in FIG. 36, first, wavelet transform is performed on the original image signal Sorg by the wavelet transform means 61 to obtain a wavelet transform coefficient signal for each frequency band (step S31). Next, a pixel vector is calculated in the pixel vector calculation means 82 based on each wavelet transform coefficient signal as described above (step S32). After the calculation of the pixel vector, the pixel vector correction unit 83 corrects the pixel vector to obtain a corrected pixel vector (step S33). Then, based on the corrected pixel vector, each wavelet transform coefficient signal is subjected to smoothing processing in the smoothing means 84 to obtain a smoothed signal (step S34), and then noise is generated based on the smoothed signal. The noise band limited image signal NB is processed by separating the components. k Are separated (step S35). Thereafter, the processes of steps S27 to S29 shown in the flowchart (FIG. 30) showing the operation of the third embodiment are performed.
[0135]
Here, when noise is mixed in the original image, the edge component in the image also includes noise. In this case, if the noise component is separated based on the pixel vector and the edge component is enhanced, the noise included in the edge component is also enhanced. In the present embodiment, since the smoothing unit 84 performs the smoothing process based on the direction of the pixel vector or the corrected pixel vector, the noise component on the edge can be extracted without losing the edge component, and other than the edge. Since the noise on the flat portion can also be extracted, the noise on the edge becomes inconspicuous and the noise in the flat portion becomes inconspicuous, and a high-quality image can be reproduced.
[0136]
Note that after the noise component and the edge component of the smoothed band limited image signal are separated based on the size of the pixel vector, the smoothing process for the noise component and / or the edge component is performed on the smoothed band limited image signal. By performing enhancement processing to obtain a processed band limited image signal, and using the processed band limited image signal to obtain a noise signal included in the band limited image signal before smoothing, noise on the edge is reduced. Edge emphasis can be performed without making it conspicuous, and noise on the flat portion can be further reduced, so that a higher quality image can be reproduced.
[0137]
As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to the said embodiment, As long as the summary of invention is not changed, it can change variously.
[0138]
For example, in each of the above embodiments, the enhancement coefficient to be multiplied by the noise signal S1 in the above equation (8) is a function of the original image signal Sorg, but is not limited to this and may be a constant.
[0139]
In the third and fourth embodiments, the pixel vector calculation means 82 has the smallest difference between the pixel value of the target pixel and the average value of the pixel values of the neighboring pixels (or the pixel value of the neighboring pixels). Although the direction is obtained as the direction of the pixel vector, the direction in which the difference is the second smallest may be obtained as the second pixel vector. Alternatively, when obtaining a pixel vector in the signal gradient direction, the direction in which the difference is the second largest may be obtained as the second pixel vector. Thus, by obtaining the second pixel vector, for example, when the edge component is bent as shown in FIG. 37A, two pixel vectors are obtained as shown in FIG. 37B. . Then, by performing smoothing using both the first and second pixel vectors in the smoothing means 84, the edge component can be smoothed more accurately while maintaining its directionality.
[0140]
In addition, a relatively large edge included in the image remains in the low frequency band image, but the noise becomes smaller as the low frequency band image. Therefore, by making the direction of the pixel vector in one pixel of the band-limited image in a certain frequency band the same as the direction of the pixel vector of the pixel corresponding to one pixel in the image in the low-frequency band, the pixel becomes an edge. In the case of the component, the pixel vector represents the edge component more. On the other hand, when the pixel is in the noise component, the finer noise is reduced in the low frequency band image, so the pixel vector is in a random direction and the size is further reduced, so the pixel vector is more It represents a flat portion, that is, a noise component. Therefore, in the third and fourth embodiments, the pixel vector correction unit 83 replaces the process based on the variance value with the direction of the pixel vector in a pixel in a certain frequency band, and further in the image in the lower frequency band. By correcting the pixel vector so as to be in the same direction as the pixel vector corresponding to the certain pixel, it is possible to improve the accuracy of whether the pixel is in the edge component or the noise component. In particular, in the third embodiment, the noise component and the edge component can be accurately separated in the separating means 85.
[0141]
Further, in the third and fourth embodiments, the pixel vector is corrected by the pixel vector correcting unit 83. However, the separating unit 85 uses the pixel vector calculated by the pixel vector calculating unit 82 as it is, and the noise is corrected by the noise. The smoothing means 84 may perform smoothing by separating the components.
[0142]
In addition, for example, a plurality of radiation images are obtained by irradiating a subject composed of a soft part and a bone part, such as a human breast, with different energy from each other, and reading the plurality of radiation images to each of the plurality of radiation images. A soft part image signal representing a soft part image in which mainly soft parts of a subject are recorded by performing energy subtraction processing based on the plurality of image signals or a bone part in which mainly bone parts of the subject are recorded There are cases where a bone part image signal representing an image is obtained, and the obtained soft part image or bone part image is used as an observation target. In this case, in order to reduce the noise component of the soft part image or the bone part image, a smoothing process is performed on the bone part image signal to obtain a first smoothed image signal, and the first smoothed image signal is obtained from the original image signal. A first process for obtaining a soft part image signal representing a soft part image by subtracting the softened image signal is performed, and a smoothing process is further performed on the soft part image signal to obtain a second smoothed image signal. The second smoothed image signal is subtracted from the second process to obtain the bone image signal from which noise has been removed, and the first and second processes are repeated to reduce the noise component. An energy subtraction image generation method has been proposed (for example, Japanese Patent Laid-Open No. 5-236351). Here, in such an energy subtraction image generation method, when obtaining a smoothed image, the processing according to the present invention may be performed. As described above, in the energy subtraction image generation method, by obtaining the smoothed image signal by performing the processing according to the present invention, only the noise component can be reduced and the edge component can be made conspicuous. A soft part image or a bone part image can be obtained.
[0143]
In the second to fourth embodiments, the signal obtained by subjecting the original image signal Sorg to the wavelet transform is subjected to the processing based on the pixel vector as described above. The same processing as described above can be performed not only on the conversion but also on the band limited image signal for each frequency band obtained by the multi-resolution conversion method of the original image signal Sorg such as a Laplacian pyramid.
[Brief description of the drawings]
FIG. 1 is a schematic block diagram showing the configuration of an image processing apparatus according to a first embodiment of the present invention.
FIG. 2 is a diagram showing a main scanning direction and a sub-scanning direction of an original image
FIG. 3 is a block diagram showing an overview of band-limited image signal creation processing.
FIG. 4 is a diagram schematically illustrating band-limited image signal creation processing.
FIG. 5 is a diagram illustrating an example of a filter used for filtering processing;
FIG. 6 is a diagram showing details of low-resolution image signal creation processing;
FIG. 7 is a diagram showing an example of a filter used for interpolation processing
FIG. 8 is a schematic block diagram showing the configuration of processing means together with band-limited image signal creation means
FIG. 9 is a schematic block diagram showing the configuration of noise separation means.
FIG. 10 is a conceptual diagram showing an iris filter.
FIG. 11 is a diagram showing a mask for calculating a gradient vector in an iris filter.
FIG. 12 is a diagram for explaining calculation of a spatial filter
FIG. 13 is a diagram schematically illustrating conversion processing.
FIG. 14 is a flowchart showing the operation of the first embodiment.
FIG. 15 is a schematic block diagram showing a configuration of an image processing apparatus according to a second embodiment of the present invention.
FIG. 16 is a schematic block diagram showing the configuration of wavelet transform means
FIG. 17 is a block diagram showing processing performed in a wavelet transform unit;
FIG. 18 is a diagram illustrating a wavelet transform coefficient signal for each of a plurality of frequency bands.
FIG. 19 is a schematic block diagram showing the configuration of processing means together with band-limited image signal creation means.
FIG. 20 is a diagram for explaining the inverse wavelet transform;
FIG. 21 is a block diagram showing processing performed in an inverse wavelet transform unit;
FIG. 22 is a flowchart showing the operation of the second embodiment.
FIG. 23 is a schematic block diagram showing the configuration of processing means used in an image processing apparatus according to a third embodiment of the present invention, together with band-limited image signal creation means.
FIG. 24 is a schematic block diagram showing the configuration of noise separation means used in the image processing apparatus according to the third embodiment of the present invention.
FIG. 25 is a diagram for explaining calculation of a pixel vector (part 1);
FIG. 26 is a diagram for explaining calculation of a pixel vector (part 2);
FIG. 27 is a diagram showing a wavelet transform coefficient signal (part 1);
FIG. 28 is a diagram showing a wavelet transform coefficient signal (part 2);
FIG. 29 is a diagram illustrating a pixel vector reference result in the separating unit.
FIG. 30 is a flowchart showing the operation of the third embodiment.
FIG. 31 is a schematic block diagram showing the configuration of an image processing apparatus according to a fourth embodiment of the present invention.
FIG. 32 is a diagram for explaining smoothing processing (part 1);
FIG. 33 is a diagram illustrating an example of a smoothing filter.
FIG. 34 shows a smoothed pixel value.
FIG. 35 is a diagram for explaining smoothing processing (part 2);
FIG. 36 is a flowchart showing the operation of the fourth embodiment.
FIG. 37 is a diagram for explaining another example of smoothing processing;
[Explanation of symbols]
1,51 Image processing apparatus
2 Band-limited image signal creation means
3,53,73 Processing means
10 Filtering processing means
11, 24 Interpolation processing means
12 Subtractor
22, 62, 72 Noise separation means
25 Adder
26, 65 computing unit
52 Wavelet transform means
61 Wavelet Transformer
64 Inverse wavelet transform means

Claims (27)

原画像を表す原画像信号に対して、前記原画像のノイズを低減する画像処理を施す画像処理方法において、
前記原画像信号から帯域制限画像信号を作成し、
前記帯域制限画像信号により表される帯域制限画像の各画素における画素ベクトルを算出し、
一の周波数帯域における帯域制限画像の一の画素における画素ベクトルを、該一の周波数帯域よりも低周波数帯域の画像における前記一の画素に対応する画素の画素ベクトルに基づいて修正し、
該修正された画素ベクトルに基づいて、前記原画像信号と同一画素数のノイズ信号を得、
該ノイズ信号を前記原画像信号とともに所定の記憶手段に記憶せしめることによって、前記ノイズ信号に基づいて前記原画像信号のノイズ成分を除去した後、前記記憶手段に記憶されている前記原画像信号および前記ノイズ信号を使用して、前記原画像信号のノイズ成分を除去し直すことを可能にしたことを特徴とする画像処理方法。
In an image processing method for performing image processing for reducing noise of the original image on an original image signal representing the original image,
Create a band limited image signal from the original image signal,
Calculating a pixel vector at each pixel of the band limited image represented by the band limited image signal;
Correcting a pixel vector in one pixel of a band-limited image in one frequency band based on a pixel vector of a pixel corresponding to the one pixel in an image in a frequency band lower than the one frequency band;
Based on the corrected pixel vector , a noise signal having the same number of pixels as the original image signal is obtained,
By storing the noise signal together with the original image signal in a predetermined storage means, after removing a noise component of the original image signal based on the noise signal, the original image signal stored in the storage means and An image processing method, wherein a noise component of the original image signal can be removed again by using the noise signal.
原画像を表す原画像信号に対して、前記原画像のノイズを低減する画像処理を施す画像処理方法において、
前記原画像信号から帯域制限画像信号を作成し、
前記帯域制限画像信号により表される帯域制限画像の各画素における画素ベクトルを算出し、
一の周波数帯域における帯域制限画像の一の画素を含む所定領域の分散値を算出し、
該分散値に基づいて前記一の画素の画素ベクトルを修正するか否かを判断し、
前記一の画素の画素ベクトルを修正すると判断された場合は、該一の画素における画素ベクトルを、前記一の周波数帯域よりも低周波数帯域の画像における前記一の画素に対応する画素の画素ベクトルに基づいて修正し、
該修正された画素ベクトルに基づいて、前記原画像信号と同一画素数のノイズ信号を得、
該ノイズ信号を前記原画像信号とともに所定の記憶手段に記憶せしめることによって、前記ノイズ信号に基づいて前記原画像信号のノイズ成分を除去した後、前記記憶手段に記憶されている前記原画像信号および前記ノイズ信号を使用して、前記原画像信号のノイズ成分を除去し直すことを可能にしたことを特徴とする画像処理方法。
In an image processing method for performing image processing for reducing noise of the original image on an original image signal representing the original image,
Create a band limited image signal from the original image signal,
Calculating a pixel vector at each pixel of the band limited image represented by the band limited image signal;
Calculating a variance value of a predetermined region including one pixel of a band-limited image in one frequency band;
Determining whether to modify the pixel vector of the one pixel based on the variance value;
When it is determined that the pixel vector of the one pixel is to be corrected, the pixel vector of the one pixel is changed to a pixel vector of a pixel corresponding to the one pixel in an image in a frequency band lower than the one frequency band. Correct based on
Based on the corrected pixel vector , a noise signal having the same number of pixels as the original image signal is obtained,
By storing the noise signal together with the original image signal in a predetermined storage means, after removing a noise component of the original image signal based on the noise signal, the original image signal stored in the storage means and An image processing method, wherein a noise component of the original image signal can be removed again by using the noise signal.
原画像を表す原画像信号に対して、前記原画像のノイズを低減する画像処理を施す画像処理方法において、
前記原画像信号から帯域制限画像信号を作成し、
前記帯域制限画像信号により表される帯域制限画像の各画素における画素ベクトルを算出し、
前記画素ベクトルに基づいて前記帯域制限画像信号を平滑化して平滑化帯域制限画像信号を得、
該平滑化帯域制限画像信号に基づいて、前記原画像信号と同一画素数のノイズ信号を得、
該ノイズ信号を前記原画像信号とともに所定の記憶手段に記憶せしめることによって、前記ノイズ信号に基づいて前記原画像信号のノイズ成分を除去した後、前記記憶手段に記憶されている前記原画像信号および前記ノイズ信号を使用して、前記原画像信号のノイズ成分を除去し直すことを可能にしたことを特徴とする画像処理方法。
In an image processing method for performing image processing for reducing noise of the original image on an original image signal representing the original image,
Create a band limited image signal from the original image signal,
Calculating a pixel vector at each pixel of the band limited image represented by the band limited image signal;
Smoothing the band limited image signal based on the pixel vector to obtain a smoothed band limited image signal;
Based on the smoothed band limited image signal , a noise signal having the same number of pixels as the original image signal is obtained,
By storing the noise signal together with the original image signal in a predetermined storage means, after removing a noise component of the original image signal based on the noise signal, the original image signal stored in the storage means and An image processing method, wherein a noise component of the original image signal can be removed again by using the noise signal.
一の周波数帯域における帯域制限画像の一の画素における画素ベクトルを、該一の周波数帯域よりも低周波数帯域の画像における前記一の画素に対応する画素の画素ベクトルに 基づいて修正し、
前記画素ベクトルに代え、前記修正された画素ベクトルに基づいて、前記平滑化帯域制限画像信号を得ることを特徴とする請求項3記載の画像処理方法。
Correcting a pixel vector in one pixel of a band-limited image in one frequency band based on a pixel vector of a pixel corresponding to the one pixel in an image in a frequency band lower than the one frequency band ;
4. The image processing method according to claim 3, wherein the smoothed band limited image signal is obtained based on the corrected pixel vector instead of the pixel vector.
一の周波数帯域における帯域制限画像の一の画素を含む所定領域の分散値を算出し、
該分散値に基づいて前記一の画素の画素ベクトルを修正するか否かを判断し、
前記一の画素の画素ベクトルを修正すると判断された場合は、該一の画素における画素ベクトルを、前記一の周波数帯域よりも低周波数帯域の画像における前記一の画素に対応する画素の画素ベクトルに基づいて修正し、
前記画素ベクトルに代え、前記修正された画素ベクトルに基づいて、前記平滑化帯域制限画像信号を得ることを特徴とする請求項3記載の画像処理方法。
Calculating a variance value of a predetermined region including one pixel of a band-limited image in one frequency band;
Determining whether to modify the pixel vector of the one pixel based on the variance value;
When it is determined that the pixel vector of the one pixel is to be corrected, the pixel vector of the one pixel is changed to a pixel vector of a pixel corresponding to the one pixel in an image in a frequency band lower than the one frequency band. Correct based on
4. The image processing method according to claim 3, wherein the smoothed band limited image signal is obtained based on the corrected pixel vector instead of the pixel vector.
前記原画像信号を多重解像度変換することにより前記帯域制限画像信号を作成ることを特徴とする請求項1から5のいずれか1項記載の画像処理方法。The image processing method according to any one of claims 1 5, characterized in that you create the band-limited image signal by the original image signal multiresolution transform a. 前記多重解像度変換は、ラプラシアンピラミッド分解による変換、またはウェーブレット変換であることを特徴とする請求項記載の画像処理方法。The image processing method according to claim 6 , wherein the multi-resolution conversion is conversion by Laplacian pyramid decomposition or wavelet conversion. 前記各画素の近傍の画素における画素ベクトルにも基づいて、前記ノイズ信号を取得することを特徴とする請求項1からのいずれか1項記載の画像処理方法。Wherein also based on the pixel vector in pixels near each pixel, the image processing method of any one of claims 1 7, characterized in that to obtain the noise signal. 前記ノイズ成分を除去する度合いを示すパラメータの設定値が変更されたときには、前記記憶手段から前記原画像信号およびノイズ信号を読み出し、この読み出した原画像信号およびノイズ信号と変更された前記パラメータとに基づいて前記原画像信号のノイズ成分を除去することを特徴とする請求項1からのいずれか1項記載の画像処理方法。When the setting value of the parameter indicating the degree of removal of the noise component is changed, the original image signal and the noise signal are read from the storage unit, and the read original image signal and the noise signal are changed to the changed parameter. the image processing method according to any one of claims 1 to 8, characterized in that for removing noise components of the original image signal on the basis of. 原画像を表す原画像信号に対して、前記原画像のノイズを低減する画像処理を施す画像処理装置において、
前記原画像信号から帯域制限画像信号を作成する帯域制限画像信号作成手段と、
前記帯域制限画像信号により表される帯域制限画像の各画素における画素ベクトルを算出する画素ベクトル算出手段と、
一の周波数帯域における帯域制限画像の一の画素における画素ベクトルを、該一の周波数帯域よりも低周波数帯域の画像における前記一の画素に対応する画素の画素ベクトルに基づいて修正する修正手段と、
修正された画素ベクトルに基づいて、前記原画像信号と同一画素数のノイズ信号を得るノイズ信号取得手段と、
前記原画像信号を記憶する第1の記憶手段と、
前記ノイズ信号取得手段により取得されたノイズ信号を記憶する第2の記憶手段と、
前記ノイズ信号に基づいて前記原画像信号のノイズ成分を除去する手段であって、前記ノイズ信号に基づいて前記原画像信号のノイズ成分を除去した後、前記第1の記憶手段に記憶されている原画像信号と前記第2の記憶手段に記憶されているノイズ信号を使用して、前記原画像信号のノイズ成分を除去し直すことが可能なノイズ除去手段とを備えたことを特徴とする画像処理装置。
In an image processing apparatus that performs image processing for reducing noise of the original image on an original image signal representing the original image,
Band-limited image signal creating means for creating a band-limited image signal from the original image signal;
Pixel vector calculation means for calculating a pixel vector in each pixel of the band limited image represented by the band limited image signal;
Correcting means for correcting a pixel vector in one pixel of a band-limited image in one frequency band based on a pixel vector of a pixel corresponding to the one pixel in an image in a frequency band lower than the one frequency band;
Noise signal acquisition means for obtaining a noise signal having the same number of pixels as the original image signal based on the corrected pixel vector ;
First storage means for storing the original image signal;
Second storage means for storing the noise signal acquired by the noise signal acquisition means;
Means for removing a noise component of the original image signal based on the noise signal, and after removing the noise component of the original image signal based on the noise signal, stored in the first storage means; An image comprising noise removal means capable of re-removing a noise component of the original image signal using an original image signal and a noise signal stored in the second storage means Processing equipment.
原画像を表す原画像信号に対して、前記原画像のノイズを低減する画像処理を施す画像処理装置において、
前記原画像信号から帯域制限画像信号を作成する帯域制限画像信号作成手段と、
前記帯域制限画像信号により表される帯域制限画像の各画素における画素ベクトルを算出する画素ベクトル算出手段と、
一の周波数帯域における帯域制限画像の一の画素を含む所定領域の分散値を算出する分 散値算出手段と、
該分散値に基づいて前記一の画素の画素ベクトルを修正するか否かを判断する判断手段と、
前記一の画素の画素ベクトルを修正すると判断された場合は、該一の画素における画素ベクトルを、前記一の周波数帯域よりも低周波数帯域の画像における前記一の画素に対応する画素の画素ベクトルに基づいて修正する修正手段と、
修正された画素ベクトルに基づいて、前記原画像信号と同一画素数のノイズ信号を得るノイズ信号取得手段と、
前記原画像信号を記憶する第1の記憶手段と、
前記ノイズ信号取得手段により取得されたノイズ信号を記憶する第2の記憶手段と、
前記ノイズ信号に基づいて前記原画像信号のノイズ成分を除去する手段であって、前記ノイズ信号に基づいて前記原画像信号のノイズ成分を除去した後、前記第1の記憶手段に記憶されている原画像信号と前記第2の記憶手段に記憶されているノイズ信号を使用して、前記原画像信号のノイズ成分を除去し直すことが可能なノイズ除去手段とを備えたことを特徴とする画像処理装置。
In an image processing apparatus that performs image processing for reducing noise of the original image on an original image signal representing the original image,
Band-limited image signal creating means for creating a band-limited image signal from the original image signal;
Pixel vector calculation means for calculating a pixel vector in each pixel of the band limited image represented by the band limited image signal;
A distributed value calculating means for calculating a variance value of a predetermined area including the one pixel of the band-limited image in one frequency band,
Determining means for determining whether to correct a pixel vector of the one pixel based on the variance value;
When it is determined that the pixel vector of the one pixel is to be corrected, the pixel vector of the one pixel is changed to a pixel vector of a pixel corresponding to the one pixel in an image in a frequency band lower than the one frequency band. Correction means for correcting based on;
Noise signal acquisition means for obtaining a noise signal having the same number of pixels as the original image signal based on the corrected pixel vector ;
First storage means for storing the original image signal;
Second storage means for storing the noise signal acquired by the noise signal acquisition means;
Means for removing a noise component of the original image signal based on the noise signal, and after removing the noise component of the original image signal based on the noise signal, stored in the first storage means; An image comprising noise removal means capable of re-removing a noise component of the original image signal using an original image signal and a noise signal stored in the second storage means Processing equipment.
原画像を表す原画像信号に対して、前記原画像のノイズを低減する画像処理を施す画像処理装置において、
前記原画像信号から帯域制限画像信号を作成する帯域制限画像信号作成手段と、
前記帯域制限画像信号により表される帯域制限画像の各画素における画素ベクトルを算出する画素ベクトル算出手段と、
前記画素ベクトルに基づいて前記帯域制限画像信号を平滑化して平滑化帯域制限画像信号を得る平滑化手段と、
前記平滑化帯域制限画像信号に基づいて、前記原画像信号と同一画素数のノイズ信号を得るノイズ信号取得手段と、
前記原画像信号を記憶する第1の記憶手段と、
前記ノイズ信号取得手段により取得されたノイズ信号を記憶する第2の記憶手段と、
前記ノイズ信号に基づいて前記原画像信号のノイズ成分を除去する手段であって、前記ノイズ信号に基づいて前記原画像信号のノイズ成分を除去した後、前記第1の記憶手段に記憶されている原画像信号と前記第2の記憶手段に記憶されているノイズ信号を使用して、前記原画像信号のノイズ成分を除去し直すことが可能なノイズ除去手段とを備えたことを特徴とする画像処理装置。
In an image processing apparatus that performs image processing for reducing noise of the original image on an original image signal representing the original image,
Band-limited image signal creating means for creating a band-limited image signal from the original image signal;
Pixel vector calculation means for calculating a pixel vector in each pixel of the band limited image represented by the band limited image signal;
Smoothing means for smoothing the band limited image signal based on the pixel vector to obtain a smoothed band limited image signal;
Noise signal acquisition means for obtaining a noise signal having the same number of pixels as the original image signal based on the smoothed band-limited image signal ;
First storage means for storing the original image signal;
Second storage means for storing the noise signal acquired by the noise signal acquisition means;
Means for removing a noise component of the original image signal based on the noise signal, and after removing the noise component of the original image signal based on the noise signal, stored in the first storage means; An image comprising noise removal means capable of re-removing a noise component of the original image signal using an original image signal and a noise signal stored in the second storage means Processing equipment.
一の周波数帯域における帯域制限画像の一の画素における画素ベクトルを、該一の周波数帯域よりも低周波数帯域の画像における前記一の画素に対応する画素の画素ベクトルに基づいて修正する修正手段を、さらに備え、
前記平滑化手段が、前記画素ベクトルの代わりに、前記修正手段により修正された画素ベクトルに基づいて、前記平滑化帯域制限画像信号を得るものであることを特徴とする請求項12記載の画像処理装置。
Correcting means for correcting a pixel vector in one pixel of a band-limited image in one frequency band based on a pixel vector of a pixel corresponding to the one pixel in an image in a frequency band lower than the one frequency band; In addition,
Said smoothing means, instead of the pixel vector, based on the pixel vector that has been modified by the modifying means, the image processing according to claim 12, characterized in that to obtain a smoothed band-limited image signal apparatus.
一の周波数帯域における帯域制限画像の一の画素を含む所定領域の分散値を算出する分散値算出手段と、
該分散値に基づいて前記一の画素の画素ベクトルを修正するか否かを判断する判断手段と、
前記一の画素の画素ベクトルを修正すると判断された場合は、該一の画素における画素ベクトルを、前記一の周波数帯域よりも低周波数帯域の画像における前記一の画素に対応する画素の画素ベクトルに基づいて修正する修正手段とを、さらに備え、
前記平滑化手段が、前記画素ベクトルの代わりに、前記修正手段により修正された画素ベクトルに基づいて、前記平滑化帯域制限画像信号を得るものであることを特徴とする請求項12記載の画像処理装置。
Dispersion value calculating means for calculating a dispersion value of a predetermined region including one pixel of the band-limited image in one frequency band;
Determining means for determining whether to correct a pixel vector of the one pixel based on the variance value;
When it is determined that the pixel vector of the one pixel is to be corrected, the pixel vector of the one pixel is changed to a pixel vector of a pixel corresponding to the one pixel in an image in a frequency band lower than the one frequency band. And a correction means for correcting based on,
Said smoothing means, instead of the pixel vector, based on the pixel vector that has been modified by the modifying means, the image processing according to claim 12, characterized in that to obtain a smoothed band-limited image signal apparatus.
前記帯域制限画像信号作成手段が、前記原画像信号を多重解像度変換することにより前記帯域制限画像信号を作成するものであることを特徴とする請求項10から14のいずれか1項記載の画像処理装置。The band-limited image signal forming means, the image processing of any one of claims 10 to 14, characterized in that the original image signal is to create the band-limited image signal by multiresolution transform apparatus. 前記多重解像度変換は、ラプラシアンピラミッド分解による変換、またはウェーブレット変換であることを特徴とする請求項15記載の画像処理装置。The image processing apparatus according to claim 15 , wherein the multi-resolution conversion is conversion by Laplacian pyramid decomposition or wavelet conversion. 前記ノイズ信号取得手段は、前記各画素の近傍の画素における画素ベクトルにも基づいて、前記ノイズ信号を取得するものであることを特徴とする請求項10から16のいずれか1項記載の画像処理装置。The image processing according to any one of claims 10 to 16, wherein the noise signal acquisition unit acquires the noise signal based on a pixel vector in a pixel in the vicinity of each pixel. apparatus. 前記ノイズ成分を除去する度合いを示すパラメータを前記ノイズ除去手段に対して設定するためのパラメータ設定手段とをさらに備え、
前記ノイズ除去手段が、前記パラメータ設定手段により前記パラメータの設定値が変更されたときには、前記第1の記憶手段から原画像信号を読み出すとともに、前記第2の記憶手段からノイズ信号を読み出し、この読み出した原画像信号およびノイズ信号と変更された前記パラメータとに基づいて前記原画像のノイズを除去するものであることを特徴とする請求項10から17のいずれか1項記載の画像処理装置。
Parameter setting means for setting a parameter indicating a degree of removing the noise component to the noise removing means;
When the parameter setting value is changed by the parameter setting unit, the noise removing unit reads the original image signal from the first storage unit and reads the noise signal from the second storage unit and reads the noise signal. The image processing apparatus according to claim 10, wherein noise of the original image is removed based on the original image signal and the noise signal and the changed parameter.
原画像を表す原画像信号に対して、前記原画像のノイズを低減する画像処理を施す画像処理方法をコンピュータに実行させるためのプログラムを記録したコンピュータ読取り可能な記録媒体において、前記プログラムが前記コンピュータに実行させる前記画像処理方法が、
前記原画像信号から帯域制限画像信号を作成する手順と、
前記帯域制限画像信号により表される帯域制限画像の各画素における画素ベクトルを算出する手順と、
一の周波数帯域における帯域制限画像の一の画素における画素ベクトルを、該一の周波数帯域よりも低周波数帯域の画像における前記一の画素に対応する画素の画素ベクトルに基づいて修正する手順と、
該修正された画素ベクトルに基づいて、前記原画像信号と同一画素数のノイズ信号を得る手順と、
前記原画像信号および前記ノイズ信号を所定の記憶手段に記憶させる手順とを含むことにより、
前記ノイズ信号に基づいて前記原画像信号のノイズ成分を除去した後、前記記憶手段に記憶されている前記原画像信号および前記ノイズ信号を使用して、前記原画像信号のノイズ成分を除去し直すことを可能にしたことを特徴とするコンピュータ読取り可能な記録媒体。
A computer-readable recording medium storing a program for causing a computer to execute an image processing method for performing image processing for reducing noise of the original image on an original image signal representing the original image, wherein the program is the computer The image processing method to be executed by
Creating a band limited image signal from the original image signal;
Calculating a pixel vector at each pixel of the band limited image represented by the band limited image signal;
Correcting a pixel vector in one pixel of a band-limited image in one frequency band based on a pixel vector of a pixel corresponding to the one pixel in an image in a frequency band lower than the one frequency band;
Obtaining a noise signal having the same number of pixels as the original image signal based on the corrected pixel vector ;
Including storing the original image signal and the noise signal in a predetermined storage means,
After removing the noise component of the original image signal based on the noise signal, the noise component of the original image signal is removed again using the original image signal and the noise signal stored in the storage means A computer-readable recording medium characterized in that
原画像を表す原画像信号に対して、前記原画像のノイズを低減する画像処理を施す画像処理方法をコンピュータに実行させるためのプログラムを記録したコンピュータ読取り可能な記録媒体において、前記プログラムが前記コンピュータに実行させる前記画像処理方法が、
前記原画像信号から帯域制限画像信号を作成する手順と、
前記帯域制限画像信号により表される帯域制限画像の各画素における画素ベクトルを算出する手順と、
一の周波数帯域における帯域制限画像の一の画素を含む所定領域の分散値を算出する手順と、
該分散値に基づいて前記一の画素の画素ベクトルを修正するか否かを判断する手順と、
前記一の画素の画素ベクトルを修正すると判断された場合は、該一の画素における画素 ベクトルを、前記一の周波数帯域よりも低周波数帯域の画像における前記一の画素に対応する画素の画素ベクトルに基づいて修正する手順と、
該修正された画素ベクトルに基づいて、前記原画像信号と同一画素数のノイズ信号を得る手順と、
前記原画像信号および前記ノイズ信号を所定の記憶手段に記憶させる手順とを含むことにより、
前記ノイズ信号に基づいて前記原画像信号のノイズ成分を除去した後、前記記憶手段に記憶されている前記原画像信号および前記ノイズ信号を使用して、前記原画像信号のノイズ成分を除去し直すことを可能にしたことを特徴とするコンピュータ読取り可能な記録媒体。
A computer-readable recording medium storing a program for causing a computer to execute an image processing method for performing image processing for reducing noise of the original image on an original image signal representing the original image, wherein the program is the computer The image processing method to be executed by
Creating a band limited image signal from the original image signal;
Calculating a pixel vector at each pixel of the band limited image represented by the band limited image signal;
A procedure for calculating a variance value of a predetermined area including one pixel of a band-limited image in one frequency band;
Determining whether to correct a pixel vector of the one pixel based on the variance value;
When it is determined that the pixel vector of the one pixel is to be corrected, the pixel vector of the one pixel is changed to a pixel vector of a pixel corresponding to the one pixel in an image in a frequency band lower than the one frequency band. Based on the corrective steps,
Obtaining a noise signal having the same number of pixels as the original image signal based on the corrected pixel vector ;
Including storing the original image signal and the noise signal in a predetermined storage means,
After removing the noise component of the original image signal based on the noise signal, the noise component of the original image signal is removed again using the original image signal and the noise signal stored in the storage means A computer-readable recording medium characterized in that
原画像を表す原画像信号に対して、前記原画像のノイズを低減する画像処理を施す画像処理方法をコンピュータに実行させるためのプログラムを記録したコンピュータ読取り可能な記録媒体において、前記プログラムが前記コンピュータに実行させる前記画像処理方法が、
前記原画像信号から帯域制限画像信号を作成する手順と、
前記帯域制限画像信号により表される帯域制限画像の各画素における画素ベクトルを算出する手順と、
前記画素ベクトルに基づいて前記帯域制限画像信号を平滑化して平滑化帯域制限画像信号を得る手順と、
前記平滑化帯域制限画像信号に基づいて、前記原画像信号と同一画素数のノイズ信号を得る手順と、
前記原画像信号および前記ノイズ信号を所定の記憶手段に記憶させる手順とを含むことにより、
前記ノイズ信号に基づいて前記原画像信号のノイズ成分を除去した後、前記記憶手段に記憶されている前記原画像信号および前記ノイズ信号を使用して、前記原画像信号のノイズ成分を除去し直すことを可能にしたことを特徴とするコンピュータ読取り可能な記録媒体。
A computer-readable recording medium storing a program for causing a computer to execute an image processing method for performing image processing for reducing noise of the original image on an original image signal representing the original image, wherein the program is the computer The image processing method to be executed by
Creating a band limited image signal from the original image signal;
Calculating a pixel vector at each pixel of the band limited image represented by the band limited image signal;
Smoothing the band limited image signal based on the pixel vector to obtain a smoothed band limited image signal;
Obtaining a noise signal having the same number of pixels as the original image signal based on the smoothed band-limited image signal ;
Including storing the original image signal and the noise signal in a predetermined storage means,
After removing the noise component of the original image signal based on the noise signal, the noise component of the original image signal is removed again using the original image signal and the noise signal stored in the storage means A computer-readable recording medium characterized in that
一の周波数帯域における帯域制限画像の一の画素における画素ベクトルを、該一の周波数帯域よりも低周波数帯域の画像における前記一の画素に対応する画素の画素ベクトルに基づいて修正する手順を、さらに有し、
前記平滑化帯域制限画像信号を得る手順、前記画素ベクトルの代わりに、前記修正された画素ベクトルに基づいて前記平滑化帯域制限画像信号を得ることを特徴とする請求項21記載のコンピュータ読取り可能な記録媒体。
Correcting a pixel vector in one pixel of a band-limited image in one frequency band based on a pixel vector of a pixel corresponding to the one pixel in an image in a frequency band lower than the one frequency band; Have
Procedure for obtaining the smoothed band-limited image signal, the instead of the pixel vector, according to claim 21 computer-readable of, wherein the obtaining the smoothed band-limited image signal based on pixel vectors said modified Recording medium.
一の周波数帯域における帯域制限画像の一の画素を含む所定領域の分散値を算出する手順と、
該分散値に基づいて前記一の画素の画素ベクトルを修正するか否かを判断する手順と、
前記一の画素の画素ベクトルを修正すると判断された場合は、該一の画素における画素ベクトルを、前記一の周波数帯域よりも低周波数帯域の画像における前記一の画素に対応する画素の画素ベクトルに基づいて修正する手順とを、さらに有し、
前記平滑化帯域制限画像信号を得る手順、前記画素ベクトルの代わりに、前記修正された画素ベクトルに基づいて前記平滑化帯域制限画像信号を得ることを特徴とする請求項21記載のコンピュータ読取り可能な記録媒体。
A procedure for calculating a variance value of a predetermined area including one pixel of a band-limited image in one frequency band;
Determining whether to correct a pixel vector of the one pixel based on the variance value;
When it is determined that the pixel vector of the one pixel is to be corrected, the pixel vector of the one pixel is changed to a pixel vector of a pixel corresponding to the one pixel in an image in a frequency band lower than the one frequency band. And a procedure for correcting based on
Procedure for obtaining the smoothed band-limited image signal, the instead of the pixel vector, according to claim 21 computer-readable of, wherein the obtaining the smoothed band-limited image signal based on pixel vectors said modified Recording medium.
前記帯域制限画像信号を作成する手順は、前記帯域制限画像信号の作成を前記原画像信号を多重解像度変換することにより行なう手順であることを特徴とする請求項19から23のいずれか1項記載のコンピュータ読取り可能な記録媒体。To create the band-limited image signal may be any one of claims 19 to 23, characterized in that the original image signal to create said band-limited image signal is a procedure performed by multiresolution transform Computer-readable recording media. 前記帯域制限画像信号を作成する手順は、前記多重解像度変換を、ラプラシアンピラミッド分解による変換またはウェーブレット変換により行なう手順であることを特徴とする請求項24記載のコンピュータ読取り可能な記録媒体。The computer-readable recording medium according to claim 24 , wherein the step of creating the band-limited image signal is a step of performing the multi-resolution conversion by conversion using Laplacian pyramid decomposition or wavelet conversion. 前記ノイズ帯域制限画像信号を得る手順は、前記ノイズ信号の取得を、前記各画素の近傍の画素における画素ベクトルにも基づいて行なう手順であることを特徴とする請求項19から25のいずれか1項記載のコンピュータ読取り可能な記録媒体。Procedure for obtaining the noise band-limited image signal, the acquisition of noise signal, claim 19, wherein 25 of said is a procedure carried out also based on the pixel vector in the pixels near the pixel 1 A computer-readable recording medium according to Item . 前記ノイズ成分を除去する度合いを示すパラメータを設定する手順をさらに有し、
前記ノイズ成分を除去する手順は、前記パラメータの設定値が変更されたときには、前記原画像信号およびノイズ信号を前記所定の記憶手段から読み出し、この読み出した原画像信号およびノイズ信号と変更された前記パラメータとに基づいて前記原画像信号のノイズ成分を除去する手順であることを特徴とする請求項19から26いずれか1項記載のコンピュータ読取り可能な記録媒体。
A step of setting a parameter indicating a degree of removing the noise component;
In the procedure for removing the noise component, when the set value of the parameter is changed, the original image signal and the noise signal are read from the predetermined storage unit, and the read original image signal and the noise signal are changed. 27. The computer-readable recording medium according to claim 19, wherein the noise component of the original image signal is removed based on a parameter.
JP36376699A 1999-06-10 1999-12-22 Image processing method and apparatus, and recording medium Expired - Fee Related JP3995854B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP36376699A JP3995854B2 (en) 1999-06-10 1999-12-22 Image processing method and apparatus, and recording medium
EP00112396A EP1059811A2 (en) 1999-06-10 2000-06-09 Method and system for image processing, and recording medium
US09/592,602 US6754398B1 (en) 1999-06-10 2000-06-12 Method of and system for image processing and recording medium for carrying out the method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP16367199 1999-06-10
JP11-163671 1999-06-10
JP36376699A JP3995854B2 (en) 1999-06-10 1999-12-22 Image processing method and apparatus, and recording medium

Publications (2)

Publication Number Publication Date
JP2001057677A JP2001057677A (en) 2001-02-27
JP3995854B2 true JP3995854B2 (en) 2007-10-24

Family

ID=26489053

Family Applications (1)

Application Number Title Priority Date Filing Date
JP36376699A Expired - Fee Related JP3995854B2 (en) 1999-06-10 1999-12-22 Image processing method and apparatus, and recording medium

Country Status (1)

Country Link
JP (1) JP3995854B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8300120B2 (en) 2008-09-12 2012-10-30 Canon Kabushiki Kaisha Image processing apparatus and method of processing image for reducing noise of the image

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1223553A3 (en) 2000-10-17 2003-09-24 Fuji Photo Film Co., Ltd. Apparatus for suppressing noise by adapting filter characteristics to input image signal based on characteristics of input image signal
CN1860500A (en) * 2003-09-22 2006-11-08 皇家飞利浦电子股份有限公司 Enhancing medical images with temporal filter
JP2006167187A (en) * 2004-12-16 2006-06-29 Hitachi Medical Corp Medical image display apparatus
JP5035585B2 (en) * 2005-04-27 2012-09-26 ソニー株式会社 Image processing apparatus and method, and program
JP2009516882A (en) * 2005-11-23 2009-04-23 セダラ ソフトウェア コーポレイション Method and system for enhancing digital images
CN1971616B (en) * 2005-11-23 2012-10-10 索诺塞特公司 Multi-resolution adaptive filtering
JP4769089B2 (en) * 2006-01-31 2011-09-07 株式会社東芝 X-ray equipment
DE602006011422D1 (en) * 2006-02-15 2010-02-11 Sony Deutschland Gmbh
DE602006015899D1 (en) * 2006-02-15 2010-09-16 Sony Deutschland Gmbh Method for processing digital image data
JP2008293425A (en) * 2007-05-28 2008-12-04 Olympus Corp Noise removal device, program, and method
JP2008293424A (en) * 2007-05-28 2008-12-04 Olympus Corp Noise removal device, program, and method
JP4937852B2 (en) * 2007-07-10 2012-05-23 オリンパス株式会社 Image processing apparatus, image processing program, and imaging apparatus
JP5144202B2 (en) 2007-10-05 2013-02-13 オリンパス株式会社 Image processing apparatus and program
WO2009081709A1 (en) * 2007-12-25 2009-07-02 Olympus Corporation Image processing apparatus, image processing method, and image processing program
JP5203824B2 (en) * 2008-07-10 2013-06-05 オリンパス株式会社 Image processing apparatus and imaging system
JP5241410B2 (en) * 2008-09-29 2013-07-17 株式会社キーエンス Image processing apparatus, image processing method, and computer program
JP5430379B2 (en) 2009-02-03 2014-02-26 キヤノン株式会社 Imaging apparatus, control method thereof, and program
JP5249111B2 (en) 2009-03-31 2013-07-31 オリンパス株式会社 Image processing apparatus, method, program, and imaging system
JP5331721B2 (en) * 2010-02-02 2013-10-30 アズビル株式会社 Image processing apparatus, image processing method, and image processing program
JP5035646B2 (en) * 2010-07-20 2012-09-26 ソニー株式会社 Image processing apparatus and method, and program
WO2012168985A1 (en) * 2011-06-10 2012-12-13 株式会社島津製作所 Image processing method and apparatus therefor
JP5105215B2 (en) * 2011-07-25 2012-12-26 ソニー株式会社 Image processing apparatus and method, and program
US8873821B2 (en) * 2012-03-20 2014-10-28 Paul Reed Smith Guitars Limited Partnership Scoring and adjusting pixels based on neighborhood relationships for revealing data in images
US9558535B2 (en) 2012-08-07 2017-01-31 Sharp Kabushiki Kaisha Image processing device, image processing method, image processing program, and image display device
MX2018003673A (en) 2015-09-25 2018-08-01 Huawei Tech Co Ltd Apparatus and method for video motion compensation.
MY190412A (en) 2015-09-25 2022-04-21 Huawei Tech Co Ltd Adaptive sharpening filter for predictive coding
WO2017052409A1 (en) * 2015-09-25 2017-03-30 Huawei Technologies Co., Ltd. Apparatus and method for video motion compensation with selectable interpolation filter
KR102146436B1 (en) 2015-09-25 2020-08-20 후아웨이 테크놀러지 컴퍼니 리미티드 Apparatus and method for video motion compensation
WO2017052405A1 (en) 2015-09-25 2017-03-30 Huawei Technologies Co., Ltd. Apparatus and method for video motion compensation
WO2018131266A1 (en) * 2017-01-10 2018-07-19 富士フイルム株式会社 Noise processing device and noise processing method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8300120B2 (en) 2008-09-12 2012-10-30 Canon Kabushiki Kaisha Image processing apparatus and method of processing image for reducing noise of the image

Also Published As

Publication number Publication date
JP2001057677A (en) 2001-02-27

Similar Documents

Publication Publication Date Title
JP3995854B2 (en) Image processing method and apparatus, and recording medium
US6754398B1 (en) Method of and system for image processing and recording medium for carrying out the method
JP4679710B2 (en) Noise suppression processing apparatus and recording medium
US8542944B2 (en) Method and apparatus for multi-scale based dynamic range compression and noise suppression
US8107765B2 (en) Block-based image restoration system and method
US6771793B1 (en) Image processing method and apparatus
KR100646715B1 (en) Method for improving a quality of a 2-d ultrasound image by post-processing
JP4134187B2 (en) Diffusion weighted image processing apparatus and image processing program
EP2191438B1 (en) Method of generating a multiscale contrast enhanced image
US20110125030A1 (en) Medical diagnostic device and method of improving image quality of medical diagnostic device
JP2012524329A (en) Multiscale image normalization and enhancement
JP4244094B2 (en) Image processing method and apparatus, and recording medium
JP4847004B2 (en) Resolution adaptive image filtering system and method
US8139891B2 (en) System and method for structure enhancement and noise reduction in medical images
JP2004242285A (en) Noise suppression processing method, apparatus and program
JP2001167264A (en) Method and device for image processing and recording medium
JP2000224421A (en) Image processing method and device and recording medium
JP4197392B2 (en) Noise suppression processing apparatus and recording medium
JP3700798B2 (en) Image processing method and apparatus
Paranjape Fundamental enhancement techniques
CN108022220B (en) Ultrasonic image speckle noise removing method
JP6000659B2 (en) Information processing apparatus, information processing method, and program
WO2009110260A1 (en) Image treating device
JPH10232927A (en) Image gradation transforming device, image gradation varying method, medium where program for implementing the same method is recorded, and infrared-ray camera
JP4316106B2 (en) Image processing method and apparatus, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040823

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060530

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060731

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061017

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20061201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070731

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070801

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100810

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100810

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110810

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110810

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120810

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120810

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130810

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees