JP4258092B2 - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP4258092B2
JP4258092B2 JP2000102320A JP2000102320A JP4258092B2 JP 4258092 B2 JP4258092 B2 JP 4258092B2 JP 2000102320 A JP2000102320 A JP 2000102320A JP 2000102320 A JP2000102320 A JP 2000102320A JP 4258092 B2 JP4258092 B2 JP 4258092B2
Authority
JP
Japan
Prior art keywords
value
image processing
image
image data
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000102320A
Other languages
Japanese (ja)
Other versions
JP2001292324A (en
Inventor
大介 梶
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2000102320A priority Critical patent/JP4258092B2/en
Publication of JP2001292324A publication Critical patent/JP2001292324A/en
Application granted granted Critical
Publication of JP4258092B2 publication Critical patent/JP4258092B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は各種画像を処理する画像処理装置および画像処理方法に関し、畳み込み演算を用いたフィルタリング処理に適した画像処理装置およびそのような画像処理を行なう画像処理方法に関する。
【0002】
【従来の技術】
X線画像のような放射線画像は、病気診断用などに多く用いられており、このX線画像を得るために、被写体を透過したX線を蛍光体層(蛍光スクリーン)に照射し、これにより可視光を生じさせてこの可視光を通常の写真と同様に銀塩を使用したフィルムに照射して現像した、所謂、放射線写真が従来から多く利用されている。
【0003】
しかし、近年、銀塩を塗布したフィルムを使用しないで、蛍光体層から直接画像を取り出す方法が工夫されるようになってきている。この方法としては、被写体を透過した放射線を蛍光体に吸収せしめ、しかる後、この蛍光体を例えば光又は熱エネルギーで励起することによりこの蛍光体が上記吸収により蓄積している放射線エネルギーを蛍光として放射せしめ、この蛍光を光電変換して画像データを得る方法がある。
【0004】
具体的には、例えば米国特許3,859,527 号及び特開昭55−12144 号公報等に、輝尽性蛍光体を用い可視光線又は赤外線を輝尽励起光とした放射画像変換方法が示されている。この方法は、支持体上に輝尽性蛍光体層を形成した放射画像変換パネルを使用するもので、この変換パネルの輝尽性蛍光体層に被写体を透過した放射線を当て、被写体各部の放射線透過度に対応する放射線エネルギーを蓄積させて潜像を形成し、しかる後、この輝尽層を輝尽励起光で走査することによって蓄積された放射線エネルギーを放射させてこれを光に変換し、この光信号を光電変換して放射線画像データを得るものである。
【0005】
このようにして得られた放射線画像データは、そのままの状態で、或いは画像処理を施されて銀塩フィルム,CRT等に出力されて可視化されたり、電子ファイリング装置にファイリングされる。前記画像処理においては、再生画像における関心領域(診断に必要な画像部分を含む領域)の濃度を一定に仕上げる目的、及び、人体の構造や病変の陰影をより見やすく出力する目的で、階調処理や空間周波数処理等の画像処理を施すようにしている。
【0006】
また、放射線画像に限らず各種の分野で、画像データに対して各種の画像処理を施した後に画像を再生または表示することが各種の分野で行われている。そして、この画像データとして強調処理を行なうことで、輪郭などを明瞭にすることが行われている。
【0007】
このような画像処理として、画像データの低周波数成分のみを抽出した非鮮鋭画像を作成し、この非鮮鋭画像を原画像の画像データから減算することで、高周波成分を強調した画像データを得ることが知られている。
【0008】
また、原画像の画像データをフーリエ変換などの周波数成分に変換し、この周波数成分において所定の周波数の強調を行った後に、逆変換することで、所望の強調を行った画像データを得ることが知られている。
【0009】
また、画像を多重解像度空間に変換することにより、画像を複数の周波数帯域毎に分解し、複数に分解された各周波数帯域の画像のうちの少なくとも一つの周波数帯域に対して強調処理を施し、強調処理が施された周波数帯域の画像および他の周波数帯域の画像を逆変換することにより処理済み画像データを得る画像処理も知られている。
【0010】
なお、所望の周波数帯域を強調するのに効果的な画像処理手法として、特開平6−301766号公報などに記載されているように、ラプラシアン・ピラミッド法による画像処理手法などが従来から提案されていた。
【0011】
【発明が解決しようとする課題】
しかし、以上のラプラシアン・ピラミッドなどによる処理の場合、出力信号を得るためには、画像全体あるいはすでにフィルタ処理が施された画像全体に対してフィルタ処理を行い、その処理済画像データに基づいた演算により出力画像データを得ていた。
【0012】
このため、注目する一つの画素についての出力画素値を得る場合にも、画像全体の信号すべてについての処理が必要となり、多くの処理時間およびメモリが必要であった。
【0013】
また、1回の演算は画像データ全体に対して同一の関数によるフィルタ処理を行うので画像内の領域に依存した処理(特定の領域のみの処理)は困難であった。
【0014】
本発明は以上のような課題に鑑みてなされたものであって、画像データすべてに対して変換を行うことなく、容易に注目画素の変換後の信号値を得ることが可能な画像処理装置および画像処理方法を実現することである。
【0015】
また、本発明は以上のような課題に鑑みてなされたものであって、画像データすべての変換を行う際にも、画像データの大きさに等しいメモリを必要とせずに変換後の画像データを得ることが可能な画像処理装置および画像処理方法を実現することである。
【0016】
【課題を解決するための手段】
この発明では、複数の画素からなる画像の画像データに対して画像処理を施す際に、原画像内の注目画素の画素値およびその近傍画素の画素値と所定の関数との間の複数回の畳み込み演算に基づいた計算値により変換後の注目画素の値を決定するようにしている。これにより、画像データすべてに対して変換を行うことなく、容易に注目画素の変換後の信号値を得ることが可能な画像処理装置および画像処理方法を実現できる。また、画像データすべての変換を行う際にも、画像データの大きさに等しいメモリを必要とせずに変換後の画像データを得ることが可能な画像処理装置および画像処理方法を実現できる。
【0017】
すなわち、注目画素の変換後の値をマスクサイズを変更した重み付き平均値の値に基づいて得る場合の例では、注目画素に対して複数のサイズのマスクを使用して(重み付き)平均化処理を行い、隣り合う範囲の近いサイズのマスクの平均値の差分値を得、この差分値に変換処理を施し、変換後の差分値を注目画素の画素値に加えることで、処理済信号値を得る。この様に、すべての処理を画素単位で行うことで、使用メモリの節約および処理速度の向上が可能となる。
【0018】
なお、具体的には、以下に述べるようなものである。
請求項1記載の発明は、放射線の照射により撮影された複数の画素からなる医用画像の画像データに対して画像処理を施す画像処理手段を備えた画像処理装置であって、前記画像処理手段は、注目画素の画素値およびその近傍画素の画素値について所定の関数による複数回の畳み込み演算に基づいた計算値により変換後の注目画素の値を決定し、前記複数回の畳み込み演算に用いられる所定の関数は、互いに平均値算出範囲が異なり、該平均値算出範囲におけるガウス分布又は一様分布による重み付き平均値を求める複数の関数である、ことを特徴とする画像処理装置である。
【0024】
請求項記載の発明は、前記画像処理手段は注目画素の画値に平均値算出範囲が隣り合う関数の畳み込み演算計算値の差分値を所定の変換に基づいて変換した変換値を加算することによって変換後の注目画素の値を得る、ことを特徴とする請求項に記載の画像処理装置である。
【0025】
請求項記載の発明は、前記画像処理手段は平均値算出範囲が最も広い関数によって求めた平均値に平均値算出範囲が隣り合う関数の畳み込み演算計算値の差分値を所定の変換に基づいて変換した変換値を加算することによって変換後の注目画素の値を得る、ことを特徴とする請求項に記載の画像処理装置である。
【0026】
請求項記載の発明は、前記差分値に対する所定の変換は、入力値に対して非線形な関数によって与えられる、ことを特徴とする請求項または請求項のいずれかに記載の画像処理装置である。
【0027】
請求項記載の発明は、前記非線形な関数は入力値の絶対値より、出力値の絶対値が小さくなる部分を少なくとも一部は有する、ことを特徴とする請求項記載の画像処理装置である。
【0028】
請求項記載の発明は、前記非線形な関数が差分を求めた平均値算出範囲によって異なる、ことを特徴とする請求項または請求項のいずれかに記載の画像処理装置である。
【0029】
請求項記載の発明は、前記非線形な関数は差分を求めた平均値算出範囲が広いほど、入力値0付近で小さな出力値を取る、ことを特徴とする請求項乃至請求項のいずれかに記載の画像処理装置である。
【0030】
請求項記載の発明は、前記画像処理手段は、注目画素およびその近傍画素と所定の関数の複数回の畳み込み演算に基づいた計算を行い、その値を保存するために十分なメモリ領域を有し、その領域を繰り返し使用することで複数の注目画素に対する変換後の値を決定する、ことを特徴とする請求項1乃至請求項のいずれかに記載の画像処理装置である。
【0032】
請求項記載の発明は、前記複数回の畳み込み演算に用いられる所定の関数は画像データにより異なる、ことを特徴とする請求項1乃至請求項のいずれかに記載の画像処理装置である。
【0033】
請求項1記載の発明は、放射線の照射により撮影された複数の画素からなる医用画像の画像データに対して画像処理を施す画像処理方法であって、注目画素の画素値およびその近傍画素の画素値について、互いに平均値算出範囲が異なり、該平均値算出範囲におけるガウス分布又は一様分布による重み付き平均値を求める複数の関数による複数回の畳み込み演算に基づいた計算値により変換後の注目画素の値を決定することを特徴とする画像処理方法である。
【0035】
【発明の実施の形態】
以下、本発明の実施の形態例について図を用いて詳細に説明する。まず、本発明の実施の形態例の特徴部分である複数のマスクを用いた画素毎の画像処理について説明し、つぎに、本実施の形態例の画像処理が適用される放射線画像処理装置の全体構成について説明し、その後に放射線画像処理装置の全体の動作説明を行う。
【0036】
〈画像処理の詳細〉
図1は本発明の実施の形態例であるマスクを用いた画像処理を模式的に示す説明図である。なお、図2はマスクと画像データの様子を示す模式図である。なお、以下に説明する画像処理は、後述する装置の画像処理部が行うものである。
【0037】
すなわち、放射線画像などの各種の画像の分野で、得られた画像データを再生または表示する前に、画像データに対して施す各種の画像処理(周波数処理などによる輪郭強調など)に関する。
【0038】
図1と図2とにおいて、注目画素aに関して、複数のサイズの異なるマスクとして、マスクA(A画素×A画素)、マスクB(B画素×B画素)、マスクC(C画素×C画素)、マスクD(D画素×D画素)が配置されている。
【0039】
これらマスクA〜Dは、同じ注目画素について複数回の畳み込み演算に用いられる複数の形状の異なる関数であって、重み付き平均値を求めるための分布における平均値算出範囲が異なる関数族によって構成されたものである。なお、分布は、ガウス分布あるいは一様分布などである。
【0040】
まず、図2における画像データにおいて、たとえば、左上の端部の画素を注目画素として選択する(図3S1)。そして、複数の大きさの異なるマスク(ここでは、マスクA〜マスクD)を使って、それぞれのマスクによる計算値(重み付き平均値)を求める(図3S2)。具体的には、それぞれのマスクにより、ガウシアンマスクを用いた非鮮鋭画像の計算を画素毎に行う。
【0041】
そして、大きさが最も近いマスク同士の計算値の差分を求める(図3S3)。図1の場合は、マスクAの計算値とマスクBの計算値との差分d_AB、マスクBの計算値とマスクCの計算値との差分d_BC、マスクCの計算値とマスクDの計算値との差分d_CDを求める。
【0042】
つぎに、各差分に対して、所定の変換を施す(図3S4)。所定の変換としては、たとえば、図4に示すような、入力値に対して非線形な関数によって与えられる非線形変換が該当する。
【0043】
以上の差分d_ABに非線形変換を施して非線形差分d’_ABを生成し、差分d_BCに非線形変換を施して非線形差分d’_BCを生成し、差分d_CDに非線形変換を施して非線形差分d’_CDを生成する。この非線形な関数では、入力値の絶対値より、出力値の絶対値が小さくなる部分を少なくとも一部は有する。また、前記非線形な関数が差分を求めた平均値算出範囲によって異なる。また、前記非線形な関数は、差分を求めた平均値算出範囲が広い(マスクが大きい)ほど、入力値0付近で小さな出力値を取るものである(図4参照)。
【0044】
以上の場合、原画像に急激な画素値の変化があるような場合、上記の計算の差分値(d_AB,……)も非常に大きな値をとり、また、その値の大きさは一般的に大きなマスクサイズから得た差分値ほど大きいという特性をもつ。これらの値を変換することなく、注目画素に加算した場合、元の画素と比較して非常に大きな画素値の変化が起こり、アーティファクトの原因となる。そこで、図4のような変換関数を用いることで、画素値の抑制がマスクサイズの大きな差分から得られた値ほど強く施され、アーティファクトをなくすことが可能となる。
【0045】
そして、以上の非線形変換差分のそれぞれを加算する。この加算結果は画素aについての高周波成分Shに相当する。この高周波成分Shを所定の係数βで強調してβShを得る(図3S6)。なお、この所定の係数βとしては、図5に示すように、所定の信号値以上の強調を所定の信号値未満より強くすることで、ノイズの目立ちやすい低濃度領域の強調度の抑制と高濃度部での十分な強調を両立することが可能となって望ましい。
【0046】
また、係数βに関しては、図19に示すような形状にすることも望ましい。すなわち、基準値T1,T2間でほぼ線形に変化される。また図20の実線で示すように、値「A」,「B」を設定して、低輝度を強調する場合には基準値T1〜値「A」までのβが最大とされて、値「B」〜基準値T2まで最小とされる。また値「A」〜値「B」までは、βがほぼ線形に変化される。高輝度を強調する場合には破線で示すように、基準値T1〜値「A」までのβが最小とされて、値「B」〜基準値T2まで最大とされる。また値「A」〜値「B」までは、βがほぼ線形に変化される。なお、図示せずも中輝度を強調する場合には値「A」〜値「B」のβが最大とされる。このようにすることで、任意の輝度部分の強調度を制御することができる。
【0047】
以上のようにして得られた強調高周波成分βShを元の画素aと加算して、処理済み画素a+βShを得る(図3S7)。このようにして、画素aに関して、複数のマスクによる演算と加算と減算とによって処理済み画素a+βShが得られる。すなわち、この実施の形態例では、画像データすべてに対して変換を行うことなく、注目画素の変換後の信号値を得ることが可能になる。
【0048】
以上のような画素に関する演算を、画像データの全画素、あるいは所望とする領域の全画素について画素毎に順次行うようにする(図3S8でNO→S1〜S7)ことで、画像データすべての変換を行う際にも、画像データの大きさに等しいメモリを必要とせずに変換後の画像データを得ることが可能になる。したがって、作業用のメモリ容量の節約、演算時間の短縮といった効果が得られる。
【0049】
なお、以上の説明では、マスクA〜マスクDの4つのサイズの異なるマスクを用いた画像処理を説明したが、更に多くのマスクを用いることも可能である。なお、大きさの異なるマスクの個数はさらに多くすることも可能である。非常に大きな信号変化に対してもアーティファクトが出ずに他の領域に対して十分な強調を行うには、比較的大きなマスクサイズから得られた差分の抑制を行うことが望ましく、少なくとも4つのマスクサイズにより処理を行うことが望ましい。
【0050】
また、この実施の形態例の画像処理では、画素毎に行うことが可能であるため、画像データのなかの特定の領域だけを処理するといった場合にも適しており、従来の画像データ全体に処理するものに比べて、演算時間の短縮の効果が顕著に得られる。
【0051】
また、この実施の形態例の画像処理では、画素毎に行うことが可能であるため、画像データのなかでいくつかの領域毎に処理内容を変えるといった使い方にも適している。
【0052】
たとえば、図6(a)のような足側面の画像に対し、既知の判別分析法などにより適当なしきい値を求めることで、骨部(図6(c))とそれ以外の領域(軟部組織:図6(b))に分解を行う。
【0053】
このように分解したそれぞれの画像に対して、骨の部分(図6(c))のみに比較的小さいマスクサイズの複数のマスクを用いて上述した画像処理を行い、軟部組織などのその他の部分(図6(b))に対しては、比較的大きなマスクサイズの複数のマスクを用いて上述した画像処理を行うようにする。この様することで、領域の特性に依存した処理が可能となり、複数のマスクを用いた周波数処理でかつ軟部領域と骨部領域で周波数特性が異なるが可能となる。ここでは、2つの領域であったが、さらに多くの領域に分けて、マスクサイズを変えて画像処理を施すことも可能である。
【0054】
このようにマスクサイズを領域により変更することで比較的小さなマスクサイズにより処理を行った骨の部分は画像内の比較的高周波成分の強調が行われ、骨梁などの微細な構成要素のみが鮮明になり、比較的大きなマスクサイズにより処理を行った軟部領域では、筋肉や脂肪組織など画像内の比較的低周波成分の強調が行われ、筋肉や脂肪組織など大きな構成要素が鮮明となる。
【0055】
また、画像の種類に応じてマスクのサイズを変えて、異なる画像処理を実行することも可能である。
〈放射線画像処理装置の全体構成〉
図8は、本実施の形態例の画像処理を適用する放射線画像処理装置の全体構成を示すシステム構成図である。放射線発生器30はコントローラ10によって制御されており、放射線発生器30から放射された放射線は、被写体5を通して放射線画像読取器40の前面に装着されている撮像パネルに照射される。
【0056】
図9はFPD(Flat Panel Display)を用いた放射線画像読取器40の構成を示している。この撮像パネル41は所定の剛性を得られるだけの厚みを有する基板を有しており、この基板上には照射された放射線の線量に応じて電気信号を出力する検出素子412-(1,1)〜412-(m,n)がマトリクス状に2次元配置されている。また、走査線415-1〜415-mと信号線416-1〜416-nがたとえば直交するように配設される。
【0057】
撮像パネル41の走査線415-1〜415-mは、走査駆動部44と接続されている。走査駆動部44から走査線415-1〜415-mのうちの1つ走査線415-p(pは1〜mのいずれかの値)に読出信号RSが供給されると、この走査線415-pに接続された検出素子から照射された放射線の線量に応じた電気信号SV-1〜SV-nが出力されて、信号線416-1〜416-nを介して画像データ生成回路46に供給される。
【0058】
この検出素子412は、照射された放射線の線量に応じた電気信号を出力するものであればよい。たとえば放射線が照射されたときに電子−正孔対が生成されて抵抗値が変化する光導電層を用いて検出素子が形成されている場合、この光導電層で生成された放射線量に応じた量の電荷が電荷蓄積コンデンサに蓄えられて、この電荷蓄積コンデンサに蓄えられた電荷が電気信号として画像データ生成回路46に供給される。なお、光導電層としては暗抵抗値が高いものが望ましく、アモルファスセレン、酸化鉛、硫化カドミウム、ヨウ化第2水銀、または光導電性を示す有機材料(X線吸収コンパウンドが添加された光伝導性ポリマを含む)などが用いられ、特にアモルファスセレンが望ましい。
【0059】
また、検出素子412が、たとえば放射線が照射されることにより蛍光を生ずるシンチレータ等を用いて形成されている場合、フォトダイオードでこのシンチレータで生じた蛍光強度に基づく電気信号を生成して画像データ生成回路46に供給するものとしてもよい。
【0060】
このような構成を用いた撮像パネル41としては、特開平9−90048に開示されているように、X線を増感紙等の蛍光体層に吸収させて蛍光を発生させ、その蛍光の強度を画素毎に設けたフォトダイオード等の光検出器で検知するものがある。蛍光の検知手段としては他に、CCDやC−MOSセンサを用いる方法もある。
【0061】
特に上記の特開平6−342098に開示された方式の撮像パネル(FPD)では、X線量を画素毎の電荷量に直接変換するため、FPDでの鮮鋭性の劣化が少なく、鮮鋭性の優れた画像が得られるので、X線画像記録システム及びX線画像記録方法による効果が大きく好適である。
【0062】
さらに、撮像パネル41としては、図10および図11に示すような構成とすることかできる。図10は撮像パネル41として使用できる放射線画像検出器の正面図で放射線画像検出器が複数のユニットにより構成されている例を示すものである。図10の点線は、放射線画像検出器の格子50の線であるが、実際には保護部材やX線シンチレータに隠れて正面からは見えない。図10はユニットが6×6=36個の例であるが、数はこれに限るものではない。
【0063】
図11は放射線画像検出器の縦断面の模式図である。放射線画像検出器は、X線シンチレータ51、レンズアレイ52、そしてそのレンズアレイ52の各々のレンズ53に対応するエリアセンサ54をこの順に配置して構成される。X線シンチレータ51は、保護部材55により保護される。レンズアレイ52の各々のレンズ53は、レンズ支持部材58に支持され、X線シンチレータ51とレンズアレイ52との間には、透明部材56か配置される。エリアセンサ54は、エリアセンサ支持部材57に支持されている。
【0064】
放射線画像検出器の構成要素の形状、厚み、光線経路などは正確ではない。格子50は直接X線シンチレータ51に触れるのではなく、透明部材56に突き当たるようにしてあり、これにより格子50がX線シンチレータ51に当たって傷がつくことを避けるとともに、格子50の境界線が画像の欠落部分となることを防いでいる。
【0065】
なお、レンズアレイ52の各々のレンズ53に対応するエリアセンサ54をこの順に配置したため、空間分解能が高く高画質であり、厚さが薄く小型で、しかも軽量である。
【0066】
X線シンチレータ51が、ガドリウムオキシサルファイドや沃化セシウム等X線の曝射により可視光を発し、X線シンチレータ51がX線の曝射により可視光を発することで空間分解能が高く高画質である。
【0067】
レンズアレイ52が、2枚以上の複数の異なるレンズ53の組み合わせからなるレンズ群から棉成され、空間分解能が高く高画質であり、厚さを薄くすることができる。レンズ53の結像倍率が1/1.5から1/20であり、結像倍率が1/1.5より大きいとエリアセンサが大きくなりすぎて配置が困難となり、1/20より小さいとX線シンチレータ51からレンズまでの距離が長くなり、放射線画像検出器の厚みが増大する。
【0068】
また、エリアセンサ54としてCCDやC−MOSセンサ等の固体撮像素子を用いることで鮮明な画像が得られる。
画像データ生成回路46では、後述する読取制御回路48からの出力制御信号SCに基づいて供給された電気信号SVを順次選択して、ディジタルの画像データDTに変換する。この画像データDTは読取制御回路48に供給される。
【0069】
読取制御回路48はコントローラ10と接続されており、コントローラ10から供給された制御信号CTDに基づいて走査制御信号RCや出力制御信号SCを生成する。この走査制御信号RCが走査駆動部44に供給されて、走査制御信号RCに基づき走査線415-1〜415-mに対しての読出信号RSの供給が行われる。
【0070】
また、出力制御信号SCは画像データ生成回路46に供給される。この読取制御回路48からの走査制御信号RCや出力制御信号SCによって、たとえば撮像パネル41が上述のように(m×n)個の検出素子412で構成されている場合には、検出素子412-(1,1)〜412-(m,n)からの電気信号SVに基づくデータをデータDP(1,1)〜DP(m,n)とすると、データDP(1,1)、DP(1,2)、……DP(1,n)、DP(2,1)、……、DP(m,n)の順として画像データDTが生成されて、この画像データDTが画像データ生成回路46から読取制御回路48に供給される。また、読取制御回路48では、この画像データDTをコントローラ10に送出する処理も行う。
【0071】
放射線画像読取器40で得られた画像データDTは、読取制御回路48を介してコントローラ10に供給される。なお、放射線画像読取器40で得られた画像データをコントローラ10に供給する際に対数変換処理を行った画像データを供給すれば、コントローラ10における画像データの処理を簡単とすることができる。
【0072】
また、放射線画像読取器はFPDを用いたものに限られるものではなく、輝尽性蛍光体を用いたものであってもよい。図12は輝尽性蛍光体を用いた放射線画像読取器60を用いた場合の構成を示しており、放射線が照射される変換パネル61では、支持体上に輝尽性蛍光体層が輝尽性蛍光体の気相堆積あるいは輝尽性蛍光体塗料塗布によって設けられる。この輝尽性蛍光体層は環境による悪影響及び損傷を遮断するために、保護部材によって遮蔽若しくは被覆されている。
【0073】
光ビーム発生部(ガスレーザ、固体レーザ、半導体レーザ等)62は、出射強度が制御された光ビームを発生する。この光ビームは種々の光学系を経由して走査部63に到達し、走査部63で偏向を受け、更に反射鏡64で光路を偏向させて、変換パネル61に輝尽励起走査光として導かれる。
【0074】
集光体65の光ファイバー又はシート状光ガイド部材からなる集光端は、輝尽励起光が走査される変換パネル61に近接して配設されて、光ビーム発生部62からの光ビームの走査によって変換パネル61で生じた潜像エネルギーに比例した発光強度の輝尽発光を受光する。
【0075】
フィルタ66は、集光体65より導入された光から輝尽発光波長領域の光のみを通過させるものであり、このフィルタ66を通過した光は、フォトマルチプライヤ67に入射される。
【0076】
フォトマルチプライヤ67では、光電変換によって入射光に対応した電流信号を生成する。この電流信号は、電流/電圧変換部70に供給されて電圧信号に変換される。さらに、電圧信号は増幅部71で増幅された後、A/D変換部72でディジ夕ルの画像データDTに変換される。ここで、増幅部71として対数変換増幅部(logアンプ)を用いる。画像データDTは、画像処理装置80において順次画像処理されて、画像処理後の画像データDTCがインタフェース82を介してプリンタ83に伝送される。
【0077】
CPU(Central Processing Unit)81は、画像処理装置80における画像処理を制御するためのものであり、画像処理装置80では、画像データDTに対して種々の画像処理(たとえば空間周波数処理、ダイナミックレンジの圧縮、階調処理、拡大/縮小処理、移動、回転、統計処理等)を行い、診断に適した形の画像データDTCを生成する。
【0078】
この画像データDTCがプリンタ83に供給されて、プリンタ83から人体各部の放射線画像のハードコピーを得ることができる。なお、インタフェース82にCRT等のモニタを接続するものとしても良く、更に複数の放射線画像の画像データを記憶できる記憶装置(ファイリングシステム)を接続するものとしてもよい。
【0079】
また、読取制御部75では、光ビーム発生部62の光ビーム強度調整、フォトマルチプライヤ用高圧電源76の電源電圧調整によるフォトマルチプライヤ67のゲイン調整、電流/電圧変換部70と増幅部71のゲイン調整、及びA/D変換部72の入力ダイナミックレンジの調整が行なわれ、読取ゲインが総合的に調整される。
【0080】
A/D変換部72から得られた画像データDTは、コントローラ10に供給されると共に、コントローラ10からの制御信号CTDによって読取制御部75の動作の制御を行う。
【0081】
なお、放射線画像読取器は、放射線画像を記録した銀塩フィルムにレーザ、蛍光灯等の光源からの光を照射し、この銀塩フィルムの透過光を光電変換して画像データを生成してもよい。また、放射線量子計数型検出器を用いて放射線エネルギーを直接電気信号に変換して画像データを生成する構成であってもよい。
【0082】
次に、コントローラ10の構成を図13に示す。コントローラ10の動作を制御するためのCPU11には、システムバス12と画像バス13が接続されると共に入力インタフェース17が接続される。このコントローラ10の動作を制御するためのCPU11は、メモリ14に記憶された制御プログラムに基づいて動作が制御される。
【0083】
システムバス12と画像バス13には、表示制御部15、フレームメモリ制御部16、出力インタフェース18、撮影制御部19、ディスク制御部20等が接続されており、システムバス12を利用しCPU11によって各部の動作が制御されると共に、画像バス13を介して各部間での画像データの転送等が行われる。
【0084】
フレームメモリ制御部16には、フレームメモリ21が接続されており、放射線画像読取器40で得られた画像データが撮影制御部19やフレームメモリ制御部16を介して記憶される。フレームメモリ21に記憶された画像データは読み出されて表示制御部15やディスク制御部20に供給される。また、フレームメモリ21には、放射線画像読取器40から供給された画像データをCPU11で処理してから記憶するものとしてもよい。
【0085】
表示制御部15には、画像表示装置22が接続されており画像表示装置22の画面上に表示制御部15に供給された画像データに基づく放射線撮影画像が表示される。ここで、放射線画像読取器40の画素数よりも画像表示装置22の表示画素数が少ない場合には、画像データを間引きして読み出すことにより、画面上に撮影画像全体を表示させることができる。また、画像表示装置22の表示画素数分に相当する領域の画像データを読み出すものとすれば、所望の位置の撮影画像を詳細に表示させることができる。
【0086】
フレームメモリ21からディスク制御部20に画像データが供給される際には、たとえば連続して画像データが読み出されてディスク制御部20内のFIFOメモリに書き込まれ、その後順次ディスク装置23に記録される。
【0087】
さらに、フレームメモリ21から読み出された画像データやディスク装置23から読み出された画像データを出力インタフェース18を介して外部機器100に供給することもできる。
【0088】
画像処理部26では、放射線画像読取器40から撮影制御部19を介して供給された画像データDTの照射野認識処理、関心領域設定、正規化処理および階調処理、などが行われる。また、周波数強調処理やダイナミックレンジ圧縮処理等を行うものとしてもよい。なお、画像処理部26をCPU11が兼ねる構成として、画像処理等を行うこともできる。
【0089】
従って、画像処理部26が、請求項における畳み込み演算を用いた画像処理を実行する画像処理手段を構成している。
入力インタフェース17にはキーボード等の入力装置27が接続される。この入力装置27を操作することで、撮影によって得られた画像データを識別するための情報や撮影に関する情報等の管理情報の入力が行われる。
【0090】
出力インタフェース18に接続される外部機器100としては、レーザーイメージャとも呼ばれる走査型レーザ露光装置が用いられる。この走査型レーザ露光装置では、画像データによりレーザビーム強度を変調し、従来のハロゲン化銀写真感光材料や熱現象ハロゲン化銀写真感光材に露光したあと適切な現像処理を行うことによって放射線画像のハードコピーが得られるものである。
【0091】
なお、フレームメモリ21には、放射線画像読取器40から供給された画像データを記憶するものとしたが、供給された画像データをCPU11で処理してから記憶するものとしてもよい。また、ディスク装置23には、フレームメモリ21に記憶されている画像データ、すなわち放射線画像読取器40から供給された画像データやその画像データをCPU11で処理した画像データを、管理情報などと共に保存することができる。
【0092】
<放射線画像処理装置の動作>
次に、以上の放射線画像処理装置の動作について説明する。被写体5の放射線画像を得る際には、放射線発生器30と放射線画像読取器40の撮像パネル41の間に被写体5が位置するものとされて、放射線発生器30から放射された放射線が被写体5に照射されると共に、被写体5を透過した放射線が撮像パネル41に入射される。なお、放射線画像読取器40に替えて放射線画像読取器60を用いる場合も同様であり、以下の説明では放射線画像読取器40を用いるものとして、放射線画像読取器60を用いた場合の説明は省略する。
【0093】
コントローラ10には、撮影が行われる被写体5の識別や撮影に関する情報を示す管理情報が入力装置27を用いて入力される。この入力装置27を用いた管理情報の入力は、キーボードを操作したり、磁気カード、バーコード、HIS(病院内情報システム:ネットワークによる情報管理)等を利用して行われる。
【0094】
この管理情報は、たとえばID番号、氏名、生年月日、性別、撮影日時、撮影部位および撮影体位(たとえば、放射線を人体のどの部分にどの方向から照射したか)、撮影方法(単純撮影,造影撮影,断層撮影,拡大撮影等)、撮影条件(管電圧,管電流,照射時間,散乱線除去グリッドの使用の有無等)等の情報から構成される。
【0095】
また撮影日時は、CPU11に内蔵されている時計機能を利用して、CPU11からカレンダーや時刻の情報を自動的に得ることもできる。なお、入力される管理情報は、その時点で撮影される被写体に関するものだけでも良く、一連の管理情報を予め入力しておいて、入力順に被写体を撮影したり、必要に応じて入力された管理情報を読み出して用いるものとしてもよい。
【0096】
放射線画像読取器40の電源スイッチがオン状態とされると、コントローラ10からの制御信号CTDに基づき、放射線画像読取器40の読取制御回路48や走査駆動部44によって撮像パネル41の初期化が行われる。この初期化は、撮像パネル41から照射された放射線量に応じた正しい電気信号を得るためのものである。
【0097】
放射線画像読取器40での撮像パネル41の初期化が完了すると、放射線発生器30からの放射線の照射が可能とされる。ここで、放射線を照射するためのスイッチが放射線発生器30に設けられている場合、このスイッチが操作されると、放射線発生器30から被写体5に向けて放射線が所定時間だけ照射されると共に、放射線の照射開始を示す信号DFSや照射終了を示す信号DFEがコントローラ10に供給される。
【0098】
このとき、放射線画像読取器40の撮像パネル41に照射される放射線の放射線量は、被写体5による放射線吸収の度合いが異なるため、被写体5によって変調される。撮像パネル41の検出素子412-(1,1)〜412-(m,n)では、被写体5によって変調された放射線に基づく電気信号が生成される。
【0099】
次に、コントローラ10では、信号DFSが供給されてから所定時間後、たとえば放射線の照射時間が0.1秒程度であるときには、この照射時間よりも長い時間(たとえば約1秒)経過後、または、信号DFEが供給されてから直ちに、放射線画像読取器40で画像データDTの生成を開始するために制御信号CTDが放射線画像読取器40の読取制御回路48に供給される。
【0100】
一方、放射線を照射するためのスイッチがコントローラ10に設けられている場合、このスイッチが操作されると、放射線の照射を開始させるための照射開始信号CSTが撮影制御部19を介して放射線発生器30に供給されて、放射線発生器30から被写体5に向けて放射線が所定時間だけ照射される。この照射時間は、たとえば管理情報に基づいて設定される。
【0101】
次に、コントローラ10では、照射開始信号CSTを出力してから所定時間後、放射線画像読取器40で画像データの生成を開始するための制御信号CTDを放射線画像読取器40の読取制御回路48に供給する。なお、コントローラ10では、放射線発生器30での放射線の照射終了を検出してから、放射線画像読取器40で画像データの生成を開始するための制御信号CTDを放射線画像読取器40に供給するものとしてもよい。この場合には、放射線の照射中に画像データが生成されてしまうことを防止できる。
【0102】
放射線画像読取器40の読取制御回路48では、コントローラ10から供給された画像データの生成を開始するための制御信号CTDに基づいて走査制御信号RCや出力制御信号SCが生成される。この走査制御信号RCが走査駆動部44に供給されると共に出力制御信号SCが画像データ生成回路46に供給されて、画像データ生成回路46から得られた画像データDTが読取制御回路48に供給される。この画像データDTは、読取制御回路48によってコントローラ10に送出される。
【0103】
コントローラ10に供給された画像データDTは、撮影制御部19やフレームメモリ制御部16等を介してフレームメモリ21に記憶される。このフレームメモリ21に記憶された画像データを用いて、画像表示装置22に放射線画像を表示させることができる。また、フレームメモリ21に記憶された画像データを画像処理部26で処理して表示制御部15に供給したり、画像処理が行われた画像データをフレームメモリ21に記憶させて、このフレームメモリ21に記憶された画像データを表示制御部15に供給することにより、輝度やコントラストあるいは鮮鋭度等が調整されて、診断等に適した放射線画像を表示することもできる。また、画像処理が行われた画像データを外部機器100に供給することで、診断等に適した放射線画像のハードコピーを得ることができる。
【0104】
画像処理部26では、放射線量が異なることにより、撮像パネル41から出力された画像データのレベルの分布が変動した場合であっても、常に安定した放射線画像が得られるように画像データDTの正規化処理が行われる。また、画像データのレベルの分布が変動しても、診断等に適した濃度およびコントラストの放射線画像を得るために正規化処理後の画像データである正規化画像データDTregに対して階調処理が行われる。さらに画像処理部26では、正規化画像データDTregに対して正規化放射線画像の鮮鋭度を制御する周波数強調処理や、ダイナミックレンジの広い放射線画像の全体を、被写体の細かい構造部分のコントラストを低下させることなく見やすい濃度範囲内に収めるためのダイナミックレンジ圧縮処理を行うものとしてもよい。
【0105】
<画像処理の内容>
なお、本実施の形態例の放射線画像処理装置では、以上の正規化処理,階調処理,ダイナミックレンジ圧縮処理に先立ち、照射野認識処理,ROI認識を行う。すなわち、本実施の形態例の画像処理手順は、図7に示すようになっている。
【0106】
この図7のように、本実施の形態例の処理手順は、
・照射野認識処理,
・ROI認識処理,
・周波数処理、または、異なる大きさの複数のマスクを用いた画素毎の画像処理,
・ダイナミックレンジ圧縮処理,
・階調処理,
のようになっている。以下、この順に従って本実施の形態例の処理手順を説明する。
【0107】
(1)照射野認識処理:
ところで、放射線画像の撮影に際しては、たとえば診断に必要とされない部分に放射線が照射されないようにするため、あるいは診断に必要とされない部分に放射線が照射されて、この部分で散乱された放射線が診断に必要とされる部分に入射されて分解能が低下することを防止するため、被写体5の一部や放射線発生器30に鉛板等の放射線非透過物質を設置して、被写体5に対する放射線の照射野を制限する照射野絞りが行われる。
【0108】
この照射野絞りが行われた場合、照射野内領域と照射野外領域の画像データを用いてレベルの変換処理やその後の階調処理を行うものとすると、照射野外領域の画像データによって、照射野内の診断に必要とされる部分の画像処理が適正に行われなくなってしまう。このため、画像処理部26では、照射野内領域と照射野外領域を判定する照射野認識処理が行われる。
【0109】
照射野認識処理では、たとえば特開昭63−259538号で示される方法が用いられて、図14(a)に示すように撮像面上の所定の位置Pから撮像面の端部側に向かう線分上の画像データを用いてたとえば微分処理が行われる。この微分処理によって得られた微分信号Sdは、図14(b)に示すように照射野エッジ部で信号レベルが大きくなるため、微分信号Sdの信号レベルを判定して1つの照射野エッジ候補点EP1が求められる。この照射野エッジ候補点を求める処理を、撮像面上の所定の位置を中心として放射状に行うことにより複数の照射野エッジ候補点EP1〜EPkが求められる。このようにして得られた複数の照射野エッジ候補点EP1〜EPkの隣接するエッジ候補点を直線あるいは曲線で結ぶことにより照射野エッジ部が求められる。
【0110】
また、特開平5−7579号で示される方法を用いることもできる。この方法では、撮像面を複数の小領域に分割したとき、照射野絞りによって放射線の照射が遮られた照射野外の小領域では、略一様に放射線の放射線量が小さくなり画像データの分散値が小さくなる。また、照射野内の小領域では、被写体によって放射線量が変調されることから照射野外に比べて分散値が高くなる。さらに、照射野エッジ部を含む小領域では最も放射線量が小さい部分と被写体によって変調された放射線量の部分が混在することから分散値は最も高くなる。このことから、分散値によって照射野エッジ部を含む小領域が判別される。
【0111】
また、特開平7−181609号で示される方法を用いることもできる。この方法では、画像データを所定の回転中心に関して回転移動させて、平行状態検出手段によって照射野の境界線が画像上に設定された直交座標の座標軸と平行となるまで回転を行うものとし、平行状態が検出されると、直線方程式算出手段によって回転角度と回転中心から境界線までの距離によって回転前の境界の直線方程式が算出される。その後、複数の境界線に囲まれる領域を直線方程式から決定することで、照射野の領域を判別することができる。また照射野エッジ部が曲線である場合には、境界点抽出手段で画像データに基づきたとえば1つの境界点を抽出し、この境界点の周辺の境界候補点群から次の境界点を抽出する。以下同様に、境界点の周辺の境界候補点群から境界点を順次抽出することにより、照射野エッジ部が曲線であっても判別することができる。
【0112】
(2)ROI認識処理:
照射野認識が行われると、画像処理部26では、放射線画像読取器からの画像データDTの分布を所望のレベルの分布に変換する際に、放射線画像読取器からの画像データDTのレベルの分布を決定するための領域(以下「関心領域」または「ROI(Region Of Interest)」という)の設定を行う。ここで設定されたROI内の画像データから代表値を決定し、この代表値を所望のレベルに変換することで、所望のレベルの分布となる画像データを得ることができる。
【0113】
たとえば、胸部正面処理における胸郭へのROIの設定は、以下の手順に従って設定される。まず以下のS1〜S3により左右のラインが決定される。
S1:画像データのうち全体に対して影響が低い画像上下部及び照射野外部を省いた部分の縦方向のプロジェクション(データの一方向の累積値)を求める(図15(a)、図15(b)参照)。
S2:求められた縦方向のプロジェクションから、中央部の1/3の範囲(図15では1/3*x〜2/3*x)で信号値が最小値(Pcとする)を持つ点を正中線のコラム(Xc)とする。
S3:左右それぞれ画像全体の1/3のコラム(図15では2/3*x、1/3*x)から画像の外側(左右方向)に向かって、求められた縦方向のプロジェクション値がしきい値(Tl,Tr)以下の点を探し、最初の点を肺野の左端・右端(Xl,Xr)とする。しきい値としては、前記Pcと画像全体の1/3のコラムからプロジェクション値の最大値(Plx,Prx)を画像の外側(左右方向)に向かって更新し、
Tl=((k1−1)*Plx+Pc)/k1
Tr=((k2−1)*Prx+Pc)/k2
とする。ここで、k1とk2とは定数である。
【0114】
次に、S4とS5によって上下のラインを決定する。
S4:上のステップで決定した区間での横方向のプロジェクションをとる(図15(c))。
S5:上下それぞれ画像全体の1/4,1/2のライン(図15中の1/4*y、1/2*y)から画像の外側(上下方向)に向かって、求められた横方向のプロジェクション値がしきい値以下の点を探し、最初の点を右肺野の上端・下端(Yt,Yb)とする。しきい値としては、それぞれ画像全体の
1/4*y〜1/2*y、1/2*y〜4/5*yの範囲のプロジェクション値の最大値(Ptx,Pbx)とその最大値のラインから画像の外側(上下方向)の範囲のプロジェクション値の最小値(Ptn、Pbn)を用いて、
Tt=((k3−1)*Ptx+Ptn)/k3
Tb=((k4−1)*Pbx+Pbn)/k4
とする。ここで、k3とk4とは定数である。
【0115】
また、以上の式でしきい値を求めるのに用いたパラメータk1〜k4は経験的に求められる。
なお、ROIの設定は、上述したようにプロファイルを解析して設定する場合に限られるものではなく、たとえば特開平5ー7578号で示されているように、各画素の画像データと判別分析法などにより決定したしきい値を比較して、比較結果に基づき識別符号を画素毎に付加するものとし、しきい値以上であることを示す識別符号の連続する画素群毎にラベリングを行って肺野領域を抽出し、抽出した肺野領域を基準として肺野および横隔膜下領域を含むようにROIを設定することができる。
【0116】
また、特開昭62−26047号で示されているように、境界点追跡法を用いた肺野輪郭検出により肺野領域を認識して、認識した肺野領域を基準に肺野および横隔膜下領域を含むようにROIを設定するものとしてもよい。
【0117】
さらに、診断を行う上で最も重要な部分を照射野の中央として撮影を行うことが一般的に行われていることから、照射野内領域の中央に円形あるいは矩形等の領域を設定してROIとすることもできる。
【0118】
(3)周波数処理およびダイナミックレンジ圧縮処理:
また、画像処理として、周波数処理(周波数強調処理)およびダイナミックレンジ圧縮処理を実行する。周波数強調処理では、正規化放射線画像の鮮鋭度を制御する周波数強調処理を行う。また、ダイナミックレンジ圧縮処理では、圧縮処理によって見やすい濃度範囲に収める制御を行う。
【0119】
周波数強調処理では、たとえば以下の式に示す非鮮鋭マスク処理によって鮮鋭度を制御するために、関数Fが特公昭62−62373号公報や特公昭62−62376号公報で示される方法によって定められる。
【0120】
Sout=Sorg+F(Sorg−Sus)
なお、Soutは処理後の画像データ、Sorgは周波数強調処理前の画像データであり、Susは周波数強調処理前の画像データを平均化処理等によって処理することにより求められた非鮮鋭データである。
【0121】
この周波数強調処理では、たとえばF(Sorg−Sus)がβ×(Sorg−Sus)とされて、β(強調係数)が図19に示すように基準値T1,T2間でほぼ線形に変化される。また図20の実線で示すように、値「A」,「B」を設定して、低輝度を強調する場合には基準値T1〜値「A」までのβが最大とされて、値「B」〜基準値T2まで最小とされる。また値「A」〜値「B」までは、βがほぼ線形に変化される。高輝度を強調する場合には破線で示すように、基準値T1〜値「A」までのβが最小とされて、値「B」〜基準値T2まで最大とされる。また値「A」〜値「B」までは、βがほぼ線形に変化される。なお、図示せずも中輝度を強調する場合には値「A」〜値「B」のβが最大とされる。このように周波数強調処理では、関数Fによって任意の輝度部分の鮮鋭度を制御することができる。
【0122】
また、周波数強調処理の方法は、上記非鮮鋭マスク処理に限られるものではなく、特開平9−44645号公報で示される多重解像度法などの手法を用いてもよい。なお、周波数強調処理では、強調する周波数帯域や強調の程度は、階調処理での基本階調曲線の選択等と同様に撮影部位や撮影体位、撮影条件、撮影方法等に基づいて設定される。
【0123】
ダイナミックレンジ圧縮処理では、以下の式に示す圧縮処理によって見やすい濃度範囲に収める制御を行うため、関数Gが特許公報266318号で示される方法によって定められる。
【0124】
Stb=Sorg+G(Sus)
なお、Stbは処理後の画像データ、Sorgはダイナミックレンジ圧縮処理前の画像データ、Susはダイナミックレンジ圧縮処理前の画像データを平均化処理等によって処理することにより求められた非鮮鋭データである。
【0125】
ここで、G(Sus)は図21(a)に示すように、非鮮鋭データSusがレベル「La」よりも小さくなるとG(Sus)が増加するような特性を有する場合、低濃度領域の濃度が高いものとされて、図21(b)に示す画像データSorgは図21(c)に示すように低濃度側のダイナミックレンジが圧縮された画像データStbとされる。また、G(Sus)は図21(d)に示すように、非鮮鋭データSusがレベル「Lb」よりも大きくなるとG(Sus)が減少するような特性を有する場合には、高濃度領域の濃度が低いものとされて、図21(b)に示す画像データSorgは図21(e)に示すように高濃度側のダイナミックレンジが圧縮される。なお、ダイナミックレンジ圧縮処理も、撮影部位や撮影体位、撮影条件、撮影方法等に基づいて補正周波数帯域や補正の程度が設定される。
【0126】
ここで、周波数強調処理やダイナミックレンジ圧縮処理での処理条件である基準値T1、T2および値「A」,「B」あるいはレベル「La」,「Lb」は、代表値D1,D2の決定方法と同様な方法で求められる。
【0127】
なお、この段階の周波数処理については、図1乃至図6によって既に説明した本発明の実施の形態例の手法を用いることも可能である。すなわち、複数のマスクを用いた演算処理を、画像データの全画素について画素毎に順次行うようにすることで、画像データすべての変換を行う際にも、画像データの大きさに等しいメモリを必要とせずに変換後の画像データを得ることが可能になる。したがって、作業用のメモリ容量の節約、演算時間の短縮といった効果が得られる。
【0128】
(4)階調処理:
始めに、ROI内の画像データの累積ヒストグラムから代表値D1,D2を設定する。代表値D1,D2は累積ヒストグラムが所定の割合m1,m2となる画像データのレベルとして設定される。
【0129】
代表値D1,D2が設定されると、予め設けられた正規化処理ルックアップテーブルを参照して、図16に示すように代表値D1,D2を所望の基準値S1,S2にレベル変換する正規化処理が行われる。ここで、特性曲線CCは、撮像パネル41に照射された放射線の放射線量に応じて出力される信号のレベルを示している。また、正規化処理ルックアップテーブルは、撮像パネル41の特性曲線CCを示す関数の逆関数を用いた演算によって生成されるものである。なお、正規化処理ルックアップテーブルを用いることなく演算処理によって正規化処理を行うものとしてもよいことは勿論である。
【0130】
この正規化処理によって、図17に示すように、放射線が所望の基準値S1〜S2の画像データを得ることができる線量R1〜R2よりも低い放射線量Ra〜Rbであっても、所望の基準値S1〜S2の画像データを得ることができるので、被写体の被曝量を軽減させることができ、同時に被写体の体型の差による信号分布のばらつきも補正することができる。
【0131】
次に、正規化処理によって得られた正規化画像データDTregを用いて階調処理が行われる。階調処理では、たとえば図18に示すような階調変換曲線が用いられて、正規化画像データDTregの基準値S1,S2をパラメータ値をレベルS1’,S2’として正規化画像データDTregが出力画像データDToutに変換される。このレベルS1’,S2’は、出力画像における所定の輝度または写真濃度と対応するものである。
【0132】
以上の階調変換曲線は、正規化画像データDTregの全信号領域にわたって連続な関数であることが好ましく、またその微分関数も連続であることが好ましい。また、全信号領域にわたって、その微分係数の符号が一定であることが好ましい。
【0133】
また、撮影部位や撮影体位、撮影条件、撮影方法等によって好ましい階調変換曲線の形状やレベルS1’,S2’が異なることから、階調変換曲線は画像毎にその都度作成してもよく、またたとえば特公平5ー26138号公報で示されているように、予め複数の基本階調変換曲線を記憶しておくものとし、いずれかの基本階調変換曲線を読み出して回転および平行移動することにより所望の階調変換曲線を容易に得ることができる。なお、画像処理部26では、複数の基本階調曲線に対応する階調処理ルックアップテーブルが設けられており、正規化画像データDTregに基づいて階調処理ルックアップテーブルを参照して得られた画像データを、基本階調変換曲線の回転および平行移動に応じて補正することで階調変換が行われた出力画像データDToutを得ることができる。なお、階調変換処理では、2つの基準値S1,S2を用いるだけでなく、1つの基準値や3つ以上の基準値を用いるものとしてもよい。
【0134】
ここで、基本階調曲線の選択や基本階調曲線の回転および平行移動は、撮影部位や撮影体位、撮影条件、撮影方法等に基づいて行われる。これらの情報が入力装置27を用いて管理情報として入力されている場合には、この管理情報を利用することで、容易に基本階調曲線を選択することができると共に基本階調曲線の回転方向および平行移動の移動量を決定することができる。また、撮影部位や撮影体位、撮影条件、撮影方法に基づいて基準値S1,S2のレベルを変更するものとしてもよい。
【0135】
さらに、基本階調曲線の選択や基本階調曲線の回転あるいは平行移動は、画像表示装置の種類や画像出力のための外部機器の種類に関する情報に基づいて行うものとしてもよい。これは、画像の出力方式に依存して、好ましい階調が異なる場合があるためである。
【0136】
<その他の実施の形態例>
なお、以上の(1)〜(4)における各処理は、放射線画像の全情報を用いて行う必要はなく、間引き処理により縮小した画像を用いることが望ましい。この場合にはデータ量が少なくなるので処理速度の向上およびメモリ容量等の節減を図ることができる。この場合、間引きによる縮小画像の実効画素サイズが0.4mm〜10.0mm、好ましくは1.0mm〜6.0mmとなるように間引きされた画像データを用いることが好ましい。
【0137】
また、以上の説明では、本実施の形態例の画像処理を放射線画像に適用する例で説明してきたが、放射線画像以外の各種画像にたいして本実施の形態例の画像処理を適用することが可能である。
【0138】
【発明の効果】
以上詳細に説明したように、本発明では、複数の画素からなる画像の画像データに対して画像処理を施す際に、注目画素の画素値およびその近傍画素の画素値と所定の関数との間の複数回の畳み込み演算に基づいた計算値により変換後の注目画素の値を決定するようにしている。これにより、画像データすべてに対して変換を行うことなく、容易に注目画素の変換後の信号値を得ることが可能な画像処理装置および画像処理方法を実現できる。また、画像データすべての変換を行う際にも、画像データの大きさに等しいメモリを必要とせずに変換後の画像データを得ることが可能な画像処理装置および画像処理方法を実現できる。
【0139】
すなわち、注目画素の変換後の値をマスクサイズを変更した重み付き平均値の値に基づいて得る場合の例では、注目画素に対して複数のサイズのマスクを使用して(重み付き)平均化処理を行い、近い大きさのマスクの平均値の差分値を得、この差分値に変換処理を施し、変換後の差分値を注目画素の画素値に加えることで、処理済信号値を得る。この様に、すべての処理を画素単位で行うことで、使用メモリの節約および処理速度の向上が可能となる。
【0140】
また、医用画像、さらに、放射線画像に適用することで、非常に病変を認識しやすい画像を提供できることになる。
【図面の簡単な説明】
【図1】本発明の放射線画像処理装置の画像処理手順を示す説明図である。
【図2】本発明の放射線画像処理装置の画像処理手順を示す説明図である。
【図3】本発明の放射線画像処理装置の画像処理手順を示すフローチャートである。
【図4】本発明の放射線画像処理装置の画像処理を示す説明図である。
【図5】本発明の放射線画像処理装置の画像処理を示す説明図である。
【図6】本発明の放射線画像処理装置の画像処理を示す説明図である。
【図7】本発明の放射線画像処理装置の画像処理手順を示す説明図である。
【図8】本実施の形態例の放射線画像処理装置の構成を示す構成図である。
【図9】本実施の形態例の放射線画像読取器の構成を示す構成図である。
【図10】本実施の形態例で使用する読み取り部を説明するための説明図である。
【図11】本実施の形態例で使用する読み取り部を説明するための説明図である。
【図12】本実施の形態例の他の放射線画像読取器を用いた構成を示す構成図である。
【図13】本実施の形態例のコントローラの構成を示す構成図である。
【図14】本実施の形態例の照射野認識処理を説明するための説明図である。
【図15】本実施の形態例におけるROIの認識を説明するための説明図である。
【図16】本実施の形態例におけるレベル変換を説明するための説明図である。
【図17】本実施の形態例における正規化処理を示す説明図である。
【図18】本実施の形態例における階調変換特性を示す説明図である。
【図19】本実施の形態例における強調係数と画像データの関係を示す説明図である。
【図20】本実施の形態例における強調係数と画像データの関係を示す説明図である。
【図21】本実施の形態例におけるダイナミックレンジ圧縮処理を説明するための説明図である。
【符号の説明】
10 コントローラ
26 画像処理部
30 放射線発生器
40,60 放射線画像読取器
41 撮像パネル
44 走査駆動部
46 画像データ生成回路
48 読取制御回路
61 変換パネル
62 光ビーム発生部
63 走査部
64 反射鏡
65 集光体
66 フィルタ
67 フォトマルチプライヤ
70 電流/電圧変換部
75 読取制御部
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing apparatus and an image processing method for processing various images, and more particularly to an image processing apparatus suitable for filtering processing using convolution calculation and an image processing method for performing such image processing.
[0002]
[Prior art]
Radiation images such as X-ray images are often used for disease diagnosis, etc. In order to obtain this X-ray image, X-rays transmitted through the subject are irradiated onto a phosphor layer (phosphor screen), thereby Conventionally, so-called radiographs, in which visible light is generated and developed by irradiating a film using a silver salt with the visible light in the same manner as ordinary photographs, have been used.
[0003]
However, in recent years, a method for taking out an image directly from a phosphor layer without using a film coated with silver salt has been devised. In this method, the radiation that has passed through the subject is absorbed by the phosphor, and then the phosphor is excited by light or thermal energy, for example, so that the radiation energy accumulated by the phosphor is absorbed as fluorescence. There is a method of obtaining image data by radiating and photoelectrically converting the fluorescence.
[0004]
Specifically, for example, US Pat. No. 3,859,527 and JP-A-55-12144 disclose a radiation image conversion method using a stimulable phosphor and using visible light or infrared light as stimulating light. This method uses a radiation image conversion panel in which a photostimulable phosphor layer is formed on a support. The radiation transmitted through the subject is applied to the photostimulable phosphor layer of the conversion panel, and the radiation of each part of the subject is detected. Radiation energy corresponding to the transmittance is accumulated to form a latent image, and then the stimulated layer is scanned with stimulated excitation light to radiate the accumulated radiation energy and convert it into light. This optical signal is photoelectrically converted to obtain radiation image data.
[0005]
The radiographic image data obtained in this way is displayed as it is or after being subjected to image processing and output to a silver salt film, a CRT or the like for visualization or filing in an electronic filing device. In the image processing, gradation processing is performed for the purpose of making the density of a region of interest (a region including an image portion necessary for diagnosis) in a reproduced image constant, and for outputting a shadow of a human body structure or lesion more easily. And image processing such as spatial frequency processing.
[0006]
In addition to radiation images, in various fields, various types of image processing are performed on image data and then images are reproduced or displayed in various fields. Then, by performing enhancement processing as the image data, the outline and the like are clarified.
[0007]
As such image processing, a non-sharp image in which only low frequency components of image data are extracted is created, and the image data in which high-frequency components are emphasized is obtained by subtracting this non-sharp image from the image data of the original image. It has been known.
[0008]
In addition, the image data of the original image is converted into a frequency component such as Fourier transform, and after emphasizing a predetermined frequency in the frequency component, inverse conversion is performed to obtain image data with desired enhancement. Are known.
[0009]
Further, by converting the image into a multi-resolution space, the image is decomposed into a plurality of frequency bands, and an enhancement process is performed on at least one of the frequency band images decomposed into a plurality of frequencies, Image processing that obtains processed image data by inversely transforming an image in a frequency band that has been subjected to enhancement processing and an image in another frequency band is also known.
[0010]
As an image processing technique effective for enhancing a desired frequency band, an image processing technique using a Laplacian pyramid method has been proposed as described in JP-A-6-301766. It was.
[0011]
[Problems to be solved by the invention]
However, in the case of the above Laplacian pyramid processing, in order to obtain an output signal, the entire image or the entire image that has already been filtered is filtered, and an operation based on the processed image data is performed. To obtain output image data.
[0012]
For this reason, even when an output pixel value for one pixel of interest is obtained, it is necessary to process all the signals of the entire image, and much processing time and memory are required.
[0013]
In addition, since one calculation performs filter processing with the same function on the entire image data, it is difficult to perform processing depending on the area in the image (processing only for a specific area).
[0014]
The present invention has been made in view of the above problems, and an image processing apparatus capable of easily obtaining a converted signal value of a target pixel without performing conversion on all image data, and It is to realize an image processing method.
[0015]
Further, the present invention has been made in view of the above problems, and when converting all the image data, the converted image data is not required to have a memory equal to the size of the image data. An image processing apparatus and an image processing method that can be obtained are realized.
[0016]
[Means for Solving the Problems]
In the present invention, when image processing is performed on image data of an image composed of a plurality of pixels, the pixel value of the pixel of interest in the original image and the pixel values of neighboring pixels and a predetermined function between the pixel value The value of the pixel of interest after conversion is determined by the calculated value based on the convolution operation. Thereby, it is possible to realize an image processing apparatus and an image processing method capable of easily obtaining the converted signal value of the target pixel without performing conversion on all the image data. In addition, an image processing apparatus and an image processing method that can obtain converted image data without requiring a memory equal to the size of the image data when converting all the image data can be realized.
[0017]
That is, in the case where the converted value of the target pixel is obtained based on the weighted average value obtained by changing the mask size, the target pixel is averaged (weighted) using a plurality of size masks. Processing, obtaining the difference value of the average values of masks of close sizes in adjacent ranges, performing conversion processing on this difference value, and adding the converted difference value to the pixel value of the target pixel, thereby processing the processed signal value Get. In this way, by performing all processing in units of pixels, it is possible to save the memory used and improve the processing speed.
[0018]
Specifically, it is as described below.
The invention according to claim 1 is an image processing apparatus comprising image processing means for performing image processing on image data of a medical image composed of a plurality of pixels photographed by radiation irradiation, wherein the image processing means , The pixel value of the pixel of interest and the pixel values of its neighboring pixels about A given function by The value of the pixel of interest after conversion is determined by a calculated value based on a plurality of convolution operations, and the predetermined function used for the plurality of convolution operations is The average value calculation ranges are different from each other, and a plurality of functions for obtaining weighted average values by Gaussian distribution or uniform distribution in the average value calculation range. An image processing apparatus characterized by that.
[0024]
Claim 2 In the described invention, the image processing means is , Pixel image of interest Elementary The average value calculation range is adjacent to the value function By adding the converted value obtained by converting the difference value of the calculated value of the convolution operation based on the predetermined conversion The value of the target pixel after conversion Claims obtained 1 The image processing apparatus described in the above.
[0025]
Claim 3 In the described invention, the image processing means is , Widest average value calculation range function The average value calculation range is adjacent to the average value obtained by function By adding the converted value obtained by converting the difference value of the calculated value of the convolution operation based on the predetermined conversion The value of the target pixel after conversion Claims obtained 1 The image processing apparatus described in the above.
[0026]
Claim 4 The present invention is characterized in that the predetermined conversion for the difference value is given by a function that is nonlinear with respect to the input value. 2 Or claims 3 The image processing apparatus according to any one of the above.
[0027]
Claim 5 The invention described in claim 1 is characterized in that the non-linear function has at least a part where the absolute value of the output value is smaller than the absolute value of the input value. 4 It is an image processing apparatus of description.
[0028]
Claim 6 The invention described in claim 1, wherein the non-linear function varies depending on an average value calculation range in which a difference is obtained. 4 Or claims 5 The image processing apparatus according to any one of the above.
[0029]
Claim 7 The invention described in claim 1 is characterized in that the non-linear function takes a smaller output value near the input value 0 as the average value calculation range obtained by calculating the difference is wider. 4 To claims 6 The image processing apparatus according to any one of the above.
[0030]
Claim 8 In the described invention, the image processing means performs a calculation based on a plurality of convolution operations of the target pixel and its neighboring pixels and a predetermined function, and has a sufficient memory area to store the value, The converted values for a plurality of pixels of interest are determined by repeatedly using the region. 7 The image processing apparatus according to any one of the above.
[0032]
Claim 9 The invention described in claim 1, wherein the predetermined function used for the plurality of convolution operations is different depending on image data. 8 The image processing apparatus according to any one of the above.
[0033]
Claim 1 0 The described invention is an image processing method for performing image processing on image data of a medical image composed of a plurality of pixels photographed by radiation irradiation, wherein the pixel value of a target pixel and the pixel values of its neighboring pixels A plurality of average value calculation ranges are different from each other, and a weighted average value by a Gaussian distribution or uniform distribution in the average value calculation range Functions by The value of the target pixel after conversion is determined by the calculated value based on multiple convolution operations. , An image processing method characterized by this.
[0035]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. First, image processing for each pixel using a plurality of masks, which is a characteristic part of the embodiment of the present invention, will be described, and then the entire radiation image processing apparatus to which the image processing of the present embodiment is applied. The configuration will be described, and then the overall operation of the radiation image processing apparatus will be described.
[0036]
<Details of image processing>
FIG. 1 is an explanatory view schematically showing image processing using a mask according to an embodiment of the present invention. FIG. 2 is a schematic diagram showing the state of the mask and the image data. Note that the image processing described below is performed by an image processing unit of an apparatus described later.
[0037]
That is, the present invention relates to various image processing (contour emphasis by frequency processing, etc.) performed on image data before reproducing or displaying the obtained image data in the field of various images such as radiographic images.
[0038]
In FIG. 1 and FIG. 2, mask A (A pixel × A pixel), mask B (B pixel × B pixel), mask C (C pixel × C pixel) are used as masks of different sizes with respect to the target pixel a. A mask D (D pixel × D pixel) is arranged.
[0039]
These masks A to D are functions having a plurality of shapes used for a plurality of convolution operations for the same target pixel, and are configured by a function family having different average value calculation ranges in a distribution for obtaining a weighted average value. It is a thing. The distribution is a Gaussian distribution or a uniform distribution.
[0040]
First, in the image data in FIG. 2, for example, the upper left end pixel is selected as the target pixel (S1 in FIG. 3). Then, using a plurality of masks having different sizes (here, mask A to mask D), a calculated value (weighted average value) by each mask is obtained (S2 in FIG. 3). Specifically, calculation of a non-sharp image using a Gaussian mask is performed for each pixel using each mask.
[0041]
Then, the difference between the calculated values of the masks having the closest sizes is obtained (S3 in FIG. 3). In the case of FIG. 1, the difference d_AB between the calculated value of the mask A and the calculated value of the mask B, the difference d_BC between the calculated value of the mask B and the calculated value of the mask C, the calculated value of the mask C and the calculated value of the mask D The difference d_CD is obtained.
[0042]
Next, predetermined conversion is performed on each difference (S4 in FIG. 3). As the predetermined transformation, for example, a nonlinear transformation given by a nonlinear function with respect to an input value as shown in FIG. 4 is applicable.
[0043]
The difference d_AB is subjected to nonlinear transformation to generate a nonlinear difference d′ _AB, the difference d_BC is nonlinearly transformed to generate a nonlinear difference d′ _BC, and the difference d_CD is subjected to nonlinear transformation to obtain a nonlinear difference d′ _CD. Generate. This nonlinear function has at least a part where the absolute value of the output value is smaller than the absolute value of the input value. The nonlinear function varies depending on the average value calculation range for which the difference is obtained. The non-linear function takes a smaller output value near the input value 0 as the average value calculation range for which the difference is obtained is wider (the mask is larger) (see FIG. 4).
[0044]
In the above case, when there is a sudden change in the pixel value in the original image, the difference value (d_AB,...) Of the above calculation also takes a very large value, and the magnitude of the value is generally The difference value obtained from a large mask size has a characteristic that it is large. If these values are added to the target pixel without conversion, a very large change in the pixel value occurs compared to the original pixel, causing artifacts. Therefore, by using a conversion function as shown in FIG. 4, the pixel value is more strongly suppressed as the value obtained from the difference in mask size becomes larger, and the artifact can be eliminated.
[0045]
Then, each of the above nonlinear transformation differences is added. This addition result corresponds to the high-frequency component Sh for the pixel a. This high frequency component Sh is emphasized by a predetermined coefficient β to obtain βSh (FIG. 3 S6). As the predetermined coefficient β, as shown in FIG. 5, the emphasis above a predetermined signal value is made stronger than the predetermined signal value, thereby suppressing the emphasis degree of a low-concentration region where noise is conspicuous and high. It is desirable because sufficient emphasis in the density part can be achieved.
[0046]
Further, it is desirable that the coefficient β has a shape as shown in FIG. That is, it changes almost linearly between the reference values T1, T2. As shown by the solid lines in FIG. 20, when values “A” and “B” are set and low luminance is emphasized, β from the reference value T1 to the value “A” is maximized, and the value “ B "to the reference value T2 is minimized. In addition, from the value “A” to the value “B”, β changes almost linearly. When emphasizing high luminance, as shown by a broken line, β from the reference value T1 to the value “A” is minimized and maximized from the value “B” to the reference value T2. In addition, from the value “A” to the value “B”, β changes almost linearly. Although not shown, when medium luminance is emphasized, β of values “A” to “B” is maximized. By doing in this way, the emphasis degree of arbitrary luminance parts can be controlled.
[0047]
The enhanced high-frequency component βSh obtained as described above is added to the original pixel a to obtain a processed pixel a + βSh (S7 in FIG. 3). In this way, with respect to the pixel a, a processed pixel a + βSh is obtained by calculation using a plurality of masks, addition, and subtraction. That is, in this embodiment, it is possible to obtain the converted signal value of the pixel of interest without converting all the image data.
[0048]
The calculation related to the pixels as described above is sequentially performed for each pixel with respect to all pixels of the image data or all pixels in a desired region (NO in step S8 in FIG. 3 → S1 to S7), thereby converting all the image data. Also when performing the above, it is possible to obtain the converted image data without requiring a memory equal to the size of the image data. Therefore, effects such as saving of working memory capacity and shortening of calculation time can be obtained.
[0049]
In the above description, the image processing using the four masks having different sizes of the mask A to the mask D has been described. However, more masks can be used. Note that the number of masks having different sizes can be further increased. In order to sufficiently emphasize other regions without causing artifacts even for very large signal changes, it is desirable to suppress the difference obtained from a relatively large mask size, and at least four masks. It is desirable to perform processing according to size.
[0050]
In addition, since the image processing of this embodiment can be performed for each pixel, it is also suitable for processing only a specific area in the image data, and the entire conventional image data is processed. Compared with the one to be performed, the effect of shortening the calculation time is remarkably obtained.
[0051]
In addition, since the image processing of this embodiment can be performed for each pixel, it is also suitable for usage in which the processing content is changed for each of several areas in the image data.
[0052]
For example, by obtaining an appropriate threshold value by using a known discriminant analysis method for the image of the foot side as shown in FIG. 6 (a), the bone portion (FIG. 6 (c)) and other regions (soft tissue) : Disassemble into FIG. 6 (b)).
[0053]
For each image thus decomposed, the above-described image processing is performed using only a plurality of masks having a relatively small mask size only on the bone portion (FIG. 6C), and other portions such as soft tissue. For (FIG. 6B), the above-described image processing is performed using a plurality of masks having a relatively large mask size. In this way, processing depending on the characteristics of the region is possible, and frequency processing using a plurality of masks and frequency characteristics can be different between the soft region and the bone region. Here, there are two areas, but it is also possible to perform image processing by changing the mask size into more areas.
[0054]
By changing the mask size according to the region in this way, the bone portion processed with a relatively small mask size is emphasized with a relatively high frequency component in the image, and only minute components such as trabeculae are sharp. Thus, in the soft part region processed with a relatively large mask size, relatively low frequency components in the image such as muscle and adipose tissue are emphasized, and large components such as muscle and adipose tissue become clear.
[0055]
It is also possible to execute different image processing by changing the mask size in accordance with the type of image.
<Overall configuration of radiation image processing apparatus>
FIG. 8 is a system configuration diagram showing an overall configuration of a radiation image processing apparatus to which the image processing of the present embodiment is applied. The radiation generator 30 is controlled by the controller 10, and the radiation emitted from the radiation generator 30 is applied to the imaging panel mounted on the front surface of the radiation image reader 40 through the subject 5.
[0056]
FIG. 9 shows a configuration of a radiation image reader 40 using an FPD (Flat Panel Display). The imaging panel 41 has a substrate having a thickness sufficient to obtain a predetermined rigidity, and a detection element 412-(1,1) that outputs an electrical signal on the substrate according to the dose of irradiated radiation. ) To 412- (m, n) are two-dimensionally arranged in a matrix. Further, the scanning lines 415-1 to 415-m and the signal lines 416-1 to 416-n are disposed so as to be orthogonal, for example.
[0057]
The scanning lines 415-1 to 415-m of the imaging panel 41 are connected to the scanning driving unit 44. When the readout signal RS is supplied from the scan driver 44 to one of the scanning lines 415-1 to 415-m (p is any value of 1 to m), the scanning line 415 is supplied. Electric signals SV-1 to SV-n corresponding to the radiation dose irradiated from the detection element connected to -p are output to the image data generation circuit 46 via the signal lines 416-1 to 416-n. Supplied.
[0058]
This detection element 412 may be any element that outputs an electrical signal corresponding to the dose of irradiated radiation. For example, when a detection element is formed using a photoconductive layer in which electron-hole pairs are generated and change in resistance when irradiated with radiation, the detection element is in accordance with the amount of radiation generated in the photoconductive layer. A quantity of charge is stored in the charge storage capacitor, and the charge stored in the charge storage capacitor is supplied to the image data generation circuit 46 as an electrical signal. It is desirable that the photoconductive layer has a high dark resistance value, such as amorphous selenium, lead oxide, cadmium sulfide, mercuric iodide, or an organic material exhibiting photoconductivity (photoconductivity to which an X-ray absorption compound is added. In particular, amorphous selenium is desirable.
[0059]
When the detection element 412 is formed using, for example, a scintillator that generates fluorescence when irradiated with radiation, an image signal is generated by generating an electrical signal based on the fluorescence intensity generated by the scintillator with a photodiode. The circuit 46 may be supplied.
[0060]
As the imaging panel 41 using such a configuration, as disclosed in JP-A-9-90048, X-rays are absorbed by a phosphor layer such as an intensifying screen to generate fluorescence, and the intensity of the fluorescence. Is detected by a photodetector such as a photodiode provided for each pixel. As another fluorescence detecting means, there is a method using a CCD or a C-MOS sensor.
[0061]
In particular, in the imaging panel (FPD) of the method disclosed in the above Japanese Patent Laid-Open No. 6-342098, since the X-ray dose is directly converted into the charge amount for each pixel, the sharpness degradation in the FPD is small and the sharpness is excellent. Since an image is obtained, the effects of the X-ray image recording system and the X-ray image recording method are great and preferable.
[0062]
Furthermore, the imaging panel 41 can be configured as shown in FIGS. FIG. 10 is a front view of a radiographic image detector that can be used as the imaging panel 41, and shows an example in which the radiographic image detector is composed of a plurality of units. The dotted line in FIG. 10 is a line of the grid 50 of the radiation image detector, but is actually hidden from the protective member and the X-ray scintillator and cannot be seen from the front. FIG. 10 shows an example of 6 × 6 = 36 units, but the number is not limited to this.
[0063]
FIG. 11 is a schematic diagram of a longitudinal section of the radiation image detector. The radiation image detector is configured by arranging an X-ray scintillator 51, a lens array 52, and area sensors 54 corresponding to the lenses 53 of the lens array 52 in this order. The X-ray scintillator 51 is protected by a protection member 55. Each lens 53 of the lens array 52 is supported by a lens support member 58, and a transparent member 56 is disposed between the X-ray scintillator 51 and the lens array 52. The area sensor 54 is supported by an area sensor support member 57.
[0064]
The shape, thickness, ray path, etc. of the components of the radiation image detector are not accurate. The grid 50 does not directly touch the X-ray scintillator 51 but abuts against the transparent member 56, thereby preventing the grid 50 from hitting the X-ray scintillator 51 and scratching it, and the boundary line of the grid 50 to Prevents missing parts.
[0065]
Since the area sensors 54 corresponding to the respective lenses 53 of the lens array 52 are arranged in this order, the spatial resolution is high, the image quality is high, the thickness is small, the size is small, and the weight is light.
[0066]
The X-ray scintillator 51 emits visible light upon exposure to X-rays such as gadolinium oxysulfide and cesium iodide, and the X-ray scintillator 51 emits visible light upon exposure to X-rays, resulting in high spatial resolution and high image quality. is there.
[0067]
The lens array 52 is formed from a lens group composed of a combination of two or more different lenses 53, has high spatial resolution, high image quality, and can be made thin. If the imaging magnification of the lens 53 is from 1 / 1.5 to 1/20, and the imaging magnification is greater than 1 / 1.5, the area sensor becomes too large to be disposed, and if it is less than 1/20, X The distance from the line scintillator 51 to the lens increases, and the thickness of the radiation image detector increases.
[0068]
A clear image can be obtained by using a solid-state imaging device such as a CCD or C-MOS sensor as the area sensor 54.
The image data generation circuit 46 sequentially selects the electrical signal SV supplied based on an output control signal SC from a read control circuit 48 described later, and converts it into digital image data DT. The image data DT is supplied to the reading control circuit 48.
[0069]
The reading control circuit 48 is connected to the controller 10 and generates a scanning control signal RC and an output control signal SC based on the control signal CTD supplied from the controller 10. The scanning control signal RC is supplied to the scanning drive unit 44, and the readout signal RS is supplied to the scanning lines 415-1 to 415-m based on the scanning control signal RC.
[0070]
The output control signal SC is supplied to the image data generation circuit 46. For example, when the imaging panel 41 is configured by (m × n) detection elements 412 as described above by the scanning control signal RC and the output control signal SC from the reading control circuit 48, the detection element 412− Assuming that data based on the electric signal SV from (1,1) to 412- (m, n) is data DP (1,1) to DP (m, n), data DP (1,1), DP (1 , 2),... DP (1, n), DP (2,1),..., DP (m, n) in this order, and the image data DT is generated by the image data generation circuit 46. To the reading control circuit 48. Further, the reading control circuit 48 also performs processing for sending the image data DT to the controller 10.
[0071]
Image data DT obtained by the radiation image reader 40 is supplied to the controller 10 via the reading control circuit 48. If the image data obtained by logarithmic conversion processing is supplied when the image data obtained by the radiation image reader 40 is supplied to the controller 10, the processing of the image data in the controller 10 can be simplified.
[0072]
Further, the radiation image reader is not limited to the one using FPD, and may be one using a stimulable phosphor. FIG. 12 shows a configuration when a radiation image reader 60 using a stimulable phosphor is used. In the conversion panel 61 irradiated with radiation, a stimulable phosphor layer is stimulated on the support. It is provided by vapor deposition of photosensitive phosphor or application of stimulable phosphor coating. This photostimulable phosphor layer is shielded or covered with a protective member in order to block adverse effects and damages caused by the environment.
[0073]
A light beam generating unit (gas laser, solid state laser, semiconductor laser, etc.) 62 generates a light beam whose emission intensity is controlled. This light beam reaches the scanning unit 63 via various optical systems, is deflected by the scanning unit 63, further deflects the optical path by the reflecting mirror 64, and is guided to the conversion panel 61 as the excitation excitation scanning light. .
[0074]
A condensing end made of an optical fiber or a sheet-like light guide member of the condensing body 65 is disposed in the vicinity of the conversion panel 61 where the excitation light is scanned, and scanning of the light beam from the light beam generating unit 62 is performed. Thus, the stimulated light emission having the light emission intensity proportional to the latent image energy generated in the conversion panel 61 is received.
[0075]
The filter 66 passes only light in the stimulated emission wavelength region from the light introduced from the light collector 65, and the light that has passed through the filter 66 is incident on the photomultiplier 67.
[0076]
The photomultiplier 67 generates a current signal corresponding to incident light by photoelectric conversion. This current signal is supplied to the current / voltage conversion unit 70 and converted into a voltage signal. Further, the voltage signal is amplified by the amplifying unit 71 and then converted to digital image data DT by the A / D converting unit 72. Here, a logarithmic conversion amplification unit (log amplifier) is used as the amplification unit 71. The image data DT is sequentially subjected to image processing in the image processing apparatus 80, and the image data DTC after image processing is transmitted to the printer 83 via the interface 82.
[0077]
A CPU (Central Processing Unit) 81 is for controlling image processing in the image processing device 80. In the image processing device 80, various image processing (for example, spatial frequency processing, dynamic range processing) is performed on the image data DT. Compression, gradation processing, enlargement / reduction processing, movement, rotation, statistical processing, etc.) to generate image data DTC in a form suitable for diagnosis.
[0078]
This image data DTC is supplied to the printer 83, and a hard copy of the radiation image of each part of the human body can be obtained from the printer 83. A monitor such as a CRT may be connected to the interface 82, and a storage device (filing system) that can store image data of a plurality of radiation images may be connected.
[0079]
The read controller 75 also adjusts the light beam intensity of the light beam generator 62, adjusts the gain of the photomultiplier 67 by adjusting the power supply voltage of the high voltage power supply 76 for the photomultiplier, and adjusts the current / voltage converter 70 and the amplifier 71. Gain adjustment and adjustment of the input dynamic range of the A / D converter 72 are performed, and the reading gain is adjusted comprehensively.
[0080]
The image data DT obtained from the A / D conversion unit 72 is supplied to the controller 10 and controls the operation of the reading control unit 75 by a control signal CTD from the controller 10.
[0081]
The radiation image reader may irradiate light from a light source such as a laser or a fluorescent lamp onto a silver salt film on which a radiation image is recorded, and photoelectrically convert the transmitted light of the silver salt film to generate image data. Good. Moreover, the structure which converts radiation energy directly into an electrical signal using a radiation quantum counting type detector, and produces | generates image data may be sufficient.
[0082]
Next, the configuration of the controller 10 is shown in FIG. The CPU 11 for controlling the operation of the controller 10 is connected to the system bus 12 and the image bus 13 and to the input interface 17. The operation of the CPU 11 for controlling the operation of the controller 10 is controlled based on a control program stored in the memory 14.
[0083]
A display control unit 15, a frame memory control unit 16, an output interface 18, a shooting control unit 19, a disk control unit 20, and the like are connected to the system bus 12 and the image bus 13. Is controlled, and image data is transferred between the units via the image bus 13.
[0084]
A frame memory 21 is connected to the frame memory control unit 16, and image data obtained by the radiation image reader 40 is stored via the imaging control unit 19 and the frame memory control unit 16. The image data stored in the frame memory 21 is read and supplied to the display control unit 15 and the disk control unit 20. The frame memory 21 may store the image data supplied from the radiation image reader 40 after being processed by the CPU 11.
[0085]
An image display device 22 is connected to the display control unit 15, and a radiographic image based on the image data supplied to the display control unit 15 is displayed on the screen of the image display device 22. Here, when the number of display pixels of the image display device 22 is smaller than the number of pixels of the radiation image reader 40, the entire captured image can be displayed on the screen by reading out the image data. Further, if image data in a region corresponding to the number of display pixels of the image display device 22 is read, a captured image at a desired position can be displayed in detail.
[0086]
When image data is supplied from the frame memory 21 to the disk control unit 20, for example, the image data is continuously read out and written into the FIFO memory in the disk control unit 20, and then sequentially recorded in the disk device 23. The
[0087]
Further, the image data read from the frame memory 21 and the image data read from the disk device 23 can be supplied to the external device 100 via the output interface 18.
[0088]
In the image processing unit 26, irradiation field recognition processing, region of interest setting, normalization processing, gradation processing, and the like of the image data DT supplied from the radiation image reader 40 via the imaging control unit 19 are performed. Further, frequency enhancement processing, dynamic range compression processing, or the like may be performed. In addition, image processing etc. can also be performed as the structure which CPU11 serves as the image processing part 26. FIG.
[0089]
Therefore, the image processing unit 26 constitutes image processing means for executing image processing using the convolution operation in the claims.
An input device 27 such as a keyboard is connected to the input interface 17. By operating the input device 27, management information such as information for identifying image data obtained by photographing and information relating to photographing is input.
[0090]
As the external device 100 connected to the output interface 18, a scanning laser exposure apparatus called a laser imager is used. In this scanning laser exposure apparatus, the intensity of a laser beam is modulated by image data, and after exposure to a conventional silver halide photographic light-sensitive material or thermal phenomenon silver halide photographic light-sensitive material, an appropriate development process is performed, thereby performing radiographic image processing. A hard copy can be obtained.
[0091]
Although the image data supplied from the radiation image reader 40 is stored in the frame memory 21, the supplied image data may be stored after being processed by the CPU 11. The disk device 23 stores image data stored in the frame memory 21, that is, image data supplied from the radiation image reader 40 and image data obtained by processing the image data by the CPU 11 together with management information. be able to.
[0092]
<Operation of radiation image processing apparatus>
Next, the operation of the above radiation image processing apparatus will be described. When obtaining a radiographic image of the subject 5, the subject 5 is assumed to be positioned between the radiation generator 30 and the imaging panel 41 of the radiographic image reader 40, and the radiation emitted from the radiation generator 30 is the subject 5. And the radiation that has passed through the subject 5 enters the imaging panel 41. The same applies to the case where the radiation image reader 60 is used instead of the radiation image reader 40. In the following description, the radiation image reader 40 is used, and the description when the radiation image reader 60 is used is omitted. To do.
[0093]
Management information indicating identification of the subject 5 to be photographed and information relating to photographing is input to the controller 10 using the input device 27. Input of management information using the input device 27 is performed by operating a keyboard, using a magnetic card, a bar code, HIS (in-hospital information system: network-based information management), or the like.
[0094]
This management information includes, for example, an ID number, name, date of birth, sex, imaging date and time, imaging site and imaging position (for example, which part of the human body was irradiated with radiation from which direction), imaging method (simple imaging, contrast imaging) Imaging, tomographic imaging, magnified imaging, etc.), imaging conditions (tube voltage, tube current, irradiation time, presence / absence of use of scattered radiation removal grid, etc.).
[0095]
The shooting date and time can be automatically obtained from the CPU 11 by using a clock function built in the CPU 11. It should be noted that the management information to be input may be only related to the subject to be photographed at that time. A series of management information is input in advance, and the subjects are photographed in the order of input, or the management that has been input as necessary. Information may be read and used.
[0096]
When the power switch of the radiation image reader 40 is turned on, the imaging panel 41 is initialized by the reading control circuit 48 and the scanning drive unit 44 of the radiation image reader 40 based on the control signal CTD from the controller 10. Is called. This initialization is for obtaining a correct electrical signal corresponding to the radiation dose emitted from the imaging panel 41.
[0097]
When the initialization of the imaging panel 41 in the radiation image reader 40 is completed, the radiation from the radiation generator 30 can be irradiated. Here, when a switch for irradiating radiation is provided in the radiation generator 30, when this switch is operated, radiation is emitted from the radiation generator 30 toward the subject 5 for a predetermined time, and A signal DFS indicating the start of radiation irradiation and a signal DFE indicating the end of irradiation are supplied to the controller 10.
[0098]
At this time, the radiation amount of the radiation applied to the imaging panel 41 of the radiation image reader 40 is modulated by the subject 5 because the degree of radiation absorption by the subject 5 is different. In the detection elements 412-(1,1) to 412-(m, n) of the imaging panel 41, an electrical signal based on the radiation modulated by the subject 5 is generated.
[0099]
Next, in the controller 10, a predetermined time after the signal DFS is supplied, for example, when the irradiation time of the radiation is about 0.1 seconds, a time longer than this irradiation time (for example, about 1 second), or Immediately after the signal DFE is supplied, the control signal CTD is supplied to the reading control circuit 48 of the radiation image reader 40 in order to start generation of the image data DT by the radiation image reader 40.
[0100]
On the other hand, when a switch for irradiating radiation is provided in the controller 10, when this switch is operated, an irradiation start signal CST for starting irradiation of radiation is transmitted via the imaging control unit 19 to the radiation generator. 30, radiation is emitted from the radiation generator 30 toward the subject 5 for a predetermined time. This irradiation time is set based on management information, for example.
[0101]
Next, in the controller 10, a predetermined time after outputting the irradiation start signal CST, a control signal CTD for starting generation of image data by the radiation image reader 40 is sent to the reading control circuit 48 of the radiation image reader 40. Supply. The controller 10 supplies the radiographic image reader 40 with a control signal CTD for starting generation of image data by the radiographic image reader 40 after detecting the end of radiation irradiation by the radiation generator 30. It is good. In this case, generation of image data during radiation irradiation can be prevented.
[0102]
In the reading control circuit 48 of the radiation image reader 40, the scanning control signal RC and the output control signal SC are generated based on the control signal CTD for starting the generation of the image data supplied from the controller 10. The scanning control signal RC is supplied to the scanning drive unit 44 and the output control signal SC is supplied to the image data generation circuit 46, and the image data DT obtained from the image data generation circuit 46 is supplied to the reading control circuit 48. The The image data DT is sent to the controller 10 by the reading control circuit 48.
[0103]
The image data DT supplied to the controller 10 is stored in the frame memory 21 via the imaging control unit 19, the frame memory control unit 16, and the like. A radiographic image can be displayed on the image display device 22 by using the image data stored in the frame memory 21. Further, the image data stored in the frame memory 21 is processed by the image processing unit 26 and supplied to the display control unit 15, or the image data subjected to the image processing is stored in the frame memory 21, and the frame memory 21 By supplying the stored image data to the display control unit 15, the brightness, contrast, sharpness, and the like are adjusted, and a radiation image suitable for diagnosis or the like can be displayed. In addition, by supplying image data that has undergone image processing to the external device 100, a hard copy of a radiation image suitable for diagnosis or the like can be obtained.
[0104]
In the image processing unit 26, even if the level distribution of the image data output from the imaging panel 41 varies due to the difference in radiation dose, the normalization of the image data DT is always performed so that a stable radiation image can be obtained. Processing is performed. Even if the distribution of the level of the image data fluctuates, gradation processing is performed on the normalized image data DTreg, which is image data after normalization processing, in order to obtain a density and contrast radiation image suitable for diagnosis and the like. Done. Further, the image processing unit 26 reduces the contrast of the fine structure portion of the subject in the frequency enhancement processing for controlling the sharpness of the normalized radiation image with respect to the normalized image data DTreg and the entire radiation image having a wide dynamic range. It is also possible to perform a dynamic range compression process so that the density is within the easy-to-see density range.
[0105]
<Contents of image processing>
In the radiographic image processing apparatus according to the present embodiment, irradiation field recognition processing and ROI recognition are performed prior to the above normalization processing, gradation processing, and dynamic range compression processing. That is, the image processing procedure of the present embodiment is as shown in FIG.
[0106]
As shown in FIG. 7, the processing procedure of this embodiment is as follows.
・ Irradiation field recognition processing,
・ ROI recognition processing,
-Frequency processing or image processing for each pixel using multiple masks of different sizes,
・ Dynamic range compression processing,
・ Tone processing,
It is like this. Hereinafter, the processing procedure of the present embodiment will be described in this order.
[0107]
(1) Irradiation field recognition processing:
By the way, when taking a radiographic image, for example, in order to prevent radiation from being applied to a portion not required for diagnosis, or to a portion not required for diagnosis, radiation scattered in this portion is used for diagnosis. In order to prevent the resolution from being reduced by being incident on a required portion, a radiation non-transparent material such as a lead plate is installed in a part of the subject 5 or the radiation generator 30 so that the radiation field to the subject 5 is irradiated. Irradiation field restriction is performed to limit the above.
[0108]
When this irradiation field stop is performed, if level conversion processing and subsequent gradation processing are performed using the image data of the irradiation field area and the irradiation field area, the image data in the irradiation field is determined by the image data of the irradiation field area. Image processing of a part required for diagnosis is not performed properly. For this reason, the image processing unit 26 performs irradiation field recognition processing for determining the irradiation field inner region and the irradiation field outer region.
[0109]
In the irradiation field recognition processing, for example, a method disclosed in Japanese Patent Application Laid-Open No. 63-259538 is used, and a line from a predetermined position P on the imaging surface toward the end side of the imaging surface as shown in FIG. For example, differentiation processing is performed using the above image data. As shown in FIG. 14B, the differential signal Sd obtained by this differentiation process has a signal level that is high at the irradiation field edge portion. Therefore, the signal level of the differential signal Sd is determined to determine one irradiation field edge candidate point. EP1 is required. A plurality of irradiation field edge candidate points EP1 to EPk are obtained by performing the process of obtaining the irradiation field edge candidate points radially about a predetermined position on the imaging surface. An irradiation field edge portion is obtained by connecting adjacent edge candidate points of the plurality of irradiation field edge candidate points EP1 to EPk obtained in this way with straight lines or curves.
[0110]
Moreover, the method shown by Unexamined-Japanese-Patent No. 5-7579 can also be used. In this method, when the imaging surface is divided into a plurality of small areas, the radiation dose of the radiation is reduced substantially uniformly in the small areas outside the irradiation field where radiation irradiation is blocked by the irradiation field stop. Becomes smaller. In addition, in a small region within the irradiation field, the radiation value is modulated by the subject, so that the dispersion value is higher than that outside the irradiation field. Further, in a small region including the irradiation field edge portion, the portion with the smallest radiation dose and the portion with the radiation dose modulated by the subject coexist, so the dispersion value is the highest. From this, the small area including the irradiation field edge portion is determined by the dispersion value.
[0111]
Moreover, the method shown by Unexamined-Japanese-Patent No. 7-181609 can also be used. In this method, image data is rotated about a predetermined center of rotation, and rotation is performed until the boundary line of the irradiation field becomes parallel to the coordinate axis of the orthogonal coordinates set on the image by the parallel state detection means. When the state is detected, the linear equation of the boundary before rotation is calculated by the linear equation calculation means based on the rotation angle and the distance from the rotation center to the boundary line. Thereafter, by determining a region surrounded by a plurality of boundary lines from a linear equation, the region of the irradiation field can be determined. When the irradiation field edge portion is a curve, for example, one boundary point is extracted based on the image data by the boundary point extracting means, and the next boundary point is extracted from the boundary candidate point group around this boundary point. Similarly, by sequentially extracting boundary points from the boundary candidate point group around the boundary points, it is possible to determine whether the irradiation field edge portion is a curve.
[0112]
(2) ROI recognition processing:
When the irradiation field recognition is performed, the image processing unit 26 converts the distribution of the image data DT from the radiation image reader into a desired level distribution, and then the level distribution of the image data DT from the radiation image reader. A region (hereinafter referred to as “region of interest” or “ROI (Region Of Interest)”) is determined. By determining a representative value from the image data in the ROI set here and converting the representative value to a desired level, image data having a desired level distribution can be obtained.
[0113]
For example, the setting of the ROI to the rib cage in the chest front process is set according to the following procedure. First, the left and right lines are determined by the following S1 to S3.
S1: Find vertical projections (cumulative values in one direction of data) of the upper and lower parts of the image data and the part of the image data excluding the outside of the irradiation field (FIG. 15A, FIG. 15). b)).
S2: A point where the signal value has a minimum value (referred to as Pc) in a range of 1/3 of the central portion (1/3 * x to 2/3 * x in FIG. 15) from the obtained vertical projection. The middle line column (Xc).
S3: The vertical projection values obtained from the 1/3 column (2/3 * x, 1/3 * x in FIG. 15) of the left and right images to the outside (left and right direction) of the image. A point below the threshold value (Tl, Tr) is searched, and the first point is taken as the left end / right end (Xl, Xr) of the lung field. As the threshold value, the maximum value (Plx, Prx) of the projection value is updated from the column of Pc and 1/3 of the entire image toward the outside (left-right direction) of the image,
Tl = ((k1-1) * Plx + Pc) / k1
Tr = ((k2-1) * Prx + Pc) / k2
And Here, k1 and k2 are constants.
[0114]
Next, the upper and lower lines are determined by S4 and S5.
S4: Take a horizontal projection in the section determined in the above step (FIG. 15C).
S5: The horizontal direction obtained from the 1/4 and 1/2 lines (1/4 * y and 1/2 * y in FIG. 15) of the entire image from the upper and lower sides toward the outside (vertical direction) of the image A point whose projection value is less than or equal to the threshold value is searched for, and the first point is set as the upper and lower ends (Yt, Yb) of the right lung field. As the threshold, each of the whole image
The maximum value (Ptx, Pbx) of the projection value in the range of 1/4 * y to 1/2 * y and 1/2 * y to 4/5 * y and the line of the maximum value outside the image (vertical direction) Using the minimum projection value (Ptn, Pbn) in the range of
Tt = ((k3-1) * Ptx + Ptn) / k3
Tb = ((k4-1) * Pbx + Pbn) / k4
And Here, k3 and k4 are constants.
[0115]
Further, the parameters k1 to k4 used for obtaining the threshold value by the above formula are obtained empirically.
The setting of the ROI is not limited to the case where the profile is analyzed and set as described above. For example, as shown in JP-A-5-7578, the image data of each pixel and the discriminant analysis method are used. Threshold values determined by the above are compared, and an identification code is added to each pixel based on the comparison result. Labeling is performed for each pixel group having consecutive identification codes indicating that the threshold value is greater than or equal to the threshold value. The field area is extracted, and the ROI can be set so as to include the lung field and the subdiaphragm area on the basis of the extracted lung field area.
[0116]
Further, as disclosed in JP-A-62-26047, a lung field region is recognized by detecting a lung field contour using a boundary point tracking method, and the lung field and the subdiaphragm are based on the recognized lung field region. The ROI may be set so as to include the region.
[0117]
Furthermore, since it is generally performed that the most important part for diagnosis is taken as the center of the irradiation field, a region such as a circle or a rectangle is set at the center of the irradiation field region and the ROI is set. You can also
[0118]
(3) Frequency processing and dynamic range compression processing:
Further, frequency processing (frequency enhancement processing) and dynamic range compression processing are executed as image processing. In the frequency enhancement process, a frequency enhancement process for controlling the sharpness of the normalized radiation image is performed. In the dynamic range compression process, control is performed so that the density range is easy to see by the compression process.
[0119]
In the frequency enhancement process, for example, the function F is determined by a method shown in Japanese Patent Publication Nos. 62-62373 and 62-62376 in order to control the sharpness by the non-sharp mask processing shown in the following equation.
[0120]
Sout = Sorg + F (Sorg−Sus)
Sout is image data after processing, Sorg is image data before frequency enhancement processing, and Sus is unsharp data obtained by processing the image data before frequency enhancement processing by averaging processing or the like.
[0121]
In this frequency enhancement process, for example, F (Sorg−Sus) is set to β × (Sorg−Sus), and β (enhancement coefficient) is changed substantially linearly between the reference values T1 and T2 as shown in FIG. . As shown by the solid lines in FIG. 20, when values “A” and “B” are set and low luminance is emphasized, β from the reference value T1 to the value “A” is maximized, and the value “ B "to the reference value T2 is minimized. In addition, from the value “A” to the value “B”, β changes almost linearly. When emphasizing high luminance, as shown by a broken line, β from the reference value T1 to the value “A” is minimized and maximized from the value “B” to the reference value T2. In addition, from the value “A” to the value “B”, β changes almost linearly. Although not shown, when medium luminance is emphasized, β of values “A” to “B” is maximized. As described above, in the frequency enhancement processing, the sharpness of an arbitrary luminance portion can be controlled by the function F.
[0122]
Further, the frequency enhancement processing method is not limited to the non-sharp mask processing, and a technique such as a multi-resolution method disclosed in Japanese Patent Laid-Open No. 9-44645 may be used. In the frequency enhancement process, the frequency band to be enhanced and the degree of enhancement are set based on the imaging region, the imaging position, the imaging conditions, the imaging method, etc., as in the selection of the basic gradation curve in the gradation processing. .
[0123]
In the dynamic range compression processing, the function G is determined by the method disclosed in Japanese Patent Publication No. 266318 in order to perform control to make the density range easy to see by the compression processing shown in the following equation.
[0124]
Stb = Sorg + G (Sus)
Note that Stb is image data after processing, Sorg is image data before dynamic range compression processing, and Sus is unsharp data obtained by processing image data before dynamic range compression processing by averaging processing or the like.
[0125]
Here, as shown in FIG. 21A, G (Sus) has a characteristic that G (Sus) increases when the unsharp data Sus becomes smaller than the level “La”. The image data Sorg shown in FIG. 21B is image data Stb in which the dynamic range on the low density side is compressed as shown in FIG. 21C. Further, as shown in FIG. 21 (d), when G (Sus) has a characteristic that G (Sus) decreases when the unsharp data Sus becomes larger than the level “Lb”, The density is low, and the dynamic range on the high density side of the image data Sorg shown in FIG. 21B is compressed as shown in FIG. In the dynamic range compression processing, the correction frequency band and the degree of correction are set based on the imaging region, the imaging posture, the imaging conditions, the imaging method, and the like.
[0126]
Here, the reference values T1 and T2 and the values “A” and “B” or the levels “La” and “Lb”, which are processing conditions in the frequency enhancement processing and dynamic range compression processing, are representative value D1 and D2 determination methods. It is calculated | required by the same method.
[0127]
For the frequency processing at this stage, the method of the embodiment of the present invention already described with reference to FIGS. 1 to 6 can be used. That is, by performing arithmetic processing using a plurality of masks for every pixel of the image data sequentially for each pixel, a memory equal to the size of the image data is required when converting all of the image data. It is possible to obtain the converted image data without doing so. Therefore, effects such as saving of working memory capacity and shortening of calculation time can be obtained.
[0128]
(4) Tone processing:
First, representative values D1 and D2 are set from a cumulative histogram of image data in the ROI. The representative values D1 and D2 are set as image data levels at which the cumulative histogram has a predetermined ratio m1 and m2.
[0129]
When the representative values D1 and D2 are set, the normal values for converting the representative values D1 and D2 into desired reference values S1 and S2 as shown in FIG. 16 with reference to a normalization lookup table provided in advance. Processing is performed. Here, the characteristic curve CC indicates the level of a signal output in accordance with the radiation dose of the radiation applied to the imaging panel 41. The normalization processing lookup table is generated by calculation using an inverse function of the function indicating the characteristic curve CC of the imaging panel 41. Of course, normalization processing may be performed by arithmetic processing without using the normalization processing lookup table.
[0130]
As shown in FIG. 17, by this normalization processing, even if the radiation doses Ra to Rb are lower than the doses R1 to R2 at which the image data of the desired reference values S1 to S2 can be obtained, the desired reference Since the image data of the values S1 to S2 can be obtained, the exposure amount of the subject can be reduced, and at the same time, the variation in the signal distribution due to the difference in the body shape of the subject can be corrected.
[0131]
Next, gradation processing is performed using normalized image data DTreg obtained by normalization processing. In the gradation processing, for example, a gradation conversion curve as shown in FIG. 18 is used, and normalized image data DTreg is output with reference values S1 and S2 of normalized image data DTreg as parameter values S1 ′ and S2 ′. Converted to image data DTout. The levels S1 ′ and S2 ′ correspond to predetermined luminance or photographic density in the output image.
[0132]
The above tone conversion curve is preferably a continuous function over the entire signal region of the normalized image data DTreg, and its differential function is also preferably continuous. Moreover, it is preferable that the sign of the differential coefficient is constant over the entire signal region.
[0133]
In addition, since the preferable gradation conversion curve shape and levels S1 ′ and S2 ′ differ depending on the imaging region, imaging position, imaging conditions, imaging method, etc., the gradation conversion curve may be created for each image each time. For example, as shown in Japanese Patent Publication No. 5-26138, a plurality of basic gradation conversion curves are stored in advance, and one of the basic gradation conversion curves is read and rotated and translated. Thus, a desired gradation conversion curve can be easily obtained. The image processing unit 26 is provided with a gradation processing lookup table corresponding to a plurality of basic gradation curves, and is obtained by referring to the gradation processing lookup table based on the normalized image data DTreg. By correcting the image data according to the rotation and translation of the basic gradation conversion curve, output image data DTout subjected to gradation conversion can be obtained. In the gradation conversion process, not only the two reference values S1 and S2 but also one reference value or three or more reference values may be used.
[0134]
Here, the selection of the basic gradation curve and the rotation and translation of the basic gradation curve are performed based on the imaging region, imaging position, imaging conditions, imaging method, and the like. When these pieces of information are input as management information using the input device 27, the basic gradation curve can be easily selected and the rotation direction of the basic gradation curve by using this management information. And the amount of translation can be determined. Further, the levels of the reference values S1 and S2 may be changed based on the imaging region, the imaging posture, the imaging conditions, and the imaging method.
[0135]
Further, the selection of the basic gradation curve and the rotation or translation of the basic gradation curve may be performed based on information on the type of image display device and the type of external device for image output. This is because the preferred gradation may differ depending on the image output method.
[0136]
<Other embodiments>
In addition, it is not necessary to perform each process in the above (1)-(4) using all the information of a radiographic image, It is desirable to use the image reduced by the thinning process. In this case, since the amount of data is reduced, the processing speed can be improved and the memory capacity can be saved. In this case, it is preferable to use image data that has been thinned so that the effective pixel size of the reduced image by thinning is 0.4 mm to 10.0 mm, preferably 1.0 mm to 6.0 mm.
[0137]
In the above description, the example in which the image processing of the present embodiment is applied to a radiation image has been described. However, the image processing of the present embodiment can be applied to various images other than the radiation image. is there.
[0138]
【The invention's effect】
As described above in detail, according to the present invention, when image processing is performed on image data of an image composed of a plurality of pixels, the pixel value of the target pixel and the pixel values of its neighboring pixels and a predetermined function are used. The value of the pixel of interest after conversion is determined by a calculated value based on a plurality of convolution operations. Thereby, it is possible to realize an image processing apparatus and an image processing method capable of easily obtaining the converted signal value of the target pixel without performing conversion on all the image data. In addition, an image processing apparatus and an image processing method that can obtain converted image data without requiring a memory equal to the size of the image data when converting all the image data can be realized.
[0139]
That is, in the case where the converted value of the target pixel is obtained based on the weighted average value obtained by changing the mask size, the target pixel is averaged (weighted) using a plurality of size masks. Processing is performed to obtain a difference value between the average values of the masks having similar sizes, a conversion process is performed on the difference value, and the converted difference value is added to the pixel value of the target pixel to obtain a processed signal value. In this way, by performing all processing in units of pixels, it is possible to save the memory used and improve the processing speed.
[0140]
In addition, by applying to a medical image and further to a radiographic image, it is possible to provide an image that is very easy to recognize a lesion.
[Brief description of the drawings]
FIG. 1 is an explanatory diagram showing an image processing procedure of a radiation image processing apparatus of the present invention.
FIG. 2 is an explanatory diagram showing an image processing procedure of the radiation image processing apparatus of the present invention.
FIG. 3 is a flowchart showing an image processing procedure of the radiation image processing apparatus of the present invention.
FIG. 4 is an explanatory diagram showing image processing of the radiation image processing apparatus of the present invention.
FIG. 5 is an explanatory diagram showing image processing of the radiation image processing apparatus of the present invention.
FIG. 6 is an explanatory view showing image processing of the radiation image processing apparatus of the present invention.
FIG. 7 is an explanatory diagram showing an image processing procedure of the radiation image processing apparatus of the present invention.
FIG. 8 is a configuration diagram showing a configuration of a radiographic image processing apparatus according to the present embodiment;
FIG. 9 is a configuration diagram showing a configuration of a radiation image reader according to the present embodiment.
FIG. 10 is an explanatory diagram for explaining a reading unit used in the present embodiment.
FIG. 11 is an explanatory diagram for explaining a reading unit used in the present embodiment;
FIG. 12 is a configuration diagram showing a configuration using another radiation image reader according to the present embodiment.
FIG. 13 is a configuration diagram showing a configuration of a controller according to the present embodiment.
FIG. 14 is an explanatory diagram for explaining irradiation field recognition processing according to the present embodiment example;
FIG. 15 is an explanatory diagram for explaining recognition of ROI in the present embodiment example;
FIG. 16 is an explanatory diagram for explaining level conversion in the present embodiment;
FIG. 17 is an explanatory diagram showing normalization processing in the present embodiment example;
FIG. 18 is an explanatory diagram showing gradation conversion characteristics in the present embodiment.
FIG. 19 is an explanatory diagram showing a relationship between an emphasis coefficient and image data in the present embodiment.
FIG. 20 is an explanatory diagram illustrating a relationship between an enhancement coefficient and image data in the present embodiment.
FIG. 21 is an explanatory diagram for describing dynamic range compression processing in the present embodiment;
[Explanation of symbols]
10 Controller
26 Image processing unit
30 Radiation generator
40,60 Radiation image reader
41 Imaging panel
44 Scanning drive unit
46 Image data generation circuit
48 Reading control circuit
61 Conversion panel
62 Light beam generator
63 Scanning section
64 Reflector
65 light collector
66 Filter
67 Photomultiplier
70 Current / voltage converter
75 Reading control unit

Claims (10)

放射線の照射により撮影された複数の画素からなる医用画像の画像データに対して画像処理を施す画像処理手段を備えた画像処理装置であって、
前記画像処理手段は、注目画素の画素値およびその近傍画素の画素値について所定の関数による複数回の畳み込み演算に基づいた計算値により変換後の注目画素の値を決定し、
前記複数回の畳み込み演算に用いられる所定の関数は、互いに平均値算出範囲が異なり、該平均値算出範囲におけるガウス分布又は一様分布による重み付き平均値を求める複数の関数である、
ことを特徴とする画像処理装置。
An image processing apparatus comprising image processing means for performing image processing on image data of a medical image composed of a plurality of pixels photographed by radiation irradiation,
The image processing means determines the value of the pixel of interest after conversion based on a calculated value based on a plurality of convolution operations by a predetermined function for the pixel value of the pixel of interest and the pixel value of its neighboring pixels,
Said plurality of convolution predetermined function used for calculation is different in the average value calculation range to each other, there are multiple functions der obtaining a weighted average value by a Gaussian distribution or uniform distribution in the averaging range,
An image processing apparatus.
前記画像処理手段は注目画素の画値に平均値算出範囲が隣り合う関数の畳み込み演算計算値の差分値を所定の変換に基づいて変換した変換値を加算することによって変換後の注目画素の値を得る、ことを特徴とする請求項に記載の画像処理装置。Wherein the image processing means, the target pixel after conversion by adding the conversion value of the difference value was converted based on a predetermined conversion convolution calculated value of the function averaging range adjacent picture element value of the pixel of interest the image processing apparatus according to claim 1, in obtaining the values, characterized in that. 前記画像処理手段は平均値算出範囲が最も広い関数によって求めた平均値に平均値算出範囲が隣り合う関数の畳み込み演算計算値の差分値を所定の変換に基づいて変換した変換値を加算することによって変換後の注目画素の値を得る、ことを特徴とする請求項に記載の画像処理装置。The image processing means adds the converted conversion value based on the average value averaging range converts the difference value of the convolution computation of a function of a predetermined adjacent to determined by the average value calculating range widest function obtaining a value of the target pixel after conversion by the image processing apparatus according to claim 1, characterized in that. 前記差分値に対する所定の変換は、入力値に対して非線形な関数によって与えられる、ことを特徴とする請求項または請求項のいずれかに記載の画像処理装置。The predetermined conversion with respect to the difference value, the image processing apparatus according to claim 2 or claim 3 provided by a non-linear function, it is characterized with respect to the input value. 前記非線形な関数は入力値の絶対値より、出力値の絶対値が小さくなる部分を少なくとも一部は有する、ことを特徴とする請求項記載の画像処理装置。The image processing apparatus according to claim 4, wherein the non-linear function has at least a part where an absolute value of an output value is smaller than an absolute value of an input value. 前記非線形な関数が差分を求めた平均値算出範囲によって異なる、ことを特徴とする請求項または請求項のいずれかに記載の画像処理装置。The image processing apparatus according to claim 4 or claim 5 wherein the non-linear function is different from the average value calculation range determined difference, and wherein the. 前記非線形な関数は差分を求めた平均値算出範囲が広いほど、入力値0付近で小さな出力値を取る、ことを特徴とする請求項乃至請求項のいずれかに記載の画像処理装置。The nonlinear function as averaging range generates differential is wide, take a small output value in the vicinity of the input value of 0, that the image processing apparatus according to any one of claims 4 to 6, characterized in. 前記画像処理手段は、注目画素およびその近傍画素と所定の関数の複数回の畳み込み演算に基づいた計算を行い、その値を保存するために十分なメモリ領域を有し、その領域を繰り返し使用することで複数の注目画素に対する変換後の値を決定する、ことを特徴とする請求項1乃至請求項のいずれかに記載の画像処理装置。The image processing means performs a calculation based on the pixel of interest and its neighboring pixels and a plurality of convolution operations of a predetermined function, has a sufficient memory area to store the value, and repeatedly uses the area the image processing apparatus according to any one of claims 1 to 7 to determine a value after conversion to a plurality of the pixel of interest, characterized in that by. 前記複数回の畳み込み演算に用いられる所定の関数は画像データにより異なる、ことを特徴とする請求項1乃至請求項のいずれかに記載の画像処理装置。The image processing apparatus according to any one of claims 1 to 8 wherein the plurality of convolution predetermined function used for calculation varies by the image data, it is characterized. 放射線の照射により撮影された複数の画素からなる医用画像の画像データに対して画像処理を施す画像処理方法であって、
注目画素の画素値およびその近傍画素の画素値について、互いに平均値算出範囲が異なり、該平均値算出範囲におけるガウス分布又は一様分布による重み付き平均値を求める複数の関数による複数回の畳み込み演算に基づいた計算値により変換後の注目画素の値を決定する
ことを特徴とする画像処理方法。
An image processing method for performing image processing on image data of a medical image composed of a plurality of pixels photographed by radiation irradiation,
For the pixel value of the pixel of interest and the pixel values of the neighboring pixels, the average value calculation range is different from each other, and multiple convolution operations are performed by a plurality of functions for obtaining a weighted average value by Gaussian distribution or uniform distribution in the average value calculation range the calculated value determining the value of the target pixel after the conversion based on,
An image processing method.
JP2000102320A 2000-04-04 2000-04-04 Image processing apparatus and image processing method Expired - Fee Related JP4258092B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000102320A JP4258092B2 (en) 2000-04-04 2000-04-04 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000102320A JP4258092B2 (en) 2000-04-04 2000-04-04 Image processing apparatus and image processing method

Publications (2)

Publication Number Publication Date
JP2001292324A JP2001292324A (en) 2001-10-19
JP4258092B2 true JP4258092B2 (en) 2009-04-30

Family

ID=18616222

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000102320A Expired - Fee Related JP4258092B2 (en) 2000-04-04 2000-04-04 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP4258092B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004021345A (en) 2002-06-12 2004-01-22 Toshiba Corp Image processing device and its method
JP2007029681A (en) * 2005-07-22 2007-02-08 Hitoshi Imamura Method for processing digital x-ray image for dental use
JP5901350B2 (en) * 2012-02-29 2016-04-06 三菱電機株式会社 Image processing device

Also Published As

Publication number Publication date
JP2001292324A (en) 2001-10-19

Similar Documents

Publication Publication Date Title
US6415049B1 (en) Apparatus for detecting and processing a radiation image
JP3785817B2 (en) Radiographic image processing device
JP4497615B2 (en) Image processing apparatus, correction method, and recording medium
JP2000079110A (en) Picture processor
JP2001238868A (en) Method of image processing and its apparatus
JP2509503B2 (en) Image processing method and apparatus
JP3814864B2 (en) Radiographic image processing condition determining apparatus, image processing apparatus, radiographic image processing condition determining method, and image processing method
JP3800892B2 (en) Radiation image processing device
JP2952519B2 (en) Radiation image gradation converter
JP2000030046A (en) Radiation image detecting and processing apparatus
JP4258092B2 (en) Image processing apparatus and image processing method
JP2005109867A (en) Image processing method, image processor and image processing program
JP2000245721A (en) Radiographic image pickup device
JP2000023950A (en) Image processing device for radiation image
JP2000157519A (en) Image processor
JP2001245140A (en) Image processing apparatus and image processing method
JP3455566B2 (en) Dynamic range compression method for radiographic images
JP2000157518A (en) Radiation image processor
JP2001029335A (en) Radiation image processor
JP2741236B2 (en) Exposure compensation device for radiation imaging equipment
JP2001222704A (en) Method and device for image processing
JP2001149359A (en) Imaging device, image processing device, image processing system, image processing method and storage medium
JP3185105B2 (en) Radiation image processing device
JP3172799B2 (en) Chest radiographic image processing device
JP2530223B2 (en) Radiography correction method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041006

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070213

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070416

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070605

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070806

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081007

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090113

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090126

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120220

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees