JP3800892B2 - Radiation image processing device - Google Patents

Radiation image processing device Download PDF

Info

Publication number
JP3800892B2
JP3800892B2 JP30981899A JP30981899A JP3800892B2 JP 3800892 B2 JP3800892 B2 JP 3800892B2 JP 30981899 A JP30981899 A JP 30981899A JP 30981899 A JP30981899 A JP 30981899A JP 3800892 B2 JP3800892 B2 JP 3800892B2
Authority
JP
Japan
Prior art keywords
image
area
processing
radiation
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP30981899A
Other languages
Japanese (ja)
Other versions
JP2001120524A (en
Inventor
大介 梶
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP30981899A priority Critical patent/JP3800892B2/en
Publication of JP2001120524A publication Critical patent/JP2001120524A/en
Application granted granted Critical
Publication of JP3800892B2 publication Critical patent/JP3800892B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Processing (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は放射線画像を処理する放射線画像処理装置に関し、入力された画像や選択された処理および設定した関心領域の良否を自動的に判定することが可能で、また、システムや装置などから得た情報に基づいて処理内容を変更することが可能な放射線画像処理装置に関する。
【0002】
【従来の技術】
X線画像のような放射線画像は、病気診断用などに多く用いられており、このX線画像を得るために、被写体を透過したX線を蛍光体層(蛍光スクリーン)に照射し、これにより可視光を生じさせてこの可視光を通常の写真と同様に銀塩を使用したフィルムに照射して現像した、所謂、放射線写真が従来から多く利用されている。
【0003】
しかし、近年、銀塩を塗布したフィルムを使用しないで、蛍光体層から直接画像を取り出す方法が工夫されるようになってきている。この方法としては、被写体を透過した放射線を蛍光体に吸収せしめ、しかる後、この蛍光体を例えば光又は熱エネルギーで励起することによりこの蛍光体が上記吸収により蓄積している放射線エネルギーを蛍光として放射せしめ、この蛍光を光電変換して画像信号を得る方法がある。
【0004】
具体的には、例えば米国特許3,859,527 号及び特開昭55−12144 号公報等に、輝尽性蛍光体を用い可視光線又は赤外線を輝尽励起光とした放射画像変換方法が示されている。この方法は、支持体上に輝尽性蛍光体層を形成した放射画像変換パネルを使用するもので、この変換パネルの輝尽性蛍光体層に被写体を透過した放射線を当て、被写体各部の放射線透過度に対応する放射線エネルギーを蓄積させて潜像を形成し、しかる後、この輝尽層を輝尽励起光で走査することによって蓄積された放射線エネルギーを放射させてこれを光に変換し、この光信号を光電変換して放射線画像信号を得るものである。
【0005】
このようにして得られた放射線画像信号は、そのままの状態で、或いは画像処理を施されて銀塩フィルム,CRT等に出力されて可視化されたり、電子ファイリング装置にファイリングされる。前記画像処理においては、再生画像における関心領域(医療用における診断に必要な画像部分を含む領域)の濃度を一定に仕上げる目的、及び、人体の構造や病変の陰影(関心領域)をより見やすく出力する目的で、階調処理や空間周波数処理等の画像処理を施すようにしている。
【0006】
例えば特開平3−218578号公報に開示される放射線画像処理装置では、画像信号を解析して関心領域を決定し、前記関心領域内の画像信号に基づいて階調処理条件を自動的に決定して階調処理を行わせることが開示されており、これにより、安定した濃度・階調の出力画像が自動的に得られ診断性能を向上させることができる。
【0007】
ところで、前記放射線写真では、撮影者(放射線技師)が経験から得たノウハウによって患者の体型や観察したい部位などにより、照射線量や管電圧などを調整して撮影し、出力画像はその撮影者の調整結果に応じてそのまま忠実に再生される。しかしながら、患者の体型の特異性や撮影ミスなどによって撮影に失敗する可能性があり、現像処理によって可視化された放射線写真を目視して撮影の良否を判断し、この判断結果に応じて再撮影などの対処を行っていた。
【0008】
この点、前記放射画像変換パネルを用いて放射線画像信号を得るシステムの場合には、現像処理が不要であるからその場で撮影の良否(撮影条件又は/及び読取り条件の不良)を直ちに判定でき、また、撮影して画像信号として読み取った後で画像処理を施すから、撮影条件や読取り条件の不良をある程度画像処理で補って所望の画像を得ることも可能である。
【0009】
また、上記のように照射線画像信号を得るシステムでは、放射線画像情報を画像信号として扱うから、入力画像や処理等の良否の判定を自動化することも可能である。
【0010】
このような良否判定として、たとえば、特開平6−78910号公報に記載されたものがあり、画像処理が施された画像データの良否を判別するものが知られている。
【0011】
【発明が解決しようとする課題】
しかし、処理後の画像を用いて良否を判定しているため、全ての処理が終わってからの判定となる問題がある。また、画像内の情報のみを参照しているため、判定条件や処理条件に利用できる情報が少ないといった問題もある。
【0012】
本発明は以上のような課題に鑑みてなされたものであって、装置・システムから得られる情報を考慮して処理を行い、より診断に適した処理を行うことができ、入力や処理の失敗を各過程で判定して迅速な処理が可能な放射線画像処理装置を実現することを目的とする。
【0013】
また、入力や処理の段階で失敗を発見することで時間の省略や、再処理へのスムーズな流れを提供することが可能な放射線画像処理装置を実現することも目的とする。
【0014】
【課題を解決するための手段】
上記課題を解決する本発明は以下に示すものである。
(1)第1の発明(請求項1)は、被写体の各部を通過する放射線の透過量に対応して形成された放射線画像の画像データを解析して画像処理条件を決定するための画像領域を設定する領域設定手段と、前記領域設定手段により設定された画像領域内の画像データの統計的性質に基づいて画像処理条件を決定する画像処理条件設定手段と、前記領域設定手段により設定された画像領域位置の良否を判定し、画像領域位置良否判定信号を出力する画像領域位置良否判定手段と、を含んで構成されることを特徴をする放射線画像処理装置である。
【0015】
この発明では、被写体の各部を通過する放射線の透過量に対応して形成された放射線画像の画像データを解析して画像処理条件を決定するための画像領域を設定する際に、設定された画像領域内の画像データの統計的性質に基づいて画像処理条件を決定すると共に、設定された画像領域位置の良否を判定するようにしているので、適切な画像領域位置において適切な画像処理条件を決定することができるようになる。このため、より診断に適した放射線画像を得ることができる。
【0016】
なお、前記画像領域位置良否判定手段は、前記領域設定手段により設定された画像領域内の画像データの統計的性質に基づいて、画像領域位置の良否を判定することが望ましい。
【0017】
なお、前記画像領域位置良否判定手段は、前記領域設定手段により設定された画像領域の画像全体における位置情報を用いることにより画像領域位置の良否を判定することが望ましい。
【0018】
なお、前記画像領域位置良否判定手段は、前記領域設定手段により設定された画像領域内の統計的性質を示すデータとして、画像データの略最大値と、略最小値と、分散度合を示すパラメータと、所定範囲内に分布する画像データの割合と、前記所定範囲内における画像データの分散度合を示すパラメータと、画像データの判別分析法による分離度を示すパラメータのうち、少なくとも1つに基づいて、画像領域位置の良否を判定することが望ましい。
【0019】
なお、前記画像領域位置良否判定手段は、前記画像領域決定手段による画像領域とは別に画像内の特定の領域を設定する特定領域設定手段を有し、画像全体における位置情報として、前記領域設定手段により設定された画像領域が前記特定領域設定手段により設定された領域を含むか否かにより画像領域位置の良否を判定することが望ましい。
【0020】
なお、前記特定領域設定手段により設定される領域が画像内の所定の領域であることが望ましい。
なお、前記特定領域設定手段により設定される領域が被写体内の最大信号値領域または最小信号値領域の少なくとも1つであることが望ましい。
【0021】
なお、前記画像領域位置良否判定信号に基づいて、不良が判定されたときに、該画像領域内の統計的性質を示すデータが所望とする値に近づく方向に、前記領域設定手段で設定された領域を再設定する領域設定再設定手段を設けることが望ましい。
【0022】
なお、前記画像領域位置良否判定信号に基づいて、不良が判定されたときに該画像全体における画像領域の位置が所望とする位置に近づく方向に、前記領域設定手段で設定された領域を再設定する領域設定再設定手段を設けることが望ましい。
【0023】
なお、前記画像領域位置良否判定信号に基づいて、不良が判定されたときに、予め設定された別の処理手段により処理を行うようにする失敗判定時処理手段変更手段を設けることが望ましい。
【0024】
なお、前記画像領域位置良否判定信号に基づいて、不良が判定されたときに、信号を出力する画像領域警告信号出力手段を有することが望ましい。
なお、前記失敗判定時処理手段変更手段が画像領域を予め設定した領域に設定するデフォルト画像領域設定手段であることが望ましい。
【0040】
【発明の実施の形態】
まず、本発明の実施の形態例について図を用いて詳細に説明する。まず、本実施の形態例の放射線画像処理装置の構成について説明し、その後に放射線画像処理装置の動作説明を行い、さらに画像処理の詳細説明を行う。
【0041】
<放射線画像処理装置の構成>
図2は、放射線画像処理装置の全体構成を示すシステム構成図である。放射線発生器30はコントローラ10によって制御されており、放射線発生器30から放射された放射線は、被写体5を通して放射線画像読取器40の前面に装着されている撮像パネルに照射される。
【0042】
図3はFPD(Flat Panel Display)を用いた放射線画像読取器40の構成を示している。この撮像パネル41は所定の剛性を得られるだけの厚みを有する基板を有しており、この基板上には照射された放射線の線量に応じて電気信号を出力する検出素子412-(1,1)〜412-(m,n)がマトリクス状に2次元配置されている。また、走査線415-1〜415-mと信号線416-1〜416-nがたとえば直交するように配設される。
【0043】
撮像パネル41の走査線415-1〜415-mは、走査駆動部44と接続されている。走査駆動部44から走査線415-1〜415-mのうちの1つ走査線415-p(pは1〜mのいずれかの値)に読出信号RSが供給されると、この走査線415-pに接続された検出素子から照射された放射線の線量に応じた電気信号SV-1〜SV-nが出力されて、信号線416-1〜416-nを介して画像データ生成回路46に供給される。
【0044】
この検出素子412は、照射された放射線の線量に応じた電気信号を出力するものであればよい。たとえば放射線が照射されたときに電子−正孔対が生成されて抵抗値が変化する光導電層を用いて検出素子が形成されている場合、この光導電層で生成された放射線量に応じた量の電荷が電荷蓄積コンデンサに蓄えられて、この電荷蓄積コンデンサに蓄えられた電荷が電気信号として画像データ生成回路46に供給される。なお、光導電層としては暗抵抗値が高いものが望ましく、アモルファスセレン、酸化鉛、硫化カドミウム、ヨウ化第2水銀、または光導電性を示す有機材料(X線吸収コンパウンドが添加された光伝導性ポリマを含む)などが用いられ、特にアモルファスセレンが望ましい。
【0045】
また、検出素子412が、たとえば放射線が照射されることにより蛍光を生ずるシンチレータ等を用いて形成されている場合、フォトダイオードでこのシンチレータで生じた蛍光強度に基づく電気信号を生成して画像データ生成回路46に供給するものとしてもよい。
【0046】
このような構成を用いた撮像パネル41としては、特開平9−90048に開示されているように、X線を増感紙等の蛍光体層に吸収させて蛍光を発生させ、その蛍光の強度を画素毎に設けたフォトダイオード等の光検出器で検知するものがある。蛍光の検知手段としては他に、CCDやC−MOSセンサを用いる方法もある。
【0047】
特に上記の特開平6−342098に開示された方式の撮像パネル(FPD)では、X線量を画素毎の電荷量に直接変換するため、FPDでの鮮鋭性の劣化が少なく、鮮鋭性の優れた画像が得られるので、X線画像記録システム及びX線画像記録方法による効果が大きく好適である。
【0048】
さらに、撮像パネル41としては、図17および図18に示すような構成とすることかできる。図17は撮像パネル41として使用できる放射線画像検出器の正面図で放射線画像検出器が複数のユニットにより構成されている例を示すものである。図17の点線は、放射線画像検出器の格子50の線であるが、実際には保護部材やX線シンチレータに隠れて正面からは見えない。図17はユニットが6×6=36個の例であるが、数はこれに限るものではない。
【0049】
図18は放射線画像検出器の縦断面の模式図である。放射線画像検出器は、X線シンチレータ51、レンズアレイ52、そしてそのレンズアレイ52の各々のレンズ53に対応するエリアセンサ54をこの順に配置して構成される。X線シンチレータ51は、保護部材55により保護される。レンズアレイ52の各々のレンズ53は、レンズ支持部材58に支持され、X線シンチレータ51とレンズアレイ52との間には、透明部材56か配置される。エリアセンサ54は、エリアセンサ支持部材57に支持されている。
【0050】
放射線画像繰出鞋の構戒要素の形状、厚み、光線経路などは正確ではない。格子50は直接X線シンチレータ51に触れるのではなく、透明部材56に突き当たるようにしてあり、これにより格子50がX線シンチレータ51に当たって傷がつくことを避けるとともに、格子50の境界線が画像の欠落部分となることを防いでいる。
【0051】
なお、レンズアレイ52の各々のレンズ53に対応するエリアセンサ54をこの順に配置したため、空間分解能が高く高画質であり、厚さが薄く小型で、しかも軽量である。
【0052】
X線シンチレータ51が、ガドリウムオキシサルファイドや沃化セシウム等X線の曝射により可視光を発し、X線シンチレータ51がX線の曝射により可視光を発することで空間分解能が高く高画質である。
【0053】
レンズアレイ52が、2枚以上の複数の異なるレンズ53の組み合わせからなるレンズ群から棉成され、空間分解能が高く高画質であり、厚さを薄くすることができる。レンズ53の結像倍率が1/1.5から1/20であり、結像倍率が1/1.5より大きいとエリアセンサが大きくなりすぎて配置が困難となり、1/20より小さいとX線シンチレータ51からレンズまでの距離が長くなり、放射線画像検出器の厚みが増大する。
【0054】
また、エリアセンサ54としてCCDやC−MOSセンサ等の固体撮像素子を用いることで鮮明な画像が得られる。
画像データ生成回路46では、後述する読取制御回路48からの出力制御信号SCに基づいて供給された電気信号SVを順次選択して、ディジタルの画像データDTに変換する。この画像データDTは読取制御回路48に供給される。
【0055】
読取制御回路48はコントローラ10と接続されており、コントローラ10から供給された制御信号CTDに基づいて走査制御信号RCや出力制御信号SCを生成する。この走査制御信号RCが走査駆動部44に供給されて、走査制御信号RCに基づき走査線415-1〜415-mに対しての読出信号RSの供給が行われる。
【0056】
また、出力制御信号SCは画像データ生成回路46に供給される。この読取制御回路48からの走査制御信号RCや出力制御信号SCによって、たとえば撮像パネル41が上述のように(m×n)個の検出素子412で構成されている場合には、検出素子412-(1,1)〜412-(m,n)からの電気信号SVに基づくデータをデータDP(1,1)〜DP(m,n)とすると、データDP(1,1)、DP(1,2)、……DP(1,n)、DP(2,1)、……、DP(m,n)の順として画像データDTが生成されて、この画像データDTが画像データ生成回路46から読取制御回路48に供給される。また、読取制御回路48では、この画像データDTをコントローラ10に送出する処理も行う。
【0057】
放射線画像読取器40で得られた画像データDTは、読取制御回路48を介してコントローラ10に供給される。なお、放射線画像読取器40で得られた画像データをコントローラ10に供給する際に対数変換処理を行った画像データを供給すれば、コントローラ10における画像データの処理を簡単とすることができる。
【0058】
また、放射線画像読取器はFPDを用いたものに限られるものではなく、輝尽性蛍光体を用いたものであってもよい。図4は輝尽性蛍光体を用いた放射線画像読取器60を用いた場合の構成を示しており、放射線が照射される変換パネル61では、支持体上に輝尽性蛍光体層が輝尽性蛍光体の気相堆積あるいは輝尽性蛍光体塗料塗布によって設けられる。この輝尽性蛍光体層は環境による悪影響及び損傷を遮断するために、保護部材によって遮蔽若しくは被覆されている。
【0059】
光ビーム発生部(ガスレーザ、固体レーザ、半導体レーザ等)62は、出射強度が制御された光ビームを発生する。この光ビームは種々の光学系を経由して走査部63に到達し、走査部63で偏向を受け、更に反射鏡64で光路を偏向させて、変換パネル61に輝尽励起走査光として導かれる。
【0060】
集光体65の光ファイバー又はシート状光ガイド部材からなる集光端は、輝尽励起光が走査される変換パネル61に近接して配設されて、光ビーム発生部62からの光ビームの走査によって変換パネル61で生じた潜像エネルギーに比例した発光強度の輝尽発光を受光する。
【0061】
フィルタ66は、集光体65より導入された光から輝尽発光波長領域の光のみを通過させるものであり、このフィルタ66を通過した光は、フォトマルチプライヤ67に入射される。
【0062】
フォトマルチプライヤ67では、光電変換によって入射光に対応した電流信号を生成する。この電流信号は、電流/電圧変換部70に供給されて電圧信号に変換される。さらに、電圧信号は増幅部71で増幅された後、A/D変換部72でディジ夕ルの画像データDTに変換される。ここで、増幅部71として対数変換増幅部(logアンプ)を用いる。画像データDTは、画像処理装置80において順次画像処理されて、画像処理後の画像データDTCがインタフェース82を介してプリンタ83に伝送される。
【0063】
CPU(Central Processing Unit)81は、画像処理装置80における画像処理を制御するためのものであり、画像処理装置80では、画像データDTに対して種々の画像処理(たとえば空間周波数処理、ダイナミックレンジの圧縮、階調処理、拡大/縮小処理、移動、回転、統計処理等)を行い、診断に適した形の画像データDTCを生成する。
【0064】
この画像データDTCがプリンタ83に供給されて、プリンタ83から人体各部の放射線画像のハードコピーを得ることができる。なお、インタフェース82にCRT等のモニタを接続するものとしても良く、更に複数の放射線画像の画像データを記憶できる記憶装置(ファイリングシステム)を接続するものとしてもよい。
【0065】
また、読取制御部75では、光ビーム発生部62の光ビーム強度調整、フォトマルチプライヤ用高圧電源76の電源電圧調整によるフォトマルチプライヤ67のゲイン調整、電流/電圧変換部70と増幅部71のゲイン調整、及びA/D変換部72の入力ダイナミックレンジの調整が行なわれ、読取ゲインが総合的に調整される。
【0066】
A/D変換部72から得られた画像データDTは、コントローラ10に供給されると共に、コントローラ10からの制御信号CTDによって読取制御部75の動作の制御を行う。
【0067】
なお、放射線画像読取器は、放射線画像を記録した銀塩フィルムにレーザ、蛍光灯等の光源からの光を照射し、この銀塩フィルムの透過光を光電変換して画像データを生成してもよい。また、放射線量子計数型検出器を用いて放射線エネルギーを直接電気信号に変換して画像データを生成する構成であってもよい。
【0068】
次に、コントローラ10の構成を図5に示す。コントローラ10の動作を制御するためのCPU11には、システムバス12と画像バス13が接続されると共に入力インタフェース17が接続される。このコントローラ10の動作を制御するためのCPU11は、メモリ14に記憶された制御プログラムに基づいて動作が制御される。
【0069】
システムバス12と画像バス13には、表示制御部15、フレームメモリ制御部16、出力インタフェース18、撮影制御部19、ディスク制御部20等が接続されており、システムバス12を利用しCPU11によって各部の動作が制御されると共に、画像バス13を介して各部間での画像データの転送等が行われる。
【0070】
フレームメモリ制御部16には、フレームメモリ21が接続されており、放射線画像読取器40で得られた画像データが撮影制御部19やフレームメモリ制御部16を介して記憶される。フレームメモリ21に記憶された画像データは読み出されて表示制御部15やディスク制御部20に供給される。また、フレームメモリ21には、放射線画像読取器40から供給された画像データをCPU11で処理してから記憶するものとしてもよい。
【0071】
表示制御部15には、画像表示装置22が接続されており画像表示装置22の画面上に表示制御部15に供給された画像データに基づく放射線撮影画像が表示される。ここで、放射線画像読取器40の画素数よりも画像表示装置22の表示画素数が少ない場合には、画像データを間引きして読み出すことにより、画面上に撮影画像全体を表示させることができる。また、画像表示装置22の表示画素数分に相当する領域の画像データを読み出すものとすれば、所望の位置の撮影画像を詳細に表示させることができる。
【0072】
フレームメモリ21からディスク制御部20に画像データが供給される際には、たとえば連続して画像データが読み出されてディスク制御部20内のFIFOメモリに書き込まれ、その後順次ディスク装置23に記録される。
【0073】
さらに、フレームメモリ21から読み出された画像データやディスク装置23から読み出された画像データを出力インタフェース18を介して外部機器100に供給することもできる。
【0074】
画像処理部26では、放射線画像読取器40から撮影制御部19を介して供給された画像データDTの照射野認識処理、関心領域設定、正規化処理および階調処理、ならびに画像領域位置の良否判定処理などが行われる。また、周波数強調処理やダイナミックレンジ圧縮処理等を行うものとしてもよい。なお、画像処理部26をCPU11が兼ねる構成として、画像処理等を行うこともできる。
【0075】
従って、画像処理部26が、請求項におけるROIを決定する領域設定手段、画像処理条件設定手段、画像領域良否判定手段、入力画像良否判定手段、画像処理手段良否判定手段、画像処理手段変更手段、を構成している。
【0076】
入力インタフェース17にはキーボード等の入力装置27が接続される。この入力装置27を操作することで、撮影によって得られた画像データを識別するための情報や撮影に関する情報等の管理情報の入力が行われる。
【0077】
出力インタフェース18に接続される外部機器100としては、レーザーイメージャとも呼ばれる走査型レーザ露光装置が用いられる。この走査型レーザ露光装置では、画像データによりレーザビーム強度を変調し、従来のハロゲン化銀写真感光材料や熱現象ハロゲン化銀写真感光材に露光したあと適切な現像処理を行うことによって放射線画像のハードコピーが得られるものである。
【0078】
なお、フレームメモリ21には、放射線画像読取器40から供給された画像データを記憶するものとしたが、供給された画像データをCPU11で処理してから記憶するものとしてもよい。また、ディスク装置23には、フレームメモリ21に記憶されている画像データ、すなわち放射線画像読取器40から供給された画像データやその画像データをCPU11で処理した画像データを、管理情報などと共に保存することができる。
【0079】
<放射線画像処理装置の動作>
次に、以上の放射線画像処理装置の動作について説明する。被写体5の放射線画像を得る際には、放射線発生器30と放射線画像読取器40の撮像パネル41の間に被写体5が位置するものとされて、放射線発生器30から放射された放射線が被写体5に照射されると共に、被写体5を透過した放射線が撮像パネル41に入射される。なお、放射線画像読取器40に替えて放射線画像読取器60を用いる場合も同様であり、以下の説明では放射線画像読取器40を用いるものとして、放射線画像読取器60を用いた場合の説明は省略する。
【0080】
コントローラ10には、撮影が行われる被写体5の識別や撮影に関する情報を示す管理情報が入力装置27を用いて入力される。この入力装置27を用いた管理情報の入力は、キーボードを操作したり、磁気カード、バーコード、HIS(病院内情報システム:ネットワークによる情報管理)等を利用して行われる。
【0081】
この管理情報は、たとえばID番号、氏名、生年月日、性別、撮影日時、撮影部位および撮影体位(たとえば、放射線を人体のどの部分にどの方向から照射したか)、撮影方法(単純撮影,造影撮影,断層撮影,拡大撮影等)、撮影条件(管電圧,管電流,照射時間,散乱線除去グリッドの使用の有無等)等の情報から構成される。
【0082】
また撮影日時は、CPU11に内蔵されている時計機能を利用して、CPU11からカレンダーや時刻の情報を自動的に得ることもできる。なお、入力される管理情報は、その時点で撮影される被写体に関するものだけでも良く、一連の管理情報を予め入力しておいて、入力順に被写体を撮影したり、必要に応じて入力された管理情報を読み出して用いるものとしてもよい。
【0083】
放射線画像読取器40の電源スイッチがオン状態とされると、コントローラ10からの制御信号CTDに基づき、放射線画像読取器40の読取制御回路48や走査駆動部44によって撮像パネル41の初期化が行われる。この初期化は、撮像パネル41から照射された放射線量に応じた正しい電気信号を得るためのものである。
【0084】
放射線画像読取器40での撮像パネル41の初期化が完了すると、放射線発生器30からの放射線の照射が可能とされる。ここで、放射線を照射するためのスイッチが放射線発生器30に設けられている場合、このスイッチが操作されると、放射線発生器30から被写体5に向けて放射線が所定時間だけ照射されると共に、放射線の照射開始を示す信号DFSや照射終了を示す信号DFEがコントローラ10に供給される。
【0085】
このとき、放射線画像読取器40の撮像パネル41に照射される放射線の放射線量は、被写体5による放射線吸収の度合いが異なるため、被写体5によって変調される。撮像パネル41の検出素子412-(1,1)〜412-(m,n)では、被写体5によって変調された放射線に基づく電気信号が生成される。
【0086】
次に、コントローラ10では、信号DFSが供給されてから所定時間後、たとえば放射線の照射時間が0.1秒程度であるときには、この照射時間よりも長い時間(たとえば約1秒)経過後、または、信号DFEが供給されてから直ちに、放射線画像読取器40で画像データDTの生成を開始するために制御信号CTDが放射線画像読取器40の読取制御回路48に供給される。
【0087】
一方、放射線を照射するためのスイッチがコントローラ10に設けられている場合、このスイッチが操作されると、放射線の照射を開始させるための照射開始信号CSTが撮影制御部19を介して放射線発生器30に供給されて、放射線発生器30から被写体5に向けて放射線が所定時間だけ照射される。この照射時間は、たとえば管理情報に基づいて設定される。
【0088】
次に、コントローラ10では、照射開始信号CSTを出力してから所定時間後、放射線画像読取器40で画像データの生成を開始するための制御信号CTDを放射線画像読取器40の読取制御回路48に供給する。なお、コントローラ10では、放射線発生器30での放射線の照射終了を検出してから、放射線画像読取器40で画像データの生成を開始するための制御信号CTDを放射線画像読取器40に供給するものとしてもよい。この場合には、放射線の照射中に画像データが生成されてしまうことを防止できる。
【0089】
放射線画像読取器40の読取制御回路48では、コントローラ10から供給された画像データの生成を開始するための制御信号CTDに基づいて走査制御信号RCや出力制御信号SCが生成される。この走査制御信号RCが走査駆動部44に供給されると共に出力制御信号SCが画像データ生成回路46に供給されて、画像データ生成回路46から得られた画像データDTが読取制御回路48に供給される。この画像データDTは、読取制御回路48によってコントローラ10に送出される。
【0090】
コントローラ10に供給された画像データDTは、撮影制御部19やフレームメモリ制御部16等を介してフレームメモリ21に記憶される。このフレームメモリ21に記憶された画像データを用いて、画像表示装置22に放射線画像を表示させることができる。また、フレームメモリ21に記憶された画像データを画像処理部26で処理して表示制御部15に供給したり、画像処理が行われた画像データをフレームメモリ21に記憶させて、このフレームメモリ21に記憶された画像データを表示制御部15に供給することにより、輝度やコントラストあるいは鮮鋭度等が調整されて、診断等に適した放射線画像を表示することもできる。また、画像処理が行われた画像データを外部機器100に供給することで、診断等に適した放射線画像のハードコピーを得ることができる。
【0091】
画像処理部26では、放射線量が異なることにより、撮像パネル41から出力された画像データのレベルの分布が変動した場合であっても、常に安定した放射線画像が得られるように画像データDTの正規化処理が行われる。また、画像データのレベルの分布が変動しても、診断等に適した濃度およびコントラストの放射線画像を得るために正規化処理後の画像データである正規化画像データDTregに対して階調処理が行われる。さらに画像処理部26では、正規化画像データDTregに対して正規化放射線画像の鮮鋭度を制御する周波数強調処理や、ダイナミックレンジの広い放射線画像の全体を、被写体の細かい構造部分のコントラストを低下させることなく見やすい濃度範囲内に収めるためのダイナミックレンジ圧縮処理を行うものとしてもよい。
【0092】
<画像処理の内容>
なお、本実施の形態例の放射線画像処理装置では、以上の正規化処理,階調処理,ダイナミックレンジ圧縮処理に先立ち、照射野認識処理,入力画像良否判定,処理キー選択良否判定,ROI認識,ROI良否判定を行うことを特徴としている。
【0093】
すなわち、本実施の形態例の画像処理手順は、従来の処理手順とは異なっていて、図1に示すようになっている。この図1のように、本実施の形態例の処理手順は、
・照射野認識処理,
・入力画像良否判定処理,
・処理キー選択良否判定処理,
・ROI認識処理,
・ROI良否判定処理,
・ダイナミックレンジ圧縮処理,周波数処理,ヒストグラムの正規化処理および階調処理等,
・システム情報による処理内容変更,
のようになっている。以下、この順に従って本実施の形態例の処理手順を説明する。
【0094】
(1)照射野認識処理:
ところで、放射線画像の撮影に際しては、たとえば診断に必要とされない部分に放射線が照射されないようにするため、あるいは診断に必要とされない部分に放射線が照射されて、この部分で散乱された放射線が診断に必要とされる部分に入射されて分解能が低下することを防止するため、被写体5の一部や放射線発生器30に鉛板等の放射線非透過物質を設置して、被写体5に対する放射線の照射野を制限する照射野絞りが行われる。
【0095】
この照射野絞りが行われた場合、照射野内領域と照射野外領域の画像データを用いてレベルの変換処理やその後の階調処理を行うものとすると、照射野外領域の画像データによって、照射野内の診断に必要とされる部分の画像処理が適正に行われなくなってしまう。このため、画像処理部26では、照射野内領域と照射野外領域を判定する照射野認識処理が行われる。
【0096】
照射野認識処理では、たとえば特開昭63−259538号で示される方法が用いられて、図6(a)に示すように撮像面上の所定の位置Pから撮像面の端部側に向かう線分上の画像データを用いてたとえば微分処理が行われる。この微分処理によって得られた微分信号Sdは、図6(b)に示すように照射野エッジ部で信号レベルが大きくなるため、微分信号Sdの信号レベルを判定して1つの照射野エッジ候補点EP1が求められる。この照射野エッジ候補点を求める処理を、撮像面上の所定の位置を中心として放射状に行うことにより複数の照射野エッジ候補点EP1〜EPkが求められる。このようにして得られた複数の照射野エッジ候補点EP1〜EPkの隣接するエッジ候補点を直線あるいは曲線で結ぶことにより照射野エッジ部が求められる。
【0097】
また、特開平5−7579号で示される方法を用いることもできる。この方法では、撮像面を複数の小領域に分割したとき、照射野絞りによって放射線の照射が遮られた照射野外の小領域では、略一様に放射線の放射線量が小さくなり画像データの分散値が小さくなる。また、照射野内の小領域では、被写体によって放射線量が変調されることから照射野外に比べて分散値が高くなる。さらに、照射野エッジ部を含む小領域では最も放射線量が小さい部分と被写体によって変調された放射線量の部分が混在することから分散値は最も高くなる。このことから、分散値によって照射野エッジ部を含む小領域が判別される。
【0098】
また、特開平7−181609号で示される方法を用いることもできる。この方法では、画像データを所定の回転中心に関して回転移動させて、平行状態検出手段によって照射野の境界線が画像上に設定された直交座標の座標軸と平行となるまで回転を行うものとし、平行状態が検出されると、直線方程式算出手段によって回転角度と回転中心から境界線までの距離によって回転前の境界の直線方程式が算出される。その後、複数の境界線に囲まれる領域を直線方程式から決定することで、照射野の領域を判別することができる。また照射野エッジ部が曲線である場合には、境界点抽出手段で画像データに基づきたとえば1つの境界点を抽出し、この境界点の周辺の境界候補点群から次の境界点を抽出する。以下同様に、境界点の周辺の境界候補点群から境界点を順次抽出することにより、照射野エッジ部が曲線であっても判別することができる。
【0099】
(2)入力画像良否判定処理:
この段階では、入力された放射線画像が適性なものであるかに関して、以下の手順で判定する。
▲1▼入力された放射線画像の画素値の最大値・最小値を調べる。
▲2▼画素値の最大値が装置で定められている最大画素値に達している場合は、ユーザーに信号値が飽和していることを警告し、放射線線量などの調節が正しく行われているかの確認を促す。
▲3▼最大値・最小値間の画素値を調べ、その値が予め定めた所定の値と比較して、大きい場合や、別の予め定めた所定の値より小さい場合には、ヒストグラム幅が極端に広い或るいは狭いことを警告し、管電圧などの調節が正しくなされているかの確認を促す。
【0100】
上記の警告(入力画像良否判定信号の出力)は、画像表示装置22などのディスプレイに表示する方法でもよいし、合成音声などによるものも考えられる。
以上のように、この実施の形態例では、画像処理部26が入力画像良否判定手段を構成しており、入力された放射線画像の良否を判定し入力画像良否判定信号を出力することを特徴とする。
【0101】
この実施の形態例の処理では、被写体の各部を通過する放射線の透過量に対応して形成された放射線画像の画像データに画像処理を施す際に、放射線画像の良否を判定し、入力画像良否判定信号を出力するようにしているので、より診断に適した画像にのみ処理を行うことが可能になる。
【0102】
なお、前記入力画像良否判定手段は、前記放射線の透過量に対応して形成された放射線画像の画像データの分布状態を示すデータを検出するための入力画像分布状態検出手段を有し、前記入力画像分布検出手段により検出された入力画像データの分布状態を示すデータと所定値の比較に基づいて、入力画像の良否を判定を行うことが望ましい。
【0103】
また、被写体の各部を通過する放射線の透過量に対応して形成された放射線画像の画像データを解析して画像処理条件を決定するための画像領域を設定する領域設定手段を有し、前記入力画像分布状態検出手段が前記画像領域内のデータの分布状態を示すデータを検出することが望ましい。また、前記入力画像分布状態検出手段で検出される入力画像データの分布状態を示すデータとして、画像データの略最大値と、略最小値と、分散度合を示すパラメータと、所定範囲内に分布する画像データの割合と、前記所定範囲内における画像データの分散度合を示すパラメータと、画像データの判別分析法による分離度を示すパラメータのうち、少なくとも1つに基づいて、入力画像の良否を判定することが望ましい。また、前記入力画像良否判定手段は、入力画像信号が飽和しているか否かにより入力画像の良否の判定を行うことが望ましい。また、入力画像が適切でない場合に信号を出力する入力画像警告信号出力手段を有することが望ましい。
【0104】
(3)処理キー選択良否判定処理:
階調処理を行う際に、処理キーの選択が行われる。これは部位などにより処理方法を変更することで、より安定した処理を行うためである。処理キー選択の良否判定では、撮影された部位に関して、正しい処理キーが選択されたかを判定するものである。これは、以下の方法によって行われる。
▲1▼入力された放射線画像の画素値の最大値・最小値、また中央値と中央値を境とした低信号値側と高信号値側の信号値の比を調べる。
▲2▼最大値・最小値間の画素値を調べ、その値が通常選択されたキーで処理を行う部位を撮影した際に得られる値を考慮して設定した値と大きく異なる場合、また、▲1▼で求めた低信号値側と高信号値側との比が通常選択されたキーで処理を行う部位を撮影した際に得られる信号値の比を考慮して設定した値と大きく異なる場合には、選択した処理キーが間違っている可能性があることをユーザーに警告する。
【0105】
上記のような判定方法以外にも、ヒストグラムの形状を用いる方法も考えられる。放射線画像では、たとえば胸部正面画像の場合、ヒストグラムは大きな谷を挟んだ2つの山のような形状になるなど、撮影された部位等によってその形状に特徴を持つ。このような特徴を用いて、選択された処理が正しいか否かの判定を行うこともできる。
【0106】
上記の警告は画像表示部22などのディスプレイに表示する方法でもよいし、合成音声によるものも考えられる。
以上のように、この実施の形態例では、画像処理部26が画像処理手段(処理キー)良否判定手段を構成しており、選択された画像処理手段(処理キー)の良否を判定し、画像処理手段(処理キー)良否判定信号を出力することを特徴としている。
【0107】
この実施の形態例の処理では、被写体の各部を通過する放射線の透過量に対応して形成された放射線画像の画像データに画像処理を施す際に、前記処理キーを複数の処理キーから選択できるようにしていると共に、選択された処理キーの良否を判定し、処理キー良否判定信号を出力するようにしているので、適切な処理を選択することが可能になり、より診断に適した失敗の少ない処理を行うことが可能になる。
【0108】
なお、前記放射線の透過量に対応して形成された放射線画像の画像データの分布状態を示すデータを検出するための入力画像分布状態検出手段を有し、前記処理キー良否判定手段が前記入力画像分布検出手段により検出された入力画像データの分布状態を示すデータと所定値の比較に基づいて、選択された処理キーの良否を判定することが望ましい。
【0109】
また、前記入力画像分布状態検出手段が被写体の各部を通過する放射線の透過量に対応して形成された放射線画像の画像データを解析して画像処理条件を決定するための画像領域を設定する領域設定手段を有し、前記画像領域内のデータの分布状態を示すデータを検出することが望ましい。
【0110】
また、前記処理手段分布状態検出手段で検出される入力画像データの分布状態を示すデータとして、画像データの略最大値と、略最小値と、分散度合を示すパラメータと、所定範囲内に分布する画像データの割合と、前記所定範囲内における画像データの分散度合を示すパラメータと、画像データの判定分析法による分離度を示すパラメータのうち、少なくとも1つに基づいて、選択された画像処理手段の良否を判定することが望ましい。
【0111】
また、選択された処理手段が適切でない場合に信号を処理する処理手段警告信号出力手段を有することが望ましい。
(4)ROI認識処理:
照射野認識が行われると、画像処理部26では、放射線画像読取器からの画像データDTの分布を所望のレベルの分布に変換する際に、放射線画像読取器からの画像データDTのレベルの分布を決定するための領域(以下「関心領域」または「ROI(Region Of Interest)」という)の設定を行う。ここで設定されたROI内の画像データから代表値を決定し、この代表値を所望のレベルに変換することで、所望のレベルの分布となる画像データを得ることができる。
【0112】
たとえば、胸部正面処理における胸郭へのROIの設定は、以下の手順に従って設定される。まず以下のS1〜S3により左右のラインが決定される。
S1:画像データのうち全体に対して影響が低い画像上下部及び照射野外部を省いた部分の縦方向のプロジェクション(データの一方向の累積値)を求める(図7(a)、図7(b)参照)。
S2:求められた縦方向のプロジェクションから、中央部の1/3の範囲(図7では1/3*x〜2/3*x)で信号値が最小値(Pcとする)を持つ点を正中線のコラム(Xc)とする。
S3:左右それぞれ画像全体の1/3のコラム(図7では2/3*x、1/3*x)から画像の外側(左右方向)に向かって、求められた縦方向のプロジェクション値がしきい値(Tl,Tr)以下の点を探し、最初の点を肺野の左端・右端(Xl,Xr)とする。しきい値としては、前記Pcと画像全体の1/3のコラムからプロジェクション値の最大値(Plx,Prx)を画像の外側(左右方向)に向かって更新し、
Tl=((k1−1)*Plx+Pc)/k1
Tr=((k2−1)*Prx+Pc)/k2
とする。ここで、k1とk2とは定数である。
【0113】
次に、S4とS5によって上下のラインを決定する。
S4:上のステップで決定した区間での横方向のプロジェクションをとる(図7(c))。
S5:上下それぞれ画像全体の1/4,1/2のライン(図7中の1/4*y、1/2*y)から画像の外側(上下方向)に向かって、求められた横方向のプロジェクション値がしきい値以下の点を探し、最初の点を右肺野の上端・下端(Yt,Yb)とする。しきい値としては、それぞれ画像全体の
1/4*y〜1/2*y、1/2*y〜4/5*yの範囲のプロジェクション値の最大値(Ptx,Pbx)とその最大値のラインから画像の外側(上下方向)の範囲のプロジェクション値の最小値(Ptn、Pbn)を用いて、
Tt=((k3−1)*Ptx+Ptn)/k3
Tb=((k4−1)*Pbx+Pbn)/k4
とする。ここで、k3とk4とは定数である。
【0114】
また、以上の式でしきい値を求めるのに用いたパラメータk1〜k4は経験的に求められる。
なお、ROIの設定は、上述したようにプロファイルを解析して設定する場合に限られるものではなく、たとえば特開平5ー7578号で示されているように、各画素の画像データと判別分析法などにより決定したしきい値を比較して、比較結果に基づき識別符号を画素毎に付加するものとし、しきい値以上であることを示す識別符号の連続する画素群毎にラベリングを行って肺野領域を抽出し、抽出した肺野領域を基準として肺野および横隔膜下領域を含むようにROIを設定することができる。
【0115】
また、特開昭62−26047号で示されているように、境界点追跡法を用いた肺野輪郭検出により肺野領域を認識して、認識した肺野領域を基準に肺野および横隔膜下領域を含むようにROIを設定するものとしてもよい。
【0116】
さらに、診断を行う上で最も重要な部分を照射野の中央として撮影を行うことが一般的に行われていることから、照射野内領域の中央に円形あるいは矩形等の領域を設定してROIとすることもできる。
【0117】
(5)ROIの良否判定処理:
以上のようにして認識・設定したROIが正しい領域であるかに関して判断する。ここでは、胸部正面処理を例に挙げる。
【0118】
(5−1)肺野内最大信号値によるROI良否判定:
肺野内最大信号値を用いたROIの良否の判定は以下の手順により行われる。S1:しきい値を画像内最大値から順に下げ、しきい値以上を1、しきい値未満を0とした2値化画像を作成する(図8参照)。
S2:作成した2値化画像を調べ、照射野端に接触していない島状の画素値1の領域を検出する。島状領域の検出には境界追跡法やラベリング処理を用いた手法などが考えられる。
S3:以上のS2で求めた領域を肺野内最大画素値領域とする。ROI内のこの領域が含まれているかを調査し、含まれている場合は正しく肺野領域を含むように設定されていると判断し、含まれていない場合はROIを検出した領域が含まれるように拡大する。
S4:検出された領域の最大信号値より高い信号値がROI内に含まれている場合は、素抜け領域が含まれているとし、他の手法による処理やデフォルトとして設定した処理に切り替える。他の手法としては例えば、特願平10-276095号公報の実施例に挙げられている例などが考えられる。
【0119】
また、肺野内最大信号値領域を得る別の手段として、境界追跡法を用いた肺野輪郭抽出(特開平62-26047号公報参照)により、肺野領域を認識し、肺野領域内の最大信号値を求めることで、肺野内最大信号値領域を決定するという方法も考えられる。この他、Watershed手法(文献:Meyer ,and S. Beucher: Morphological Segmentation. J. of Visual Comm. And Image Represent., 1,1:21-46,1990)を用いて肺野領域を抽出し、肺野領域内の分割された各領域の最大信号値を求め、最も大きな信号値を含む領域を肺野内最大信号値領域とする手法も考えられる。
【0120】
(5−2)横隔膜下領域を利用したROI良否の判定:
ROI内に肺野以外の領域である横隔膜下が含まれるかどうかを、以下のS1〜S5の方法により判定する。
S1:10画素幅の帯状の領域(図9(a)参照)をとり、その領域内の画素値の大きい方から1/10を除いた領域で最大信号値・最小信号値の差diff、および判別分析法による分離度sepの計算を行う。これは、素抜け部を含まない領域で分離度diff、差sepを計算するためである(図9(b)(c)参照)。この素抜け部の除去は上記の手法に限られず、たとえば判別分析法を用いる手法も考えられる。
S2:以上のS1の領域を5画素づつずらしていき、各領域で分離度sep、差diffを求める。
S3:求めたすべての分離度sep及び差diffの最大値をそれぞれmax_sep、max_diffとする。
S4:各領域の分離度sep、差diffをもう一度調べ、sep<max_sep/2、diff<max_diff*3/4、を満たす領域が3つ続く領域を探す。このようにすることで、信号差が小さく低濃度に偏っている横隔膜下領域(図9(c)参照)を検出することができる。
S5:以上のS4の処理によりROI内に横隔膜下領域が含まれる場合は、その領域が含まれないようにROIの縮小を行う。
【0121】
以上の(5−1)や(5−2)の処理により、処理失敗と判定した場合、画像領域警告信号を出力し、同時にオペレータに警告を促すことも考えられる。これは、ディスプレイに表示する方法でもよく、合成音声による警告でもよい。
【0122】
また、以上の(2)入力画像の良否判定処理や(3)選択処理キーの良否判定処理は、上記の(4)ROI認識処理の後、或いは(5)ROI良否判定処理の後に行うことも考えられる。この場合、ROI内のデータにより、良否を判定することができる。また、ROI良否判定で不良と判定された場合は入力画像の不良あるいは選択された処理キーの間違いであると判定し、オペレータに警告を与える方法も考えられる。
【0123】
以上のように、この実施の形態例では、画像処理部26が画像領域位置良否判定手段を構成しており、設定された画像領域位置(ROI)の良否を判定し、画像領域位置判定信号を出力すると共に、不良と判定された場合はROIの自動修正を行い、画像領域警告信号を出力することを特徴としている。
【0124】
この実施の形態例の処理では、被写体の各部を通過する放射線の透過量に対応して形成された放射線画像の画像データを解析して画像処理条件を決定するための画像領域(ROI)を設定する際に、設定された画像領域内の画像データの統計的性質に基づいて画像処理条件を決定すると共に、設定された画像領域位置の良否を判定するようにしているので、適切な画像領域位置において適切な画像処理条件を決定することができるようになる。このため、より診断に適した放射線画像を得ることができる。
【0125】
なお、前記画像領域位置良否判定手段は、前記領域設定手段により設定された画像領域内の画像データの統計的性質に基づいて、画像領域位置の良否を判定することが望ましい。
【0126】
また、前記画像領域位置良否判定手段は、前記領域設定手段により設定された画像領域の画像全体における位置情報を用いることにより画像領域位置の良否を判定することが望ましい。
【0127】
また、前記画像領域位置良否判定手段は、前記領域設定手段により設定された画像領域内の統計的性質を示すデータとして、画像データの略最大値と、略最小値と、分散度合を示すパラメータと、所定範囲内に分布する画像データの割合と、前記所定範囲内における画像データの分散度合を示すパラメータと、画像データの判別分析法による分離度を示すパラメータのうち、少なくとも1つに基づいて、画像領域位置の良否を判定することが望ましい。
【0128】
また、前記画像領域位置良否判定手段は、前記画像領域決定手段による画像領域とは別に画像内の特定の領域を設定する特定領域設定手段を有し、画像全体における位置情報として、前記領域設定手段により設定された画像領域が前記特定領域設定手段により設定された領域を含むか否かにより画像領域位置の良否を判定することが望ましい。また、前記特定領域設定手段により設定される領域が画像内の所定の領域であることが望ましい。また、前記特定領域設定手段により設定される領域が被写体内の最大信号値領域または最小信号値領域の少なくとも1つであることが望ましい。また、前記画像領域位置良否判定信号に基づいて、不良が判定されたときに、該画像領域内の統計的性質を示すデータが所望とする値に近づく方向に、前記領域設定手段で設定された領域を再設定する領域設定再設定手段を設けることが望ましい。また、前記画像領域位置良否判定信号に基づいて、不良が判定されたときに該画像全体における画像領域の位置が所望とする位置に近づく方向に、前記領域設定手段で設定された領域を再設定する領域設定再設定手段を設けることが望ましい。また、前記画像領域位置良否判定信号に基づいて、不良が判定されたときに、予め設定された別の処理手段により処理を行うようにする失敗判定時処理手段変更手段を設けることが望ましい。また、前記画像領域位置良否判定信号に基づいて、不良が判定されたときに、信号を出力する画像領域警告信号出力手段を有することが望ましい。また、前記失敗判定時処理手段変更手段が画像領域を予め設定した領域に設定するデフォルト画像領域設定手段であることが望ましい。
【0129】
(6)ヒストグラムの正規化処理:
始めに、ROI内の画像データの累積ヒストグラムから代表値D1,D2を設定する。代表値D1,D2は累積ヒストグラムが所定の割合m1,m2となる画像データのレベルとして設定される。
【0130】
代表値D1,D2が設定されると、予め設けられた正規化処理ルックアップテーブルを参照して、図10に示すように代表値D1,D2を所望の基準値S1,S2にレベル変換する正規化処理が行われる。ここで、特性曲線CCは、撮像パネル41に照射された放射線の放射線量に応じて出力される信号のレベルを示している。また、正規化処理ルックアップテーブルは、撮像パネル41の特性曲線CCを示す関数の逆関数を用いた演算によって生成されるものである。なお、正規化処理ルックアップテーブルを用いることなく演算処理によって正規化処理を行うものとしてもよいことは勿論である。
【0131】
この正規化処理によって、図11に示すように、放射線が所望の基準値S1〜S2の画像データを得ることができる線量R1〜R2よりも低い放射線量Ra〜Rbであっても、所望の基準値S1〜S2の画像データを得ることができるので、被写体の被曝量を軽減させることができ、同時に被写体の体型の差による信号分布のばらつきも補正することができる。
【0132】
次に、正規化処理によって得られた正規化画像データDTregを用いて階調処理が行われる。階調処理では、たとえば図12に示すような階調変換曲線が用いられて、正規化画像データDTregの基準値S1,S2をパラメータ値をレベルS1’,S2’として正規化画像データDTregが出力画像データDToutに変換される。このレベルS1’,S2’は、出力画像における所定の輝度または写真濃度と対応するものである。
【0133】
以上の階調変換曲線は、正規化画像データDTregの全信号領域にわたって連続な関数であることが好ましく、またその微分関数も連続であることが好ましい。また、全信号領域にわたって、その微分係数の符号が一定であることが好ましい。
【0134】
また、撮影部位や撮影体位、撮影条件、撮影方法等によって好ましい階調変換曲線の形状やレベルS1’,S2’が異なることから、階調変換曲線は画像毎にその都度作成してもよく、またたとえば特公平5ー26138号公報で示されているように、予め複数の基本階調変換曲線を記憶しておくものとし、いずれかの基本階調変換曲線を読み出して回転および平行移動することにより所望の階調変換曲線を容易に得ることができる。なお、画像処理部26では、複数の基本階調曲線に対応する階調処理ルックアップテーブルが設けられており、正規化画像データDTregに基づいて階調処理ルックアップテーブルを参照して得られた画像データを、基本階調変換曲線の回転および平行移動に応じて補正することで階調変換が行われた出力画像データDToutを得ることができる。なお、階調変換処理では、2つの基準値S1,S2を用いるだけでなく、1つの基準値や3つ以上の基準値を用いるものとしてもよい。
【0135】
ここで、基本階調曲線の選択や基本階調曲線の回転および平行移動は、撮影部位や撮影体位、撮影条件、撮影方法等に基づいて行われる。これらの情報が入力装置27を用いて管理情報として入力されている場合には、この管理情報を利用することで、容易に基本階調曲線を選択することができると共に基本階調曲線の回転方向および平行移動の移動量を決定することができる。また、撮影部位や撮影体位、撮影条件、撮影方法に基づいて基準値S1,S2のレベルを変更するものとしてもよい。
【0136】
さらに、基本階調曲線の選択や基本階調曲線の回転あるいは平行移動は、画像表示装置の種類や画像出力のための外部機器の種類に関する情報に基づいて行うものとしてもよい。これは、画像の出力方式に依存して、好ましい階調が異なる場合があるためである。
【0137】
(7)ダイナミックレンジ圧縮処理および周波数処理:
次に、周波数処理(周波数強調処理)およびダイナミックレンジ圧縮処理について説明する。周波数強調処理では、たとえば以下の式に示す非鮮鋭マスク処理によって鮮鋭度を制御するために、関数Fが特公昭62−62373号公報や特公昭62−62376号公報で示される方法によって定められる。
【0138】
Sout=Sorg+F(Sorg−Sus)
なお、Soutは処理後の画像データ、Sorgは周波数強調処理前の画像データであり、Susは周波数強調処理前の画像データを平均化処理等によって処理することにより求められた非鮮鋭データである。
【0139】
この周波数強調処理では、たとえばF(Sorg−Sus)がβ×(Sorg−Sus)とされて、β(強調係数)が図13に示すように基準値T1,T2間でほぼ線形に変化される。また図14の実線で示すように、値「A」,「B」を設定して、低輝度を強調する場合には基準値T1〜値「A」までのβが最大とされて、値「B」〜基準値T2まで最小とされる。また値「A」〜値「B」までは、βがほぼ線形
に変化される。高輝度を強調する場合には破線で示すように、基準値T1〜値「A」までのβが最小とされて、値「B」〜基準値T2まで最大とされる。また値「A」〜値「B」までは、βがほぼ線形に変化される。なお、図示せずも中輝度を強調する場合には値「A」〜値「B」のβが最大とされる。このように周波数強調処理では、関数Fによって任意の輝度部分の鮮鋭度を制御することができる。
【0140】
また、周波数強調処理の方法は、上記非鮮鋭マスク処理に限られるものではなく、特開平9−44645号公報で示される多重解像度法などの手法を用いてもよい。なお、周波数強調処理では、強調する周波数帯域や強調の程度は、階調処理での基本階調曲線の選択等と同様に撮影部位や撮影体位、撮影条件、撮影方法等に基づいて設定される。
【0141】
ダイナミックレンジ圧縮処理では、以下の式に示す圧縮処理によって見やすい濃度範囲に収める制御を行うため、関数Gが特許公報266318号で示される方法によって定められる。
【0142】
Stb=Sorg+G(Sus)
なお、Stbは処理後の画像データ、Sorgはダイナミックレンジ圧縮処理前の画像データ、Susはダイナミックレンジ圧縮処理前の画像データを平均化処理等によって処理することにより求められた非鮮鋭データである。
【0143】
ここで、G(Sus)は図15(a)に示すように、非鮮鋭データSusがレベル「La」よりも小さくなるとG(Sus)が増加するような特性を有する場合、低濃度領域の濃度が高いものとされて、図15(b)に示す画像データSorgは図15(c)に示すように低濃度側のダイナミックレンジが圧縮された画像データStbとされる。また、G(Sus)は図15(d)に示すように、非鮮鋭データSusがレベル「Lb」よりも大きくなるとG(Sus)が減少するような特性を有する場合には、高濃度領域の濃度が低いものとされて、図15(b)に示す画像データSorgは図15(e)に示すように高濃度側のダイナミックレンジが圧縮される。なお、ダイナミックレンジ圧縮処理も、撮影部位や撮影体位、撮影条件、撮影方法等に基づいて補正周波数帯域や補正の程度が設定される。
【0144】
ここで、周波数強調処理やダイナミックレンジ圧縮処理での処理条件である基準値T1、T2および値「A」,「B」あるいはレベル「La」,「Lb」は、代表値D1,D2の決定方法と同様な方法で求められる。
【0145】
(8)システムからの情報による処理内容の変更:
ネットワークを介した情報として、例えばHISやRIS()放射線部門情報システム、あるいは装置自体などから得た診断目的、患者情報や処理情報(たとえば、再処理率等)によって、処理内容を変更することでより安定した処理を施すことができる。以下にその例を挙げる。
【0146】
▲1▼診断目的や患者情報による処理の変更
診断目的による処理の変更として、画像内の骨部と軟部の両方を診断したい場合は、比較的弱いコントラストで階調処理を行うことで、広いダイナミックレンジの画像を得、一方、骨折などのように、骨部だけが診断上注目する領域である場合は、コントラストが強い階調処理を行うことで、より診断に適した画像を得ることが考えられる。これらの変更は、ROIの取り方から変更する方法でもよく、ルックアップテーブルを作成する際に作成方法(パラメータ等)を変更する方法も可能である。
【0147】
また、患者情報による処理の変更としては、患者の年齢・性別・身長・体重により処理を変更する方法が考えられる。例えば、同じ胸部画像でも年齢により胸郭の大きさは異なる。したがって、患者年齢によりROIを設定する際の設定範囲を変更することで処理失敗を低減することが可能である。また、性別・体重・身長をもとに肥満度などを概算し、その肥満度に応じて、軟部領域まで見えるように階調を変える方法も考えられる。このようにすることで、体型に依存しない階調処理を行うことができる。
【0148】
さらに、複数の処理から診断目的に応じて、処理を変更する例としては診断目的が病状の経過観察である場合は、コントラストを固定し、病状の変化が認識しやすい処理(例えば、特願平10-276095号出願参照)に変更する方法が考えられる。
【0149】
また、ダイナミックレンジ圧縮処理や周波数処理についてもHISやRISの情報により、処理内容を変更することでより診断に有効な処理を行うことができる。例えば、腫瘤などの診断を行う場合と結核などの診断を行う場合とでは、注目する診断対象の周波数領域は異なる。このことから、診断目的に応じて、強調を行う周波数帯やその強度の変更することが考えられる。この他、患者の性別・体重・身長などからその肥満度などを概算し、その値に応じてダイナミックレンジ圧縮処理の強度を変えることで、患者体型に依存することなく皮膚などの軟部組織や骨の見え方を一定にするなども考えられる。
【0150】
上記の様な変更を、診断目的や患者情報により変更するのではなく、担当医の好みに合わせて変更する方法も考えられる。
▲2▼処理情報による処理の変更
システム・放射線画像処理装置などに記憶された処理の再処理率により、ROI認識処理良否や階調処理後の画像の良否判定のしきい値を変更する方法が考えられる。この場合、再処理率が高い処理ほど正しいと判定されにくい方へしきい値を変更することで、正しい画像を誤認識することなく失敗画像を認識することができる。
【0151】
以上のように、この実施の形態例では、画像処理部26が、システムおよび装置から画像処理に必要な情報を得る処理情報入手手段と、前記処理情報入手手段を用いて入手した情報により前記画像処理手段を変更する画像処理手段変更手段とを含んで構成されたことを特徴としている。
【0152】
この実施の形態例の処理では、被写体の各部を通過する放射線の透過量に対応して形成された放射線画像の画像データに画像処理を施す際に、システムおよび装置から画像処理に必要な情報を得て、この情報により画像処理手段を変更するようにしているので、診断目的や処理成功率などの装置・システムから得られる情報を考慮して処理を行い、より診断に適した失敗の少ない処理を行うことが可能になる。
【0153】
なお、ネットワークと接続するためのネットワーク接続手段を有し、前記処理情報入手手段により得る情報がネットワークを介して得られる情報であることが望ましい。
【0154】
また、複数の画像処理手段(図16参照)を有し、前記画像処理手段変更手段が前記複数の画像処理手段から1つあるいは複数の画像処理手段を選択することが望ましい。また、前記画像処理手段変更手段が処理のパラメータを変更することが望ましい。
【0155】
<その他の実施の形態例>
なお、以上の(1)〜(8)における各処理は、放射線画像の全情報を用いて行う必要はなく、間引き処理により縮小した画像を用いることが望ましい。この場合にはデータ量が少なくなるので処理速度の向上およびメモリ容量等の節減を図ることができる。この場合、間引きによる縮小画像の実効画素サイズが0.4mm〜10.0mm、好ましくは1.0mm〜6.0mmとなるように間引きされた画像データを用いることが好ましい。
【0156】
【発明の効果】
以上詳細に説明したように、本発明によれば以下のような効果が得られる。
(1)第1の発明では、被写体の各部を通過する放射線の透過量に対応して形成された放射線画像の画像データを解析して画像処理条件を決定するための画像領域を設定する際に、設定された画像領域内の画像データの統計的性質に基づいて画像処理条件を決定すると共に、設定された画像領域位置の良否の判定および不良と判定された場合は画像領域位置の自動修正や警告を行うようにしているので、適切な画像領域位置において適切な画像処理条件を決定することができるようになる。このため、より診断に適した放射線画像を得ることができる。
【図面の簡単な説明】
【図1】本発明の放射線画像処理装置の画像処理手順を示す説明図である。
【図2】本実施の形態例の放射線画像処理装置の構成を示す構成図である。
【図3】本実施の形態例の放射線画像読取器の構成を示す構成図である。
【図4】本実施の形態例の他の放射線画像読取器を用いた構成を示す構成図である。
【図5】本実施の形態例のコントローラの構成を示す構成図である。
【図6】本実施の形態例の照射野認識処理を説明するための説明図である。
【図7】本実施の形態例におけるROIの認識を説明するための説明図である。
【図8】本実施の形態例におけるROIの判定を説明するための説明図である。
【図9】本実施の形態例におけるROIの判定を説明するための説明図である。
【図10】本実施の形態例におけるレベル変換を説明するための説明図である。
【図11】本実施の形態例における正規化処理を示す説明図である。
【図12】本実施の形態例における階調変換特性を示す説明図である。
【図13】本実施の形態例における強調係数と画像データの関係を示す説明図である。
【図14】本実施の形態例における強調係数と画像データの関係を示す説明図である。
【図15】本実施の形態例におけるダイナミックレンジ圧縮処理を説明するための説明図である。
【図16】本実施の形態例における複数処理の様子を説明するための説明図である。
【図17】本実施の形態例で使用する読み取り部を説明するための説明図である。
【図18】本実施の形態例で使用する読み取り部を説明するための説明図である。
【符号の説明】
10 コントローラ
26 画像処理部
30 放射線発生器
40,60 放射線画像読取器
41 撮像パネル
44 走査駆動部
46 画像データ生成回路
48 読取制御回路
61 変換パネル
62 光ビーム発生部
63 走査部
64 反射鏡
65 集光体
66 フィルタ
67 フォトマルチプライヤ
70 電流/電圧変換部
75 読取制御部
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a radiographic image processing apparatus that processes a radiographic image, and can automatically determine the quality of an input image, a selected process, and a set region of interest, and has been obtained from a system or apparatus. The present invention relates to a radiation image processing apparatus capable of changing processing contents based on information.
[0002]
[Prior art]
Radiation images such as X-ray images are often used for disease diagnosis, etc. In order to obtain this X-ray image, X-rays transmitted through the subject are irradiated onto a phosphor layer (phosphor screen), thereby Conventionally, so-called radiographs, in which visible light is generated and developed by irradiating a film using a silver salt with the visible light in the same manner as ordinary photographs, have been used.
[0003]
However, in recent years, a method for taking out an image directly from a phosphor layer without using a film coated with silver salt has been devised. In this method, the radiation that has passed through the subject is absorbed by the phosphor, and then the phosphor is excited by light or thermal energy, for example, so that the radiation energy accumulated by the phosphor is absorbed as fluorescence. There is a method of obtaining an image signal by radiating and photoelectrically converting the fluorescence.
[0004]
Specifically, for example, US Pat. No. 3,859,527 and JP-A-55-12144 disclose a radiation image conversion method using a stimulable phosphor and using visible light or infrared light as stimulating light. This method uses a radiation image conversion panel in which a photostimulable phosphor layer is formed on a support. The radiation transmitted through the subject is applied to the photostimulable phosphor layer of the conversion panel, and the radiation of each part of the subject is detected. Radiation energy corresponding to the transmittance is accumulated to form a latent image, and then the stimulated layer is scanned with stimulated excitation light to radiate the accumulated radiation energy and convert it into light. This optical signal is photoelectrically converted to obtain a radiation image signal.
[0005]
The radiographic image signal thus obtained is subjected to image processing as it is or output to a silver salt film, CRT or the like for visualization or filing in an electronic filing device. In the image processing, the density of the region of interest in the reconstructed image (the region including the image part necessary for medical diagnosis) is made constant, and the shadow of the human body structure and lesion (region of interest) is output more easily. For this purpose, image processing such as gradation processing and spatial frequency processing is performed.
[0006]
For example, in the radiation image processing apparatus disclosed in Japanese Patent Application Laid-Open No. 3-218578, the region of interest is determined by analyzing the image signal, and the gradation processing condition is automatically determined based on the image signal in the region of interest. Thus, it is disclosed that gradation processing is performed, whereby an output image having a stable density and gradation can be automatically obtained and diagnostic performance can be improved.
[0007]
By the way, in the radiograph, the radiographer (radiologist) adjusts the irradiation dose, tube voltage, etc. according to the patient's body shape, the part to be observed, etc. based on the know-how obtained from experience, and the output image is the radiographer's According to the adjustment result, it is reproduced as it is. However, there is a possibility that imaging may fail due to the peculiarity of the patient's body shape or imaging errors, etc., and the radiographs visualized by the development process are visually judged to determine the quality of the imaging, and re-imaging etc. according to the determination result I was dealing with.
[0008]
In this regard, in the case of a system that obtains a radiographic image signal using the radiation image conversion panel, since development processing is unnecessary, it is possible to immediately determine whether or not radiography is good (imaging conditions or / and reading conditions are poor) on the spot. In addition, since image processing is performed after image capturing and reading as an image signal, it is possible to obtain a desired image by compensating image capturing and reading conditions to some extent by image processing.
[0009]
In addition, since the radiation image information is handled as the image signal in the system for obtaining the irradiation line image signal as described above, it is possible to automate the determination of the quality of the input image and processing.
[0010]
As such a quality determination, for example, there is one described in Japanese Patent Application Laid-Open No. 6-78910, and there is known a method for determining the quality of image data subjected to image processing.
[0011]
[Problems to be solved by the invention]
However, since the quality is determined using the processed image, there is a problem that the determination is made after all the processes are completed. In addition, since only the information in the image is referred to, there is a problem that there is little information that can be used for determination conditions and processing conditions.
[0012]
The present invention has been made in view of the problems as described above, and performs processing in consideration of information obtained from the apparatus / system, can perform processing more suitable for diagnosis, and fails in input or processing. An object of the present invention is to realize a radiographic image processing apparatus capable of determining the above in each process and performing rapid processing.
[0013]
It is another object of the present invention to realize a radiographic image processing apparatus capable of providing a smooth flow to reprocessing by omitting time by detecting a failure at the input or processing stage.
[0014]
[Means for Solving the Problems]
The present invention for solving the above problems is as follows.
(1) The first invention (Claim 1) is an image area for determining image processing conditions by analyzing image data of a radiographic image formed corresponding to the amount of radiation transmitted through each part of a subject. Area setting means for setting the image processing condition setting means for determining image processing conditions based on the statistical properties of the image data in the image area set by the area setting means, and the area setting means The radiation image processing apparatus is characterized by comprising image region position quality determination means for determining the quality of the image area position and outputting an image area position quality determination signal.
[0015]
In the present invention, when setting an image region for determining image processing conditions by analyzing image data of a radiographic image formed corresponding to the amount of transmitted radiation passing through each part of the subject, the set image is set. The image processing conditions are determined based on the statistical properties of the image data in the area, and the quality of the set image area position is determined, so the appropriate image processing condition is determined at the appropriate image area position. Will be able to. For this reason, a radiographic image more suitable for diagnosis can be obtained.
[0016]
The image area position quality determination means preferably determines the quality of the image area position based on the statistical properties of the image data in the image area set by the area setting means.
[0017]
The image area position quality determination means preferably determines the quality of the image area position by using position information in the entire image of the image area set by the area setting means.
[0018]
The image area position pass / fail determination means includes, as data indicating the statistical properties in the image area set by the area setting means, a substantially maximum value, a substantially minimum value of the image data, and a parameter indicating the degree of dispersion. , Based on at least one of a ratio of the image data distributed within the predetermined range, a parameter indicating the degree of dispersion of the image data within the predetermined range, and a parameter indicating the degree of separation by the discriminant analysis method of the image data, It is desirable to determine the quality of the image area position.
[0019]
The image area position pass / fail determination means includes a specific area setting means for setting a specific area in the image separately from the image area by the image area determination means, and the area setting means is used as position information in the entire image. It is desirable to determine whether the image area position is good or not based on whether or not the image area set by (1) includes the area set by the specific area setting means.
[0020]
The area set by the specific area setting means is preferably a predetermined area in the image.
It is desirable that the area set by the specific area setting means is at least one of a maximum signal value area or a minimum signal value area in the subject.
[0021]
Note that when the defect is determined based on the image area position pass / fail determination signal, the area setting means sets the data indicating the statistical properties in the image area in a direction approaching a desired value. It is desirable to provide area setting resetting means for resetting the area.
[0022]
The area set by the area setting unit is reset in a direction in which the position of the image area in the entire image approaches the desired position when a defect is determined based on the image area position pass / fail determination signal. It is desirable to provide an area setting resetting means.
[0023]
It is desirable to provide failure determination time processing means changing means for performing processing by another preset processing means when a defect is determined based on the image area position pass / fail determination signal.
[0024]
It is desirable to have an image area warning signal output means for outputting a signal when a defect is determined based on the image area position pass / fail determination signal.
The failure determination time processing means changing means is preferably default image area setting means for setting the image area to a preset area.
[0040]
DETAILED DESCRIPTION OF THE INVENTION
First, embodiments of the present invention will be described in detail with reference to the drawings. First, the configuration of the radiographic image processing apparatus according to the present embodiment will be described, then the operation of the radiographic image processing apparatus will be described, and further detailed description of image processing will be given.
[0041]
<Configuration of radiation image processing apparatus>
FIG. 2 is a system configuration diagram showing the overall configuration of the radiation image processing apparatus. The radiation generator 30 is controlled by the controller 10, and the radiation emitted from the radiation generator 30 is applied to the imaging panel mounted on the front surface of the radiation image reader 40 through the subject 5.
[0042]
FIG. 3 shows a configuration of a radiation image reader 40 using an FPD (Flat Panel Display). The imaging panel 41 has a substrate having a thickness sufficient to obtain a predetermined rigidity, and a detection element 412-(1,1) that outputs an electrical signal on the substrate according to the dose of irradiated radiation. ) To 412- (m, n) are two-dimensionally arranged in a matrix. Further, the scanning lines 415-1 to 415-m and the signal lines 416-1 to 416-n are disposed so as to be orthogonal, for example.
[0043]
The scanning lines 415-1 to 415-m of the imaging panel 41 are connected to the scanning driving unit 44. When the readout signal RS is supplied from the scan driver 44 to one of the scanning lines 415-1 to 415-m (p is any value of 1 to m), the scanning line 415 is supplied. Electric signals SV-1 to SV-n corresponding to the radiation dose irradiated from the detection element connected to -p are output to the image data generation circuit 46 via the signal lines 416-1 to 416-n. Supplied.
[0044]
This detection element 412 may be any element that outputs an electrical signal corresponding to the dose of irradiated radiation. For example, when a detection element is formed using a photoconductive layer in which electron-hole pairs are generated and change in resistance when irradiated with radiation, the detection element is in accordance with the amount of radiation generated in the photoconductive layer. A quantity of charge is stored in the charge storage capacitor, and the charge stored in the charge storage capacitor is supplied to the image data generation circuit 46 as an electrical signal. It is desirable that the photoconductive layer has a high dark resistance value, such as amorphous selenium, lead oxide, cadmium sulfide, mercuric iodide, or an organic material exhibiting photoconductivity (photoconductivity to which an X-ray absorption compound is added. In particular, amorphous selenium is desirable.
[0045]
When the detection element 412 is formed using, for example, a scintillator that generates fluorescence when irradiated with radiation, an image signal is generated by generating an electrical signal based on the fluorescence intensity generated by the scintillator with a photodiode. The circuit 46 may be supplied.
[0046]
As the imaging panel 41 using such a configuration, as disclosed in JP-A-9-90048, X-rays are absorbed by a phosphor layer such as an intensifying screen to generate fluorescence, and the intensity of the fluorescence. Is detected by a photodetector such as a photodiode provided for each pixel. As another fluorescence detecting means, there is a method using a CCD or a C-MOS sensor.
[0047]
In particular, in the imaging panel (FPD) of the method disclosed in the above Japanese Patent Laid-Open No. 6-342098, since the X-ray dose is directly converted into the charge amount for each pixel, the sharpness degradation in the FPD is small and the sharpness is excellent. Since an image is obtained, the effects of the X-ray image recording system and the X-ray image recording method are great and preferable.
[0048]
Furthermore, the imaging panel 41 can be configured as shown in FIGS. 17 and 18. FIG. 17 is a front view of a radiation image detector that can be used as the imaging panel 41, and shows an example in which the radiation image detector is constituted by a plurality of units. The dotted line in FIG. 17 is a line of the grid 50 of the radiation image detector, but is actually hidden from the protective member and the X-ray scintillator and cannot be seen from the front. FIG. 17 shows an example of 6 × 6 = 36 units, but the number is not limited to this.
[0049]
FIG. 18 is a schematic diagram of a longitudinal section of a radiation image detector. The radiation image detector is configured by arranging an X-ray scintillator 51, a lens array 52, and area sensors 54 corresponding to the lenses 53 of the lens array 52 in this order. The X-ray scintillator 51 is protected by a protection member 55. Each lens 53 of the lens array 52 is supported by a lens support member 58, and a transparent member 56 is disposed between the X-ray scintillator 51 and the lens array 52. The area sensor 54 is supported by an area sensor support member 57.
[0050]
The shape, thickness, ray path, etc. of the elements of the radiographic image feeding rod are not accurate. The grid 50 does not directly touch the X-ray scintillator 51 but abuts against the transparent member 56, thereby preventing the grid 50 from hitting the X-ray scintillator 51 and scratching it, and the boundary line of the grid 50 to Prevents missing parts.
[0051]
Since the area sensors 54 corresponding to the respective lenses 53 of the lens array 52 are arranged in this order, the spatial resolution is high, the image quality is high, the thickness is small, the size is small, and the weight is light.
[0052]
The X-ray scintillator 51 emits visible light upon exposure to X-rays such as gadolinium oxysulfide and cesium iodide, and the X-ray scintillator 51 emits visible light upon exposure to X-rays, resulting in high spatial resolution and high image quality. is there.
[0053]
The lens array 52 is formed from a lens group composed of a combination of two or more different lenses 53, has high spatial resolution, high image quality, and can be made thin. If the imaging magnification of the lens 53 is from 1 / 1.5 to 1/20, and the imaging magnification is greater than 1 / 1.5, the area sensor becomes too large to be disposed, and if it is less than 1/20, X The distance from the line scintillator 51 to the lens increases, and the thickness of the radiation image detector increases.
[0054]
A clear image can be obtained by using a solid-state imaging device such as a CCD or C-MOS sensor as the area sensor 54.
The image data generation circuit 46 sequentially selects the electrical signal SV supplied based on an output control signal SC from a read control circuit 48 described later, and converts it into digital image data DT. The image data DT is supplied to the reading control circuit 48.
[0055]
The reading control circuit 48 is connected to the controller 10 and generates a scanning control signal RC and an output control signal SC based on the control signal CTD supplied from the controller 10. The scanning control signal RC is supplied to the scanning drive unit 44, and the readout signal RS is supplied to the scanning lines 415-1 to 415-m based on the scanning control signal RC.
[0056]
The output control signal SC is supplied to the image data generation circuit 46. For example, when the imaging panel 41 is configured by (m × n) detection elements 412 as described above by the scanning control signal RC and the output control signal SC from the reading control circuit 48, the detection element 412− Assuming that data based on the electric signal SV from (1,1) to 412- (m, n) is data DP (1,1) to DP (m, n), data DP (1,1), DP (1 , 2),... DP (1, n), DP (2,1),..., DP (m, n) in this order, and the image data DT is generated by the image data generation circuit 46. To the reading control circuit 48. Further, the reading control circuit 48 also performs processing for sending the image data DT to the controller 10.
[0057]
Image data DT obtained by the radiation image reader 40 is supplied to the controller 10 via the reading control circuit 48. If the image data obtained by logarithmic conversion processing is supplied when the image data obtained by the radiation image reader 40 is supplied to the controller 10, the processing of the image data in the controller 10 can be simplified.
[0058]
Further, the radiation image reader is not limited to the one using FPD, and may be one using a stimulable phosphor. FIG. 4 shows a configuration when a radiation image reader 60 using a stimulable phosphor is used. In the conversion panel 61 irradiated with radiation, a stimulable phosphor layer is stimulated on the support. It is provided by vapor deposition of photosensitive phosphor or application of stimulable phosphor coating. This photostimulable phosphor layer is shielded or covered with a protective member in order to block adverse effects and damages caused by the environment.
[0059]
A light beam generating unit (gas laser, solid state laser, semiconductor laser, etc.) 62 generates a light beam whose emission intensity is controlled. This light beam reaches the scanning unit 63 via various optical systems, is deflected by the scanning unit 63, further deflects the optical path by the reflecting mirror 64, and is guided to the conversion panel 61 as the excitation excitation scanning light. .
[0060]
A condensing end made of an optical fiber or a sheet-like light guide member of the condensing body 65 is disposed in the vicinity of the conversion panel 61 where the excitation light is scanned, and scanning of the light beam from the light beam generating unit 62 is performed. Thus, the stimulated light emission having the light emission intensity proportional to the latent image energy generated in the conversion panel 61 is received.
[0061]
The filter 66 passes only light in the stimulated emission wavelength region from the light introduced from the light collector 65, and the light that has passed through the filter 66 is incident on the photomultiplier 67.
[0062]
The photomultiplier 67 generates a current signal corresponding to incident light by photoelectric conversion. This current signal is supplied to the current / voltage conversion unit 70 and converted into a voltage signal. Further, the voltage signal is amplified by the amplifying unit 71 and then converted to digital image data DT by the A / D converting unit 72. Here, a logarithmic conversion amplification unit (log amplifier) is used as the amplification unit 71. The image data DT is sequentially subjected to image processing in the image processing apparatus 80, and the image data DTC after image processing is transmitted to the printer 83 via the interface 82.
[0063]
A CPU (Central Processing Unit) 81 is for controlling image processing in the image processing device 80. In the image processing device 80, various image processing (for example, spatial frequency processing, dynamic range processing) is performed on the image data DT. Compression, gradation processing, enlargement / reduction processing, movement, rotation, statistical processing, etc.) to generate image data DTC in a form suitable for diagnosis.
[0064]
This image data DTC is supplied to the printer 83, and a hard copy of the radiation image of each part of the human body can be obtained from the printer 83. A monitor such as a CRT may be connected to the interface 82, and a storage device (filing system) that can store image data of a plurality of radiation images may be connected.
[0065]
The read controller 75 also adjusts the light beam intensity of the light beam generator 62, adjusts the gain of the photomultiplier 67 by adjusting the power supply voltage of the high voltage power supply 76 for the photomultiplier, and adjusts the current / voltage converter 70 and the amplifier 71. Gain adjustment and adjustment of the input dynamic range of the A / D converter 72 are performed, and the reading gain is adjusted comprehensively.
[0066]
The image data DT obtained from the A / D conversion unit 72 is supplied to the controller 10 and controls the operation of the reading control unit 75 by a control signal CTD from the controller 10.
[0067]
The radiation image reader may irradiate light from a light source such as a laser or a fluorescent lamp onto a silver salt film on which a radiation image is recorded, and photoelectrically convert the transmitted light of the silver salt film to generate image data. Good. Moreover, the structure which converts radiation energy directly into an electrical signal using a radiation quantum counting type detector, and produces | generates image data may be sufficient.
[0068]
Next, the configuration of the controller 10 is shown in FIG. The CPU 11 for controlling the operation of the controller 10 is connected to the system bus 12 and the image bus 13 and to the input interface 17. The operation of the CPU 11 for controlling the operation of the controller 10 is controlled based on a control program stored in the memory 14.
[0069]
A display control unit 15, a frame memory control unit 16, an output interface 18, a shooting control unit 19, a disk control unit 20, and the like are connected to the system bus 12 and the image bus 13. Is controlled, and image data is transferred between the units via the image bus 13.
[0070]
A frame memory 21 is connected to the frame memory control unit 16, and image data obtained by the radiation image reader 40 is stored via the imaging control unit 19 and the frame memory control unit 16. The image data stored in the frame memory 21 is read and supplied to the display control unit 15 and the disk control unit 20. The frame memory 21 may store the image data supplied from the radiation image reader 40 after being processed by the CPU 11.
[0071]
An image display device 22 is connected to the display control unit 15, and a radiographic image based on the image data supplied to the display control unit 15 is displayed on the screen of the image display device 22. Here, when the number of display pixels of the image display device 22 is smaller than the number of pixels of the radiation image reader 40, the entire captured image can be displayed on the screen by reading out the image data. Further, if image data in a region corresponding to the number of display pixels of the image display device 22 is read, a captured image at a desired position can be displayed in detail.
[0072]
When image data is supplied from the frame memory 21 to the disk control unit 20, for example, the image data is continuously read out and written into the FIFO memory in the disk control unit 20, and then sequentially recorded in the disk device 23. The
[0073]
Further, the image data read from the frame memory 21 and the image data read from the disk device 23 can be supplied to the external device 100 via the output interface 18.
[0074]
In the image processing unit 26, irradiation field recognition processing, region of interest setting, normalization processing and gradation processing of the image data DT supplied from the radiation image reader 40 via the imaging control unit 19, and image area position pass / fail determination Processing is performed. Further, frequency enhancement processing, dynamic range compression processing, or the like may be performed. In addition, image processing etc. can also be performed as the structure which CPU11 serves as the image processing part 26. FIG.
[0075]
Therefore, the image processing unit 26 includes an area setting unit for determining ROI in the claims, an image processing condition setting unit, an image area quality determination unit, an input image quality determination unit, an image processing unit quality determination unit, an image processing unit change unit, Is configured.
[0076]
An input device 27 such as a keyboard is connected to the input interface 17. By operating the input device 27, management information such as information for identifying image data obtained by photographing and information relating to photographing is input.
[0077]
As the external device 100 connected to the output interface 18, a scanning laser exposure apparatus called a laser imager is used. In this scanning laser exposure apparatus, the intensity of a laser beam is modulated by image data, and after exposure to a conventional silver halide photographic light-sensitive material or thermal phenomenon silver halide photographic light-sensitive material, an appropriate development process is performed, thereby performing radiographic image processing. A hard copy can be obtained.
[0078]
Although the image data supplied from the radiation image reader 40 is stored in the frame memory 21, the supplied image data may be stored after being processed by the CPU 11. The disk device 23 stores image data stored in the frame memory 21, that is, image data supplied from the radiation image reader 40 and image data obtained by processing the image data by the CPU 11 together with management information. be able to.
[0079]
<Operation of radiation image processing apparatus>
Next, the operation of the above radiation image processing apparatus will be described. When obtaining a radiographic image of the subject 5, the subject 5 is assumed to be positioned between the radiation generator 30 and the imaging panel 41 of the radiographic image reader 40, and the radiation emitted from the radiation generator 30 is the subject 5. And the radiation that has passed through the subject 5 enters the imaging panel 41. The same applies to the case where the radiation image reader 60 is used instead of the radiation image reader 40. In the following description, the radiation image reader 40 is used, and the description when the radiation image reader 60 is used is omitted. To do.
[0080]
Management information indicating identification of the subject 5 to be photographed and information relating to photographing is input to the controller 10 using the input device 27. Input of management information using the input device 27 is performed by operating a keyboard, using a magnetic card, a bar code, HIS (in-hospital information system: network-based information management), or the like.
[0081]
This management information includes, for example, an ID number, name, date of birth, sex, imaging date and time, imaging site and imaging position (for example, which part of the human body was irradiated with radiation from which direction), imaging method (simple imaging, contrast imaging) Imaging, tomographic imaging, magnified imaging, etc.), imaging conditions (tube voltage, tube current, irradiation time, presence / absence of use of scattered radiation removal grid, etc.).
[0082]
The shooting date and time can be automatically obtained from the CPU 11 by using a clock function built in the CPU 11. It should be noted that the management information to be input may be only related to the subject to be photographed at that time. A series of management information is input in advance, and the subjects are photographed in the order of input, or the management that has been input as necessary. Information may be read and used.
[0083]
When the power switch of the radiation image reader 40 is turned on, the imaging panel 41 is initialized by the reading control circuit 48 and the scanning drive unit 44 of the radiation image reader 40 based on the control signal CTD from the controller 10. Is called. This initialization is for obtaining a correct electrical signal corresponding to the radiation dose emitted from the imaging panel 41.
[0084]
When the initialization of the imaging panel 41 in the radiation image reader 40 is completed, the radiation from the radiation generator 30 can be irradiated. Here, when a switch for irradiating radiation is provided in the radiation generator 30, when this switch is operated, radiation is emitted from the radiation generator 30 toward the subject 5 for a predetermined time, and A signal DFS indicating the start of radiation irradiation and a signal DFE indicating the end of irradiation are supplied to the controller 10.
[0085]
At this time, the radiation amount of the radiation applied to the imaging panel 41 of the radiation image reader 40 is modulated by the subject 5 because the degree of radiation absorption by the subject 5 is different. In the detection elements 412-(1,1) to 412-(m, n) of the imaging panel 41, an electrical signal based on the radiation modulated by the subject 5 is generated.
[0086]
Next, in the controller 10, a predetermined time after the signal DFS is supplied, for example, when the irradiation time of the radiation is about 0.1 seconds, a time longer than this irradiation time (for example, about 1 second), or Immediately after the signal DFE is supplied, the control signal CTD is supplied to the reading control circuit 48 of the radiation image reader 40 in order to start generation of the image data DT by the radiation image reader 40.
[0087]
On the other hand, when a switch for irradiating radiation is provided in the controller 10, when this switch is operated, an irradiation start signal CST for starting irradiation of radiation is transmitted via the imaging control unit 19 to the radiation generator. 30, radiation is emitted from the radiation generator 30 toward the subject 5 for a predetermined time. This irradiation time is set based on management information, for example.
[0088]
Next, in the controller 10, a predetermined time after outputting the irradiation start signal CST, a control signal CTD for starting generation of image data by the radiation image reader 40 is sent to the reading control circuit 48 of the radiation image reader 40. Supply. The controller 10 supplies the radiographic image reader 40 with a control signal CTD for starting generation of image data by the radiographic image reader 40 after detecting the end of radiation irradiation by the radiation generator 30. It is good. In this case, generation of image data during radiation irradiation can be prevented.
[0089]
In the reading control circuit 48 of the radiation image reader 40, the scanning control signal RC and the output control signal SC are generated based on the control signal CTD for starting the generation of the image data supplied from the controller 10. The scanning control signal RC is supplied to the scanning drive unit 44 and the output control signal SC is supplied to the image data generation circuit 46, and the image data DT obtained from the image data generation circuit 46 is supplied to the reading control circuit 48. The The image data DT is sent to the controller 10 by the reading control circuit 48.
[0090]
The image data DT supplied to the controller 10 is stored in the frame memory 21 via the imaging control unit 19, the frame memory control unit 16, and the like. A radiographic image can be displayed on the image display device 22 by using the image data stored in the frame memory 21. Further, the image data stored in the frame memory 21 is processed by the image processing unit 26 and supplied to the display control unit 15, or the image data subjected to the image processing is stored in the frame memory 21, and the frame memory 21 By supplying the stored image data to the display control unit 15, the brightness, contrast, sharpness, and the like are adjusted, and a radiation image suitable for diagnosis or the like can be displayed. In addition, by supplying image data that has undergone image processing to the external device 100, a hard copy of a radiation image suitable for diagnosis or the like can be obtained.
[0091]
In the image processing unit 26, even if the level distribution of the image data output from the imaging panel 41 varies due to the difference in radiation dose, the normalization of the image data DT is always performed so that a stable radiation image can be obtained. Processing is performed. Even if the distribution of the level of the image data fluctuates, gradation processing is performed on the normalized image data DTreg, which is image data after normalization processing, in order to obtain a density and contrast radiation image suitable for diagnosis and the like. Done. Further, the image processing unit 26 reduces the contrast of the fine structure portion of the subject in the frequency enhancement processing for controlling the sharpness of the normalized radiation image with respect to the normalized image data DTreg and the entire radiation image having a wide dynamic range. It is also possible to perform a dynamic range compression process so that the density is within the easy-to-see density range.
[0092]
<Contents of image processing>
In the radiographic image processing apparatus according to the present embodiment, prior to the normalization processing, gradation processing, and dynamic range compression processing described above, irradiation field recognition processing, input image quality determination, processing key selection quality determination, ROI recognition, It is characterized by performing ROI pass / fail judgment.
[0093]
That is, the image processing procedure of the present embodiment is different from the conventional processing procedure and is as shown in FIG. As shown in FIG. 1, the processing procedure of this embodiment is as follows.
・ Irradiation field recognition processing,
・ Input image pass / fail judgment processing,
・ Process key selection pass / fail judgment processing,
・ ROI recognition processing,
・ ROI pass / fail judgment processing,
・ Dynamic range compression processing, frequency processing, histogram normalization processing, gradation processing, etc.
・ Change of processing contents by system information,
It is like this. Hereinafter, the processing procedure of the present embodiment will be described in this order.
[0094]
(1) Irradiation field recognition processing:
By the way, when taking a radiographic image, for example, in order to prevent radiation from being applied to a portion not required for diagnosis, or to a portion not required for diagnosis, radiation scattered in this portion is used for diagnosis. In order to prevent the resolution from being reduced by being incident on a required portion, a radiation non-transparent material such as a lead plate is installed in a part of the subject 5 or the radiation generator 30 so that the radiation field to the subject 5 is irradiated. Irradiation field restriction is performed to limit the above.
[0095]
When this irradiation field stop is performed, if level conversion processing and subsequent gradation processing are performed using the image data of the irradiation field area and the irradiation field area, the image data in the irradiation field is determined by the image data of the irradiation field area. Image processing of a part required for diagnosis is not performed properly. For this reason, the image processing unit 26 performs irradiation field recognition processing for determining the irradiation field inner region and the irradiation field outer region.
[0096]
In the irradiation field recognition processing, for example, a method disclosed in Japanese Patent Application Laid-Open No. 63-259538 is used, and a line from a predetermined position P on the imaging surface toward the end side of the imaging surface as shown in FIG. For example, differentiation processing is performed using the above image data. As shown in FIG. 6B, the differential signal Sd obtained by this differentiation processing has a signal level that increases at the irradiation field edge portion. Therefore, the signal level of the differential signal Sd is determined to determine one irradiation field edge candidate point. EP1 is required. A plurality of irradiation field edge candidate points EP1 to EPk are obtained by performing the process of obtaining the irradiation field edge candidate points radially about a predetermined position on the imaging surface. An irradiation field edge portion is obtained by connecting adjacent edge candidate points of the plurality of irradiation field edge candidate points EP1 to EPk obtained in this way with straight lines or curves.
[0097]
Moreover, the method shown by Unexamined-Japanese-Patent No. 5-7579 can also be used. In this method, when the imaging surface is divided into a plurality of small areas, the radiation dose of the radiation is reduced substantially uniformly in the small areas outside the irradiation field where radiation irradiation is blocked by the irradiation field stop. Becomes smaller. In addition, in a small region within the irradiation field, the radiation value is modulated by the subject, so that the dispersion value is higher than that outside the irradiation field. Further, in a small region including the irradiation field edge portion, the portion with the smallest radiation dose and the portion with the radiation dose modulated by the subject coexist, so the dispersion value is the highest. From this, the small area including the irradiation field edge portion is determined by the dispersion value.
[0098]
Moreover, the method shown by Unexamined-Japanese-Patent No. 7-181609 can also be used. In this method, image data is rotated about a predetermined center of rotation, and rotation is performed until the boundary line of the irradiation field becomes parallel to the coordinate axis of the orthogonal coordinates set on the image by the parallel state detection means. When the state is detected, the linear equation of the boundary before rotation is calculated by the linear equation calculation means based on the rotation angle and the distance from the rotation center to the boundary line. Thereafter, by determining a region surrounded by a plurality of boundary lines from a linear equation, the region of the irradiation field can be determined. When the irradiation field edge portion is a curve, for example, one boundary point is extracted based on the image data by the boundary point extracting means, and the next boundary point is extracted from the boundary candidate point group around this boundary point. Similarly, by sequentially extracting boundary points from the boundary candidate point group around the boundary points, it is possible to determine whether the irradiation field edge portion is a curve.
[0099]
(2) Input image quality determination process:
At this stage, whether or not the input radiation image is appropriate is determined by the following procedure.
(1) Check the maximum and minimum pixel values of the input radiation image.
(2) If the maximum pixel value reaches the maximum pixel value specified by the device, the user is warned that the signal value is saturated and the radiation dose is adjusted correctly. Prompt for confirmation.
(3) Check the pixel value between the maximum value and the minimum value, and if the value is larger than the predetermined value, or smaller than another predetermined value, the histogram width is It warns that it is extremely wide or narrow, and prompts you to confirm that the tube voltage and other adjustments are correct.
[0100]
The warning (output of the input image quality determination signal) may be displayed on a display such as the image display device 22 or may be a synthesized voice.
As described above, in this embodiment, the image processing unit 26 constitutes an input image quality determination unit, which determines the quality of the input radiation image and outputs an input image quality determination signal. To do.
[0101]
In the processing of this embodiment, when performing image processing on the image data of the radiographic image formed corresponding to the amount of radiation transmitted through each part of the subject, the quality of the radiographic image is determined, and the quality of the input image is determined. Since the determination signal is output, it is possible to perform processing only on an image more suitable for diagnosis.
[0102]
The input image quality determination unit includes an input image distribution state detection unit for detecting data indicating a distribution state of image data of a radiographic image formed corresponding to the amount of transmitted radiation. It is desirable to determine the quality of the input image based on a comparison between a predetermined value and data indicating the distribution state of the input image data detected by the image distribution detection means.
[0103]
The image processing apparatus further includes an area setting unit that sets an image area for determining image processing conditions by analyzing image data of a radiographic image formed corresponding to the amount of transmitted radiation passing through each part of the subject. It is desirable that the image distribution state detection means detects data indicating a distribution state of data in the image area. Further, as the data indicating the distribution state of the input image data detected by the input image distribution state detecting means, the image data is distributed within a predetermined range and a substantially maximum value, a substantially minimum value, a parameter indicating the degree of dispersion. The quality of the input image is determined based on at least one of the ratio of the image data, the parameter indicating the degree of dispersion of the image data within the predetermined range, and the parameter indicating the degree of separation by the image data discriminant analysis method. It is desirable. Further, it is desirable that the input image quality determination means determines the quality of the input image based on whether or not the input image signal is saturated. It is desirable to have an input image warning signal output means for outputting a signal when the input image is not appropriate.
[0104]
(3) Processing key selection pass / fail judgment processing:
When performing gradation processing, a processing key is selected. This is because more stable processing is performed by changing the processing method depending on the part or the like. In the quality determination of the process key selection, it is determined whether or not the correct process key has been selected for the imaged part. This is done by the following method.
(1) The maximum / minimum pixel value of the input radiation image and the ratio of the signal value between the low signal value side and the high signal value side with the median value as the boundary are examined.
(2) Check the pixel value between the maximum value and the minimum value, and if the value is significantly different from the value set in consideration of the value obtained when imaging the part to be processed with the normally selected key, The ratio between the low signal value side and the high signal value side obtained in (1) is significantly different from the value set in consideration of the ratio of the signal value obtained when the region to be processed with the normally selected key is imaged. If so, warn the user that the selected process key may be incorrect.
[0105]
In addition to the above determination method, a method using the shape of a histogram is also conceivable. In the case of a radiographic image, for example, in the case of a chest front image, the histogram has a shape such as two peaks with a large valley in between. It is also possible to determine whether or not the selected process is correct using such a feature.
[0106]
The warning may be displayed on a display such as the image display unit 22 or may be a synthesized voice.
As described above, in this embodiment, the image processing unit 26 constitutes an image processing unit (processing key) quality determination unit, determines the quality of the selected image processing unit (processing key), and the image The processing means (processing key) outputs a pass / fail judgment signal.
[0107]
In the processing of this embodiment, when performing image processing on image data of a radiographic image formed corresponding to the amount of radiation passing through each part of the subject, the processing key can be selected from a plurality of processing keys. In addition, since the quality of the selected processing key is judged and the processing key quality judgment signal is output, it becomes possible to select an appropriate processing, and more suitable failure for diagnosis. Less processing can be performed.
[0108]
Note that the image processing apparatus includes input image distribution state detection means for detecting data indicating a distribution state of image data of a radiographic image formed corresponding to the radiation transmission amount, and the processing key pass / fail determination means includes the input image. It is desirable to determine whether the selected processing key is good or bad based on a comparison between a predetermined value and data indicating the distribution state of the input image data detected by the distribution detecting means.
[0109]
An area in which the input image distribution state detection means sets an image area for determining image processing conditions by analyzing image data of a radiographic image formed corresponding to the amount of radiation transmitted through each part of the subject It is desirable to have setting means and detect data indicating the distribution state of the data in the image area.
[0110]
Further, as the data indicating the distribution state of the input image data detected by the processing unit distribution state detection unit, the image data is distributed within a predetermined range and a substantially maximum value, a substantially minimum value, a parameter indicating the degree of dispersion. Based on at least one of the ratio of the image data, the parameter indicating the degree of dispersion of the image data within the predetermined range, and the parameter indicating the degree of separation by the determination analysis method of the image data, the selected image processing means It is desirable to judge pass / fail.
[0111]
It is also desirable to have processing means warning signal output means for processing signals when the selected processing means is not appropriate.
(4) ROI recognition processing:
When the irradiation field recognition is performed, the image processing unit 26 converts the distribution of the image data DT from the radiation image reader into a desired level distribution, and then the level distribution of the image data DT from the radiation image reader. A region (hereinafter referred to as “region of interest” or “ROI (Region Of Interest)”) is determined. By determining a representative value from the image data in the ROI set here and converting the representative value to a desired level, image data having a desired level distribution can be obtained.
[0112]
For example, the setting of the ROI to the rib cage in the chest front process is set according to the following procedure. First, the left and right lines are determined by the following S1 to S3.
S1: Find vertical projections (cumulative values in one direction of the data) of the upper and lower parts of the image data and the part that excludes the outside of the irradiation field (FIG. 7A and FIG. 7). b)).
S2: A point where the signal value has a minimum value (referred to as Pc) in the range of 1/3 of the central portion (1/3 * x to 2/3 * x in FIG. 7) from the obtained vertical projection. The middle line column (Xc).
S3: The calculated vertical projection value is calculated from the 1/3 column (2/3 * x, 1/3 * x in FIG. 7) of the left and right images to the outside (left and right direction) of the image. A point below the threshold (Tl, Tr) is searched for, and the first point is taken as the left and right ends (Xl, Xr) of the lung field. As the threshold value, the maximum value (Plx, Prx) of the projection value is updated from the column of Pc and 1/3 of the entire image toward the outside (left-right direction) of the image,
Tl = ((k1-1) * Plx + Pc) / k1
Tr = ((k2-1) * Prx + Pc) / k2
And Here, k1 and k2 are constants.
[0113]
Next, the upper and lower lines are determined by S4 and S5.
S4: Take a horizontal projection in the section determined in the above step (FIG. 7C).
S5: The horizontal direction obtained from the 1/4 and 1/2 lines (1/4 * y, 1/2 * y in FIG. 7) of the entire image in the upper and lower directions toward the outside (vertical direction) of the image A point whose projection value is equal to or less than the threshold value is searched for, and the first point is set as the upper and lower ends (Yt, Yb) of the right lung field. As the threshold, each of the whole image
The maximum value (Ptx, Pbx) of the projection value in the range of 1/4 * y to 1/2 * y and 1/2 * y to 4/5 * y and the line of the maximum value outside the image (vertical direction) Using the minimum projection value (Ptn, Pbn) in the range of
Tt = ((k3-1) * Ptx + Ptn) / k3
Tb = ((k4-1) * Pbx + Pbn) / k4
And Here, k3 and k4 are constants.
[0114]
Further, the parameters k1 to k4 used for obtaining the threshold value by the above formula are obtained empirically.
The setting of the ROI is not limited to the case where the profile is analyzed and set as described above. For example, as shown in JP-A-5-7578, the image data of each pixel and the discriminant analysis method are used. Threshold values determined by the above are compared, and an identification code is added to each pixel based on the comparison result. Labeling is performed for each pixel group having consecutive identification codes indicating that the threshold value is greater than or equal to the threshold value. The field area is extracted, and the ROI can be set so as to include the lung field and the subdiaphragm area on the basis of the extracted lung field area.
[0115]
Further, as disclosed in JP-A-62-26047, a lung field region is recognized by detecting a lung field contour using a boundary point tracking method, and the lung field and the subdiaphragm are based on the recognized lung field region. The ROI may be set so as to include the region.
[0116]
Furthermore, since it is generally performed that the most important part for diagnosis is taken as the center of the irradiation field, a region such as a circle or a rectangle is set at the center of the irradiation field region and the ROI is set. You can also
[0117]
(5) ROI pass / fail judgment processing:
It is determined whether or not the ROI recognized and set as described above is a correct area. Here, chest front processing is taken as an example.
[0118]
(5-1) ROI pass / fail judgment based on the maximum signal value in the lung field:
Whether the ROI is good or bad using the maximum signal value in the lung field is determined according to the following procedure. S1: The threshold value is lowered in order from the maximum value in the image, and a binarized image is created in which the threshold value is 1 and the threshold value is 0 (see FIG. 8).
S2: The created binarized image is examined, and an island-like region of pixel value 1 that is not in contact with the irradiation field edge is detected. For the detection of island regions, methods using boundary tracking and labeling can be considered.
S3: The region obtained in S2 above is set as the maximum pixel value region in the lung field. Investigate whether this region in ROI is included, and if it is included, determine that it is set to correctly include the lung field region, and if not, include the region where ROI was detected To enlarge.
S4: When a signal value higher than the maximum signal value of the detected area is included in the ROI, it is determined that an unaccompanied area is included, and the process is switched to a process by another method or a process set as a default. As another method, for example, an example given in the embodiment of Japanese Patent Application No. 10-276095 can be considered.
[0119]
As another means for obtaining the maximum signal value region in the lung field, the lung field region is recognized by extracting the contour of the lung field using the boundary tracking method (see Japanese Patent Laid-Open No. 62-26047), and the maximum in the lung field region is detected. A method of determining the maximum signal value region in the lung field by obtaining the signal value is also conceivable. In addition, the lung field was extracted using the Watershed method (reference: Meyer, and S. Beucher: Morphological Segmentation. J. of Visual Comm. And Image Represent., 1,1: 21-46, 1990). A method is also conceivable in which the maximum signal value of each divided region in the field region is obtained and the region including the largest signal value is set as the lung field maximum signal value region.
[0120]
(5-2) Determination of ROI quality using subdiaphragm region:
Whether the ROI includes the subdiaphragm, which is a region other than the lung field, is determined by the following methods S1 to S5.
S1: A band-like region having a width of 10 pixels (see FIG. 9A), and the difference diff between the maximum signal value and the minimum signal value in the region excluding 1/10 from the larger pixel value in the region, and The separation degree sep is calculated by discriminant analysis. This is because the separation degree diff and difference sep are calculated in a region that does not include the missing part (see FIGS. 9B and 9C). The removal of this blank portion is not limited to the above-described method, and for example, a method using a discriminant analysis method can be considered.
S2: The above S1 region is shifted by 5 pixels, and the separation degree sep and the difference diff are obtained in each region.
S3: The maximum values of all the obtained separations sep and difference diff are set to max_sep and max_diff, respectively.
S4: The separation degree sep and the difference diff of each region are checked again, and a region in which three regions satisfying sep <max_sep / 2 and diff <max_diff * 3/4 are continued is searched. By doing so, it is possible to detect a subdiaphragm region (see FIG. 9C) in which the signal difference is small and the concentration is low.
S5: When the subdiaphragm region is included in the ROI by the above processing of S4, the ROI is reduced so that the region is not included.
[0121]
If it is determined that the processing has failed by the above processing (5-1) or (5-2), an image area warning signal may be output and at the same time prompting the operator to warn. This may be a method of displaying on a display or a warning by synthesized speech.
[0122]
Also, the above (2) input image pass / fail determination process and (3) selection process key pass / fail determination process may be performed after the above (4) ROI recognition process or (5) ROI pass / fail determination process. Conceivable. In this case, pass / fail can be determined based on the data in the ROI. In addition, when it is determined that the ROI is defective or not, it is determined that the input image is defective or the selected processing key is incorrect, and a warning is given to the operator.
[0123]
As described above, in this embodiment, the image processing unit 26 constitutes the image area position pass / fail judgment means, judges the pass / fail of the set image area position (ROI), and outputs the image area position judgment signal. In addition to outputting, if it is determined to be defective, the ROI is automatically corrected and an image area warning signal is output.
[0124]
In the processing of this embodiment, an image region (ROI) for determining image processing conditions by analyzing image data of a radiographic image formed corresponding to the amount of transmitted radiation passing through each part of the subject is set. The image processing conditions are determined based on the statistical properties of the image data in the set image area, and the quality of the set image area position is determined. It becomes possible to determine appropriate image processing conditions. For this reason, a radiographic image more suitable for diagnosis can be obtained.
[0125]
The image area position quality determination means preferably determines the quality of the image area position based on the statistical properties of the image data in the image area set by the area setting means.
[0126]
In addition, it is preferable that the image area position quality determination unit determines the quality of the image area position by using position information in the entire image of the image area set by the area setting unit.
[0127]
In addition, the image area position pass / fail determination means includes, as data indicating statistical properties in the image area set by the area setting means, a substantially maximum value, a substantially minimum value of the image data, and a parameter indicating a degree of dispersion. , Based on at least one of a ratio of the image data distributed within the predetermined range, a parameter indicating the degree of dispersion of the image data within the predetermined range, and a parameter indicating the degree of separation by the discriminant analysis method of the image data, It is desirable to determine the quality of the image area position.
[0128]
Further, the image area position pass / fail judgment means has a specific area setting means for setting a specific area in the image separately from the image area by the image area determination means, and the area setting means as position information in the entire image It is desirable to determine whether the image area position is good or not based on whether or not the image area set by (1) includes the area set by the specific area setting means. The area set by the specific area setting means is preferably a predetermined area in the image. It is desirable that the area set by the specific area setting means is at least one of a maximum signal value area or a minimum signal value area in the subject. Further, when the defect is determined based on the image area position pass / fail determination signal, the area setting unit sets the data indicating the statistical properties in the image area in a direction approaching a desired value. It is desirable to provide area setting resetting means for resetting the area. Further, based on the image area position pass / fail determination signal, the area set by the area setting unit is reset in a direction in which the position of the image area in the entire image approaches a desired position when a defect is determined. It is desirable to provide an area setting resetting means. Further, it is desirable to provide failure determination time processing means changing means for performing processing by another preset processing means when a defect is determined based on the image area position pass / fail determination signal. Further, it is desirable to have an image area warning signal output means for outputting a signal when a defect is determined based on the image area position pass / fail determination signal. The failure determination time processing means changing means is preferably default image area setting means for setting the image area to a preset area.
[0129]
(6) Histogram normalization processing:
First, representative values D1 and D2 are set from a cumulative histogram of image data in the ROI. The representative values D1 and D2 are set as image data levels at which the cumulative histogram has a predetermined ratio m1 and m2.
[0130]
When the representative values D1 and D2 are set, the normal values for converting the representative values D1 and D2 into desired reference values S1 and S2 as shown in FIG. 10 with reference to a normalization lookup table provided in advance. Processing is performed. Here, the characteristic curve CC indicates the level of a signal output in accordance with the radiation dose of the radiation applied to the imaging panel 41. The normalization processing lookup table is generated by calculation using an inverse function of the function indicating the characteristic curve CC of the imaging panel 41. Of course, normalization processing may be performed by arithmetic processing without using the normalization processing lookup table.
[0131]
As shown in FIG. 11, by this normalization processing, even if the radiation doses Ra to Rb are lower than the doses R1 to R2 at which the image data of the desired reference values S1 to S2 can be obtained, the desired reference Since the image data of the values S1 to S2 can be obtained, the exposure amount of the subject can be reduced, and at the same time, the variation in the signal distribution due to the difference in the body shape of the subject can be corrected.
[0132]
Next, gradation processing is performed using normalized image data DTreg obtained by normalization processing. In the gradation processing, for example, a gradation conversion curve as shown in FIG. 12 is used, and the normalized image data DTreg is output with the reference values S1 and S2 of the normalized image data DTreg as parameter values S1 ′ and S2 ′. Converted to image data DTout. The levels S1 ′ and S2 ′ correspond to predetermined luminance or photographic density in the output image.
[0133]
The above tone conversion curve is preferably a continuous function over the entire signal region of the normalized image data DTreg, and its differential function is also preferably continuous. Moreover, it is preferable that the sign of the differential coefficient is constant over the entire signal region.
[0134]
In addition, since the preferable gradation conversion curve shape and levels S1 ′ and S2 ′ differ depending on the imaging region, imaging position, imaging conditions, imaging method, etc., the gradation conversion curve may be created for each image each time. For example, as shown in Japanese Patent Publication No. 5-26138, a plurality of basic gradation conversion curves are stored in advance, and one of the basic gradation conversion curves is read and rotated and translated. Thus, a desired gradation conversion curve can be easily obtained. The image processing unit 26 is provided with a gradation processing lookup table corresponding to a plurality of basic gradation curves, and is obtained by referring to the gradation processing lookup table based on the normalized image data DTreg. By correcting the image data according to the rotation and translation of the basic gradation conversion curve, output image data DTout subjected to gradation conversion can be obtained. In the gradation conversion process, not only the two reference values S1 and S2 but also one reference value or three or more reference values may be used.
[0135]
Here, the selection of the basic gradation curve and the rotation and translation of the basic gradation curve are performed based on the imaging region, imaging position, imaging conditions, imaging method, and the like. When these pieces of information are input as management information using the input device 27, the basic gradation curve can be easily selected and the rotation direction of the basic gradation curve by using this management information. And the amount of translation can be determined. Further, the levels of the reference values S1 and S2 may be changed based on the imaging region, the imaging posture, the imaging conditions, and the imaging method.
[0136]
Further, the selection of the basic gradation curve and the rotation or translation of the basic gradation curve may be performed based on information on the type of image display device and the type of external device for image output. This is because the preferred gradation may differ depending on the image output method.
[0137]
(7) Dynamic range compression processing and frequency processing:
Next, frequency processing (frequency enhancement processing) and dynamic range compression processing will be described. In the frequency enhancement process, for example, the function F is determined by a method shown in Japanese Patent Publication Nos. 62-62373 and 62-62376 in order to control the sharpness by the non-sharp mask processing shown in the following equation.
[0138]
Sout = Sorg + F (Sorg−Sus)
Sout is image data after processing, Sorg is image data before frequency enhancement processing, and Sus is unsharp data obtained by processing the image data before frequency enhancement processing by averaging processing or the like.
[0139]
In this frequency enhancement process, for example, F (Sorg−Sus) is set to β × (Sorg−Sus), and β (enhancement coefficient) is changed substantially linearly between the reference values T1 and T2 as shown in FIG. . Further, as shown by the solid lines in FIG. 14, when values “A” and “B” are set to emphasize low luminance, β from the reference value T1 to the value “A” is maximized, and the value “ B "to the reference value T2 is minimized. In addition, from the value “A” to the value “B”, β is almost linear.
To be changed. When emphasizing high luminance, as shown by a broken line, β from the reference value T1 to the value “A” is minimized and maximized from the value “B” to the reference value T2. In addition, from the value “A” to the value “B”, β changes almost linearly. Although not shown, when medium luminance is emphasized, β of values “A” to “B” is maximized. As described above, in the frequency enhancement processing, the sharpness of an arbitrary luminance portion can be controlled by the function F.
[0140]
Further, the frequency enhancement processing method is not limited to the non-sharp mask processing, and a technique such as a multi-resolution method disclosed in Japanese Patent Laid-Open No. 9-44645 may be used. In the frequency enhancement process, the frequency band to be enhanced and the degree of enhancement are set based on the imaging region, the imaging position, the imaging conditions, the imaging method, etc., as in the selection of the basic gradation curve in the gradation processing. .
[0141]
In the dynamic range compression processing, the function G is determined by the method disclosed in Japanese Patent Publication No. 266318 in order to perform control to make the density range easy to see by the compression processing shown in the following equation.
[0142]
Stb = Sorg + G (Sus)
Note that Stb is image data after processing, Sorg is image data before dynamic range compression processing, and Sus is unsharp data obtained by processing image data before dynamic range compression processing by averaging processing or the like.
[0143]
Here, as shown in FIG. 15A, G (Sus) has a characteristic that G (Sus) increases when the unsharp data Sus becomes smaller than the level “La”. The image data Sorg shown in FIG. 15B is image data Stb in which the dynamic range on the low density side is compressed as shown in FIG. 15C. Further, as shown in FIG. 15D, when G (Sus) has such characteristics that G (Sus) decreases when the unsharp data Sus becomes larger than the level “Lb”, The density is low, and the dynamic range on the high density side of the image data Sorg shown in FIG. 15B is compressed as shown in FIG. In the dynamic range compression processing, the correction frequency band and the degree of correction are set based on the imaging region, the imaging posture, the imaging conditions, the imaging method, and the like.
[0144]
Here, the reference values T1 and T2 and the values “A” and “B” or the levels “La” and “Lb”, which are processing conditions in the frequency enhancement processing and dynamic range compression processing, are representative value D1 and D2 determination methods. It is calculated | required by the same method.
[0145]
(8) Change of processing contents by information from the system:
By changing the processing contents according to the diagnostic purpose, patient information and processing information (for example, reprocessing rate, etc.) obtained from, for example, the HIS or RIS () radiation department information system or the device itself as information via the network More stable processing can be performed. Examples are given below.
[0146]
(1) Changes in processing based on diagnostic purpose and patient information
As a processing change for diagnostic purposes, if you want to diagnose both bone and soft parts in the image, gradation processing is performed with a relatively weak contrast to obtain an image with a wide dynamic range. In addition, when only the bone part is an area of interest in diagnosis, it is conceivable to obtain an image more suitable for diagnosis by performing gradation processing with strong contrast. These changes may be made by changing the ROI or by changing the creation method (such as parameters) when creating the lookup table.
[0147]
Moreover, as a process change by patient information, the method of changing a process according to a patient's age, sex, height, and weight can be considered. For example, the size of the rib cage varies with age even in the same chest image. Therefore, it is possible to reduce processing failures by changing the setting range when setting the ROI depending on the patient age. In addition, a method of estimating the degree of obesity based on gender, weight, and height, and changing the gradation so that the soft region can be seen according to the degree of obesity is also conceivable. In this way, gradation processing independent of the body shape can be performed.
[0148]
Furthermore, as an example of changing the process from a plurality of processes according to the diagnostic purpose, when the diagnostic purpose is a follow-up of a medical condition, a process in which the contrast is fixed and the change in the medical condition is easily recognized (for example, Japanese Patent Application No. 10-276095 (see application)).
[0149]
In addition, dynamic range compression processing and frequency processing can be performed more effectively for diagnosis by changing the processing content based on information of HIS and RIS. For example, the frequency range of the diagnostic object of interest differs between when a diagnosis of a tumor or the like is performed and when a diagnosis of tuberculosis or the like is performed. From this, it is conceivable to change the frequency band to be emphasized or its intensity according to the purpose of diagnosis. In addition, by estimating the degree of obesity based on the patient's gender, weight, height, etc., and changing the strength of the dynamic range compression process according to the value, soft tissue such as skin and bone without depending on the patient's body type It may be possible to make the appearance of the image constant.
[0150]
Instead of changing the above-mentioned changes according to the purpose of diagnosis or patient information, a method of changing according to the preference of the attending physician is also conceivable.
(2) Change of processing based on processing information
A method of changing the ROI recognition process pass / fail or the pass / fail judgment threshold value of the image after the gradation process according to the reprocessing rate of the process stored in the system / radiation image processing apparatus or the like can be considered. In this case, the failure image can be recognized without erroneously recognizing the correct image by changing the threshold value so that the process with a higher reprocessing rate is less likely to be determined to be correct.
[0151]
As described above, in this embodiment, the image processing unit 26 obtains the information necessary for image processing from the system and apparatus, and the information obtained using the processing information obtaining means. The image processing means changing means for changing the processing means is included.
[0152]
In the processing of this embodiment, information necessary for image processing is obtained from the system and apparatus when image processing is performed on image data of a radiographic image formed corresponding to the amount of radiation transmitted through each part of the subject. Since the image processing means is changed according to this information, processing is performed in consideration of information obtained from the device / system such as the diagnostic purpose and processing success rate, and processing with fewer failures suitable for diagnosis It becomes possible to do.
[0153]
In addition, it is preferable that a network connection unit for connecting to the network is provided, and the information obtained by the processing information acquisition unit is information obtained through the network.
[0154]
In addition, it is preferable that a plurality of image processing units (see FIG. 16) are provided, and the image processing unit changing unit selects one or a plurality of image processing units from the plurality of image processing units. Further, it is desirable that the image processing means changing means changes processing parameters.
[0155]
<Other embodiments>
In addition, it is not necessary to perform each process in the above (1)-(8) using all the information of a radiographic image, It is desirable to use the image reduced by the thinning process. In this case, since the amount of data is reduced, the processing speed can be improved and the memory capacity can be saved. In this case, it is preferable to use image data that has been thinned so that the effective pixel size of the reduced image by thinning is 0.4 mm to 10.0 mm, preferably 1.0 mm to 6.0 mm.
[0156]
【The invention's effect】
As described above in detail, according to the present invention, the following effects can be obtained.
(1) In the first invention, when setting image areas for determining image processing conditions by analyzing image data of a radiographic image formed corresponding to the amount of radiation transmitted through each part of the subject Determining the image processing conditions based on the statistical properties of the image data in the set image area, and determining whether the set image area position is good or bad, Since warning is performed, an appropriate image processing condition can be determined at an appropriate image region position. For this reason, a radiographic image more suitable for diagnosis can be obtained.
[Brief description of the drawings]
FIG. 1 is an explanatory diagram showing an image processing procedure of a radiation image processing apparatus of the present invention.
FIG. 2 is a configuration diagram showing a configuration of a radiographic image processing apparatus according to the present embodiment.
FIG. 3 is a configuration diagram showing a configuration of a radiation image reader according to the present embodiment.
FIG. 4 is a configuration diagram showing a configuration using another radiation image reader according to the present embodiment.
FIG. 5 is a configuration diagram showing a configuration of a controller according to the present embodiment.
FIG. 6 is an explanatory diagram for explaining irradiation field recognition processing according to the present embodiment.
FIG. 7 is an explanatory diagram for explaining recognition of ROI in the present embodiment example;
FIG. 8 is an explanatory diagram for explaining ROI determination in the present embodiment;
FIG. 9 is an explanatory diagram for explaining ROI determination in the present embodiment;
FIG. 10 is an explanatory diagram for explaining level conversion in the embodiment.
FIG. 11 is an explanatory diagram showing normalization processing in the embodiment.
FIG. 12 is an explanatory diagram showing gradation conversion characteristics in the present embodiment example.
FIG. 13 is an explanatory diagram showing a relationship between an enhancement coefficient and image data in the present embodiment.
FIG. 14 is an explanatory diagram showing a relationship between an enhancement coefficient and image data in the present embodiment.
FIG. 15 is an explanatory diagram for describing dynamic range compression processing in the present embodiment;
FIG. 16 is an explanatory diagram for explaining a state of a plurality of processes in the embodiment.
FIG. 17 is an explanatory diagram for explaining a reading unit used in the present embodiment;
FIG. 18 is an explanatory diagram for explaining a reading unit used in the present embodiment;
[Explanation of symbols]
10 Controller
26 Image processing unit
30 Radiation generator
40,60 Radiation image reader
41 Imaging panel
44 Scanning drive unit
46 Image data generation circuit
48 Reading control circuit
61 Conversion panel
62 Light beam generator
63 Scanning section
64 Reflector
65 Condenser
66 Filter
67 Photomultiplier
70 Current / voltage converter
75 Reading control unit

Claims (4)

被写体の各部を通過する放射線の透過量に対応して形成された放射線画像の画像データを解析して画像処理条件を決定するための画像領域を設定する領域設定手段と、前記領域設定手段により設定された画像領域内の画像データの統計的性質に基づいて画像処理条件を決定する画像処理条件設定手段と、前記領域設定手段により設定された画像領域位置の良否を判定し、画像領域位置良否判定信号を出力する画像領域位置良否判定手段と、
を含んで構成され
前記画像領域位置良否判定手段は、前記領域設定手段により設定された画像領域の画像全体における位置情報を用いることにより画像領域位置の良否を判定するものであり、前記画像領域決定手段による画像領域とは別に画像内の特定の領域を設定する特定領域設定手段を有し、画像全体における位置情報として、前記領域設定手段により設定された画像領域が前記特定領域設定手段により設定された領域を含むか否かにより画像領域位置の良否を判定する、
ことを特徴をする放射線画像処理装置。
An area setting means for setting an image area for determining image processing conditions by analyzing image data of a radiographic image formed corresponding to the amount of radiation transmitted through each part of the subject, and setting by the area setting means Image processing condition setting means for determining image processing conditions based on the statistical properties of the image data in the image area, and determination of the quality of the image area position set by the area setting means, Image region position pass / fail judgment means for outputting a signal;
Is configured to include a,
The image area position pass / fail determination means determines the pass / fail of the image area position by using position information in the entire image of the image area set by the area setting means. In addition, there is a specific area setting means for setting a specific area in the image, and whether the image area set by the area setting means includes the area set by the specific area setting means as position information in the entire image Judge whether the image area position is good or bad by
A radiographic image processing apparatus characterized by that.
前記特定領域設定手段により設定される領域が画像内の所定の領域である、
ことを特徴とする請求項1記載の放射線画像処理装置。
The area set by the specific area setting means is a predetermined area in the image.
The radiation image processing apparatus according to claim 1.
前記特定領域設定手段により設定される領域が被写体内の最大信号値領域または最小信号値領域の少なくとも1つである、
ことを特徴とする請求項1記載の放射線画像処理装置。
The area set by the specific area setting means is at least one of a maximum signal value area or a minimum signal value area in the subject;
The radiation image processing apparatus according to claim 1.
前記画像領域位置良否判定信号に基づいて、不良が判定されたときに、予め設定された別の処理手段により処理を行うようにする失敗判定時処理手段変更手段を設け、
前記失敗判定時処理手段変更手段が画像領域を予め設定した領域に設定するデフォルト画像領域設定手段である、
ことを特徴とする請求項1乃至請求項3のいずれかに記載の放射線画像処理装置。
A failure determination time processing means changing means for performing processing by another preset processing means when a defect is determined based on the image region position pass / fail determination signal;
The failure determination time processing means changing means is a default image area setting means for setting an image area to a preset area.
The radiographic image processing apparatus according to claim 1 , wherein the radiographic image processing apparatus is a radiographic image processing apparatus.
JP30981899A 1999-10-29 1999-10-29 Radiation image processing device Expired - Fee Related JP3800892B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP30981899A JP3800892B2 (en) 1999-10-29 1999-10-29 Radiation image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP30981899A JP3800892B2 (en) 1999-10-29 1999-10-29 Radiation image processing device

Publications (2)

Publication Number Publication Date
JP2001120524A JP2001120524A (en) 2001-05-08
JP3800892B2 true JP3800892B2 (en) 2006-07-26

Family

ID=17997633

Family Applications (1)

Application Number Title Priority Date Filing Date
JP30981899A Expired - Fee Related JP3800892B2 (en) 1999-10-29 1999-10-29 Radiation image processing device

Country Status (1)

Country Link
JP (1) JP3800892B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010050333A1 (en) * 2008-10-30 2010-05-06 コニカミノルタエムジー株式会社 Information processing device

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002010997A (en) * 2000-06-27 2002-01-15 Canon Inc Photographing device, image processor, image processing system, operation control method and storage medium
DE60334915D1 (en) * 2003-11-26 2010-12-23 Carestream Health Inc Method for signal processing in a dental radiology device
US20070263929A1 (en) * 2004-10-12 2007-11-15 Daisuke Kaji Image Processing Apparatus, Image Processing Method and Image Processing Program
JP6132938B2 (en) * 2010-12-09 2017-05-24 キヤノン株式会社 Image processing apparatus, radiation imaging system, image processing method, and recording medium
JP6145874B2 (en) * 2013-07-23 2017-06-14 富士フイルム株式会社 Radiation image processing apparatus and method
JP6345178B2 (en) 2013-07-23 2018-06-20 富士フイルム株式会社 Radiation image processing apparatus and method
JP6878038B2 (en) * 2017-02-15 2021-05-26 キヤノン株式会社 Radiation imaging device, radiography system, image processing device, operation method of image processing device, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010050333A1 (en) * 2008-10-30 2010-05-06 コニカミノルタエムジー株式会社 Information processing device

Also Published As

Publication number Publication date
JP2001120524A (en) 2001-05-08

Similar Documents

Publication Publication Date Title
US7155048B2 (en) PCI radiation image processing apparatus, PCI radiation image detecting apparatus, PCI radiation image outputting apparatus, and PCI image diagnosis supporting apparatus
JP3554129B2 (en) Radiography equipment
US6415049B1 (en) Apparatus for detecting and processing a radiation image
WO2008038525A1 (en) Imaging system
Schaefer-Prokop et al. Storage phosphor radiography
JP2000033082A (en) Picture processor of radiation picture
JP3800892B2 (en) Radiation image processing device
JP4129598B2 (en) Image processing apparatus and image processing method
JP2000079110A (en) Picture processor
JP4497615B2 (en) Image processing apparatus, correction method, and recording medium
JP4307877B2 (en) Image processing apparatus and image processing method
JP2001238868A (en) Method of image processing and its apparatus
JP2005028037A (en) Medical image processing device and medical image processing method
JP3814864B2 (en) Radiographic image processing condition determining apparatus, image processing apparatus, radiographic image processing condition determining method, and image processing method
JP2000030046A (en) Radiation image detecting and processing apparatus
JP2000157519A (en) Image processor
JP2000023950A (en) Image processing device for radiation image
JPH0775635A (en) Method and device to control imparted radiation dose effectively
US20090208087A1 (en) Radiographic image correction method, apparatus and recording-medium stored therein program
JP2001245140A (en) Image processing apparatus and image processing method
JP2000157518A (en) Radiation image processor
JP5311846B2 (en) Image processing method and apparatus, and radiographic imaging processing method and apparatus
JP2001149359A (en) Imaging device, image processing device, image processing system, image processing method and storage medium
JP2002008009A (en) Image processing condition determination method and device
JP2001029335A (en) Radiation image processor

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060411

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060424

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100512

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110512

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120512

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130512

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees