JP3888046B2 - Radiation image processing method and radiation image processing apparatus - Google Patents
Radiation image processing method and radiation image processing apparatus Download PDFInfo
- Publication number
- JP3888046B2 JP3888046B2 JP2000225379A JP2000225379A JP3888046B2 JP 3888046 B2 JP3888046 B2 JP 3888046B2 JP 2000225379 A JP2000225379 A JP 2000225379A JP 2000225379 A JP2000225379 A JP 2000225379A JP 3888046 B2 JP3888046 B2 JP 3888046B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- radiation
- partial
- image processing
- condition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 230000005855 radiation Effects 0.000 title claims description 200
- 238000012545 processing Methods 0.000 title claims description 138
- 238000003672 processing method Methods 0.000 title claims description 6
- 238000012937 correction Methods 0.000 claims description 37
- 230000008878 coupling Effects 0.000 claims description 17
- 238000010168 coupling process Methods 0.000 claims description 17
- 238000005859 coupling reaction Methods 0.000 claims description 17
- 238000009826 distribution Methods 0.000 claims description 12
- 238000000034 method Methods 0.000 description 33
- OAICVXFJPJFONN-UHFFFAOYSA-N Phosphorus Chemical compound [P] OAICVXFJPJFONN-UHFFFAOYSA-N 0.000 description 18
- 238000010586 diagram Methods 0.000 description 14
- 238000003384 imaging method Methods 0.000 description 14
- 238000006243 chemical reaction Methods 0.000 description 9
- 238000004458 analytical method Methods 0.000 description 7
- 238000007906 compression Methods 0.000 description 7
- 238000003745 diagnosis Methods 0.000 description 6
- 230000006835 compression Effects 0.000 description 5
- 210000000988 bone and bone Anatomy 0.000 description 4
- 238000005304 joining Methods 0.000 description 4
- 238000005070 sampling Methods 0.000 description 4
- 238000003860 storage Methods 0.000 description 4
- 238000013519 translation Methods 0.000 description 4
- 230000007423 decrease Effects 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 235000019557 luminance Nutrition 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000010521 absorption reaction Methods 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000002601 radiography Methods 0.000 description 1
- 238000011946 reduction process Methods 0.000 description 1
- 230000004936 stimulating effect Effects 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 238000007740 vapor deposition Methods 0.000 description 1
Images
Landscapes
- Conversion Of X-Rays Into Visible Images (AREA)
- Radiography Using Non-Light Waves (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Image Processing (AREA)
- Editing Of Facsimile Originals (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は放射線画像を処理する放射線画像処理方法および放射線画像処理装置に関し、さらに詳しくは、共通の被写体部分が投影された重複領域を有する複数の部分放射線画像を扱うに適した放射線画像処理方法および放射線画像処理装置に関する。
【0002】
【従来の技術】
近年、放射線画像を直接デジタル画像として撮影できる装置が開発されている。たとえば、被写体に照射された放射線量を検出し、その検出量に対応して形成される放射線画像を電気信号として得る装置としては、輝尽性蛍光体を用いたディテクタを用いる方法が特開昭55−12429号公報、特開昭63−189853号公報など、多数開示されている。
【0003】
このような装置では、シ−ト状の基板に輝尽性蛍光体を塗布、あるいは蒸着等によって固着したディテクタに、いったん被写体を透過した放射線を照射して輝尽性蛍光体に放射線を吸収させる。
【0004】
その後、この輝尽性蛍光体を光または熱エネルギ−で励起することにより、この輝尽性蛍光体が上記吸収によって蓄積している放射線エネルギ−を蛍光として放射させ、この蛍光を光電変換して画像信号を得るようにしている。
【0005】
ところで、医用放射線画像において、主に骨の計測を目的とした下肢全長撮影や全脊椎撮影にあたっては、被写体全体を把握する目的のために長尺撮影が行われる。
【0006】
この長尺撮影において、従来は、長尺フィルムを増感紙(スクリーン)と共に長尺カセッテに収納して撮影を行うようにしていた。
また、長尺フィルムを用いず、輝尽性蛍光体ディテクタ等を利用したディジタル放射線画像入力方式(ディジタル長尺撮影)も提案されている。このディジタル長尺撮影として、特開平11−244269号公報に提案されているものでは、輝尽性蛍光体ディテクタを格納した複数のカセッテを、互いに部分的に重なり合うように配列し、専用のカセッテホルダーに格納するようにしている。一方、特開平3−287249号公報に提案されているものでは、複数の輝尽性蛍光体ディテクタを、互いに部分的に重なり合うように配列し係止している。
【0007】
【発明が解決しようとする課題】
以上の特開平11−244269号公報記載の手法では、画像生成時に、金属等の形状校正用の格子を被写体と同時に写し込む必要がある。この場合に、形状校正用の格子がカセッテホルダーと分離している場合には、位置合わせなどのために、撮影操作が煩雑になる問題がある。また、形状校正用の格子がカセッテホルダーに付属している場合には、カセッテホルダーの重量が大きくなり、取り扱いが不便になる問題を有している。さらに、形状校正用の格子が被写体に重なって写りこむ場合には、被写体内に情報の欠損部分が存在し、骨の計測などの診断に悪影響を与える可能性がある。
【0008】
また、特開平3−287249号公報記載の手法では、部分放射線画像を結合することにより被写体全体を表現する画像結合手段に関しては述べられていない。したがって、骨の計測などの診断に供するための具体的な方法が不明確であって、実用的な撮影を行うことが困難な問題がある。
【0009】
本発明は以上のような課題に鑑みてなされたものであって、複数の輝尽性蛍光体ディテクタ(輝尽性蛍光体プレート等)を利用してディジタル長尺撮影を行い、部分放射線画像を結合して欠損部分を生じることなく被写体全体を幾何学的に正確に把握することが可能な放射線画像処理方法および放射線画像処理装置を実現することを目的とする。
【0010】
【課題を解決するための手段】
すなわち、前記した課題を解決する本発明は、以下の通りである。
(1)請求項1記載の発明は、複数のディテクタにより得られる、共通の被写体部分が投影された重複領域を有する複数の部分放射線画像、および該複数の部分放射線画像の各々に対応する画像属性情報を入力し、各々の部分放射線画像に対して前記重複領域の少なくとも一部に対応する注目領域を設定し、前記注目領域内の画像信号値を解析することにより前記複数の部分放射線画像の結合条件を決定し、前記結合条件に基づいて前記複数の部分放射線画像を結合することにより、被写体全体を表現する結合放射線画像を生成し、前記部分放射線画像の画像属性情報に基づいて、前記結合放射線画像に対応する画像属性情報を発生し、前記結合放射線画像およびそれに対応する前記画像属性情報を出力する、ことを特徴とする放射線画像処理方法である。
【0011】
この発明では、複数の部分放射線画像に適した結合条件を決定し、結合放射線画像を得るようにしているため、形状校正用の格子などは不要になり、欠損部分のない結合放射線画像を容易に得ることができる。また、部分放射線画像の画像属性情報に応じて結合放射線画像の画像属性情報を得ることも可能になり、結合放射線画像の画像出力や画像保管に関わる利便性が向上する。
【0012】
(2)請求項2記載の発明は、複数のディテクタにより得られる、共通の被写体部分が投影された重複領域を有する複数の部分放射線画像、および該複数の部分放射線画像の各々に対応する画像属性情報を入力する画像情報入力手段と、各々の部分放射線画像に対して前記重複領域の少なくとも一部に対応する注目領域を設定する注目領域設定手段と、前記注目領域内の画像信号値を解析することにより前記複数の部分放射線画像の結合条件を決定する結合条件決定手段と、前記結合条件に基づいて前記複数の部分放射線画像を結合することにより、被写体全体を表現する結合放射線画像を生成する画像結合手段と、前記部分放射線画像の画像属性情報に基づいて、前記結合放射線画像に対応する画像属性情報を発生する画像属性情報発生手段と、前記結合放射線画像およびそれに対応する前記画像属性情報を出力する画像情報出力手段と、を有することを特徴とする放射線画像処理装置である。
【0013】
この発明では、複数の部分放射線画像に適した結合条件を決定し、結合放射線画像を得るようにしているため、形状校正用の格子などは不要になり、欠損部分のない結合放射線画像を容易に得ることができる。また、部分放射線画像の画像属性情報に応じて結合放射線画像の画像属性情報を得ることも可能になり、結合放射線画像の画像出力や画像保管に関わる利便性が向上する。
【0014】
(3)請求項3記載の発明は、前記注目領域設定手段は、前記複数の部分放射線画像の画像信号値を解析することにより前記重複領域を認識し、前記重複領域内で相対的に信号分布の大きい領域を前記注目領域として選択する、ことを特徴とする請求項2記載の放射線画像処理装置である。
【0015】
この発明では、複数の部分放射線画像の画像信号値を解析することにより重複領域を認識し、重複領域内で相対的に信号分布の大きい領域を注目領域として選択するようにしているため、複数の部分放射線画像の結合条件の決定が高速かつ高精度に行えるようになる。
【0016】
(4)請求項4記載の発明は、前記注目領域設定手段は、前記複数の部分放射線画像の画像信号値を解析することにより前記重複領域を認識し、前記重複領域内で放射線照射部分に含まれる領域を前記注目領域として選択する、ことを特徴とする請求項2記載の放射線画像処理装置である。
【0017】
この発明では、複数の部分放射線画像の画像信号値を解析することにより重複領域を認識し、重複領域内で放射線照射部分に含まれる領域を前記注目領域として選択するようにしているため、複数の部分放射線画像の結合条件の決定が高速かつ高精度に行えるようになる。
【0018】
(5)請求項5記載の発明は、前記注目領域設定手段は、前記複数の部分放射線画像の画像信号値を解析することにより前記重複領域を認識し、前記重複領域内で被写体部分に含まれる領域を前記注目領域として選択することを特徴とする請求項2記載の放射線画像処理装置である。
【0019】
この発明では、複数の部分放射線画像の画像信号値を解析することにより重複領域を認識し、重複領域内で被写体部分に含まれる領域を注目領域として選択するようにしているため、複数の部分放射線画像の結合条件の決定が高速かつ高精度に行えるようになる。
【0020】
(6)請求項6記載の発明は、前記結合条件決定手段は、ある部分放射線画像と他の部分放射線画像との間で、前記注目領域の類似度を最大にする結合条件を決定する、ことを特徴とする請求項2乃至請求項5のいずれかに記載の放射線画像処理装置である。
【0021】
この発明では、ある部分放射線画像と他の部分放射線画像との間で、注目領域の類似度を最大にする結合条件を決定するようにしているため、複数の部分放射線画像の結合条件の決定が高速かつ高精度に行えるようになる。
【0022】
(7)請求項7記載の発明は、前記画像結合手段は、前記結合放射線画像の生成に伴う不要画像部分の削除、画像情報を有しない画像部分に対する所定画像信号値の付与、および画像結合部付近の画像信号値補正の機能を有することを特徴とする請求項2乃至請求項6のいずれかに記載の放射線画像処理装置である。
【0023】
この発明では、結合放射線画像の生成に伴う不要画像部分の削除、画像情報を有しない画像部分に対する所定画像信号値の付与、および画像結合部付近の画像信号値補正の機能を有するため、複数の部分放射線画像の向きや位置が微妙に異なっていたとしても所望の形状および自然な階調の結合放射線画像を生成することができる。
【0024】
(8)請求項8記載の発明は、前記画像結合手段により生成された結合放射線画像を階調処理または周波数処理するための画像処理条件を決定する画像処理条件決定手段を有し、前記画像情報出力手段は、前記結合放射線画像と共に前記画像処理条件を出力することを特徴とする請求項2乃至請求項7のいずれかに記載の放射線画像処理装置である。
【0025】
この発明では、結合放射線画像を階調処理または周波数処理するための画像処理条件を決定し、結合放射線画像と共に画像処理条件を出力するようにしているため、結合放射線画像にどのような画像処理がなされたかが明確になる。
【0026】
(9)請求項9記載の発明は、前記画像結合手段により生成された結合放射線画像を階調処理または周波数処理するための画像処理条件を決定する画像処理条件決定手段と、前記画像処理条件に基づいて前記結合放射線画像を階調処理または周波数処理する画像処理手段と、を有し、前記画像情報出力手段は、前記画像処理を施された結合放射線画像を出力する、ことを特徴とする請求項2乃至請求項7のいずれかに記載の放射線画像処理装置である。
【0027】
この発明では、結合放射線画像を階調処理または周波数処理するための画像処理条件を決定し、この画像処理条件に基づいて結合放射線画像を階調処理または周波数処理して出力するようにしているため、被写体全体が診断に適した見やすい階調および周波数特性で表現された結合放射線画像を出力することができる。
【0028】
(10)請求項10記載の発明は、前記結合条件決定手段により決定された結合条件を表示する結合条件表示手段と、前記結合条件を修正する修正情報を入力するための修正情報入力手段と、前記修正情報に基づいて前記結合条件を修正する結合条件修正手段と、を有し、前記画像結合手段は、前記結合条件修正手段により修正された結合条件に基づいて前記複数の部分放射線画像を再結合する、ことを特徴とする、請求項2乃至請求項9のいずれかに記載の放射線画像処理装置である。
【0029】
この発明では、決定された結合条件を表示し、結合条件を修正する修正情報の入力を受付け、修正情報に基づいて前記結合条件を修正し、修正された結合条件に基づいて複数の部分放射線画像を再結合するようにしているため、常にユーザの要求に応じた結合放射線画像を得ることが可能になる。
【0030】
(11)請求項11記載の発明は、前記画像結合手段により生成された結合放射線画像を表示する画像表示手段と、前記結合条件決定手段により決定された結合条件を修正する修正情報を入力するための修正情報入力手段と、前記修正情報に基づいて前記結合条件を修正する結合条件修正手段を有し、前記画像結合手段は、前記結合条件修正手段により修正された結合条件に基づいて前記複数の部分放射線画像を再結合する、ことを特徴とする請求項2乃至請求項9のいずれかに記載の放射線画像処理装置である。
【0031】
この発明では、生成された結合放射線画像を表示し、結合条件を修正する修正情報の入力を受付け、修正情報に基づいて前記結合条件を修正し、修正された結合条件に基づいて複数の部分放射線画像を再結合するようにしているため、常にユーザの要求に応じた結合放射線画像を得ることが可能になる。
【0032】
【発明の実施の形態】
以下、図面を参照して本発明の実施の形態例を詳細に説明する。
以下、放射線画像処理装置の構成を、図1を用いて大まかなブロックに従って説明する。なお、本実施の形態例の放射線画像処理装置の各手段は、ハードウェアやファームウェア、またはソフトウェアで構成することが可能である。このため、各手段の処理手順に沿った機能ブロック図を示す。
【0033】
[A]画像情報入力:
図1に示すように、画像情報入力手段10に、照射された放射線量の対数に比例した信号値を有する部分放射線画像についての放射線画像情報と、この放射線画像情報に対応した画像属性情報とが入力される。
【0034】
このため、画像情報入力手段10は、部分放射線画像が入力される輝尽性蛍光体を用いたディジタル画像入力システムあるいはレーザーディジタイザ、および、画像属性情報が入力される情報入力装置とで構成される。
【0035】
この実施の形態例では、長尺フィルムを用いずに、複数の輝尽性蛍光体ディテクタ(輝尽性蛍光体プレート等)を利用してディジタル長尺撮影によって得た部分放射線画像が入力されることを特徴としている。すなわち、部分放射線画像を取得する方式として、輝尽性蛍光体プレートを用いたシステムを用いることができる。また、スクリーン/フィルム系により撮影した部分放射線写真をレーザーディジタイザを用いてディジタル化するシステムであってもよい。
【0036】
また、撮影方法としては、図2および図3に示すように、長尺カセッテ200の内部で複数の輝尽性蛍光体プレート201〜203を部分的に重ね合わせるようにして、ディジタル長尺撮影を実行することが好ましい。
【0037】
この図2に代わる方法として、輝尽性蛍光体プレートの格納されたカセッテ同士を部分的に重ね合わせる方法と、スクリーン/フィルムの格納されたカセッテ同士を部分的に重ね合わせる方法とが考えられる。
【0038】
この実施の形態例における部分放射線画像の画像属性情報としては、
・患者に関する情報:患者氏名、患者ID、年令、性別、など、
・撮影に関する情報:検査日、検査ID、検査種類、撮影日時、撮影部位、撮影条件、など、
・画像データに関する情報:画素数、サンプリングピッチ、ビット数、など、
・長尺撮影により得られた部分放射線画像の場合、長尺撮影であるという情報や、例えば長尺撮影3枚組の1枚目であるという情報など、
が画像属性情報に該当する。
【0039】
[B]注目領域設定:
注目領域設定手段20では、画像情報入力手段10より送信されてきた部分放射線画像を解析する。
【0040】
なお、図示していないが、処理に必要な時間を短縮するため、縮小画像生成手段により、元の部分放射線画像からサンプリングをして画素数を縮小させた間引き放射線画像を作成し、注目領域設定を行ってもよい。
【0041】
(B−1)注目領域の設定:
▲1▼重複領域の認識:
2枚の部分放射線画像のうち1枚の重複領域は、輝尽性蛍光体プレートまたはカセッテの重なりの前後により、画像信号値が相対的に低くなる。この様子を図4に示す。ここでは、図4(b)の画像#2が被写体の手前側で、図4(a)の画像#1と図4(c)の画像#3が被写体の奥側に位置している。
【0042】
このような場合、画像信号値のプロファイルを計算することにより(図5(a)→図5(b))、画像辺縁付近で信号値の低い領域を注目領域設定手段20により認識する。
【0043】
この場合、カラム方向のプロファイル信号に基づき、プロファイル値が画像辺縁付近で所定のしきい値より小さくなるラインを検出し、重複領域端とみなすことができる。また、カラム方向のプロファイル信号の微分値に基づき、プロファイル値が画像辺縁付近で画像端に向かって急激に小さくなるラインを検出し、重複領域端とみなすこともできる。さらに、複数のプロファイル信号に対して重複領域端のラインを検出し、その結果を総合して重複領域を定めることも可能である(図6参照)。
【0044】
また、画像を複数の境界ラインによって複数の帯状領域に分割し、各帯状領域内の画像信号値を相互に比較することにより、画像辺縁付近で信号値の低い領域を認識することが可能である。この場合、領域内の信号値が相対的に小さく、かつ分散値が相対的に小さくない帯状領域を選ぶようにする。
【0045】
これは、認識の対象である重複領域を、照射野絞りの外側の放射線の照射されていない領域と区別するためである。照射野絞りの外側は、被写体が投影されていないため、信号値が相対的に低くなっており、かつ、分散値も小さい状態になっている。
【0046】
▲2▼注目領域の決定:
重複領域内に複数の候補領域を設定し(図7参照)、候補領域の中から、相対的に信号分布の大きい領域を注目領域として選択する。
【0047】
この図7において、放射線照射野エッジ、皮膚線、または骨のエッジを含む候補領域▲1▼,▲2▼,▲4▼,▲5▼,▲7▼は相対的に信号分布が大きくなる。そこで、候補領域▲1▼,▲2▼,▲4▼,▲5▼,▲7▼の中から最も信号分布の大きい1個または複数の領域を選択する。
【0048】
また、信号分布の指標として、最大信号値と最小信号値の差、分散値、標準偏差値、信号値のライン方向微分値の絶対値の総和、信号値のライン方向微分値の二乗値の総和を用いることも可能である。
【0049】
また、重複領域内で放射線照射部分または被写体部分に含まれる領域を前記注目領域として選択することが可能である。この場合、信号値は、直接放射線照射部分>被写体部分>放射線非照射部分、の順に大きくなっている。したがって、しきい値処理により画像信号値を二値化し、放射線照射部分または被写体部分に対応する領域を決定することが可能である。また、画像のヒストグラムに対して判別分析処理を施すことにより境界信号値を求め、放射線照射部分または被写体部分に対応する領域を決定することも可能である。
【0050】
また、直接放射線照射部分または被写体部分のエッジにおいては信号値が急激に変化する。この性質を利用し、画像信号値のプロファイル値またはプロファイル値の微分値に基づき、放射線照射部分または被写体部分の辺縁のエッジを決定することが可能である(図8(a)、(b)参照)。この場合、画像を複数の小領域に分割し、信号分布の比較的大きい小領域を選択し、選択された小領域を連結することにより、放射線照射部分または被写体部分の辺縁のエッジを決定することも可能である。なお、被写体部分に含まれる矩形領域を注目領域として選択した例を図8に示す。
【0051】
以上述べたように、重複領域内で信号分布の大きい部分、または、放射線照射部分あるいは被写体部分に含まれる領域を注目領域として選択することにより、重複領域全体を用いて結合条件を決定する手法に比べて、高速に処理を行うことができる。また、結合位置の目安となる情報を多く含む画像部分を注目領域として選択しているので、形状校正用の格子などが写し込まれていない場合でも、結合条件の決定を高精度に行うことができる。
【0052】
その他の例として、予め定められた固定領域を注目領域として選択することが可能である。この場合、画像生成時に固定位置に写し込まれた識別マークを有する場合には、前記識別マークを含む固定領域を選択することができる。
【0053】
[C]結合条件の決定:
(C−1)結合条件:
部分放射線画像を結合して被写体全体を正確に表現する結合放射線画像を作成するには、部分放射線画像を平行移動、回転、または拡大縮小してから他の部分画像と結合する必要がある。撮影時のディテクタ端(輝尽性蛍光体プレート端)の角度が、相対的に異なる場合、回転が必要となる。また、撮影時の被写体−ディテクタ間距離が部分放射線画像の間で相対的に異なる場合、拡大縮小が必要となる。
【0054】
そこで、結合条件決定手段30が結合条件の決定を行う。結合条件として、例えば図9(a)の2枚の部分放射線画像の結合位置を代表する各2点 A1, B1, A2, B2 の座標値を結合条件として決定することにより、図9(b)に示すように平行移動、回転、および拡大縮小の量が定まる。
【0055】
なお、部分放射線画像の平行移動、回転、および拡大縮小の量そのものを結合条件としてもよい。また、撮影時の被写体−ディテクタ間距離の差異がその絶対値に比較して非常に小さい場合には、拡大率の差は無視できる程度とみなして、拡大縮小処理を省略してもよい。また、撮影時のディテクタ端の角度の差異が非常に小さい場合には、回転処理を省略してもよい。
【0056】
また、この図9の場合には、部分放射線画像#1を回転処理するような例を示しているが、いずれの側の部分放射線画像を回転,移動,拡大縮小するようにしてもよい。
【0057】
(C−2)テンプレートマッチング処理:
2枚の部分放射線画像の結合条件を決定するための手法として、「コンピュータ画像処理入門」(田村秀行監修、株式会社星雲社1985年発行)に記述されている「テンプレートマッチング処理」を用いることができる。
【0058】
ここで、結合しようとする2枚の部分放射線画像のうちの一方の画像に設定した注目領域をテンプレートとする。他方の画像にテンプレートより大きい注目領域を設定し、参照領域とする。テンプレートを参照領域内で平行移動、回転、または拡大縮小させながら、テンプレートとそれに重なり合う参照領域内の部分領域との類似度が最大になるような平行移動、回転、または拡大縮小条件を求める。
【0059】
なお、以上の類似度を評価する手段としては、公知のSSDA法や相互相関法を用いることができる。その場合、重複領域における信号値低下の影響を受けにくいように、各領域内の平均値および標準偏差値を用いて規格化した類似度を使用することが好ましい。この場合、特に、以下の式で表される規格化相互相関値Cを用いて、Cが最大値をとる場合を類似度最大とみなすことが好ましい。テンプレートA中の全画素J個中j番目の画素の画素値を A(j), それに対応する参照領域内の部分領域B中の全画素J個中j番目の画素の画素値を B(j) と表した場合に、Cは次式で定義される。
【0060】
【数1】
【0061】
また、類似度として、フーリエ変換の位相項の相関値(Medical Imaging Technology, Vol.7, pp175-176, 1989)を使用してもよい。また、1画像内に注目領域を複数設定し、複数組のテンプレートマッチング処理を行うことにより、それらの結果を総合して平行移動、回転、および拡大縮小の量を決定してもよい
(C−3)結合条件表示・修正:
なお、結合条件決定手段30により決定された結合条件を表示する結合条件表示手段40と、結合条件をオペレータが修正して修正情報を入力するための修正情報入力手段50とを設け、結合条件修正手段60が修正情報に基づいて結合条件を修正することも望ましい。この場合、結合条件として、座標位置や連結線の様子を表示し、修正を受け付けるようにする。
【0062】
すなわち、前記のような結合条件表示手段40と修正情報入力手段50とを組み合わせることにより、インタラクティブに画像結合条件を修正することが可能である。具体的には、CRTモニタや液晶モニタなどの表示手段と、タッチスクリーンやトラックパッド、マウスなどのポインティングデバイスを用いた修正情報入力手段を設ける。
【0063】
[D]画像結合
以上のようにして決定された結合条件に基づき、複数の部分放射線画像を結合する処理を画像結合手段70が実行する。なお、結合条件の修正があった場合には、画像結合手段70は、結合条件修正手段60により修正された結合条件に基づいて複数の部分放射線画像を結合して、結合放射線画像を生成する。
【0064】
画像結合手段70での画像結合としては、画像の形状を矩形にすることによって画像データの取り扱いを容易にするために、図10において、不要画像部分P1, P2, P3を削除し、画像情報を有しない画像部分Q1, Q2, Q3に所定画像信号値(例えば画素値0)を付与する。
【0065】
また、図11(a)に示すように画像の読取領域がディテクタ面積よりも小さい場合(余白を有している場合)、図11(b)のようにディテクタ202の端と画像#2の読取領域端との間に、画像信号値が相対的に低い部分が生じる。このような場合、周囲の画像部分の画像信号値を用いて、この周囲より低い部分の画像信号値を推定して補正する(図12(a)→図12(b))。
【0066】
なお、画像結合手段70により生成された結合放射線画像を表示する画像表示手段80を設け、結合条件決定手段30により決定された結合条件について、修正情報入力手段50からの修正情報に基づいて結合条件修正手段60にて結合条件を修正し、修正された結合条件に基づいて画像結合手段70で部分放射線画像を再結合するようにしてもよい。
【0067】
すなわち、前記のような画像表示手段80と修正情報入力手段50とを組み合わせることにより、操作者が結合放射線画像あるいは結合する座標を観察しながらインタラクティブに画像結合条件を修正することが可能である。具体的には、CRTモニタや液晶モニタなどの画像表示手段と、タッチスクリーンやトラックパッド、マウスなどのポインティングデバイスを用いた修正情報入力手段を有し、最終的な結合条件を操作者が修正すると、修正された画像処理条件に基づく結合放射線画像を画像表示手段にそのつど表示する。
【0068】
[E]結合画像の画像処理:
ここで、結合放射線画像について、画像処理手段110において階調処理または周波数処理する際の画像処理条件を画像処理条件決定手段90が決定する。なお、周波数処理には、周波数強調処理およびダイナミックレンジ圧縮処理を含むものとする。
【0069】
階調処理においては、画像データの解析結果に基づいて、原画像データ(入力)と階調処理画像データ(出力)との対応を示す階調変換曲線を決定し、この階調変換曲線を用いて階調処理を行う。階調変換曲線の作成手法としては、たとえば、画像データのヒストグラム解析に基づき、特開昭55−116340号公報、特開平2−272529号公報、特開昭63−31641号公報、特開昭63−262141号公報に示される手法を用いてもよい。さらに、特開平3−218578号公報に示されるように、被写体の所望の部分に対応する画像領域を設定し、領域内の画像データに基づいて決定する手法を用いても良い。階調変換曲線の形状としては、たとえば、特公昭63−20535号公報に示されるものが用いられる。階調変換曲線は、画像毎にその都度作成してもよいが、特開昭59−83149号公報に示されるように、あらかじめ作成された数種の基準曲線の中から選択した基準曲線を変形することにより所望の階調変換曲線を得るものとしてもよい。
【0070】
ここで図13に階調変換曲線の一例を示す。ここで、S1,S2は結合放射線画像の解析結果に基づいて求められた基準信号値であり、S1およびS2がそれぞれ所望の出力濃度(輝度)に対応する出力信号値S1′およびS2′に変換されるよう階調変換曲線を定めている。
【0071】
階調処理に先だって、放射線の照射野領域を検出する照射野認識処理を行うと、認識された照射野領域内の画像データを用いて種々の画像処理条件を設定することにより、診断に必要とされる画像部分の画像処理を適正に行うことができるので好ましい。この照射野認識処理の方法としては、たとえば、特開昭63−259538号公報、特開平5−7579号公報、特開平7−181609号公報に示される手段を用いることができる。
【0072】
ここで、周波数強調処理およびダイナミックレンジ圧縮処理について、具体的に説明する。
周波数強調処理では、例えば、以下の式に示す非鮮鋭マスク処理によって鮮鋭度を制御するために、関数Fが特公昭62−62373号公報や特公昭62−62376号公報号で示される方法によって定められる。
【0073】
Sout=Sorg+F(Sorg−Sus)
なお、Soutは処理後の画像データ、Sorgは周波数強調処理前の画像データ、Susは周波数強調処理前の画像データを平均化処理等によって求められた非鮮鋭データである。
【0074】
この周波数強調処理では、例えばF(Sorg−Sus)がβ×(Sorg−Sus)とされて、β(強調係数)が、図14に示すように基準値S1〜S2間でほぼ線形に変化される。また図15の実線で示すように、低濃度を強調する場合には基準値S1〜値「A」までのβが最大とされて、値「B」〜基準値S2まで最小とされる。また値「A」〜値「B」までは、βがほぼ線形に変化される。高濃度を強調する場合には破線で示すように、基準値S1〜値「A」までのβが最小とされて、値「B」〜基準値S2まで最大とされる。また値「A」〜値「B」までは、βがほぼ線形に変化される。なお、図示せずも中濃度を強調する場合には値「A」〜値「B」のβが最大とされる。このように周波数強調処理では、関数Fによって任意の濃度部分の鮮鋭度を制御することができる。
【0075】
ここで、基準値S1、S2および値A,Bは、一般的には結合放射線画像の信号分布の解析結果に基づいて求められる。また、周波数強調処理の方法は、上記非鮮鋭マスク処理に限られるものではなく、特開平9−46645号公報で示される多重解像度法などの手法を用いてもよい。
【0076】
ダイナミックレンジ圧縮処理では、以下の式に示す圧縮処理によって見やすい濃度範囲に収める制御を行うため、関数Gが特許公報266318号公報で示される方法によって定められる。
【0077】
Stb=Sorg+G(Sus)
なお、Stbは処理後の画像データ、Sorgはダイナミックレンジ圧縮処理前の画像データ、Susはダイナミックレンジ圧縮処理前の画像データを平均化処理等によって求められた非鮮鋭データである。
【0078】
ここで、G(Sus)が図16に示すように、非鮮鋭データSusがレベル「La」よりも小さくなるとG(Sus)が増加するような特性を有する場合には、低濃度領域の濃度が高いものとされて、図16(A)に示す画像データSorgは図16(C)に示すように低濃度側のダイナミックレンジが圧縮された画像データStbとされる。また、G(Sus)が図16(D)に示すように、非鮮鋭データSusがレベル「Lb」よりも小さくなるとG(Sus)が減少するような特性を有する場合には、高濃度領域の濃度が低いものとされて、図16(B)に示す画像データSorgは図16(E)に示すように高濃度側のダイナミックレンジが圧縮される。ここで、レベル「La」,「Lb」は、結合放射線画像の信号分布の解析結果に基づいて求められる。
【0079】
なお、以上の処理で、予め与えられるパラメータは、撮影部位・指定体位・撮影条件・撮影方法等の撮影情報に基づいて決定される構成としてもよい。また、これらの情報が画像情報入力手段10において部分放射線画像に付帯する画像属性情報として入力されている場合には、この部分放射線画像の中から選んだ一画像の画像属性情報を利用することができる。
【0080】
以上では、結合放射線画像の画像データの解析結果に基づいて、結合放射線画像の画像処理条件を決定する手法を示したが、部分放射線画像用の画像処理条件として予め決定された条件を結合放射線画像用の条件として継承する構成としてもよい。この場合は、部分放射線画像に付帯する画像属性情報から各々の部分放射線画像用の画像処理条件を読み出し、そのうちの一つの画像処理条件を、結合放射線画像の画像処理条件として使用する。上記のように結合放射線画像を階調処理または周波数処理するための画像処理条件を決定することにより、被写体全体を診断に適した見やすい表現で描出することが可能になる。また、放射線画像の各々を画像処理してから結合する場合とは異なり、結合放射線画像全体に一つの画像処理条件を適用するので、結合位置における濃度または輝度の段差や周波数特性の不連続性が発生することがなく、滑らかな結合部分を得ることができる。
【0081】
[F]結合放射線画像の画像属性情報の生成:
この実施の形態例では、複数の部分放射線画像を結合して結合放射線画像を生成しているので、この結合放射線画像に応じた画像属性情報を画像属性情報発生手段100が部分放射線画像の画像属性情報に基づいて生成する。
【0082】
ここで、結合放射線画像の画像属性情報としては、
▲1▼患者に関する情報:患者氏名、患者ID、年令、性別、など、
▲2▼撮影に関する情報:検査日、検査ID、検査種類、撮影日時、撮影部位、撮影条件、など、
▲3▼画像データに関する情報:画素数、サンプリングピッチ、ビット数、など、▲4▼画像処理に関する情報:結合条件、階調処理条件、周波数処理条件、など、▲5▼長尺撮影により得られた結合放射線画像であるという情報や、結合に用いられた部分放射線画像の枚数、結合に用いられた部分放射線画像を特定するための情報など、
である。
【0083】
ここで、▲1▼と▲2▼に関しては、入力された部分放射線画像の画像属性情報から継承する。▲3▼に関して、画素数は、結合条件に基づいて結合放射線画像の画素数を計算し、計算結果を書き込む。また、サンプリングピッチ、ビット数は、入力された部分放射線画像の画像属性情報から継承する。▲4▼と▲5▼に関しては、本実施の形態例の各処理の過程のデータを用いる。
【0084】
[G]結合放射線画像と画像属性情報の出力:
画像情報出力手段120が、部分放射線画像の結合によって生成された結合放射線画像と、当該結合放射線画像に対応するように生成された画像属性情報とをあわせて外部の機器などに対して出力する。出力先としては、レーザフィルムプリンタなどのハードコピー装置や、画像読影装置、画像ファイリング装置などを用いることができる。
【0085】
また、結合放射線画像を階調処理または周波数処理するための画像処理条件を画像処理条件決定手段90が決定した後、画像情報出力手段120は、結合放射線画像や画像属性情報と共に画像処理条件を出力する。
【0086】
[H]その他の実施の形態例:
以上の説明における部分放射線画像と画像属性情報の入力、結合放射線画像と画像属性情報と画像処理条件の出力については、各種入出力機器との間で直接入出力を行ってもよいし、ネットワーク上の機器との間でデータの授受を行うようにしてもよい。
【0087】
【発明の効果】
以上、詳細に説明してきたように、本発明によれば、以下のような効果が得られる。
【0088】
(1)請求項1記載の発明では、複数の部分放射線画像に適した結合条件を決定し、結合放射線画像を得るようにしているため、形状校正用の格子などは不要になり、欠損部分のない結合放射線画像を容易に得ることができる。また、部分放射線画像の画像属性情報に応じて結合放射線画像の画像属性情報を得ることも可能になり、結合放射線画像の画像出力や画像保管に関わる利便性が向上する。
【0089】
(2)請求項2記載の発明では、複数の部分放射線画像に適した結合条件を決定し、結合放射線画像を得るようにしているため、形状校正用の格子などは不要になり、欠損部分のない結合放射線画像を容易に得ることができる。また、部分放射線画像の画像属性情報に応じて結合放射線画像の画像属性情報を得ることも可能になり、結合放射線画像の画像出力や画像保管に関わる利便性が向上する。
【0090】
(3)請求項3記載の発明では、複数の部分放射線画像の画像信号値を解析することにより重複領域を認識し、重複領域内で相対的に信号分布の大きい領域を注目領域として選択するようにしているため、複数の部分放射線画像の結合条件の決定が高速かつ高精度に行えるようになる。
【0091】
(4)請求項4記載の発明では、複数の部分放射線画像の画像信号値を解析することにより重複領域を認識し、重複領域内で放射線照射部分に含まれる領域を前記注目領域として選択するようにしているため、複数の部分放射線画像の結合条件の決定が高速かつ高精度に行えるようになる。
【0092】
(5)請求項5記載の発明では、複数の部分放射線画像の画像信号値を解析することにより重複領域を認識し、重複領域内で被写体部分に含まれる領域を注目領域として選択するようにしているため、複数の部分放射線画像の結合条件の決定が高速かつ高精度に行えるようになる。
【0093】
(6)請求項6記載の発明では、ある部分放射線画像と他の部分放射線画像との間で、注目領域の類似度を最大にする結合条件を決定するようにしているため、複数の部分放射線画像の結合条件の決定が高速かつ高精度に行えるようになる。
【0094】
(7)請求項7記載の発明では、結合放射線画像の生成に伴う不要画像部分の削除、画像情報を有しない画像部分に対する所定画像信号値の付与、および画像結合部付近の画像信号値補正の機能を有するため、複数の部分放射線画像の向きや位置が微妙に異なっていたとしても所望の形状および自然な階調の結合放射線画像を生成することができる。
【0095】
(8)請求項8記載の発明では、結合放射線画像を階調処理または周波数処理するための画像処理条件を決定し、結合放射線画像と共に画像処理条件を出力するようにしているため、結合放射線画像にどのような画像処理がなされたかが明確になる。
【0096】
(9)請求項9記載の発明では、結合放射線画像を階調処理または周波数処理するための画像処理条件を決定し、この画像処理条件に基づいて結合放射線画像を階調処理または周波数処理して出力するようにしているため、被写体全体が診断に適した見やすい階調および周波数特性で表現された結合放射線画像を出力することができる。
【0097】
(10)請求項10記載の発明では、決定された結合条件を表示し、結合条件を修正する修正情報の入力を受付け、修正情報に基づいて前記結合条件を修正し、修正された結合条件に基づいて複数の部分放射線画像を再結合するようにしているため、常にユーザの要求に応じた結合放射線画像を得ることが可能になる。
【0098】
(11)請求項11記載の発明では、生成された結合放射線画像を表示し、結合条件を修正する修正情報の入力を受付け、修正情報に基づいて前記結合条件を修正し、修正された結合条件に基づいて複数の部分放射線画像を再結合するようにしているため、常にユーザの要求に応じた結合放射線画像を得ることが可能になる。
【図面の簡単な説明】
【図1】本発明の実施の形態例の放射線画像処理装置の構成を示す機能ブロック図である。
【図2】本発明の実施の形態例で用いる複数の部分放射線画像を得る様子を模式的に示す説明図である。
【図3】本発明の実施の形態例で用いる複数の部分放射線画像を得る様子を模式的に示す説明図である。
【図4】本発明の実施の形態例で用いる複数の部分放射線画像の重なりの様子を模式的に示す説明図である。
【図5】本発明の実施の形態例における重複領域の認識の様子を示す説明図である。
【図6】本発明の実施の形態例における重複領域の認識の様子を示す説明図である。
【図7】本発明の実施の形態例における注目領域の決定の様子を示す説明図である。
【図8】本発明の実施の形態例における注目領域の決定の様子を示す説明図である。
【図9】本発明の実施の形態例における結合放射線画像の生成の様子を示す説明図である。
【図10】本発明の実施の形態例における結合放射線画像の生成の様子を示す説明図である。
【図11】本発明の実施の形態例における結合放射線画像の生成の様子を示す説明図である。
【図12】本発明の実施の形態例における結合放射線画像の生成の様子を示す説明図である。
【図13】本発明の実施の形態例における階調変換特性を示す説明図である。
【図14】本発明の実施の形態例における強調係数と画像データとを示す説明図である。
【図15】本発明の実施の形態例における周波数強調係数と画像データとを示す説明図である。
【図16】本発明の実施の形態例におけるダイナミックレンジ圧縮を示す説明図である。
【符号の説明】
10 画像情報入力手段
20 注目領域設定手段
30 結合条件決定出力
40 結合条件表示手段
50 修正情報入力手段
60 結合条件修正手段
70 画像結合手段
80 画像表示手段
90 画像処理条件決定手段
100 画像属性情報発生手段
110 画像処理手段
120 画像情報出力手段[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a radiographic image processing method and a radiographic image processing apparatus for processing a radiographic image, and more specifically, a radiographic image processing method suitable for handling a plurality of partial radiographic images having an overlapping region on which a common subject portion is projected, and The present invention relates to a radiation image processing apparatus.
[0002]
[Prior art]
In recent years, an apparatus capable of directly capturing a radiographic image as a digital image has been developed. For example, as a device for detecting a radiation dose applied to a subject and obtaining a radiographic image formed in accordance with the detected dose as an electrical signal, a method using a detector using a stimulable phosphor is disclosed in JP A number of publications such as JP-A-55-12429 and JP-A-63-189853 have been disclosed.
[0003]
In such an apparatus, a stimulable phosphor is applied to a sheet-like substrate or fixed to the detector by vapor deposition or the like, and once irradiated with radiation transmitted through the subject, the stimulable phosphor absorbs the radiation. .
[0004]
Thereafter, the stimulable phosphor is excited by light or heat energy, and the stimulating phosphor emits radiation energy accumulated by the absorption as fluorescence, and the fluorescence is photoelectrically converted. An image signal is obtained.
[0005]
By the way, in the medical radiographic image, when photographing the whole leg and the whole spine mainly for the purpose of measuring bones, long photographing is performed for the purpose of grasping the whole subject.
[0006]
In this long photographing, conventionally, a long film is housed in a long cassette together with an intensifying screen (screen) for photographing.
Also, a digital radiation image input method (digital long photographing) using a stimulable phosphor detector or the like without using a long film has been proposed. As this digital long length photographing, proposed in Japanese Patent Laid-Open No. 11-244269, a plurality of cassettes storing stimulable phosphor detectors are arranged so as to partially overlap each other, and a dedicated cassette holder is used. To store. On the other hand, in the one proposed in JP-A-3-287249, a plurality of photostimulable phosphor detectors are arranged and locked so as to partially overlap each other.
[0007]
[Problems to be solved by the invention]
In the technique described in Japanese Patent Application Laid-Open No. 11-244269, it is necessary to imprint a grid for shape calibration such as metal at the same time as the subject when generating an image. In this case, when the shape calibration grid is separated from the cassette holder, there is a problem that the photographing operation becomes complicated due to the alignment and the like. In addition, when a shape calibration grid is attached to the cassette holder, there is a problem that the weight of the cassette holder is increased and handling is inconvenient. Further, when the shape calibration grid is superimposed on the subject, there is a lack of information in the subject, which may adversely affect diagnosis such as bone measurement.
[0008]
In the method described in Japanese Patent Laid-Open No. 3-287249, there is no description about an image combining unit that expresses the entire subject by combining partial radiation images. Therefore, there is a problem that a specific method for diagnosis such as bone measurement is unclear and it is difficult to perform practical imaging.
[0009]
The present invention has been made in view of the problems as described above, and performs digital long imaging using a plurality of photostimulable phosphor detectors (stimulable phosphor plates, etc.) to obtain a partial radiation image. It is an object of the present invention to realize a radiographic image processing method and a radiographic image processing apparatus that can accurately and accurately grasp the entire subject without combining and generating a missing portion.
[0010]
[Means for Solving the Problems]
That is, the present invention for solving the above-described problems is as follows.
(1) The invention described in
[0011]
In the present invention, since a combination condition suitable for a plurality of partial radiographic images is determined and a combined radiographic image is obtained, a lattice for shape calibration or the like is not necessary, and a combined radiographic image having no missing portion can be easily obtained. Obtainable. Further, it becomes possible to obtain image attribute information of the combined radiation image according to the image attribute information of the partial radiation image, and convenience related to image output of the combined radiation image and image storage is improved.
[0012]
(2) The invention described in
[0013]
In the present invention, since a combination condition suitable for a plurality of partial radiographic images is determined and a combined radiographic image is obtained, a lattice for shape calibration or the like is not necessary, and a combined radiographic image having no missing portion can be easily obtained. Obtainable. Further, it becomes possible to obtain image attribute information of the combined radiation image according to the image attribute information of the partial radiation image, and convenience related to image output of the combined radiation image and image storage is improved.
[0014]
(3) In the invention according to
[0015]
In the present invention, an overlapping area is recognized by analyzing image signal values of a plurality of partial radiation images, and an area having a relatively large signal distribution is selected as an attention area within the overlapping area. It becomes possible to determine the combination condition of partial radiation images at high speed and with high accuracy.
[0016]
(4) In the invention according to claim 4, the attention area setting unit recognizes the overlapping area by analyzing image signal values of the plurality of partial radiation images, and is included in the radiation irradiation portion within the overlapping area. The radiographic image processing apparatus according to
[0017]
In the present invention, the overlapping region is recognized by analyzing the image signal values of the plurality of partial radiation images, and the region included in the radiation irradiation portion in the overlapping region is selected as the attention region. It becomes possible to determine the combination condition of partial radiation images at high speed and with high accuracy.
[0018]
(5) In the invention according to claim 5, the attention area setting unit recognizes the overlapping area by analyzing image signal values of the plurality of partial radiation images, and is included in the subject portion within the overlapping area. The radiation image processing apparatus according to
[0019]
In the present invention, the overlapping region is recognized by analyzing the image signal values of the plurality of partial radiation images, and the region included in the subject portion in the overlapping region is selected as the attention region. Determination of image combining conditions can be performed at high speed and with high accuracy.
[0020]
(6) In the invention described in claim 6, the combination condition determination means determines a combination condition that maximizes the similarity of the region of interest between a partial radiation image and another partial radiation image. A radiographic image processing apparatus according to any one of
[0021]
In the present invention, since a combination condition for maximizing the similarity of a region of interest is determined between a certain partial radiographic image and another partial radiographic image, determination of a combination condition of a plurality of partial radiographic images is possible. High speed and high accuracy can be achieved.
[0022]
(7) In the invention according to claim 7, the image combining means deletes an unnecessary image portion accompanying generation of the combined radiation image, gives a predetermined image signal value to an image portion having no image information, and an image combining portion. The radiation image processing apparatus according to
[0023]
In this invention, since it has a function of deleting an unnecessary image part accompanying generation of a combined radiation image, giving a predetermined image signal value to an image part having no image information, and correcting an image signal value near the image combining part, a plurality of Even if the directions and positions of the partial radiographic images are slightly different, a combined radiographic image having a desired shape and natural gradation can be generated.
[0024]
(8) The invention according to claim 8 includes image processing condition determining means for determining an image processing condition for gradation processing or frequency processing of the combined radiation image generated by the image combining means, and the image information 8. The radiographic image processing apparatus according to
[0025]
In this invention, the image processing conditions for gradation processing or frequency processing of the combined radiation image are determined, and the image processing conditions are output together with the combined radiation image. It is clear what has been done.
[0026]
(9) The invention according to claim 9 is an image processing condition determining unit that determines an image processing condition for performing gradation processing or frequency processing on the combined radiation image generated by the image combining unit; Image processing means for performing gradation processing or frequency processing on the combined radiation image based on the image processing information, and the image information output means outputs the combined radiation image subjected to the image processing. The radiation image processing apparatus according to any one of
[0027]
In the present invention, an image processing condition for gradation processing or frequency processing of the combined radiation image is determined, and the combined radiation image is subjected to gradation processing or frequency processing based on this image processing condition and output. A combined radiation image in which the entire subject is expressed with easy-to-see gradation and frequency characteristics suitable for diagnosis can be output.
[0028]
(10) The invention according to
[0029]
In the present invention, the determined combination condition is displayed, input of correction information for correcting the combination condition is received, the combination condition is corrected based on the correction information, and a plurality of partial radiation images are displayed based on the corrected combination condition. Therefore, it is possible to always obtain a combined radiation image according to the user's request.
[0030]
(11) The invention according to claim 11 is for inputting image display means for displaying the combined radiation image generated by the image combining means, and correction information for correcting the combining condition determined by the combining condition determining means. Correction information input means, and a combination condition correction means for correcting the combination condition based on the correction information, wherein the image combination means is configured to output the plurality of combinations based on the combination condition corrected by the combination condition correction means. The radiation image processing apparatus according to
[0031]
In the present invention, the generated combined radiation image is displayed, the input of the correction information for correcting the combination condition is received, the combination condition is corrected based on the correction information, and the plurality of partial radiations are based on the corrected combination condition. Since the images are recombined, it is possible to always obtain a combined radiation image according to the user's request.
[0032]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
Hereinafter, the configuration of the radiographic image processing apparatus will be described according to rough blocks with reference to FIG. Each unit of the radiographic image processing apparatus according to the present embodiment can be configured by hardware, firmware, or software. For this reason, the functional block diagram along the processing procedure of each means is shown.
[0033]
[A] Image information input:
As shown in FIG. 1, the image information input means 10 includes radiation image information about a partial radiation image having a signal value proportional to the logarithm of the irradiated radiation amount, and image attribute information corresponding to the radiation image information. Entered.
[0034]
For this reason, the image information input means 10 comprises a digital image input system or laser digitizer using a stimulable phosphor to which a partial radiation image is input, and an information input device to which image attribute information is input. .
[0035]
In this embodiment, partial radiation images obtained by digital long imaging using a plurality of stimulable phosphor detectors (stimulable phosphor plates, etc.) are input without using a long film. It is characterized by that. That is, a system using a stimulable phosphor plate can be used as a method for acquiring a partial radiation image. Also, a system that digitizes a partial radiograph taken by a screen / film system using a laser digitizer may be used.
[0036]
In addition, as a photographing method, as shown in FIGS. 2 and 3, a plurality of
[0037]
As an alternative method to FIG. 2, a method in which the cassettes stored in the photostimulable phosphor plate are partially overlapped and a method in which the cassettes stored in the screen / film are partially overlapped can be considered.
[0038]
As image attribute information of the partial radiation image in this embodiment,
・ Patient information: patient name, patient ID, age, gender, etc.
・ Information about radiography: Examination date, Examination ID, Examination type, Imaging date / time, Imaging part, Imaging conditions, etc.
-Information about image data: Number of pixels, sampling pitch, number of bits, etc.
-In the case of a partial radiographic image obtained by long imaging, information that it is long imaging, for example, information that it is the first piece of the long imaging triplet,
Corresponds to image attribute information.
[0039]
[B] Attention area setting:
The attention
[0040]
Although not shown, in order to shorten the time required for processing, the reduced image generation means creates a thinned radiation image in which the number of pixels is reduced by sampling from the original partial radiation image and setting the attention area May be performed.
[0041]
(B-1) Setting of attention area:
(1) Recognition of overlapping areas:
One overlapping region of the two partial radiation images has a relatively low image signal value before and after the photostimulable phosphor plate or cassette is overlapped. This is shown in FIG. Here,
[0042]
In such a case, by calculating the profile of the image signal value (FIG. 5 (a) → FIG. 5 (b)), the region of low signal value near the image edge is recognized by the attention region setting means 20.
[0043]
In this case, based on the profile signal in the column direction, a line whose profile value is smaller than a predetermined threshold value in the vicinity of the image edge can be detected and regarded as an overlapping region end. Further, based on the differential value of the profile signal in the column direction, it is possible to detect a line in which the profile value decreases rapidly toward the image edge in the vicinity of the image edge, and can be regarded as the overlapping region end. Furthermore, it is also possible to detect overlapping line end lines for a plurality of profile signals, and determine the overlapping area by combining the results (see FIG. 6).
[0044]
In addition, by dividing the image into a plurality of strip regions by a plurality of boundary lines and comparing the image signal values in each strip region with each other, it is possible to recognize a region having a low signal value near the image edge. is there. In this case, a belt-like region having a relatively small signal value in the region and a relatively small variance value is selected.
[0045]
This is for distinguishing the overlapping area that is the object of recognition from the area that is not irradiated with radiation outside the irradiation field stop. Since the object is not projected outside the irradiation field stop, the signal value is relatively low and the variance value is also small.
[0046]
(2) Determination of attention area:
A plurality of candidate areas are set in the overlapping area (see FIG. 7), and an area having a relatively large signal distribution is selected as an attention area from the candidate areas.
[0047]
In FIG. 7, the signal distribution is relatively large in the candidate areas {circle around (1)}, {circle around (2)}, {circle around (4)}, {circle around (5)}, {circle around (7)} including the radiation field edge, skin line, or bone edge. Therefore, one or a plurality of regions having the largest signal distribution are selected from the candidate regions (1), (2), (4), (5), and (7).
[0048]
In addition, as an indicator of signal distribution, the difference between the maximum signal value and the minimum signal value, variance value, standard deviation value, the sum of absolute values of the differential values in the line direction of the signal values, the sum of the square values of the differential values in the line direction of the signal values It is also possible to use.
[0049]
In addition, it is possible to select a region included in the radiation irradiation portion or the subject portion in the overlapping region as the attention region. In this case, the signal values increase in the order of direct radiation irradiated portion> subject portion> radiation non-irradiated portion. Therefore, it is possible to binarize the image signal value by threshold processing and determine a region corresponding to the radiation irradiated portion or the subject portion. It is also possible to obtain a boundary signal value by performing discriminant analysis processing on the histogram of the image, and determine a region corresponding to the radiation irradiated portion or the subject portion.
[0050]
Further, the signal value abruptly changes at the edge of the direct radiation irradiation portion or the subject portion. Using this property, it is possible to determine the edge of the radiation irradiated portion or the subject portion based on the profile value of the image signal value or the differential value of the profile value (FIGS. 8A and 8B). reference). In this case, the image is divided into a plurality of small areas, a small area having a relatively large signal distribution is selected, and the selected small areas are connected to determine the edge of the radiation irradiated portion or the subject portion. It is also possible. FIG. 8 shows an example in which a rectangular area included in the subject portion is selected as the attention area.
[0051]
As described above, a method for determining a coupling condition using the entire overlapping region by selecting a region having a large signal distribution in the overlapping region, or a region included in the radiation irradiation portion or the subject portion as the attention region. Compared to this, processing can be performed at high speed. In addition, since an image part containing a large amount of information that serves as a guide for the coupling position is selected as a region of interest, it is possible to determine the coupling condition with high accuracy even when a shape calibration grid or the like is not captured. it can.
[0052]
As another example, it is possible to select a predetermined fixed area as the attention area. In this case, when an identification mark is imprinted at a fixed position at the time of image generation, a fixed area including the identification mark can be selected.
[0053]
[C] Determination of binding conditions:
(C-1) Binding conditions:
In order to create a combined radiographic image that accurately represents the entire subject by combining partial radiographic images, it is necessary to translate, rotate, or scale the partial radiographic image before combining it with other partial images. When the angle of the detector end (stimulable phosphor plate end) at the time of photographing is relatively different, rotation is necessary. Further, when the distance between the subject and the detector at the time of photographing is relatively different between the partial radiation images, enlargement / reduction is necessary.
[0054]
Therefore, the joining
[0055]
Note that the amount of translation, rotation, and enlargement / reduction of the partial radiation image itself may be used as the combination condition. If the difference between the subject-detector distance at the time of shooting is very small compared to the absolute value, the enlargement / reduction process may be omitted assuming that the difference in enlargement ratio is negligible. Further, when the difference in the angle of the detector end at the time of photographing is very small, the rotation process may be omitted.
[0056]
Further, in the case of FIG. 9, an example is shown in which the partial
[0057]
(C-2) Template matching processing:
“Template matching process” described in “Introduction to computer image processing” (supervised by Hideyuki Tamura, published in 1985 by Seiunsha Co., Ltd.) can be used as a method for determining the joining condition of two partial radiation images. it can.
[0058]
Here, a region of interest set in one of the two partial radiation images to be combined is used as a template. An attention area larger than the template is set in the other image, and is set as a reference area. While the template is translated, rotated, or enlarged / reduced in the reference area, a translation / rotation / enlargement / reduction condition that maximizes the similarity between the template and the partial area in the reference area that overlaps the template is obtained.
[0059]
As a means for evaluating the above similarity, a known SSDA method or cross-correlation method can be used. In that case, it is preferable to use the similarity degree normalized using the average value and the standard deviation value in each region so as not to be affected by the signal value decrease in the overlapping region. In this case, in particular, it is preferable to use the normalized cross-correlation value C represented by the following formula and regard the case where C has the maximum value as the maximum similarity. The pixel value of the jth pixel among all J pixels in the template A is A (j), and the pixel value of the jth pixel among all J pixels in the partial region B within the reference region is B (j ), C is defined by the following equation.
[0060]
[Expression 1]
[0061]
Further, the correlation value of the phase term of Fourier transform (Medical Imaging Technology, Vol. 7, pp 175-176, 1989) may be used as the similarity. In addition, by setting a plurality of regions of interest in one image and performing a plurality of sets of template matching processing, the amount of translation, rotation, and enlargement / reduction may be determined by combining these results.
(C-3) Join condition display / modification:
The combination condition display means 40 for displaying the combination condition determined by the combination condition determination means 30 and the correction information input means 50 for the operator to correct the combination condition and input correction information are provided to correct the combination condition. It is also desirable for the
[0062]
That is, by combining the combination
[0063]
[D] Image combination
Based on the combination condition determined as described above, the
[0064]
As the image combination in the image combination means 70, in order to facilitate handling of the image data by making the shape of the image rectangular, unnecessary image portions P1, P2, P3 are deleted in FIG. A predetermined image signal value (for example, a pixel value of 0) is assigned to the image portions Q1, Q2, and Q3 that are not included.
[0065]
Further, when the image reading area is smaller than the detector area as shown in FIG. 11A (when there is a margin), the edge of the
[0066]
In addition, an
[0067]
That is, by combining the
[0068]
[E] Combined image processing:
Here, for the combined radiation image, the image processing
[0069]
In the gradation processing, a gradation conversion curve indicating the correspondence between the original image data (input) and the gradation processed image data (output) is determined based on the analysis result of the image data, and this gradation conversion curve is used. To perform gradation processing. As a method for creating a gradation conversion curve, for example, based on histogram analysis of image data, Japanese Patent Laid-Open Nos. 55-116340, 2-272529, 63-31641, and 63. You may use the method shown by -262141 gazette. Furthermore, as disclosed in Japanese Patent Laid-Open No. 3-218578, a method may be used in which an image area corresponding to a desired portion of a subject is set and determined based on image data in the area. As the shape of the gradation conversion curve, for example, the one shown in Japanese Patent Publication No. 63-20535 is used. The gradation conversion curve may be created for each image each time, but as shown in Japanese Patent Laid-Open No. 59-83149, a reference curve selected from several kinds of reference curves created in advance is modified. By doing so, a desired gradation conversion curve may be obtained.
[0070]
Here, FIG. 13 shows an example of the gradation conversion curve. Here, S1 and S2 are reference signal values obtained based on the analysis result of the combined radiation image, and S1 and S2 are converted into output signal values S1 ′ and S2 ′ corresponding to desired output densities (luminances), respectively. The gradation conversion curve is determined so that
[0071]
Prior to the gradation processing, when the irradiation field recognition process for detecting the radiation field area is performed, it is necessary for diagnosis by setting various image processing conditions using the image data in the recognized irradiation field area. This is preferable because image processing of the image portion to be performed can be performed appropriately. As a method for this irradiation field recognition processing, for example, means disclosed in JP-A-63-259538, JP-A-5-7579, and JP-A-7-181609 can be used.
[0072]
Here, the frequency enhancement processing and the dynamic range compression processing will be specifically described.
In the frequency enhancement process, for example, in order to control the sharpness by the non-sharp mask process shown in the following equation, the function F is determined by the method shown in Japanese Patent Publication Nos. 62-62373 and 62-62376. It is done.
[0073]
Sout = Sorg + F (Sorg−Sus)
Sout is image data after processing, Sorg is image data before frequency enhancement processing, and Sus is unsharp data obtained by averaging the image data before frequency enhancement processing.
[0074]
In this frequency enhancement process, for example, F (Sorg−Sus) is set to β × (Sorg−Sus), and β (enhancement coefficient) is changed substantially linearly between the reference values S1 and S2 as shown in FIG. The Further, as shown by the solid line in FIG. 15, when low density is emphasized, β from the reference value S1 to the value “A” is maximized, and is minimized from the value “B” to the reference value S2. In addition, from the value “A” to the value “B”, β changes almost linearly. When emphasizing a high density, as indicated by a broken line, β from the reference value S1 to the value “A” is minimized and maximized from the value “B” to the reference value S2. In addition, from the value “A” to the value “B”, β changes almost linearly. Although not shown, when medium density is emphasized, β of values “A” to “B” is maximized. Thus, in the frequency enhancement process, the sharpness of an arbitrary density portion can be controlled by the function F.
[0075]
Here, the reference values S1 and S2 and the values A and B are generally obtained based on the analysis result of the signal distribution of the combined radiation image. Further, the frequency enhancement processing method is not limited to the non-sharp mask processing, and a technique such as a multi-resolution method disclosed in JP-A-9-46645 may be used.
[0076]
In the dynamic range compression process, the function G is determined by the method disclosed in Japanese Patent Publication No. 266318 in order to control the density range to be easily seen by the compression process shown in the following equation.
[0077]
Stb = Sorg + G (Sus)
Stb is processed image data, Sorg is image data before dynamic range compression processing, and Sus is unsharp data obtained by averaging the image data before dynamic range compression processing.
[0078]
Here, as shown in FIG. 16, when G (Sus) has such characteristics that G (Sus) increases when the unsharp data Sus becomes smaller than the level “La”, the density of the low density region is The image data Sorg shown in FIG. 16 (A) is image data Stb in which the dynamic range on the low density side is compressed as shown in FIG. 16 (C). In addition, as shown in FIG. 16D, when G (Sus) has such characteristics that G (Sus) decreases when the unsharp data Sus becomes smaller than the level “Lb”, The density is low, and the dynamic range on the high density side of the image data Sorg shown in FIG. 16B is compressed as shown in FIG. Here, the levels “La” and “Lb” are obtained based on the analysis result of the signal distribution of the combined radiation image.
[0079]
In the above processing, the parameters given in advance may be determined based on the imaging information such as the imaging region, the specified body position, the imaging conditions, and the imaging method. When these pieces of information are input as image attribute information incidental to the partial radiation image in the image information input means 10, the image attribute information of one image selected from the partial radiation images can be used. it can.
[0080]
In the above, the method for determining the image processing condition of the combined radiographic image based on the analysis result of the image data of the combined radiographic image has been described. However, the condition previously determined as the image processing condition for the partial radiographic image is used as the combined radiographic image. It is good also as a structure inherited as conditions for use. In this case, the image processing conditions for each partial radiographic image are read from the image attribute information attached to the partial radiographic image, and one of the image processing conditions is used as the image processing condition for the combined radiographic image. By determining the image processing conditions for gradation processing or frequency processing of the combined radiation image as described above, the entire subject can be rendered in an easy-to-view expression suitable for diagnosis. Also, unlike the case of combining each of the radiographic images after image processing, since one image processing condition is applied to the entire combined radiographic image, there is no density or luminance step or frequency characteristic discontinuity at the combined position. It is not generated and a smooth joint portion can be obtained.
[0081]
[F] Generation of image attribute information of combined radiation image:
In this embodiment, since a combined radiation image is generated by combining a plurality of partial radiation images, the image attribute information generating means 100 uses the image attribute information corresponding to the combined radiation image as the image attribute of the partial radiation image. Generate based on information.
[0082]
Here, as image attribute information of the combined radiation image,
(1) Patient information: patient name, patient ID, age, gender, etc.
(2) Information related to imaging: Examination date, examination ID, examination type, photographing date and time, photographing part, photographing condition, etc.
(3) Information related to image data: number of pixels, sampling pitch, number of bits, etc. (4) Information related to image processing: combination conditions, gradation processing conditions, frequency processing conditions, etc. (5) Obtained by long shooting Information that it is a combined radiation image, the number of partial radiation images used for combining, information for specifying the partial radiation image used for combining, etc.
It is.
[0083]
Here, (1) and (2) are inherited from the image attribute information of the input partial radiation image. Regarding (3), as the number of pixels, the number of pixels of the combined radiation image is calculated based on the combination condition, and the calculation result is written. The sampling pitch and the number of bits are inherited from the image attribute information of the input partial radiation image. Regarding (4) and (5), data of each process in the present embodiment is used.
[0084]
[G] Output of combined radiation image and image attribute information:
The image
[0085]
Further, after the image processing
[0086]
[H] Other embodiments:
The input of partial radiation image and image attribute information, output of combined radiation image, image attribute information, and image processing conditions in the above description may be directly input / output with various input / output devices, or on the network. Data may be exchanged with other devices.
[0087]
【The invention's effect】
As described above in detail, according to the present invention, the following effects can be obtained.
[0088]
(1) In the first aspect of the present invention, since a combination condition suitable for a plurality of partial radiographic images is determined and a combined radiographic image is obtained, a shape calibration grid or the like is not necessary, and a defect portion is not required. No combined radiation image can be easily obtained. Further, it becomes possible to obtain image attribute information of the combined radiation image according to the image attribute information of the partial radiation image, and convenience related to image output of the combined radiation image and image storage is improved.
[0089]
(2) In the invention described in
[0090]
(3) In the invention according to
[0091]
(4) In the invention according to claim 4, an overlapping region is recognized by analyzing image signal values of a plurality of partial radiation images, and a region included in the radiation irradiation portion in the overlapping region is selected as the attention region. Therefore, it becomes possible to determine the combination condition of a plurality of partial radiation images at high speed and with high accuracy.
[0092]
(5) In the invention according to claim 5, an overlapping region is recognized by analyzing image signal values of a plurality of partial radiation images, and a region included in the subject portion is selected as a region of interest within the overlapping region. Therefore, it becomes possible to determine the coupling condition for a plurality of partial radiation images at high speed and with high accuracy.
[0093]
(6) In the invention according to claim 6, since a combination condition that maximizes the similarity of the region of interest is determined between a certain partial radiation image and another partial radiation image, a plurality of partial radiations are determined. Determination of image combining conditions can be performed at high speed and with high accuracy.
[0094]
(7) In the invention described in claim 7, the unnecessary image portion accompanying the generation of the combined radiation image, the application of the predetermined image signal value to the image portion having no image information, and the correction of the image signal value near the image combining portion Since it has a function, a combined radiation image having a desired shape and natural gradation can be generated even if the directions and positions of the plurality of partial radiation images are slightly different.
[0095]
(8) In the invention described in claim 8, since the image processing conditions for gradation processing or frequency processing of the combined radiographic image are determined and the image processing conditions are output together with the combined radiographic image, the combined radiographic image is output. It is clear what kind of image processing was performed.
[0096]
(9) In the invention according to claim 9, image processing conditions for gradation processing or frequency processing of the combined radiation image are determined, and the combined radiation image is subjected to gradation processing or frequency processing based on the image processing conditions. Since it is configured to output, it is possible to output a combined radiation image in which the entire subject is expressed with easy-to-see gradation and frequency characteristics suitable for diagnosis.
[0097]
(10) In the invention according to
[0098]
(11) In the invention described in claim 11, the generated combined radiation image is displayed, the input of correction information for correcting the combination condition is received, the combination condition is corrected based on the correction information, and the corrected combination condition Since a plurality of partial radiographic images are recombined based on the above, it becomes possible to always obtain a combined radiographic image according to the user's request.
[Brief description of the drawings]
FIG. 1 is a functional block diagram showing a configuration of a radiation image processing apparatus according to an embodiment of the present invention.
FIG. 2 is an explanatory view schematically showing a state of obtaining a plurality of partial radiation images used in the embodiment of the present invention.
FIG. 3 is an explanatory view schematically showing a state in which a plurality of partial radiation images used in the embodiment of the present invention are obtained.
FIG. 4 is an explanatory view schematically showing a state of overlapping of a plurality of partial radiation images used in the embodiment of the present invention.
FIG. 5 is an explanatory diagram showing a state of recognition of an overlapping area in the embodiment of the present invention.
FIG. 6 is an explanatory diagram showing a state of recognition of overlapping areas in the embodiment of the present invention.
FIG. 7 is an explanatory diagram showing how attention areas are determined in an embodiment of the present invention.
FIG. 8 is an explanatory diagram showing how attention areas are determined in an embodiment of the present invention.
FIG. 9 is an explanatory diagram showing how a combined radiation image is generated according to an embodiment of the present invention.
FIG. 10 is an explanatory diagram showing how a combined radiation image is generated in the embodiment of the present invention.
FIG. 11 is an explanatory diagram showing how a combined radiation image is generated in the embodiment of the present invention.
FIG. 12 is an explanatory diagram showing how a combined radiation image is generated in the embodiment of the present invention.
FIG. 13 is an explanatory diagram showing gradation conversion characteristics in the embodiment of the present invention.
FIG. 14 is an explanatory diagram showing enhancement coefficients and image data according to an embodiment of the present invention.
FIG. 15 is an explanatory diagram showing frequency emphasis coefficients and image data according to an embodiment of the present invention.
FIG. 16 is an explanatory diagram showing dynamic range compression in the embodiment of the present invention.
[Explanation of symbols]
10 Image information input means
20 Attention area setting means
30 Join condition decision output
40 Joining condition display means
50 Correction information input means
60 Binding condition correction means
70 Image combining means
80 Image display means
90 Image processing condition determining means
100 Image attribute information generating means
110 Image processing means
120 Image information output means
Claims (11)
各々の部分放射線画像に対して前記重複領域の少なくとも一部に対応する注目領域を設定し、
前記注目領域内の画像信号値を解析することにより前記複数の部分放射線画像の結合条件を決定し、
前記結合条件に基づいて前記複数の部分放射線画像を結合することにより、被写体全体を表現する結合放射線画像を生成し、
前記部分放射線画像の画像属性情報に基づいて、前記結合放射線画像に対応する画像属性情報を発生し、
前記結合放射線画像およびそれに対応する前記画像属性情報を出力する、
ことを特徴とする放射線画像処理方法。Input a plurality of partial radiographic images obtained by a plurality of detectors and having overlapping regions on which a common subject portion is projected, and image attribute information corresponding to each of the plurality of partial radiographic images,
Setting a region of interest corresponding to at least part of the overlapping region for each partial radiographic image;
By determining an image signal value in the region of interest to determine a combination condition of the plurality of partial radiation images,
Generating a combined radiation image representing the entire subject by combining the plurality of partial radiation images based on the combining condition;
Generating image attribute information corresponding to the combined radiation image based on the image attribute information of the partial radiation image ;
Outputting the combined radiation image and the image attribute information corresponding thereto;
The radiographic image processing method characterized by the above-mentioned.
各々の部分放射線画像に対して前記重複領域の少なくとも一部に対応する注目領域を設定する注目領域設定手段と、
前記注目領域内の画像信号値を解析することにより前記複数の部分放射線画像の結合条件を決定する結合条件決定手段と、
前記結合条件に基づいて前記複数の部分放射線画像を結合することにより、被写体全体を表現する結合放射線画像を生成する画像結合手段と、
前記部分放射線画像の画像属性情報に基づいて、前記結合放射線画像に対応する画像属性情報を発生する画像属性情報発生手段と、
前記結合放射線画像およびそれに対応する前記画像属性情報を出力する画像情報出力手段と、
を有することを特徴とする放射線画像処理装置。A plurality of partial radiographic images obtained by a plurality of detectors and having overlapping regions on which a common subject portion is projected, and image information input means for inputting image attribute information corresponding to each of the plurality of partial radiographic images;
Attention area setting means for setting an attention area corresponding to at least a part of the overlapping area for each partial radiation image;
A coupling condition determining means for determining a coupling condition for the plurality of partial radiation images by analyzing an image signal value in the region of interest;
Image combining means for generating a combined radiation image representing the entire subject by combining the plurality of partial radiation images based on the combining condition;
Image attribute information generating means for generating image attribute information corresponding to the combined radiation image based on the image attribute information of the partial radiation image ;
Image information output means for outputting the combined radiation image and the image attribute information corresponding thereto;
A radiation image processing apparatus comprising:
前記複数の部分放射線画像の画像信号値を解析することにより前記重複領域を認識し、前記重複領域内で相対的に信号分布の大きい領域を前記注目領域として選択する、
ことを特徴とする請求項2記載の放射線画像処理装置。The attention area setting means includes:
Recognizing the overlapping region by analyzing image signal values of the plurality of partial radiation images, and selecting a region having a relatively large signal distribution within the overlapping region as the attention region;
The radiation image processing apparatus according to claim 2.
前記複数の部分放射線画像の画像信号値を解析することにより前記重複領域を認識し、前記重複領域内で放射線照射部分に含まれる領域を前記注目領域として選択する、
ことを特徴とする請求項2記載の放射線画像処理装置。The attention area setting means includes:
Recognizing the overlapping region by analyzing image signal values of the plurality of partial radiation images, and selecting a region included in the radiation irradiation portion within the overlapping region as the attention region;
The radiation image processing apparatus according to claim 2.
前記複数の部分放射線画像の画像信号値を解析することにより前記重複領域を認識し、前記重複領域内で被写体部分に含まれる領域を前記注目領域として選択する
ことを特徴とする請求項2記載の放射線画像処理装置。The attention area setting means includes:
3. The overlap region is recognized by analyzing image signal values of the plurality of partial radiation images, and a region included in a subject portion within the overlap region is selected as the attention region. Radiation image processing device.
ある部分放射線画像と他の部分放射線画像との間で、前記注目領域の類似度を最大にする結合条件を決定する、
ことを特徴とする請求項2乃至請求項5のいずれかに記載の放射線画像処理装置。The coupling condition determining means includes
Determining a coupling condition that maximizes the similarity of the region of interest between a partial radiographic image and another partial radiographic image;
The radiographic image processing apparatus according to claim 2, wherein the radiation image processing apparatus is a radiographic image processing apparatus.
前記結合放射線画像の生成に伴う不要画像部分の削除、画像情報を有しない画像部分に対する所定画像信号値の付与、および画像結合部付近の画像信号値補正の機能を有する、
ことを特徴とする請求項2乃至請求項6のいずれかに記載の放射線画像処理装置。The image combining means includes
A function of deleting an unnecessary image part accompanying the generation of the combined radiation image, giving a predetermined image signal value to an image part having no image information, and correcting an image signal value near the image combining part;
The radiation image processing apparatus according to claim 2, wherein the radiation image processing apparatus is a radiographic image processing apparatus.
前記画像情報出力手段は、前記結合放射線画像と共に前記画像処理条件を出力する
ことを特徴とする請求項2乃至請求項7のいずれかに記載の放射線画像処理装置。Image processing condition determining means for determining image processing conditions for gradation processing or frequency processing of the combined radiation image generated by the image combining means;
The radiographic image processing apparatus according to claim 2, wherein the image information output unit outputs the image processing conditions together with the combined radiographic image.
前記画像処理条件に基づいて前記結合放射線画像を階調処理または周波数処理する画像処理手段と、を有し、
前記画像情報出力手段は、前記画像処理を施された結合放射線画像を出力する、
ことを特徴とする請求項2乃至請求項7のいずれかに記載の放射線画像処理装置。Image processing condition determining means for determining image processing conditions for gradation processing or frequency processing of the combined radiation image generated by the image combining means;
Image processing means for performing gradation processing or frequency processing on the combined radiation image based on the image processing conditions,
The image information output means outputs the combined radiation image subjected to the image processing;
The radiographic image processing apparatus according to claim 2, wherein the radiographic image processing apparatus is a radiographic image processing apparatus.
前記結合条件を修正する修正情報を入力するための修正情報入力手段と、
前記修正情報に基づいて前記結合条件を修正する結合条件修正手段と、を有し、
前記画像結合手段は、前記結合条件修正手段により修正された結合条件に基づいて前記複数の部分放射線画像を再結合する、
ことを特徴とする、
請求項2乃至請求項9のいずれかに記載の放射線画像処理装置。A combination condition display means for displaying the combination condition determined by the combination condition determination means;
Correction information input means for inputting correction information for correcting the combination condition;
Coupling condition correcting means for correcting the coupling condition based on the correction information,
The image combining means recombines the plurality of partial radiation images based on the combining condition corrected by the combining condition correcting means;
It is characterized by
The radiographic image processing apparatus in any one of Claims 2 thru | or 9.
前記結合条件決定手段により決定された結合条件を修正する修正情報を入力するための修正情報入力手段と、
前記修正情報に基づいて前記結合条件を修正する結合条件修正手段を有し、
前記画像結合手段は、前記結合条件修正手段により修正された結合条件に基づいて前記複数の部分放射線画像を再結合する、
ことを特徴とする請求項2乃至請求項9のいずれかに記載の放射線画像処理装置。Image display means for displaying the combined radiation image generated by the image combining means;
Correction information input means for inputting correction information for correcting the combination condition determined by the combination condition determination means;
A coupling condition correcting means for correcting the coupling condition based on the correction information;
The image combining means recombines the plurality of partial radiation images based on the combining condition corrected by the combining condition correcting means;
The radiographic image processing apparatus according to any one of claims 2 to 9, wherein
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000225379A JP3888046B2 (en) | 2000-07-26 | 2000-07-26 | Radiation image processing method and radiation image processing apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000225379A JP3888046B2 (en) | 2000-07-26 | 2000-07-26 | Radiation image processing method and radiation image processing apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2002044413A JP2002044413A (en) | 2002-02-08 |
JP3888046B2 true JP3888046B2 (en) | 2007-02-28 |
Family
ID=18719161
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000225379A Expired - Lifetime JP3888046B2 (en) | 2000-07-26 | 2000-07-26 | Radiation image processing method and radiation image processing apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3888046B2 (en) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4393135B2 (en) | 2003-08-22 | 2010-01-06 | キヤノン株式会社 | Radiation image processing apparatus, radiation image processing method, computer program, and computer-readable recording medium |
JP4661209B2 (en) * | 2004-12-24 | 2011-03-30 | コニカミノルタエムジー株式会社 | Medical image output system |
JP4865362B2 (en) * | 2006-03-01 | 2012-02-01 | キヤノン株式会社 | Image processing apparatus, control method therefor, and program |
JP4858963B2 (en) * | 2006-09-14 | 2012-01-18 | 株式会社日立メディコ | Medical image processing device |
JP2011115404A (en) * | 2009-12-03 | 2011-06-16 | Canon Inc | X-ray image combining apparatus and x-ray image combining method |
JP5785368B2 (en) | 2010-03-01 | 2015-09-30 | 富士フイルム株式会社 | Radiation imaging system |
JP5644195B2 (en) * | 2010-06-11 | 2014-12-24 | コニカミノルタ株式会社 | Radiation image processing apparatus, radiation image processing method and program |
JP5595188B2 (en) * | 2010-08-31 | 2014-09-24 | キヤノン株式会社 | Image processing apparatus and method |
KR101448889B1 (en) | 2012-08-09 | 2014-10-13 | 아스텔 주식회사 | Method for taking x-ray image and x-ray detector system using the method |
JP6072102B2 (en) * | 2015-01-30 | 2017-02-01 | キヤノン株式会社 | Radiographic system and radiographic method |
JP2016198123A (en) * | 2015-04-07 | 2016-12-01 | コニカミノルタ株式会社 | Radiation image photographing system |
US9508127B1 (en) * | 2015-06-30 | 2016-11-29 | Konica Minolta Laboratory U.S.A., Inc. | Processing for creating a transmission image without artificial noises |
JP6570584B2 (en) * | 2017-08-03 | 2019-09-04 | 富士フイルム株式会社 | Radiographic imaging system, image processing apparatus, radiographic imaging system control method, and radiographic imaging system control program |
JP7091047B2 (en) | 2017-10-06 | 2022-06-27 | キヤノン株式会社 | Radiation imaging system and radiography imaging method |
JP6880099B2 (en) * | 2019-04-22 | 2021-06-02 | 富士フイルム株式会社 | Radiation imaging system, image processing device, radiation imaging system control method, and radiation imaging system control program |
JP7453040B2 (en) * | 2020-04-01 | 2024-03-19 | 富士フイルムヘルスケア株式会社 | Ultrasonic imaging device and image processing device |
-
2000
- 2000-07-26 JP JP2000225379A patent/JP3888046B2/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JP2002044413A (en) | 2002-02-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3888046B2 (en) | Radiation image processing method and radiation image processing apparatus | |
US7388974B2 (en) | Medical image processing apparatus | |
JP4130661B2 (en) | Device for detecting temporal changes between temporally continuous chest images | |
US8363915B2 (en) | Device, method and computer readable recording medium containing program for separating image components | |
US7426319B2 (en) | Image processing apparatus, image processing method, image processing system, program, and storage medium | |
JP2000342558A (en) | Image positioning processor and inter-picture arithmetic processor | |
US9269165B2 (en) | Rib enhancement in radiographic images | |
US11847730B2 (en) | Orientation detection in fluoroscopic images | |
JP2002085392A (en) | Radiographic image processing method and apparatus | |
JP4356327B2 (en) | Medical image processing apparatus and medical image processing method | |
JP3925058B2 (en) | Radiation image processing method and radiation image processing apparatus | |
JP2009195471A (en) | Aligning instrument and program for the same | |
US8577101B2 (en) | Change assessment method | |
JPH06269444A (en) | Method for generating three-dimensional radiograph | |
KR101909125B1 (en) | Method for computer-aided diagnosis and computer-aided diagnosis apparatus thereof | |
JP4294880B2 (en) | Image registration method and apparatus | |
US11151715B2 (en) | Dynamic analysis system | |
US20020154800A1 (en) | Image processing apparatus, image processing system, image processing method and storage medium | |
JP2004135976A (en) | Apparatus and method for acquiring image, recording medium, and program | |
US20090208087A1 (en) | Radiographic image correction method, apparatus and recording-medium stored therein program | |
JP4690204B2 (en) | Image reproduction apparatus and program thereof | |
JP2006034521A (en) | Medical image processor and medical image processing method | |
JP2004305486A (en) | Image processing apparatus, method and system | |
US20050047635A1 (en) | Method, apparatus and program for image processing | |
JP3962557B2 (en) | Image processing method, image processing apparatus, image processing system, and computer-readable storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20041006 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20060731 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060808 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20061006 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20061107 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20061120 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 3888046 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101208 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111208 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121208 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131208 Year of fee payment: 7 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
EXPY | Cancellation because of completion of term |