JP3888046B2 - Radiation image processing method and radiation image processing apparatus - Google Patents

Radiation image processing method and radiation image processing apparatus Download PDF

Info

Publication number
JP3888046B2
JP3888046B2 JP2000225379A JP2000225379A JP3888046B2 JP 3888046 B2 JP3888046 B2 JP 3888046B2 JP 2000225379 A JP2000225379 A JP 2000225379A JP 2000225379 A JP2000225379 A JP 2000225379A JP 3888046 B2 JP3888046 B2 JP 3888046B2
Authority
JP
Japan
Prior art keywords
image
radiation
partial
image processing
condition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2000225379A
Other languages
Japanese (ja)
Other versions
JP2002044413A (en
Inventor
亜紀子 柳田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2000225379A priority Critical patent/JP3888046B2/en
Publication of JP2002044413A publication Critical patent/JP2002044413A/en
Application granted granted Critical
Publication of JP3888046B2 publication Critical patent/JP3888046B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Conversion Of X-Rays Into Visible Images (AREA)
  • Radiography Using Non-Light Waves (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は放射線画像を処理する放射線画像処理方法および放射線画像処理装置に関し、さらに詳しくは、共通の被写体部分が投影された重複領域を有する複数の部分放射線画像を扱うに適した放射線画像処理方法および放射線画像処理装置に関する。
【0002】
【従来の技術】
近年、放射線画像を直接デジタル画像として撮影できる装置が開発されている。たとえば、被写体に照射された放射線量を検出し、その検出量に対応して形成される放射線画像を電気信号として得る装置としては、輝尽性蛍光体を用いたディテクタを用いる方法が特開昭55−12429号公報、特開昭63−189853号公報など、多数開示されている。
【0003】
このような装置では、シ−ト状の基板に輝尽性蛍光体を塗布、あるいは蒸着等によって固着したディテクタに、いったん被写体を透過した放射線を照射して輝尽性蛍光体に放射線を吸収させる。
【0004】
その後、この輝尽性蛍光体を光または熱エネルギ−で励起することにより、この輝尽性蛍光体が上記吸収によって蓄積している放射線エネルギ−を蛍光として放射させ、この蛍光を光電変換して画像信号を得るようにしている。
【0005】
ところで、医用放射線画像において、主に骨の計測を目的とした下肢全長撮影や全脊椎撮影にあたっては、被写体全体を把握する目的のために長尺撮影が行われる。
【0006】
この長尺撮影において、従来は、長尺フィルムを増感紙(スクリーン)と共に長尺カセッテに収納して撮影を行うようにしていた。
また、長尺フィルムを用いず、輝尽性蛍光体ディテクタ等を利用したディジタル放射線画像入力方式(ディジタル長尺撮影)も提案されている。このディジタル長尺撮影として、特開平11−244269号公報に提案されているものでは、輝尽性蛍光体ディテクタを格納した複数のカセッテを、互いに部分的に重なり合うように配列し、専用のカセッテホルダーに格納するようにしている。一方、特開平3−287249号公報に提案されているものでは、複数の輝尽性蛍光体ディテクタを、互いに部分的に重なり合うように配列し係止している。
【0007】
【発明が解決しようとする課題】
以上の特開平11−244269号公報記載の手法では、画像生成時に、金属等の形状校正用の格子を被写体と同時に写し込む必要がある。この場合に、形状校正用の格子がカセッテホルダーと分離している場合には、位置合わせなどのために、撮影操作が煩雑になる問題がある。また、形状校正用の格子がカセッテホルダーに付属している場合には、カセッテホルダーの重量が大きくなり、取り扱いが不便になる問題を有している。さらに、形状校正用の格子が被写体に重なって写りこむ場合には、被写体内に情報の欠損部分が存在し、骨の計測などの診断に悪影響を与える可能性がある。
【0008】
また、特開平3−287249号公報記載の手法では、部分放射線画像を結合することにより被写体全体を表現する画像結合手段に関しては述べられていない。したがって、骨の計測などの診断に供するための具体的な方法が不明確であって、実用的な撮影を行うことが困難な問題がある。
【0009】
本発明は以上のような課題に鑑みてなされたものであって、複数の輝尽性蛍光体ディテクタ(輝尽性蛍光体プレート等)を利用してディジタル長尺撮影を行い、部分放射線画像を結合して欠損部分を生じることなく被写体全体を幾何学的に正確に把握することが可能な放射線画像処理方法および放射線画像処理装置を実現することを目的とする。
【0010】
【課題を解決するための手段】
すなわち、前記した課題を解決する本発明は、以下の通りである。
(1)請求項1記載の発明は、複数のディテクタにより得られる、共通の被写体部分が投影された重複領域を有する複数の部分放射線画像、および該複数の部分放射線画像の各々に対応する画像属性情報を入力し、各々の部分放射線画像に対して前記重複領域の少なくとも一部に対応する注目領域を設定し、前記注目領域内の画像信号値を解析することにより前記複数の部分放射線画像の結合条件を決定し、前記結合条件に基づいて前記複数の部分放射線画像を結合することにより、被写体全体を表現する結合放射線画像を生成し、前記部分放射線画像の画像属性情報に基づいて、前記結合放射線画像に対応する画像属性情報を発生し、前記結合放射線画像およびそれに対応する前記画像属性情報を出力する、ことを特徴とする放射線画像処理方法である。
【0011】
この発明では、複数の部分放射線画像に適した結合条件を決定し、結合放射線画像を得るようにしているため、形状校正用の格子などは不要になり、欠損部分のない結合放射線画像を容易に得ることができる。また、部分放射線画像の画像属性情報に応じて結合放射線画像の画像属性情報を得ることも可能になり、結合放射線画像の画像出力や画像保管に関わる利便性が向上する。
【0012】
(2)請求項2記載の発明は、複数のディテクタにより得られる、共通の被写体部分が投影された重複領域を有する複数の部分放射線画像、および該複数の部分放射線画像の各々に対応する画像属性情報を入力する画像情報入力手段と、各々の部分放射線画像に対して前記重複領域の少なくとも一部に対応する注目領域を設定する注目領域設定手段と、前記注目領域内の画像信号値を解析することにより前記複数の部分放射線画像の結合条件を決定する結合条件決定手段と、前記結合条件に基づいて前記複数の部分放射線画像を結合することにより、被写体全体を表現する結合放射線画像を生成する画像結合手段と、前記部分放射線画像の画像属性情報に基づいて、前記結合放射線画像に対応する画像属性情報を発生する画像属性情報発生手段と、前記結合放射線画像およびそれに対応する前記画像属性情報を出力する画像情報出力手段と、を有することを特徴とする放射線画像処理装置である。
【0013】
この発明では、複数の部分放射線画像に適した結合条件を決定し、結合放射線画像を得るようにしているため、形状校正用の格子などは不要になり、欠損部分のない結合放射線画像を容易に得ることができる。また、部分放射線画像の画像属性情報に応じて結合放射線画像の画像属性情報を得ることも可能になり、結合放射線画像の画像出力や画像保管に関わる利便性が向上する。
【0014】
(3)請求項3記載の発明は、前記注目領域設定手段は、前記複数の部分放射線画像の画像信号値を解析することにより前記重複領域を認識し、前記重複領域内で相対的に信号分布の大きい領域を前記注目領域として選択する、ことを特徴とする請求項2記載の放射線画像処理装置である。
【0015】
この発明では、複数の部分放射線画像の画像信号値を解析することにより重複領域を認識し、重複領域内で相対的に信号分布の大きい領域を注目領域として選択するようにしているため、複数の部分放射線画像の結合条件の決定が高速かつ高精度に行えるようになる。
【0016】
(4)請求項4記載の発明は、前記注目領域設定手段は、前記複数の部分放射線画像の画像信号値を解析することにより前記重複領域を認識し、前記重複領域内で放射線照射部分に含まれる領域を前記注目領域として選択する、ことを特徴とする請求項2記載の放射線画像処理装置である。
【0017】
この発明では、複数の部分放射線画像の画像信号値を解析することにより重複領域を認識し、重複領域内で放射線照射部分に含まれる領域を前記注目領域として選択するようにしているため、複数の部分放射線画像の結合条件の決定が高速かつ高精度に行えるようになる。
【0018】
(5)請求項5記載の発明は、前記注目領域設定手段は、前記複数の部分放射線画像の画像信号値を解析することにより前記重複領域を認識し、前記重複領域内で被写体部分に含まれる領域を前記注目領域として選択することを特徴とする請求項2記載の放射線画像処理装置である。
【0019】
この発明では、複数の部分放射線画像の画像信号値を解析することにより重複領域を認識し、重複領域内で被写体部分に含まれる領域を注目領域として選択するようにしているため、複数の部分放射線画像の結合条件の決定が高速かつ高精度に行えるようになる。
【0020】
(6)請求項6記載の発明は、前記結合条件決定手段は、ある部分放射線画像と他の部分放射線画像との間で、前記注目領域の類似度を最大にする結合条件を決定する、ことを特徴とする請求項2乃至請求項5のいずれかに記載の放射線画像処理装置である。
【0021】
この発明では、ある部分放射線画像と他の部分放射線画像との間で、注目領域の類似度を最大にする結合条件を決定するようにしているため、複数の部分放射線画像の結合条件の決定が高速かつ高精度に行えるようになる。
【0022】
(7)請求項7記載の発明は、前記画像結合手段は、前記結合放射線画像の生成に伴う不要画像部分の削除、画像情報を有しない画像部分に対する所定画像信号値の付与、および画像結合部付近の画像信号値補正の機能を有することを特徴とする請求項2乃至請求項6のいずれかに記載の放射線画像処理装置である。
【0023】
この発明では、結合放射線画像の生成に伴う不要画像部分の削除、画像情報を有しない画像部分に対する所定画像信号値の付与、および画像結合部付近の画像信号値補正の機能を有するため、複数の部分放射線画像の向きや位置が微妙に異なっていたとしても所望の形状および自然な階調の結合放射線画像を生成することができる。
【0024】
(8)請求項8記載の発明は、前記画像結合手段により生成された結合放射線画像を階調処理または周波数処理するための画像処理条件を決定する画像処理条件決定手段を有し、前記画像情報出力手段は、前記結合放射線画像と共に前記画像処理条件を出力することを特徴とする請求項2乃至請求項7のいずれかに記載の放射線画像処理装置である。
【0025】
この発明では、結合放射線画像を階調処理または周波数処理するための画像処理条件を決定し、結合放射線画像と共に画像処理条件を出力するようにしているため、結合放射線画像にどのような画像処理がなされたかが明確になる。
【0026】
(9)請求項9記載の発明は、前記画像結合手段により生成された結合放射線画像を階調処理または周波数処理するための画像処理条件を決定する画像処理条件決定手段と、前記画像処理条件に基づいて前記結合放射線画像を階調処理または周波数処理する画像処理手段と、を有し、前記画像情報出力手段は、前記画像処理を施された結合放射線画像を出力する、ことを特徴とする請求項2乃至請求項7のいずれかに記載の放射線画像処理装置である。
【0027】
この発明では、結合放射線画像を階調処理または周波数処理するための画像処理条件を決定し、この画像処理条件に基づいて結合放射線画像を階調処理または周波数処理して出力するようにしているため、被写体全体が診断に適した見やすい階調および周波数特性で表現された結合放射線画像を出力することができる。
【0028】
(10)請求項10記載の発明は、前記結合条件決定手段により決定された結合条件を表示する結合条件表示手段と、前記結合条件を修正する修正情報を入力するための修正情報入力手段と、前記修正情報に基づいて前記結合条件を修正する結合条件修正手段と、を有し、前記画像結合手段は、前記結合条件修正手段により修正された結合条件に基づいて前記複数の部分放射線画像を再結合する、ことを特徴とする、請求項2乃至請求項9のいずれかに記載の放射線画像処理装置である。
【0029】
この発明では、決定された結合条件を表示し、結合条件を修正する修正情報の入力を受付け、修正情報に基づいて前記結合条件を修正し、修正された結合条件に基づいて複数の部分放射線画像を再結合するようにしているため、常にユーザの要求に応じた結合放射線画像を得ることが可能になる。
【0030】
(11)請求項11記載の発明は、前記画像結合手段により生成された結合放射線画像を表示する画像表示手段と、前記結合条件決定手段により決定された結合条件を修正する修正情報を入力するための修正情報入力手段と、前記修正情報に基づいて前記結合条件を修正する結合条件修正手段を有し、前記画像結合手段は、前記結合条件修正手段により修正された結合条件に基づいて前記複数の部分放射線画像を再結合する、ことを特徴とする請求項2乃至請求項9のいずれかに記載の放射線画像処理装置である。
【0031】
この発明では、生成された結合放射線画像を表示し、結合条件を修正する修正情報の入力を受付け、修正情報に基づいて前記結合条件を修正し、修正された結合条件に基づいて複数の部分放射線画像を再結合するようにしているため、常にユーザの要求に応じた結合放射線画像を得ることが可能になる。
【0032】
【発明の実施の形態】
以下、図面を参照して本発明の実施の形態例を詳細に説明する。
以下、放射線画像処理装置の構成を、図1を用いて大まかなブロックに従って説明する。なお、本実施の形態例の放射線画像処理装置の各手段は、ハードウェアやファームウェア、またはソフトウェアで構成することが可能である。このため、各手段の処理手順に沿った機能ブロック図を示す。
【0033】
[A]画像情報入力:
図1に示すように、画像情報入力手段10に、照射された放射線量の対数に比例した信号値を有する部分放射線画像についての放射線画像情報と、この放射線画像情報に対応した画像属性情報とが入力される。
【0034】
このため、画像情報入力手段10は、部分放射線画像が入力される輝尽性蛍光体を用いたディジタル画像入力システムあるいはレーザーディジタイザ、および、画像属性情報が入力される情報入力装置とで構成される。
【0035】
この実施の形態例では、長尺フィルムを用いずに、複数の輝尽性蛍光体ディテクタ(輝尽性蛍光体プレート等)を利用してディジタル長尺撮影によって得た部分放射線画像が入力されることを特徴としている。すなわち、部分放射線画像を取得する方式として、輝尽性蛍光体プレートを用いたシステムを用いることができる。また、スクリーン/フィルム系により撮影した部分放射線写真をレーザーディジタイザを用いてディジタル化するシステムであってもよい。
【0036】
また、撮影方法としては、図2および図3に示すように、長尺カセッテ200の内部で複数の輝尽性蛍光体プレート201〜203を部分的に重ね合わせるようにして、ディジタル長尺撮影を実行することが好ましい。
【0037】
この図2に代わる方法として、輝尽性蛍光体プレートの格納されたカセッテ同士を部分的に重ね合わせる方法と、スクリーン/フィルムの格納されたカセッテ同士を部分的に重ね合わせる方法とが考えられる。
【0038】
この実施の形態例における部分放射線画像の画像属性情報としては、
・患者に関する情報:患者氏名、患者ID、年令、性別、など、
・撮影に関する情報:検査日、検査ID、検査種類、撮影日時、撮影部位、撮影条件、など、
・画像データに関する情報:画素数、サンプリングピッチ、ビット数、など、
・長尺撮影により得られた部分放射線画像の場合、長尺撮影であるという情報や、例えば長尺撮影3枚組の1枚目であるという情報など、
が画像属性情報に該当する。
【0039】
[B]注目領域設定:
注目領域設定手段20では、画像情報入力手段10より送信されてきた部分放射線画像を解析する。
【0040】
なお、図示していないが、処理に必要な時間を短縮するため、縮小画像生成手段により、元の部分放射線画像からサンプリングをして画素数を縮小させた間引き放射線画像を作成し、注目領域設定を行ってもよい。
【0041】
(B−1)注目領域の設定:
▲1▼重複領域の認識:
2枚の部分放射線画像のうち1枚の重複領域は、輝尽性蛍光体プレートまたはカセッテの重なりの前後により、画像信号値が相対的に低くなる。この様子を図4に示す。ここでは、図4(b)の画像#2が被写体の手前側で、図4(a)の画像#1と図4(c)の画像#3が被写体の奥側に位置している。
【0042】
このような場合、画像信号値のプロファイルを計算することにより(図5(a)→図5(b))、画像辺縁付近で信号値の低い領域を注目領域設定手段20により認識する。
【0043】
この場合、カラム方向のプロファイル信号に基づき、プロファイル値が画像辺縁付近で所定のしきい値より小さくなるラインを検出し、重複領域端とみなすことができる。また、カラム方向のプロファイル信号の微分値に基づき、プロファイル値が画像辺縁付近で画像端に向かって急激に小さくなるラインを検出し、重複領域端とみなすこともできる。さらに、複数のプロファイル信号に対して重複領域端のラインを検出し、その結果を総合して重複領域を定めることも可能である(図6参照)。
【0044】
また、画像を複数の境界ラインによって複数の帯状領域に分割し、各帯状領域内の画像信号値を相互に比較することにより、画像辺縁付近で信号値の低い領域を認識することが可能である。この場合、領域内の信号値が相対的に小さく、かつ分散値が相対的に小さくない帯状領域を選ぶようにする。
【0045】
これは、認識の対象である重複領域を、照射野絞りの外側の放射線の照射されていない領域と区別するためである。照射野絞りの外側は、被写体が投影されていないため、信号値が相対的に低くなっており、かつ、分散値も小さい状態になっている。
【0046】
▲2▼注目領域の決定:
重複領域内に複数の候補領域を設定し(図7参照)、候補領域の中から、相対的に信号分布の大きい領域を注目領域として選択する。
【0047】
この図7において、放射線照射野エッジ、皮膚線、または骨のエッジを含む候補領域▲1▼,▲2▼,▲4▼,▲5▼,▲7▼は相対的に信号分布が大きくなる。そこで、候補領域▲1▼,▲2▼,▲4▼,▲5▼,▲7▼の中から最も信号分布の大きい1個または複数の領域を選択する。
【0048】
また、信号分布の指標として、最大信号値と最小信号値の差、分散値、標準偏差値、信号値のライン方向微分値の絶対値の総和、信号値のライン方向微分値の二乗値の総和を用いることも可能である。
【0049】
また、重複領域内で放射線照射部分または被写体部分に含まれる領域を前記注目領域として選択することが可能である。この場合、信号値は、直接放射線照射部分>被写体部分>放射線非照射部分、の順に大きくなっている。したがって、しきい値処理により画像信号値を二値化し、放射線照射部分または被写体部分に対応する領域を決定することが可能である。また、画像のヒストグラムに対して判別分析処理を施すことにより境界信号値を求め、放射線照射部分または被写体部分に対応する領域を決定することも可能である。
【0050】
また、直接放射線照射部分または被写体部分のエッジにおいては信号値が急激に変化する。この性質を利用し、画像信号値のプロファイル値またはプロファイル値の微分値に基づき、放射線照射部分または被写体部分の辺縁のエッジを決定することが可能である(図8(a)、(b)参照)。この場合、画像を複数の小領域に分割し、信号分布の比較的大きい小領域を選択し、選択された小領域を連結することにより、放射線照射部分または被写体部分の辺縁のエッジを決定することも可能である。なお、被写体部分に含まれる矩形領域を注目領域として選択した例を図8に示す。
【0051】
以上述べたように、重複領域内で信号分布の大きい部分、または、放射線照射部分あるいは被写体部分に含まれる領域を注目領域として選択することにより、重複領域全体を用いて結合条件を決定する手法に比べて、高速に処理を行うことができる。また、結合位置の目安となる情報を多く含む画像部分を注目領域として選択しているので、形状校正用の格子などが写し込まれていない場合でも、結合条件の決定を高精度に行うことができる。
【0052】
その他の例として、予め定められた固定領域を注目領域として選択することが可能である。この場合、画像生成時に固定位置に写し込まれた識別マークを有する場合には、前記識別マークを含む固定領域を選択することができる。
【0053】
[C]結合条件の決定:
(C−1)結合条件:
部分放射線画像を結合して被写体全体を正確に表現する結合放射線画像を作成するには、部分放射線画像を平行移動、回転、または拡大縮小してから他の部分画像と結合する必要がある。撮影時のディテクタ端(輝尽性蛍光体プレート端)の角度が、相対的に異なる場合、回転が必要となる。また、撮影時の被写体−ディテクタ間距離が部分放射線画像の間で相対的に異なる場合、拡大縮小が必要となる。
【0054】
そこで、結合条件決定手段30が結合条件の決定を行う。結合条件として、例えば図9(a)の2枚の部分放射線画像の結合位置を代表する各2点 A1, B1, A2, B2 の座標値を結合条件として決定することにより、図9(b)に示すように平行移動、回転、および拡大縮小の量が定まる。
【0055】
なお、部分放射線画像の平行移動、回転、および拡大縮小の量そのものを結合条件としてもよい。また、撮影時の被写体−ディテクタ間距離の差異がその絶対値に比較して非常に小さい場合には、拡大率の差は無視できる程度とみなして、拡大縮小処理を省略してもよい。また、撮影時のディテクタ端の角度の差異が非常に小さい場合には、回転処理を省略してもよい。
【0056】
また、この図9の場合には、部分放射線画像#1を回転処理するような例を示しているが、いずれの側の部分放射線画像を回転,移動,拡大縮小するようにしてもよい。
【0057】
(C−2)テンプレートマッチング処理:
2枚の部分放射線画像の結合条件を決定するための手法として、「コンピュータ画像処理入門」(田村秀行監修、株式会社星雲社1985年発行)に記述されている「テンプレートマッチング処理」を用いることができる。
【0058】
ここで、結合しようとする2枚の部分放射線画像のうちの一方の画像に設定した注目領域をテンプレートとする。他方の画像にテンプレートより大きい注目領域を設定し、参照領域とする。テンプレートを参照領域内で平行移動、回転、または拡大縮小させながら、テンプレートとそれに重なり合う参照領域内の部分領域との類似度が最大になるような平行移動、回転、または拡大縮小条件を求める。
【0059】
なお、以上の類似度を評価する手段としては、公知のSSDA法や相互相関法を用いることができる。その場合、重複領域における信号値低下の影響を受けにくいように、各領域内の平均値および標準偏差値を用いて規格化した類似度を使用することが好ましい。この場合、特に、以下の式で表される規格化相互相関値Cを用いて、Cが最大値をとる場合を類似度最大とみなすことが好ましい。テンプレートA中の全画素J個中j番目の画素の画素値を A(j), それに対応する参照領域内の部分領域B中の全画素J個中j番目の画素の画素値を B(j) と表した場合に、Cは次式で定義される。
【0060】
【数1】

Figure 0003888046
【0061】
また、類似度として、フーリエ変換の位相項の相関値(Medical Imaging Technology, Vol.7, pp175-176, 1989)を使用してもよい。また、1画像内に注目領域を複数設定し、複数組のテンプレートマッチング処理を行うことにより、それらの結果を総合して平行移動、回転、および拡大縮小の量を決定してもよい
(C−3)結合条件表示・修正:
なお、結合条件決定手段30により決定された結合条件を表示する結合条件表示手段40と、結合条件をオペレータが修正して修正情報を入力するための修正情報入力手段50とを設け、結合条件修正手段60が修正情報に基づいて結合条件を修正することも望ましい。この場合、結合条件として、座標位置や連結線の様子を表示し、修正を受け付けるようにする。
【0062】
すなわち、前記のような結合条件表示手段40と修正情報入力手段50とを組み合わせることにより、インタラクティブに画像結合条件を修正することが可能である。具体的には、CRTモニタや液晶モニタなどの表示手段と、タッチスクリーンやトラックパッド、マウスなどのポインティングデバイスを用いた修正情報入力手段を設ける。
【0063】
[D]画像結合
以上のようにして決定された結合条件に基づき、複数の部分放射線画像を結合する処理を画像結合手段70が実行する。なお、結合条件の修正があった場合には、画像結合手段70は、結合条件修正手段60により修正された結合条件に基づいて複数の部分放射線画像を結合して、結合放射線画像を生成する。
【0064】
画像結合手段70での画像結合としては、画像の形状を矩形にすることによって画像データの取り扱いを容易にするために、図10において、不要画像部分P1, P2, P3を削除し、画像情報を有しない画像部分Q1, Q2, Q3に所定画像信号値(例えば画素値0)を付与する。
【0065】
また、図11(a)に示すように画像の読取領域がディテクタ面積よりも小さい場合(余白を有している場合)、図11(b)のようにディテクタ202の端と画像#2の読取領域端との間に、画像信号値が相対的に低い部分が生じる。このような場合、周囲の画像部分の画像信号値を用いて、この周囲より低い部分の画像信号値を推定して補正する(図12(a)→図12(b))。
【0066】
なお、画像結合手段70により生成された結合放射線画像を表示する画像表示手段80を設け、結合条件決定手段30により決定された結合条件について、修正情報入力手段50からの修正情報に基づいて結合条件修正手段60にて結合条件を修正し、修正された結合条件に基づいて画像結合手段70で部分放射線画像を再結合するようにしてもよい。
【0067】
すなわち、前記のような画像表示手段80と修正情報入力手段50とを組み合わせることにより、操作者が結合放射線画像あるいは結合する座標を観察しながらインタラクティブに画像結合条件を修正することが可能である。具体的には、CRTモニタや液晶モニタなどの画像表示手段と、タッチスクリーンやトラックパッド、マウスなどのポインティングデバイスを用いた修正情報入力手段を有し、最終的な結合条件を操作者が修正すると、修正された画像処理条件に基づく結合放射線画像を画像表示手段にそのつど表示する。
【0068】
[E]結合画像の画像処理:
ここで、結合放射線画像について、画像処理手段110において階調処理または周波数処理する際の画像処理条件を画像処理条件決定手段90が決定する。なお、周波数処理には、周波数強調処理およびダイナミックレンジ圧縮処理を含むものとする。
【0069】
階調処理においては、画像データの解析結果に基づいて、原画像データ(入力)と階調処理画像データ(出力)との対応を示す階調変換曲線を決定し、この階調変換曲線を用いて階調処理を行う。階調変換曲線の作成手法としては、たとえば、画像データのヒストグラム解析に基づき、特開昭55−116340号公報、特開平2−272529号公報、特開昭63−31641号公報、特開昭63−262141号公報に示される手法を用いてもよい。さらに、特開平3−218578号公報に示されるように、被写体の所望の部分に対応する画像領域を設定し、領域内の画像データに基づいて決定する手法を用いても良い。階調変換曲線の形状としては、たとえば、特公昭63−20535号公報に示されるものが用いられる。階調変換曲線は、画像毎にその都度作成してもよいが、特開昭59−83149号公報に示されるように、あらかじめ作成された数種の基準曲線の中から選択した基準曲線を変形することにより所望の階調変換曲線を得るものとしてもよい。
【0070】
ここで図13に階調変換曲線の一例を示す。ここで、S1,S2は結合放射線画像の解析結果に基づいて求められた基準信号値であり、S1およびS2がそれぞれ所望の出力濃度(輝度)に対応する出力信号値S1′およびS2′に変換されるよう階調変換曲線を定めている。
【0071】
階調処理に先だって、放射線の照射野領域を検出する照射野認識処理を行うと、認識された照射野領域内の画像データを用いて種々の画像処理条件を設定することにより、診断に必要とされる画像部分の画像処理を適正に行うことができるので好ましい。この照射野認識処理の方法としては、たとえば、特開昭63−259538号公報、特開平5−7579号公報、特開平7−181609号公報に示される手段を用いることができる。
【0072】
ここで、周波数強調処理およびダイナミックレンジ圧縮処理について、具体的に説明する。
周波数強調処理では、例えば、以下の式に示す非鮮鋭マスク処理によって鮮鋭度を制御するために、関数Fが特公昭62−62373号公報や特公昭62−62376号公報号で示される方法によって定められる。
【0073】
Sout=Sorg+F(Sorg−Sus)
なお、Soutは処理後の画像データ、Sorgは周波数強調処理前の画像データ、Susは周波数強調処理前の画像データを平均化処理等によって求められた非鮮鋭データである。
【0074】
この周波数強調処理では、例えばF(Sorg−Sus)がβ×(Sorg−Sus)とされて、β(強調係数)が、図14に示すように基準値S1〜S2間でほぼ線形に変化される。また図15の実線で示すように、低濃度を強調する場合には基準値S1〜値「A」までのβが最大とされて、値「B」〜基準値S2まで最小とされる。また値「A」〜値「B」までは、βがほぼ線形に変化される。高濃度を強調する場合には破線で示すように、基準値S1〜値「A」までのβが最小とされて、値「B」〜基準値S2まで最大とされる。また値「A」〜値「B」までは、βがほぼ線形に変化される。なお、図示せずも中濃度を強調する場合には値「A」〜値「B」のβが最大とされる。このように周波数強調処理では、関数Fによって任意の濃度部分の鮮鋭度を制御することができる。
【0075】
ここで、基準値S1、S2および値A,Bは、一般的には結合放射線画像の信号分布の解析結果に基づいて求められる。また、周波数強調処理の方法は、上記非鮮鋭マスク処理に限られるものではなく、特開平9−46645号公報で示される多重解像度法などの手法を用いてもよい。
【0076】
ダイナミックレンジ圧縮処理では、以下の式に示す圧縮処理によって見やすい濃度範囲に収める制御を行うため、関数Gが特許公報266318号公報で示される方法によって定められる。
【0077】
Stb=Sorg+G(Sus)
なお、Stbは処理後の画像データ、Sorgはダイナミックレンジ圧縮処理前の画像データ、Susはダイナミックレンジ圧縮処理前の画像データを平均化処理等によって求められた非鮮鋭データである。
【0078】
ここで、G(Sus)が図16に示すように、非鮮鋭データSusがレベル「La」よりも小さくなるとG(Sus)が増加するような特性を有する場合には、低濃度領域の濃度が高いものとされて、図16(A)に示す画像データSorgは図16(C)に示すように低濃度側のダイナミックレンジが圧縮された画像データStbとされる。また、G(Sus)が図16(D)に示すように、非鮮鋭データSusがレベル「Lb」よりも小さくなるとG(Sus)が減少するような特性を有する場合には、高濃度領域の濃度が低いものとされて、図16(B)に示す画像データSorgは図16(E)に示すように高濃度側のダイナミックレンジが圧縮される。ここで、レベル「La」,「Lb」は、結合放射線画像の信号分布の解析結果に基づいて求められる。
【0079】
なお、以上の処理で、予め与えられるパラメータは、撮影部位・指定体位・撮影条件・撮影方法等の撮影情報に基づいて決定される構成としてもよい。また、これらの情報が画像情報入力手段10において部分放射線画像に付帯する画像属性情報として入力されている場合には、この部分放射線画像の中から選んだ一画像の画像属性情報を利用することができる。
【0080】
以上では、結合放射線画像の画像データの解析結果に基づいて、結合放射線画像の画像処理条件を決定する手法を示したが、部分放射線画像用の画像処理条件として予め決定された条件を結合放射線画像用の条件として継承する構成としてもよい。この場合は、部分放射線画像に付帯する画像属性情報から各々の部分放射線画像用の画像処理条件を読み出し、そのうちの一つの画像処理条件を、結合放射線画像の画像処理条件として使用する。上記のように結合放射線画像を階調処理または周波数処理するための画像処理条件を決定することにより、被写体全体を診断に適した見やすい表現で描出することが可能になる。また、放射線画像の各々を画像処理してから結合する場合とは異なり、結合放射線画像全体に一つの画像処理条件を適用するので、結合位置における濃度または輝度の段差や周波数特性の不連続性が発生することがなく、滑らかな結合部分を得ることができる。
【0081】
[F]結合放射線画像の画像属性情報の生成:
この実施の形態例では、複数の部分放射線画像を結合して結合放射線画像を生成しているので、この結合放射線画像に応じた画像属性情報を画像属性情報発生手段100が部分放射線画像の画像属性情報に基づいて生成する。
【0082】
ここで、結合放射線画像の画像属性情報としては、
▲1▼患者に関する情報:患者氏名、患者ID、年令、性別、など、
▲2▼撮影に関する情報:検査日、検査ID、検査種類、撮影日時、撮影部位、撮影条件、など、
▲3▼画像データに関する情報:画素数、サンプリングピッチ、ビット数、など、▲4▼画像処理に関する情報:結合条件、階調処理条件、周波数処理条件、など、▲5▼長尺撮影により得られた結合放射線画像であるという情報や、結合に用いられた部分放射線画像の枚数、結合に用いられた部分放射線画像を特定するための情報など、
である。
【0083】
ここで、▲1▼と▲2▼に関しては、入力された部分放射線画像の画像属性情報から継承する。▲3▼に関して、画素数は、結合条件に基づいて結合放射線画像の画素数を計算し、計算結果を書き込む。また、サンプリングピッチ、ビット数は、入力された部分放射線画像の画像属性情報から継承する。▲4▼と▲5▼に関しては、本実施の形態例の各処理の過程のデータを用いる。
【0084】
[G]結合放射線画像と画像属性情報の出力:
画像情報出力手段120が、部分放射線画像の結合によって生成された結合放射線画像と、当該結合放射線画像に対応するように生成された画像属性情報とをあわせて外部の機器などに対して出力する。出力先としては、レーザフィルムプリンタなどのハードコピー装置や、画像読影装置、画像ファイリング装置などを用いることができる。
【0085】
また、結合放射線画像を階調処理または周波数処理するための画像処理条件を画像処理条件決定手段90が決定した後、画像情報出力手段120は、結合放射線画像や画像属性情報と共に画像処理条件を出力する。
【0086】
[H]その他の実施の形態例:
以上の説明における部分放射線画像と画像属性情報の入力、結合放射線画像と画像属性情報と画像処理条件の出力については、各種入出力機器との間で直接入出力を行ってもよいし、ネットワーク上の機器との間でデータの授受を行うようにしてもよい。
【0087】
【発明の効果】
以上、詳細に説明してきたように、本発明によれば、以下のような効果が得られる。
【0088】
(1)請求項1記載の発明では、複数の部分放射線画像に適した結合条件を決定し、結合放射線画像を得るようにしているため、形状校正用の格子などは不要になり、欠損部分のない結合放射線画像を容易に得ることができる。また、部分放射線画像の画像属性情報に応じて結合放射線画像の画像属性情報を得ることも可能になり、結合放射線画像の画像出力や画像保管に関わる利便性が向上する。
【0089】
(2)請求項2記載の発明では、複数の部分放射線画像に適した結合条件を決定し、結合放射線画像を得るようにしているため、形状校正用の格子などは不要になり、欠損部分のない結合放射線画像を容易に得ることができる。また、部分放射線画像の画像属性情報に応じて結合放射線画像の画像属性情報を得ることも可能になり、結合放射線画像の画像出力や画像保管に関わる利便性が向上する。
【0090】
(3)請求項3記載の発明では、複数の部分放射線画像の画像信号値を解析することにより重複領域を認識し、重複領域内で相対的に信号分布の大きい領域を注目領域として選択するようにしているため、複数の部分放射線画像の結合条件の決定が高速かつ高精度に行えるようになる。
【0091】
(4)請求項4記載の発明では、複数の部分放射線画像の画像信号値を解析することにより重複領域を認識し、重複領域内で放射線照射部分に含まれる領域を前記注目領域として選択するようにしているため、複数の部分放射線画像の結合条件の決定が高速かつ高精度に行えるようになる。
【0092】
(5)請求項5記載の発明では、複数の部分放射線画像の画像信号値を解析することにより重複領域を認識し、重複領域内で被写体部分に含まれる領域を注目領域として選択するようにしているため、複数の部分放射線画像の結合条件の決定が高速かつ高精度に行えるようになる。
【0093】
(6)請求項6記載の発明では、ある部分放射線画像と他の部分放射線画像との間で、注目領域の類似度を最大にする結合条件を決定するようにしているため、複数の部分放射線画像の結合条件の決定が高速かつ高精度に行えるようになる。
【0094】
(7)請求項7記載の発明では、結合放射線画像の生成に伴う不要画像部分の削除、画像情報を有しない画像部分に対する所定画像信号値の付与、および画像結合部付近の画像信号値補正の機能を有するため、複数の部分放射線画像の向きや位置が微妙に異なっていたとしても所望の形状および自然な階調の結合放射線画像を生成することができる。
【0095】
(8)請求項8記載の発明では、結合放射線画像を階調処理または周波数処理するための画像処理条件を決定し、結合放射線画像と共に画像処理条件を出力するようにしているため、結合放射線画像にどのような画像処理がなされたかが明確になる。
【0096】
(9)請求項9記載の発明では、結合放射線画像を階調処理または周波数処理するための画像処理条件を決定し、この画像処理条件に基づいて結合放射線画像を階調処理または周波数処理して出力するようにしているため、被写体全体が診断に適した見やすい階調および周波数特性で表現された結合放射線画像を出力することができる。
【0097】
(10)請求項10記載の発明では、決定された結合条件を表示し、結合条件を修正する修正情報の入力を受付け、修正情報に基づいて前記結合条件を修正し、修正された結合条件に基づいて複数の部分放射線画像を再結合するようにしているため、常にユーザの要求に応じた結合放射線画像を得ることが可能になる。
【0098】
(11)請求項11記載の発明では、生成された結合放射線画像を表示し、結合条件を修正する修正情報の入力を受付け、修正情報に基づいて前記結合条件を修正し、修正された結合条件に基づいて複数の部分放射線画像を再結合するようにしているため、常にユーザの要求に応じた結合放射線画像を得ることが可能になる。
【図面の簡単な説明】
【図1】本発明の実施の形態例の放射線画像処理装置の構成を示す機能ブロック図である。
【図2】本発明の実施の形態例で用いる複数の部分放射線画像を得る様子を模式的に示す説明図である。
【図3】本発明の実施の形態例で用いる複数の部分放射線画像を得る様子を模式的に示す説明図である。
【図4】本発明の実施の形態例で用いる複数の部分放射線画像の重なりの様子を模式的に示す説明図である。
【図5】本発明の実施の形態例における重複領域の認識の様子を示す説明図である。
【図6】本発明の実施の形態例における重複領域の認識の様子を示す説明図である。
【図7】本発明の実施の形態例における注目領域の決定の様子を示す説明図である。
【図8】本発明の実施の形態例における注目領域の決定の様子を示す説明図である。
【図9】本発明の実施の形態例における結合放射線画像の生成の様子を示す説明図である。
【図10】本発明の実施の形態例における結合放射線画像の生成の様子を示す説明図である。
【図11】本発明の実施の形態例における結合放射線画像の生成の様子を示す説明図である。
【図12】本発明の実施の形態例における結合放射線画像の生成の様子を示す説明図である。
【図13】本発明の実施の形態例における階調変換特性を示す説明図である。
【図14】本発明の実施の形態例における強調係数と画像データとを示す説明図である。
【図15】本発明の実施の形態例における周波数強調係数と画像データとを示す説明図である。
【図16】本発明の実施の形態例におけるダイナミックレンジ圧縮を示す説明図である。
【符号の説明】
10 画像情報入力手段
20 注目領域設定手段
30 結合条件決定出力
40 結合条件表示手段
50 修正情報入力手段
60 結合条件修正手段
70 画像結合手段
80 画像表示手段
90 画像処理条件決定手段
100 画像属性情報発生手段
110 画像処理手段
120 画像情報出力手段[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a radiographic image processing method and a radiographic image processing apparatus for processing a radiographic image, and more specifically, a radiographic image processing method suitable for handling a plurality of partial radiographic images having an overlapping region on which a common subject portion is projected, and The present invention relates to a radiation image processing apparatus.
[0002]
[Prior art]
In recent years, an apparatus capable of directly capturing a radiographic image as a digital image has been developed. For example, as a device for detecting a radiation dose applied to a subject and obtaining a radiographic image formed in accordance with the detected dose as an electrical signal, a method using a detector using a stimulable phosphor is disclosed in JP A number of publications such as JP-A-55-12429 and JP-A-63-189853 have been disclosed.
[0003]
In such an apparatus, a stimulable phosphor is applied to a sheet-like substrate or fixed to the detector by vapor deposition or the like, and once irradiated with radiation transmitted through the subject, the stimulable phosphor absorbs the radiation. .
[0004]
Thereafter, the stimulable phosphor is excited by light or heat energy, and the stimulating phosphor emits radiation energy accumulated by the absorption as fluorescence, and the fluorescence is photoelectrically converted. An image signal is obtained.
[0005]
By the way, in the medical radiographic image, when photographing the whole leg and the whole spine mainly for the purpose of measuring bones, long photographing is performed for the purpose of grasping the whole subject.
[0006]
In this long photographing, conventionally, a long film is housed in a long cassette together with an intensifying screen (screen) for photographing.
Also, a digital radiation image input method (digital long photographing) using a stimulable phosphor detector or the like without using a long film has been proposed. As this digital long length photographing, proposed in Japanese Patent Laid-Open No. 11-244269, a plurality of cassettes storing stimulable phosphor detectors are arranged so as to partially overlap each other, and a dedicated cassette holder is used. To store. On the other hand, in the one proposed in JP-A-3-287249, a plurality of photostimulable phosphor detectors are arranged and locked so as to partially overlap each other.
[0007]
[Problems to be solved by the invention]
In the technique described in Japanese Patent Application Laid-Open No. 11-244269, it is necessary to imprint a grid for shape calibration such as metal at the same time as the subject when generating an image. In this case, when the shape calibration grid is separated from the cassette holder, there is a problem that the photographing operation becomes complicated due to the alignment and the like. In addition, when a shape calibration grid is attached to the cassette holder, there is a problem that the weight of the cassette holder is increased and handling is inconvenient. Further, when the shape calibration grid is superimposed on the subject, there is a lack of information in the subject, which may adversely affect diagnosis such as bone measurement.
[0008]
In the method described in Japanese Patent Laid-Open No. 3-287249, there is no description about an image combining unit that expresses the entire subject by combining partial radiation images. Therefore, there is a problem that a specific method for diagnosis such as bone measurement is unclear and it is difficult to perform practical imaging.
[0009]
The present invention has been made in view of the problems as described above, and performs digital long imaging using a plurality of photostimulable phosphor detectors (stimulable phosphor plates, etc.) to obtain a partial radiation image. It is an object of the present invention to realize a radiographic image processing method and a radiographic image processing apparatus that can accurately and accurately grasp the entire subject without combining and generating a missing portion.
[0010]
[Means for Solving the Problems]
That is, the present invention for solving the above-described problems is as follows.
(1) The invention described in claim 1 Obtained by multiple detectors, A plurality of partial radiographic images having an overlapping area on which a common subject portion is projected, and image attribute information corresponding to each of the plurality of partial radiographic images are input, and at least one of the overlapping areas for each partial radiographic image A region of interest corresponding to a part is set, and a combination condition of the plurality of partial radiation images is determined by analyzing an image signal value in the region of interest, and the plurality of partial radiation images are determined based on the combination condition. By combining, generate a combined radiation image that represents the entire subject, Based on the image attribute information of the partial radiation image, An image attribute information corresponding to the combined radiation image is generated, and the combined radiation image and the image attribute information corresponding to the combined radiation image are output.
[0011]
In the present invention, since a combination condition suitable for a plurality of partial radiographic images is determined and a combined radiographic image is obtained, a lattice for shape calibration or the like is not necessary, and a combined radiographic image having no missing portion can be easily obtained. Obtainable. Further, it becomes possible to obtain image attribute information of the combined radiation image according to the image attribute information of the partial radiation image, and convenience related to image output of the combined radiation image and image storage is improved.
[0012]
(2) The invention described in claim 2 Obtained by multiple detectors, Image information input means for inputting a plurality of partial radiation images having an overlapping region on which a common subject portion is projected, and image attribute information corresponding to each of the plurality of partial radiation images, and for each partial radiation image Region-of-interest setting means for setting a region of interest corresponding to at least part of the overlapping region, and combination condition determining means for determining a combination condition of the plurality of partial radiation images by analyzing image signal values in the region of interest And image combining means for generating a combined radiation image representing the entire subject by combining the plurality of partial radiation images based on the combining condition; Based on the image attribute information of the partial radiation image, Radiation image, comprising: image attribute information generating means for generating image attribute information corresponding to the combined radiation image; and image information output means for outputting the combined radiation image and the image attribute information corresponding thereto. It is a processing device.
[0013]
In the present invention, since a combination condition suitable for a plurality of partial radiographic images is determined and a combined radiographic image is obtained, a lattice for shape calibration or the like is not necessary, and a combined radiographic image having no missing portion can be easily obtained. Obtainable. Further, it becomes possible to obtain image attribute information of the combined radiation image according to the image attribute information of the partial radiation image, and convenience related to image output of the combined radiation image and image storage is improved.
[0014]
(3) In the invention according to claim 3, the attention area setting means recognizes the overlapping area by analyzing image signal values of the plurality of partial radiation images, and relatively distributes the signal distribution within the overlapping area. The radiographic image processing apparatus according to claim 2, wherein an area having a large area is selected as the attention area.
[0015]
In the present invention, an overlapping area is recognized by analyzing image signal values of a plurality of partial radiation images, and an area having a relatively large signal distribution is selected as an attention area within the overlapping area. It becomes possible to determine the combination condition of partial radiation images at high speed and with high accuracy.
[0016]
(4) In the invention according to claim 4, the attention area setting unit recognizes the overlapping area by analyzing image signal values of the plurality of partial radiation images, and is included in the radiation irradiation portion within the overlapping area. The radiographic image processing apparatus according to claim 2, wherein an area to be processed is selected as the attention area.
[0017]
In the present invention, the overlapping region is recognized by analyzing the image signal values of the plurality of partial radiation images, and the region included in the radiation irradiation portion in the overlapping region is selected as the attention region. It becomes possible to determine the combination condition of partial radiation images at high speed and with high accuracy.
[0018]
(5) In the invention according to claim 5, the attention area setting unit recognizes the overlapping area by analyzing image signal values of the plurality of partial radiation images, and is included in the subject portion within the overlapping area. The radiation image processing apparatus according to claim 2, wherein an area is selected as the attention area.
[0019]
In the present invention, the overlapping region is recognized by analyzing the image signal values of the plurality of partial radiation images, and the region included in the subject portion in the overlapping region is selected as the attention region. Determination of image combining conditions can be performed at high speed and with high accuracy.
[0020]
(6) In the invention described in claim 6, the combination condition determination means determines a combination condition that maximizes the similarity of the region of interest between a partial radiation image and another partial radiation image. A radiographic image processing apparatus according to any one of claims 2 to 5, wherein:
[0021]
In the present invention, since a combination condition for maximizing the similarity of a region of interest is determined between a certain partial radiographic image and another partial radiographic image, determination of a combination condition of a plurality of partial radiographic images is possible. High speed and high accuracy can be achieved.
[0022]
(7) In the invention according to claim 7, the image combining means deletes an unnecessary image portion accompanying generation of the combined radiation image, gives a predetermined image signal value to an image portion having no image information, and an image combining portion. The radiation image processing apparatus according to claim 2, which has a function of correcting a nearby image signal value.
[0023]
In this invention, since it has a function of deleting an unnecessary image part accompanying generation of a combined radiation image, giving a predetermined image signal value to an image part having no image information, and correcting an image signal value near the image combining part, a plurality of Even if the directions and positions of the partial radiographic images are slightly different, a combined radiographic image having a desired shape and natural gradation can be generated.
[0024]
(8) The invention according to claim 8 includes image processing condition determining means for determining an image processing condition for gradation processing or frequency processing of the combined radiation image generated by the image combining means, and the image information 8. The radiographic image processing apparatus according to claim 2, wherein the output unit outputs the image processing conditions together with the combined radiographic image.
[0025]
In this invention, the image processing conditions for gradation processing or frequency processing of the combined radiation image are determined, and the image processing conditions are output together with the combined radiation image. It is clear what has been done.
[0026]
(9) The invention according to claim 9 is an image processing condition determining unit that determines an image processing condition for performing gradation processing or frequency processing on the combined radiation image generated by the image combining unit; Image processing means for performing gradation processing or frequency processing on the combined radiation image based on the image processing information, and the image information output means outputs the combined radiation image subjected to the image processing. The radiation image processing apparatus according to any one of Items 2 to 7.
[0027]
In the present invention, an image processing condition for gradation processing or frequency processing of the combined radiation image is determined, and the combined radiation image is subjected to gradation processing or frequency processing based on this image processing condition and output. A combined radiation image in which the entire subject is expressed with easy-to-see gradation and frequency characteristics suitable for diagnosis can be output.
[0028]
(10) The invention according to claim 10 is a combination condition display means for displaying the combination condition determined by the combination condition determination means; a correction information input means for inputting correction information for correcting the combination condition; A combination condition correction unit that corrects the combination condition based on the correction information, and the image combination unit reproduces the plurality of partial radiation images based on the combination condition corrected by the combination condition correction unit. The radiation image processing apparatus according to claim 2, wherein the radiation image processing apparatus is combined.
[0029]
In the present invention, the determined combination condition is displayed, input of correction information for correcting the combination condition is received, the combination condition is corrected based on the correction information, and a plurality of partial radiation images are displayed based on the corrected combination condition. Therefore, it is possible to always obtain a combined radiation image according to the user's request.
[0030]
(11) The invention according to claim 11 is for inputting image display means for displaying the combined radiation image generated by the image combining means, and correction information for correcting the combining condition determined by the combining condition determining means. Correction information input means, and a combination condition correction means for correcting the combination condition based on the correction information, wherein the image combination means is configured to output the plurality of combinations based on the combination condition corrected by the combination condition correction means. The radiation image processing apparatus according to claim 2, wherein the partial radiation images are recombined.
[0031]
In the present invention, the generated combined radiation image is displayed, the input of the correction information for correcting the combination condition is received, the combination condition is corrected based on the correction information, and the plurality of partial radiations are based on the corrected combination condition. Since the images are recombined, it is possible to always obtain a combined radiation image according to the user's request.
[0032]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
Hereinafter, the configuration of the radiographic image processing apparatus will be described according to rough blocks with reference to FIG. Each unit of the radiographic image processing apparatus according to the present embodiment can be configured by hardware, firmware, or software. For this reason, the functional block diagram along the processing procedure of each means is shown.
[0033]
[A] Image information input:
As shown in FIG. 1, the image information input means 10 includes radiation image information about a partial radiation image having a signal value proportional to the logarithm of the irradiated radiation amount, and image attribute information corresponding to the radiation image information. Entered.
[0034]
For this reason, the image information input means 10 comprises a digital image input system or laser digitizer using a stimulable phosphor to which a partial radiation image is input, and an information input device to which image attribute information is input. .
[0035]
In this embodiment, partial radiation images obtained by digital long imaging using a plurality of stimulable phosphor detectors (stimulable phosphor plates, etc.) are input without using a long film. It is characterized by that. That is, a system using a stimulable phosphor plate can be used as a method for acquiring a partial radiation image. Also, a system that digitizes a partial radiograph taken by a screen / film system using a laser digitizer may be used.
[0036]
In addition, as a photographing method, as shown in FIGS. 2 and 3, a plurality of photostimulable phosphor plates 201 to 203 are partially overlapped inside a long cassette 200 to perform digital long photographing. It is preferable to carry out.
[0037]
As an alternative method to FIG. 2, a method in which the cassettes stored in the photostimulable phosphor plate are partially overlapped and a method in which the cassettes stored in the screen / film are partially overlapped can be considered.
[0038]
As image attribute information of the partial radiation image in this embodiment,
・ Patient information: patient name, patient ID, age, gender, etc.
・ Information about radiography: Examination date, Examination ID, Examination type, Imaging date / time, Imaging part, Imaging conditions, etc.
-Information about image data: Number of pixels, sampling pitch, number of bits, etc.
-In the case of a partial radiographic image obtained by long imaging, information that it is long imaging, for example, information that it is the first piece of the long imaging triplet,
Corresponds to image attribute information.
[0039]
[B] Attention area setting:
The attention area setting unit 20 analyzes the partial radiation image transmitted from the image information input unit 10.
[0040]
Although not shown, in order to shorten the time required for processing, the reduced image generation means creates a thinned radiation image in which the number of pixels is reduced by sampling from the original partial radiation image and setting the attention area May be performed.
[0041]
(B-1) Setting of attention area:
(1) Recognition of overlapping areas:
One overlapping region of the two partial radiation images has a relatively low image signal value before and after the photostimulable phosphor plate or cassette is overlapped. This is shown in FIG. Here, image # 2 in FIG. 4B is positioned on the near side of the subject, and image # 1 in FIG. 4A and image # 3 in FIG. 4C are positioned on the back side of the subject.
[0042]
In such a case, by calculating the profile of the image signal value (FIG. 5 (a) → FIG. 5 (b)), the region of low signal value near the image edge is recognized by the attention region setting means 20.
[0043]
In this case, based on the profile signal in the column direction, a line whose profile value is smaller than a predetermined threshold value in the vicinity of the image edge can be detected and regarded as an overlapping region end. Further, based on the differential value of the profile signal in the column direction, it is possible to detect a line in which the profile value decreases rapidly toward the image edge in the vicinity of the image edge, and can be regarded as the overlapping region end. Furthermore, it is also possible to detect overlapping line end lines for a plurality of profile signals, and determine the overlapping area by combining the results (see FIG. 6).
[0044]
In addition, by dividing the image into a plurality of strip regions by a plurality of boundary lines and comparing the image signal values in each strip region with each other, it is possible to recognize a region having a low signal value near the image edge. is there. In this case, a belt-like region having a relatively small signal value in the region and a relatively small variance value is selected.
[0045]
This is for distinguishing the overlapping area that is the object of recognition from the area that is not irradiated with radiation outside the irradiation field stop. Since the object is not projected outside the irradiation field stop, the signal value is relatively low and the variance value is also small.
[0046]
(2) Determination of attention area:
A plurality of candidate areas are set in the overlapping area (see FIG. 7), and an area having a relatively large signal distribution is selected as an attention area from the candidate areas.
[0047]
In FIG. 7, the signal distribution is relatively large in the candidate areas {circle around (1)}, {circle around (2)}, {circle around (4)}, {circle around (5)}, {circle around (7)} including the radiation field edge, skin line, or bone edge. Therefore, one or a plurality of regions having the largest signal distribution are selected from the candidate regions (1), (2), (4), (5), and (7).
[0048]
In addition, as an indicator of signal distribution, the difference between the maximum signal value and the minimum signal value, variance value, standard deviation value, the sum of absolute values of the differential values in the line direction of the signal values, the sum of the square values of the differential values in the line direction of the signal values It is also possible to use.
[0049]
In addition, it is possible to select a region included in the radiation irradiation portion or the subject portion in the overlapping region as the attention region. In this case, the signal values increase in the order of direct radiation irradiated portion> subject portion> radiation non-irradiated portion. Therefore, it is possible to binarize the image signal value by threshold processing and determine a region corresponding to the radiation irradiated portion or the subject portion. It is also possible to obtain a boundary signal value by performing discriminant analysis processing on the histogram of the image, and determine a region corresponding to the radiation irradiated portion or the subject portion.
[0050]
Further, the signal value abruptly changes at the edge of the direct radiation irradiation portion or the subject portion. Using this property, it is possible to determine the edge of the radiation irradiated portion or the subject portion based on the profile value of the image signal value or the differential value of the profile value (FIGS. 8A and 8B). reference). In this case, the image is divided into a plurality of small areas, a small area having a relatively large signal distribution is selected, and the selected small areas are connected to determine the edge of the radiation irradiated portion or the subject portion. It is also possible. FIG. 8 shows an example in which a rectangular area included in the subject portion is selected as the attention area.
[0051]
As described above, a method for determining a coupling condition using the entire overlapping region by selecting a region having a large signal distribution in the overlapping region, or a region included in the radiation irradiation portion or the subject portion as the attention region. Compared to this, processing can be performed at high speed. In addition, since an image part containing a large amount of information that serves as a guide for the coupling position is selected as a region of interest, it is possible to determine the coupling condition with high accuracy even when a shape calibration grid or the like is not captured. it can.
[0052]
As another example, it is possible to select a predetermined fixed area as the attention area. In this case, when an identification mark is imprinted at a fixed position at the time of image generation, a fixed area including the identification mark can be selected.
[0053]
[C] Determination of binding conditions:
(C-1) Binding conditions:
In order to create a combined radiographic image that accurately represents the entire subject by combining partial radiographic images, it is necessary to translate, rotate, or scale the partial radiographic image before combining it with other partial images. When the angle of the detector end (stimulable phosphor plate end) at the time of photographing is relatively different, rotation is necessary. Further, when the distance between the subject and the detector at the time of photographing is relatively different between the partial radiation images, enlargement / reduction is necessary.
[0054]
Therefore, the joining condition determining unit 30 determines the joining condition. As the coupling condition, for example, by determining the coordinate values of the two points A1, B1, A2, and B2 representing the coupling position of the two partial radiation images in FIG. 9A as the coupling condition, FIG. The amount of translation, rotation, and enlargement / reduction is determined as shown in FIG.
[0055]
Note that the amount of translation, rotation, and enlargement / reduction of the partial radiation image itself may be used as the combination condition. If the difference between the subject-detector distance at the time of shooting is very small compared to the absolute value, the enlargement / reduction process may be omitted assuming that the difference in enlargement ratio is negligible. Further, when the difference in the angle of the detector end at the time of photographing is very small, the rotation process may be omitted.
[0056]
Further, in the case of FIG. 9, an example is shown in which the partial radiation image # 1 is rotated, but the partial radiation image on either side may be rotated, moved, or enlarged or reduced.
[0057]
(C-2) Template matching processing:
“Template matching process” described in “Introduction to computer image processing” (supervised by Hideyuki Tamura, published in 1985 by Seiunsha Co., Ltd.) can be used as a method for determining the joining condition of two partial radiation images. it can.
[0058]
Here, a region of interest set in one of the two partial radiation images to be combined is used as a template. An attention area larger than the template is set in the other image, and is set as a reference area. While the template is translated, rotated, or enlarged / reduced in the reference area, a translation / rotation / enlargement / reduction condition that maximizes the similarity between the template and the partial area in the reference area that overlaps the template is obtained.
[0059]
As a means for evaluating the above similarity, a known SSDA method or cross-correlation method can be used. In that case, it is preferable to use the similarity degree normalized using the average value and the standard deviation value in each region so as not to be affected by the signal value decrease in the overlapping region. In this case, in particular, it is preferable to use the normalized cross-correlation value C represented by the following formula and regard the case where C has the maximum value as the maximum similarity. The pixel value of the jth pixel among all J pixels in the template A is A (j), and the pixel value of the jth pixel among all J pixels in the partial region B within the reference region is B (j ), C is defined by the following equation.
[0060]
[Expression 1]
Figure 0003888046
[0061]
Further, the correlation value of the phase term of Fourier transform (Medical Imaging Technology, Vol. 7, pp 175-176, 1989) may be used as the similarity. In addition, by setting a plurality of regions of interest in one image and performing a plurality of sets of template matching processing, the amount of translation, rotation, and enlargement / reduction may be determined by combining these results.
(C-3) Join condition display / modification:
The combination condition display means 40 for displaying the combination condition determined by the combination condition determination means 30 and the correction information input means 50 for the operator to correct the combination condition and input correction information are provided to correct the combination condition. It is also desirable for the means 60 to correct the coupling condition based on the correction information. In this case, as the coupling condition, the coordinate position and the state of the connecting line are displayed, and correction is accepted.
[0062]
That is, by combining the combination condition display unit 40 and the correction information input unit 50 as described above, the image combination condition can be corrected interactively. Specifically, display means such as a CRT monitor and a liquid crystal monitor, and correction information input means using a pointing device such as a touch screen, a track pad, and a mouse are provided.
[0063]
[D] Image combination
Based on the combination condition determined as described above, the image combining unit 70 executes a process of combining a plurality of partial radiation images. Note that when the combining condition is corrected, the image combining unit 70 combines a plurality of partial radiation images based on the combining condition corrected by the combining condition correcting unit 60 to generate a combined radiation image.
[0064]
As the image combination in the image combination means 70, in order to facilitate handling of the image data by making the shape of the image rectangular, unnecessary image portions P1, P2, P3 are deleted in FIG. A predetermined image signal value (for example, a pixel value of 0) is assigned to the image portions Q1, Q2, and Q3 that are not included.
[0065]
Further, when the image reading area is smaller than the detector area as shown in FIG. 11A (when there is a margin), the edge of the detector 202 and the image # 2 are read as shown in FIG. 11B. A portion having a relatively low image signal value occurs between the region ends. In such a case, the image signal value of the lower part is estimated and corrected using the image signal value of the surrounding image part (FIG. 12 (a) → FIG. 12 (b)).
[0066]
In addition, an image display unit 80 for displaying the combined radiation image generated by the image combining unit 70 is provided, and the combining condition determined by the combining condition determining unit 30 is determined based on the correction information from the correction information input unit 50. The combining condition may be corrected by the correcting means 60, and the partial radiation images may be recombined by the image combining means 70 based on the corrected combining condition.
[0067]
That is, by combining the image display unit 80 and the correction information input unit 50 as described above, the operator can interactively correct the image combination condition while observing the combined radiation image or the coordinates to be combined. Specifically, the image display means such as a CRT monitor or a liquid crystal monitor and correction information input means using a pointing device such as a touch screen, a track pad, and a mouse are provided, and the operator corrects the final combination condition. The combined radiation image based on the corrected image processing condition is displayed on the image display means each time.
[0068]
[E] Combined image processing:
Here, for the combined radiation image, the image processing condition determining unit 90 determines an image processing condition when the image processing unit 110 performs gradation processing or frequency processing. Note that the frequency processing includes frequency enhancement processing and dynamic range compression processing.
[0069]
In the gradation processing, a gradation conversion curve indicating the correspondence between the original image data (input) and the gradation processed image data (output) is determined based on the analysis result of the image data, and this gradation conversion curve is used. To perform gradation processing. As a method for creating a gradation conversion curve, for example, based on histogram analysis of image data, Japanese Patent Laid-Open Nos. 55-116340, 2-272529, 63-31641, and 63. You may use the method shown by -262141 gazette. Furthermore, as disclosed in Japanese Patent Laid-Open No. 3-218578, a method may be used in which an image area corresponding to a desired portion of a subject is set and determined based on image data in the area. As the shape of the gradation conversion curve, for example, the one shown in Japanese Patent Publication No. 63-20535 is used. The gradation conversion curve may be created for each image each time, but as shown in Japanese Patent Laid-Open No. 59-83149, a reference curve selected from several kinds of reference curves created in advance is modified. By doing so, a desired gradation conversion curve may be obtained.
[0070]
Here, FIG. 13 shows an example of the gradation conversion curve. Here, S1 and S2 are reference signal values obtained based on the analysis result of the combined radiation image, and S1 and S2 are converted into output signal values S1 ′ and S2 ′ corresponding to desired output densities (luminances), respectively. The gradation conversion curve is determined so that
[0071]
Prior to the gradation processing, when the irradiation field recognition process for detecting the radiation field area is performed, it is necessary for diagnosis by setting various image processing conditions using the image data in the recognized irradiation field area. This is preferable because image processing of the image portion to be performed can be performed appropriately. As a method for this irradiation field recognition processing, for example, means disclosed in JP-A-63-259538, JP-A-5-7579, and JP-A-7-181609 can be used.
[0072]
Here, the frequency enhancement processing and the dynamic range compression processing will be specifically described.
In the frequency enhancement process, for example, in order to control the sharpness by the non-sharp mask process shown in the following equation, the function F is determined by the method shown in Japanese Patent Publication Nos. 62-62373 and 62-62376. It is done.
[0073]
Sout = Sorg + F (Sorg−Sus)
Sout is image data after processing, Sorg is image data before frequency enhancement processing, and Sus is unsharp data obtained by averaging the image data before frequency enhancement processing.
[0074]
In this frequency enhancement process, for example, F (Sorg−Sus) is set to β × (Sorg−Sus), and β (enhancement coefficient) is changed substantially linearly between the reference values S1 and S2 as shown in FIG. The Further, as shown by the solid line in FIG. 15, when low density is emphasized, β from the reference value S1 to the value “A” is maximized, and is minimized from the value “B” to the reference value S2. In addition, from the value “A” to the value “B”, β changes almost linearly. When emphasizing a high density, as indicated by a broken line, β from the reference value S1 to the value “A” is minimized and maximized from the value “B” to the reference value S2. In addition, from the value “A” to the value “B”, β changes almost linearly. Although not shown, when medium density is emphasized, β of values “A” to “B” is maximized. Thus, in the frequency enhancement process, the sharpness of an arbitrary density portion can be controlled by the function F.
[0075]
Here, the reference values S1 and S2 and the values A and B are generally obtained based on the analysis result of the signal distribution of the combined radiation image. Further, the frequency enhancement processing method is not limited to the non-sharp mask processing, and a technique such as a multi-resolution method disclosed in JP-A-9-46645 may be used.
[0076]
In the dynamic range compression process, the function G is determined by the method disclosed in Japanese Patent Publication No. 266318 in order to control the density range to be easily seen by the compression process shown in the following equation.
[0077]
Stb = Sorg + G (Sus)
Stb is processed image data, Sorg is image data before dynamic range compression processing, and Sus is unsharp data obtained by averaging the image data before dynamic range compression processing.
[0078]
Here, as shown in FIG. 16, when G (Sus) has such characteristics that G (Sus) increases when the unsharp data Sus becomes smaller than the level “La”, the density of the low density region is The image data Sorg shown in FIG. 16 (A) is image data Stb in which the dynamic range on the low density side is compressed as shown in FIG. 16 (C). In addition, as shown in FIG. 16D, when G (Sus) has such characteristics that G (Sus) decreases when the unsharp data Sus becomes smaller than the level “Lb”, The density is low, and the dynamic range on the high density side of the image data Sorg shown in FIG. 16B is compressed as shown in FIG. Here, the levels “La” and “Lb” are obtained based on the analysis result of the signal distribution of the combined radiation image.
[0079]
In the above processing, the parameters given in advance may be determined based on the imaging information such as the imaging region, the specified body position, the imaging conditions, and the imaging method. When these pieces of information are input as image attribute information incidental to the partial radiation image in the image information input means 10, the image attribute information of one image selected from the partial radiation images can be used. it can.
[0080]
In the above, the method for determining the image processing condition of the combined radiographic image based on the analysis result of the image data of the combined radiographic image has been described. However, the condition previously determined as the image processing condition for the partial radiographic image is used as the combined radiographic image. It is good also as a structure inherited as conditions for use. In this case, the image processing conditions for each partial radiographic image are read from the image attribute information attached to the partial radiographic image, and one of the image processing conditions is used as the image processing condition for the combined radiographic image. By determining the image processing conditions for gradation processing or frequency processing of the combined radiation image as described above, the entire subject can be rendered in an easy-to-view expression suitable for diagnosis. Also, unlike the case of combining each of the radiographic images after image processing, since one image processing condition is applied to the entire combined radiographic image, there is no density or luminance step or frequency characteristic discontinuity at the combined position. It is not generated and a smooth joint portion can be obtained.
[0081]
[F] Generation of image attribute information of combined radiation image:
In this embodiment, since a combined radiation image is generated by combining a plurality of partial radiation images, the image attribute information generating means 100 uses the image attribute information corresponding to the combined radiation image as the image attribute of the partial radiation image. Generate based on information.
[0082]
Here, as image attribute information of the combined radiation image,
(1) Patient information: patient name, patient ID, age, gender, etc.
(2) Information related to imaging: Examination date, examination ID, examination type, photographing date and time, photographing part, photographing condition, etc.
(3) Information related to image data: number of pixels, sampling pitch, number of bits, etc. (4) Information related to image processing: combination conditions, gradation processing conditions, frequency processing conditions, etc. (5) Obtained by long shooting Information that it is a combined radiation image, the number of partial radiation images used for combining, information for specifying the partial radiation image used for combining, etc.
It is.
[0083]
Here, (1) and (2) are inherited from the image attribute information of the input partial radiation image. Regarding (3), as the number of pixels, the number of pixels of the combined radiation image is calculated based on the combination condition, and the calculation result is written. The sampling pitch and the number of bits are inherited from the image attribute information of the input partial radiation image. Regarding (4) and (5), data of each process in the present embodiment is used.
[0084]
[G] Output of combined radiation image and image attribute information:
The image information output unit 120 outputs the combined radiation image generated by combining the partial radiation images and the image attribute information generated so as to correspond to the combined radiation image to an external device or the like. As an output destination, a hard copy device such as a laser film printer, an image interpretation device, an image filing device, or the like can be used.
[0085]
Further, after the image processing condition determining unit 90 determines an image processing condition for gradation processing or frequency processing of the combined radiation image, the image information output unit 120 outputs the image processing condition together with the combined radiation image and image attribute information. To do.
[0086]
[H] Other embodiments:
The input of partial radiation image and image attribute information, output of combined radiation image, image attribute information, and image processing conditions in the above description may be directly input / output with various input / output devices, or on the network. Data may be exchanged with other devices.
[0087]
【The invention's effect】
As described above in detail, according to the present invention, the following effects can be obtained.
[0088]
(1) In the first aspect of the present invention, since a combination condition suitable for a plurality of partial radiographic images is determined and a combined radiographic image is obtained, a shape calibration grid or the like is not necessary, and a defect portion is not required. No combined radiation image can be easily obtained. Further, it becomes possible to obtain image attribute information of the combined radiation image according to the image attribute information of the partial radiation image, and convenience related to image output of the combined radiation image and image storage is improved.
[0089]
(2) In the invention described in claim 2, since a combination condition suitable for a plurality of partial radiographic images is determined and a combined radiographic image is obtained, a shape calibration grid or the like is not necessary, and a defect portion is not required. No combined radiation image can be easily obtained. Further, it becomes possible to obtain image attribute information of the combined radiation image according to the image attribute information of the partial radiation image, and convenience related to image output of the combined radiation image and image storage is improved.
[0090]
(3) In the invention according to claim 3, an overlapping area is recognized by analyzing image signal values of a plurality of partial radiation images, and an area having a relatively large signal distribution is selected as an attention area within the overlapping area. Therefore, it becomes possible to determine the combination condition of a plurality of partial radiation images at high speed and with high accuracy.
[0091]
(4) In the invention according to claim 4, an overlapping region is recognized by analyzing image signal values of a plurality of partial radiation images, and a region included in the radiation irradiation portion in the overlapping region is selected as the attention region. Therefore, it becomes possible to determine the combination condition of a plurality of partial radiation images at high speed and with high accuracy.
[0092]
(5) In the invention according to claim 5, an overlapping region is recognized by analyzing image signal values of a plurality of partial radiation images, and a region included in the subject portion is selected as a region of interest within the overlapping region. Therefore, it becomes possible to determine the coupling condition for a plurality of partial radiation images at high speed and with high accuracy.
[0093]
(6) In the invention according to claim 6, since a combination condition that maximizes the similarity of the region of interest is determined between a certain partial radiation image and another partial radiation image, a plurality of partial radiations are determined. Determination of image combining conditions can be performed at high speed and with high accuracy.
[0094]
(7) In the invention described in claim 7, the unnecessary image portion accompanying the generation of the combined radiation image, the application of the predetermined image signal value to the image portion having no image information, and the correction of the image signal value near the image combining portion Since it has a function, a combined radiation image having a desired shape and natural gradation can be generated even if the directions and positions of the plurality of partial radiation images are slightly different.
[0095]
(8) In the invention described in claim 8, since the image processing conditions for gradation processing or frequency processing of the combined radiographic image are determined and the image processing conditions are output together with the combined radiographic image, the combined radiographic image is output. It is clear what kind of image processing was performed.
[0096]
(9) In the invention according to claim 9, image processing conditions for gradation processing or frequency processing of the combined radiation image are determined, and the combined radiation image is subjected to gradation processing or frequency processing based on the image processing conditions. Since it is configured to output, it is possible to output a combined radiation image in which the entire subject is expressed with easy-to-see gradation and frequency characteristics suitable for diagnosis.
[0097]
(10) In the invention according to claim 10, the determined combination condition is displayed, the input of correction information for correcting the combination condition is received, the combination condition is corrected based on the correction information, and the corrected combination condition is obtained. Since a plurality of partial radiographic images are recombined based on this, it is possible to always obtain a combined radiographic image according to the user's request.
[0098]
(11) In the invention described in claim 11, the generated combined radiation image is displayed, the input of correction information for correcting the combination condition is received, the combination condition is corrected based on the correction information, and the corrected combination condition Since a plurality of partial radiographic images are recombined based on the above, it becomes possible to always obtain a combined radiographic image according to the user's request.
[Brief description of the drawings]
FIG. 1 is a functional block diagram showing a configuration of a radiation image processing apparatus according to an embodiment of the present invention.
FIG. 2 is an explanatory view schematically showing a state of obtaining a plurality of partial radiation images used in the embodiment of the present invention.
FIG. 3 is an explanatory view schematically showing a state in which a plurality of partial radiation images used in the embodiment of the present invention are obtained.
FIG. 4 is an explanatory view schematically showing a state of overlapping of a plurality of partial radiation images used in the embodiment of the present invention.
FIG. 5 is an explanatory diagram showing a state of recognition of an overlapping area in the embodiment of the present invention.
FIG. 6 is an explanatory diagram showing a state of recognition of overlapping areas in the embodiment of the present invention.
FIG. 7 is an explanatory diagram showing how attention areas are determined in an embodiment of the present invention.
FIG. 8 is an explanatory diagram showing how attention areas are determined in an embodiment of the present invention.
FIG. 9 is an explanatory diagram showing how a combined radiation image is generated according to an embodiment of the present invention.
FIG. 10 is an explanatory diagram showing how a combined radiation image is generated in the embodiment of the present invention.
FIG. 11 is an explanatory diagram showing how a combined radiation image is generated in the embodiment of the present invention.
FIG. 12 is an explanatory diagram showing how a combined radiation image is generated in the embodiment of the present invention.
FIG. 13 is an explanatory diagram showing gradation conversion characteristics in the embodiment of the present invention.
FIG. 14 is an explanatory diagram showing enhancement coefficients and image data according to an embodiment of the present invention.
FIG. 15 is an explanatory diagram showing frequency emphasis coefficients and image data according to an embodiment of the present invention.
FIG. 16 is an explanatory diagram showing dynamic range compression in the embodiment of the present invention.
[Explanation of symbols]
10 Image information input means
20 Attention area setting means
30 Join condition decision output
40 Joining condition display means
50 Correction information input means
60 Binding condition correction means
70 Image combining means
80 Image display means
90 Image processing condition determining means
100 Image attribute information generating means
110 Image processing means
120 Image information output means

Claims (11)

複数のディテクタにより得られる、共通の被写体部分が投影された重複領域を有する複数の部分放射線画像、および該複数の部分放射線画像の各々に対応する画像属性情報を入力し、
各々の部分放射線画像に対して前記重複領域の少なくとも一部に対応する注目領域を設定し、
前記注目領域内の画像信号値を解析することにより前記複数の部分放射線画像の結合条件を決定し、
前記結合条件に基づいて前記複数の部分放射線画像を結合することにより、被写体全体を表現する結合放射線画像を生成し、
前記部分放射線画像の画像属性情報に基づいて、前記結合放射線画像に対応する画像属性情報を発生し、
前記結合放射線画像およびそれに対応する前記画像属性情報を出力する、
ことを特徴とする放射線画像処理方法。
Input a plurality of partial radiographic images obtained by a plurality of detectors and having overlapping regions on which a common subject portion is projected, and image attribute information corresponding to each of the plurality of partial radiographic images,
Setting a region of interest corresponding to at least part of the overlapping region for each partial radiographic image;
By determining an image signal value in the region of interest to determine a combination condition of the plurality of partial radiation images,
Generating a combined radiation image representing the entire subject by combining the plurality of partial radiation images based on the combining condition;
Generating image attribute information corresponding to the combined radiation image based on the image attribute information of the partial radiation image ;
Outputting the combined radiation image and the image attribute information corresponding thereto;
The radiographic image processing method characterized by the above-mentioned.
複数のディテクタにより得られる、共通の被写体部分が投影された重複領域を有する複数の部分放射線画像、および該複数の部分放射線画像の各々に対応する画像属性情報を入力する画像情報入力手段と、
各々の部分放射線画像に対して前記重複領域の少なくとも一部に対応する注目領域を設定する注目領域設定手段と、
前記注目領域内の画像信号値を解析することにより前記複数の部分放射線画像の結合条件を決定する結合条件決定手段と、
前記結合条件に基づいて前記複数の部分放射線画像を結合することにより、被写体全体を表現する結合放射線画像を生成する画像結合手段と、
前記部分放射線画像の画像属性情報に基づいて、前記結合放射線画像に対応する画像属性情報を発生する画像属性情報発生手段と、
前記結合放射線画像およびそれに対応する前記画像属性情報を出力する画像情報出力手段と、
を有することを特徴とする放射線画像処理装置。
A plurality of partial radiographic images obtained by a plurality of detectors and having overlapping regions on which a common subject portion is projected, and image information input means for inputting image attribute information corresponding to each of the plurality of partial radiographic images;
Attention area setting means for setting an attention area corresponding to at least a part of the overlapping area for each partial radiation image;
A coupling condition determining means for determining a coupling condition for the plurality of partial radiation images by analyzing an image signal value in the region of interest;
Image combining means for generating a combined radiation image representing the entire subject by combining the plurality of partial radiation images based on the combining condition;
Image attribute information generating means for generating image attribute information corresponding to the combined radiation image based on the image attribute information of the partial radiation image ;
Image information output means for outputting the combined radiation image and the image attribute information corresponding thereto;
A radiation image processing apparatus comprising:
前記注目領域設定手段は、
前記複数の部分放射線画像の画像信号値を解析することにより前記重複領域を認識し、前記重複領域内で相対的に信号分布の大きい領域を前記注目領域として選択する、
ことを特徴とする請求項2記載の放射線画像処理装置。
The attention area setting means includes:
Recognizing the overlapping region by analyzing image signal values of the plurality of partial radiation images, and selecting a region having a relatively large signal distribution within the overlapping region as the attention region;
The radiation image processing apparatus according to claim 2.
前記注目領域設定手段は、
前記複数の部分放射線画像の画像信号値を解析することにより前記重複領域を認識し、前記重複領域内で放射線照射部分に含まれる領域を前記注目領域として選択する、
ことを特徴とする請求項2記載の放射線画像処理装置。
The attention area setting means includes:
Recognizing the overlapping region by analyzing image signal values of the plurality of partial radiation images, and selecting a region included in the radiation irradiation portion within the overlapping region as the attention region;
The radiation image processing apparatus according to claim 2.
前記注目領域設定手段は、
前記複数の部分放射線画像の画像信号値を解析することにより前記重複領域を認識し、前記重複領域内で被写体部分に含まれる領域を前記注目領域として選択する
ことを特徴とする請求項2記載の放射線画像処理装置。
The attention area setting means includes:
3. The overlap region is recognized by analyzing image signal values of the plurality of partial radiation images, and a region included in a subject portion within the overlap region is selected as the attention region. Radiation image processing device.
前記結合条件決定手段は、
ある部分放射線画像と他の部分放射線画像との間で、前記注目領域の類似度を最大にする結合条件を決定する、
ことを特徴とする請求項2乃至請求項5のいずれかに記載の放射線画像処理装置。
The coupling condition determining means includes
Determining a coupling condition that maximizes the similarity of the region of interest between a partial radiographic image and another partial radiographic image;
The radiographic image processing apparatus according to claim 2, wherein the radiation image processing apparatus is a radiographic image processing apparatus.
前記画像結合手段は、
前記結合放射線画像の生成に伴う不要画像部分の削除、画像情報を有しない画像部分に対する所定画像信号値の付与、および画像結合部付近の画像信号値補正の機能を有する、
ことを特徴とする請求項2乃至請求項6のいずれかに記載の放射線画像処理装置。
The image combining means includes
A function of deleting an unnecessary image part accompanying the generation of the combined radiation image, giving a predetermined image signal value to an image part having no image information, and correcting an image signal value near the image combining part;
The radiation image processing apparatus according to claim 2, wherein the radiation image processing apparatus is a radiographic image processing apparatus.
前記画像結合手段により生成された結合放射線画像を階調処理または周波数処理するための画像処理条件を決定する画像処理条件決定手段を有し、
前記画像情報出力手段は、前記結合放射線画像と共に前記画像処理条件を出力する
ことを特徴とする請求項2乃至請求項7のいずれかに記載の放射線画像処理装置。
Image processing condition determining means for determining image processing conditions for gradation processing or frequency processing of the combined radiation image generated by the image combining means;
The radiographic image processing apparatus according to claim 2, wherein the image information output unit outputs the image processing conditions together with the combined radiographic image.
前記画像結合手段により生成された結合放射線画像を階調処理または周波数処理するための画像処理条件を決定する画像処理条件決定手段と、
前記画像処理条件に基づいて前記結合放射線画像を階調処理または周波数処理する画像処理手段と、を有し、
前記画像情報出力手段は、前記画像処理を施された結合放射線画像を出力する、
ことを特徴とする請求項2乃至請求項7のいずれかに記載の放射線画像処理装置。
Image processing condition determining means for determining image processing conditions for gradation processing or frequency processing of the combined radiation image generated by the image combining means;
Image processing means for performing gradation processing or frequency processing on the combined radiation image based on the image processing conditions,
The image information output means outputs the combined radiation image subjected to the image processing;
The radiographic image processing apparatus according to claim 2, wherein the radiographic image processing apparatus is a radiographic image processing apparatus.
前記結合条件決定手段により決定された結合条件を表示する結合条件表示手段と、
前記結合条件を修正する修正情報を入力するための修正情報入力手段と、
前記修正情報に基づいて前記結合条件を修正する結合条件修正手段と、を有し、
前記画像結合手段は、前記結合条件修正手段により修正された結合条件に基づいて前記複数の部分放射線画像を再結合する、
ことを特徴とする、
請求項2乃至請求項9のいずれかに記載の放射線画像処理装置。
A combination condition display means for displaying the combination condition determined by the combination condition determination means;
Correction information input means for inputting correction information for correcting the combination condition;
Coupling condition correcting means for correcting the coupling condition based on the correction information,
The image combining means recombines the plurality of partial radiation images based on the combining condition corrected by the combining condition correcting means;
It is characterized by
The radiographic image processing apparatus in any one of Claims 2 thru | or 9.
前記画像結合手段により生成された結合放射線画像を表示する画像表示手段と、
前記結合条件決定手段により決定された結合条件を修正する修正情報を入力するための修正情報入力手段と、
前記修正情報に基づいて前記結合条件を修正する結合条件修正手段を有し、
前記画像結合手段は、前記結合条件修正手段により修正された結合条件に基づいて前記複数の部分放射線画像を再結合する、
ことを特徴とする請求項2乃至請求項9のいずれかに記載の放射線画像処理装置。
Image display means for displaying the combined radiation image generated by the image combining means;
Correction information input means for inputting correction information for correcting the combination condition determined by the combination condition determination means;
A coupling condition correcting means for correcting the coupling condition based on the correction information;
The image combining means recombines the plurality of partial radiation images based on the combining condition corrected by the combining condition correcting means;
The radiographic image processing apparatus according to any one of claims 2 to 9, wherein
JP2000225379A 2000-07-26 2000-07-26 Radiation image processing method and radiation image processing apparatus Expired - Lifetime JP3888046B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000225379A JP3888046B2 (en) 2000-07-26 2000-07-26 Radiation image processing method and radiation image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000225379A JP3888046B2 (en) 2000-07-26 2000-07-26 Radiation image processing method and radiation image processing apparatus

Publications (2)

Publication Number Publication Date
JP2002044413A JP2002044413A (en) 2002-02-08
JP3888046B2 true JP3888046B2 (en) 2007-02-28

Family

ID=18719161

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000225379A Expired - Lifetime JP3888046B2 (en) 2000-07-26 2000-07-26 Radiation image processing method and radiation image processing apparatus

Country Status (1)

Country Link
JP (1) JP3888046B2 (en)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4393135B2 (en) 2003-08-22 2010-01-06 キヤノン株式会社 Radiation image processing apparatus, radiation image processing method, computer program, and computer-readable recording medium
JP4661209B2 (en) * 2004-12-24 2011-03-30 コニカミノルタエムジー株式会社 Medical image output system
JP4865362B2 (en) * 2006-03-01 2012-02-01 キヤノン株式会社 Image processing apparatus, control method therefor, and program
JP4858963B2 (en) * 2006-09-14 2012-01-18 株式会社日立メディコ Medical image processing device
JP2011115404A (en) * 2009-12-03 2011-06-16 Canon Inc X-ray image combining apparatus and x-ray image combining method
JP5785368B2 (en) 2010-03-01 2015-09-30 富士フイルム株式会社 Radiation imaging system
JP5644195B2 (en) * 2010-06-11 2014-12-24 コニカミノルタ株式会社 Radiation image processing apparatus, radiation image processing method and program
JP5595188B2 (en) * 2010-08-31 2014-09-24 キヤノン株式会社 Image processing apparatus and method
KR101448889B1 (en) 2012-08-09 2014-10-13 아스텔 주식회사 Method for taking x-ray image and x-ray detector system using the method
JP6072102B2 (en) * 2015-01-30 2017-02-01 キヤノン株式会社 Radiographic system and radiographic method
JP2016198123A (en) * 2015-04-07 2016-12-01 コニカミノルタ株式会社 Radiation image photographing system
US9508127B1 (en) * 2015-06-30 2016-11-29 Konica Minolta Laboratory U.S.A., Inc. Processing for creating a transmission image without artificial noises
JP6570584B2 (en) * 2017-08-03 2019-09-04 富士フイルム株式会社 Radiographic imaging system, image processing apparatus, radiographic imaging system control method, and radiographic imaging system control program
JP7091047B2 (en) 2017-10-06 2022-06-27 キヤノン株式会社 Radiation imaging system and radiography imaging method
JP6880099B2 (en) * 2019-04-22 2021-06-02 富士フイルム株式会社 Radiation imaging system, image processing device, radiation imaging system control method, and radiation imaging system control program
JP7453040B2 (en) * 2020-04-01 2024-03-19 富士フイルムヘルスケア株式会社 Ultrasonic imaging device and image processing device

Also Published As

Publication number Publication date
JP2002044413A (en) 2002-02-08

Similar Documents

Publication Publication Date Title
JP3888046B2 (en) Radiation image processing method and radiation image processing apparatus
US7388974B2 (en) Medical image processing apparatus
JP4130661B2 (en) Device for detecting temporal changes between temporally continuous chest images
US8363915B2 (en) Device, method and computer readable recording medium containing program for separating image components
US7426319B2 (en) Image processing apparatus, image processing method, image processing system, program, and storage medium
JP2000342558A (en) Image positioning processor and inter-picture arithmetic processor
US9269165B2 (en) Rib enhancement in radiographic images
US11847730B2 (en) Orientation detection in fluoroscopic images
JP2002085392A (en) Radiographic image processing method and apparatus
JP4356327B2 (en) Medical image processing apparatus and medical image processing method
JP3925058B2 (en) Radiation image processing method and radiation image processing apparatus
JP2009195471A (en) Aligning instrument and program for the same
US8577101B2 (en) Change assessment method
JPH06269444A (en) Method for generating three-dimensional radiograph
KR101909125B1 (en) Method for computer-aided diagnosis and computer-aided diagnosis apparatus thereof
JP4294880B2 (en) Image registration method and apparatus
US11151715B2 (en) Dynamic analysis system
US20020154800A1 (en) Image processing apparatus, image processing system, image processing method and storage medium
JP2004135976A (en) Apparatus and method for acquiring image, recording medium, and program
US20090208087A1 (en) Radiographic image correction method, apparatus and recording-medium stored therein program
JP4690204B2 (en) Image reproduction apparatus and program thereof
JP2006034521A (en) Medical image processor and medical image processing method
JP2004305486A (en) Image processing apparatus, method and system
US20050047635A1 (en) Method, apparatus and program for image processing
JP3962557B2 (en) Image processing method, image processing apparatus, image processing system, and computer-readable storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041006

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060731

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060808

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061006

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20061107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20061120

R150 Certificate of patent or registration of utility model

Ref document number: 3888046

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101208

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111208

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121208

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131208

Year of fee payment: 7

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term