JP4746761B2 - Radiation image processing apparatus, radiation image processing method, storage medium, and program - Google Patents

Radiation image processing apparatus, radiation image processing method, storage medium, and program Download PDF

Info

Publication number
JP4746761B2
JP4746761B2 JP2001134210A JP2001134210A JP4746761B2 JP 4746761 B2 JP4746761 B2 JP 4746761B2 JP 2001134210 A JP2001134210 A JP 2001134210A JP 2001134210 A JP2001134210 A JP 2001134210A JP 4746761 B2 JP4746761 B2 JP 4746761B2
Authority
JP
Japan
Prior art keywords
image
component
grid
grid stripe
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2001134210A
Other languages
Japanese (ja)
Other versions
JP2002330344A (en
JP2002330344A5 (en
Inventor
仁司 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2001134210A priority Critical patent/JP4746761B2/en
Priority to US10/131,401 priority patent/US7142705B2/en
Priority to CNB021245622A priority patent/CN1249987C/en
Priority to EP20020253060 priority patent/EP1265194A3/en
Publication of JP2002330344A publication Critical patent/JP2002330344A/en
Priority to US11/469,986 priority patent/US7639856B2/en
Publication of JP2002330344A5 publication Critical patent/JP2002330344A5/ja
Application granted granted Critical
Publication of JP4746761B2 publication Critical patent/JP4746761B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5252Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data removing objects from field of view, e.g. removing patient table from a CT image

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、例えば、散乱放射線を除去するためのグリッドを使用した放射線撮影により被写体の放射線画像を取得する装置或いはシステムに用いられる、放射線画像処理装置、放射線画像処理方法、記憶媒体及びプログラムに関するものである。
【0002】
【従来の技術】
従来より例えば、X線に代表される放射線を被写体(物体)に照射し、当該被写体を透過した放射線成分の空間分布(放射線分布)を画像化することで、被写体内部を可視化可能とする技術が用いられているが、放射線は被写体内部で散乱放射線(散乱線)を発生するため、被写体を透過した直接透過放射線(直接線)と共に、散乱放射線(散乱線)も画像化されてしまう。
【0003】
散乱線の発生過程は、放射線の種類や、被写体の物性、或いは構造等に依存し、通常は予測不可能である。このため、散乱線を除去した放射線画像を得るためには、様々な工夫が必要となってくる。
【0004】
散乱線を除去した放射線画像を簡便に得る方法において、代表的な方法としては、鉛等の放射線遮蔽物質の壁を放射線の受像面に設け、当該受像面に到達する放射線の角度を規制することで、散乱線成分を遮蔽する方法がある。
【0005】
具体的には例えば、医療分野におけるX線撮影では、人体等の被写体からの散乱X線を除去するために、「グリッド」と呼ばれる器具を被写体とX線の受像面の間に設置することが行われている。
【0006】
グリッドは、鉛等のX線遮蔽物質と、木材や、紙、アルミニウム、或いはカーボン等のX線透過物質とが、互いにX線発生源(焦点)へ収束する方向を向くように角度を付けて、所定の幅で交互に並べて構成される器具である。
【0007】
上述のようなグリッドは直接線の一部を除外するため、X線の受像面でもグリッドの影(グリッドの陰影、以下、「グリッド縞」とも言う)が見られることになるが、「X線遮蔽物質とX線透過物質を交互に配置する空間的な周期を正確にする」、及び「当該周期を比較的高い空間周波数にする」等という構成をとることで、X線画像の観察者に対して、当該X線画像上にグリッド縞が存在することの違和感を極力減らしている。
【0008】
図22は、グリッド940の構成を模式的に示したものである。
上記図22において、“910”はX線の発生源を示し、“920”はX線の放射方向を示す。“930”は人体等の被写体を示し、“950”はX線の受像面を示す。
【0009】
上記図22に示すように、グリッド940は、その製造のし易さ等の理由から、2次元平面上の1方向のみ(同図の矢印で示す縦方向)に縞構造を成すものが一般的である。
【0010】
また、グリッド縞のコントラストを低減(除去)する方法としては、X線曝射中に、グリッドのみを縞に直交する方向へ移動させ、X線の受像面でのX線曝射中の積分効果を利用する方法がある。
【0011】
ここでの放射線の受像面(受像部分)というのは、主に、放射線分布を直接感光材料に記録する放射線フィルムを意味している。
【0012】
ところで、近年では、医療用等の放射線画像についても、放射線フィルムにより直接画像化する方法よりも、放射線画像をディジタルデータとして扱う方法が一般化しつつある。
例えば、放射線分布を電気信号(アナログ信号)へ一旦変換し、当該アナログ信号をディジタル化(A/D変換)して数値データ(ディジタルデータ)ヘ変換する。これにより、ディジタル化された放射線画像(ディジタル放射線画像)に対して、ファイリング、画像処理、及びモニタ表示等の処理を低コストで行える。
【0013】
しかしながら、ディジタル放射線画像の場合、必然的に2次元空間的に画像信号をサンプリングする必要があるため、当然サンプリング定理に基づくエリアシングの問題が顕在化してくる。
【0014】
具体的には、一般の画像の場合、空間におけるサンプリング周期を適切な周期(細かい周期等)にすることで、多少のエリアシングが発生しても、画像を観察するにあたって問題はない。
【0015】
これに対して、グリッドを使用して得られたディジタル放射線画像の場合、グリッドによる周期的な縞模様がエリアシングにより非常に低周波になってしまう場合や、サンプリング周期によってはエリアシングは発生しないが低周波の振幅変動が発生してしまう場合があり、これは、画像の観察者の関知するところとなり問題である。
【0016】
そこで、エリアシング等による不適切なグリッド縞模様を除去する方法としては、次のような方法が提案されている。
ここでは、放射線画像をディジタル化する方法を大きく2つの方法に分類し、これらの2つの方法に対するグリッド縞模様を除去する(方法1)及び(方法2)を挙げるものとする。
【0017】
(方法1)
ここでのディジタル化方法では、先ず、放射線分布(放射線強度分布)を一旦別のエネルギー分布(蛍光等のエネルギー分布)に変換し、これを走査することで、画像を1方向にのみ空間サンプリングするアナログ的なビデオ信号(時間信号)を生成し、当該時間信号を別に用意した時間的な周期に基づいてA/D変換する。
当該ディジタル化方法の代表例としては、輝尽性蛍光体に貯えられたエネルギーをレーザ走査により逐次蛍光化/集光して、ビデオ信号として取得し、その後、順次A/D変換を行う方法が挙げられる。
【0018】
上記のディジタル化方法によりディジタル的な放射線画像を取得するにあたって、エリアシング等による不適切なグリッド縞模様を除去する方法としては、例えば、特許第2507659号、特許第2754068号、及び特開平8−088765号等に記載された方法がある。
【0019】
具体的には、先ず、放射線分布に対応した別のエネルギー分布に対する走査を、グリッド縞に直交する方向に行い、グリッド縞をビデオ信号上での周期信号に変換し、アナログ的な当該周期信号に対して、低域通過フィルタリングを行った後、時間軸のサンプリングを行う。このような通常のアンチエリアシングフィルタの構成により、不適切なグリッド縞を除去できる。
【0020】
上述のような方法に類する方法として、特許第2507659号等には、予備的にサンプリングした画像をフーリエ変換することにより、グリッド縞模様の像の存在及びその周波数を検出し、その検出結果に基づいた低域通過フィルタを選択し、これを用いて低域通過フィルタリングを行うことで、不適切なグリッド縞を除去する方法が提案されている。
【0021】
また、特許第2754068号や特開平8−088765号等には、特許第2507659号等で提案されているアナログ的な低域通過フィルタリング処理ではなく、時間軸のサンプリングを所望の間隔より短く行い、グリッド縞模様の情報のエリアシングを無くしてグリッド像を含む画像情報を取得した後に、グリッド像成分を除去するディジタル的な低域通過フィルタリングを行い、その後、ディジタル的に間引いて(再サンプリング)、所望のサンプリング間隔による画像を得る方法が提案されている。
【0022】
(方法2)
ここでのディジタル化方法では、先ず、放射線強度分布を一旦別のエネルギー分布(蛍光や電界強度等のエネルギー分布)に変換し、これに対して、2次元的に配置された複数の電気信号変換素子(フォトダイオードやキャパシター等)により直接2次元サンプリングを行い、各変換素子からの信号を順序取り出してA/D変換する。
当該ディジタル化方法の代表例としては、近年技術開発が進んでいる大画面平面センサにより、放射線による大面積にわたる蛍光分布若しくは電界強度分布を二次元配列された複数の画素毎の変換素子で電気信号化する、所謂放射線フラットパネルセンサを用いた方法が挙げられる。
【0023】
ところで、この方法2のディジタル化方法によりディジタル的な放射線画像を取得するにあたって、エリアシング等による不適切なグリッド縞模様を除去するのは非常に困難となっている。その理由は、放射線フラットパネルセンサ等(以下、単に「センサ」或いは「フラットパネルセンサ」とも言う)の複数の電気信号変換素子により2次元空間上で直接サンプリングされるため、方法1のようなアナログ的な電気信号に対するアンチエリアシングフィルタが適用できないためである。
【0024】
上記の問題を解決するために、センサにより2次元空間上でエリアシングを起こさない程度の細かさで直接サンプリングを行い、ディジタル的なアンチエリアシングフィルタを施した上で、上述した再サンプリングを行う方法が考えられるが、このような方法では、センサの電気信号変換素子の構成上、2次元空間での細かなサンプリングが困難であり、電気信号変換素子自体の性能を落とす上に、莫大なコストアップを招いてしまう。
【0025】
そこで、従来のようにX線曝射中にグリッドを移動させる方法が行われている。
【0026】
別の方法として、特開平9−75332号等では、センサにより2次元空間で直接サンプリングしてディジタルX線画像を取得する際に、グリッド縞を除去することを目的とし、グリッド縞の間隔とサンプリングピッチ(センサの画素ピッチ)を完全に一致させ、グリッド縞による直接線を遮断する領域と画素の隙間を一致させることにより、不適切なグリッド縞を画像上に発生させないようにする方法が提案されている。
【0027】
また、特開平9−78970号や、U.S.Patent5801385等では、グリッド縞の間隔をサンプリングピッチより小さくし、1画素(1つの電気信号変換素子)の有する受光部の開口の幅と同じにする或いは近づけるようにすることで、グリッド縞のコントラストを低減する方法が提案されている。
【0028】
また、U.S.Patent5.050.198等では、複数の撮影条件でグリッド縞模様の像(グリッド像)を予め記憶しておき、実際にグリッドを用いた撮影を行ったときに、予め記憶した複数のグリッド像の中で撮影条件の一致又は近似したグリッド像により撮影で得た画像を除算することで、グリッド像を除去する方法が提案されている。
【0029】
【発明が解決しようとする課題】
しかしながら、上述したような従来の放射線画像処理、特に、(方法2)に代表される、2次元空間上で直接サンプリングするセンサ及びグリッドを使用して放射線画像を取得した場合の画像処理では、次のような問題点があった。
【0030】
まず、特開平9−75332号等で提案されている構成において、グリッド縞の間隔とサンプリングピッチを完全に一致させることは非常に困難である。すなわち、一般的に半導体製造工程で作成されるフラットパネルセンサと、比較的厚みのある鉛板の組み合わせで作成されるグリッドとは、それぞれ独立して作成作業が行なわれ、或いは、グリッド自体は、そのときの状況により取り外し可能なように作成しなくはいけないため、これらの要因により、グリッド縞の間隔とセンサの画素ピッチ(サンプリングピッチ)を完全に合致させることは非常に困難である。
【0031】
また、特開平9−78970号やU.S.Patent5801385等で提案されている構成において、グリッド縞の間隔をサンプリングピッチより細かくし、1画素の有する受光部の開口の幅と同じにする或いは近づけるのは有効であるが、センサ(フラットパネルセンサ)が高精細化し、サンプリングピッチが、例えば、0.1mm以下になると、グリッド縞の間隔も同様に、1mm当たり10本以上という非常に細かなものが要求されるようになる。このような細かな縞のグリッドとなると、散乱線を遮断するための鉛板厚さはほぼ固定されているため、直接線の通過する領域を狭くするしかなく、この結果、放射線量の利用効率が極端に低くなり、良好な放射線撮影を行えなくなる。
【0032】
また、上述したような従来の構成では、放射線曝射中にグリッド自体を移動させるようになされているが、このグリッドの移動については、グリッド移動のための駆動系等によりコスト上昇、装置或いはシステムの大型化を招くと共に、駆動タイミングと放射線曝射タイミングの関係、及び駆動速度の関係等の調整制御等のための構成等を設ける必要がある。したがって、グリッド移動の構成は、グリッド縞を除去するためには有効であるが、上述のような制限があり、常に採用できるわけではない。
【0033】
そこで、上記の問題点を解決するために、得られる放射線画像がディジタルデータであることから、ディジタルフィルタリングにより、グリッド縞を除去する方法が考えられる。この方法によれば、グリッド縞の空間周波数と被写体に基づく有効な画像情報の空間周波数成分が完全に分離されていれば、単純なフィルタリング構成にてグリッド縞を除去できる。
【0034】
上記の方法の具体例として、特開平3−12785号等では、フーリエ変換を用いて、グリッド縞の空間周波数に相当するデータを除去若しくは低減する方法が提案されている。
【0035】
また、通常のFIR(Finite Inpulse Response)フィルタを用いて、グリッド縞の空間周波数に相当するデータを除去若しくは低減する方法も考えられる。
【0036】
ところで、グリッド縞の像は、鉛等のX線遮蔽物質による放射線の透過率の低減した陰影であるため、信号ではほぼ乗算的に重畳されるが、対数変換を行えば加算的に重畳されることになる。したがって、上述したようなフィルタリングが可能となる。
【0037】
また、一般的に、散乱線除去のためのグリッドの製造工程は、非常に精度よく管理されており、そのグリッド縞についても、画像全般にわたって均一の空間周波数特性を有するものが広く用いられている。このため、上述したようなフィルタリングについても、単一の空間周波数に対してのみ行えばよいという可能性がある。
【0038】
また、実際には、グリッド縞の像(陰影)の形状は、正確な正弦波状ではないため、逓倍周波数である2倍,3倍,…の空間周波数成分が存在する可能性があるが、この場合、センサでの変換過程(エネルギー変換過程)の2次元空間的な依存性に起因するボケにより、基本波成分のみが受像されると考える。
【0039】
しかしながら、上述したようなフィルタリングでの問題は、画像成分自体の空間周波数帯域を制限することは不可能に近いということにある。
【0040】
具体的には例えば、特許第2754068号や特開平8−088765等で提案されているものに代表されるように、空間サンプリングピッチを非常に細かくし、当該サンプリング後に有効なナイキスト周波数を高めて、有効な帯域幅(ナイキスト周波数以下の帯域幅)を広くとり、その中で画像成分とグリッド縞成分が完全に分離されれば、何の問題もなく、通常のフィルタリングでグリッド縞の除去が行えることは明確であるが、現実的な問題として、グリッド縞を除去するためだけに、空間サンプリングピッチを高めることは、半導体プロセスその他の要因によりセンサの非常なコストアップにつながり、さらに、放射線取得効率を落とす原因となり、有効ではない。
【0041】
したがって、ナイキスト周波数以下の帯域に有効な画像成分がほぼ収まる程度の空間サンプリングピッチでセンサ自体を構成することが、コスト的及び性能的に有効であるが、このような構成をとった場合、グリッド縞の空間周波数と有効な画像成分の空間周波数との間にある程度の重畳があるのはやむをえない。
【0042】
具体的には、例えば、図23(a)〜(d)を用いて説明すると、まず、同図(a)は、処理対象となる画像(元画像)を1次元で見たときの当該画像信号を示したものであり、当該画像信号は256点の数値で構成されている。
上記図23(b)は、同図(a)で示される画像信号をフィルタリングする際の、空間周波数領域でのフィルタの応答特性を示したものである。上記図23(b)では、離散フーリエ変換を意識して、周波数領域を“0”〜“128”の数値で表しており、空間周波数の値が“100”の位置での帯域カットフィルタリングとしている。
上記図23(c)は、同図(b)で示されるフィルタリングを、同図(a)で示される画像信号に対して施した結果を示したものである。上記図23(c)の画像信号は同図から明らかなように、同図(a)で示される画像信号の特性からほとんど変化がない。
上記図23(d)は、確認のために、同図(a)で示される画像信号と、同図(c)で示される画像信号との差分を示したものである。上記図23(d)から明らかなように、フィルタリングにより除去された信号成分はほとんどない。
【0043】
また、図24(a)は、上記図23(a)で示した画像信号(元画像信号)に対して、中間で急峻に立ち上がる部分(所謂エッジ部分)を加えたものを示したものである。
上記図24(b)は、上記図23(b)と同様に、上記図24(a)で示される画像信号をフィルタリングする際の、空間周波数領域でのフィルタの応答特性を示したものである。
上記図24(c)は、同図(b)で示されるフィルタリングを、同図(a)で示される画像信号に対して施した結果を示したものである。上記図24(c)において、丸で囲った部分から明らかなように、元画像信号から外れて不安定な振動をしていること(アーチファクト)がわかる。
上記図24(d)は、確認のために、同図(a)で示される画像信号と、同図(c)で示される画像信号との差分を示したものである。上記図24(d)から明らかなように、急峻に変動する部分(信号の両端部分を含む)に関して、多くの振動成分が現れている。
【0044】
上記図23(a)〜(d)及び図24(a)〜(d)に示されるように、通常の画像信号の場合、ナイキスト周波数(同図では空間周波数が“128”)以下の、かなり高い周波数の成分については、画像信号の主成分ではなく、ほとんど情報がない成分であるため、この位置で急峻なフィルタリング処理を施しても問題は少ない。これに対して、画像信号が急峻な部分(エッジ部分)を有する場合、上記のナイキスト周波数以下の、かなり高い周波数成分を用いて画像信号が表現されるため、これにフィルタリングを施すと、急峻に変動する部分で問題(アーチファクト)が発生してしまう。
【0045】
図25(a)〜(d)は、グリッドを摸して、上記図23(a)に示される元画像信号に対して、正弦波(sin(2π100x/256))を加えた場合の信号状態を示したものである。上記図25(a)〜(d)から明らかなように、同図(b)で示されるフィルタの応答特性を有するフィルタリングにより、グリッド縞がほぼ除去されている(同図(c)参照)。
【0046】
図26(a)〜(d)は、グリッドを摸して、上記図24(a)に示される元画像信号に対して、正弦波(sin(2π100x/256))を加えた場合の信号状態を示したものである。上記図26(a)〜(d)から明らかなように、同図(b)で示されるフィルタの応答特性を有するフィルタリングにより、上記図24(c)と同様なアーチファクトが発生している(上記図26(c)参照)。
【0047】
すなわち、特開平3−12785号等に記載されているような、単純なフィルタリング処理では、グリッド縞の成分を除去すると、上述のようなアーチファクトが強く発生してしまう可能性がある。また、アーチファクトを減らすために、フィルタのインパルス応答の幅を狭くすると、フィルタリングの応答特性が広い範囲で低減するようになってしまい、画像自体が強くなまった形になってしまう。
【0048】
上述のような放射線画像における問題は、放射線撮影により得られる動画にも言えることである。
【0049】
具体的には例えば、X線を被写体を介して固体撮像素子で撮像することで、当該被写体のX線画像を取得する構成の場合、当該被写体の動きに応じた一連の連続画像(動画のX線画像、以下、「X線動画」とも言う)の取得が可能である。このようなX線動画についても、これを構成する個々のフレーム画像には、上述したようなグリッド縞成分に関する問題が生じる。
【0050】
また、X線動画の取得の場合、1秒あたり30フレーム乃至120フレーム程度で高速にX線動画の取得が行なわれる。このように高速に得られるX線動画から、グリッド縞成分を完全に除去することは非常に困難である。さらに、X線動画の取得が高速になされることにより、単純なフィルタリングでグリッド縞成分を除去しようとすると、画像自体にアーチファクトが生じる等の損傷を与えてしまう。
【0051】
そこで、本発明は、上記の欠点を除去するために成されたもので、グリッドを使用した放射線撮影による放射線画像から、グリッドに起因する画像成分が除去された良好な放射線動画を得ることのできる、放射線画像処理装置、放射線画像処理方法、記憶媒体及びプログラムを提供することを目的とする。
【0052】
【課題を解決するための手段】
斯かる目的下において、第1の発明は、被写体からの散乱放射線を除去するためのグリッドを使用した放射線撮影により得られた放射線画像を処理する放射線画像処理装置であって、所定の上記放射線画像から前記グリッドに起因する画像成分を作成する作成手段と、上記作成手段により得られた上記画像成分に基づき、上記所定の上記放射線画像より後に得られた複数の上記放射線画像に対して、上記画像成分の除去処理を施す除去手段とを備え、上記作成手段は、上記放射線画像に重畳された画像成分は画像全体にわたって定常であるという特徴に基づいて上記画像成分を作成する手段を備えることを特徴とする。
【0072】
第2の発明は、被写体からの散乱放射線を除去するためのグリッドを使用した放射線撮影により得られた放射線画像を処理するための放射線画像処理方法であって、放射線画像から前記グリッドに起因する画像成分を作成する作成ステップと、上記作成ステップにより得られた画像成分に基づき、上記放射線画像より後に得られた複数の放射線画像に対して、上記画像成分の除去処理を施す除去ステップとを含み、上記作成ステップは、上記放射線画像に重畳された画像成分は画像全体にわたって定常であるという特徴に基づいて上記画像成分を作成するステップを含むことを特徴とする。
【0073】
の発明は、上記第の発明において、上記除去ステップは、上記複数の放射線画像に対して、上記作成ステップにより得られた同一の画像成分を用い除去処理を施すステップを含むことを特徴とする。
【0075】
の発明は、上記第2の発明において、上記作成ステップは、上記放射線画像を解析して上記画像成分の空間周波数を得る解析ステップを含むことを特徴とする。
【0076】
第5の発明は、上記第4の発明において、上記作成ステップは、上記解析ステップの解析結果に基づいて上記放射線画像から画像成分を含む所定の成分を抽出する抽出ステップと、上記抽出ステップにより得られた所定の成分を加工して上記画像成分を得る加工ステップと、を有し、上記除去ステップは、上記作成ステップの上記加工ステップにより得られた上記画像成分を上記放射線画像から除去することを特徴とする。
【0077】
の発明は、上記第の発明において、上記抽出ステップは、上記解析ステップにより得た上記空間周波数を有する成分を上記放射線画像から抽出するフィルタリングを行うステップを含むことを特徴とする。
【0078】
の発明は、上記第の発明において、上記加工ステップは、上記所定の成分の非定常な部分を、その前後の定常な部分から推定して加工する処理を実行するステップを含むことを特徴とする。
【0079】
の発明は、上記第の発明において、上記加工ステップは、上記所定の成分の包絡線情報に基づいて、上記非定常な部分を検出するステップを含むことを特徴とする。
【0080】
の発明は、上記第の発明において、上記加工ステップは、上記所定の成分の非定常な部分の前後の定常な部分及び空間周波数に基づいて、上記画像成分に対応する正弦波の振幅及び位相を推定し、上記非定常な部分の補修を行うステップを含むことを特徴とする。
【0081】
10の発明は、上記第の発明において、上記加工ステップは、上記補修された非定常な部分を含む所定の成分に対して、さらなるフィルタリングを行って前記画像成分を得るステップを含むことを特徴とする。
【0082】
11の発明は、上記第の発明において、上記加工ステップは、上記非定常な部分のうち所定の条件を満たす部分を予め定められた値に置換して上記画像成分を得ることを特徴とする。
【0083】
12の発明は、上記第2の発明において、上記作成ステップは、上記放射線画像から選択した所定のラインについて、上記画像成分を作成するステップを含むことを特徴とする。
【0084】
13の発明は、上記第12の発明において、上記作成ステップは、複数のラインの平均の結果に対して、上記画像成分を作成するステップを含むことを特徴とする。
【0085】
14の発明は、上記第12の発明において、上記作成ステップは、画像成分が作成されなかったラインの画像成分として、当該ラインの近隣の上記画像成分が作成されたラインから取得した上記画像成分を用いるステップを含むことを特徴とする。
【0087】
15の発明は、上記第2の発明において、上記グリッドの装着を検出する検出ステップを含み、上記作成ステップは、上記検出ステップの検出結果に基づいて、上記の処理を実行するステップを含むことを特徴とする。
【0092】
16の発明に係るプログラムを記録したコンピュータが読み取り可能な記憶媒体は、第2〜15の発明のいずれかに係る放射線処理方法の処理ステップをコンピュータに実行させるためのプログラムを記憶したことを特徴とする。
【0094】
17の発明に係るプログラムは、第2〜15の発明のいずれかに係る放射線処理方法の処理ステップをコンピュータに実行させることを特徴とする。
【0095】
【発明の実施の形態】
以下、本発明の実施の形態について図面を用いて説明する。
【0096】
[第1〜第5の実施の形態の概要]
ここでは、本発明の実施の形態として、第1〜第5の実施の形態を例示として挙げる。第1〜第5の実施の形態の具体的な説明の前に、こられの概要について説明する。
【0097】
尚、ここでは放射線の一例として、X線を用い、X線撮影により得られたX線画像について処理するものとする。
また、以下に説明する構成は、本発明を適用した一構成例であり、これに限られることはない。
【0098】
第1〜第5の実施の形態では、特に、グリッドを使用したX線撮影により、被写体の動きに応じた一連の連続画像(X線動画)を取得する場合の、当該X線動画について、単純なフィルタリング処理によるグリッド縞成分の除去が困難である問題、及び高速にグリッド縞成分の除去が困難である問題を、次のような構成により解決した。
【0099】
すなわち、処理対象のX線動画(対象X線動画)を構成する複数のフレーム画像のそれぞれに対して重畳されている、或いはセンサの特性(飽和特性や欠陥画素等の特性)の影響等で通常のフィルタリング処理では検出不可能な本来画像全体にわたって安定な縞模様として存在するはずである、グリッド縞の成分情報(以下、単に「グリッド縞成分」とも言う)を推定して求めることにより、当該グリッド縞成分を抽出する。
【0100】
また、対象X線動画を構成する複数のフレーム画像において、隣接するフレーム画像ではグリッド縞成分がほぼ変動しないことにより、グリッド縞成分の抽出処理を、当該複数のフレーム画像全てに対して行うのではなく、間引いて行うようにする。
【0101】
そして、例えば、各フレーム画像が対数画像の信号である場合、抽出したグリッド縞成分を、それぞれのフレーム画像から差し引く。これにより、X線動画に影響を与えることなく、安定したグリッド縞情報の除去が可能となる。
【0102】
具体的には、まず、第1の実施の形態では、X線撮影で得られたX線動画の1つのフレーム画像(対象フレーム画像)を解析する。そして、グリッド縞に直交する方向の画素の欠陥については、線形予測型の画素欠陥補正処理を施す。また、上記解析結果に基いて、グリッド縞成分を対象フレーム画像から抽出し、画像情報として保持する。
ここで、上記解析に要する時間は、連続して取得されるフレーム画像の時間よりも長いことにより、次のフレーム画像の解析が完了するまでは、1つ前に抽出したグリッド縞成分を用いて、当該グリッド縞成分を解析及び抽出した対象フレーム画像を開始フレームとして、次の解析が行なわれるフレーム画像までの間の各フレーム画像に対して、グリッド縞成分の除去処理を行う。このとき、上記解析に要する時間に対応した、別のタイミング制御構成からの制御に基づいて、定期的にグリッド縞成分の抽出を行うようにしてもよい。
【0103】
また、第1の実施の形態では、対象フレーム画像からグリッド縞成分を抽出する際、一旦低次のFIRフィルタリングにて抽出し、その後、別のFIRフィルタリングとのベクトル振幅特性計算により包絡線情報を取得する。そして、当該包絡線情報に基づいて、グリッド縞成分から非定常な部分を抽出し、当該非定常分を、その周囲の定常な部分を利用して補修することで、グリッド縞成分を、全体として定常な信号系列に変換する。そしてさらに、より適切にグリッド縞成分のみを抽出するために、グリッド縞成分に対応する空間周波数を選択的に抽出するフィルタリング処理を実行し、その結果をグリッド縞成分とする。
上述のようにして取得したグリッド縞成分を、それぞれのフレーム画像から差し引く。これにより、グリッド縞成分の除去後のX線動画が得られる。
【0104】
第2の実施の形態では、グリッド縞成分を除去した後のフレーム画像に対して画素欠陥補正を行なう。ここでの画素欠陥補正としては、例えば、平均による画素欠陥補正を適用可能である。
【0105】
第3の実施の形態では、グリッド装着を検知する検知手段を設け、グリッド装着が検知手段により確認された場合に、フレーム画像を解析し、この結果に基いて、予測型の画素欠陥補正、及びグリッド縞成分の除去を行う。
【0106】
第4の実施の形態では、X線曝射の照射野が、被写体の撮影部位に対応するように絞られている状態の場合、フレーム画像において、当該照射野に相当する部分画像のみに対して、第1の実施の形態での処理を実行する。
【0107】
第5の実施の形態では、被写体の状況によっては画像の部分毎にグリッド縞が存在しない場合もあることにより、グリッド縞が存在しない部分の画像に対して、グリッド縞除去の処理を行わない方法をとる。
具体的には、抽出されたグリッド縞成分に関して、グリッド縞成分が存在しない部分の情報を零(“0”)データに置き換えることで、当該部分については、グリッド縞除去の処理を行わない。
【0108】
尚、第1〜第5の実施の形態において、例えば、抽出されたグリッド縞成分は画像情報として存在していることにより、その画像を保持しておくことで、フレーム画像からグリッド縞成分を除去した場合であっても、その後に、保持しておいたグリッド縞成分の画像情報を用いて、元のフレーム画像、すなわちグリッド縞を除去しない状態のフレーム画像を復元することができる。
【0109】
[第1〜第5の実施の形態におけるグリッド縞成分の除去処理]
ここでは、第1〜第5の実施の形態で用いる、グリッド縞成分の除去処理方法について説明する。
尚、以下の説明では、第1〜第5の実施の形態をまとめて「本実施の形態」とも言う。また、X線動画の中の対象とするフレーム画像を「対象画像」とも言う。
【0110】
例えば、グリッド縞成分が示す周波数から、ほぼ当該グリッド縞成分を含む成分を分離し、分離後の当該成分を、グリッド縞の示すであろう特徴情報に加工し、当該加工後の情報を、グリッド縞成分と見なし、これを対象画像信号から除去する。
【0111】
グリッド縞成分は、空間スペクトル表現によれば、かなり強い成分を有し、グリッド縞の空間周波数を適当に選択すれば、サンプリングの際のナイキスト周波数(サンプリング周波数の1/2に相当する空間周波数)近辺に存在させることができる。この結果、上記図25(a)〜(d)に示したような、通常の画像信号の主成分とは重ならないような状態が容易に得られる。
【0112】
ここで、対象画像信号に対して、急峻な変動成分が存在する場合に限り、上記図26(a)〜(d)を用いて説明したように、グリッド縞成分と対象画像信号の分離が困難となる。
【0113】
また、場合によっては、グリッド縞自体が存在しない場合も考えられる。これは、X線をほぼ完全に遮断するような被写体をX線撮影した場合や、センサのダイナミックレンジで規定される以上の強いX線が当該センサに到達した場合に、サチュレーションによりグリッド縞成分がなくなる場合である。
【0114】
尚、通常、X線画像を取得する場合、被写体内部を透過するX線量を重視するため、透過しない被写体外部(素抜け部分)では、被写体透過量の数100倍ものX線量になる。一般に、センサ、或いはセンサ用のアンプのダイナミックレンジを、情報のない被写体外部にまで広げることは無意味であり、被写体外部は、ほとんどの場合、サチュレーションによる非線形性を呈し、グリッド縞成分をも存在しなくなる、或いはコントラストが落ちた状態となる。
【0115】
そこで、本実施の形態では、対象画像において、1ライン中のデータで、グリッド縞成分と対象画像信号の分離が困難になるような急峻な変動がある場合、及びグリッド縞自体が存在しない場合の双方に適応的に対応し、アーチファクトを発生することなく、グリッド縞成分を除去することを実現した。
【0116】
具体的には、本実施の形態におけるグリッド縞成分の除去処理は、主に、次のような第1処理ステップ〜第3処理ステップを含む処理としている。
【0117】
第1処理ステップ:
グリッド縞成分を含んで得られた対象画像から、グリッド縞に直交する方向のラインデータをサンプル的に抽出し、グリッド縞の空間周波数を割り出す。
【0118】
第2処理ステップ:
順次対象画像からグリッド縞成分を抽出し、その結果(グリッド縞成分)を対象画像から差し引くが、このとき、アーチファクトの発生を考慮して、アーチファクトが発生しても、その影響範囲が小さくなる比較的小さなスパンのFIRフィルタリングにより、グリッド縞を主とした成分を抽出する。
【0119】
第3処理ステップ:
第1処理ステップで得られたグリッド縞の空間周波数に基いて、第2処理ステップで得られたグリッド縞を主とした成分の包絡線を、当該成分と別のFIRフィルタリングによって当該成分の位相を90°移動させた成分とのベクトル振幅計算により求める。
【0120】
上記の第1処理ステップ〜第3処理ステップを含むグリッド縞成分の除去処理について、さらに具体的に説明すると、まず、第3処理ステップで得られた包絡線情報は、必ず正の値をとり、その特徴としては、次のような特徴(1)及び(2)を有する。
(1)急峻な変動部分(例えばエッジ部)に関しては、非常に大きな値を示す。
(2)グリッド縞が存在しない部分に関しては、ほぼ“0”となるような小さな値を示す。
【0121】
本実施の形態では、上記の包絡線情報に基いて、特徴(1)により示される値の部分(非常に大きな値の部分)、及び特徴(2)により示される値の部分(非常に小さな値の部分)について、グリッド縞成分を補修することで、より安定したグリッド縞成分の作成を実現する。
【0122】
グリッド縞成分の補修の方法としては、例えば、上記特徴(1)の部分を、その周辺の安定したグリッド縞の部分から予測した成分に置き換えることで、全体として安定したグリッド縞成分にする方法が挙げられる。
【0123】
上述のようにして取得した、安定した成分のみが存在するグリッド縞を主とした成分について、ライン全体に対して、通常のフィルタリング処理を行う。このとき、グリッド縞の空間周波数を中心としたより狭い範囲の空間周波数のみを抽出するフィルタリングを行う。
【0124】
上記のフィルタリングの結果(抽出成分)を、対象画像におけるグリッド縞成分とするが、包絡線情報が、特徴(2)を有するものである場合、すなわちグリッド縞を主とした成分にグリッド縞成分が存在しない部分がある場合、もともとグリッド縞が存在しないのだから、当該部分のグリッド縞を主とした成分を“0”に置き換える。
【0125】
また、対象画像に対してフィルタリング処理を施す際、より急峻なフィルタリング処理を安定に高速に行うために、高速フーリエ変換アルゴリズムを用いる場合があるが、この場合、データ点数が“2”のn乗(nは正の整数)に限定される。このため、通常データの周辺に“0”を詰めて点数を合わせるようにする。この“0”を詰めた範囲のデータも、包絡線情報が特徴(2)を示す部分に該当するデータと考えればよい。
【0126】
尚、グリッド自体の空間周波数として有効な空間周波数としては、ここでは、特願2000−028161号等で提案されているようなサンプリング周波数(空間サンプリングピッチの逆数)の30%以上40%以下となるような空間周波数(ナイキスト周波数の60%以上80%以下)から選ばれていると有効である。この理由は、一般的にサンプリング周波数の30%以下に画像の主成分が集中し、サンプリング周波数の40%以上60%以下の空間周波数を有する強いグリッド縞の成分は、サンプリング後に線形補間に類する補間処理が施された場合に、別の周期的な振幅変動を起こしたように見え、グリッド縞自体の安定性に欠けるためである。
【0127】
グリッド自体の空間周波数を“fg[cyc/mm]”とし、センサのサンプリングのピッチを“T”とすると、グリッド縞の空間周波数fmは、
【0128】
【数1】

Figure 0004746761
【0129】
なる式(1)で表される。
【0130】
本実施の形態では、上記式(1)で表される空間周波数fmに相当する縞模様がグリッド縞成分として対象画像中に存在することを考慮して、上述した第1処理ステップにおいて、グリッド縞を正確に抽出する。すなわち、グリッド縞の空間周波数fgは、予め判明しているため、サンプリングされたラインデータの中から、対象画像の空間周波数fm近辺を探索し、その検索結果により、ピーク値を示す空間周波数を以って、対象画像におけるグリッド縞の空間周波数fmと見なす。
【0131】
また、上述した第2処理ステップにおいて、空間周波数fmに対し、その空間周波数fmを中心として、できるだけ小さなスパンのFIRフィルタリングを行うことで、有効な画像成分を殆ど除去した状態で、且つ、急峻な変動(例えばエッジ部分)によるアーチファクトの影響が狭い範囲に収まる状態で、グリッド縞成分を粗く抽出する。
【0132】
このとき、位相変動をなくすために、例えば、FIRフィルタの係数系列を偶関数とし、また、上記の狭い範囲を満たすために、3点若しくは5点のFIRフィルタが望ましい。
【0133】
具体的には例えば、対称3点のFIRフィルタとし、その係数を(a1,b1,a1)とすると、当該係数(a1,b1,a1)を求めるためには、空間周波数fmにおけるレスポンスが“1”であるという条件、及び画像情報の中心値である直流成分を“0”にするという条件の2つの条件を用いることができる。
【0134】
すなわち、当該係数演算は、
*a1+b1=0
*a1*cos(2πfmT)+b1=1
なる式で表される連立方程式であり、
【0135】
【数2】
Figure 0004746761
【0136】
なる式(2)で表される解をとる。
【0137】
上記のFIRフィルタリングは、空間周波数fmにおいてレスポンスが“1”であるが、空間周波数がそれ以上になると、レスポンスは次第に上昇していく。一般的に、この部分には画像成分が存在しないため、当該FIRフィルタイリングであってもグリッド縞を充分に抽出できる。
【0138】
また、対称5点のFIRフィルタリングとし、その係数を(a2,b2,c2,b2,a2)とすると、当該係数(a2,b2,c2,b2,a2)を求めるためには、空間周波数fmにおけるレスポンスが“1”であるという条件、及び画像情報の中心値である直流成分を“0”にするという条件の2つの条件の外に、空間周波数fmにおけるレスポンスの微分値が“0”(ピーク)を示すという条件をも用いることができる。
【0139】
すなわち、当該係数演算は、上記式(2)で表される解から、簡単な演算を行うことで、
(−a12,2a1(1−b1),1−2a12−(1−b1)2
2a1(1−b1),−a12
なる解が得られる。
【0140】
対称5点のFIRフィルタリングのフィルタの求め方としては、例えば、先ず、上記式(2)で表される係数(a1,b1,a1)を有するフィルタを、“1”から差し引いた形にすると、空間数端数fmで零点を有するフィルタとなる。このフィルタによるフィルタリングを2回施す処理を考慮すると、やはり空間周波数fmで零点を有するが、位相(符号)の反転がなくなる。このようなフィルタが、対称5点のFIRフィルタリングのフィルタであり、“1”から当該フィルタを差し引くことで、目的とする空間周波数fmにおいてピークを有するフィルタを構成できる。
【0141】
図1は、上述したような、対称3点のFIRフィルタリング(以下、「3点FIRフィルタリング」とも言う)、及び対称5点のFIRフィルタリング(以下、「5点FIRフィルタリング」とも言う)の形状(空間周波数特性)の例を示したものである。
【0142】
上記図1に示されるFIRフィルタによるフィルタリングの結果は、殆どの場合、グリッド縞成分のみを抽出した結果となる。これは、上記図1から明かなように、主に低周波成分からなる有効な画像成分の当該低周波成分の多くが除去されるためである。
【0143】
しかしながら、上述したように、FIRフィルタリングにより抽出した成分の中には、かなりの量の有効画像成分が含まれているのも事実である。本来は、空間周波数fmを中心とする急峻な選択特性を有するフィルタによるフィルタリングを行いたいところであるが、これを行ったとしても、対象画像に含まれる急激な変動部分を構成する周波数成分が含まれてしまうことに変りはない。
【0144】
そこで、上記の問題を解決するために、本実施の形態では、上述した第3ステップにおいて、グリッド縞成分の局所的な包絡線を求め、その変動から、グリッド縞成分以外の、アーチファクトを発生させる可能性のある成分が含まれる部分を検出することで、グリッド縞成分のみを安定に抽出(作成)する。
【0145】
一般の信号の包絡線は、ヒルベルト変換によらなければならないが、単一の正弦波の包絡線は、その周波数におけるレスポンス振幅が“1”であり、90°(π/2)の位相変動を起こすような空間フィルタを施し、その結果と元信号とのベクトル振幅(2乗和の平方根)をとれば求まる。
【0146】
位相が90°変動するFIRフィルタによるフィルタリングを、離散的なデータに対して施す場合、当該FIRフィルタの係数を点対称(奇関数)的なものとする。例えば、この係数を(−a3,0,a3)とすると、空間周波数fmでレスポンスを“1”にするためには、係数(−a3,0,a3)は、
*a3*sin(2πfmT)=1
なる式を満たす必要があり、
【0147】
【数3】
Figure 0004746761
【0148】
なる式(3)で表される解が得られる。
【0149】
上記式(3)で表される解の係数(−a3,0,a3)を有するFIRフィルタにより得られた信号系列と元信号系列との振幅を求める。
【0150】
例えば、図2(a)は、上記図25(a)で示した元画像信号に対して、上記式(2)で示される解の係数(a1,b1,a1)を有するフィルタリングを施した結果を示したものである。上記図2(a)から明かなように、グリッド縞成分が殆ど抽出されている。
【0151】
また、図3(a)は、上記図26(a)で示した元画像信号に対して、上記式(2)で示される解の係数(a1,b1,a1)を有するフィルタリングを施した結果を示したものである。
【0152】
上記図2(b)及び図3(b)で示す波形(太線で示す波形)はそれぞれ、上記図2(a)及び図3(a)で示される元画像信号に対して、上記式(3)で示される解の係数(−a3,0,a3)を有するフィルタリングを施した結果と、当該元画像信号との2乗和の平方根をとった包絡線を示したものである。
【0153】
特に、上記図3(b)に示す包絡線において、同図(c)に示す窪み部分に着目すると、当該窪み部分には明らかに非定常な成分が存在している。これは、抽出されたグリッド縞成分は、単純なフィルタリングでは異常に抽出され(対象画像のエッジ成分等を含み)、対象画像信号から差し引けば、この処理後の対象画像信号にアーチファクトが発生することを意味する。
【0154】
そこで、本実施の形態では、上述のようにして求められた包絡線から、異常な数値を示す範囲を特定し、当該範囲のグリッド縞成分をその周辺の数値列からの推定値で補正(置換)する。すなわち、本来有するグリッド縞成分の特徴である、全ての範囲にわたって常に定常な成分を有するという性質を利用して、グリッド縞成分を形成(作成)する。
【0155】
補正の際に用いる推定値(予測値)は、異常な数値を示す範囲の周辺のデータの統計的性質から求める。例えば、グリッド縞成分の空間周波数fmが既知であるので、この空間周波数fmを統計的性質として用いることができる。
【0156】
例えば、グリッド縞の空間周波数fm、及び位相φを以って、
【0157】
【数4】
Figure 0004746761
【0158】
なる式(4)により表される正弦波を用いて、非定常部のグリッド縞成分を形成する。
【0159】
例えば、最も簡便な方法としては、フーリエ変換(フーリエ級数展開)を用い、特定の周波数における2つの係数A及びφを周辺画素から求める方法が挙げられる。
【0160】
しかしながら、データに欠陥(非定常部分)が存在する等の問題から、通常のフーリエ変換を用いることができない。したがって、ここでは、フーリエ変換を一般化し、最小2乗の意味で、振幅及び位相情報を求める。このため、上記式(4)を、
【0161】
【数5】
Figure 0004746761
【0162】
なる式(5)に変形する。
【0163】
この場合、サンプリング点xiにおけるデータを“yi”(データ点数n)である時({xi,yi;i=0〜n−1})の2乗誤差εは、
【0164】
【数6】
Figure 0004746761
【0165】
なる式(6)で表される。
【0166】
このとき、注意すべきは、ここで用いられる成分“xi,yi”としては、上述した包絡線の成分の検証から、定常な部分であると判断されたデータのみを選択することである。そして、2乗誤差εを最小化するパラメータR,Iを、次のようにして求める。
【0167】
先ず、
【0168】
【数7】
Figure 0004746761
【0169】
なる式(7)は、
【0170】
【数8】
Figure 0004746761
【0171】
なる式(7´)で書き表される。
上記式(7´)の連立方程式を解くことで、パラメータR,Iが求まり、位相φと振幅Aを同時に推定できる。
【0172】
ここで、データ系列がk/(2・fm)(kは正の整数)の区間を等間隔でm等分するものであれば、上記式(7´)は、
【0173】
【数9】
Figure 0004746761
【0174】
なる式(8)で示されるように、特定の周波数の係数を求める離散フーリエ変換(フーリエ級数展開)となる。
【0175】
上記式(7´)若しくは上記式(8)により、非定常部分の周辺の定常な適当なデータを用いて、パラメータR,Iの値を求めることで、不適当であるとして除去された非定常部分の補修(置換)を行う。
【0176】
また、その他の補修方法としては、線形予測モデルを考え、グリッド縞の空間周波数を特定せずに、線形予測アルゴリズムによって順次予測して補修を行う方法が挙げられる。
【0177】
上述のような補修によって得られた信号波形は、全般的に定常な正弦波であり、グリッド縞成分を非常によく表している成分である。
【0178】
しかしながら、上記の信号波形(グリッド縞成分の信号波形)は、もともと上記式(2)で示される係数(a1,b1,a1)による狭いスパンのFIRフィルタリングの結果であり、上記図1に示したようなフィルタの応答特性を有し、グリッド縞成分以外の画像成分をかなり多く含んでいるものである。
【0179】
そこで、本実施の形態では、上記の信号波形に対して、さらに、グリッド縞の空間周波数fm近辺の成分のみを抽出するフィルタリングを施す。このフィルタリングは、上述したような操作により、既に非定常な成分が補修された成分に対して施されるものであり、当該フィルタリングによるリンギング等のアーチファクトが発生することはない。
【0180】
上記のフィルタリング後のグリッド縞成分の信号に対して、上述した包絡線作成を行った際、非常に小さな値(“0”に近い値)が観測された部分が存在した場合、この部分は、元々グリッド縞成分が何らかの理由(例えば、X線が完全に遮断されている、又はセンサがサチュレーションを起こしている等)で観測されなかった部分であり、グリッド縞成分が元々存在しない部分である。したがって、この部分に関しては、その情報を記録しておき、後段のフィルタリングの後に“0”に置き換える。この処理の結果を、グリッド縞成分として、対象画像信号から差し引く。
【0181】
本実施の形態では、対象画像信号から順次対象とするラインデータを1ラインづつ取り出しながら、グリッド縞成分の抽出処理を実行するが、1ラインデータを取り出すときに、その前後の数ラインデータの平均を求め、すなわち画像成分を弱めてから、又はグリッド縞成分を強調してから、グリッド縞成分を抽出することも可能である。
【0182】
上記のことは、通常グリッド縞とセンサは、ほぼ平行に配置されており、あるラインのグリッド縞と、その近辺のラインのグリッド縞との各成分は、非常に酷似しているからである。
【0183】
したがって、本実施の形態の他の形態として、上記の非常に酷似しているという特徴を利用し、グリッド縞成分の抽出のための計算処理回数を減らすために、処理するラインを間引き、あるラインで抽出されたグリッド縞成分を、その近辺のラインのグリッド縞成分とする。すなわち、グリッド縞成分が抽出されたラインの近辺のラインについてはグリッド縞成分の抽出処理を行なわず、上記のあるラインで抽出されたグリッド縞成分を用いて、その近辺のラインデータからの差し引き処理を行なうこともできる。
【0184】
尚、上述の間引きが可能であるか否かを判断するために、上述した第1処理ステップにおいて、グリッド縞の空間周波数を測定する際に、サンプルされた前後のライン若しくはサンプルされたライン同士のグリッド縞の位相差を調べ、グリッド縞がセンサに対して傾いていないことを確認する。
【0185】
また、本実施の形態の他の形態としては、上述のようにして、グリッド縞成分を対象画像信号から除去する場合に、信号強度等を検出することで、対象画像信号における照射野を認識し、当該照射野内部の画像データに対してのみ、上述のグリッド縞成分の除去処理を行なうようにしてもよい。
【0186】
また、上述したようなグリッド縞成分の除去処理に用いるグリッド縞成分の抽出をX線動画を構成する全てのフレーム画像に対して実行すると多くの時間を必要とし、実際には、全てのフレーム画像に当該抽出処理を実行することは実時間では不可能であるため、本実施の形態では、X線動画を構成する複数のフレーム画像の中の選択フレーム画像(対象フレーム画像)について当該抽出処理を行い、これにより取得したグリッド縞成分を画像として保持し、対象フレーム画像に近隣の時間のフレーム画像に対して、同じグリッド縞成分を用いたグリッド縞成分除去処理を実行する。
【0187】
ところで、例えば、固体撮像素子によりX線画像を取得する場合、複数の画素を配列してなる当該固体撮像素子特有の問題として、欠陥画素の問題がある。画像情報の冗長性(空間的に低周波成分を主成分とする)から、欠陥画素が少量であれば、その周辺画素値からの平均的な補間により、殆どの場合、欠陥画素についての修復(補正)が可能である。
【0188】
しかしながら、一般的には、欠陥画素周辺の統計的な性質により、予測が必要となってくる。例えば、本実施の形態のように、グリッド縞がナイキスト周波数の50%以上となると、平均補間では予測が逆転してしまう。
【0189】
図4は、1次元において、任意の点を欠陥画素とし、その両側の2点の画素の平均で補間する場合の、フィルタリングとしての応答関数を示したものである。
上記図4では、空間周波数を横軸で表している。上記図4に示すように、空間周波数が低く、ナイキスト周波数の50%以下であれば、応答は“正”、すなわち位相が反転しない。これに対して、ナイキスト周波数の50%以上となると、位相が反転し、期待される補間結果が得られない。
【0190】
図5は、欠陥画素補間の一例を示したものである。
上記図5において、黒丸点は、正常な画素から得られた画素値を表し、矢印で示す点(「欠陥画素位置」)は、データが得られていない欠陥画素を表している。また、上記図5は、グリッド縞が映り込んでいることにより、それぞれの画素データ(黒丸点で示すデータ)が細かく振動している状態を示している。
また、上記図5の「A:平均による補間値」と指している白丸点は、従来の平均補間により得られた画素値であり、同図の「B:理想的な補間値」と指してある白丸点は、グリッド縞を考慮した補間値である。
【0191】
本実施の形態では、上記図5の「B:理想的な補間値」で示される理想的な補間値を得るため、次の2つの方法を実施する。
(方法1:線形予測の方法)
上記図5において、欠陥画素位置のデータを、その周辺の画素から線形予測して求める。
(方法2)
上述したグリッド縞の除去処理により、元画像信号からグリッド縞成分を除去することで、ナイキスト周波数の50%以下の主成分を無くした状態で、従来の方法である平均による補間処理を行なう。
【0192】
以下に、(方法1)である線形予測の方法について、その概要を説明する。
【0193】
まず、処理対象の画像データ(画素データ)として、
データ系列{Xn,Xn-1,Xn-2,・・・,Xn-p
が与えられ、“n”におけるデータXnが、
【0194】
【数10】
Figure 0004746761
【0195】
なる差分方程式(9)で表されるものとする。
上記式(9)において、“εn”は白色雑音系列を表し、“ai{i=1,・・・,p}”は線形予測係数を表す。このような系列を「自己回帰過程(AR過程)Xn」と呼ぶ。
【0196】
上記式(9)を、遅延演算子Z-1を用いて書き直すと、
【0197】
【数11】
Figure 0004746761
【0198】
なる式(10)となる。
【0199】
但し、上記式(10)は、
【0200】
【数12】
Figure 0004746761
【0201】
なる式(10´)で表されるため、AR過程Xnは、パルス伝達関数1/A(z-1)を有する線形フィルタの入力εnに対する出力であると定義(スペクトル推定)できる。
【0202】
また、上記式(9)は、線形予測係数ai{i=1,・・・,p}が、信頼できるデータ系列から求まれば、(n−1)点目の画素データから、n点目の画素データが予測可能であることを示している。
【0203】
線形予測係数ai{i=1,・・・,p}の予測は、装置或いはシステムが定常であると過程して、最尤推定(最小2乗推定)を用いれば行える。すなわち、εnのパワー(分散)を最小にするものを求めることができる。εnは最小2乗推定によって得られた誤差であるため、その予測次数に対応する以下の相関成分を持たない。 したがって、必要十分な次数pで予測されて得られた予測誤差εnは式9で定義したように白色雑音となる。
【0204】
予測誤差εnの分散は、2乗平均(平均値“0”)であるため、当該平均を表す関数E[*]は、
【0205】
【数13】
Figure 0004746761
【0206】
なる式(11)で表される。
【0207】
上記式(11)において、
R(τ)=E[Xmm+τ](共分散関数:covariance)
であり、最小値を求めるために両辺を係数akで微分して“0”とおくと、
【0208】
【数14】
Figure 0004746761
【0209】
なる連立方程式(12)が得られる。これは、正規方程式若しくはYule−Walker方程式と呼ばれるものである。
【0210】
実際には、自己相関R(*)の演算は、全ての画素点で行うことなく、限られた(与えられた)画素数で演算した推定値を用いる。
例えば、高速算法であるLevinsonアルゴリズムを用いるが、Burgアルゴリズムを用いるようにしてもよい。このBurgアルゴリズムは、さらに少ない画素数のデータで共分散(自己相関)を直接計算せずに求められる最大エントロピー法によるアルゴリズムである。これらのアルゴリズムでは、予測誤差が正規分布であり画素数が多ければ数学的には一致するが、画素数が少ない場合、Burgアルゴリズム(最大エントロピー法によるアルゴリズム)が有利である。
【0211】
上述のような演算により得られる係数akを用いて、欠陥画素の前後の画素から予想される画素データを求める。
【0212】
[第1の実施の形態]
本発明は、例えば、図6に示すようなX線画像取得装置100に適用される。
【0213】
<X線画像取得装置100の全体構成及び動作>
本実施の形態のX線画像取得装置100は、医療用(画像診断等)のX線動画を取得するための装置であり、上記図1に示すように、X線を被写体102(ここでは人体)に対して発生するX線発生部101と、被写体102からの散乱X線を除去するためのグリッド103と、被写体102を透過したX線量の分布を検出する面状のX線センサ104と、X線発生部101のコントローラ105(CONT)と、X線センサ104から出力される電気信号をディジタルデータに変換するアナログ/ディジタル(A/D)変換器106と、A/D変換器106から出力されるディジタルデータをフレーム画像データとして一旦蓄積するメモリ107と、X線を放射しない状態での撮影により取得されたディジタルデータを記憶するメモリ108と、メモリ107内のフレーム画像データに対してメモリ108のデータを用いた演算処理を施す演算器109と、演算器109での演算処理後のフレーム画像データの変換テーブル(参照テーブル:Look UpTable、以下、「LUT」とも言う)110と、X線センサ104を構成する画素毎のゲインのばらつきを補正するためゲインパタンデータを記憶するメモリ111と、LUT110から出力される変換後のフレーム画像データに対してメモリ111のゲインパタンデータを用いた演算処理を施す演算器112と、演算器112での演算結果後のフレーム画像データを一旦記憶するメモリ113と、X線センサ104固有の欠陥画素に関しての情報(欠陥画素位置情報等)を記憶するメモリ114と、メモリ114内の情報を用いてメモリ113に記憶されたフレーム画像データに補正処理を施す補正処理部115と、メモリ113内の補正処理後のフレーム画像データの読み出しを制御するメモリ転送制御部142と、メモリ転送制御部142の制御によりメモリ113から読み出されたフレーム画像データを記憶するメモリ143と、メモリ143内のフレーム画像データに対してグリッド縞に関する情報を検出するグリッド縞検出部116と、グリッド縞検出部116で得られた情報に基いてメモリ143内のフレーム画像データからグリッド縞成分を抽出するグリッド縞成分抽出部117と、グリッド縞成分抽出部117で抽出されたグリッド縞成分を一時的に記憶するメモリ118と、メモリ118内のグリッド縞成分の読み出しを制御するメモリ転送制御部140と、メモリ転送制御部140の制御によりメモリ118から読み出されたグリッド縞成分を記憶するメモリ141と、メモリ113内のフレーム画像データからメモリ141内のグリッド縞成分を差し引く演算器119と、演算器119での演算結果(グリッド縞成分除去後のフレーム画像データ)を一旦記憶するメモリ120と、メモリ120内のフレーム画像データに画像処理を施して出力する画像処理部121とを備えている。
【0214】
上述のようなX線画像取得装置100において、X線発生部101のコントローラ105は、不図示の操作部から操作者により発生トリガがかけられると、X線発生部101でのX線放射を開始する。
これにより、X線発生部101は、人体である被写体102に対して、X線を放射する。
【0215】
X線発生部101から放射されたX線は、被写体102を透過して、被写体102からの散乱X線を除去するグリッド103を介して、X線センサ104へと到達する。
【0216】
X線センサ104は、被写体102を透過したX線量の分布を検出する面(受像面)上に、当該X線強度を検出する複数の検出器(画素)がマトリックス状に配置された構成とされており、このマトリックス状に配置された複数の検出器(画素)により得られたX線強度に対応する電気信号を出力する。
【0217】
X線センサ104としては、例えば、次のようなセンサ(1)及び(2)を適用可能である。
センサ(1):
X線強度を一旦蛍光に変換し、その蛍光をマトリックス状に配置されている複数の検出器で光電変換して検出するようになされたセンサ。
センサ(2):
特定の物体に放射されたX線が該物体内で光電変換されて遊離した自由電子を、一様な電界によって引き付けて電荷分布を構成し、その電荷分布を、マトリックス状に配置された複数の電荷検出器(キャパシタ)によって電気信号に変換するようになされたセンサ。
【0218】
A/D変換器106は、X線センサ104から出力された電気信号をディジタル化して出力する。
具体的には、A/D変換器106は、X線発生部101のX線の放射、若しくはX線センサ104の駆動に同期して、X線センサ104から出力される電気信号を順次ディジタルデータに変換して出力する。
【0219】
尚、上記図6では、1つのA/D変換器106を設ける構成としているが、例えば、複数のA/D変換器を設け、これらを並行に動作させるように構成してもよい。これにより、ディジタル変換速度を早めることができ、効率よく処理を進めることができる。
【0220】
A/D変換器106から出力されたディジタルデータは、フレーム画像データとしてメモリ107に一旦記憶される。
したがって、メモリ107には、X線センサ104を構成する複数の画素に対応する複数の画素データの集合であるディジタル画像データ(フレーム画像データ)が記憶される。
【0221】
メモリ108には、X線を放射しない状態での撮影により取得されたディジタルデータが予め記憶されている。このディジタルデータは、メモリ107に記憶されたフレーム画像データから、X線センサ104特有のオフセット的に存在する固定パタンノイズを除去するためのデータである。したがって、予め、X線画像取得装置100において、X線発生部101によるX線を放射しない状態で撮影を行ない、これにより取得されたディジタルデータを画像データとして、メモリ108に記憶させておく。
【0222】
演算器109は、メモリ107に記憶されたフレーム画像データ(被写体102を透過したX線により得られた画像データ)を構成する複数の画素データのそれぞれに対して、メモリ108に記憶された画像データ(X線なしの撮影により得られた固定パタンノイズの画像データ)を構成する複数の画素データの中の対応する位置の画素データを減算する処理を実行する。
【0223】
LUT110は、演算器109での処理後のフレーム画像データを、対数に比例した値に変換して出力する。
【0224】
メモリ111には、LUT110による変換後のフレーム画像データに対して、X線センサ104を構成する各画素のゲインのばらつきを補正するためゲインパタンデータが記憶されている。このため、予め、X線画像取得装置100において、被写体102がない状態でX線撮影を行ない、これにより得られた画像データから、メモリ108に記憶されたディジタルデータを用いて固定パタンノイズを除去し、さらにLUT110によって対数値に比例した値に変換して得られたデータを、ゲインパタンデータとしてメモリ111に記憶させておく。
【0225】
演算器112は、LUT110から出力されたフレーム画像データから、メモリ111のゲインパタンデータを減算(対数変換されていなければ除算に相当)して出力する。
この演算器112での減算処理されたフレーム画像データは、メモリ113に一旦記憶される。
【0226】
尚、メモリ111に記憶させるゲインパタンデータに使用する画像データの取得の際に、グリッド103を装着した状態で撮影を行なえば、これにより得られるゲインパタンデータ自体に、グリッド縞が写り込むことになる。予想されるのは、演算器112により、対象画像データからゲインパタンデータを減算した際に、被写体102に写り込んだグリッド縞自体がゲインの変動に近いものであることにより、グリッド縞成分が除去される可能性があることである。しかしながら、被写体102なしの撮影で得られたゲインパタンデータは、画像取得毎(実際の撮影毎)に毎回取得される可能性は少なく、殆どの場合、1日一回、或いはさらに低い頻度で得られるものであり、また、X線発生部101とX線センサ104の位置関係は撮影毎に変化する可能性があるため、グリッド縞成分は上記の減算によって除去されない。また、上記位置関係が不変であっても、被写体102ありの撮影と、被写体102なし撮影なしの撮影とでは、一般にX線の散乱線量や線質が異なるため、グリッド縞のコントラストが異なり、グリッド縞成分は減算によって除去されない。
何れの場合にもグリッド103方向が一致していれば、グリッド縞の空間周波数が変動することはない。好適には、ゲインパタンデータを取得する場合には、グリッド103自体を取り外して、グリッド縞がゲインパタンデータに含まれないようにすべきである。
【0227】
メモリ114には、X線センサ104固有の欠陥画素に関しての情報(欠陥画素位置情報等)が記憶される。
具体的には例えば、一般に平面状のX線センサは、半導体製造技術で製造されるが、その歩留まりは100%ではなく、製造工程での何らかの原因により、複数の検出器(画素)の内のいくらかは、検出器としての意味を無さない、すなわちその出力が意味を持たない欠陥画素である。ここでは、製造工程において、或いは不図示の手段によって、X線センサ104を予め検査し、その結果得られた欠陥画素の位置情報をメモリ114に記憶させておく。
【0228】
補正処理部115は、メモリ114に記憶された欠陥画素の位置情報により、メモリ113に記憶されたフレーム画像データを構成する複数の画素データの中の欠陥画素データを補正し、当該補正後の画素データを、再びメモリ113の該当する位置に記憶させる。
【0229】
メモリ転送制御部142は、後述するグリッド縞成分抽出部117から与えられる演算終了信号に基づいて、メモリ113内のフレーム画像データ(補正処理部115による補正処理後の画像データ)の読み出しを制御する。
メモリ143は、メモリ転送制御部142によりメモリ113から読み出されたフレーム画像データを記憶する。
【0230】
グリッド縞検出部116は、メモリ143内のフレーム画像データ(補正処理部115による補正処理後の画像データ)に対して、グリッド縞の解析を行い、グリッド縞の空間周波数fm、及びグリッド縞の角度θを検出して出力する。
【0231】
グリッド縞成分抽出部117は、メモリ143内のフレーム画像データ(補正処理部115による補正処理後の画像データ)を読み出し、当該読出画像データから、グリッド縞検出部116で得られたグリッド縞の空間周波数fm及びグリッド縞の角度θに基いて、グリッド縞成分を抽出し、その後、当該抽出処理終了を示す演算終了信号を、メモリ転送制御部142及びメモリ転送制御部140のそれぞれに対して出力する。
グリッド縞成分抽出部117で得られたグリッド縞成分は、メモリ118に一旦記憶される。
【0232】
メモリ転送制御部140は、グリッド縞成分抽出部117から与えられる演算終了信号に基づいて、メモリ118内のグリッド縞成分の読み出しを制御する。
メモリ141は、メモリ転送制御部140によりメモリ118から読み出されたグリッド縞成分を記憶する。
【0233】
演算器119は、メモリ113内のフレーム画像データ(補正処理部115による補正処理後の画像データ)から、メモリ141に記憶されたグリッド縞成分を差し引く。
演算器119によりグリッド縞成分が差し引かれたフレーム画像データは、メモリ120に一旦記憶される。
【0234】
画像処理部121は、メモリ120内のフレーム画像データに対して、観察者が観察しやすいように画像処理を施す。
ここでの画像処理としては、例えば、次のような処理が挙げられる。
・フレーム画像からのランダムノイズの除去処理。
・フレーム画像を表示した際に、観察者が見やすい濃度値になるように、階調を変換する、或いは詳細部分を強調する。
・フレーム画像から観察者にとって不要な部分を切り取り、フレーム画像の情報量を減らす、或いはフレーム画像情報を圧縮する。
【0235】
画像処理部121での処理後のフレーム画像データは、不図示の手段により、外部或いはX線画像取得装置100内において、表示部への表示や、記憶部若しくは記憶媒体への格納、記録媒体への記録、或いは解析処理等が施される。
【0236】
<X線画像取得装置100の特徴とする構成及び動作>
図7(a)〜(e)は、X線画像取得装置100において、特に、メモリ転送制御部140及びメモリ転送制御部142によるデータ読出及び当該読出データに対する処理のタイミングに着目して図示したものである。
【0237】
上記図7(a)は、X線センサ104で順次取得されるフレーム画像データがメモリ113へ記憶されるタイミングを示したものである。メモリ113へ順次記憶されたフレーム画像データは、演算器119により、メモリ141内のグリッド縞成分の除去処理が施される。
【0238】
上記図7(b)は、グリッド縞成分抽出部117が出力する演算終了信号を示したものである。上記図7(b)に示されるように、当該演算終了信号は、ハイレベル信号で、グリッド縞成分の抽出を終了(演算終了)したことを示す。
【0239】
上記図7(c)は、グリッド縞成分抽出部117が出力する演算終了信号に基づいた、メモリ転送制御部142の動作タイミングを示したものである。上記図7(c)に示されるように、メモリ転送制御部142は、グリッド縞成分抽出部117からの演算終了信号により、グリッド縞成分の抽出を終了したタイミングであれば(当該演算終了信号がハイレベル信号である場合)、メモリ113内のフレーム画像データをメモリ143に対して読み出す。
【0240】
上記図7(d)は、グリッド縞検出部116及びグリッド縞成分抽出部117の動作タイミングを示したものである。上記図7(d)に示されるように、メモリ143へフレーム画像データが転送されると、グリッド縞検出部116及びグリッド縞成分抽出部117は動作し、この結果得られたグリッド縞成分が、メモリ118へ記憶される。この動作が終了したタイミングで、グリッド縞成分抽出部117は、上記図7(b)に示したようなハイレベルの演算終了信号を出力する。
【0241】
上記図7(e)は、グリッド縞成分抽出部117が出力する演算終了信号に基づいた、メモリ転送制御部140の動作タイミングを示したものである。上記図7(e)に示されるように、メモリ転送制御部140は、グリッド縞成分抽出部117からの演算終了信号により、グリッド縞成分の抽出を終了したタイミングであれば(当該演算終了信号がハイレベル信号である場合)、すなわちメモリ118へグリッド縞成分が記憶されたタイミングであれば、メモリ118内のグリッド縞成分をメモリ141に対して読み出す。これにより、メモリ141内のグリッド縞成分が更新されることになる。
【0242】
すなわち、本実施の形態では、上記図7(a)〜(e)に示すように、X線動画を構成する全てのフレーム画像に対してグリッド縞成分の抽出処理を行うのではなく、1フレーム画像に対するグリッド縞成分の抽出処理が終了したタイミングで、次のグリッド縞成分の抽出処理を実行し、その間のフレーム画像に対して、直前に抽出された同一のグリッド縞成分(メモリ141に記憶されたグリッド縞成分)を用いたグリッド縞成分の除去処理を行う。このような動作は、一般的に、連続するフレーム画像では、X線発生部101の位置や、そのX線エネルギー、或いは被写体102の位置等がほぼ不変であるため、グリッド103による縞成分も殆ど変動がないことにより、有効となる動作である。
【0243】
尚、本実施の形態では、メモリ転送制御部142により、1フレーム画像に対するグリッド縞成分の抽出処理が終了したタイミングで、メモリ143へ次の抽出処理を行うフレーム画像を取り込むように構成したが、これに限られることはなく、例えば、他の任意のタイミング制御機構を用いて、定期的にメモリ143へフレーム画像を取り込み、当該フレーム画像に対するグリッド縞成分の抽出処理を行うようにしてもよい。
【0244】
また、本実施の形態では、X線動画を対象としているが、例えば、静止画を対象として、以前に抽出したグリッド縞成分を、今回取得した静止画に対するグリッド縞成分の除去処理に用いるようにしてもよい。この場合にも、グリッド縞成分の抽出に要する負担を軽減することができる。
【0245】
<X線画像取得装置100の他の具体的な構成及び動作>
ここでは、上述したX線画像取得装置100において、その他具体的な説明が必要と思われる、次のような構成部分について具体的に説明する。
(1)メモリ118に記憶されたグリッド縞成分の画像データ
(2)補正処理部115による欠陥画素の補正処理
(3)グリッド縞検出部116及びグリッド縞成分抽出部117によるグリッド縞成分の検出及び抽出処理
【0246】
(1)メモリ118に記憶されたグリッド縞成分の画像データ
メモリ118に記憶されたグリッド縞成分の画像データは、グリッド縞成分が重畳されたフレーム画像データから減算されるデータであるが、本実施の形態のように、メモリ118に記憶されるデータを減算後の対象画像データと対応づけて別途記憶する等の構成にすれば、グリッド縞が除去されたフレーム画像データから、元のグリッド縞が重畳されたフレーム画像データを再現できる。これにより、例えば、グリッド除去処理において、何らかの不具合によりフレーム画像データが損傷を受けた場合であっても、上記の再現処理により、元のフレーム画像データに戻すことが可能となる。
【0247】
(2)補正処理部115による欠陥画素の補正処理
補正処理部115は、以下に説明するような処理を、例えば、マイクロプロセッサを用いたソフトウエアにより実行する。
【0248】
図8〜図11は、X線センサ104における画素欠陥の分布の例を示したものである。
ここでは、画素欠陥は基本的に1画素の幅でしか存在しないものとする。これは、大きなかたまりで隣接する複数の画素欠陥を有するX線センサは、欠陥画素の補修が困難であるので一般的に用いないためである。
【0249】
上記図8〜図11において、それぞれの各マス目は画素を表し、黒いマス目は欠陥画素を表している。また、図の下部には、グリッド103のグリッド縞の方向(縦方向)を図示している。
【0250】
まず、上記図8に示す欠陥画素は基本的な画素欠陥であり、同図に示すように、欠陥画素(黒マス目)の周囲に、8個の隣接する画素成分a1〜a8が存在している。
【0251】
上記図8に示す欠陥画素が存在し、グリッド縞成分が存在する対象画像において、当該グリッド縞成分の空間周波数軸上の信号分布を模式的に示したものが、図12である。
上記図12において、横軸は、対象画像の横方向の空間周波数軸uを表し、縦軸は、対象画像の縦方向の空間周波数軸vを表し、空間周波数軸u及び空間周波数軸vの両軸に対して、画素ピッチの逆数である「サンプリング周波数」とその半値である「ナイキスト周波数」を示している。
【0252】
グリッド縞は、対象画像の横方向に振動しており、縦方向には一定であるので、グリッド縞の成分は、上記図12に示すように、空間周波数軸u上に存在することになる(同図白丸参照)。
【0253】
通常の画像では、その主成分が、ナイキスト周波数の、さらに半値以下の空間周波数領域に分布しており、グリッド縞成分が存在しなければ、欠陥画素の任意の両側の画素値の平均により補間できる。これは、当該補間の空間スペクトルに与える影響が、例えば、上記図4で示したフィルタリングの応答関数(特性)を示すためである。
【0254】
したがって、上記図8に示す欠陥画素の補正の場合、縦方向にはグリッド縞成分がないことにより、縦方向の画素の平均、すなわち画素成分a2及画素成分a6の平均、或いは何れか一方の画素成分により、ほぼ満足な補正が可能となる。
【0255】
上記図9に示す欠陥画素は、横長に連結する画素欠陥である(同図中、黒マス目参照)。このような形状の欠陥画素の場合も、上記図8に示した欠陥画素と同様に、各画素の上下方向がグリッド縞に並行する方向であるため、対象欠陥画素の上下の画素成分により、ほぼ満足な補正が可能となる。
【0256】
上記図10に示す欠陥画素は、縦長に連結する画素欠陥である(同図中、黒マス目参照)。このような形状の欠陥画素の場合、連結欠陥画素の上端の欠陥画素或いは下端の欠陥画素以がいについては、対象画素の上下に信頼できる値を有する画素が存在しない。このような状態の欠陥画素に対して、横方向の単純な平均等で欠陥補正を行えば、上記図5を用いて説明したような、期待しない値の補正結果が得られてしまう。
【0257】
そこで、本実施の形態では、対象欠陥画素の右又は左側に連なる正常な画素成分を以って、上記式(12)で示したような連立方程式を利用し、係数ak(k=1〜P)を、対象欠陥画素の左右から求める。
このとき、例えば、使用する画素数を20程度とし、次数kを5程度とする。
【0258】
そして、係数akを以って、上記式(9)により対象欠陥画素値Xnを予測し、この結果得られた全ての欠陥画素値Xnの平均を求める。これにより、上記図5に示したような「B:理想的な補間値」が得られる。
【0259】
尚、本実施の形態では、上記式(12)を用いて、係数ak(k=1〜P)を求めるようにしているが、これに限られることはなく、例えば、最大エントロピー法と呼ばれるアルゴリズム等を用いるようにしてもよい。
【0260】
上記図11に示す欠陥画素は、上記図9に示した欠陥画素の状態、及び上記図10に示した欠陥画素の状態を重ね合わせた状態の欠陥画素である。この状態の欠陥画素の中で問題となる画素は、縦方向の連結欠陥画素と、横方向の連結欠陥画素との交わる部分の画素(十字に重なった部分の画素)、すなわち画素成分a4,a12,a18,a24で囲まれた欠陥画素である。
【0261】
上記図11に示すような状態の欠陥画素の補正は、横方向に連なった線状の欠陥画素の補正は、上下画素成分の平均で行い、縦方向に連なった線状の欠陥画素の補正は、上述したような連立方程式を用いて行う。
具体的には、次の3つの方法▲1▼〜▲3▼が挙げられるが、何れの方法を用いても、ほぼ同じ結果が得られる。
【0262】
▲1▼画素成分a4,a12,a18,a24に囲まれた欠陥画素の補正を、上下の欠陥補正値(補正された欠陥画素の値)の平均値を用いて行なう。
▲2▼画素成分a4,a12,a18,a24に囲まれた欠陥画素の補正を、欠陥補正値である左右画素の値を用いて、上記式(12)の連立方程式を解くことにより行う。
▲3▼画素成分a4,a12,a18,a24に囲まれた欠陥画素の補正を、▲1▼の結果と▲2▼の結果の平均値を用いて行なう。
【0263】
以上説明したような処理を実行することで、メモリ113に記憶されたフレーム画像データを構成する複数の画素データの中の欠陥画素データが補正される。
【0264】
(3)グリッド縞検出部116及びグリッド縞成分抽出部117によるグリッド縞成分の検出及び抽出処理
【0265】
グリッド縞検出部116は、メモリ113内に記憶されたフレーム画像データの一部を読み出し、当該読出データにより、フレーム画像データに含まれるグリッド縞のスペクトルを調べ、当該グリッド縞の空間周波数fm及び角度θを検出する。このグリッド縞の空間周波数fm及び角度θ(以下、「角度η」とも言う)の情報は、後段のグリッド縞成分抽出部117において、グリッド縞成分の抽出処理に使用される。
【0266】
図13(a)〜(d)は、グリッド縞の空間周波数fm及び角度θの検出処理を説明するための図である。
【0267】
上記図13(a)は、対象となるフレーム画像全体のイメージを示したものであり、“L1”乃至“L6”は、対象フレーム画像上部からのライン位置を表している。グリッド縞検出部116は、ラインL1〜L6をフーリエ変換した結果により、グリッド縞の空間周波数fmを測定する。このとき、グリッド縞検出部116は、グリッド縞のスペクトルを検出する際、当該検出能力を上げるために、各ラインL1〜L6の前後数ラインの平均(又はスペクトルの平均)を用いるようにしてもよい。
【0268】
上記図13(b)〜(d)はそれぞれ、ラインL1におけるフーリエ変換結果を表したものである。
すなわち、上記図12(b)は、振幅スペクトル(又はパワースペクトル)を表し、同図(c)は、フーリエ変換結果の余弦波の係数である実数部の値を表し、同図(d)は、正弦波の係数である虚数部の値を表している。
【0269】
図14は、グリッド縞検出部116の上記の処理をフローチャートによって示したものである。
【0270】
先ず、グリッド縞検出部116は、スペクトルの平均を求めるための変数cumulationをクリアする(ステップS201)。
また、グリッド縞検出部116は、スペクトルの平均を求める際の対象とライン数のカウンタ(変数)nをクリアする(ステップS202)。
また、グリッド縞検出部116は、上記図13(a)に示したラインL1〜L6の中から処理対象ライン(選択ライン)を選択する変数iを“1”に初期設定する(ステップS203)。これにより、最初の処理では、ラインL1が対象ラインとして選択され処理されることになる。
【0271】
そして、グリッド縞検出部116は、次のステップS205〜ステップS215の処理を、対象フレーム画像のラインL1〜L6の全てのラインについて実行し終えたか否かを判別する(ステップS204)。
この判別の結果、処理終了した場合のみ、後述するステップS216へ進み、未だ処理終了していない場合には、次のステップS205からの処理を実行する。
【0272】
ステップS204の判別の結果、処理未終了の場合、先ず、グリッド縞検出部116は、対象フレーム画像のラインL1〜L6の中から、変数iで示されるラインLiを選択し、そのデータ(ラインデータLi)を取得する(ステップS205)。
【0273】
次に、グリッド縞検出部116は、ステップS205で取得したラインデータLiに対して、高速フーリエ変換等のフーリエ変換処理を施す(ステップS206)。
【0274】
次に、グリッド縞検出部116は、ステップS206でのフーリエ変換結果(空間周波数領域のデータ)から、パワースペクトル(又は振幅スペクトル)を取得する(ステップS207)。
【0275】
次に、グリッド縞検出部116は、ステップS207で取得したパワースペクトルにおいて、グリッド縞を示す有意なスペクトル(ピーク値)が存在するか否かを判別する(ステップS208)。
【0276】
具体的には例えば、まず、グリッド縞を発生させる原因となるグリッド鉛の絶対的な空間周波数は、グリッド103を設置した段階で既知であることにより、その周波数を“fg”として用いることで、ステップS208での判別処理を正確に行える。
【0277】
すなわち、X線センサ104のサンプリングピッチを“Ts”とすると、グリッド縞の発生する大まかな空間周波数fmは、
【0278】
【数15】
Figure 0004746761
【0279】
なる条件式(13)により特定できる。
【0280】
このとき、上記式(13)において、▲3▼に示される条件を満たしている場合には、▲2▼で得られた空間周波数fm´を用い、▲3▼に示される条件を満たしていない場合には、「J←J+1」として▲1▼を実行する。
【0281】
グリッド縞の正確な空間周波数fmは、上記式(13)で得られる“fm´”の近辺に存在するはずであり、ピーク値(グリッド縞を示す有意なスペクトル)が存在するか否かを判断する際に、当該近辺のみを検索すれば、画像成分やノイズ成分等の影響で異なるピーク値が存在したとしても、その影響を受けることなく、グリッド縞を示す有意なスペクトルであるピーク値の検出を行なえる。
【0282】
また、グリッド103のグリッド鉛の周波数fgは、かなり正確に製造されるものであるが、撮影の際に、グリッド103とX線センサ104との間に任意の距離以上あると、X線発生部101からのX線ビームがコーンビーム状であることにより、当該X線ビームが拡大されてX線センサ104に到達してしまう。このため、正確な空間周波数fmが異なるものになってしまい、簡単に予測することができない。
したがって、上記式(13)で得られる“fm´”近辺の周波数のうち、ピーク値を示す周波数を、空間周波数fmとして求める。
【0283】
但し、上記の場合、求められたピーク値に相当するものが、実際に安定して存在する有意なピーク値であるか否かを判断する必要がある。この判断は、通常ノイズレベルを基準に行う。このノイズレベルとしては、予め測定されるものでも構わないし、スペクトルの高域のピーク値以外の成分の平均値を代用するようにしてもよい。例えば、ピーク値を示した近隣のスペクトル値のパワースペクトルの総和(又は平均値)と、ノイズレベルとの比が、10程度以上あれば、通常有意な安定したピーク値であると判断する。
【0284】
上述のようなステップS208の判別の結果、有意なピーク値が存在しない場合、グリッド縞検出部116は、次のラインを処理するために、変数iをカウントアップして(ステップS217)、再びステップS204へと戻り、これ以降の処理ステップを繰り返し実行する。
【0285】
一方、ステップS208の判別の結果、有意なピーク値が存在する場合、グリッド縞検出部116は、当該ピーク値を示す空間周波数をPiとして(ステップS209)、これを変数cumulationに対して加算する(ステップSs210)。
【0286】
また、グリッド縞検出部116は、グリッド縞の位相を求め、変数θn及び変数Mnに対して、当該位相及び変数iに示されるライン位置を設定し(ステップS211〜ステップS214)、変数nをインクリメントする(ステップS215)。
その後、グリッド縞検出部116は、次のラインを処理するために、変数iをカウントアップして(ステップS217)、再びステップS204へと戻り、これ以降の処理ステップを繰り返し実行する。
【0287】
上述のようにして、全てのラインL1〜L6に対してステップS205〜ステップS215の処理を実行し終えると、グリッド縞検出部116は、現在の変数cumulationの値を、現在の変数nの値(有意なピーク値数)で除算することで、平均的なグリッド縞の空間周波数fmを求める(ステップS216)。
【0288】
また、グリッド縞検出部116は、上記図14の処理実行後、ステップS213で得られた変数θi(i=0〜n−1)を、ステップS214でのライン位置Mi(i=0〜n−1)により、平均的なグリッド縞の角度η(角度θ)を求めることに用いる。
【0289】
すなわち、グリッド縞検出部116は、i番目のラインLiの位相θiと、(i+1)番目のラインL(i+1)の位相θi+1との位相差(θi−θi+1)によるグリッド103の位置の差を、グリッド縞の空間周波数fmを以って、
[(θi−θi+1)/2π]/fm
なる式により求め、ラインLiとラインL(i+1)のライン差を、
(Mi+1)−Mi
なる式で求め、これらの結果を以って、グリッド縞の角度ηを、
【0290】
【数16】
Figure 0004746761
【0291】
なる式(14)により求める。
【0292】
そして、グリッド縞検出部116は、上記式(14)により得られた角度ηが異常に傾いていない場合、グリッド縞を抽出する処理を数ライン毎に実行し、これに対して当該角度ηが異常に傾いている場合、グリッド縞を抽出する処理を1ライン毎を実行する。
【0293】
尚、上述したグリッド縞検出部116が実行する処理では、グリッド縞の方向(縦又は横方向)が既知であることを前提としたが、例えば、グリッド縞の方向も不明である場合、例えば、予め縦方向と横方向の双方に対して同様の処理を実行し、有意なピーク値が検出された方向を、グリッド縞に略直交する方向とする。
【0294】
以上説明したような処理をグリッド縞検出部116が実行することで、グリッド縞の空間周波数fm及び角度θ(角度η)が求められる。
グリッド縞成分抽出部117は、グリッド縞検出部116により得られたグリッド縞の空間周波数fm及び角度θ(角度η)を用いて、実際にメモリ143に記憶されている、グリッド縞成分を含む対象フレーム画像データから、グリッド縞成分を抽出し、そのグリッド縞成分をメモリ118ヘ格納する。
【0295】
図14は、グリッド縞成分抽出部117でのグリッド縞成分抽出処理をフローチャートによって示したものである。
【0296】
先ず、グリッド縞成分抽出部117に対しては、処理パラメータとして、グリッド縞検出部116にて得られたグリッド縞の角度θ及びグリッド縞の空間周波数fmが与えられる。
グリッド縞成分抽出部117は、上記処理パラメータ(グリッド縞の角度θ及びグリッド縞の空間周波数fm)に基いて、以下に説明するステップS300〜ステップS321の処理を実行する。
【0297】
尚、グリッド縞成分抽出部117に対して与えられたグリッド縞の空間周波数fmの値が“0”の場合等は、対象フレーム画像上にグリッド縞が存在しない、すなわちグリッド103を使用せずに撮影が行なわれた場合であるので、この場合、グリッド縞成分抽出部117は、上記図15に示される処理を実行しない。また、例えば、メモリ118には、この場合のグリッド縞成分として“0”データが格納される。或いは、演算器119が機能しないことにより、メモリ120に対して、メモリ113に格納された対象画像データがそのまま格納される。
【0298】
グリッド縞検出部116からグリッド縞成分抽出部117に対して、グリッド縞の角度θ及びグリッド縞の空間周波数fmが与えられると、先ず、グリッド縞成分抽出部117は、上記式(2)を用いて、空間周波数fmから係数a1,a2(又は対称5点フィルタの係数(a2,b2,c2,b2,a2))を求める(ステップS300)。ここで得られた係数に対応するFIRフィルタを「FIR1」とする。
【0299】
次に、グリッド縞成分抽出部117は、上記式(3)を用いて、空間周波数fmから係数a3を求める(ステップS301)。ここで得られた係数に対応するFIRフィルタを「FIR2」とする。
【0300】
次に、グリッド縞成分抽出部117は、空間周波数fmの領域でのFIRフィルタリングを行うために、空間周波数fmを中心とするウインドウ関数を生成する(ステップS302)。
ここでのウインドウ関数としては、例えば、空間周波数fmを中心としたガウス分布形状の関数を適用可能である。
【0301】
次に、グリッド縞成分抽出部117は、グリッド縞の角度θに基いて、対象フレーム画像を構成するラインデータに対してグリッド縞の抽出処理を実行するラインの範囲を決定する(ステップS303〜ステップS305)。
【0302】
具体的には例えば、グリッド縞成分抽出部117は、角度θの基準値を「0.1度」とし、グリッド縞検出部116で得られたグリッド縞の角度θが基準値0.1度よりも大きいか或いは小さいかを判別する(ステップS303)。この判別の結果、角度θが基準値0.1度よりも小さい場合、グリッド縞成分抽出部117は、変数kipに対して「5」を設定することで、5ライン毎に当該処理を省くことを決定する(ステップS304)。一方、角度θが基準値0.1度以上の場合、グリッド縞成分抽出部117は、変数skipに対して「0」を設定することで、全てのラインに対して当該処理を実行することを決定する(ステップS305)。
【0303】
尚、ステップS303〜ステップS305において、例えば、変数skipに対する設定だけではなく、角度θに基き、さらに細かな設定を行なうようにしてもよい。
【0304】
ステップS304又はステップS305の処理後、グリッド縞成分抽出部117は、変数countに対して、ステップS304又はステップS305にて設定が行なわれた変数skipの値を設定することで、変数countの初期化を行なう(ステップS306)。
【0305】
そして、グリッド縞成分抽出部117は、現在の変数countの値が、変数kipの値以上であるか否か、すなわち対象ラインデータに対するグリッド縞の抽出処理を実行すべきであるか否かを判別する(ステップS307)。
この判別の結果、処理実行する場合には、ステップS310からの処理に進み、処理実行でない場合には、ステップS308からの処理に進む。但し、最初に本ステップS307の実行時には、必ず処理実行と判別されるため、次のステップS310へ進む。
【0306】
ステップS307の判別の結果、処理実行の場合(skip≦count)、先ず、グリッド縞成分抽出部117は、メモリ143に格納されている対象フレーム画像データから処理対象となる1ラインのデータ(対象ラインデータ)を取得する(ステップS310)。
【0307】
尚、ステップS310において、対象フレーム画像データから対象ラインデータをそのまま取得するようにしてもよいが、例えば、対象ラインデータの前後数ライン分の平均値(移動平均値)を、実際の処理対象のラインデータとして取得するようにしてもよい。
【0308】
次に、グリッド縞成分抽出部117は、ステップS310で取得した対象ラインデータに対して、ステップS300で係数を決定したFIR1を用いたフィルタリングを施し、ラインバッファ1(不図示)へ格納する(ステップS311)。
ここでの処理により、ラインバッファ1に対しては、グリッド縞成分を含む画像成分のデータが格納される。
【0309】
次に、グリッド縞成分抽出部117は、ラインバッファ1に格納されたラインデータに対して、ステップS301で係数を決定したFIR2を用いたフィルタリングを施し、ラインバッファ2(不図示)へ格納する(ステップS312)。
ここでの処理により、ラインバッファ2に対しては、グリッド縞成分の包絡線を求めるためのデータが格納される。
【0310】
次に、グリッド縞成分抽出部117は、グリッド縞成分の包絡線を求める(ステップS313)。
すなわち、グリッド縞成分抽出部117は、ラインバッファ1内のデータと、ラインバッファ2内のデータを成分とするベクトルの振幅(すなわち2乗和の平方根)を求め、その結果を、ラインバッファ3(不図示)へ格納する。ここでの演算としては、平方根の単調増加性により、平方根を取らない演算であっても適用可能であり、同様の効果が得られる。
【0311】
次に、グリッド縞成分抽出部117は、ラインバッファ3内のデータ、すなわち包絡線データを調査して、その異常データを検出するためのしきい値の上限値th1及び下限値th2を決定する(ステップS314)。
上限値th1及び下限値th2の決定方法としては、様々な方法を適用可能であるが、例えば、平均値と標準偏差値を求め、平均値から標準偏差値のn倍(nは、例えば、“3”程度の値)以上ずれた値を上限値th1及び下限値th2とする方法や、ラインバッファ3内の包絡線データのヒストグラムを求め、その最頻値を中心として上限値th1及び下限値th2を決定する方法等が挙げられる。
【0312】
次に、グリッド縞成分抽出部117は、ラインバッファ3内の包絡線データにおいて、値th1以上若しくは値th2以下のデータを異常データ(画像データが急峻に変動していること等によるデータ)と見なし、その異常データに対応するラインバッファ1内のグリッド縞成分のデータを、当該異常データ周辺のデータから推定して書き換える(ステップS315)。このとき、全体のグリッド縞成分が周期的な変動パタンを示す安定な状態となるように、データ書き換えを行う。
尚、ステップS315の処理については、上記式(7´)等の説明部分で説明したので、ここではその詳細は省略する。
【0313】
次に、グリッド縞成分抽出部117は、ステップS315の処理により、全体的に安定状態となったラインバッファ1内のグリッド縞成分のデータに対して、フーリエ変換処理を施し、グリッド縞成分の空間周波数領域のデータを求める(ステップS316)。
尚、ステップS316での変換処理については、フーリエ変換に限らず、例えば、コサイン変換等の他の直交変換をも適用可能である。
【0314】
次に、グリッド縞成分抽出部117は、ステップS316で取得した空間周波数領域のデータに対して、ステップS302で求めた空間周波数fmを中心とするウインドウ関数によるフィルタリングを施す(ステップS317)。これにより、グリッド縞成分のデータは、より選択的にグリッド縞を表すようになる。
【0315】
次に、グリッド縞成分抽出部117は、ステップS317のフィルタリング処理後のグリッド縞成分のデータに対して、ステップS316の変換の逆変換処理を施し、この結果を、実際のグリッド縞成分のデータとする(ステップS318)。
【0316】
次に、グリッド縞成分抽出部117は、ステップS318で取得したグリッド縞成分のデータを、メモリ118の当該位置へ格納する(ステップS319)。
【0317】
そして、グリッド縞成分抽出部117は、変数countに対して“0”を設定し(ステップS320)、メモリ143の対象フレーム画像データを構成する全てのラインデータについて、ステップS307からの処理を行ったか否かを判別する(ステップS321)。
この判別の結果、処理が終了した場合、グリッド縞成分抽出部117は、上述した演算終了信号を出力し、本処理終了とする。一方、未だ処理が終了していない場合には、再びステップS307へ戻り、以降の処理ステップを繰り返し実行する。
【0318】
上述したステップS307の判別の結果、処理実行でない場合(skip>count)、グリッド縞成分抽出部117は、メモリ118の該当位置に対して、前段で取得したグリッド縞成分のデータをコピーし(ステップS308)、コピーするラインを示す変数countをインクリメントして(ステップS309)、再びステップS307へ戻り、以降の処理ステップを繰り返し実行する。
【0319】
[第2の実施の形態]
本発明は、例えば、図16に示すようなX線画像取得装置400に適用される。
本実施の形態のX線画像取得装置400は、上記図6に示したX線画像取得装置100とは、以下の構成が異なる。
【0320】
尚、上記図16のX線画像取得装置400において、上記図6のX線画像取得装置100と同様に動作する構成部には同じ符号を付し、その詳細な説明は省略する。
【0321】
上記図6に示したX線画像取得装置100では、補正処理部115が、メモリ113内のフレーム画像データに対して、メモリ114内のデータを用いた欠陥画素の補正処理を施すように構成した。これに対して、本実施の形態のX線画像取得装置400では、上記図16に示すように、補正処理部115が、メモリ120内のフレーム画像データ、すなわちグリッド縞成分の除去後のフレーム画像データに対して、メモリ114内のデータを用いた欠陥画素の補正処理を施すように構成した。
【0322】
したがって、本実施の形態のX線画像取得装置400によれば、グリッド縞を考慮した画素欠陥補正が必要なくなるため、従来から知られるような、周辺の欠陥ではない画素値の平均値を用いて欠陥画素を補正する等のような、単純な欠陥画素補正を適用可能となる。
【0323】
[第3の実施の形態]
本発明は、例えば、図17に示すようなX線画像取得装置500に適用される。
本実施の形態のX線画像取得装置500は、上記図6に示したX線画像取得装置100とは、以下の構成が異なる。
【0324】
尚、上記図17のX線画像取得装置500において、上記図6のX線画像取得装置100と同様に動作する構成部には同じ符号を付し、その詳細な説明は省略する。
【0325】
本実施の形態のX線画像取得装置500は、上記図17に示すように、上記図6のX線画像取得装置100の構成に対して、さらに、グリッド103の装着を検知する検知部(スイッチ)122を設けた構成としている。
【0326】
検知部122は、グリッド103の装着の検知結果(グリッド装着信号)を、補正処理部115及びグリッド縞検出部116へそれぞれ供給する。
【0327】
補正処理部115は、検知部122からのグリッド装着信号により、グリッド103が装着されている場合、第1の実施の形態で説明したような、グリッド縞を考慮した欠陥画素補正処理を実行する。そうでない場合は、周辺の欠陥でない画素の画素値の平均値等により欠陥画素を補正する。
【0328】
グリッド縞検出部116も同様に、検知部122からのグリッド装着信号により、グリッド103が装着されている場合、第1の実施の形態で説明したような、グリッド縞の検出処理(解析処理)を実行する。但し、上記グリッド装着信号により、グリッド103が装着されていない場合、グリッド縞検出部116は、グリッド縞の検出処理を実行せずに、即座にグリッド縞無しと判断し、これに該当する処理を実行する。
【0329】
上述のように、本実施の形態のX線画像取得装置500では、検出部122を設け、この検出結果に基づいて、グリッド縞の検出を行うように構成したので、グリッド縞を検出する処理に要する時間を大幅に短縮できる。
【0330】
[第4の実施の形態]
本発明は、例えば、図18に示すようなX線画像取得装置600に適用される。
本実施の形態のX線画像取得装置600は、上記図6に示したX線画像取得装置100とは、以下の構成が異なる。
【0331】
尚、上記図18のX線画像取得装置600において、上記図6のX線画像取得装置100と同様に動作する構成部には同じ符号を付し、その詳細な説明は省略する。
【0332】
本実施の形態のX線画像取得装置600は、上記図18に示すように、上記図6のX線画像取得装置100の構成に対して、さらに、X線照射領域データを格納するためのメモリ123を設けた構成としている。
【0333】
メモリ123には、メモリ113に格納されたフレーム画像データにおいて、X線が照射された領域部分のみを切り出した画像データ(照射領域データ)が格納され、このメモリ123内の照射領域データに対して、グリッド縞成分の検出及び抽出が行なわれる。
【0334】
具体的には、まず、X線撮影では一般に、被写体102(ここでは、人体)の目的とする部位以外への被曝を避けるために、X線発生部101のX線発生管球の出口に照射野絞りを設けることが行なわれる。これにより、被写体102の必要部分のみにX線の照射が行える。
【0335】
上記の照射野絞り機能を用いた場合、X線撮影により得られた画像も、X線センサ104から得られる画像信号全てが有効ではなく、照射野絞りによるX線照射野に対応する部分画像のみが有効になる。
【0336】
そこで、本実施の形態では、不図示の計算機手段(CPU等)により、メモリ113内のフレーム画像データから、X線強度分布や形状、或いはその他の情報に基づいて、X線照射野に対応する有効な部分画像領域(照射領域)を見出し、その照射領域部分のデータ(照射領域データ)のみを、メモリ123に格納する。
【0337】
上述のように、本実施の形態では、メモリ123内の照射領域データ、すなわち対象画像データ全てではなく、情報量を削減した必要部分のデータのみを対象とするので、処理時間の短縮化を実現できる。
【0338】
尚、本実施の形態では、欠陥画素補正後のフレーム画像から、照射領域を切り出すように構成したが、例えば、当該照射領域の切り出し後に、当該照射領域に対して欠陥画素補正を行うようにしてもよい。
【0339】
[第5の実施の形態]
第1の実施の形態では、上記図6のX線画像取得装置100において、グリッド縞成分抽出部117でのグリッド縞成分抽出処理を、上記図15のフローチャートに従った処理とした。
本実施の形態では、グリッド縞成分抽出部117でのグリッド縞成分抽出処理を、例えば、図19に示すフローチャートに従った処理とする。
【0340】
尚、上記図19のグリッド縞成分抽出処理において、上記図15のグリッド縞成分抽出処理と同様に処理するステップには同じ符号を付し、その詳細な説明は省略する。
【0341】
まず、本実施の形態でのグリッド縞成分抽出処理の説明の前に、図20(a)は、グリッド縞成分を含むフレーム画像の一部分を示したものであり、同図において、“*”で示す部分は、X線を遮断する物質が存在する等の原因により、グリッド縞成分が存在しない部分を示している。
【0342】
上記図20(b)は、同図(a)のフレーム画像に対して、第1の実施の形態でのフィルタタリングにより、グリッド縞成分の抽出を行った結果を示したものである。上記図20(b)に示すように、グリッド縞成分において、フレーム画像の“*”で示す部分に対応する部分にアーチファクトが現れるため、第1の実施の形態で説明したように、当該部分を包絡線から抽出し、その前後のデータから推測して全体を安定したグリッド縞になるようにする。この結果を示したものが、上記図20(c)の図である。このように安定したグリッド縞成分であれば、フーリエ変換等の変換処理により、新たなアーチファクトは発生しない。
【0343】
第1の実施の形態では、上記図20(c)に示されるようなグリッド縞成分を、同図(a)に示されるような元のフレーム画像から差し引いて、グリッド縞成分を除去するように構成したが、この構成の場合、本来グリッド縞成分が存在しない部分(“*”で示す部分)に新たなグリッド縞成分が現れてしまうことが考えられる。
【0344】
そこで、本実施の形態では、上記図20(d)に示すように、同図(c)に示されるようなグリッド縞成分において、本来グリッド縞成分が存在しない部分(“*”で示す部分)を“0”に設定する。
【0345】
このため、本実施の形態では、グリッド縞成分抽出部117は、上記図19のフローチャートに従ったグリッド縞成分抽出処理を実行する。
すなわち、グリッド縞成分抽出部117は、ステップS318の処理実行後、この処理により取得した、安定したグリッド縞成分のデータに対して、ステップS315により推測で補った部分を“0”に置換する処理を施し(ステップS700)、その後、次のステップS319へ進む。これにより、もともとグリッド縞成分が存在しない部分であっても、グリッド縞除去処理により新たなグリッド縞成分が発生してしまうことを確実に防ぐことができる。
【0346】
尚、第1〜第5の実施の形態では、ハードウェア的に構成したが、本装置全体をソフトウェアにより制御することで実現することも可能である。
【0347】
また、本発明の目的は、第1〜第5の実施の形態のホスト及び端末の機能を実現するソフトウェアのプログラムコードを記憶した記憶媒体を、システム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU)が記憶媒体に格納されたプログラムコードを読みだして実行することによっても、達成されることは言うまでもない。
この場合、記憶媒体から読み出されたプログラムコード自体が第1〜第5の実施の形態の機能を実現することとなり、そのプログラムコード、及びそのプログラムコードを記憶した記憶媒体は本発明を構成することとなる。
プログラムコードを供給するための記憶媒体としては、ROM、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード等を用いることができる。
また、コンピュータが読みだしたプログラムコードを実行することにより、第1〜第5の実施の形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS等が実際の処理の一部又は全部を行い、その処理によって第1〜第5の実施の形態の機能が実現される場合も含まれることは言うまでもない。
さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された拡張機能ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部又は全部を行い、その処理によって第1〜第5の実施の形態の機能が実現される場合も含まれることは言うまでもない。
【0348】
図21は、上記のコンピュータの機能800の構成例を示したものである。
コンピュータ機能800は、上記図21に示すように、CPU801と、ROM802と、RAM803と、キーボード(KB)809のキーボードコントローラ(KBC)805と、表示部としてのCRTディスプレイ(CRT)810のCRTコントローラ(CRTC)806と、ハードディスク(HD)811及びフレキシブルディスク(FD)812のディスクコントローラ(DKC)807と、ネットワーク840との接続のためのネットワークインターフェースコントローラ(NIC)808とが、システムバス804を介して互いに通信可能に接続された構成としている。
【0349】
CPU801は、ROM802或いはHD811に記憶されたソフトウェア、或いはFD812より供給されるソフトウェアを実行することで、システムバス804に接続された各構成部を総括的に制御する。
すなわち、CPU801は、所定の処理シーケンスに従った処理プログラムを、ROM802、HD811或いはFD812から読み出して実行することで、第1〜第5の本実施の形態での動作を実現するための制御を行う。
【0350】
RAM803は、CPU801の主メモリ或いはワークエリア等として機能する。
KBC805は、KB809や図示していないポインティングデバイス等からの指示入力を制御する。
CRTC806は、CRT810の表示を制御する。
DKC807は、ブートプログラム、種々のアプリケーション、編集ファイル、ユーザファイル、ネットワーク管理プログラム、及び第1〜第6の実施の形態における所定の処理プログラム等を記憶するHD811及びFD812へのアクセス等を制御する。
NIC808は、ネットワーク840上の他の装置或いはシステムとの双方向のデータのやりとりを制御する。
【0351】
【発明の効果】
以上説明したように本発明では、グリッドを使用した放射線撮影による放射線画像から、グリッドに起因する画像成分が除去された良好な放射線画像を得ることのできる、放射線画像処理装置、画像処理システム、放射線画像処理方法、記憶媒体及びプログラムを提供することができる。
【図面の簡単な説明】
【図1】第1〜第5の実施の形態において、対象画像からグリッド縞成分を抽出するためのフイルタの空間周波数特性を説明するための図である。
【図2】上記フィルタにより対象画像から抽出されたグリッド縞成分の一例を説明するための図である。
【図3】上記フィルタにより対象画像から抽出されたグリッド縞成分の他の例を説明するための図である。
【図4】対象画像の欠陥画素補正における空間周波数特性を説明するための図である。
【図5】上記グリッド縞成分が存在する対象画像に対する欠陥画素補正における空間周波数特性を説明するための図である。
【図6】第1の実施の形態において、本発明を適用したX線画像取得装置の構成を示すブロック図である。
【図7】上記X線画像取得装置の動作タイミングを説明するための図である。
【図8】上記X線画像取得装置での対象画像において、欠陥画素の様子の一例(例1)を説明するための図である。
【図9】上記欠陥画素の様子の一例(例2)を説明するための図である。
【図10】上記欠陥画素の様子の一例(例3)を説明するための図である。
【図11】上記欠陥画素の様子の一例(例4)を説明するための図である。
【図12】上記X線画像取得装置での対象画像において、グリッド縞成分の空間周波数分布を説明するための図である。
【図13】上記X線画像取得装置での対象画像に対する、グリッド縞成分の検出(解析)を説明するための図である。
【図14】上記グリッド縞成分の検出(解析)処理を説明するためのフローチャートである。
【図15】上記グリッド縞成分の検出(解析)処理の結果に基づいて、対象画像からグリッド縞成分を抽出する処理を説明するためのフローチャートである。
【図16】第2の実施の形態において、本発明を適用したX線画像取得装置の構成を示すブロック図である。
【図17】第3の実施の形態において、本発明を適用したX線画像取得装置の構成を示すブロック図である。
【図18】第4の実施の形態において、本発明を適用したX線画像取得装置の構成を示すブロック図である。
【図19】第5の実施の形態において、上記グリッド縞成分の検出(解析)処理の結果に基づいて、対象画像からグリッド縞成分を抽出する処理を説明するためのフローチャートである。
【図20】上記グリッド縞成分を抽出する処理を具体的例を挙げて説明するための図である。
【図21】第1〜第5の実施の形態の機能をコンピュータに実現させるためのプログラムを記録したコンピュータ読出可能な記憶媒体から当該プログラムを読み出して実行する構成の一例を示すブロック図である。
【図22】グリッドを用いた放射線撮影を説明するための図である。
【図23】上記放射線撮影で得られた画像に対してのフィルタリングの効果の一例を説明するための図である。
【図24】上記放射線撮影で得られた画像に対してのフィルタリングの効果の他の例を説明するための図である。
【図25】上記放射線撮影で得られた、グリッド縞成分が重畳した画像に対してのフィルタリングの効果の一例を説明するための図である。
【図26】上記放射線撮影で得られた、グリッド縞成分が重畳した画像に対してのフィルタリングの効果の一例を説明するための図である。
【符号の説明】
100 X線画像取得装置
101 X線発生部
102 被写体
103 グリッド
104 X線センサ
105 コントローラ
106 アナログ/デジタル(A/D)変換器
107 メモリ
108 メモリ
109 演算器
110 変換テーブル
111 メモリ
112 演算器
113 メモリ
114 メモリ
115 補正処理部
116 グリッド縞検出部
117 グリッド縞成分抽出部
118 メモリ
119 演算器
120 メモリ
121 画像処理部
140 メモリ転送制御部
141 メモリ
142 メモリ転送制御部
143 メモリ[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a radiographic image processing apparatus used in an apparatus or system for acquiring a radiographic image of a subject by radiography using, for example, a grid for removing scattered radiation. , Release The present invention relates to a ray image processing method, a storage medium, and a program.
[0002]
[Prior art]
Conventionally, for example, a technique that makes it possible to visualize the inside of a subject by irradiating the subject (object) with radiation represented by X-rays and imaging the spatial distribution (radiation distribution) of the radiation component transmitted through the subject. Although used, the radiation generates scattered radiation (scattered rays) inside the subject, so that the scattered radiation (scattered rays) is also imaged together with the directly transmitted radiation (direct rays) transmitted through the subject.
[0003]
The process of generating scattered radiation depends on the type of radiation, the physical properties, structure, etc. of the subject and is usually unpredictable. For this reason, in order to obtain a radiation image from which scattered radiation has been removed, various ideas are required.
[0004]
In a method for easily obtaining a radiation image from which scattered radiation has been removed, a typical method is to provide a radiation shielding material wall such as lead on the radiation receiving surface and regulate the angle of the radiation reaching the receiving surface. Then, there is a method of shielding the scattered radiation component.
[0005]
Specifically, for example, in X-ray photography in the medical field, in order to remove scattered X-rays from a subject such as a human body, an instrument called a “grid” may be installed between the subject and the X-ray image receiving surface. Has been done.
[0006]
The grid is angled so that the X-ray shielding material such as lead and the X-ray transmitting material such as wood, paper, aluminum, or carbon face each other toward the X-ray generation source (focal point). The instrument is configured by alternately arranging with a predetermined width.
[0007]
Since the grid as described above excludes a part of the direct line, a shadow of the grid (a shadow of the grid, hereinafter also referred to as “grid stripe”) is seen on the X-ray receiving surface. By adopting a configuration such as “accurate spatial period in which shielding substances and X-ray transmitting substances are alternately arranged” and “making the period relatively high in spatial frequency”, it is possible for an observer of an X-ray image. On the other hand, the uncomfortable feeling that grid stripes exist on the X-ray image is reduced as much as possible.
[0008]
FIG. 22 schematically shows the configuration of the grid 940.
In FIG. 22, “910” indicates an X-ray generation source, and “920” indicates an X-ray emission direction. “930” indicates a subject such as a human body, and “950” indicates an X-ray image receiving surface.
[0009]
As shown in FIG. 22, the grid 940 generally has a stripe structure only in one direction on the two-dimensional plane (vertical direction indicated by an arrow in the figure) for reasons such as ease of manufacture. It is.
[0010]
Further, as a method of reducing (removing) the contrast of grid stripes, during X-ray exposure, only the grid is moved in a direction orthogonal to the stripes, and the integration effect during X-ray exposure on the X-ray receiving surface is obtained. There is a way to use.
[0011]
Here, the radiation image receiving surface (image receiving portion) mainly means a radiation film for recording a radiation distribution directly on a photosensitive material.
[0012]
By the way, in recent years, a method of handling a radiographic image as digital data is becoming more general than a method of directly imaging a radiographic image for medical use or the like with a radiographic film.
For example, the radiation distribution is once converted into an electrical signal (analog signal), and the analog signal is digitized (A / D conversion) and converted into numerical data (digital data). Thereby, processing such as filing, image processing, and monitor display can be performed at a low cost on a digitized radiation image (digital radiation image).
[0013]
However, in the case of a digital radiographic image, it is necessary to sample an image signal in a two-dimensional space, so naturally the problem of aliasing based on the sampling theorem becomes obvious.
[0014]
Specifically, in the case of a general image, there is no problem in observing the image even if some aliasing occurs by setting the sampling period in the space to an appropriate period (such as a fine period).
[0015]
On the other hand, in the case of digital radiographic images obtained using a grid, the periodic striped pattern due to the grid becomes very low frequency due to aliasing, or aliasing does not occur depending on the sampling period. However, there may be a case where low-frequency amplitude fluctuations occur, which is a problem for the observer of the image.
[0016]
Therefore, the following method has been proposed as a method for removing an inappropriate grid stripe pattern by aliasing or the like.
Here, the method of digitizing a radiographic image is roughly classified into two methods, and grid stripe patterns for these two methods are removed (method 1) and (method 2).
[0017]
(Method 1)
In the digitization method here, first, the radiation distribution (radiation intensity distribution) is once converted into another energy distribution (energy distribution such as fluorescence), and this is scanned to spatially sample the image only in one direction. An analog video signal (time signal) is generated, and the time signal is A / D converted based on a temporal cycle prepared separately.
As a typical example of the digitization method, there is a method in which the energy stored in the photostimulable phosphor is sequentially fluorescentized / condensed by laser scanning to obtain a video signal, and then A / D conversion is sequentially performed. Can be mentioned.
[0018]
In acquiring a digital radiographic image by the above digitization method, as a method of removing an inappropriate grid stripe pattern by aliasing or the like, for example, Japanese Patent No. 2507659, Japanese Patent No. 2754068, and Japanese Patent Laid-Open No. Hei 8- There is a method described in No. 088765.
[0019]
Specifically, first, scanning with respect to another energy distribution corresponding to the radiation distribution is performed in a direction orthogonal to the grid stripe, the grid stripe is converted into a periodic signal on the video signal, and the analog periodic signal is obtained. On the other hand, after performing low-pass filtering, sampling of the time axis is performed. Such a normal anti-aliasing filter configuration can remove inappropriate grid stripes.
[0020]
As a method similar to the above-described method, Japanese Patent No. 2507659 and the like detect the presence and frequency of a grid-striped pattern by performing Fourier transform on a pre-sampled image, and based on the detection result. A method of removing inappropriate grid stripes by selecting a low-pass filter and performing low-pass filtering using the low-pass filter has been proposed.
[0021]
In addition, in Japanese Patent No. 2754068 and Japanese Patent Application Laid-Open No. 8-088765, the analog low-pass filtering processing proposed in Japanese Patent No. 2507659 etc. is performed, and sampling on the time axis is performed shorter than a desired interval. After acquiring the image information including the grid image without eliminating the aliasing of the grid stripe pattern information, digital low-pass filtering is performed to remove the grid image component, and then digital thinning (resampling) is performed. A method for obtaining an image at a desired sampling interval has been proposed.
[0022]
(Method 2)
In the digitization method here, first, the radiation intensity distribution is once converted into another energy distribution (energy distribution such as fluorescence and electric field intensity), and a plurality of two-dimensionally arranged electric signal conversions are performed. Two-dimensional sampling is directly performed by an element (a photodiode, a capacitor, or the like), and signals from each conversion element are sequentially extracted and A / D converted.
As a representative example of the digitization method, an electrical signal is obtained by a conversion element for each of a plurality of pixels in which a fluorescence distribution or a field intensity distribution over a large area due to radiation is two-dimensionally arrayed by a large screen planar sensor which has been developed in recent years. The method using what is called a radiation flat panel sensor is mentioned.
[0023]
By the way, when acquiring a digital radiation image by the digitization method of Method 2, it is very difficult to remove an inappropriate grid stripe pattern by aliasing or the like. The reason for this is that sampling is performed directly in a two-dimensional space by a plurality of electrical signal conversion elements such as a radiation flat panel sensor (hereinafter also simply referred to as “sensor” or “flat panel sensor”). This is because an anti-aliasing filter for a typical electric signal cannot be applied.
[0024]
In order to solve the above-mentioned problem, direct sampling is performed with a sensor so fine as not to cause aliasing in a two-dimensional space, a digital anti-aliasing filter is applied, and the above-described re-sampling is performed. Although such a method is conceivable, it is difficult to perform fine sampling in a two-dimensional space due to the configuration of the electric signal conversion element of the sensor, and the performance of the electric signal conversion element itself is degraded. Invite up.
[0025]
Therefore, a method of moving the grid during X-ray exposure as in the past has been performed.
[0026]
As another method, in Japanese Patent Laid-Open No. 9-75332, etc., when acquiring a digital X-ray image by directly sampling in a two-dimensional space by a sensor, the purpose is to remove the grid stripes. A method has been proposed to prevent the generation of inappropriate grid stripes on the image by matching the pitch (sensor pixel pitch) completely and matching the gap between the pixel and the area that blocks the direct line due to grid stripes. ing.
[0027]
JP-A-9-78970 and U.S. Pat. S. In Patent 5801385 and the like, the grid stripe contrast is reduced by making the grid stripe interval smaller than the sampling pitch so as to be the same as or close to the width of the opening of the light receiving portion of one pixel (one electric signal conversion element). A reduction method has been proposed.
[0028]
In addition, U.S. S. In Patent 5.050.198 and the like, a grid striped pattern image (grid image) is stored in advance under a plurality of shooting conditions, and when a grid image is actually captured, a plurality of grid images stored in advance are stored. Among them, a method of removing a grid image by dividing an image obtained by photographing by a grid image that matches or approximates photographing conditions has been proposed.
[0029]
[Problems to be solved by the invention]
However, in the conventional radiographic image processing as described above, in particular, when radiographic images are acquired using sensors and grids directly sampled in a two-dimensional space represented by (Method 2), There was a problem like this.
[0030]
First, in the configuration proposed in JP-A-9-75332 or the like, it is very difficult to completely match the interval between grid stripes and the sampling pitch. That is, a flat panel sensor generally created in a semiconductor manufacturing process and a grid created by a combination of relatively thick lead plates are each independently created, or the grid itself is Since it must be created so as to be removable depending on the situation at that time, it is very difficult to perfectly match the grid stripe interval and the sensor pixel pitch (sampling pitch) due to these factors.
[0031]
Also, JP-A-9-78970 and U.S. Pat. S. In the configuration proposed in Patent 5801385 and the like, it is effective to make the interval between the grid stripes smaller than the sampling pitch so as to be the same as or close to the width of the opening of the light receiving portion of one pixel, but the sensor (flat panel sensor) However, when the sampling pitch becomes 0.1 mm or less, for example, the interval between grid stripes is required to be very fine, that is, 10 or more per mm. In such a fine-striped grid, the lead plate thickness for blocking scattered radiation is almost fixed, so the area through which the direct line passes must be narrowed, and as a result, the radiation dose utilization efficiency Becomes extremely low, and good radiography cannot be performed.
[0032]
Further, in the conventional configuration as described above, the grid itself is moved during radiation exposure. However, the movement of the grid increases the cost by a drive system for moving the grid, and the apparatus or system. It is necessary to provide a configuration for adjusting and controlling the relationship between the drive timing and the radiation exposure timing and the relationship between the drive speeds. Therefore, the grid movement configuration is effective for removing grid stripes, but has the above-mentioned limitations and cannot always be adopted.
[0033]
Therefore, in order to solve the above problem, since the obtained radiation image is digital data, a method of removing grid stripes by digital filtering can be considered. According to this method, if the spatial frequency component of the grid stripe and the spatial frequency component of the effective image information based on the subject are completely separated, the grid stripe can be removed with a simple filtering configuration.
[0034]
As a specific example of the above method, Japanese Patent Laid-Open No. 3-12785 proposes a method for removing or reducing data corresponding to the spatial frequency of grid stripes using Fourier transform.
[0035]
A method of removing or reducing data corresponding to the spatial frequency of grid stripes using a normal FIR (Finite Impulse Response) filter is also conceivable.
[0036]
By the way, since the image of the grid stripe is a shadow with reduced radiation transmittance due to an X-ray shielding material such as lead, it is superimposed almost multiply in the signal, but is additively superimposed if logarithmic transformation is performed. It will be. Therefore, filtering as described above is possible.
[0037]
In general, the manufacturing process of the grid for removing scattered radiation is managed with very high accuracy, and the grid stripe having a uniform spatial frequency characteristic over the entire image is also widely used. . For this reason, there is a possibility that the filtering as described above may be performed only for a single spatial frequency.
[0038]
Moreover, in reality, the shape of the grid stripe image (shadow) is not an accurate sine wave shape, so there may be a spatial frequency component of double, triple,... In this case, it is considered that only the fundamental wave component is received due to the blur caused by the two-dimensional spatial dependence of the conversion process (energy conversion process) at the sensor.
[0039]
However, the problem with filtering as described above is that it is almost impossible to limit the spatial frequency band of the image component itself.
[0040]
Specifically, as typified by, for example, those proposed in Japanese Patent No. 2754068 and Japanese Patent Laid-Open No. 8-088765, the spatial sampling pitch is made very fine, and the effective Nyquist frequency is increased after the sampling, If the effective bandwidth (bandwidth below the Nyquist frequency) is widened and the image component and the grid stripe component are completely separated, the grid stripe can be removed by normal filtering without any problem. Although it is clear, as a practical matter, increasing the spatial sampling pitch just to remove grid fringes leads to a significant cost increase of the sensor due to semiconductor processes and other factors, and further increases the radiation acquisition efficiency. This is not effective.
[0041]
Therefore, it is effective in terms of cost and performance to configure the sensor itself with a spatial sampling pitch that allows an effective image component in a band below the Nyquist frequency, but if such a configuration is used, the grid Inevitably, there is a certain degree of overlap between the spatial frequency of the fringes and the spatial frequency of the effective image components.
[0042]
Specifically, for example, referring to FIGS. 23A to 23D, first, FIG. 23A shows the image when the image (original image) to be processed is viewed in one dimension. The image signal is composed of 256 numerical values.
FIG. 23 (b) shows the response characteristics of the filter in the spatial frequency domain when the image signal shown in FIG. 23 (a) is filtered. In FIG. 23 (b), in consideration of the discrete Fourier transform, the frequency domain is represented by numerical values from “0” to “128”, and band cut filtering is performed at a spatial frequency value of “100”. .
FIG. 23 (c) shows the result of applying the filtering shown in FIG. 23 (b) to the image signal shown in FIG. 23 (a). As is clear from FIG. 23C, the image signal in FIG. 23C has almost no change from the characteristics of the image signal shown in FIG.
FIG. 23D shows the difference between the image signal shown in FIG. 23A and the image signal shown in FIG. 23C for confirmation. As apparent from FIG. 23 (d), there is almost no signal component removed by filtering.
[0043]
FIG. 24 (a) shows the image signal (original image signal) shown in FIG. 23 (a) added with a portion that rises sharply in the middle (so-called edge portion). .
FIG. 24 (b) shows the response characteristics of the filter in the spatial frequency domain when the image signal shown in FIG. 24 (a) is filtered, as in FIG. 23 (b). .
FIG. 24C shows the result of applying the filtering shown in FIG. 24B to the image signal shown in FIG. In FIG. 24 (c), it is clear from the circled portion that it is out of the original image signal and unstable vibration (artifact).
FIG. 24D shows a difference between the image signal shown in FIG. 24A and the image signal shown in FIG. 24C for confirmation. As is clear from FIG. 24 (d), many vibration components appear in the portion (including both ends of the signal) that fluctuates sharply.
[0044]
As shown in FIGS. 23A to 23D and FIGS. 24A to 24D, in the case of a normal image signal, the Nyquist frequency (spatial frequency is “128” in the same figure) or less The high-frequency component is not a main component of the image signal and is a component that has almost no information. Therefore, even if a sharp filtering process is performed at this position, there are few problems. On the other hand, when the image signal has a steep portion (edge portion), the image signal is expressed using a considerably high frequency component equal to or lower than the above Nyquist frequency. Problems (artifacts) occur in the fluctuating part.
[0045]
25A to 25D show signal states when a sine wave (sin (2π100x / 256)) is applied to the original image signal shown in FIG. Is shown. As apparent from FIGS. 25A to 25D, the grid stripes are substantially removed by the filtering having the response characteristic of the filter shown in FIG. 25B (see FIG. 25C).
[0046]
26A to 26D show signal states when a sine wave (sin (2π100x / 256)) is applied to the original image signal shown in FIG. Is shown. As is clear from FIGS. 26A to 26D, the same artifact as in FIG. 24C is generated by the filtering having the response characteristic of the filter shown in FIG. (See FIG. 26 (c)).
[0047]
That is, in a simple filtering process such as that described in Japanese Patent Laid-Open No. 3-12785 or the like, if the grid stripe component is removed, there is a possibility that the above-described artifacts are strongly generated. Further, if the width of the impulse response of the filter is narrowed in order to reduce artifacts, the response characteristics of filtering will be reduced in a wide range, and the image itself will become stronger.
[0048]
The problem in the radiographic image as described above is also applicable to a moving image obtained by radiography.
[0049]
Specifically, for example, in the case of a configuration in which an X-ray image of a subject is acquired by capturing an X-ray with a solid-state imaging device through the subject, a series of continuous images (X of a moving image) corresponding to the movement of the subject. Line image (hereinafter also referred to as “X-ray moving image”). Even for such an X-ray moving image, the problems related to the grid stripe component as described above occur in the individual frame images constituting the X-ray moving image.
[0050]
In the case of acquiring an X-ray moving image, the X-ray moving image is acquired at a high speed of about 30 to 120 frames per second. Thus, it is very difficult to completely remove the grid stripe component from the X-ray moving image obtained at high speed. Furthermore, since the acquisition of the X-ray moving image is performed at a high speed, if the grid stripe component is removed by simple filtering, the image itself may be damaged.
[0051]
Therefore, the present invention is made to eliminate the above-mentioned drawbacks, and can obtain a good radiographic moving image in which image components due to the grid are removed from a radiographic image obtained by radiography using the grid. Radiation image processing device , Release An object is to provide a ray image processing method, a storage medium, and a program.
[0052]
[Means for Solving the Problems]
Under such an object, the first invention is a radiographic image processing apparatus for processing a radiographic image obtained by radiography using a grid for removing scattered radiation from a subject, wherein the predetermined radiographic image is obtained. A plurality of radiation images obtained after the predetermined radiation image based on the image component obtained from the image component obtained by the creation means and the image component obtained by the creation means; And removing means for removing the components The creating means includes means for creating the image component based on the feature that the image component superimposed on the radiation image is steady throughout the image. It is characterized by that.
[0072]
A second invention is a radiographic image processing method for processing a radiographic image obtained by radiography using a grid for removing scattered radiation from a subject, and an image resulting from the grid from a radiographic image A creation step of creating a component, and a removal step of performing a removal process of the image component on a plurality of radiation images obtained after the radiation image based on the image component obtained by the creation step. Thus, the creating step includes the step of creating the image component based on the feature that the image component superimposed on the radiographic image is steady over the entire image. It is characterized by that.
[0073]
First 3 The invention of the above 2 In the present invention, the removing step comprises Multiple above For the radiographic image, use the same image component obtained in the above creation step. The The method includes a step of performing a removal process.
[0075]
First 4 According to the second aspect of the invention, in the second aspect of the invention, the creating step includes an analysis step of analyzing the radiographic image to obtain a spatial frequency of the image component.
[0076]
According to a fifth invention, in the fourth invention, the creation step is obtained by an extraction step of extracting a predetermined component including an image component from the radiation image based on an analysis result of the analysis step, and the extraction step. A processing step of processing the predetermined component obtained to obtain the image component; And the removing step is the same as the creating step. The image component obtained by the processing step is removed from the radiation image. Ruko And features.
[0077]
First 6 The invention of the above 5 In the invention, the extracting step includes a step of performing filtering for extracting the component having the spatial frequency obtained in the analyzing step from the radiation image.
[0078]
First 7 The invention of the above 5 In the invention, the processing step includes a step of executing processing for estimating and processing an unsteady portion of the predetermined component from a steady portion before and after the predetermined portion.
[0079]
First 8 The invention of the above 7 In the invention described above, the processing step includes a step of detecting the unsteady portion based on envelope information of the predetermined component.
[0080]
First 9 The invention of the above 7 In the invention, the processing step estimates the amplitude and phase of a sine wave corresponding to the image component based on a stationary part before and after the unsteady part of the predetermined component and a spatial frequency, and the unsteady part. And a step of repairing a necessary part.
[0081]
First 10 The invention of the above 9 In the invention, the processing step includes a step of further filtering the predetermined component including the repaired non-stationary portion to obtain the image component.
[0082]
First 11 The invention of the above 7 In the invention, the processing step is characterized in that the image component is obtained by replacing a portion satisfying a predetermined condition in the non-stationary portion with a predetermined value.
[0083]
First 12 According to the second aspect of the invention, in the second aspect of the invention, the creating step includes a step of creating the image component for a predetermined line selected from the radiation image.
[0084]
First 13 The invention of the above 12 In the invention, the creating step includes a step of creating the image component with respect to an average result of a plurality of lines.
[0085]
First 14 The invention of the above 12 In the invention, the creating step includes a step of using, as an image component of a line for which no image component has been created, the image component acquired from a line in which the image component adjacent to the line is created. To do.
[0087]
First 15 According to the second aspect of the invention, in the second aspect of the invention, the method includes a detection step of detecting mounting of the grid, and the creation step includes a step of executing the processing based on a detection result of the detection step. And
[0092]
First 16 The computer-readable storage medium recording the program according to the invention is the second to the second. 15 A program for causing a computer to execute the processing steps of the radiation processing method according to any of the inventions is stored.
[0094]
First 17 The program according to the invention of No. 2 15 A processing step of the radiation processing method according to any of the inventions is caused to be executed by a computer.
[0095]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0096]
[Outline of the first to fifth embodiments]
Here, as embodiments of the present invention, the first to fifth embodiments are exemplified. Prior to specific description of the first to fifth embodiments, an outline of these will be described.
[0097]
Here, X-rays are used as an example of radiation, and an X-ray image obtained by X-ray imaging is processed.
The configuration described below is an example configuration to which the present invention is applied, and is not limited thereto.
[0098]
In the first to fifth embodiments, the X-ray moving image in the case where a series of continuous images (X-ray moving images) corresponding to the movement of the subject is acquired by X-ray imaging using a grid is particularly simple. The problem that it is difficult to remove the grid stripe component by simple filtering processing and the problem that it is difficult to remove the grid stripe component at high speed have been solved by the following configuration.
[0099]
In other words, it is usually superimposed on each of a plurality of frame images constituting the X-ray moving image to be processed (target X-ray moving image) or due to the influence of sensor characteristics (characteristics such as saturation characteristics and defective pixels). By estimating and obtaining grid stripe component information (hereinafter also simply referred to as “grid stripe component”) that should exist as a stable stripe pattern over the entire image that cannot be detected by the filtering process of Extract fringe components.
[0100]
In addition, in the plurality of frame images constituting the target X-ray moving image, the grid stripe component does not substantially change in the adjacent frame images, so that the grid stripe component extraction process is not performed on all the plurality of frame images. Don't skip it.
[0101]
For example, when each frame image is a logarithmic image signal, the extracted grid stripe component is subtracted from each frame image. As a result, stable grid stripe information can be removed without affecting the X-ray moving image.
[0102]
Specifically, first, in the first embodiment, one frame image (target frame image) of an X-ray moving image obtained by X-ray imaging is analyzed. Then, for a pixel defect in a direction orthogonal to the grid stripe, a linear prediction type pixel defect correction process is performed. In addition, based on the analysis result, a grid stripe component is extracted from the target frame image and held as image information.
Here, the time required for the above analysis is longer than the time of continuously acquired frame images. Thus, until the analysis of the next frame image is completed, the previously extracted grid stripe component is used. Then, using the target frame image obtained by analyzing and extracting the grid stripe component as a start frame, the grid stripe component removal process is performed on each frame image until the next frame image to be analyzed. At this time, grid stripe components may be periodically extracted based on control from another timing control configuration corresponding to the time required for the analysis.
[0103]
Further, in the first embodiment, when extracting the grid stripe component from the target frame image, it is first extracted by low-order FIR filtering, and then envelope information is calculated by vector amplitude characteristic calculation with another FIR filtering. get. Then, based on the envelope information, the unsteady portion is extracted from the grid stripe component, and the unsteady portion is repaired using the surrounding steady portion, so that the grid stripe component as a whole Convert to a steady signal sequence. Further, in order to extract only the grid stripe component more appropriately, a filtering process for selectively extracting the spatial frequency corresponding to the grid stripe component is executed, and the result is set as the grid stripe component.
The grid stripe component acquired as described above is subtracted from each frame image. Thereby, the X-ray animation after the removal of the grid stripe component is obtained.
[0104]
In the second embodiment, pixel defect correction is performed on the frame image after removing the grid stripe component. As the pixel defect correction here, for example, pixel defect correction by averaging can be applied.
[0105]
In the third embodiment, detection means for detecting grid mounting is provided, and when the grid mounting is confirmed by the detection means, the frame image is analyzed, and based on this result, predictive pixel defect correction, and Remove grid stripe components.
[0106]
In the fourth embodiment, when the irradiation field of X-ray exposure is narrowed down so as to correspond to the imaging region of the subject, only the partial image corresponding to the irradiation field in the frame image is applied. The processing in the first embodiment is executed.
[0107]
In the fifth embodiment, there is a case where grid stripes do not exist for each part of the image depending on the state of the subject. Take.
Specifically, with respect to the extracted grid stripe component, the information of the portion where the grid stripe component does not exist is replaced with zero (“0”) data, so that the grid stripe removal process is not performed on the portion.
[0108]
In the first to fifth embodiments, for example, since the extracted grid stripe component exists as image information, the grid stripe component is removed from the frame image by holding the image. Even in such a case, the original frame image, that is, the frame image in a state where the grid stripes are not removed, can be restored using the stored image information of the grid stripe components.
[0109]
[Grid Stripe Component Removal Processing in First to Fifth Embodiments]
Here, the grid stripe component removal processing method used in the first to fifth embodiments will be described.
In the following description, the first to fifth embodiments are collectively referred to as “this embodiment”. The target frame image in the X-ray moving image is also referred to as “target image”.
[0110]
For example, a component substantially including the grid stripe component is separated from the frequency indicated by the grid stripe component, the separated component is processed into feature information that the grid stripe will indicate, and the processed information is converted into a grid. This is regarded as a fringe component and removed from the target image signal.
[0111]
The grid fringe component has a fairly strong component according to the spatial spectrum expression. If the spatial frequency of the grid stripe is appropriately selected, the Nyquist frequency at the time of sampling (spatial frequency corresponding to 1/2 of the sampling frequency) It can exist in the vicinity. As a result, such a state as shown in FIGS. 25A to 25D that does not overlap with the main component of a normal image signal can be easily obtained.
[0112]
Here, as described with reference to FIGS. 26A to 26D, only when a steep fluctuation component exists in the target image signal, it is difficult to separate the grid stripe component and the target image signal. It becomes.
[0113]
In some cases, the grid stripes themselves may not exist. This is because when a subject that almost completely blocks X-rays is taken, or when a strong X-ray that exceeds the dynamic range of the sensor reaches the sensor, the grid stripe component is generated by saturation. This is the case.
[0114]
Normally, when an X-ray image is acquired, since the X-ray dose that passes through the inside of the subject is emphasized, the X-ray dose is several hundred times as large as the subject transmission amount outside the subject that does not pass through. In general, it is meaningless to extend the dynamic range of a sensor or sensor amplifier to the outside of a subject without information. In most cases, the outside of the subject exhibits nonlinearity due to saturation and also has a grid stripe component. Or the contrast is lowered.
[0115]
Therefore, in the present embodiment, when there is a steep change in the target image that makes it difficult to separate the grid stripe component and the target image signal in the data in one line, and when the grid stripe itself does not exist. It was possible to adaptively cope with both, and to eliminate the grid stripe component without generating artifacts.
[0116]
Specifically, the grid stripe component removal processing in the present embodiment is mainly processing including the following first processing step to third processing step.
[0117]
First processing step:
Line data in a direction orthogonal to the grid stripe is sampled from the target image obtained by including the grid stripe component, and the spatial frequency of the grid stripe is determined.
[0118]
Second processing step:
The grid fringe component is sequentially extracted from the target image, and the result (grid fringe component) is subtracted from the target image. At this time, considering the occurrence of the artifact, even if the artifact occurs, the comparison has a smaller influence range. A component mainly composed of grid stripes is extracted by FIR filtering with a small span.
[0119]
Third processing step:
Based on the spatial frequency of the grid stripes obtained in the first processing step, the envelope of the component mainly composed of the grid stripes obtained in the second processing step is obtained, and the phase of the component is obtained by FIR filtering different from that component. It is obtained by calculating the vector amplitude with the component moved by 90 °.
[0120]
The grid stripe component removal processing including the first processing step to the third processing step will be described more specifically. First, the envelope information obtained in the third processing step always takes a positive value, The features include the following features (1) and (2).
(1) A very large value is shown for a steep fluctuation portion (for example, an edge portion).
(2) For a portion where there is no grid stripe, a small value that is substantially “0” is shown.
[0121]
In the present embodiment, based on the above-described envelope information, a value portion (very large value portion) indicated by the feature (1) and a value portion (very small value) indicated by the feature (2). By repairing the grid stripe component, the creation of a more stable grid stripe component is realized.
[0122]
As a method of repairing the grid stripe component, for example, there is a method of replacing the portion of the feature (1) with a component predicted from a stable grid stripe portion in the vicinity thereof to obtain a stable grid stripe component as a whole. Can be mentioned.
[0123]
A normal filtering process is performed on the entire line with respect to a component mainly composed of grid stripes obtained only as described above and including only a stable component. At this time, filtering is performed to extract only a narrower range of spatial frequencies centered on the spatial frequency of the grid stripes.
[0124]
The filtering result (extracted component) is the grid stripe component in the target image. When the envelope information has the characteristic (2), that is, the grid stripe component is mainly included in the grid stripe component. When there is a non-existing portion, the grid stripe does not exist originally, so the component mainly composed of the grid stripe of the portion is replaced with “0”.
[0125]
In addition, when performing a filtering process on a target image, a fast Fourier transform algorithm may be used in order to perform a steep filtering process stably and at high speed. In this case, the number of data points is “2” to the nth power. (N is a positive integer). For this reason, "0" is padded around the normal data so as to match the points. Data in a range filled with “0” may be considered as data corresponding to a portion where the envelope information indicates the feature (2).
[0126]
The effective spatial frequency of the grid itself is 30% to 40% of the sampling frequency (reciprocal of the spatial sampling pitch) proposed in Japanese Patent Application No. 2000-028161 and the like. It is effective to be selected from such a spatial frequency (60% to 80% of the Nyquist frequency). This is because the main component of the image is generally concentrated at 30% or less of the sampling frequency, and the component of strong grid stripes having a spatial frequency of 40% or more and 60% or less of the sampling frequency is an interpolation similar to linear interpolation after sampling. This is because when the processing is performed, it seems that another periodic amplitude fluctuation occurs, and the grid stripe itself is not stable.
[0127]
When the spatial frequency of the grid itself is “fg [cyc / mm]” and the sampling pitch of the sensor is “T”, the spatial frequency fm of the grid stripe is
[0128]
[Expression 1]
Figure 0004746761
[0129]
It is represented by the following formula (1).
[0130]
In the present embodiment, in consideration of the fact that a striped pattern corresponding to the spatial frequency fm represented by the above formula (1) exists in the target image as a grid striped component, the grid striped in the first processing step described above. Is extracted accurately. That is, since the spatial frequency fg of the grid stripes is known in advance, the vicinity of the spatial frequency fm of the target image is searched from the sampled line data, and the spatial frequency indicating the peak value is obtained from the search result. Thus, the spatial frequency fm of the grid stripes in the target image is considered.
[0131]
Further, in the second processing step described above, the FIR filtering of the smallest possible span with the spatial frequency fm as the center is performed on the spatial frequency fm, so that the effective image components are almost removed and the steepness is sharp. The grid stripe component is roughly extracted in a state where the influence of the artifact due to the fluctuation (for example, the edge portion) is within a narrow range.
[0132]
At this time, in order to eliminate the phase fluctuation, for example, the coefficient series of the FIR filter is an even function, and a three-point or five-point FIR filter is desirable to satisfy the above narrow range.
[0133]
Specifically, for example, when a FIR filter having three symmetrical points is used and the coefficients are (a1, b1, a1), the response at the spatial frequency fm is “1” in order to obtain the coefficients (a1, b1, a1). Two conditions can be used: a condition of “0” and a condition that the DC component, which is the center value of the image information, is set to “0”.
[0134]
That is, the coefficient calculation is
2 * a1 + b1 = 0
2 * a1 * cos (2πfmT) + b1 = 1
It is a simultaneous equation represented by the formula
[0135]
[Expression 2]
Figure 0004746761
[0136]
The solution represented by the following formula (2) is taken.
[0137]
In the FIR filtering described above, the response is “1” at the spatial frequency fm, but the response gradually increases when the spatial frequency becomes higher. In general, there is no image component in this portion, so that the grid stripes can be sufficiently extracted even with the FIR filtering.
[0138]
In addition, when FIR filtering is performed with five symmetrical points and the coefficients are (a2, b2, c2, b2, a2), the coefficients (a2, b2, c2, b2, a2) are obtained at the spatial frequency fm. In addition to the two conditions of the condition that the response is “1” and the condition that the DC component that is the center value of the image information is “0”, the differential value of the response at the spatial frequency fm is “0” (peak ) Can also be used.
[0139]
That is, the coefficient calculation is performed by performing a simple calculation from the solution represented by the above formula (2).
(-A1 2 , 2a1 (1-b1), 1-2a1 2 -(1-b1) 2 ,
2a1 (1-b1), -a1 2 )
The following solution is obtained.
[0140]
As a method of obtaining a filter for symmetric five-point FIR filtering, for example, first, when a filter having coefficients (a1, b1, a1) represented by the above formula (2) is subtracted from “1”, The filter has a zero point at a space fraction fm. Considering the process of performing the filtering by this filter twice, it still has a zero at the spatial frequency fm, but the phase (sign) is not inverted. Such a filter is a symmetric 5-point FIR filtering filter, and a filter having a peak at the target spatial frequency fm can be configured by subtracting the filter from “1”.
[0141]
FIG. 1 shows the shapes of symmetric 3-point FIR filtering (hereinafter also referred to as “3-point FIR filtering”) and symmetric 5-point FIR filtering (hereinafter also referred to as “5-point FIR filtering”) as described above. An example of spatial frequency characteristics) is shown.
[0142]
In most cases, the result of filtering by the FIR filter shown in FIG. 1 is a result of extracting only the grid stripe component. This is because, as is clear from FIG. 1, most of the low-frequency components of the effective image components mainly composed of the low-frequency components are removed.
[0143]
However, as described above, it is a fact that a significant amount of effective image components are included in the components extracted by FIR filtering. Originally, we would like to perform filtering with a filter having a steep selection characteristic centered on the spatial frequency fm, but even if this is done, it will contain frequency components that make up the rapidly changing part included in the target image. It will not change.
[0144]
Therefore, in order to solve the above problem, in the present embodiment, in the third step described above, the local envelope of the grid stripe component is obtained, and artifacts other than the grid stripe component are generated from the fluctuation. By detecting a part including a possible component, only the grid stripe component is stably extracted (created).
[0145]
A general signal envelope must be based on the Hilbert transform, but a single sinusoidal envelope has a response amplitude of “1” at that frequency and a phase variation of 90 ° (π / 2). It can be obtained by applying a spatial filter that causes the occurrence and taking the vector amplitude (square root of the sum of squares) of the result and the original signal.
[0146]
When filtering with discrete data using a FIR filter whose phase varies by 90 °, the coefficients of the FIR filter are point-symmetric (odd functions). For example, when this coefficient is (−a3, 0, a3), in order to set the response to “1” at the spatial frequency fm, the coefficient (−a3, 0, a3) is
2 * a3 * sin (2πfmT) = 1
Must satisfy the formula
[0147]
[Equation 3]
Figure 0004746761
[0148]
The solution represented by the following formula (3) is obtained.
[0149]
The amplitude of the signal sequence obtained by the FIR filter having the solution coefficient (−a3, 0, a3) represented by the above equation (3) and the original signal sequence is obtained.
[0150]
For example, FIG. 2A shows the result of filtering the original image signal shown in FIG. 25A with the solution coefficients (a1, b1, a1) shown in the equation (2). Is shown. As apparent from FIG. 2A, most of the grid stripe components are extracted.
[0151]
FIG. 3A shows the result of filtering the original image signal shown in FIG. 26A with the solution coefficients (a1, b1, a1) shown in the above equation (2). Is shown.
[0152]
The waveforms shown in FIG. 2 (b) and FIG. 3 (b) (the waveforms shown by bold lines) are the above-described equations (3) for the original image signal shown in FIG. 2 (a) and FIG. The envelope obtained by taking the square root of the square sum of the result of filtering having the solution coefficient (−a3, 0, a3) and the original image signal is shown.
[0153]
In particular, in the envelope shown in FIG. 3B, when attention is paid to the depression shown in FIG. 3C, an unsteady component is clearly present in the depression. This is because the extracted grid stripe component is abnormally extracted by simple filtering (including the edge component of the target image), and if subtracted from the target image signal, an artifact occurs in the target image signal after this processing. Means that.
[0154]
Therefore, in the present embodiment, a range indicating an abnormal numerical value is identified from the envelope obtained as described above, and the grid stripe component of the range is corrected (replaced) with an estimated value from the surrounding numerical sequence. ) In other words, the grid stripe component is formed (created) by utilizing the characteristic of having a steady component over the entire range, which is a characteristic of the inherent grid stripe component.
[0155]
The estimated value (predicted value) used in the correction is obtained from the statistical properties of the data around the range showing abnormal numerical values. For example, since the spatial frequency fm of the grid stripe component is known, this spatial frequency fm can be used as a statistical property.
[0156]
For example, with the spatial frequency fm of the grid stripe and the phase φ,
[0157]
[Expression 4]
Figure 0004746761
[0158]
The grid stripe component of the unsteady part is formed using the sine wave expressed by the following equation (4).
[0159]
For example, as the simplest method, there is a method in which two coefficients A and φ at a specific frequency are obtained from peripheral pixels using Fourier transform (Fourier series expansion).
[0160]
However, normal Fourier transform cannot be used due to problems such as the presence of defects (unsteady portions) in the data. Therefore, here, Fourier transform is generalized, and amplitude and phase information is obtained in the sense of least squares. Therefore, the above equation (4) is
[0161]
[Equation 5]
Figure 0004746761
[0162]
The following equation (5) is transformed.
[0163]
In this case, the square error ε when the data at the sampling point xi is “yi” (number of data points n) ({xi, yi; i = 0 to n−1}) is
[0164]
[Formula 6]
Figure 0004746761
[0165]
It is represented by the following formula (6).
[0166]
At this time, it should be noted that as the component “xi, yi” used here, only data determined to be a stationary part from the above-described verification of the envelope component is selected. Then, parameters R and I that minimize the square error ε are obtained as follows.
[0167]
First,
[0168]
[Expression 7]
Figure 0004746761
[0169]
Equation (7)
[0170]
[Equation 8]
Figure 0004746761
[0171]
This is expressed by the following equation (7 ′).
By solving the simultaneous equations of the above equation (7 ′), the parameters R and I can be obtained, and the phase φ and the amplitude A can be estimated simultaneously.
[0172]
Here, if the data series divides the section of k / (2 · fm) (k is a positive integer) equally into m, the above equation (7 ′) is
[0173]
[Equation 9]
Figure 0004746761
[0174]
As shown by the following equation (8), a discrete Fourier transform (Fourier series expansion) for obtaining a coefficient of a specific frequency is obtained.
[0175]
The unsteady state removed as inappropriate by obtaining the values of the parameters R and I by using the appropriate data around the unsteady portion according to the above formula (7 ') or the above formula (8). Repair (replace) the part.
[0176]
As another repair method, there is a method in which a linear prediction model is considered and repair is performed by predicting sequentially using a linear prediction algorithm without specifying the spatial frequency of grid stripes.
[0177]
The signal waveform obtained by the above-described repair is generally a steady sine wave, and is a component that very well represents the grid stripe component.
[0178]
However, the above signal waveform (grid fringe component signal waveform) was originally the result of narrow span FIR filtering with the coefficients (a1, b1, a1) shown in equation (2) above, and is shown in FIG. It has such a response characteristic of the filter as described above and contains a large amount of image components other than the grid stripe components.
[0179]
Therefore, in the present embodiment, filtering for extracting only components near the spatial frequency fm of the grid stripes is performed on the signal waveform. This filtering is performed on a component in which an unsteady component has already been repaired by the above-described operation, and artifacts such as ringing due to the filtering do not occur.
[0180]
When the envelope generation described above is performed on the signal of the grid fringe component after filtering, when there is a portion where a very small value (a value close to “0”) is observed, this portion is: Originally, the grid stripe component is a portion that has not been observed for some reason (for example, X-rays are completely blocked or the sensor is saturated), and the grid stripe component does not originally exist. Therefore, information on this part is recorded and replaced with “0” after subsequent filtering. The result of this processing is subtracted from the target image signal as a grid stripe component.
[0181]
In the present embodiment, grid stripe component extraction processing is executed while sequentially extracting target line data from the target image signal one line at a time. When one line data is extracted, the average of several line data before and after that is extracted. It is also possible to extract the grid stripe component after obtaining the image, that is, after weakening the image component or enhancing the grid stripe component.
[0182]
The above is because the grid stripe and the sensor are usually arranged almost in parallel, and the components of the grid stripe of a certain line and the grid stripe of a line in the vicinity thereof are very similar.
[0183]
Therefore, as another form of the present embodiment, in order to reduce the number of calculation processes for extracting grid stripe components, the processing line is thinned out by using the above-mentioned very similar feature. The grid stripe component extracted in step 1 is set as the grid stripe component of the line in the vicinity thereof. In other words, the grid fringe component extraction process is not performed on the line in the vicinity of the line from which the grid fringe component is extracted, and the subtraction process from the line data in the vicinity is performed using the grid fringe component extracted in the certain line. Can also be performed.
[0184]
In order to determine whether or not the above-described thinning is possible, in the first processing step described above, when measuring the spatial frequency of the grid stripes, the lines before and after being sampled or between the sampled lines are measured. Check the phase difference of the grid stripe and confirm that the grid stripe is not tilted with respect to the sensor.
[0185]
As another form of the present embodiment, as described above, when the grid stripe component is removed from the target image signal, the irradiation field in the target image signal is recognized by detecting the signal intensity or the like. The above-described grid stripe component removal process may be performed only on the image data inside the irradiation field.
[0186]
Moreover, if the extraction of the grid stripe component used for the grid stripe component removal processing as described above is performed on all the frame images constituting the X-ray moving image, a lot of time is required. Since it is impossible to execute the extraction process in real time, in the present embodiment, the extraction process is performed on a selected frame image (target frame image) among a plurality of frame images constituting the X-ray moving image. The grid stripe component acquired by this is held as an image, and a grid stripe component removal process using the same grid stripe component is performed on a frame image at a time close to the target frame image.
[0187]
By the way, for example, when acquiring an X-ray image with a solid-state image sensor, there is a problem of defective pixels as a problem peculiar to the solid-state image sensor formed by arranging a plurality of pixels. Due to the redundancy of image information (spatially having a low frequency component as a main component), if there are a small number of defective pixels, in most cases, the defective pixels are repaired by average interpolation from the surrounding pixel values ( Correction) is possible.
[0188]
However, in general, prediction is necessary due to the statistical properties around defective pixels. For example, when the grid stripe is 50% or more of the Nyquist frequency as in the present embodiment, the prediction is reversed in the average interpolation.
[0189]
FIG. 4 shows a response function as filtering in a case where an arbitrary point is a defective pixel in one dimension and interpolation is performed with the average of two pixels on both sides thereof.
In FIG. 4 above, the spatial frequency is represented on the horizontal axis. As shown in FIG. 4, when the spatial frequency is low and is 50% or less of the Nyquist frequency, the response is “positive”, that is, the phase is not reversed. On the other hand, when it becomes 50% or more of the Nyquist frequency, the phase is inverted, and an expected interpolation result cannot be obtained.
[0190]
FIG. 5 shows an example of defective pixel interpolation.
In FIG. 5, black circle points represent pixel values obtained from normal pixels, and points indicated by arrows (“defective pixel positions”) represent defective pixels for which data is not obtained. Further, FIG. 5 shows a state in which each pixel data (data indicated by a black dot) vibrates finely due to reflection of grid stripes.
Also, the white circle point “A: average interpolation value” in FIG. 5 is a pixel value obtained by the conventional average interpolation, and “B: ideal interpolation value” in FIG. 5 is indicated. A certain white circle point is an interpolation value in consideration of grid stripes.
[0191]
In the present embodiment, the following two methods are performed in order to obtain an ideal interpolation value indicated by “B: ideal interpolation value” in FIG.
(Method 1: Linear prediction method)
In FIG. 5, the data of the defective pixel position is obtained by linear prediction from the surrounding pixels.
(Method 2)
By removing the grid stripe component from the original image signal by the above-described grid stripe removal process, the interpolation process by averaging which is a conventional method is performed in a state where the main component of 50% or less of the Nyquist frequency is eliminated.
[0192]
The outline of the linear prediction method (method 1) will be described below.
[0193]
First, as image data (pixel data) to be processed,
Data series {X n , X n-1 , X n-2 , ..., X np }
And data X in “n” n But,
[0194]
[Expression 10]
Figure 0004746761
[0195]
It is assumed that the difference equation (9)
In the above formula (9), “ε n “Represents a white noise sequence, and“ ai {i = 1,..., P} ”represents a linear prediction coefficient. Such a sequence is expressed as“ autoregressive process (AR process) X ”. n "
[0196]
The above equation (9) is transformed into the delay operator Z -1 If you rewrite using
[0197]
[Expression 11]
Figure 0004746761
[0198]
Equation (10) is obtained.
[0199]
However, the above formula (10) is
[0200]
[Expression 12]
Figure 0004746761
[0201]
Since it is expressed by the following equation (10 ′), the AR process X n Is the pulse transfer function 1 / A (z -1 ) Input of a linear filter with n Can be defined (spectrum estimation).
[0202]
In addition, the above equation (9) is obtained by calculating the linear prediction coefficient ai {i = 1,..., P} from the reliable (n−1) -th pixel data. This indicates that the pixel data can be predicted.
[0203]
The prediction of the linear prediction coefficient ai {i = 1,..., P} can be performed by using maximum likelihood estimation (least square estimation) while assuming that the apparatus or system is stationary. That is, ε n Can be obtained that minimizes the power (dispersion). ε n Is an error obtained by least square estimation, and does not have the following correlation component corresponding to the predicted order. Therefore, the prediction error ε obtained by prediction with the necessary and sufficient order p n Becomes white noise as defined in Equation 9.
[0204]
Prediction error ε n Is a mean square (mean value “0”), the function E [*] representing the mean is
[0205]
[Formula 13]
Figure 0004746761
[0206]
It is represented by the following formula (11).
[0207]
In the above formula (11),
R (τ) = E [X m X m + τ] (covariance function: covariance)
And both sides have a coefficient a to obtain the minimum value. k If you differentiate it and set it to “0”,
[0208]
[Expression 14]
Figure 0004746761
[0209]
The following simultaneous equations (12) are obtained. This is what is called a normal equation or Yule-Walker equation.
[0210]
Actually, the autocorrelation R (*) is not calculated at all pixel points, but an estimated value calculated with a limited (given) number of pixels is used.
For example, the Levinson algorithm which is a high-speed algorithm is used, but the Burg algorithm may be used. The Burg algorithm is an algorithm based on the maximum entropy method that can be obtained without directly calculating covariance (autocorrelation) with data having a smaller number of pixels. These algorithms mathematically match if the prediction error is a normal distribution and the number of pixels is large, but if the number of pixels is small, the Burg algorithm (an algorithm based on the maximum entropy method) is advantageous.
[0211]
The coefficient a obtained by the above calculation k Is used to obtain expected pixel data from pixels before and after the defective pixel.
[0212]
[First embodiment]
The present invention is applied to, for example, an X-ray image acquisition apparatus 100 as shown in FIG.
[0213]
<Overall Configuration and Operation of X-ray Image Acquisition Apparatus 100>
The X-ray image acquisition apparatus 100 according to the present embodiment is an apparatus for acquiring a medical (image diagnosis or the like) X-ray moving image. As shown in FIG. 1, the X-ray image is acquired from a subject 102 (here, a human body). ), An X-ray generation unit 101 for generating scattered X-rays from the subject 102, a planar X-ray sensor 104 for detecting the distribution of X-ray dose transmitted through the subject 102, A controller 105 (CONT) of the X-ray generator 101, an analog / digital (A / D) converter 106 that converts an electric signal output from the X-ray sensor 104 into digital data, and an output from the A / D converter 106 A memory 107 for temporarily storing the digital data to be processed as frame image data, and a memory 10 for storing the digital data acquired by imaging without emitting X-rays And an arithmetic unit 109 that performs arithmetic processing using the data in the memory 108 on the frame image data in the memory 107, and a conversion table of frame image data after the arithmetic processing in the arithmetic unit 109 (reference table: Look UpTable, (Hereinafter also referred to as “LUT”) 110, a memory 111 for storing gain pattern data for correcting gain variations among pixels constituting the X-ray sensor 104, and converted frame image data output from the LUT 110. On the other hand, an arithmetic unit 112 that performs arithmetic processing using the gain pattern data of the memory 111, a memory 113 that temporarily stores frame image data after the arithmetic result of the arithmetic unit 112, and a defective pixel unique to the X-ray sensor 104 Memory 114 for storing information (defective pixel position information, etc.) and information in the memory 114 A correction processing unit 115 that performs correction processing on the frame image data stored in the memory 113, a memory transfer control unit 142 that controls reading of the frame image data after the correction processing in the memory 113, and a memory transfer control unit A memory 143 that stores frame image data read from the memory 113 under the control of 142, a grid stripe detection unit 116 that detects information about grid stripes from the frame image data in the memory 143, and a grid stripe detection unit 116. The grid stripe component extraction unit 117 that extracts the grid stripe component from the frame image data in the memory 143 based on the information obtained in the above, and the memory that temporarily stores the grid stripe component extracted by the grid stripe component extraction unit 117 118 and a memory transfer that controls reading of grid stripe components in the memory 118. The control unit 140, the memory 141 that stores the grid stripe component read from the memory 118 under the control of the memory transfer control unit 140, and the calculator 119 that subtracts the grid stripe component in the memory 141 from the frame image data in the memory 113. And a memory 120 that temporarily stores a calculation result (frame image data after removal of the grid stripe component) in the calculator 119, and an image processing unit 121 that performs image processing on the frame image data in the memory 120 and outputs the result. ing.
[0214]
In the X-ray image acquisition apparatus 100 as described above, the controller 105 of the X-ray generation unit 101 starts X-ray emission at the X-ray generation unit 101 when a generation trigger is applied by an operator from an operation unit (not shown). To do.
Thereby, the X-ray generation unit 101 emits X-rays to the subject 102 that is a human body.
[0215]
X-rays radiated from the X-ray generation unit 101 pass through the subject 102 and reach the X-ray sensor 104 via the grid 103 that removes scattered X-rays from the subject 102.
[0216]
The X-ray sensor 104 has a configuration in which a plurality of detectors (pixels) for detecting the X-ray intensity are arranged in a matrix on a surface (image receiving surface) for detecting the distribution of the X-ray dose transmitted through the subject 102. An electric signal corresponding to the X-ray intensity obtained by the plurality of detectors (pixels) arranged in a matrix is output.
[0217]
As the X-ray sensor 104, for example, the following sensors (1) and (2) are applicable.
Sensor (1):
A sensor that converts X-ray intensity into fluorescence once, and detects the fluorescence by photoelectric conversion with a plurality of detectors arranged in a matrix.
Sensor (2):
X-rays radiated to a specific object are photoelectrically converted in the object and free electrons are attracted by a uniform electric field to form a charge distribution, and the charge distribution is divided into a plurality of matrix-arranged charges. A sensor adapted to be converted into an electrical signal by a charge detector (capacitor).
[0218]
The A / D converter 106 digitizes and outputs the electrical signal output from the X-ray sensor 104.
Specifically, the A / D converter 106 sequentially converts the electric signal output from the X-ray sensor 104 into digital data in synchronization with the X-ray emission of the X-ray generation unit 101 or the driving of the X-ray sensor 104. Convert to and output.
[0219]
In FIG. 6, one A / D converter 106 is provided. However, for example, a plurality of A / D converters may be provided and operated in parallel. As a result, the digital conversion speed can be increased, and the processing can proceed efficiently.
[0220]
The digital data output from the A / D converter 106 is temporarily stored in the memory 107 as frame image data.
Accordingly, the memory 107 stores digital image data (frame image data) that is a set of a plurality of pixel data corresponding to a plurality of pixels constituting the X-ray sensor 104.
[0221]
The memory 108 stores in advance digital data acquired by imaging without emitting X-rays. This digital data is data for removing fixed pattern noise existing in an offset manner unique to the X-ray sensor 104 from the frame image data stored in the memory 107. Therefore, in the X-ray image acquisition apparatus 100, imaging is performed in a state where the X-ray generation unit 101 does not emit X-rays, and the digital data acquired thereby is stored in the memory 108 as image data.
[0222]
The computing unit 109 stores image data stored in the memory 108 for each of a plurality of pieces of pixel data constituting frame image data (image data obtained by X-rays transmitted through the subject 102) stored in the memory 107. A process of subtracting pixel data at corresponding positions from among a plurality of pixel data constituting (fixed pattern noise image data obtained by imaging without X-rays) is executed.
[0223]
The LUT 110 converts the frame image data processed by the computing unit 109 into a value proportional to the logarithm and outputs it.
[0224]
The memory 111 stores gain pattern data for correcting variation in gain of each pixel constituting the X-ray sensor 104 with respect to the frame image data converted by the LUT 110. For this reason, in the X-ray image acquisition apparatus 100, X-ray imaging is performed in the absence of the subject 102, and fixed pattern noise is removed from the obtained image data using digital data stored in the memory 108. Further, the data obtained by converting into a value proportional to the logarithmic value by the LUT 110 is stored in the memory 111 as gain pattern data.
[0225]
The computing unit 112 subtracts the gain pattern data in the memory 111 from the frame image data output from the LUT 110 (corresponding to division if logarithmic conversion is not performed), and outputs the result.
The frame image data subjected to the subtraction processing by the calculator 112 is temporarily stored in the memory 113.
[0226]
Note that, when image data used for gain pattern data to be stored in the memory 111 is acquired, if image capturing is performed with the grid 103 attached, grid stripes are reflected in the gain pattern data obtained thereby. Become. What is expected is that when the gain pattern data is subtracted from the target image data by the computing unit 112, the grid stripes reflected in the subject 102 are close to gain fluctuations, so that the grid stripe components are removed. It is possible that However, the gain pattern data obtained by shooting without the subject 102 is unlikely to be acquired every time an image is acquired (every actual shooting), and in most cases, is acquired once a day or less frequently. In addition, since the positional relationship between the X-ray generation unit 101 and the X-ray sensor 104 may change for each imaging, the grid stripe component is not removed by the above subtraction. Even if the positional relationship is not changed, since the X-ray scattered dose and the radiation quality are generally different between the imaging with the subject 102 and the imaging without the subject 102, the grid stripe contrast is different. The fringe component is not removed by subtraction.
In any case, if the grid 103 direction matches, the spatial frequency of the grid stripes will not fluctuate. Preferably, when gain pattern data is acquired, the grid 103 itself should be removed so that grid stripes are not included in the gain pattern data.
[0227]
The memory 114 stores information regarding defective pixels unique to the X-ray sensor 104 (defective pixel position information and the like).
Specifically, for example, a flat X-ray sensor is generally manufactured by a semiconductor manufacturing technique, but the yield is not 100%, and a plurality of detectors (pixels) are not included due to some cause in the manufacturing process. Some are defective pixels that do not make sense as detectors, that is, their output has no meaning. Here, the X-ray sensor 104 is inspected in advance in the manufacturing process or by means (not shown), and the position information of the defective pixel obtained as a result is stored in the memory 114.
[0228]
The correction processing unit 115 corrects the defective pixel data in the plurality of pixel data constituting the frame image data stored in the memory 113 based on the position information of the defective pixel stored in the memory 114, and the corrected pixel The data is stored again in the corresponding position in the memory 113.
[0229]
The memory transfer control unit 142 controls reading of frame image data in the memory 113 (image data after correction processing by the correction processing unit 115) in the memory 113 based on a calculation end signal given from a grid stripe component extraction unit 117 described later. .
The memory 143 stores the frame image data read from the memory 113 by the memory transfer control unit 142.
[0230]
The grid stripe detection unit 116 analyzes grid stripes on the frame image data in the memory 143 (image data after the correction processing by the correction processing unit 115), and the grid stripe spatial frequency fm and the grid stripe angle. Detect and output θ.
[0231]
The grid stripe component extraction unit 117 reads frame image data (image data after the correction processing by the correction processing unit 115) in the memory 143, and the grid stripe space obtained by the grid stripe detection unit 116 from the read image data. Based on the frequency fm and the grid stripe angle θ, a grid stripe component is extracted, and then an operation end signal indicating the end of the extraction process is output to each of the memory transfer control unit 142 and the memory transfer control unit 140. .
The grid stripe component obtained by the grid stripe component extraction unit 117 is temporarily stored in the memory 118.
[0232]
The memory transfer control unit 140 controls reading of the grid stripe component in the memory 118 based on the calculation end signal given from the grid stripe component extraction unit 117.
The memory 141 stores the grid stripe component read from the memory 118 by the memory transfer control unit 140.
[0233]
The computing unit 119 subtracts the grid stripe component stored in the memory 141 from the frame image data in the memory 113 (image data after the correction processing by the correction processing unit 115).
The frame image data from which the grid stripe component has been subtracted by the calculator 119 is temporarily stored in the memory 120.
[0234]
The image processing unit 121 performs image processing on the frame image data in the memory 120 so that the observer can easily observe the frame image data.
Examples of the image processing here include the following processing.
-Random noise removal processing from frame images.
When the frame image is displayed, the gradation is converted or the detailed part is emphasized so that the density value is easy for the observer to see.
A part unnecessary for the observer is cut out from the frame image to reduce the information amount of the frame image or to compress the frame image information.
[0235]
The frame image data processed by the image processing unit 121 is displayed on a display unit, stored in a storage unit or a storage medium, and recorded on a recording medium by an unillustrated means, externally or in the X-ray image acquisition apparatus 100 Recording or analysis processing is performed.
[0236]
<Configuration and Operation Characteristic of X-ray Image Acquisition Apparatus 100>
7A to 7E illustrate the X-ray image acquisition apparatus 100 with particular attention paid to the timing of data reading by the memory transfer control unit 140 and the memory transfer control unit 142 and the processing for the read data. It is.
[0237]
FIG. 7A shows the timing at which the frame image data sequentially acquired by the X-ray sensor 104 is stored in the memory 113. The frame image data sequentially stored in the memory 113 is subjected to processing for removing grid stripe components in the memory 141 by the calculator 119.
[0238]
FIG. 7B shows the calculation end signal output from the grid stripe component extraction unit 117. As shown in FIG. 7B, the calculation end signal is a high-level signal and indicates that the extraction of the grid stripe component is ended (computation is completed).
[0239]
FIG. 7C shows the operation timing of the memory transfer control unit 142 based on the calculation end signal output from the grid stripe component extraction unit 117. As shown in FIG. 7C, the memory transfer control unit 142 has a timing at which the extraction of the grid stripe component is completed by the calculation end signal from the grid stripe component extraction unit 117 (the calculation end signal is When it is a high level signal), the frame image data in the memory 113 is read out to the memory 143.
[0240]
FIG. 7D shows the operation timing of the grid stripe detection unit 116 and the grid stripe component extraction unit 117. As shown in FIG. 7D, when the frame image data is transferred to the memory 143, the grid stripe detection unit 116 and the grid stripe component extraction unit 117 operate, and the grid stripe component obtained as a result is Stored in the memory 118. At the timing when this operation ends, the grid stripe component extraction unit 117 outputs a high-level calculation end signal as shown in FIG.
[0241]
FIG. 7E shows the operation timing of the memory transfer control unit 140 based on the calculation end signal output from the grid stripe component extraction unit 117. As shown in FIG. 7 (e), the memory transfer control unit 140 has a timing at which the extraction of the grid fringe component is completed by the calculation end signal from the grid stripe component extraction unit 117 (the calculation end signal is In the case of a high level signal), that is, when the grid stripe component is stored in the memory 118, the grid stripe component in the memory 118 is read out to the memory 141. Thereby, the grid stripe component in the memory 141 is updated.
[0242]
That is, in this embodiment, as shown in FIGS. 7A to 7E, grid fringe component extraction processing is not performed on all frame images constituting an X-ray moving image, but one frame. At the timing when the grid stripe component extraction processing for the image is completed, the next grid stripe component extraction processing is executed, and the same grid stripe component extracted immediately before (stored in the memory 141) is extracted for the frame image in the meantime. The grid stripe component is removed using the grid stripe component). In general, in such a frame image, the position of the X-ray generation unit 101, its X-ray energy, or the position of the subject 102 is almost unchanged in continuous frame images. This operation is effective when there is no fluctuation.
[0243]
In the present embodiment, the memory transfer control unit 142 is configured to capture the frame image to be subjected to the next extraction process into the memory 143 at the timing when the grid stripe component extraction process for one frame image is completed. However, the present invention is not limited to this. For example, a frame image may be periodically taken into the memory 143 using another arbitrary timing control mechanism, and the grid stripe component extraction process may be performed on the frame image.
[0244]
In this embodiment, X-ray moving images are targeted. However, for example, for a still image, a previously extracted grid stripe component is used for the grid stripe component removal processing for the still image acquired this time. May be. In this case as well, the burden required for extracting grid stripe components can be reduced.
[0245]
<Other Specific Configuration and Operation of X-ray Image Acquisition Apparatus 100>
Here, in the X-ray image acquisition apparatus 100 described above, the following components that are considered to require other specific description will be specifically described.
(1) Grid stripe component image data stored in the memory 118
(2) Correction processing of defective pixels by the correction processing unit 115
(3) Grid stripe component detection and extraction processing by the grid stripe detection unit 116 and the grid stripe component extraction unit 117
[0246]
(1) Grid stripe component image data stored in the memory 118
The image data of the grid stripe component stored in the memory 118 is data that is subtracted from the frame image data on which the grid stripe component is superimposed, but the data stored in the memory 118 is subtracted as in the present embodiment. If the configuration is such that it is stored separately in association with the subsequent target image data, the frame image data on which the original grid stripes are superimposed can be reproduced from the frame image data from which the grid stripes have been removed. Thereby, for example, even if the frame image data is damaged due to some trouble in the grid removal process, it is possible to restore the original frame image data by the above reproduction process.
[0247]
(2) Correction processing of defective pixels by the correction processing unit 115
The correction processing unit 115 executes processing as described below, for example, by software using a microprocessor.
[0248]
8 to 11 show examples of the distribution of pixel defects in the X-ray sensor 104. FIG.
Here, it is assumed that the pixel defect basically exists only in the width of one pixel. This is because an X-ray sensor having a plurality of adjacent pixel defects in a large lump is generally not used because it is difficult to repair defective pixels.
[0249]
8 to 11, each square represents a pixel, and the black square represents a defective pixel. Further, in the lower part of the figure, the direction (vertical direction) of the grid stripes of the grid 103 is illustrated.
[0250]
First, the defective pixel shown in FIG. 8 is a basic pixel defect. As shown in FIG. 8, there are eight adjacent pixel components a1 to a8 around the defective pixel (black cells). Yes.
[0251]
FIG. 12 schematically shows the signal distribution on the spatial frequency axis of the grid stripe component in the target image in which the defective pixel shown in FIG. 8 exists and the grid stripe component exists.
In FIG. 12, the horizontal axis represents the horizontal spatial frequency axis u of the target image, the vertical axis represents the vertical spatial frequency axis v of the target image, and both the spatial frequency axis u and the spatial frequency axis v. A “sampling frequency” that is the reciprocal of the pixel pitch and a “Nyquist frequency” that is a half value thereof are shown on the axis.
[0252]
Since the grid stripe vibrates in the horizontal direction of the target image and is constant in the vertical direction, the component of the grid stripe exists on the spatial frequency axis u as shown in FIG. (See white circle in the figure).
[0253]
In a normal image, the principal component is distributed in a spatial frequency region below the half value of the Nyquist frequency, and if there is no grid stripe component, interpolation can be performed by averaging pixel values on both sides of a defective pixel. . This is because the influence of the interpolation on the spatial spectrum indicates, for example, the filtering response function (characteristic) shown in FIG.
[0254]
Therefore, in the case of the correction of the defective pixel shown in FIG. 8, since there is no grid stripe component in the vertical direction, the average of the pixels in the vertical direction, that is, the average of the pixel component a2 and the pixel component a6, or any one of the pixels. Depending on the component, almost satisfactory correction is possible.
[0255]
The defective pixel shown in FIG. 9 is a pixel defect that is connected horizontally (see black squares in the figure). In the case of a defective pixel having such a shape as well, the vertical direction of each pixel is a direction parallel to the grid stripes as in the case of the defective pixel shown in FIG. Satisfactory correction is possible.
[0256]
The defective pixels shown in FIG. 10 are pixel defects that are vertically connected (see the black squares in the figure). In the case of a defective pixel having such a shape, there is no pixel having a reliable value above and below the target pixel with respect to the defective pixel at the upper end or the defective pixel at the lower end of the connected defective pixel. If defect correction is performed on a defective pixel in such a state with a simple horizontal average or the like, a correction result with an unexpected value as described with reference to FIG. 5 is obtained.
[0257]
Therefore, in the present embodiment, using the simultaneous equations as shown in the above equation (12) with normal pixel components connected to the right or left of the target defective pixel, the coefficient a k (K = 1 to P) is obtained from the left and right of the target defective pixel.
At this time, for example, the number of pixels to be used is about 20, and the order k is about 5.
[0258]
And coefficient a k Therefore, the target defective pixel value X is expressed by the above equation (9). n All the defective pixel values X obtained as a result n Find the average of. As a result, “B: ideal interpolation value” as shown in FIG. 5 is obtained.
[0259]
In the present embodiment, the coefficient a is calculated using the above equation (12). k (K = 1 to P) is obtained, but the present invention is not limited to this. For example, an algorithm called a maximum entropy method may be used.
[0260]
The defective pixel shown in FIG. 11 is a defective pixel in which the state of the defective pixel shown in FIG. 9 and the state of the defective pixel shown in FIG. Among the defective pixels in this state, the pixel in question is a pixel at the intersection of the vertically connected defective pixel and the horizontally connected defective pixel (pixels overlapping the cross), that is, the pixel components a4 and a12. , A18, a24 are defective pixels.
[0261]
The correction of the defective pixels in the state as shown in FIG. 11 is performed by correcting the linear defective pixels continuous in the horizontal direction by averaging the upper and lower pixel components, and the correction of the linear defective pixels continuous in the vertical direction is performed. , Using the simultaneous equations as described above.
Specifically, the following three methods {circle around (1)} to {circle around (3)} can be mentioned, and almost the same result can be obtained by any method.
[0262]
(1) Correction of a defective pixel surrounded by the pixel components a4, a12, a18, a24 is performed using the average value of the upper and lower defect correction values (corrected defective pixel values).
(2) Correction of the defective pixel surrounded by the pixel components a4, a12, a18, and a24 is performed by solving the simultaneous equations of the above equation (12) using the left and right pixel values as the defect correction values.
(3) Correction of defective pixels surrounded by the pixel components a4, a12, a18, and a24 is performed using the average value of the results of (1) and (2).
[0263]
By executing the processing as described above, defective pixel data in a plurality of pixel data constituting frame image data stored in the memory 113 is corrected.
[0264]
(3) Grid stripe component detection and extraction processing by the grid stripe detection unit 116 and the grid stripe component extraction unit 117
[0265]
The grid stripe detection unit 116 reads a part of the frame image data stored in the memory 113, examines the spectrum of the grid stripe included in the frame image data based on the read data, and determines the spatial frequency fm and angle of the grid stripe. θ is detected. Information on the spatial frequency fm and the angle θ (hereinafter also referred to as “angle η”) of the grid stripes is used in the grid stripe component extraction process in the grid stripe component extraction unit 117 in the subsequent stage.
[0266]
FIGS. 13A to 13D are diagrams for explaining the detection processing of the spatial frequency fm and the angle θ of the grid stripes.
[0267]
FIG. 13A shows an image of the entire target frame image, and “L1” to “L6” represent line positions from the upper part of the target frame image. The grid stripe detection unit 116 measures the spatial frequency fm of the grid stripe based on the result of Fourier transform of the lines L1 to L6. At this time, when detecting the spectrum of the grid stripe, the grid stripe detection unit 116 may use the average of several lines before and after each line L1 to L6 (or the average of the spectrum) in order to increase the detection capability. Good.
[0268]
FIGS. 13B to 13D each show a Fourier transform result in the line L1.
That is, FIG. 12B shows the amplitude spectrum (or power spectrum), FIG. 12C shows the value of the real part that is the coefficient of the cosine wave of the Fourier transform result, and FIG. , The value of the imaginary part, which is the coefficient of the sine wave.
[0269]
FIG. 14 is a flowchart showing the above processing of the grid stripe detection unit 116.
[0270]
First, the grid stripe detection unit 116 clears a variable cumulation for obtaining an average of spectra (step S201).
In addition, the grid fringe detection unit 116 clears the target for obtaining the average of the spectrum and the counter (variable) n of the number of lines (step S202).
Further, the grid stripe detection unit 116 initializes a variable i for selecting a processing target line (selected line) from the lines L1 to L6 shown in FIG. 13A to “1” (step S203). Thereby, in the first process, the line L1 is selected and processed as the target line.
[0271]
Then, the grid stripe detection unit 116 determines whether or not the processing of the next step S205 to step S215 has been executed for all the lines L1 to L6 of the target frame image (step S204).
As a result of this determination, the process proceeds to step S216 described later only when the process is completed. If the process has not been completed yet, the process from the next step S205 is executed.
[0272]
If the processing is not completed as a result of the determination in step S204, first, the grid stripe detection unit 116 selects the line Li indicated by the variable i from the lines L1 to L6 of the target frame image, and the data (line data). Li) is acquired (step S205).
[0273]
Next, the grid stripe detection unit 116 performs a Fourier transform process such as a fast Fourier transform on the line data Li acquired in step S205 (step S206).
[0274]
Next, the grid stripe detection unit 116 obtains a power spectrum (or amplitude spectrum) from the Fourier transform result (spatial frequency domain data) in step S206 (step S207).
[0275]
Next, the grid stripe detection unit 116 determines whether or not there is a significant spectrum (peak value) indicating the grid stripe in the power spectrum acquired in step S207 (step S208).
[0276]
Specifically, for example, first, the absolute spatial frequency of grid lead that causes grid stripes is known at the stage where the grid 103 is installed, so that the frequency is used as “fg”. The discrimination process in step S208 can be performed accurately.
[0277]
That is, when the sampling pitch of the X-ray sensor 104 is “Ts”, the approximate spatial frequency fm where the grid stripes are generated is
[0278]
[Expression 15]
Figure 0004746761
[0279]
It can be specified by the following conditional expression (13).
[0280]
At this time, in the above formula (13), when the condition shown in (3) is satisfied, the spatial frequency fm ′ obtained in (2) is used and the condition shown in (3) is not satisfied. In this case, (1) is executed as “J ← J + 1”.
[0281]
The accurate spatial frequency fm of the grid stripe should be present in the vicinity of “fm ′” obtained by the above equation (13), and it is determined whether or not a peak value (significant spectrum indicating the grid stripe) exists. In this case, if only the vicinity is searched, even if there are different peak values due to the influence of image components, noise components, etc., detection of peak values that are significant spectra showing grid stripes without being affected Can be done.
[0282]
Further, the frequency fg of the grid lead of the grid 103 is manufactured fairly accurately. However, if there is an arbitrary distance or more between the grid 103 and the X-ray sensor 104 during imaging, the X-ray generation unit Since the X-ray beam from 101 has a cone beam shape, the X-ray beam is expanded and reaches the X-ray sensor 104. For this reason, the exact spatial frequency fm becomes different and cannot be easily predicted.
Accordingly, the frequency indicating the peak value among the frequencies in the vicinity of “fm ′” obtained by the above equation (13) is obtained as the spatial frequency fm.
[0283]
However, in the above case, it is necessary to determine whether or not the value corresponding to the obtained peak value is a significant peak value that actually exists stably. This determination is normally made based on the noise level. The noise level may be measured in advance, or an average value of components other than the peak value in the high band of the spectrum may be substituted. For example, if the ratio between the sum (or average value) of the power spectra of neighboring spectrum values indicating peak values and the noise level is about 10 or more, it is determined that the peak value is usually significant and stable.
[0284]
As a result of the determination in step S208 as described above, if there is no significant peak value, the grid fringe detection unit 116 counts up the variable i to process the next line (step S217), and the step again Returning to S204, the subsequent processing steps are repeatedly executed.
[0285]
On the other hand, if there is a significant peak value as a result of the determination in step S208, the grid fringe detection unit 116 sets Pi as the spatial frequency indicating the peak value (step S209), and adds this to the variable accumulation (step S209). Step Ss210).
[0286]
Further, the grid stripe detection unit 116 obtains the phase of the grid stripe, sets the line position indicated by the phase and the variable i for the variable θn and the variable Mn (step S211 to step S214), and increments the variable n. (Step S215).
Thereafter, in order to process the next line, the grid stripe detection unit 116 counts up the variable i (step S217), returns to step S204 again, and repeatedly executes the subsequent processing steps.
[0287]
As described above, when the processing of steps S205 to S215 is completed for all the lines L1 to L6, the grid fringe detection unit 116 changes the value of the current variable cumulation to the value of the current variable n ( By dividing by the number of significant peak values), the average spatial frequency fm of the grid pattern is obtained (step S216).
[0288]
In addition, after executing the processing of FIG. 14, the grid stripe detection unit 116 uses the variable θi (i = 0 to n−1) obtained in step S213 as the line position Mi (i = 0 to n−) in step S214. This is used to obtain the average grid stripe angle η (angle θ) according to 1).
[0289]
That is, the grid stripe detection unit 116 determines the phase θ of the i-th line Li. i And the phase θ of the (i + 1) th line L (i + 1) i + 1 And the phase difference (θ i −θ i + 1 ) By the spatial frequency fm of the grid pattern,
[(Θ i −θ i + 1 ) / 2π] / fm
The line difference between the line Li and the line L (i + 1) is
(Mi + 1) -Mi
Using these results, the angle η of the grid stripe is
[0290]
[Expression 16]
Figure 0004746761
[0291]
It calculates | requires by Formula (14) which becomes.
[0292]
Then, when the angle η obtained by the above equation (14) is not abnormally inclined, the grid stripe detection unit 116 performs processing for extracting grid stripes every several lines, and the angle η When it is inclined abnormally, a process of extracting grid stripes is executed for each line.
[0293]
In the process executed by the grid stripe detection unit 116 described above, it is assumed that the direction (vertical or horizontal direction) of the grid stripe is known. For example, when the direction of the grid stripe is unknown, for example, The same processing is executed in advance in both the vertical direction and the horizontal direction, and the direction in which a significant peak value is detected is set as a direction substantially orthogonal to the grid stripes.
[0294]
When the grid stripe detection unit 116 executes the processing as described above, the spatial frequency fm and the angle θ (angle η) of the grid stripe are obtained.
The grid stripe component extraction unit 117 uses the grid stripe spatial frequency fm and the angle θ (angle η) obtained by the grid stripe detection unit 116, and includes the grid stripe component that is actually stored in the memory 143. A grid stripe component is extracted from the frame image data, and the grid stripe component is stored in the memory 118.
[0295]
FIG. 14 is a flowchart showing grid stripe component extraction processing in the grid stripe component extraction unit 117.
[0296]
First, the grid stripe component extraction unit 117 is given the grid stripe angle θ obtained by the grid stripe detection unit 116 and the spatial frequency fm of the grid stripe as processing parameters.
The grid fringe component extraction unit 117 performs the processing of step S300 to step S321 described below based on the processing parameters (grid fringe angle θ and grid fringe spatial frequency fm).
[0297]
If the value of the spatial frequency fm of the grid stripe given to the grid stripe component extraction unit 117 is “0”, the grid stripe does not exist on the target frame image, that is, the grid 103 is not used. In this case, the grid stripe component extraction unit 117 does not execute the processing shown in FIG. For example, the memory 118 stores “0” data as the grid stripe component in this case. Alternatively, since the computing unit 119 does not function, the target image data stored in the memory 113 is stored in the memory 120 as it is.
[0298]
When the grid stripe angle θ and the spatial frequency fm of the grid stripe are given from the grid stripe detection unit 116 to the grid stripe component extraction unit 117, first, the grid stripe component extraction unit 117 uses the above formula (2). Then, the coefficients a1 and a2 (or the coefficients (a2, b2, c2, b2, a2) of the symmetric 5-point filter) are obtained from the spatial frequency fm (step S300). The FIR filter corresponding to the coefficient obtained here is “FIR1”.
[0299]
Next, the grid fringe component extraction unit 117 calculates the coefficient a3 from the spatial frequency fm using the above equation (3) (step S301). The FIR filter corresponding to the coefficient obtained here is “FIR2”.
[0300]
Next, the grid fringe component extraction unit 117 generates a window function centered on the spatial frequency fm in order to perform FIR filtering in the region of the spatial frequency fm (step S302).
As the window function here, for example, a Gaussian distribution shape function centered on the spatial frequency fm can be applied.
[0301]
Next, the grid fringe component extraction unit 117 determines a range of lines on which the grid fringe extraction processing is performed on the line data constituting the target frame image based on the grid stripe angle θ (step S303 to step S303). S305).
[0302]
Specifically, for example, the grid stripe component extraction unit 117 sets the reference value of the angle θ to “0.1 degree”, and the grid stripe angle θ obtained by the grid stripe detection unit 116 is less than the reference value of 0.1 degree. Is also larger or smaller (step S303). As a result of this determination, when the angle θ is smaller than the reference value 0.1 degree, the grid stripe component extraction unit 117 sets “5” for the variable “kip”, thereby omitting the processing for every five lines. Is determined (step S304). On the other hand, when the angle θ is equal to or greater than the reference value 0.1 degree, the grid stripe component extraction unit 117 sets the variable skip to “0” to execute the process for all the lines. Determine (step S305).
[0303]
In step S303 to step S305, for example, not only the setting for the variable skip but also a finer setting may be made based on the angle θ.
[0304]
After the process of step S304 or step S305, the grid stripe component extraction unit 117 initializes the variable count by setting the value of the variable skip set in step S304 or step S305 for the variable count. Is performed (step S306).
[0305]
Then, the grid stripe component extraction unit 117 determines whether or not the current variable count value is equal to or greater than the variable kip value, that is, whether or not the grid stripe extraction process for the target line data should be executed. (Step S307).
If it is determined that the process is to be executed, the process proceeds to step S310. If not, the process proceeds to step S308. However, when this step S307 is first executed, it is always determined that the process is executed, so the process proceeds to the next step S310.
[0306]
As a result of the determination in step S307, in the case of processing execution (skip ≦ count), first, the grid stripe component extraction unit 117 reads one line data (target line) to be processed from the target frame image data stored in the memory 143. Data) is acquired (step S310).
[0307]
In step S310, the target line data may be acquired as it is from the target frame image data. For example, an average value (moving average value) for several lines before and after the target line data is obtained as an actual processing target. You may make it acquire as line data.
[0308]
Next, the grid fringe component extraction unit 117 performs filtering using the FIR1 whose coefficient is determined in step S300 on the target line data acquired in step S310, and stores it in the line buffer 1 (not shown) (step). S311).
As a result of this processing, the line buffer 1 stores image component data including grid stripe components.
[0309]
Next, the grid stripe component extraction unit 117 performs filtering using the FIR2 whose coefficient has been determined in step S301 on the line data stored in the line buffer 1, and stores the filtered data in the line buffer 2 (not shown) ( Step S312).
As a result of this processing, the line buffer 2 stores data for obtaining the envelope of the grid stripe component.
[0310]
Next, the grid stripe component extraction unit 117 obtains an envelope of the grid stripe component (step S313).
That is, the grid stripe component extraction unit 117 obtains the amplitude (that is, the square root of the sum of squares) of the vectors having the data in the line buffer 1 and the data in the line buffer 2 as components, and the result is obtained as the line buffer 3 ( (Not shown). As the calculation here, even a calculation that does not take the square root can be applied due to the monotonic increase of the square root, and the same effect can be obtained.
[0311]
Next, the grid fringe component extraction unit 117 examines data in the line buffer 3, that is, envelope data, and determines an upper limit value th1 and a lower limit value th2 for detecting the abnormal data ( Step S314).
Various methods can be applied to determine the upper limit value th1 and the lower limit value th2. For example, an average value and a standard deviation value are obtained, and n times the standard deviation value from the average value (n is, for example, “ 3) (a value about 3 ″) or a method in which the value shifted by more than the upper limit value th1 and the lower limit value th2 is obtained, or a histogram of envelope data in the line buffer 3 is obtained, and the upper limit value th1 and the lower limit value th2 are centered on the mode value. The method etc. of determining are mentioned.
[0312]
Next, in the envelope data in the line buffer 3, the grid fringe component extraction unit 117 regards data having a value greater than or equal to th1 or less than or equal to value th2 as abnormal data (data resulting from a sharp change in image data, etc.). Then, the data of the grid stripe component in the line buffer 1 corresponding to the abnormal data is estimated from the data around the abnormal data and rewritten (step S315). At this time, data rewriting is performed so that the entire grid stripe component is in a stable state showing a periodic variation pattern.
Note that the processing in step S315 has been described in the explanation part such as the above formula (7 '), and therefore the details thereof are omitted here.
[0313]
Next, the grid fringe component extraction unit 117 performs a Fourier transform process on the data of the grid fringe component in the line buffer 1 that has become an overall stable state by the process of step S315, and thereby the space of the grid fringe component. Frequency domain data is obtained (step S316).
Note that the transformation processing in step S316 is not limited to Fourier transformation, and other orthogonal transformations such as cosine transformation can be applied.
[0314]
Next, the grid fringe component extraction unit 117 performs filtering by the window function centered on the spatial frequency fm obtained in step S302 on the spatial frequency domain data acquired in step S316 (step S317). As a result, the data of the grid stripe component more selectively represents the grid stripe.
[0315]
Next, the grid stripe component extraction unit 117 performs the inverse conversion process of the conversion in step S316 on the grid stripe component data after the filtering process in step S317, and uses the result as the actual grid stripe component data. (Step S318).
[0316]
Next, the grid stripe component extraction unit 117 stores the data of the grid stripe component acquired in step S318 at the corresponding position in the memory 118 (step S319).
[0317]
Then, the grid stripe component extraction unit 117 sets “0” for the variable count (step S320), and has performed the processing from step S307 on all the line data constituting the target frame image data in the memory 143. It is determined whether or not (step S321).
As a result of the determination, when the process is completed, the grid stripe component extraction unit 117 outputs the above-described calculation end signal and ends the process. On the other hand, if the processing has not yet been completed, the process returns to step S307 again, and the subsequent processing steps are repeatedly executed.
[0318]
As a result of the determination in step S307 described above, when the processing is not executed (skip> count), the grid stripe component extraction unit 117 copies the data of the grid stripe component acquired in the previous stage to the corresponding position in the memory 118 (step In step S308, the variable count indicating the line to be copied is incremented (step S309), the process returns to step S307, and the subsequent processing steps are repeatedly executed.
[0319]
[Second Embodiment]
The present invention is applied to, for example, an X-ray image acquisition apparatus 400 as shown in FIG.
The X-ray image acquisition apparatus 400 of the present embodiment is different from the X-ray image acquisition apparatus 100 shown in FIG.
[0320]
In the X-ray image acquisition apparatus 400 of FIG. 16, the same reference numerals are given to components that operate in the same manner as the X-ray image acquisition apparatus 100 of FIG. 6, and detailed description thereof will be omitted.
[0321]
In the X-ray image acquisition apparatus 100 illustrated in FIG. 6, the correction processing unit 115 is configured to perform correction processing of defective pixels using the data in the memory 114 on the frame image data in the memory 113. . On the other hand, in the X-ray image acquisition apparatus 400 of the present embodiment, as shown in FIG. 16, the correction processing unit 115 performs frame image data in the memory 120, that is, a frame image after removal of grid stripe components. The correction processing of the defective pixel using the data in the memory 114 is performed on the data.
[0322]
Therefore, according to the X-ray image acquisition apparatus 400 of the present embodiment, pixel defect correction in consideration of grid stripes is not necessary, and therefore, using an average value of pixel values that are not peripheral defects as is conventionally known. Simple defective pixel correction such as correcting defective pixels can be applied.
[0323]
[Third embodiment]
The present invention is applied to, for example, an X-ray image acquisition apparatus 500 as shown in FIG.
The X-ray image acquisition apparatus 500 of the present embodiment is different from the X-ray image acquisition apparatus 100 shown in FIG.
[0324]
In the X-ray image acquisition apparatus 500 of FIG. 17, the same reference numerals are given to the components that operate in the same manner as the X-ray image acquisition apparatus 100 of FIG. 6, and detailed description thereof will be omitted.
[0325]
As shown in FIG. 17, the X-ray image acquisition apparatus 500 of the present embodiment further includes a detector (switch) that detects the mounting of the grid 103 in addition to the configuration of the X-ray image acquisition apparatus 100 of FIG. ) 122 is provided.
[0326]
The detection unit 122 supplies the detection result (grid mounting signal) of the mounting of the grid 103 to the correction processing unit 115 and the grid stripe detection unit 116, respectively.
[0327]
When the grid 103 is mounted according to the grid mounting signal from the detection unit 122, the correction processing unit 115 executes a defective pixel correction process in consideration of grid stripes as described in the first embodiment. If not, the defective pixel is corrected by the average value of the pixel values of the peripheral non-defective pixels.
[0328]
Similarly, when the grid 103 is attached by the grid attachment signal from the detection unit 122, the grid stripe detection unit 116 performs the grid stripe detection process (analysis process) as described in the first embodiment. Execute. However, when the grid 103 is not attached according to the grid attachment signal, the grid stripe detection unit 116 immediately determines that there is no grid stripe without executing the grid stripe detection process, and performs processing corresponding to this. Execute.
[0329]
As described above, in the X-ray image acquisition apparatus 500 according to the present embodiment, the detection unit 122 is provided, and the grid stripe is detected based on the detection result. The time required can be greatly reduced.
[0330]
[Fourth embodiment]
The present invention is applied to, for example, an X-ray image acquisition apparatus 600 as shown in FIG.
The X-ray image acquisition apparatus 600 of the present embodiment is different from the X-ray image acquisition apparatus 100 shown in FIG.
[0331]
In the X-ray image acquisition apparatus 600 of FIG. 18, the same reference numerals are given to the components that operate in the same manner as the X-ray image acquisition apparatus 100 of FIG. 6, and detailed description thereof will be omitted.
[0332]
As shown in FIG. 18, the X-ray image acquisition apparatus 600 of the present embodiment further includes a memory for storing X-ray irradiation area data in addition to the configuration of the X-ray image acquisition apparatus 100 of FIG. 123 is provided.
[0333]
The memory 123 stores image data (irradiation area data) obtained by cutting out only the area irradiated with X-rays from the frame image data stored in the memory 113. The irradiation area data in the memory 123 is stored in the memory 123. The grid stripe component is detected and extracted.
[0334]
Specifically, first, in X-ray imaging, in general, the X-ray generation tube 101 of the X-ray generation unit 101 is irradiated to the exit of the X-ray generation unit 101 in order to avoid exposure of the subject 102 (here, the human body) to a part other than the target part. A field stop is provided. Thereby, only the necessary part of the subject 102 can be irradiated with X-rays.
[0335]
When the above-mentioned irradiation field stop function is used, all image signals obtained from the X-ray sensor 104 are not effective for images obtained by X-ray imaging, and only a partial image corresponding to the X-ray irradiation field by the irradiation field stop is used. Becomes effective.
[0336]
Therefore, in the present embodiment, an unillustrated computer means (CPU or the like) responds to the X-ray irradiation field from the frame image data in the memory 113 based on the X-ray intensity distribution, shape, or other information. An effective partial image area (irradiation area) is found, and only the data of the irradiation area part (irradiation area data) is stored in the memory 123.
[0337]
As described above, in the present embodiment, not only the irradiation area data in the memory 123, that is, not all the target image data, but only the necessary part data with a reduced amount of information, so the processing time can be shortened. it can.
[0338]
In this embodiment, the irradiation area is cut out from the frame image after the defective pixel correction. For example, after the irradiation area is cut out, the defective pixel correction is performed on the irradiation area. Also good.
[0339]
[Fifth embodiment]
In the first embodiment, in the X-ray image acquisition apparatus 100 of FIG. 6 described above, the grid stripe component extraction processing in the grid stripe component extraction unit 117 is performed according to the flowchart of FIG.
In the present embodiment, the grid stripe component extraction process in the grid stripe component extraction unit 117 is, for example, a process according to the flowchart shown in FIG.
[0340]
Note that, in the grid stripe component extraction process of FIG. 19, steps that are the same as the grid stripe component extraction process of FIG. 15 are denoted by the same reference numerals, and detailed description thereof is omitted.
[0341]
First, before the description of the grid stripe component extraction processing in the present embodiment, FIG. 20A shows a part of a frame image including a grid stripe component. In FIG. The portion shown indicates a portion where the grid stripe component does not exist due to the presence of a substance that blocks X-rays.
[0342]
FIG. 20B shows the result of extracting the grid stripe component from the frame image of FIG. 20A by the filtering in the first embodiment. As shown in FIG. 20B, in the grid stripe component, an artifact appears in a portion corresponding to the portion indicated by “*” in the frame image. Therefore, as described in the first embodiment, the portion is It is extracted from the envelope and inferred from the data before and after it so that the whole becomes a stable grid stripe. This result is shown in FIG. 20 (c). With such a stable grid stripe component, no new artifact is generated by a transformation process such as Fourier transform.
[0343]
In the first embodiment, the grid stripe component as shown in FIG. 20C is subtracted from the original frame image as shown in FIG. In the case of this configuration, it is conceivable that a new grid stripe component appears in a portion where no grid stripe component originally exists (portion indicated by “*”).
[0344]
Therefore, in the present embodiment, as shown in FIG. 20 (d), in the grid stripe component as shown in FIG. 20 (c), the portion where the grid stripe component originally does not exist (the portion indicated by “*”). Is set to “0”.
[0345]
For this reason, in this Embodiment, the grid stripe component extraction part 117 performs the grid stripe component extraction process according to the flowchart of the said FIG.
That is, the grid fringe component extraction unit 117 replaces the portion of the stable grid fringe component data obtained by this process after estimation by step S315 with “0” after performing the process of step S318. (Step S700), and then proceeds to the next step S319. Thereby, it is possible to reliably prevent a new grid stripe component from being generated by the grid stripe removal process even in a portion where the grid stripe component does not exist originally.
[0346]
In the first to fifth embodiments, hardware is used. However, the entire apparatus can be realized by controlling the software.
[0347]
Another object of the present invention is to supply a storage medium storing software program codes for realizing the functions of the host and terminal according to the first to fifth embodiments to a system or apparatus, and a computer of the system or apparatus. Needless to say, this can also be achieved by (or CPU or MPU) reading and executing the program code stored in the storage medium.
In this case, the program code itself read from the storage medium realizes the functions of the first to fifth embodiments, and the program code and the storage medium storing the program code constitute the present invention. It will be.
As a storage medium for supplying the program code, ROM, flexible disk, hard disk, optical disk, magneto-optical disk, CD-ROM, CD-R, magnetic tape, nonvolatile memory card, and the like can be used.
Further, by executing the program code read by the computer, not only the functions of the first to fifth embodiments are realized, but also an OS running on the computer based on the instruction of the program code. Needless to say, the present invention includes a case where the functions of the first to fifth embodiments are realized by performing part or all of the actual processing.
Further, after the program code read from the storage medium is written to the memory provided in the extension function board inserted in the computer or the function extension unit connected to the computer, the function extension is performed based on the instruction of the program code. It goes without saying that the CPU or the like provided in the board or the function expansion unit performs part or all of the actual processing, and the functions of the first to fifth embodiments are realized by the processing.
[0348]
FIG. 21 shows an example of the configuration of the computer function 800 described above.
As shown in FIG. 21, the computer function 800 includes a CPU 801, a ROM 802, a RAM 803, a keyboard controller (KBC) 805 of a keyboard (KB) 809, and a CRT controller (CRT) 810 as a display unit (CRT controller 810). CRTC) 806, a disk controller (DKC) 807 of a hard disk (HD) 811 and a flexible disk (FD) 812, and a network interface controller (NIC) 808 for connection to the network 840 via a system bus 804 It is the structure connected so that communication was possible mutually.
[0349]
The CPU 801 generally controls each component connected to the system bus 804 by executing software stored in the ROM 802 or the HD 811 or software supplied from the FD 812.
That is, the CPU 801 reads out and executes a processing program according to a predetermined processing sequence from the ROM 802, the HD 811 or the FD 812, thereby performing control for realizing the operations in the first to fifth embodiments. .
[0350]
The RAM 803 functions as a main memory or work area for the CPU 801.
The KBC 805 controls an instruction input from the KB 809 or a pointing device (not shown).
The CRTC 806 controls the display of the CRT 810.
The DKC 807 controls access to the HD 811 and the FD 812 that store a boot program, various applications, an edit file, a user file, a network management program, a predetermined processing program in the first to sixth embodiments, and the like.
The NIC 808 controls bidirectional data exchange with other devices or systems on the network 840.
[0351]
【The invention's effect】
As described above, in the present invention, a radiographic image processing apparatus, an image processing system, and a radiation that can obtain a good radiographic image from which an image component due to the grid is removed from a radiographic image obtained by radiography using the grid. An image processing method, a storage medium, and a program can be provided.
[Brief description of the drawings]
FIG. 1 is a diagram for describing spatial frequency characteristics of a filter for extracting a grid stripe component from a target image in the first to fifth embodiments.
FIG. 2 is a diagram for explaining an example of a grid stripe component extracted from a target image by the filter.
FIG. 3 is a diagram for explaining another example of grid stripe components extracted from a target image by the filter.
FIG. 4 is a diagram for explaining a spatial frequency characteristic in defective pixel correction of a target image.
FIG. 5 is a diagram for describing a spatial frequency characteristic in defective pixel correction for a target image in which the grid stripe component exists.
FIG. 6 is a block diagram showing a configuration of an X-ray image acquisition apparatus to which the present invention is applied in the first embodiment.
FIG. 7 is a diagram for explaining the operation timing of the X-ray image acquisition apparatus.
FIG. 8 is a diagram for explaining an example (example 1) of a defective pixel in a target image in the X-ray image acquisition apparatus.
FIG. 9 is a diagram for explaining an example (Example 2) of a state of the defective pixel.
FIG. 10 is a diagram for explaining an example (Example 3) of the defective pixel.
FIG. 11 is a diagram for explaining an example (Example 4) of the state of the defective pixel;
FIG. 12 is a diagram for explaining a spatial frequency distribution of grid stripe components in a target image in the X-ray image acquisition apparatus.
FIG. 13 is a diagram for explaining detection (analysis) of a grid stripe component for a target image in the X-ray image acquisition apparatus.
FIG. 14 is a flowchart for explaining detection (analysis) processing of the grid stripe component.
FIG. 15 is a flowchart for explaining a process of extracting a grid stripe component from a target image based on the result of the grid stripe component detection (analysis) process.
FIG. 16 is a block diagram showing a configuration of an X-ray image acquisition apparatus to which the present invention is applied in the second embodiment.
FIG. 17 is a block diagram showing a configuration of an X-ray image acquisition apparatus to which the present invention is applied in the third embodiment.
FIG. 18 is a block diagram showing a configuration of an X-ray image acquisition apparatus to which the present invention is applied in the fourth embodiment.
FIG. 19 is a flowchart for explaining a process of extracting a grid stripe component from a target image based on a result of the grid stripe component detection (analysis) process in the fifth embodiment.
FIG. 20 is a diagram for explaining the process of extracting the grid stripe component with a specific example;
FIG. 21 is a block diagram illustrating an example of a configuration for reading and executing a program from a computer-readable storage medium storing a program for causing a computer to implement the functions of the first to fifth embodiments.
FIG. 22 is a diagram for explaining radiation imaging using a grid.
FIG. 23 is a diagram for explaining an example of the effect of filtering on an image obtained by the radiography.
FIG. 24 is a diagram for explaining another example of the effect of filtering on the image obtained by the radiography.
FIG. 25 is a diagram for describing an example of the effect of filtering on an image obtained by superimposing grid stripe components obtained by radiography.
FIG. 26 is a diagram for explaining an example of the effect of filtering on an image obtained by superimposing grid stripe components obtained by the radiography.
[Explanation of symbols]
100 X-ray image acquisition apparatus
101 X-ray generator
102 subjects
103 grid
104 X-ray sensor
105 controller
106 Analog / digital (A / D) converter
107 memory
108 memory
109 Calculator
110 conversion table
111 memory
112 Calculator
113 memory
114 memory
115 Correction processing unit
116 Grid stripe detector
117 Grid stripe component extraction unit
118 memory
119 arithmetic unit
120 memory
121 Image processing unit
140 Memory transfer control unit
141 memory
142 Memory transfer control unit
143 memory

Claims (17)

被写体からの散乱放射線を除去するためのグリッドを使用した放射線撮影により得られた放射線画像を処理する放射線画像処理装置であって、
所定の上記放射線画像から前記グリッドに起因する画像成分を作成する作成手段と、
上記作成手段により得られた上記画像成分に基づき、上記所定の上記放射線画像より後に得られた複数の上記放射線画像に対して、上記画像成分の除去処理を施す除去手段とを備え、
上記作成手段は、上記放射線画像に重畳された画像成分は画像全体にわたって定常であるという特徴に基づいて上記画像成分を作成する手段を備えることを特徴とする放射線画像処理装置。
A radiographic image processing apparatus that processes a radiographic image obtained by radiography using a grid for removing scattered radiation from a subject,
Creating means for creating an image component resulting from the grid from the predetermined radiation image;
Removing means for performing a removal process of the image component on a plurality of the radiation images obtained after the predetermined radiation image based on the image component obtained by the creating means;
The radiographic image processing apparatus, wherein the creating means includes means for creating the image component based on a feature that an image component superimposed on the radiographic image is steady over the entire image.
被写体からの散乱放射線を除去するためのグリッドを使用した放射線撮影により得られた放射線画像を処理するための放射線画像処理方法であって、
放射線画像から前記グリッドに起因する画像成分を作成する作成ステップと、
上記作成ステップにより得られた画像成分に基づき、上記放射線画像より後に得られた複数の放射線画像に対して、上記画像成分の除去処理を施す除去ステップとを含み、
上記作成ステップは、上記放射線画像に重畳された画像成分は画像全体にわたって定常であるという特徴に基づいて上記画像成分を作成するステップを含むことを特徴とする放射線画像処理方法。
A radiographic image processing method for processing a radiographic image obtained by radiography using a grid for removing scattered radiation from a subject,
A creation step for creating an image component resulting from the grid from a radiation image;
A removal step of performing a removal process of the image component on a plurality of radiation images obtained after the radiation image based on the image component obtained by the creation step;
The radiographic image processing method, wherein the creating step includes a step of creating the image component based on a feature that an image component superimposed on the radiographic image is steady over the entire image.
上記除去ステップは、上記複数の放射線画像に対して、上記作成ステップにより得られた同一の画像成分を用いて除去処理を施すステップを含むことを特徴とする請求項2記載の放射線画像処理方法。  The radiographic image processing method according to claim 2, wherein the removing step includes a step of performing a removing process on the plurality of radiographic images using the same image component obtained by the creating step. 上記作成ステップは、上記放射線画像を解析して上記画像成分の空間周波数を得る解析ステップを含むことを特徴とする請求項2記載の放射線画像処理方法。  The radiographic image processing method according to claim 2, wherein the creating step includes an analysis step of analyzing the radiographic image to obtain a spatial frequency of the image component. 上記作成ステップは、
上記解析ステップの解析結果に基づいて上記放射線画像から画像成分を含む所定の成分を抽出する抽出ステップと、
上記抽出ステップにより得られた所定の成分を加工して上記画像成分を得る加工ステップと、
を有し、
上記除去ステップは、上記作成ステップの上記加工ステップにより得られた上記画像成分を上記放射線画像から除去することを特徴とする請求項4記載の放射線画像処理方法。
The creation step above is
An extraction step for extracting a predetermined component including an image component from the radiation image based on the analysis result of the analysis step;
A processing step of processing the predetermined component obtained by the extraction step to obtain the image component;
Have
The removal step, a radiation image processing method according to claim 4, wherein the image components obtained by the processing steps of the creating step, wherein the benzalkonium be removed from the radiation image.
上記抽出ステップは、上記解析ステップにより得た上記空間周波数を有する成分を上記放射線画像から抽出するフィルタリングを行うステップを含むことを特徴とする請求項5記載の放射線画像処理方法。  6. The radiographic image processing method according to claim 5, wherein the extraction step includes a step of performing filtering to extract a component having the spatial frequency obtained in the analysis step from the radiographic image. 上記加工ステップは、上記所定の成分の非定常な部分を、その前後の定常な部分から推定して加工する処理を実行するステップを含むことを特徴とする請求項5記載の放射線画像処理方法。  6. The radiographic image processing method according to claim 5, wherein the processing step includes a step of executing processing for estimating and processing an unsteady portion of the predetermined component from a steady portion before and after the predetermined portion. 上記加工ステップは、上記所定の成分の包絡線情報に基づいて、上記非定常な部分を検出するステップを含むことを特徴とする請求項7記載の放射線画像処理方法。  The radiographic image processing method according to claim 7, wherein the processing step includes a step of detecting the unsteady portion based on envelope information of the predetermined component. 上記加工ステップは、上記所定の成分の非定常な部分の前後の定常な部分及び空間周波数に基づいて、上記画像成分に対応する正弦波の振幅及び位相を推定し、上記非定常な部分の補修を行うステップを含むことを特徴とする請求項7記載の放射線画像処理方法。  The processing step estimates the amplitude and phase of a sine wave corresponding to the image component based on the stationary portion before and after the unsteady portion of the predetermined component and the spatial frequency, and repairs the unsteady portion. The radiation image processing method according to claim 7, further comprising the step of: 上記加工ステップは、上記補修された非定常な部分を含む所定の成分に対して、さらなるフィルタリングを行って前記画像成分を得るステップを含むことを特徴とする請求項9記載の放射線画像処理方法。  The radiographic image processing method according to claim 9, wherein the processing step includes a step of further filtering the predetermined component including the repaired unsteady portion to obtain the image component. 上記加工ステップは、上記非定常な部分のうち所定の条件を満たす部分を予め定められた値に置換して上記画像成分を得ることを特徴とする請求項7記載の放射線画像処理方法。  8. The radiographic image processing method according to claim 7, wherein the processing step substitutes a portion satisfying a predetermined condition in the non-stationary portion with a predetermined value to obtain the image component. 上記作成ステップは、上記放射線画像から選択した所定のラインについて、上記画像成分を作成するステップを含むことを特徴とする請求項2記載の放射線画像処理方法。  The radiographic image processing method according to claim 2, wherein the creating step includes a step of creating the image component for a predetermined line selected from the radiographic image. 上記作成ステップは、複数のラインの平均の結果に対して、上記画像成分を作成するステップを含むことを特徴とする請求項12記載の放射線画像処理方法。  The radiographic image processing method according to claim 12, wherein the creating step includes a step of creating the image component for an average result of a plurality of lines. 上記作成ステップは、画像成分が作成されなかったラインの画像成分として、当該ラインの近隣の上記画像成分が作成されたラインから取得した上記画像成分を用いるステップを含むことを特徴とする請求項12記載の放射線画像処理方法。  13. The creation step includes a step of using, as an image component of a line for which no image component has been created, the image component acquired from a line in which the image component in the vicinity of the line is created. The radiation image processing method as described. 上記グリッドの装着を検出する検出ステップを含み、
上記作成ステップは、上記検出ステップの検出結果に基づいて、上記の処理を実行するステップを含むことを特徴とする請求項2記載の放射線画像処理方法。
A detection step for detecting the mounting of the grid,
The radiographic image processing method according to claim 2, wherein the creating step includes a step of executing the processing based on a detection result of the detection step.
請求項2〜15の何れか1項に記載の放射線画像処理方法の処理ステップをコンピュータに実行させるためのプログラムを記憶したコンピュータが読み取り可能な記憶媒体。  A computer-readable storage medium storing a program for causing a computer to execute the processing steps of the radiographic image processing method according to any one of claims 2 to 15. 請求項2〜15の何れか1項に記載の放射線画像処理方法の処理ステップをコンピュータに実行させるためのプログラム。  The program for making a computer perform the process step of the radiographic image processing method of any one of Claims 2-15.
JP2001134210A 2001-05-01 2001-05-01 Radiation image processing apparatus, radiation image processing method, storage medium, and program Expired - Lifetime JP4746761B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2001134210A JP4746761B2 (en) 2001-05-01 2001-05-01 Radiation image processing apparatus, radiation image processing method, storage medium, and program
US10/131,401 US7142705B2 (en) 2001-05-01 2002-04-25 Radiation image processing apparatus, image processing system, radiation image processing method, storage medium, and program
CNB021245622A CN1249987C (en) 2001-05-01 2002-04-29 Radiation image processing equipment and method, image processing system, storing medium and program
EP20020253060 EP1265194A3 (en) 2001-05-01 2002-04-30 Method, system and program for processing and storing radiation images
US11/469,986 US7639856B2 (en) 2001-05-01 2006-09-05 Radiation image processing apparatus, image processing system, radiation image processing method, storage medium, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001134210A JP4746761B2 (en) 2001-05-01 2001-05-01 Radiation image processing apparatus, radiation image processing method, storage medium, and program

Publications (3)

Publication Number Publication Date
JP2002330344A JP2002330344A (en) 2002-11-15
JP2002330344A5 JP2002330344A5 (en) 2008-06-19
JP4746761B2 true JP4746761B2 (en) 2011-08-10

Family

ID=18981937

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001134210A Expired - Lifetime JP4746761B2 (en) 2001-05-01 2001-05-01 Radiation image processing apparatus, radiation image processing method, storage medium, and program

Country Status (1)

Country Link
JP (1) JP4746761B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3903027B2 (en) 2003-08-07 2007-04-11 キヤノン株式会社 Radiation image processing method and apparatus, and grid selection method and apparatus
JP2006014778A (en) * 2004-06-30 2006-01-19 Shimadzu Corp Moire removing method and radiography apparatus using the same
DE102005052992A1 (en) * 2005-11-07 2007-05-16 Siemens Ag Anti-scatter grid for reducing scattered radiation in an X-ray machine and X-ray machine with a scattered radiation grid
CN101801273B (en) * 2007-10-02 2013-05-15 株式会社岛津制作所 Radiation image processor and radiation image processing method
JP2009195512A (en) 2008-02-22 2009-09-03 Fujifilm Corp Radiation image processing apparatus
JP5761926B2 (en) * 2010-05-14 2015-08-12 キヤノン株式会社 Image processing apparatus, image processing method, program, imaging system, and radiation imaging system
JP5618880B2 (en) 2011-03-24 2014-11-05 富士フイルム株式会社 Image processing apparatus, image processing method, and image processing program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02237277A (en) * 1989-03-09 1990-09-19 Toshiba Corp X-ray diagnostic device
JPH03289275A (en) * 1990-04-04 1991-12-19 Toshiba Corp Radiant ray picture reader
JPH1031737A (en) * 1996-07-18 1998-02-03 Fuji Photo Film Co Ltd Image processing method
JPH10262961A (en) * 1997-03-27 1998-10-06 Canon Inc Device and method for radiography
JP2000083951A (en) * 1998-09-11 2000-03-28 Canon Inc X-ray radiographic device and grid device
JP2000126172A (en) * 1998-10-29 2000-05-09 Fuji Photo Film Co Ltd Radiation image forming apparatus

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02237277A (en) * 1989-03-09 1990-09-19 Toshiba Corp X-ray diagnostic device
JPH03289275A (en) * 1990-04-04 1991-12-19 Toshiba Corp Radiant ray picture reader
JPH1031737A (en) * 1996-07-18 1998-02-03 Fuji Photo Film Co Ltd Image processing method
JPH10262961A (en) * 1997-03-27 1998-10-06 Canon Inc Device and method for radiography
JP2000083951A (en) * 1998-09-11 2000-03-28 Canon Inc X-ray radiographic device and grid device
JP2000126172A (en) * 1998-10-29 2000-05-09 Fuji Photo Film Co Ltd Radiation image forming apparatus

Also Published As

Publication number Publication date
JP2002330344A (en) 2002-11-15

Similar Documents

Publication Publication Date Title
JP4393483B2 (en) Radiation image processing apparatus, image processing system, radiation image processing method, storage medium, and program
US7142705B2 (en) Radiation image processing apparatus, image processing system, radiation image processing method, storage medium, and program
JP3903027B2 (en) Radiation image processing method and apparatus, and grid selection method and apparatus
JP3683914B2 (en) Multiprocessing method of radiological images based on pyramidal image decomposition
US5960058A (en) Method for generating X-ray image and apparatus therefor
US5878108A (en) Method for generating X-ray image and apparatus therefor
KR20130038794A (en) Method of noise reduction in digital x-ray frames series
JP2004329932A (en) Method and apparatus for processing fluoroscopic image
JP6156847B2 (en) Radiation image processing apparatus and method, and program
JP4532730B2 (en) Imaging apparatus and imaging method
JP3793053B2 (en) Radiation image processing apparatus, image processing system, radiation image processing method, storage medium, and program
JP2012150802A (en) Noise assessment method for digital x-ray films
JP2002325765A (en) Radiograph processor, image processing system, radiograph processing method, recording medium and program
JP4746761B2 (en) Radiation image processing apparatus, radiation image processing method, storage medium, and program
JP3825989B2 (en) Radiation image processing apparatus, image processing system, radiation image processing method, computer-readable storage medium, and computer program
JP3793039B2 (en) Image processing method, image processing apparatus, radiation image processing apparatus, image processing system, and program
WO2020166561A1 (en) Bone fracture risk evaluation value acquisition device, operation method therefor, and bone fracture risk evaluation value acquisition program
JP3445258B2 (en) Radiation image processing apparatus, image processing system, radiation image processing method, storage medium, program, radiation imaging apparatus, and radiation imaging system
JP4137499B2 (en) Phase information restoration method, phase information restoration device, and phase information restoration program
CN111540042A (en) Method, device and related equipment for three-dimensional reconstruction
JP4393436B2 (en) Radiation image processing apparatus, image processing system, radiation image processing method, storage medium, and program
JPH0448453B2 (en)
Matsopoulos Medical imaging correction: A comparative study of five contrast and brightness matching methods
JP3825988B2 (en) Radiation image processing apparatus, image processing system, radiation image processing method, recording medium, and program
JP2001212139A (en) Image capture device and image acquisition method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080430

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080430

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101014

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101026

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110510

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110516

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140520

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4746761

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

EXPY Cancellation because of completion of term