JP4294880B2 - Image registration method and apparatus - Google Patents

Image registration method and apparatus Download PDF

Info

Publication number
JP4294880B2
JP4294880B2 JP2001044623A JP2001044623A JP4294880B2 JP 4294880 B2 JP4294880 B2 JP 4294880B2 JP 2001044623 A JP2001044623 A JP 2001044623A JP 2001044623 A JP2001044623 A JP 2001044623A JP 4294880 B2 JP4294880 B2 JP 4294880B2
Authority
JP
Japan
Prior art keywords
image
images
positional relationship
bone
soft
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001044623A
Other languages
Japanese (ja)
Other versions
JP2001325584A (en
Inventor
哲 大沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2001044623A priority Critical patent/JP4294880B2/en
Publication of JP2001325584A publication Critical patent/JP2001325584A/en
Application granted granted Critical
Publication of JP4294880B2 publication Critical patent/JP4294880B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、画像の位置合わせ方法および装置に関し、詳細には、同一の構造物を有する2以上の画像の位置合わせの改良に関するものである。
【0002】
【従来の技術】
従来より、同一被写体についての2以上の画像を比較読影して、両画像間の差異を調べ、その差異に基づいて被写体の検査などを行うことが、種々の分野において行われている。
【0003】
例えば工業製品の製造分野においては、ある製品について新品の状態の時に撮影された画像と、当該製品の耐久試験後に撮影された画像とを比較読影して、両者の差異の大きな部位に注目することにより、製品の耐久性を向上させるべき部位を検討することが行われており、また医療分野においては、ある患者の疾患部位について時系列的に撮影された複数枚の放射線画像を医師が比較読影することにより、当該疾患の進行状況や治癒状況を把握して治療方針を検討することが行われている。
【0004】
このように2以上の画像を比較読影することが日常的に各種の分野で行われているが、その比較読影のために、これら2以上の画像を画像表示装置等に表示させる場合がある。すなわち画像を濃度信号や輝度信号に変換したうえで、画像表示装置等に表示するのである。
【0005】
ところで比較読影の対象となる2以上の画像を比較する場合、それらの画像を単に並列表示するのが一般的であるが、比較読影を行なう場合に読影者にとって最も関心があるのはこれらの画像間の差異である。しかし、上述したように例えば2つの画像を単に並べて表示させてこの差異を発見するのは、その差異が小さい程困難であり、比較読影の性能向上が求められている。
【0006】
そこで2つの画像中にそれぞれ写し込まれた同一の構造物についての画像の位置関係を対応させるように少なくとも一方の画像を変形させて上記構造物の位置関係を対応させ、その後に両画像の画素を対応(位置を対応)させた減算処理を施すことにより、両画像の差異を表す差分画像(サブトラクション画像)を得、このサブトラクション画像をCRT等の表示手段に表示させることにより、読影者に、両画像間の差異を容易に見い出さしめることができる。
【0007】
【発明が解決しようとする課題】
ところで例えば人体の胸部放射線画像のように、肋骨や背骨等の骨部組織と筋肉や内臓等の軟部組織とが混在した画像において、被写体(人体)の体位(撮影の立ち位置や、向きなど)変動に応じた位置変動量・位置変動向きが骨部と軟部とで異なる値・向きを示す場合がある。従来、骨部/軟部いずれの変動によるものであるかは問わずに、求められた変動量・変動方向に基づいて位置合わせを行なっていた。従って、位置合わせに利用される変動量・変動方向は骨部/軟部変動に基づくものが混在することとなるので、骨部と軟部とが異なる変動量・変動方向を有している場合は、画像部分間で精度よく位置合わせを行なうことができず、骨部のアーティファクトと軟部のアーティファクトとの双方が残存するサブトラクション画像が作成される場合があり、このように多種の構造物のアーティファクトがそれぞれ残存するサブトラクション画像によれば、適切な診断を行なうのが困難であった。例えば、骨部と軟部とが近接していたり重なっていたりする場合(例えば肋骨と血管とが重なっている場合等)、骨部の変動方向は例えば右方向、その隣の軟部の変動方向はその反対の左方向といったことが起こり、これらを用いて位置合わせするとさらに不正確となり、最悪、肋骨1本分以上も位置ずれする場合があった。
【0008】
本発明は上記事情に鑑みなされたものであって、比較読影の対象となる同一被写体についての2以上の画像について、従来よりも比較対象部分の対照精度を高めることによって、読影性能を向上させることができる、画像の位置合わせ方法および装置を提供することを目的とするものである。
【0009】
【課題を解決するための手段】
本発明の画像の位置合わせ方法は、2以上の画像を位置合わせする画像の位置合わせ方法において、2以上の画像のそれぞれについて特定の構造物を重視した特定構造物重視画像を取得し、取得された特定構造物重視画像間で構造的対応位置関係を求め、求められた構造的対応位置関係に基づいて、2以上の画像を位置合わせすることを特徴とするものである。
【0010】
ここで、特定構造物重視画像とは、例えば、2以上の画像の各々が医療用放射線画像であるときには、骨部重視画像や軟部重視画像を示す。
【0011】
骨部重視画像とは、例えばエネルギ分布が互いに異なる2つのエネルギサブトラクション用原画像に基づいて生成されるエネルギサブトラクション画像のうちの骨部画像や、画像中の肋骨に相当する直線的なエッジを強調したエッジ強調画像など、骨部を重視して2以上の画像を位置合わせする際に有効な画像を広く意味するものである。また、軟部重視画像とは、エネルギサブトラクション画像のうちの軟部画像や、画像中の水平方向の直線的なエッジ(肋骨に相当する部分)をぼかした画像など、軟部を重視して2以上の画像を位置合わせする際に有効な画像を広く意味するものである。
【0012】
すなわち、上述した本発明の画像位置合わせ方法について、上記2以上の画像を2組以上のエネルギサブトラクション用原画像とし、上記特定構造物重視画像をエネルギサブトラクション用原画像に基づいて各組ごとに取得されたエネルギサブトラクション画像とすることもできる。つまり、2組以上のエネルギサブトラクション用原画像をそれらの組間で位置合わせする画像の位置合わせ方法において、各組のエネルギサブトラクション用原画像に基づいて、各組ごとにエネルギサブトラクション画像をそれぞれ取得し、得られたエネルギサブトラクション画像について各組間で、構造的対応位置関係を求め、求められた、エネルギサブトラクション画像についての構造的対応位置関係に基づいて、エネルギサブトラクション用原画像について前記組間で位置合わせすることを特徴とするものとしてもよい。
【0013】
ここで、少なくとも2つのエネルギ分布が互いに異なる原画像に基づいて、少なくとも1つのエネルギサブトラクション画像を得ることができるため、上記「2組以上のエネルギサブトラクション用原画像」とは、少なくとも1つのサブトラクション画像を得るための原画像(エネルギサブトラクション用原画像)の組が2以上存在することを示すものである。すなわち、骨部重視画像や軟部重視画像にエネルギサブトラクション画像を用いる場合には、全部で最低限4つの原画像が存在することを意味する。例えばエネルギ分布が互いに異なる2つ原画像をS1,S2とすると、これら2つの原画像S1,S2に基づいて、下記減算式により1つのエネルギサブトラクション画像Ssu1を得ることができる。
【0014】
Ssu1=αS1−βS2
この式中のαおよびβは重み付け係数であり、この値を変化させることにより、多数のエネルギサブトラクション画像Ssu1(例えば、骨部重視画像として用いられる骨部画像や、軟部重視画像として用いられる軟部画像)を得ることができる。このとき2つの原画像S1およびS2を、1組のエネルギサブトラクション用原画像と称する。
【0015】
「2組以上のエネルギサブトラクション用原画像(2以上の画像)を位置合わせする」とは、例えば第1組のエネルギサブトラクション用原画像をS11,S12とし、第2組のエネルギサブトラクション用原画像をS21,S22としたとき、第1組の原画像S11と第2組の原画像S21とで位置合わせをすることを意味する。もちろん第1組の原画像S12と第2組の原画像S22とで位置合わせしてもよいし、第1組の原画像S11と第2組の原画像S22とで、または第1組の原画像S12と第2組の原画像S21とで位置合わせをしてもよい。ただし、エネルギサブトラクション用原画像は、高圧強調画像(高圧画像)と低圧強調画像(低圧画像)との2つが用いられるのが一般的であり、低圧画像同士または高圧画像同士で位置合わせを行なうのが好ましく、さらにはノイズ成分が比較的少ない低圧画像同士で位置合わせを行なうのがより好ましい。
【0016】
なお被写体には、人体等の他、動植物、工業製品、地形、天体、風景等あらゆるものが含まれる。
【0017】
また構造的対応位置関係とは、画像として記録されている被写体の構造要素を対応させたときの位置関係を意味するものであり、画像上の構造要素を無視して画像の左端縁から○○cm,上端縁から○×cmという単に形式的な位置を一致させた位置関係を意味するものではない。なお構造とは、単に画像上の外観的な構造物だけでなく、例えば解剖学的な構造物(例えば肺野、胸骨、頸部等)であってもよい。医療分野においては比較読影上、最も関心のある部分だからである。
【0018】
また、本発明の画像位置合わせ方法を、骨部重視画像間の構造的対応位置関係と軟部重視画像間の構造的対応位置関係とを所定の割合で重み付け加算して得られた対応位置関係に基づいて、上記2以上の画像を位置合わせするものとしてもよい。すなわち、第1の画像の骨部重視画像と第2の画像の骨部重視画像とで構造的対応位置関係を求めてP1とし、第1の画像の軟部重視画像と第2の画像の軟部重視画像とで構造的対応位置関係を求めてP2とし、構造的対応位置関係P1とP2とを重み付け加算して得られた対応位置関係P3(=mP1+nP2;ただし、m+n=1)に基づいて第1の画像と第2の画像とを位置合わせしてもよい。さらにmとnとを連続的に変化させて対応する対応位置関係P3も連続的に変化させ、それに伴って連続的に位置合わせ状態も変化させてもよい。
【0019】
また、重み付け加算の際の所定の割合を、2以上の画像の部位ごとに設定してもよい。すなわち、画像における部位別に上記mとnとを適宜変化させて対応位置関係P3を算出してもよい。
【0020】
本発明の画像の位置合わせ装置は上記本発明の画像の位置合わせ方法を実施するための装置であって、2以上の画像を位置合わせする位置合わせ手段を備えた画像の位置合わせ装置において、2以上の画像のそれぞれについて特定の構造物を重視した特定構造物重視画像を取得する構造物重視画像取得手段と、構造物重視画像取得手段において取得された特定構造物重視画像間で構造的対応位置関係を求める構造的対応位置関係算出手段とを備え、位置合わせ手段が、構造的対応位置関係算出手段により求められた構造的対応位置関係に基づいて上記2以上の画像を位置合わせするものであることを特徴とするものである。
【0021】
また、上記2以上の画像の各々を医療用放射線画像とし、上記特定構造物重視画像を骨部重視画像および/または軟部重視画像としてもよい。
【0022】
本発明の画像位置合わせ装置を、骨部重視画像間の構造的対応位置関係と軟部重視画像間の構造的対応位置関係とを所定の割合で重み付け加算して対応位置関係を求める対応位置関係算出手段をさらに備え、位置合わせ手段が、対応位置関係算出手段により求められた対応位置関係に基づいて、上記2以上の画像を位置合わせするものとすることもできる。さらに、対応位置関係算出手段を、重み付け加算の際の所定の割合を上記2以上の画像の部位ごとに設定可能なものとしてもよい。
【0023】
また、構造的対応位置関係算出手段を、特定構造物重視画像間でグローバルな位置合わせを行ない、さらに、グローバルな位置合わせがなされた特定構造物重視画像を仮想的に多数の狭小な小領域に分割し、分割して得られた多数の狭小な小領域をそれぞれ対応させてローカルマッチングを行なうことにより、構造的対応位置関係を求めるものとしてもよい。
【0024】
また、2以上の画像を2組以上のエネルギサブトラクション用原画像とし、特定構造物重視画像を、エネルギサブトラクション用原画像に基づいて各組ごとに取得されたエネルギサブトラクション画像とすることもできる。すなわち、2組以上のエネルギサブトラクション用原画像をそれらの組間で位置合わせする位置合わせ手段を備えた画像の位置合わせ装置において、各組のエネルギサブトラクション用原画像に基づいて、各組ごとにエネルギサブトラクション画像をそれぞれ取得するエネルギサブトラクション手段と、得られたエネルギサブトラクション画像について各組間で、構造的対応位置関係を求める対応位置関係算出手段とを備え、位置合わせ手段が、前記求められた、エネルギサブトラクション画像についての構造的対応位置関係に基づいて、エネルギサブトラクション用原画像について前記組間で位置合わせするものとしてもよい。
【0025】
また、骨部重視画像を、2以上の画像の各々のエッジ強調画像とすることもできる。
【0026】
なお、上記2以上の画像を、撮影時点が互いに異なる時系列の画像としてもよいし、また、比較読影の対象となる、同一被写体についての画像としてもよい。
【0027】
【発明の効果】
本発明の画像の位置合わせ方法および位置合わせ装置によれば、2以上の画像を位置合わせする画像位置合わせ方法において、各画像から取得された特定構造物重視画像間で構造的対応位置関係を求め、求められた構造的対応位置関係に基づいて画像を位置合わせするから、上記特定構造物同士についてより精度高く位置合わせすることが可能となり、その結果、アーティファクトが残存する構造物の種類を限定することができ、残存したアーティファクトと上記2以上の画像間の差異とを容易に識別して画像間の差異を読影者に認識させることができる。
【0028】
すなわち2以上の画像に基づいて例えば軟部重視画像を取得し、構造的対応位置関係算出手段により、軟部重視画像同士の構造的対応位置関係を算出し、算出された構造的対応位置関係に基づいて、位置合わせ手段が上記2以上の画像を位置合わせすると、この際には、軟部の対応位置関係に基づいた位置合わせがなされるため、差分画像においては、軟部の同一構造物についてはほぼ消去されるが、軟部に存在する差異(例えば一方の画像にのみ存在する異常陰影等)は残存し、骨部はアーティファクトとして残る。
【0029】
しかし、骨部のアーティファクトは真の輪郭線を挟んだ狭い範囲内で正の濃度(高濃度)と負の濃度(低濃度)との両方が生じるのに対して、軟部の陰影はそのようなことがない。したがって、アーティファクトから軟部の陰影(差異)を明確に峻別することができる。
【0030】
このように本発明の画像の位置合わせ方法および位置合わせ装置によれば、2以上の画像を位置合わせしてサブトラクション画像を作成するときに、従来のように骨部と軟部等の多種のアーティファクトが残存する中途半端なサブトラクション画像が作成されるのを防止することができ、多様なサブトラクション画像を提供して、適切な診断を行なうことができる。
【0031】
また、骨部重視画像間の構造的対応位置関係と軟部重視画像間の構造的対応位置関係とを所定の割合で重み付け加算して得られた対応位置関係に基づいて、2以上の画像を位置合わせすれば、骨部と軟部の双方をある程度消去させたサブトラクション画像を取得することが可能となり、また、所定の割合を適宜変化させることによって様々な種類のサブトラクション画像を得ることができるから、読影者の要望にあわせて、例えば経過観察に適した画像や疾患の発見に適した画像など、種々の画像を生成することが可能になる。
【0032】
さらに、画像における部位ごとに、重み付け加算の際の所定の割合を設定可能とすれば、部位ごとに、その部位の位置ずれ程度の特徴によって、構造的対応位置関係の重み付けを変化させて位置合わせすることが可能になるから、例えば姿勢の変化のため、部位ごとに位置ずれの方向や程度が異なる場合でもある程度適切に部位同士の位置合わせをすることができる。
【0033】
【発明の実施の形態】
以下、本発明の画像の位置合わせ方法および位置合わせ装置の実施の形態について図面を用いて説明する。
【0034】
図1は本発明の画像の位置合わせ方法および位置合わせ装置の一実施形態である画像位置合わせ装置10を含む医療用画像ネットワーク100を示す図である。
【0035】
図示のネットワーク100には、例えばCT装置(コンピュータ断層像撮影装置)、MRI装置(磁気共鳴像撮影装置)、CR装置(コンピュータラジオグラフィ)50等の医療用画像生成装置と、これらの医療用画像生成装置により生成された各種の診断用医療画像を蓄積記憶するデータベース70と、データベース70に一旦記憶された画像や画像生成装置から直接送られた複数の画像の位置合わせを行なう位置合わせ装置10と、位置合わせ装置10により位置合わせがなされた画像間で減算処理を施すサブトラクション手段20と、サブトラクション手段20により減算処理して得られたサブトラクション画像を可視画像として表示する画像表示手段30などが接続されている。なおネットワーク100には、このネットワーク100上を流通する画像をフイルム等に出力するプリンター等も接続されているが、CT装置およびMRI装置を含めて本図においては図示を省略している。
【0036】
CR装置50は、被写体を透過した放射線を、輝尽性蛍光体層を有するシート状の蓄積性蛍光体シートに照射することにより、蓄積性蛍光体シートに被写体の透過放射線像を蓄積記録し、その後、当該蓄積性蛍光体シートにレーザ光を照射して、シートに蓄積記録されている放射線エネルギに応じた光量で発光する輝尽発光光を光電的に読み取ることにより、被写体の透過放射線像をデジタル画像として取得する装置であり、病院等の医療機関において広く使用されているものである。
【0037】
CR装置50とネットワーク100との間に介在しているQA−WS(画像品質チェック用ワークステーション)60は、上述したCR装置50等の画像生成装置により生成された診断用画像をチェックし、必要な場合は画像生成装置に対して画像の再取得を要求するなどの機能を備えたワークステーションである。本実施形態におけるこのQA−WS60は、CR装置50によって生成されたデジタル画像Pを、データベース70に蓄積記憶する前に表示して、画像濃度、コントラストなどの画質チェック、撮影範囲等のチェックを行うものとして設けられている。
【0038】
画像位置合わせ装置10は、ネットワーク100を介して入力された、撮影時期が組ごとにそれぞれ同日である2組のエネルギサブトラクション用原画像S11,S12およびS21,S22にそれぞれ基づいて対応するエネルギサブトラクション画像Ssu11,Ssu21を算出するエネルギサブトラクション画像作成手段(構造物重視画像取得手段)11と、両サブトラクション画像Ssu11,Ssu21の構造的対応位置関係を求める対応位置関係算出手段(構造的対応位置関係算出手段を含む)12と、得られた対応位置関係に基づいて、エネルギサブトラクション用原画像のうち低圧画像S11,S21同士を位置合わせ処理する位置合わせ手段13とを備えた構成である。
【0039】
次に本実施形態の位置合わせ装置10を含む医療用画像ネットワーク100の作用について説明する。
【0040】
CR装置50により予め、撮影時期を異にして、それぞれ特定の患者の胸部についてのエネルギサブトラクション用原画像S11,S12およびS21,S22が撮影され、これらの画像S11,S12(S11およびS12は同時に撮影された画像である)およびS21,S22(S21およびS22は同時に撮影された画像である)はQA−WS60により画質等のチェックがされた後にネットワーク100を介してデータベース70に蓄積記憶されている。この蓄積記憶されている各画像S11,S12およびS21,S22には、撮影された患者に固有のID番号と、撮影部位(本説明においては胸部)・撮影体位を表す記号と、撮影日と、エネルギサブトラクション用原画像(高圧画像、低圧画像の別を含む)である旨の情報がヘッダ情報として付帯している。なお2つの原画像S11,S21は撮影日が異なる、同一患者の胸部正面画像であり、時系列的な比較を行おうとする画像である。第1組の第1原画像S11よりも第2組の第1原画像S21の方が撮影時期が新しく、第1組第1原画像S11は過去画像、第2組第1原画像S21は現在の画像ということができるものである。
【0041】
まず位置合わせ装置10のエネルギサブトラクション画像作成手段11に、ネットワーク100を介してデータベース70から同一のID番号、同一の撮影部位記号、同一撮影日のヘッダ情報が付帯している2組のエネルギサブトラクション用原画像のうち第1組第1原画像S11および第1組第2原画像S12が入力される。図2の処理フローに示すように、エネルギサブトラクション画像作成手段11は、入力された2つの原画像S11,S12に基づいてこれらの原画像についてのエネルギサブトラクション画像Ssu11を算出する。エネルギサブトラクション画像は、特開昭59-83484号、特開平3-285475号等により開示されているように、互いにエネルギ分布が異なる両原画像S11,S12をそれぞれ表す原画像信号S11,S12(説明を簡単にするため、原画像S11,S12と同一の符号を付する)について、対応する構造物の位置を合致させた上で、画像中の所定の構造物についての画素の信号値が略一致するように両原画像信号値S11,S12に重み付けを行なって、対応する画素の信号値間で減算処理することにより、当該所定の構造物を略消去した画像(エネルギサブトラクション画像)Ssu11(=αS11−βS12;α,βはそれぞれ重み付け係数)であり、特にエネルギ吸収率の差が大きい複数の構造物を分離して観察するのに効果的である。
【0042】
本実施形態においては、2つの原画像S11,S12にそれぞれ存在する骨部の信号値を略一致させて減算処理することにより、骨部が略消去された軟部画像をエネルギサブトラクション画像Ssu11として得る。
【0043】
同様に、もう1組のエネルギサブトラクション用原画像S21(第2組第1原画像)およびS22(第2組第2原画像)がエネルギサブトラクション画像作成手段11に入力され、これらに基づいて、骨部が消去された軟部画像を表すエネルギサブトラクション画像Ssu21が算出される。
【0044】
このようにして得られた2つのエネルギサブトラクション(軟部)画像Ssu11およびSsu21は対応位置関係算出手段12に入力され、エネルギサブトラクション画像算出の基礎となった各原画像S11,S12およびS21,S22はメモリ14に記憶される。
【0045】
ここで算出された2つのエネルギサブトラクション(軟部)画像Ssu11およびSsu21は、いずれも骨部が消去された軟部画像であるが、第1組の原画像と第2組の原画像とは撮影時期が互いに異なる画像であるため、両組の画像間には撮影時の体位などに差があり、したがってそれらの原画像に基づいて得られた両サブトラクション(軟部)画像Ssu11,Ssu21間にも、軟部の構造物について対応位置関係に差が存在する。なお、この特定の構造物についての対応位置関係を構造的対応位置関係という。
【0046】
対応位置関係算出手段12は、入力された両サブトラクション(軟部)画像Ssu11,Ssu21中の構造物の構造的対応位置関係を算出する。すなわち、エネルギサブトラクション(軟部)画像Ssu11,Ssu21間で線形変換によるグローバルな位置合わせを行ない、このグローバルな位置合わせがなされた後のエネルギサブトラクション(軟部)画像Ssu11,Ssu21について、仮想的に多数の狭小な小領域に分割し、分割して得られた多数の狭小な領域をそれぞれ対応させてさらにローカルマッチングを行なうことにより、構造的対応位置関係を求める。具体的には、エネルギサブトラクション(軟部)画像Ssu11,Ssu21について、第1に、一方のサブトラクション画像(例えば、第1組のサブトラクション画像Ssu11)を基準として他方のサブトラクション画像(同、第2組のサブトラクション画像Ssu21)の構造物(軟部画像中の構造物)が略一致するように、アフィン変換等の線形変換による全体的な概略位置合わせ(グローバルな位置合わせ)を行ない、このグローバルな位置合わせがなされた後の両エネルギサブトラクション画像Ssu11,Ssu21について、第2に、一方のサブトラクション画像(例えば、第1組のサブトラクション画像Ssu11)を仮想的に多数の狭小な小領域(テンプレート領域)に分割し、他方のサブトラクション画像(例えば、グローバルな位置合わせ処理が施された後の第2組のサブトラクション画像Ssu21)に、一方のサブトラクション画像のテンプレート領域にそれぞれ対応させた、当該テンプレート領域よりも広い領域のテンプレート探索領域を設定した上で、一方のサブトラクション画像中の各テンプレート領域の画像部分と、他方のサブトラクション画像中の対応するテンプレート探索領域の画像部分とが略一致するように、テンプレート領域をテンプレート探索領域内で移動させて、各テンプレート/テンプレート探索領域ごとに対応位置関係を算出(ローカルマッチング)する。なお、このローカルマッチングによれば、狭小な領域ごとに対応位置関係が異なるため、第1のグローバルな位置合わせとは異なる非線形の位置合わせとなる。
【0047】
このようにして両サブトラクション(軟部)画像Ssu11,Ssu21間の構造的対応位置関係が算出されると、この構造的対応位置関係が位置合わせ手段13において原画像を位置合わせする際の対応位置関係として位置合わせ手段13に入力される。位置合わせ手段13は、入力された対応位置関係に基づいて、メモリ14から入力された第1組第1の原画像S11と第2組第1の原画像S21(いずれも低圧画像)とを位置合わせ処理する。
【0048】
ここで、位置合わせ手段13に入力された対応位置関係は、エネルギサブトラクション(軟部)画像Ssu11,Ssu21についての構造的対応位置関係であるため、両原画像S11,S21中の軟部画像についての構造的対応位置関係である。したがって、位置合わせ手段13により位置合わせされるのは、両原画像S11,S21中の軟部画像部分のみである。
【0049】
このように軟部画像部分が略位置合わせされた後の両原画像S11,S21は、位置合わせ装置10から出力され、サブトラクション手段20に入力される。サブトラクション手段20は、軟部画像部分が位置合わせされている両原画像S11,S21について、所定の重み付けを行なった上で、画素を対応させて減算処理を行なう。この結果、得られた第1組画像と第2組画像との間のサブトラクション画像Ssuは、骨部のアーティファクトは残存するものの、軟部のアーティファクトは殆ど残存せずに、軟部組織における経時変化部分のみが現れた画像となる。そしてこのサブトラクション画像Ssuは表示手段30に入力され、表示手段30は入力されたサブトラクション画像Ssuを可視的に表示し、医師等の画像読影者に対して、診断用画像として供される。
【0050】
ここで骨部のアーティファクトと軟部組織の経時変化部分とは、画像読影者が明確に識別可能である。すなわち画像間の位置ずれに起因してサブトラクション画像に現れるアーティファクトは、位置ずれが無いとしたときの本来の基準濃度に対して高濃度部分と低濃度部分との両方が極近接して現れるのに対して、軟部組織の経時変化部分はそのようなことが無く、単に高濃度または低濃度の画像部部として出現する。したがって、骨部のアーティファクトが残存していても、軟部組織の経時変化部分と識別し難い軟部組織のアーティファクトが略消去されることにより、医師等の画像読影者に対して、非常に診断性能の高い画像となる。
【0051】
このように本実施形態の画像の位置合わせ装置によれば、比較読影の対象となる同一被写体についての2以上の画像について、従来のように骨部と軟部等の多種のアーティファクトが残存する中途半端なサブトラクション画像が作成されるのを防止することができ、多様なサブトラクション画像を提供して、適切な診断を行なうことができる。
【0052】
次に、本発明の第2の実施形態について以下に説明する。なお、その構成および作用は上記第1の実施形態とほぼ同様であるため、構成図として図1を採用し、上記第1の実施形態と異なる部分についてのみ説明する。
【0053】
本実施形態において、エネルギサブトラクション画像作成手段11は、骨部が略省略されたエネルギサブトラクション(軟部)画像Ssu11およびSsu21とともに、軟部が略省略されたエネルギサブトラクション(骨部)画像Ssu12およびSsu22を作成し、作成されたエネルギサブトラクション(軟部)画像Ssu11,Ssu21と、エネルギサブトラクション(骨部)画像Ssu12,Ssu22とが対応位置関係算出手段12に入力される。また、エネルギサブトラクション画像算出の基礎となった各原画像S11,S12およびS21,S22はメモリ14に記憶される。
【0054】
ここで算出された2つのエネルギサブトラクション(骨部)画像Ssu12およびSsu22は、上記第1の実施形態における軟部画像と同様に、撮影時期が異なる原画像に基づいて得られた画像であるため、画像間には撮影時の体位などに差がある。なお、この差によって表われる骨部画像同士の構造的対応位置関係の差は、軟部画像同士の構造的対応位置関係の差とは必ずしも一致するものではなく、その体位によって異なる方向に差が表われる場合もある。
【0055】
対応位置関係算出手段12は、まず、入力されたサブトラクション(骨部)画像Ssu12,Ssu22中の構造物の構造的対応位置関係(骨部)P1と、サブトラクション(軟部)画像Ssu11,Ssu21中の構造物の構造的対応位置関係(軟部)P2とを算出し、さらに、算出された構造的対応位置関係(骨部)P1と構造的対応位置関係(軟部)P2とを所定の割合で重み付け加算して対応位置関係(原画像)P3(=mP1+nP2;ただし、m+n=1)を算出する。
【0056】
ここで、重み付け加算の際の所定の割合(m、n)を、原画像における部位1〜3(図3、胸部画像参照)ごとに切り替えて、部位ごとに対応位置関係P3を算出する。例えば、部位1と部位3ではm=1、n=0として構造的対応位置関係(骨部)P1を対応位置関係P3とし、部位2ではm=0、n=1として構造的対応位置関係(軟部)P2を対応位置関係P3とし、それ以外の中間部分では部位間で線形補間するようにmとnを設定して対応位置関係P3を算出する。上記各部位の位置(範囲)は、例えば特願2000-298100に示すような胸郭検出方法を用いれば自動的に設定することができるため、各部位における重み付け加算の所定の割合(m、n)を予め部位ごとに設定して自動的に部位ごとの対応位置関係P3を算出するようにしてもよい。また、読影者が手動で部位の位置や重み付け加算の所定の割合(m、n)の設定をするようにしてもよい。
【0057】
位置合わせ手段13は、対応位置関係算出手段12から入力された部位ごとの対応位置関係P3に基づいて、メモリ14から入力された第1組第1の原画像S11と第2組第1の原画像S21(いずれも低圧画像)とを部位ごとに対応位置関係P3を変化させて位置合わせ処理する。
【0058】
ここで、位置合わせ手段13に入力された部位ごとの対応位置関係は、原画像の部位ごとの特徴(位置ずれ方向や程度の特徴)に合わせて構造的対応位置関係を部位別に重み付け加算して得られた対応位置関係であるため、各部位ごとにある程度精度よく位置合わせをすることができる。すなわち、姿勢の変化があったために部位ごとに異なる方向に位置ずれした画像でも、各部位ごとに適切な方向に合わせて位置合わせすることができるから、少なくとも各部位においてはある程度精度よく位置合わせすることができる。
【0059】
なお上記第1の実施形態の画像の位置合わせ装置においては、エネルギサブトラクション画像作成手段11が、骨部画像を消去した軟部画像を作成するものとしたが、本発明の画像の位置合わせ方法および装置はその実施形態の構成に限定されるものではなく、例えば上記実施形態とは反対に、軟部画像を消去した骨部画像を作成するものとしてもよいし、骨部画像と軟部画像とをそれぞれ作成して、骨部画像(エネルギサブトラクション画像としての)同士を位置合わせして主として骨部が消去されたサブトラクション画像Ssuと軟部画像(エネルギサブトラクション画像としての)同士を位置合わせして主として軟部が消去されたサブトラクション画像Ssu′との2つの経時サブトラクション画像を作成し、これら2つのサブトラクション画像をそれぞれ表示してもよいし、これら2つのサブトラクション画像を例えば重み付け加算して得られた画像Ssu″(=(m・Ssu+n・Ssu′)/(m+n);m,nは定数)を表示するようにしてもよい。さらにこの定数mおよびnを連続的に変化させて得られるモーフィング画像として表示するようにしてもよい。
【0060】
また、上記各実施形態においては、構造物重視画像(骨部重視画像、軟部重視画像)としてエネルギサブトラクション画像を利用した例を示したが、本発明における構造物重視画像はこれに限るものではなく、例えば、骨部重視画像としては、特願2000-303743に記載されているように肋骨に相当する直線的なエッジを強調した画像を用いてもよく、軟部重視画像としては、水平方向の直線的なエッジ(肋骨に相当する部分)をぼかした画像を用いてもよい。
【0061】
また上記各実施形態の画像位置合わせ装置によれば、エネルギサブトラクション画像同士に基づいて得られた対応位置関係を、原画像のうち低圧画像について適用したが、高圧画像について適用してもよいことはいうまでもない。
【図面の簡単な説明】
【図1】本発明の画像位置合わせ装置を含む医療用画像ネットワークを示す図
【図2】図1に示した医療用画像ネットワークにおける、主として画像位置合わせ装置の処理フローチャートを示す図
【図3】胸部画像における部位1〜3を示す図
【符号の説明】
10 画像位置合わせ装置
11 エネルギサブトラクション画像作成手段
12 対応位置関係算出手段
13 位置合わせ手段
14 メモリ
20 サブトラクション手段
30 表示手段
50 CR装置
60 QA−WS
70 データベースサーバー
100 ネットワーク
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image registration method and apparatus, and more particularly to an improvement in the alignment of two or more images having the same structure.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, in various fields, two or more images of the same subject are comparatively read and checked for a difference between both images, and the subject is inspected based on the difference.
[0003]
For example, in the field of manufacturing industrial products, an image taken when a product is new and an image taken after an endurance test of the product are comparatively read and attention is paid to areas where the difference between the two is large. In the medical field, doctors compare and interpret multiple radiographic images taken in time series for a diseased part of a patient. By doing so, it is carried out to grasp the progress and cure status of the disease and to examine the treatment policy.
[0004]
As described above, comparative interpretation of two or more images is routinely performed in various fields. For comparison interpretation, two or more images may be displayed on an image display device or the like. That is, an image is converted into a density signal or a luminance signal and then displayed on an image display device or the like.
[0005]
By the way, when comparing two or more images to be subjected to comparative interpretation, it is common to simply display the images in parallel. However, it is these images that are most interested for the interpreter when performing comparative interpretation. Is the difference between. However, as described above, for example, it is more difficult to find this difference by simply displaying two images side by side, and the smaller the difference is, the higher the performance of comparative interpretation is required.
[0006]
Therefore, at least one of the images is deformed so as to correspond to the positional relationship of the images with respect to the same structure captured in the two images, and then the pixels of both images are matched. By performing a subtraction process corresponding to (corresponding to the position), a difference image (subtraction image) representing a difference between the two images is obtained, and by displaying the subtraction image on a display means such as a CRT, the image reader can Differences between the two images can be easily found.
[0007]
[Problems to be solved by the invention]
By the way, in an image in which bone tissue such as ribs and spine and soft tissue such as muscles and internal organs are mixed, such as a chest radiograph of a human body, the posture of the subject (human body) (standing position and orientation of imaging) There are cases where the position variation amount / position variation direction corresponding to the variation shows different values / directions in the bone portion and the soft portion. Conventionally, alignment is performed based on the obtained variation amount and variation direction regardless of whether the bone portion or the soft portion is caused by the variation. Therefore, since the fluctuation amount and fluctuation direction used for alignment are mixed based on the bone / soft part fluctuation, if the bone part and the soft part have different fluctuation amounts and fluctuation directions, A subtraction image in which both the bone part artifact and the soft part artifact remain may not be able to be accurately aligned between the image parts, and the artifacts of various structures are each created in this way. According to the remaining subtraction image, it is difficult to make an appropriate diagnosis. For example, when the bone part and the soft part are close to each other or overlap (for example, when the rib and the blood vessel overlap), the change direction of the bone part is, for example, the right direction, and the change direction of the adjacent soft part is Opposite left directions occur, and when these are used for alignment, the position becomes more inaccurate, and in the worst case, the position may be displaced by more than one rib.
[0008]
The present invention has been made in view of the above circumstances, and improves the interpretation performance of two or more images of the same subject to be subjected to comparative interpretation by increasing the comparison accuracy of the comparison target portion as compared with the prior art. An object of the present invention is to provide an image registration method and apparatus capable of
[0009]
[Means for Solving the Problems]
The image alignment method of the present invention is an image alignment method that aligns two or more images, and acquires a specific structure-oriented image that emphasizes a specific structure for each of the two or more images. Further, a structural correspondence positional relationship is obtained between the specific structure-oriented images, and two or more images are aligned based on the obtained structural correspondence positional relationship.
[0010]
Here, the specific structure weighted image indicates, for example, a bone weighted image or a soft part weighted image when each of two or more images is a medical radiation image.
[0011]
A bone-oriented image emphasizes, for example, a bone image of energy subtraction images generated based on two original images for energy subtraction having different energy distributions, and a linear edge corresponding to a rib in the image. An image that is effective when aligning two or more images with emphasis on bones, such as edge-enhanced images. Also, the soft part emphasis image is an image of two or more images with emphasis on the soft part, such as a soft part image in the energy subtraction image and an image in which a horizontal linear edge (part corresponding to the rib) in the image is blurred. This broadly means an image that is effective in aligning.
[0012]
That is, in the image alignment method of the present invention described above, the two or more images are used as two or more sets of energy subtraction original images, and the specific structure-oriented image is acquired for each set based on the energy subtraction original images. It is also possible to obtain an energy subtraction image. That is, in an image registration method in which two or more sets of energy subtraction original images are aligned between the sets, energy subtraction images are acquired for each set based on the energy subtraction original images of each set. The structural correspondence positional relationship is obtained between each set for the obtained energy subtraction image, and the position of the original image for energy subtraction is determined based on the obtained structural correspondence positional relationship for the energy subtraction image. It is good also as what is characterized by combining.
[0013]
Here, since at least one energy subtraction image can be obtained on the basis of at least two original images having different energy distributions, the “two or more sets of energy subtraction original images” means at least one subtraction image. This indicates that there are two or more sets of original images (energy subtraction original images) for obtaining the image. That is, when an energy subtraction image is used for a bone-oriented image or a soft-weighted image, it means that there are at least four original images in total. For example, assuming that two original images having different energy distributions are S1 and S2, one energy subtraction image Ssu1 can be obtained by the following subtraction formula based on these two original images S1 and S2.
[0014]
Ssu1 = αS1-βS2
Α and β in this equation are weighting coefficients, and by changing these values, a number of energy subtraction images Ssu1 (for example, a bone part image used as a bone part weighted image or a soft part image used as a soft part weighted image) ) Can be obtained. At this time, the two original images S1 and S2 are referred to as a set of energy subtraction original images.
[0015]
“Align two or more sets of energy subtraction original images (two or more images)” means, for example, that the first set of energy subtraction original images is S11 and S12, and the second set of energy subtraction original images is When S21 and S22, it means that the first set of original images S11 and the second set of original images S21 are aligned. Of course, the first set of original images S12 and the second set of original images S22 may be aligned, or the first set of original images S11 and the second set of original images S22, or the first set of original images S22. The image S12 and the second set of original images S21 may be aligned. However, it is common to use two high-pressure emphasized images (high-pressure images) and low-pressure emphasized images (low-pressure images) as the energy subtraction original images, and the low-pressure images or the high-pressure images are aligned. Further, it is more preferable to perform alignment between low-pressure images having a relatively small noise component.
[0016]
In addition to the human body, the subject includes all things such as animals and plants, industrial products, topography, celestial bodies, and landscapes.
[0017]
The structural correspondence positional relationship means a positional relationship when the structural elements of the subject recorded as an image are associated with each other, and ignores the structural elements on the image from the left edge of the image. It does not mean a positional relationship in which a formal position is matched with cm, ○ × cm from the upper edge. The structure may be not only an external structure on the image but also an anatomical structure (for example, lung field, sternum, neck, etc.). In the medical field, it is the most interesting part for comparative interpretation.
[0018]
Further, the image alignment method of the present invention is applied to the corresponding positional relationship obtained by weighting and adding the structural corresponding positional relationship between the bone-oriented images and the structural corresponding positional relationship between the soft-weighted images at a predetermined ratio. Based on this, the two or more images may be aligned. That is, the structural correspondence positional relationship between the bone-oriented image of the first image and the bone-oriented image of the second image is obtained as P1, and the soft image of the first image and the soft image of the second image are emphasized. Based on the correspondence position relationship P3 (= mP1 + nP2; m + n = 1) obtained by weighting and adding the structure correspondence position relationships P1 and P2, the structural correspondence position relationship with the image is obtained as P2. The image and the second image may be aligned. Further, m and n may be changed continuously to change the corresponding positional relationship P3 correspondingly, and the alignment state may be changed continuously accordingly.
[0019]
Further, a predetermined ratio at the time of weighted addition may be set for each part of two or more images. That is, the corresponding positional relationship P3 may be calculated by appropriately changing m and n for each part in the image.
[0020]
An image alignment apparatus of the present invention is an apparatus for carrying out the image alignment method of the present invention, and is an image alignment apparatus provided with alignment means for aligning two or more images. A structural correspondence position between the structure-oriented image acquisition unit that acquires a specific structure-oriented image that emphasizes a specific structure for each of the above images and the specific structure-oriented image acquired by the structure-oriented image acquisition unit A structural corresponding positional relationship calculating means for obtaining a relationship, and the aligning means aligns the two or more images based on the structural corresponding positional relationship obtained by the structural corresponding positional relationship calculating means. It is characterized by this.
[0021]
Further, each of the two or more images may be a medical radiation image, and the specific structure-oriented image may be a bone-oriented image and / or a soft-weighted image.
[0022]
The image alignment apparatus of the present invention calculates the corresponding positional relationship by weighting and adding the structural corresponding positional relationship between the bone-oriented images and the structural corresponding positional relationship between the soft-weighted images at a predetermined ratio. It is also possible to further include means for aligning the two or more images based on the corresponding positional relationship obtained by the corresponding positional relationship calculating means. Furthermore, the corresponding positional relationship calculating means may be configured to set a predetermined ratio at the time of weighted addition for each part of the two or more images.
[0023]
In addition, the structural correspondence positional relationship calculation means performs global alignment between the specific structure-oriented images, and further, the specific structure-oriented images that have been globally aligned are virtually divided into a large number of narrow small regions. The structural correspondence positional relationship may be obtained by dividing and performing local matching with each of a plurality of narrow small regions obtained by the division.
[0024]
Two or more images may be used as two or more sets of energy subtraction original images, and the specific structure-oriented image may be an energy subtraction image acquired for each set based on the energy subtraction original images. That is, in an image alignment apparatus provided with an alignment means for aligning two or more sets of energy subtraction original images between the sets, the energy subtraction is determined for each set based on the energy subtraction original images. Energy subtraction means for obtaining each subtraction image, and corresponding position relationship calculating means for obtaining a structural corresponding position relationship between each set of the obtained energy subtraction images, and the alignment means includes the obtained energy subtraction image The energy subtraction original image may be aligned between the groups based on the structural correspondence positional relationship for the subtraction image.
[0025]
Further, the bone-oriented image can be an edge-enhanced image of each of two or more images.
[0026]
Note that the two or more images may be time-series images at different shooting points, or may be images of the same subject that is the target of comparative interpretation.
[0027]
【The invention's effect】
According to the image alignment method and the alignment apparatus of the present invention, in an image alignment method for aligning two or more images, a structural correspondence positional relationship is obtained between specific structure-oriented images acquired from each image. Since the images are aligned based on the obtained structural correspondence positional relationship, the specific structures can be aligned with higher accuracy, and as a result, the types of structures in which artifacts remain are limited. It is possible to easily identify the remaining artifact and the difference between the two or more images so that the reader can recognize the difference between the images.
[0028]
That is, for example, a soft part emphasis image is acquired based on two or more images, the structural correspondence positional relationship calculation unit calculates the structural correspondence positional relationship between the soft part importance images, and based on the calculated structural correspondence positional relationship. When the alignment unit aligns the two or more images, the alignment is performed based on the corresponding positional relationship of the soft part. In this case, the same structure of the soft part is almost erased in the difference image. However, a difference existing in the soft part (for example, an abnormal shadow existing only in one image) remains, and the bone part remains as an artifact.
[0029]
However, bone artifacts are both positive (high) and negative (low) within a narrow range of true contours, whereas soft shadows are There is nothing. Therefore, the shadow (difference) of the soft part can be clearly distinguished from the artifact.
[0030]
As described above, according to the image alignment method and alignment apparatus of the present invention, when two or more images are aligned to create a subtraction image, various artifacts such as a bone portion and a soft portion are generated as in the related art. It is possible to prevent the remaining halfway subtraction image from being created, and it is possible to provide various subtraction images and perform appropriate diagnosis.
[0031]
Further, two or more images are positioned based on the corresponding positional relationship obtained by weighting and adding the structural corresponding positional relationship between the bone-oriented images and the structural corresponding positional relationship between the soft-weighted images at a predetermined ratio. If combined, it is possible to obtain a subtraction image in which both the bone and soft parts are erased to some extent, and various types of subtraction images can be obtained by appropriately changing the predetermined ratio. Various images such as an image suitable for follow-up observation and an image suitable for disease detection can be generated in accordance with the desires of the person.
[0032]
Furthermore, if it is possible to set a predetermined ratio at the time of weighting addition for each part in the image, the weighting of the structural correspondence positional relationship is changed for each part according to the characteristics of the positional deviation of the part. Therefore, for example, due to a change in posture, even when the direction and degree of positional deviation differ for each part, the parts can be properly aligned to some extent.
[0033]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of an image alignment method and an alignment apparatus according to the present invention will be described below with reference to the drawings.
[0034]
FIG. 1 is a diagram showing a medical image network 100 including an image registration apparatus 10 which is an embodiment of an image registration method and registration apparatus according to the present invention.
[0035]
The illustrated network 100 includes medical image generation apparatuses such as a CT apparatus (computer tomography apparatus), an MRI apparatus (magnetic resonance imaging apparatus), and a CR apparatus (computer radiography) 50, and these medical images. A database 70 for accumulating and storing various diagnostic medical images generated by the generation device, and an alignment device 10 for aligning images once stored in the database 70 and a plurality of images directly sent from the image generation device The subtraction means 20 that performs subtraction processing between the images that have been aligned by the alignment apparatus 10 and the image display means 30 that displays the subtraction image obtained by the subtraction processing by the subtraction means 20 as a visible image are connected. ing. The network 100 is connected to a printer or the like for outputting an image distributed on the network 100 to a film or the like, but is not shown in the drawing including the CT apparatus and the MRI apparatus.
[0036]
The CR device 50 accumulates and records a transmitted radiation image of the subject on the stimulable phosphor sheet by irradiating the sheet-like stimulable phosphor sheet having the stimulable phosphor layer with the radiation transmitted through the subject. Thereafter, the storable phosphor sheet is irradiated with a laser beam, and the stimulated emission light emitted in a light amount corresponding to the radiation energy accumulated and recorded on the sheet is photoelectrically read to obtain a transmitted radiation image of the subject. It is an apparatus that acquires digital images, and is widely used in medical institutions such as hospitals.
[0037]
A QA-WS (image quality check workstation) 60 interposed between the CR device 50 and the network 100 checks the diagnostic image generated by the image generation device such as the CR device 50 described above, and is necessary. In this case, the workstation has a function of requesting the image generation apparatus to reacquire an image. The QA-WS 60 in the present embodiment displays the digital image P generated by the CR device 50 before accumulating and storing it in the database 70, and checks the image quality such as image density and contrast, and the shooting range. It is provided as a thing.
[0038]
The image registration device 10 is provided with energy subtraction images corresponding to the two sets of energy subtraction original images S11, S12 and S21, S22, which are input via the network 100 and have the same shooting time for each group. Energy subtraction image creation means (structure-oriented image acquisition means) 11 for calculating Ssu11 and Ssu21, and corresponding position relation calculation means (structural correspondence position relation calculation means for obtaining the structural correspondence position relation between both subtraction images Ssu11 and Ssu21) 12) and alignment means 13 for aligning low-pressure images S11 and S21 among the energy subtraction original images based on the obtained corresponding positional relationship.
[0039]
Next, the operation of the medical image network 100 including the alignment device 10 of the present embodiment will be described.
[0040]
The CR device 50 previously captures energy subtraction original images S11, S12 and S21, S22 for the chest of a specific patient at different imaging times, and these images S11, S12 (S11 and S12 are simultaneously captured). S21 and S22 (S21 and S22 are images taken at the same time) are stored in the database 70 via the network 100 after the image quality and the like are checked by the QA-WS 60. In each of the stored images S11, S12 and S21, S22, an ID number unique to the imaged patient, a symbol indicating an imaging region (chest in this description) and an imaging position, an imaging date, Information indicating that the image is an energy subtraction original image (including a high-pressure image and a low-pressure image) is attached as header information. The two original images S11 and S21 are images of the front of the chest of the same patient with different shooting dates, and are images to be compared in time series. The second set of first original images S21 has a newer shooting time than the first set of first original images S11, the first set of first original images S11 is a past image, and the second set of first original images S21 is current. It can be called an image.
[0041]
First, the energy subtraction image creation means 11 of the alignment apparatus 10 is connected to the energy subtraction image generation means 11 from the database 70 via the network 100 for the two sets of energy subtraction with the same ID number, the same imaging part symbol, and the same imaging date header information. Of the original images, a first set of first original images S11 and a first set of second original images S12 are input. As shown in the processing flow of FIG. 2, the energy subtraction image creation means 11 calculates an energy subtraction image Ssu11 for these original images based on the two input original images S11 and S12. As disclosed in Japanese Patent Laid-Open Nos. 59-83484, 3-285475, etc., the energy subtraction images are the original image signals S11, S12 respectively representing the two original images S11, S12 having different energy distributions (explanation). For the sake of simplicity, the same reference numerals as those of the original images S11 and S12 are attached), and the signal values of the pixels of the predetermined structure in the image are substantially the same after matching the positions of the corresponding structures. In this way, the original image signal values S11 and S12 are weighted and subtracted between the signal values of the corresponding pixels to thereby substantially erase the predetermined structure (energy subtraction image) Ssu11 (= αS11). -ΒS12; α and β are weighting coefficients, respectively, and is particularly effective for separating and observing a plurality of structures having a large difference in energy absorption rate.
[0042]
In the present embodiment, the soft part image from which the bone part is substantially erased is obtained as the energy subtraction image Ssu11 by performing the subtraction process by substantially matching the signal values of the bone part existing in the two original images S11 and S12.
[0043]
Similarly, another set of energy subtraction original images S21 (second set first original image) and S22 (second set second original image) are input to the energy subtraction image creating means 11, and based on these, An energy subtraction image Ssu21 representing the soft part image from which the part has been erased is calculated.
[0044]
The two energy subtraction (soft part) images Ssu11 and Ssu21 obtained in this way are input to the corresponding positional relationship calculating means 12, and the original images S11, S12 and S21, S22, which are the basis of energy subtraction image calculation, are stored in the memory. 14 is stored.
[0045]
The two energy subtraction (soft part) images Ssu11 and Ssu21 calculated here are both soft part images from which the bone part has been erased, but the first set of original images and the second set of original images have a shooting time. Since the images are different from each other, there is a difference in the body position at the time of shooting between the two sets of images. Therefore, the soft part is also detected between the two subtraction (soft part) images Ssu11 and Ssu21 obtained based on the original images. There is a difference in the corresponding positional relationship between the structures. The corresponding positional relationship for this specific structure is referred to as a structural corresponding positional relationship.
[0046]
Corresponding positional relationship calculation means 12 calculates the structural corresponding positional relationship of the structures in both input subtraction (soft part) images Ssu11 and Ssu21. That is, global alignment by linear transformation is performed between the energy subtraction (soft part) images Ssu11 and Ssu21, and the energy subtraction (soft part) images Ssu11 and Ssu21 after the global alignment are virtually divided into a plurality of narrownesses. The structural corresponding positional relationship is obtained by dividing the image into small regions and making local matching with each of the many narrow regions obtained by the division. Specifically, with respect to the energy subtraction (soft part) images Ssu11 and Ssu21, firstly, the other subtraction image (same as the second set of subtractions) using one subtraction image (for example, the first set of subtraction images Ssu11) as a reference. The overall alignment (global alignment) by linear transformation such as affine transformation is performed so that the structure of the image Ssu21) (the structure in the soft part image) substantially matches, and this global alignment is performed. Second, for both energy subtraction images Ssu11 and Ssu21, one subtraction image (for example, the first set of subtraction images Ssu11) is virtually divided into a large number of narrow small regions (template regions), and the other Subtraction images (for example, after global alignment In the second set of subtraction images Ssu21), a template search area wider than the template area corresponding to the template area of one of the subtraction images is set, and each template area in the one subtraction image is set. The template area is moved within the template search area so that the image part of the template and the image part of the corresponding template search area in the other subtraction image substantially match, and the corresponding positional relationship is determined for each template / template search area. Is calculated (local matching). Note that according to this local matching, the corresponding positional relationship is different for each narrow region, and therefore, the non-linear alignment is different from the first global alignment.
[0047]
When the structural corresponding positional relationship between the two subtraction (soft part) images Ssu11 and Ssu21 is calculated in this way, this structural corresponding positional relationship is used as the corresponding positional relationship when the original image is aligned in the alignment means 13. Input to the alignment means 13. The alignment means 13 positions the first set of first original images S11 and the second set of first original images S21 (both low pressure images) input from the memory 14 based on the input corresponding positional relationship. Combine processing.
[0048]
Here, since the corresponding positional relationship input to the alignment means 13 is the structural corresponding positional relationship for the energy subtraction (soft part) images Ssu11 and Ssu21, the structural relationship for the soft part images in the two original images S11 and S21. Corresponding positional relationship. Therefore, only the soft part image portion in both the original images S11 and S21 is aligned by the alignment means 13.
[0049]
The original images S11 and S21 after the soft part image portion is substantially aligned in this way are output from the alignment apparatus 10 and input to the subtraction means 20. The subtraction means 20 performs a subtraction process corresponding to the pixels after performing a predetermined weighting on both original images S11 and S21 in which the soft part image portion is aligned. As a result, in the obtained subtraction image Ssu between the first set image and the second set image, although the artifact of the bone part remains, the artifact of the soft part hardly remains, and only the temporally changing part in the soft tissue. Will appear in the image. The subtraction image Ssu is input to the display means 30, and the display means 30 visually displays the input subtraction image Ssu and serves as a diagnostic image for an image reader such as a doctor.
[0050]
Here, the image interpreter can clearly identify the artifact of the bone portion and the temporally changing portion of the soft tissue. In other words, artifacts that appear in subtraction images due to misalignment between images appear when both the high density part and the low density part appear in close proximity to the original reference density when there is no misregistration. On the other hand, the time-varying portion of the soft tissue does not appear as such, and simply appears as a high-density or low-density image portion. Therefore, even if bone artifacts remain, the soft tissue artifacts that are difficult to distinguish from the time-varying portions of the soft tissue are substantially erased. High image.
[0051]
As described above, according to the image alignment apparatus of the present embodiment, halfway in which various artifacts such as a bone portion and a soft portion remain as in the case of two or more images of the same subject to be subjected to comparative interpretation as in the past. Therefore, it is possible to prevent a subtraction image from being created, and to provide various subtraction images to perform appropriate diagnosis.
[0052]
Next, a second embodiment of the present invention will be described below. Since the configuration and operation thereof are substantially the same as those of the first embodiment, FIG. 1 is adopted as a configuration diagram, and only different portions from the first embodiment will be described.
[0053]
In this embodiment, the energy subtraction image creating means 11 creates energy subtraction (soft part) images Ssu11 and Ssu22 in which the soft part is substantially omitted together with energy subtraction (soft part) images Ssu11 and Ssu21 in which the bone part is substantially omitted. The generated energy subtraction (soft part) images Ssu11 and Ssu21 and the energy subtraction (bone part) images Ssu12 and Ssu22 are input to the corresponding positional relationship calculation means 12. The original images S11, S12 and S21, S22, which are the basis for energy subtraction image calculation, are stored in the memory 14.
[0054]
Since the two energy subtraction (bone) images Ssu12 and Ssu22 calculated here are images obtained based on the original images having different shooting times, similarly to the soft part images in the first embodiment, the images There is a difference in the posture during shooting. Note that the difference in the structural correspondence positional relationship between the bone part images represented by this difference does not necessarily coincide with the difference in the structural correspondence positional relationship between the soft part images, and the difference appears in a different direction depending on the body position. It may be called.
[0055]
Corresponding positional relationship calculation means 12 firstly, the structural corresponding positional relationship (bone part) P1 of the structure in the input subtraction (bone) images Ssu12, Ssu22 and the structure in the subtraction (soft part) images Ssu11, Ssu21. The structural corresponding positional relationship (soft part) P2 of the object is calculated, and the calculated structural corresponding positional relationship (bone part) P1 and the structural corresponding positional relationship (soft part) P2 are weighted and added at a predetermined ratio. Corresponding positional relationship (original image) P3 (= mP1 + nP2; m + n = 1) is calculated.
[0056]
Here, the predetermined ratio (m, n) at the time of weighted addition is switched for each of the parts 1 to 3 (see FIG. 3, chest image) in the original image, and the corresponding positional relationship P3 is calculated for each part. For example, in the parts 1 and 3, the structural correspondence positional relationship (bone part) P1 is set as the corresponding positional relation P3 with m = 1 and n = 0, and the structural correspondence positional relationship is set as m = 0 and n = 1 in the part 2 ( The soft part) P2 is set as the corresponding positional relation P3, and the corresponding positional relation P3 is calculated by setting m and n so that linear interpolation is performed between the parts in the other intermediate part. The position (range) of each part can be automatically set by using, for example, a thorax detection method as shown in Japanese Patent Application No. 2000-298100. Therefore, a predetermined ratio (m, n) of weighted addition in each part May be set for each part in advance, and the corresponding positional relationship P3 for each part may be automatically calculated. Alternatively, the radiogram interpreter may manually set the position of the part and a predetermined ratio (m, n) of weighted addition.
[0057]
Based on the corresponding positional relationship P3 for each part input from the corresponding positional relationship calculating unit 12, the alignment unit 13 receives the first set first original image S11 and the second set first original input from the memory 14. The image S21 (both low-pressure images) is subjected to alignment processing by changing the corresponding positional relationship P3 for each part.
[0058]
Here, the corresponding positional relationship for each part input to the alignment means 13 is obtained by weighting and adding the structural corresponding positional relation for each part according to the characteristics (position shift direction and characteristics of the degree) of each part of the original image. Since the corresponding positional relationship is obtained, it is possible to perform positioning with a certain degree of accuracy for each part. That is, even if an image is shifted in a different direction for each part because of a change in posture, it can be aligned in an appropriate direction for each part. be able to.
[0059]
In the image registration apparatus of the first embodiment, the energy subtraction image creation unit 11 creates the soft part image from which the bone part image has been erased. Is not limited to the configuration of the embodiment. For example, contrary to the above embodiment, a bone image obtained by deleting the soft part image may be created, or a bone part image and a soft part image may be created respectively. Then, the bone images (as energy subtraction images) are aligned and the subtraction image Ssu from which the bone portions are mainly erased and the soft portion images (as energy subtraction images) are aligned to mainly erase the soft portions. Two subtraction images with the subtraction image Ssu ′ are created, and these two subtraction images are created. Each image may be displayed, or an image Ssu ″ obtained by weighted addition of these two subtraction images (= (m · Ssu + n · Ssu ′) / (m + n); m and n are constants) is displayed. Further, it may be displayed as a morphed image obtained by continuously changing the constants m and n.
[0060]
Further, in each of the above embodiments, an example in which an energy subtraction image is used as a structure-oriented image (bone-oriented image, soft-part-oriented image) has been shown, but the structure-oriented image in the present invention is not limited to this. For example, an image in which a straight edge corresponding to a rib is emphasized as described in Japanese Patent Application No. 2000-303743 may be used as the bone-oriented image, and a horizontal straight line may be used as the soft-part-oriented image. An image in which a typical edge (a portion corresponding to a rib) is blurred may be used.
[0061]
Further, according to the image registration device of each of the above embodiments, the corresponding positional relationship obtained based on the energy subtraction images is applied to the low-pressure image of the original image, but may be applied to the high-pressure image. Needless to say.
[Brief description of the drawings]
FIG. 1 shows a medical image network including an image registration device of the present invention.
FIG. 2 is a diagram showing a processing flowchart mainly of an image registration device in the medical image network shown in FIG. 1;
FIG. 3 is a diagram showing parts 1 to 3 in a chest image
[Explanation of symbols]
10 Image alignment device
11 Energy subtraction image creation means
12 Corresponding positional relationship calculation means
13 Alignment means
14 memory
20 Subtraction means
30 Display means
50 CR equipment
60 QA-WS
70 Database server
100 network

Claims (11)

2以上の医療用放射線画像を位置合わせする画像の位置合わせ方法において、
前記2以上の医療用放射線画像のそれぞれについて骨部および軟部を重視した骨部重視画像および軟部重視画像を取得し、
該取得された骨部重視画像間および軟部重視画像間で構造的対応位置関係を求め、
該求められた骨部重視画像間の構造的対応位置関係と軟部重視画像間の構造的対応位置関係とを所定の割合で重み付け加算して得られた対応位置関係に基づいて、前記2以上の医療用放射線画像を位置合わせすることを特徴とする画像の位置合わせ方法。
In an image alignment method for aligning two or more medical radiographic images,
Bone and soft tissue to get the bone emphasized image and soft focus image emphasizing for each of the two or more medical radiographic image,
Obtaining a structural correspondence positional relationship between the acquired bone-oriented images and soft-weighted images ,
Based on the corresponding positional relationship obtained by weighting and adding the structural correspondence positional relationship between the obtained bone-oriented images and the structural correspondence positional relationship between the soft-weighted images at a predetermined ratio, the two or more An image alignment method comprising aligning medical radiographic images.
前記所定の割合を、前記2以上の医療用放射線画像の部位ごとに設定することを特徴とする請求項記載の画像の位置合わせ方法。The predetermined percentage, the alignment method according to claim 1, wherein the image and setting for each region of the two or more medical radiographic image. 前記2以上の医療用放射線画像が2組以上のエネルギサブトラクション用原画像であり、前記骨部重視画像および軟部重視画像が、前記エネルギサブトラクション用原画像に基づいて各組ごとに取得されたエネルギサブトラクション画像であることを特徴とする請求項1または2記載の画像の位置合わせ方法。Wherein a two or more medical radiographic images two or more sets of energy subtraction feed image, energy subtraction which the bone emphasized image and soft focus images were acquired for each set, based on the energy subtraction feed image 3. The image registration method according to claim 1, wherein the image registration method is an image. 前記骨部重視画像が、前記2以上の医療用放射線画像の各々のエッジ強調画像であることを特徴とする請求項からいずれか記載の画像の位置合わせ方法。The bone emphasized image, alignment method of claims 1 3 or description of an image, characterized in that each of the edge enhanced image of the two or more medical radiographic image. 2以上の医療用放射線画像を位置合わせする位置合わせ手段を備えた画像の位置合わせ装置において、
前記2以上の医療用放射線画像のそれぞれについて骨部および軟部を重視した骨部重視画像および軟部重視画像を取得する構造物重視画像取得手段と、
該構造物重視画像取得手段において取得された骨部重視画像間および軟部重視画像間で構造的対応位置関係を求める構造的対応位置関係算出手段と
該構造的対応位置関係算出手段において求められた前記骨部重視画像間の構造的対応位置関係と前記軟部重視画像間の構造的対応位置関係とを所定の割合で重み付け加算して対応位置関係を求める対応位置関係算出手段とを備え、
前記位置合わせ手段が、前記対応位置関係算出手段により求められた前記対応位置関係に基づいて、前記2以上の医療用放射線画像を位置合わせするものであることを特徴とする医療用放射線画像の位置合わせ装置。
In an image alignment apparatus provided with an alignment means for aligning two or more medical radiographic images,
A structure-oriented image acquisition means for acquiring a bone-oriented image and a soft-weight-oriented image with an emphasis on the bone and the soft portion for each of the two or more medical radiographic images;
A structural correspondence positional relationship calculating means for obtaining a structural correspondence positional relationship between the bone-oriented images and the soft-weighted images acquired by the structure-oriented image acquisition means ;
The structural correspondence positional relationship between the bone-oriented images obtained by the structural correspondence positional relationship calculating means and the structural correspondence positional relationship between the soft-weighted images are weighted and added at a predetermined ratio to obtain the corresponding positional relationship. A corresponding positional relationship calculation means to be obtained,
It said alignment means, on the basis of the corresponding positional relationship the corresponding positional relationship obtained by the calculating means, the position of the medical radiographic image, characterized in that said two or more medical radiographic image is to align Alignment device.
前記対応位置関係算出手段が、前記所定の割合を、前記2以上の医療用放射線画像の部位ごとに設定可能なものであることを特徴とする請求項記載の画像の位置合わせ装置。6. The image registration apparatus according to claim 5, wherein the corresponding positional relationship calculation means is capable of setting the predetermined ratio for each part of the two or more medical radiographic images. 前記構造的対応位置関係算出手段が、前記骨部重視画像および軟部重視画像間でグローバルな位置合わせを行ない、さらに、該グローバルな位置合わせがなされた前記骨部重視画像および軟部重視画像を仮想的に多数の狭小な小領域に分割し、分割して得られた多数の狭小な小領域をそれぞれ対応させてローカルマッチングを行なうことにより、前記構造的対応位置関係を求めるものであることを特徴とする請求項5または6記載の画像の位置合わせ装置。The structural correspondence positional relationship calculating means performs global alignment between the bone-part-oriented image and the soft-part-oriented image, and further, the bone-oriented and soft-part-oriented images that have been globally aligned are virtually The structural correspondence positional relationship is obtained by performing local matching by dividing each of the plurality of narrow small regions into a plurality of narrow small regions and corresponding each of the many small small regions obtained by the division. The image alignment apparatus according to claim 5 or 6 . 前記2以上の医療用放射線画像が2組以上のエネルギサブトラクション用原画像であり、前記骨部重視画像および前記軟部重視画像が、前記エネルギサブトラクション用原画像に基づいて各組ごとに取得されたエネルギサブトラクション画像であることを特徴とする請求項からいずれか記載の画像の位置合わせ装置。Wherein a two or more medical radiographic images two or more sets of energy subtraction feed image, the bone emphasized image and the soft focus image has been acquired for each set, based on the energy subtraction feed image energy positioning apparatus for an image according to any one of claims 5, wherein 7 to be a subtraction image. 前記骨部重視画像が、前記2以上の医療用放射線画像の各々のエッジ強調画像であることを特徴とする請求項からいずれか記載の画像の位置合わせ装置。The bone emphasized image, the two or more positioning devices for medical radiation image each 8 any description of the image from the claims 5, characterized in that the edge enhanced image of. 前記2以上の医療用放射線画像が、撮影時点が互いに異なる時系列の医療用放射線画像であることを特徴とする請求項からいずれか記載の画像の位置合わせ装置。The image alignment apparatus according to any one of claims 5 to 9, wherein the two or more medical radiographic images are time-series medical radiographic images having different imaging time points. 前記2以上の医療用放射線画像が、比較読影の対象となる、同一被写体についての医療用放射線画像であることを特徴とする請求項から10いずれか記載の画像の位置合わせ装置。The two or more medical radiographic image, subject to comparative reading, the alignment device of an image according to any one of claims 5 to 10, characterized in that a medical radiographic image of the same subject.
JP2001044623A 2000-03-06 2001-02-21 Image registration method and apparatus Expired - Fee Related JP4294880B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001044623A JP4294880B2 (en) 2000-03-06 2001-02-21 Image registration method and apparatus

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2000-60547 2000-03-06
JP2000060547 2000-03-06
JP2001044623A JP4294880B2 (en) 2000-03-06 2001-02-21 Image registration method and apparatus

Publications (2)

Publication Number Publication Date
JP2001325584A JP2001325584A (en) 2001-11-22
JP4294880B2 true JP4294880B2 (en) 2009-07-15

Family

ID=26586847

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001044623A Expired - Fee Related JP4294880B2 (en) 2000-03-06 2001-02-21 Image registration method and apparatus

Country Status (1)

Country Link
JP (1) JP4294880B2 (en)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4104054B2 (en) 2001-08-27 2008-06-18 富士フイルム株式会社 Image alignment apparatus and image processing apparatus
JP4647360B2 (en) * 2004-04-05 2011-03-09 富士フイルム株式会社 DIFFERENTIAL IMAGE CREATION DEVICE, DIFFERENTIAL IMAGE CREATION METHOD, AND PROGRAM THEREOF
JP2006006435A (en) * 2004-06-23 2006-01-12 Fuji Photo Film Co Ltd Method and device for image display, and program
JP4126318B2 (en) 2006-06-23 2008-07-30 三菱重工業株式会社 Radiotherapy apparatus control apparatus and radiotherapy apparatus control method
JP5085310B2 (en) * 2007-12-27 2012-11-28 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー Image processing apparatus, program, and X-ray CT apparatus
JP5317479B2 (en) * 2008-01-11 2013-10-16 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー X-ray CT system
JP5511152B2 (en) * 2008-05-14 2014-06-04 富士フイルム株式会社 Energy subtraction method and apparatus
KR101430121B1 (en) * 2010-04-06 2014-08-14 삼성전자주식회사 Apparatus of Processing Images in Multi-Energy X-ray System and Method for Processing the Images
JP6225636B2 (en) * 2013-10-22 2017-11-08 コニカミノルタ株式会社 Medical image processing apparatus and program
JP6650819B2 (en) 2016-04-15 2020-02-19 株式会社 資生堂 Method for evaluating uneven color portion, apparatus for evaluating uneven color portion, and program for evaluating uneven color portion
JP6845047B2 (en) * 2017-03-09 2021-03-17 富士フイルム株式会社 Medical imaging controls, methods and programs
DE102020214319B3 (en) * 2020-11-13 2022-01-20 Siemens Healthcare Gmbh Providing an optimal subtraction data set

Also Published As

Publication number Publication date
JP2001325584A (en) 2001-11-22

Similar Documents

Publication Publication Date Title
JP2001157675A (en) Method and apparatus for displaying image
JP4130661B2 (en) Device for detecting temporal changes between temporally continuous chest images
US20010007593A1 (en) Method and unit for displaying images
JP4104054B2 (en) Image alignment apparatus and image processing apparatus
US7359542B2 (en) Method and apparatus for detecting anomalous shadows
JP4294880B2 (en) Image registration method and apparatus
JP5016518B2 (en) Alignment apparatus and program thereof
JP4188532B2 (en) Inter-image calculation method and apparatus, and image display method and apparatus
JPH08103439A (en) Alignment processor for image and inter-image processor
JP3888046B2 (en) Radiation image processing method and radiation image processing apparatus
US7035445B2 (en) Image position matching method, apparatus and storage medium
KR101909125B1 (en) Method for computer-aided diagnosis and computer-aided diagnosis apparatus thereof
US7310437B2 (en) Image processing method and system, and storage medium
JP2001285858A (en) Method and instrument for photographing image
JP2001157667A (en) Method for displaying image and image display device
JP2001325583A (en) Method and device for image processing
Gang et al. Multiscale deformable registration for dual‐energy x‐ray imaging
Bier C-arm Cone-Beam Computed Tomography Reconstruction for Knee Imaging under Weight-Bearing Conditions
JP2001169182A (en) Method and device for displaying image
JP2001291087A (en) Method and device for positioning image
Ikwuezunma et al. Case of the missing vertebra: a report of a radiographic stitching error in a scoliosis patient
JP4208049B2 (en) Image processing device
JP2008068099A (en) Image display method and image display device
US11696736B2 (en) Anatomical landmark detection and identification from digital radiography images containing severe skeletal deformations
JP2001170035A (en) Method and instrument image display

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060113

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20061202

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090309

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090407

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090409

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120417

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120417

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130417

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130417

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140417

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees