JP4294880B2 - Image registration method and apparatus - Google Patents
Image registration method and apparatus Download PDFInfo
- Publication number
- JP4294880B2 JP4294880B2 JP2001044623A JP2001044623A JP4294880B2 JP 4294880 B2 JP4294880 B2 JP 4294880B2 JP 2001044623 A JP2001044623 A JP 2001044623A JP 2001044623 A JP2001044623 A JP 2001044623A JP 4294880 B2 JP4294880 B2 JP 4294880B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- images
- positional relationship
- bone
- soft
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 23
- 210000000988 bone and bone Anatomy 0.000 claims description 44
- 230000000052 comparative effect Effects 0.000 claims description 9
- 238000003384 imaging method Methods 0.000 claims description 8
- 230000005855 radiation Effects 0.000 claims description 7
- 210000004872 soft tissue Anatomy 0.000 claims description 7
- 210000000038 chest Anatomy 0.000 description 7
- 230000008859 change Effects 0.000 description 5
- OAICVXFJPJFONN-UHFFFAOYSA-N Phosphorus Chemical compound [P] OAICVXFJPJFONN-UHFFFAOYSA-N 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000009826 distribution Methods 0.000 description 4
- 101100150553 Caenorhabditis elegans ssu-1 gene Proteins 0.000 description 3
- 238000003745 diagnosis Methods 0.000 description 3
- 238000002595 magnetic resonance imaging Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 201000010099 disease Diseases 0.000 description 2
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 238000010521 absorption reaction Methods 0.000 description 1
- 210000003484 anatomy Anatomy 0.000 description 1
- 210000004204 blood vessel Anatomy 0.000 description 1
- 238000002591 computed tomography Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 210000004072 lung Anatomy 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 238000002601 radiography Methods 0.000 description 1
- 210000001562 sternum Anatomy 0.000 description 1
- 238000012876 topography Methods 0.000 description 1
- 210000001835 viscera Anatomy 0.000 description 1
Images
Description
【0001】
【発明の属する技術分野】
本発明は、画像の位置合わせ方法および装置に関し、詳細には、同一の構造物を有する2以上の画像の位置合わせの改良に関するものである。
【0002】
【従来の技術】
従来より、同一被写体についての2以上の画像を比較読影して、両画像間の差異を調べ、その差異に基づいて被写体の検査などを行うことが、種々の分野において行われている。
【0003】
例えば工業製品の製造分野においては、ある製品について新品の状態の時に撮影された画像と、当該製品の耐久試験後に撮影された画像とを比較読影して、両者の差異の大きな部位に注目することにより、製品の耐久性を向上させるべき部位を検討することが行われており、また医療分野においては、ある患者の疾患部位について時系列的に撮影された複数枚の放射線画像を医師が比較読影することにより、当該疾患の進行状況や治癒状況を把握して治療方針を検討することが行われている。
【0004】
このように2以上の画像を比較読影することが日常的に各種の分野で行われているが、その比較読影のために、これら2以上の画像を画像表示装置等に表示させる場合がある。すなわち画像を濃度信号や輝度信号に変換したうえで、画像表示装置等に表示するのである。
【0005】
ところで比較読影の対象となる2以上の画像を比較する場合、それらの画像を単に並列表示するのが一般的であるが、比較読影を行なう場合に読影者にとって最も関心があるのはこれらの画像間の差異である。しかし、上述したように例えば2つの画像を単に並べて表示させてこの差異を発見するのは、その差異が小さい程困難であり、比較読影の性能向上が求められている。
【0006】
そこで2つの画像中にそれぞれ写し込まれた同一の構造物についての画像の位置関係を対応させるように少なくとも一方の画像を変形させて上記構造物の位置関係を対応させ、その後に両画像の画素を対応(位置を対応)させた減算処理を施すことにより、両画像の差異を表す差分画像(サブトラクション画像)を得、このサブトラクション画像をCRT等の表示手段に表示させることにより、読影者に、両画像間の差異を容易に見い出さしめることができる。
【0007】
【発明が解決しようとする課題】
ところで例えば人体の胸部放射線画像のように、肋骨や背骨等の骨部組織と筋肉や内臓等の軟部組織とが混在した画像において、被写体(人体)の体位(撮影の立ち位置や、向きなど)変動に応じた位置変動量・位置変動向きが骨部と軟部とで異なる値・向きを示す場合がある。従来、骨部/軟部いずれの変動によるものであるかは問わずに、求められた変動量・変動方向に基づいて位置合わせを行なっていた。従って、位置合わせに利用される変動量・変動方向は骨部/軟部変動に基づくものが混在することとなるので、骨部と軟部とが異なる変動量・変動方向を有している場合は、画像部分間で精度よく位置合わせを行なうことができず、骨部のアーティファクトと軟部のアーティファクトとの双方が残存するサブトラクション画像が作成される場合があり、このように多種の構造物のアーティファクトがそれぞれ残存するサブトラクション画像によれば、適切な診断を行なうのが困難であった。例えば、骨部と軟部とが近接していたり重なっていたりする場合(例えば肋骨と血管とが重なっている場合等)、骨部の変動方向は例えば右方向、その隣の軟部の変動方向はその反対の左方向といったことが起こり、これらを用いて位置合わせするとさらに不正確となり、最悪、肋骨1本分以上も位置ずれする場合があった。
【0008】
本発明は上記事情に鑑みなされたものであって、比較読影の対象となる同一被写体についての2以上の画像について、従来よりも比較対象部分の対照精度を高めることによって、読影性能を向上させることができる、画像の位置合わせ方法および装置を提供することを目的とするものである。
【0009】
【課題を解決するための手段】
本発明の画像の位置合わせ方法は、2以上の画像を位置合わせする画像の位置合わせ方法において、2以上の画像のそれぞれについて特定の構造物を重視した特定構造物重視画像を取得し、取得された特定構造物重視画像間で構造的対応位置関係を求め、求められた構造的対応位置関係に基づいて、2以上の画像を位置合わせすることを特徴とするものである。
【0010】
ここで、特定構造物重視画像とは、例えば、2以上の画像の各々が医療用放射線画像であるときには、骨部重視画像や軟部重視画像を示す。
【0011】
骨部重視画像とは、例えばエネルギ分布が互いに異なる2つのエネルギサブトラクション用原画像に基づいて生成されるエネルギサブトラクション画像のうちの骨部画像や、画像中の肋骨に相当する直線的なエッジを強調したエッジ強調画像など、骨部を重視して2以上の画像を位置合わせする際に有効な画像を広く意味するものである。また、軟部重視画像とは、エネルギサブトラクション画像のうちの軟部画像や、画像中の水平方向の直線的なエッジ(肋骨に相当する部分)をぼかした画像など、軟部を重視して2以上の画像を位置合わせする際に有効な画像を広く意味するものである。
【0012】
すなわち、上述した本発明の画像位置合わせ方法について、上記2以上の画像を2組以上のエネルギサブトラクション用原画像とし、上記特定構造物重視画像をエネルギサブトラクション用原画像に基づいて各組ごとに取得されたエネルギサブトラクション画像とすることもできる。つまり、2組以上のエネルギサブトラクション用原画像をそれらの組間で位置合わせする画像の位置合わせ方法において、各組のエネルギサブトラクション用原画像に基づいて、各組ごとにエネルギサブトラクション画像をそれぞれ取得し、得られたエネルギサブトラクション画像について各組間で、構造的対応位置関係を求め、求められた、エネルギサブトラクション画像についての構造的対応位置関係に基づいて、エネルギサブトラクション用原画像について前記組間で位置合わせすることを特徴とするものとしてもよい。
【0013】
ここで、少なくとも2つのエネルギ分布が互いに異なる原画像に基づいて、少なくとも1つのエネルギサブトラクション画像を得ることができるため、上記「2組以上のエネルギサブトラクション用原画像」とは、少なくとも1つのサブトラクション画像を得るための原画像(エネルギサブトラクション用原画像)の組が2以上存在することを示すものである。すなわち、骨部重視画像や軟部重視画像にエネルギサブトラクション画像を用いる場合には、全部で最低限4つの原画像が存在することを意味する。例えばエネルギ分布が互いに異なる2つ原画像をS1,S2とすると、これら2つの原画像S1,S2に基づいて、下記減算式により1つのエネルギサブトラクション画像Ssu1を得ることができる。
【0014】
Ssu1=αS1−βS2
この式中のαおよびβは重み付け係数であり、この値を変化させることにより、多数のエネルギサブトラクション画像Ssu1(例えば、骨部重視画像として用いられる骨部画像や、軟部重視画像として用いられる軟部画像)を得ることができる。このとき2つの原画像S1およびS2を、1組のエネルギサブトラクション用原画像と称する。
【0015】
「2組以上のエネルギサブトラクション用原画像(2以上の画像)を位置合わせする」とは、例えば第1組のエネルギサブトラクション用原画像をS11,S12とし、第2組のエネルギサブトラクション用原画像をS21,S22としたとき、第1組の原画像S11と第2組の原画像S21とで位置合わせをすることを意味する。もちろん第1組の原画像S12と第2組の原画像S22とで位置合わせしてもよいし、第1組の原画像S11と第2組の原画像S22とで、または第1組の原画像S12と第2組の原画像S21とで位置合わせをしてもよい。ただし、エネルギサブトラクション用原画像は、高圧強調画像(高圧画像)と低圧強調画像(低圧画像)との2つが用いられるのが一般的であり、低圧画像同士または高圧画像同士で位置合わせを行なうのが好ましく、さらにはノイズ成分が比較的少ない低圧画像同士で位置合わせを行なうのがより好ましい。
【0016】
なお被写体には、人体等の他、動植物、工業製品、地形、天体、風景等あらゆるものが含まれる。
【0017】
また構造的対応位置関係とは、画像として記録されている被写体の構造要素を対応させたときの位置関係を意味するものであり、画像上の構造要素を無視して画像の左端縁から○○cm,上端縁から○×cmという単に形式的な位置を一致させた位置関係を意味するものではない。なお構造とは、単に画像上の外観的な構造物だけでなく、例えば解剖学的な構造物(例えば肺野、胸骨、頸部等)であってもよい。医療分野においては比較読影上、最も関心のある部分だからである。
【0018】
また、本発明の画像位置合わせ方法を、骨部重視画像間の構造的対応位置関係と軟部重視画像間の構造的対応位置関係とを所定の割合で重み付け加算して得られた対応位置関係に基づいて、上記2以上の画像を位置合わせするものとしてもよい。すなわち、第1の画像の骨部重視画像と第2の画像の骨部重視画像とで構造的対応位置関係を求めてP1とし、第1の画像の軟部重視画像と第2の画像の軟部重視画像とで構造的対応位置関係を求めてP2とし、構造的対応位置関係P1とP2とを重み付け加算して得られた対応位置関係P3(=mP1+nP2;ただし、m+n=1)に基づいて第1の画像と第2の画像とを位置合わせしてもよい。さらにmとnとを連続的に変化させて対応する対応位置関係P3も連続的に変化させ、それに伴って連続的に位置合わせ状態も変化させてもよい。
【0019】
また、重み付け加算の際の所定の割合を、2以上の画像の部位ごとに設定してもよい。すなわち、画像における部位別に上記mとnとを適宜変化させて対応位置関係P3を算出してもよい。
【0020】
本発明の画像の位置合わせ装置は上記本発明の画像の位置合わせ方法を実施するための装置であって、2以上の画像を位置合わせする位置合わせ手段を備えた画像の位置合わせ装置において、2以上の画像のそれぞれについて特定の構造物を重視した特定構造物重視画像を取得する構造物重視画像取得手段と、構造物重視画像取得手段において取得された特定構造物重視画像間で構造的対応位置関係を求める構造的対応位置関係算出手段とを備え、位置合わせ手段が、構造的対応位置関係算出手段により求められた構造的対応位置関係に基づいて上記2以上の画像を位置合わせするものであることを特徴とするものである。
【0021】
また、上記2以上の画像の各々を医療用放射線画像とし、上記特定構造物重視画像を骨部重視画像および/または軟部重視画像としてもよい。
【0022】
本発明の画像位置合わせ装置を、骨部重視画像間の構造的対応位置関係と軟部重視画像間の構造的対応位置関係とを所定の割合で重み付け加算して対応位置関係を求める対応位置関係算出手段をさらに備え、位置合わせ手段が、対応位置関係算出手段により求められた対応位置関係に基づいて、上記2以上の画像を位置合わせするものとすることもできる。さらに、対応位置関係算出手段を、重み付け加算の際の所定の割合を上記2以上の画像の部位ごとに設定可能なものとしてもよい。
【0023】
また、構造的対応位置関係算出手段を、特定構造物重視画像間でグローバルな位置合わせを行ない、さらに、グローバルな位置合わせがなされた特定構造物重視画像を仮想的に多数の狭小な小領域に分割し、分割して得られた多数の狭小な小領域をそれぞれ対応させてローカルマッチングを行なうことにより、構造的対応位置関係を求めるものとしてもよい。
【0024】
また、2以上の画像を2組以上のエネルギサブトラクション用原画像とし、特定構造物重視画像を、エネルギサブトラクション用原画像に基づいて各組ごとに取得されたエネルギサブトラクション画像とすることもできる。すなわち、2組以上のエネルギサブトラクション用原画像をそれらの組間で位置合わせする位置合わせ手段を備えた画像の位置合わせ装置において、各組のエネルギサブトラクション用原画像に基づいて、各組ごとにエネルギサブトラクション画像をそれぞれ取得するエネルギサブトラクション手段と、得られたエネルギサブトラクション画像について各組間で、構造的対応位置関係を求める対応位置関係算出手段とを備え、位置合わせ手段が、前記求められた、エネルギサブトラクション画像についての構造的対応位置関係に基づいて、エネルギサブトラクション用原画像について前記組間で位置合わせするものとしてもよい。
【0025】
また、骨部重視画像を、2以上の画像の各々のエッジ強調画像とすることもできる。
【0026】
なお、上記2以上の画像を、撮影時点が互いに異なる時系列の画像としてもよいし、また、比較読影の対象となる、同一被写体についての画像としてもよい。
【0027】
【発明の効果】
本発明の画像の位置合わせ方法および位置合わせ装置によれば、2以上の画像を位置合わせする画像位置合わせ方法において、各画像から取得された特定構造物重視画像間で構造的対応位置関係を求め、求められた構造的対応位置関係に基づいて画像を位置合わせするから、上記特定構造物同士についてより精度高く位置合わせすることが可能となり、その結果、アーティファクトが残存する構造物の種類を限定することができ、残存したアーティファクトと上記2以上の画像間の差異とを容易に識別して画像間の差異を読影者に認識させることができる。
【0028】
すなわち2以上の画像に基づいて例えば軟部重視画像を取得し、構造的対応位置関係算出手段により、軟部重視画像同士の構造的対応位置関係を算出し、算出された構造的対応位置関係に基づいて、位置合わせ手段が上記2以上の画像を位置合わせすると、この際には、軟部の対応位置関係に基づいた位置合わせがなされるため、差分画像においては、軟部の同一構造物についてはほぼ消去されるが、軟部に存在する差異(例えば一方の画像にのみ存在する異常陰影等)は残存し、骨部はアーティファクトとして残る。
【0029】
しかし、骨部のアーティファクトは真の輪郭線を挟んだ狭い範囲内で正の濃度(高濃度)と負の濃度(低濃度)との両方が生じるのに対して、軟部の陰影はそのようなことがない。したがって、アーティファクトから軟部の陰影(差異)を明確に峻別することができる。
【0030】
このように本発明の画像の位置合わせ方法および位置合わせ装置によれば、2以上の画像を位置合わせしてサブトラクション画像を作成するときに、従来のように骨部と軟部等の多種のアーティファクトが残存する中途半端なサブトラクション画像が作成されるのを防止することができ、多様なサブトラクション画像を提供して、適切な診断を行なうことができる。
【0031】
また、骨部重視画像間の構造的対応位置関係と軟部重視画像間の構造的対応位置関係とを所定の割合で重み付け加算して得られた対応位置関係に基づいて、2以上の画像を位置合わせすれば、骨部と軟部の双方をある程度消去させたサブトラクション画像を取得することが可能となり、また、所定の割合を適宜変化させることによって様々な種類のサブトラクション画像を得ることができるから、読影者の要望にあわせて、例えば経過観察に適した画像や疾患の発見に適した画像など、種々の画像を生成することが可能になる。
【0032】
さらに、画像における部位ごとに、重み付け加算の際の所定の割合を設定可能とすれば、部位ごとに、その部位の位置ずれ程度の特徴によって、構造的対応位置関係の重み付けを変化させて位置合わせすることが可能になるから、例えば姿勢の変化のため、部位ごとに位置ずれの方向や程度が異なる場合でもある程度適切に部位同士の位置合わせをすることができる。
【0033】
【発明の実施の形態】
以下、本発明の画像の位置合わせ方法および位置合わせ装置の実施の形態について図面を用いて説明する。
【0034】
図1は本発明の画像の位置合わせ方法および位置合わせ装置の一実施形態である画像位置合わせ装置10を含む医療用画像ネットワーク100を示す図である。
【0035】
図示のネットワーク100には、例えばCT装置(コンピュータ断層像撮影装置)、MRI装置(磁気共鳴像撮影装置)、CR装置(コンピュータラジオグラフィ)50等の医療用画像生成装置と、これらの医療用画像生成装置により生成された各種の診断用医療画像を蓄積記憶するデータベース70と、データベース70に一旦記憶された画像や画像生成装置から直接送られた複数の画像の位置合わせを行なう位置合わせ装置10と、位置合わせ装置10により位置合わせがなされた画像間で減算処理を施すサブトラクション手段20と、サブトラクション手段20により減算処理して得られたサブトラクション画像を可視画像として表示する画像表示手段30などが接続されている。なおネットワーク100には、このネットワーク100上を流通する画像をフイルム等に出力するプリンター等も接続されているが、CT装置およびMRI装置を含めて本図においては図示を省略している。
【0036】
CR装置50は、被写体を透過した放射線を、輝尽性蛍光体層を有するシート状の蓄積性蛍光体シートに照射することにより、蓄積性蛍光体シートに被写体の透過放射線像を蓄積記録し、その後、当該蓄積性蛍光体シートにレーザ光を照射して、シートに蓄積記録されている放射線エネルギに応じた光量で発光する輝尽発光光を光電的に読み取ることにより、被写体の透過放射線像をデジタル画像として取得する装置であり、病院等の医療機関において広く使用されているものである。
【0037】
CR装置50とネットワーク100との間に介在しているQA−WS(画像品質チェック用ワークステーション)60は、上述したCR装置50等の画像生成装置により生成された診断用画像をチェックし、必要な場合は画像生成装置に対して画像の再取得を要求するなどの機能を備えたワークステーションである。本実施形態におけるこのQA−WS60は、CR装置50によって生成されたデジタル画像Pを、データベース70に蓄積記憶する前に表示して、画像濃度、コントラストなどの画質チェック、撮影範囲等のチェックを行うものとして設けられている。
【0038】
画像位置合わせ装置10は、ネットワーク100を介して入力された、撮影時期が組ごとにそれぞれ同日である2組のエネルギサブトラクション用原画像S11,S12およびS21,S22にそれぞれ基づいて対応するエネルギサブトラクション画像Ssu11,Ssu21を算出するエネルギサブトラクション画像作成手段(構造物重視画像取得手段)11と、両サブトラクション画像Ssu11,Ssu21の構造的対応位置関係を求める対応位置関係算出手段(構造的対応位置関係算出手段を含む)12と、得られた対応位置関係に基づいて、エネルギサブトラクション用原画像のうち低圧画像S11,S21同士を位置合わせ処理する位置合わせ手段13とを備えた構成である。
【0039】
次に本実施形態の位置合わせ装置10を含む医療用画像ネットワーク100の作用について説明する。
【0040】
CR装置50により予め、撮影時期を異にして、それぞれ特定の患者の胸部についてのエネルギサブトラクション用原画像S11,S12およびS21,S22が撮影され、これらの画像S11,S12(S11およびS12は同時に撮影された画像である)およびS21,S22(S21およびS22は同時に撮影された画像である)はQA−WS60により画質等のチェックがされた後にネットワーク100を介してデータベース70に蓄積記憶されている。この蓄積記憶されている各画像S11,S12およびS21,S22には、撮影された患者に固有のID番号と、撮影部位(本説明においては胸部)・撮影体位を表す記号と、撮影日と、エネルギサブトラクション用原画像(高圧画像、低圧画像の別を含む)である旨の情報がヘッダ情報として付帯している。なお2つの原画像S11,S21は撮影日が異なる、同一患者の胸部正面画像であり、時系列的な比較を行おうとする画像である。第1組の第1原画像S11よりも第2組の第1原画像S21の方が撮影時期が新しく、第1組第1原画像S11は過去画像、第2組第1原画像S21は現在の画像ということができるものである。
【0041】
まず位置合わせ装置10のエネルギサブトラクション画像作成手段11に、ネットワーク100を介してデータベース70から同一のID番号、同一の撮影部位記号、同一撮影日のヘッダ情報が付帯している2組のエネルギサブトラクション用原画像のうち第1組第1原画像S11および第1組第2原画像S12が入力される。図2の処理フローに示すように、エネルギサブトラクション画像作成手段11は、入力された2つの原画像S11,S12に基づいてこれらの原画像についてのエネルギサブトラクション画像Ssu11を算出する。エネルギサブトラクション画像は、特開昭59-83484号、特開平3-285475号等により開示されているように、互いにエネルギ分布が異なる両原画像S11,S12をそれぞれ表す原画像信号S11,S12(説明を簡単にするため、原画像S11,S12と同一の符号を付する)について、対応する構造物の位置を合致させた上で、画像中の所定の構造物についての画素の信号値が略一致するように両原画像信号値S11,S12に重み付けを行なって、対応する画素の信号値間で減算処理することにより、当該所定の構造物を略消去した画像(エネルギサブトラクション画像)Ssu11(=αS11−βS12;α,βはそれぞれ重み付け係数)であり、特にエネルギ吸収率の差が大きい複数の構造物を分離して観察するのに効果的である。
【0042】
本実施形態においては、2つの原画像S11,S12にそれぞれ存在する骨部の信号値を略一致させて減算処理することにより、骨部が略消去された軟部画像をエネルギサブトラクション画像Ssu11として得る。
【0043】
同様に、もう1組のエネルギサブトラクション用原画像S21(第2組第1原画像)およびS22(第2組第2原画像)がエネルギサブトラクション画像作成手段11に入力され、これらに基づいて、骨部が消去された軟部画像を表すエネルギサブトラクション画像Ssu21が算出される。
【0044】
このようにして得られた2つのエネルギサブトラクション(軟部)画像Ssu11およびSsu21は対応位置関係算出手段12に入力され、エネルギサブトラクション画像算出の基礎となった各原画像S11,S12およびS21,S22はメモリ14に記憶される。
【0045】
ここで算出された2つのエネルギサブトラクション(軟部)画像Ssu11およびSsu21は、いずれも骨部が消去された軟部画像であるが、第1組の原画像と第2組の原画像とは撮影時期が互いに異なる画像であるため、両組の画像間には撮影時の体位などに差があり、したがってそれらの原画像に基づいて得られた両サブトラクション(軟部)画像Ssu11,Ssu21間にも、軟部の構造物について対応位置関係に差が存在する。なお、この特定の構造物についての対応位置関係を構造的対応位置関係という。
【0046】
対応位置関係算出手段12は、入力された両サブトラクション(軟部)画像Ssu11,Ssu21中の構造物の構造的対応位置関係を算出する。すなわち、エネルギサブトラクション(軟部)画像Ssu11,Ssu21間で線形変換によるグローバルな位置合わせを行ない、このグローバルな位置合わせがなされた後のエネルギサブトラクション(軟部)画像Ssu11,Ssu21について、仮想的に多数の狭小な小領域に分割し、分割して得られた多数の狭小な領域をそれぞれ対応させてさらにローカルマッチングを行なうことにより、構造的対応位置関係を求める。具体的には、エネルギサブトラクション(軟部)画像Ssu11,Ssu21について、第1に、一方のサブトラクション画像(例えば、第1組のサブトラクション画像Ssu11)を基準として他方のサブトラクション画像(同、第2組のサブトラクション画像Ssu21)の構造物(軟部画像中の構造物)が略一致するように、アフィン変換等の線形変換による全体的な概略位置合わせ(グローバルな位置合わせ)を行ない、このグローバルな位置合わせがなされた後の両エネルギサブトラクション画像Ssu11,Ssu21について、第2に、一方のサブトラクション画像(例えば、第1組のサブトラクション画像Ssu11)を仮想的に多数の狭小な小領域(テンプレート領域)に分割し、他方のサブトラクション画像(例えば、グローバルな位置合わせ処理が施された後の第2組のサブトラクション画像Ssu21)に、一方のサブトラクション画像のテンプレート領域にそれぞれ対応させた、当該テンプレート領域よりも広い領域のテンプレート探索領域を設定した上で、一方のサブトラクション画像中の各テンプレート領域の画像部分と、他方のサブトラクション画像中の対応するテンプレート探索領域の画像部分とが略一致するように、テンプレート領域をテンプレート探索領域内で移動させて、各テンプレート/テンプレート探索領域ごとに対応位置関係を算出(ローカルマッチング)する。なお、このローカルマッチングによれば、狭小な領域ごとに対応位置関係が異なるため、第1のグローバルな位置合わせとは異なる非線形の位置合わせとなる。
【0047】
このようにして両サブトラクション(軟部)画像Ssu11,Ssu21間の構造的対応位置関係が算出されると、この構造的対応位置関係が位置合わせ手段13において原画像を位置合わせする際の対応位置関係として位置合わせ手段13に入力される。位置合わせ手段13は、入力された対応位置関係に基づいて、メモリ14から入力された第1組第1の原画像S11と第2組第1の原画像S21(いずれも低圧画像)とを位置合わせ処理する。
【0048】
ここで、位置合わせ手段13に入力された対応位置関係は、エネルギサブトラクション(軟部)画像Ssu11,Ssu21についての構造的対応位置関係であるため、両原画像S11,S21中の軟部画像についての構造的対応位置関係である。したがって、位置合わせ手段13により位置合わせされるのは、両原画像S11,S21中の軟部画像部分のみである。
【0049】
このように軟部画像部分が略位置合わせされた後の両原画像S11,S21は、位置合わせ装置10から出力され、サブトラクション手段20に入力される。サブトラクション手段20は、軟部画像部分が位置合わせされている両原画像S11,S21について、所定の重み付けを行なった上で、画素を対応させて減算処理を行なう。この結果、得られた第1組画像と第2組画像との間のサブトラクション画像Ssuは、骨部のアーティファクトは残存するものの、軟部のアーティファクトは殆ど残存せずに、軟部組織における経時変化部分のみが現れた画像となる。そしてこのサブトラクション画像Ssuは表示手段30に入力され、表示手段30は入力されたサブトラクション画像Ssuを可視的に表示し、医師等の画像読影者に対して、診断用画像として供される。
【0050】
ここで骨部のアーティファクトと軟部組織の経時変化部分とは、画像読影者が明確に識別可能である。すなわち画像間の位置ずれに起因してサブトラクション画像に現れるアーティファクトは、位置ずれが無いとしたときの本来の基準濃度に対して高濃度部分と低濃度部分との両方が極近接して現れるのに対して、軟部組織の経時変化部分はそのようなことが無く、単に高濃度または低濃度の画像部部として出現する。したがって、骨部のアーティファクトが残存していても、軟部組織の経時変化部分と識別し難い軟部組織のアーティファクトが略消去されることにより、医師等の画像読影者に対して、非常に診断性能の高い画像となる。
【0051】
このように本実施形態の画像の位置合わせ装置によれば、比較読影の対象となる同一被写体についての2以上の画像について、従来のように骨部と軟部等の多種のアーティファクトが残存する中途半端なサブトラクション画像が作成されるのを防止することができ、多様なサブトラクション画像を提供して、適切な診断を行なうことができる。
【0052】
次に、本発明の第2の実施形態について以下に説明する。なお、その構成および作用は上記第1の実施形態とほぼ同様であるため、構成図として図1を採用し、上記第1の実施形態と異なる部分についてのみ説明する。
【0053】
本実施形態において、エネルギサブトラクション画像作成手段11は、骨部が略省略されたエネルギサブトラクション(軟部)画像Ssu11およびSsu21とともに、軟部が略省略されたエネルギサブトラクション(骨部)画像Ssu12およびSsu22を作成し、作成されたエネルギサブトラクション(軟部)画像Ssu11,Ssu21と、エネルギサブトラクション(骨部)画像Ssu12,Ssu22とが対応位置関係算出手段12に入力される。また、エネルギサブトラクション画像算出の基礎となった各原画像S11,S12およびS21,S22はメモリ14に記憶される。
【0054】
ここで算出された2つのエネルギサブトラクション(骨部)画像Ssu12およびSsu22は、上記第1の実施形態における軟部画像と同様に、撮影時期が異なる原画像に基づいて得られた画像であるため、画像間には撮影時の体位などに差がある。なお、この差によって表われる骨部画像同士の構造的対応位置関係の差は、軟部画像同士の構造的対応位置関係の差とは必ずしも一致するものではなく、その体位によって異なる方向に差が表われる場合もある。
【0055】
対応位置関係算出手段12は、まず、入力されたサブトラクション(骨部)画像Ssu12,Ssu22中の構造物の構造的対応位置関係(骨部)P1と、サブトラクション(軟部)画像Ssu11,Ssu21中の構造物の構造的対応位置関係(軟部)P2とを算出し、さらに、算出された構造的対応位置関係(骨部)P1と構造的対応位置関係(軟部)P2とを所定の割合で重み付け加算して対応位置関係(原画像)P3(=mP1+nP2;ただし、m+n=1)を算出する。
【0056】
ここで、重み付け加算の際の所定の割合(m、n)を、原画像における部位1〜3(図3、胸部画像参照)ごとに切り替えて、部位ごとに対応位置関係P3を算出する。例えば、部位1と部位3ではm=1、n=0として構造的対応位置関係(骨部)P1を対応位置関係P3とし、部位2ではm=0、n=1として構造的対応位置関係(軟部)P2を対応位置関係P3とし、それ以外の中間部分では部位間で線形補間するようにmとnを設定して対応位置関係P3を算出する。上記各部位の位置(範囲)は、例えば特願2000-298100に示すような胸郭検出方法を用いれば自動的に設定することができるため、各部位における重み付け加算の所定の割合(m、n)を予め部位ごとに設定して自動的に部位ごとの対応位置関係P3を算出するようにしてもよい。また、読影者が手動で部位の位置や重み付け加算の所定の割合(m、n)の設定をするようにしてもよい。
【0057】
位置合わせ手段13は、対応位置関係算出手段12から入力された部位ごとの対応位置関係P3に基づいて、メモリ14から入力された第1組第1の原画像S11と第2組第1の原画像S21(いずれも低圧画像)とを部位ごとに対応位置関係P3を変化させて位置合わせ処理する。
【0058】
ここで、位置合わせ手段13に入力された部位ごとの対応位置関係は、原画像の部位ごとの特徴(位置ずれ方向や程度の特徴)に合わせて構造的対応位置関係を部位別に重み付け加算して得られた対応位置関係であるため、各部位ごとにある程度精度よく位置合わせをすることができる。すなわち、姿勢の変化があったために部位ごとに異なる方向に位置ずれした画像でも、各部位ごとに適切な方向に合わせて位置合わせすることができるから、少なくとも各部位においてはある程度精度よく位置合わせすることができる。
【0059】
なお上記第1の実施形態の画像の位置合わせ装置においては、エネルギサブトラクション画像作成手段11が、骨部画像を消去した軟部画像を作成するものとしたが、本発明の画像の位置合わせ方法および装置はその実施形態の構成に限定されるものではなく、例えば上記実施形態とは反対に、軟部画像を消去した骨部画像を作成するものとしてもよいし、骨部画像と軟部画像とをそれぞれ作成して、骨部画像(エネルギサブトラクション画像としての)同士を位置合わせして主として骨部が消去されたサブトラクション画像Ssuと軟部画像(エネルギサブトラクション画像としての)同士を位置合わせして主として軟部が消去されたサブトラクション画像Ssu′との2つの経時サブトラクション画像を作成し、これら2つのサブトラクション画像をそれぞれ表示してもよいし、これら2つのサブトラクション画像を例えば重み付け加算して得られた画像Ssu″(=(m・Ssu+n・Ssu′)/(m+n);m,nは定数)を表示するようにしてもよい。さらにこの定数mおよびnを連続的に変化させて得られるモーフィング画像として表示するようにしてもよい。
【0060】
また、上記各実施形態においては、構造物重視画像(骨部重視画像、軟部重視画像)としてエネルギサブトラクション画像を利用した例を示したが、本発明における構造物重視画像はこれに限るものではなく、例えば、骨部重視画像としては、特願2000-303743に記載されているように肋骨に相当する直線的なエッジを強調した画像を用いてもよく、軟部重視画像としては、水平方向の直線的なエッジ(肋骨に相当する部分)をぼかした画像を用いてもよい。
【0061】
また上記各実施形態の画像位置合わせ装置によれば、エネルギサブトラクション画像同士に基づいて得られた対応位置関係を、原画像のうち低圧画像について適用したが、高圧画像について適用してもよいことはいうまでもない。
【図面の簡単な説明】
【図1】本発明の画像位置合わせ装置を含む医療用画像ネットワークを示す図
【図2】図1に示した医療用画像ネットワークにおける、主として画像位置合わせ装置の処理フローチャートを示す図
【図3】胸部画像における部位1〜3を示す図
【符号の説明】
10 画像位置合わせ装置
11 エネルギサブトラクション画像作成手段
12 対応位置関係算出手段
13 位置合わせ手段
14 メモリ
20 サブトラクション手段
30 表示手段
50 CR装置
60 QA−WS
70 データベースサーバー
100 ネットワーク[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image registration method and apparatus, and more particularly to an improvement in the alignment of two or more images having the same structure.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, in various fields, two or more images of the same subject are comparatively read and checked for a difference between both images, and the subject is inspected based on the difference.
[0003]
For example, in the field of manufacturing industrial products, an image taken when a product is new and an image taken after an endurance test of the product are comparatively read and attention is paid to areas where the difference between the two is large. In the medical field, doctors compare and interpret multiple radiographic images taken in time series for a diseased part of a patient. By doing so, it is carried out to grasp the progress and cure status of the disease and to examine the treatment policy.
[0004]
As described above, comparative interpretation of two or more images is routinely performed in various fields. For comparison interpretation, two or more images may be displayed on an image display device or the like. That is, an image is converted into a density signal or a luminance signal and then displayed on an image display device or the like.
[0005]
By the way, when comparing two or more images to be subjected to comparative interpretation, it is common to simply display the images in parallel. However, it is these images that are most interested for the interpreter when performing comparative interpretation. Is the difference between. However, as described above, for example, it is more difficult to find this difference by simply displaying two images side by side, and the smaller the difference is, the higher the performance of comparative interpretation is required.
[0006]
Therefore, at least one of the images is deformed so as to correspond to the positional relationship of the images with respect to the same structure captured in the two images, and then the pixels of both images are matched. By performing a subtraction process corresponding to (corresponding to the position), a difference image (subtraction image) representing a difference between the two images is obtained, and by displaying the subtraction image on a display means such as a CRT, the image reader can Differences between the two images can be easily found.
[0007]
[Problems to be solved by the invention]
By the way, in an image in which bone tissue such as ribs and spine and soft tissue such as muscles and internal organs are mixed, such as a chest radiograph of a human body, the posture of the subject (human body) (standing position and orientation of imaging) There are cases where the position variation amount / position variation direction corresponding to the variation shows different values / directions in the bone portion and the soft portion. Conventionally, alignment is performed based on the obtained variation amount and variation direction regardless of whether the bone portion or the soft portion is caused by the variation. Therefore, since the fluctuation amount and fluctuation direction used for alignment are mixed based on the bone / soft part fluctuation, if the bone part and the soft part have different fluctuation amounts and fluctuation directions, A subtraction image in which both the bone part artifact and the soft part artifact remain may not be able to be accurately aligned between the image parts, and the artifacts of various structures are each created in this way. According to the remaining subtraction image, it is difficult to make an appropriate diagnosis. For example, when the bone part and the soft part are close to each other or overlap (for example, when the rib and the blood vessel overlap), the change direction of the bone part is, for example, the right direction, and the change direction of the adjacent soft part is Opposite left directions occur, and when these are used for alignment, the position becomes more inaccurate, and in the worst case, the position may be displaced by more than one rib.
[0008]
The present invention has been made in view of the above circumstances, and improves the interpretation performance of two or more images of the same subject to be subjected to comparative interpretation by increasing the comparison accuracy of the comparison target portion as compared with the prior art. An object of the present invention is to provide an image registration method and apparatus capable of
[0009]
[Means for Solving the Problems]
The image alignment method of the present invention is an image alignment method that aligns two or more images, and acquires a specific structure-oriented image that emphasizes a specific structure for each of the two or more images. Further, a structural correspondence positional relationship is obtained between the specific structure-oriented images, and two or more images are aligned based on the obtained structural correspondence positional relationship.
[0010]
Here, the specific structure weighted image indicates, for example, a bone weighted image or a soft part weighted image when each of two or more images is a medical radiation image.
[0011]
A bone-oriented image emphasizes, for example, a bone image of energy subtraction images generated based on two original images for energy subtraction having different energy distributions, and a linear edge corresponding to a rib in the image. An image that is effective when aligning two or more images with emphasis on bones, such as edge-enhanced images. Also, the soft part emphasis image is an image of two or more images with emphasis on the soft part, such as a soft part image in the energy subtraction image and an image in which a horizontal linear edge (part corresponding to the rib) in the image is blurred. This broadly means an image that is effective in aligning.
[0012]
That is, in the image alignment method of the present invention described above, the two or more images are used as two or more sets of energy subtraction original images, and the specific structure-oriented image is acquired for each set based on the energy subtraction original images. It is also possible to obtain an energy subtraction image. That is, in an image registration method in which two or more sets of energy subtraction original images are aligned between the sets, energy subtraction images are acquired for each set based on the energy subtraction original images of each set. The structural correspondence positional relationship is obtained between each set for the obtained energy subtraction image, and the position of the original image for energy subtraction is determined based on the obtained structural correspondence positional relationship for the energy subtraction image. It is good also as what is characterized by combining.
[0013]
Here, since at least one energy subtraction image can be obtained on the basis of at least two original images having different energy distributions, the “two or more sets of energy subtraction original images” means at least one subtraction image. This indicates that there are two or more sets of original images (energy subtraction original images) for obtaining the image. That is, when an energy subtraction image is used for a bone-oriented image or a soft-weighted image, it means that there are at least four original images in total. For example, assuming that two original images having different energy distributions are S1 and S2, one energy subtraction image Ssu1 can be obtained by the following subtraction formula based on these two original images S1 and S2.
[0014]
Ssu1 = αS1-βS2
Α and β in this equation are weighting coefficients, and by changing these values, a number of energy subtraction images Ssu1 (for example, a bone part image used as a bone part weighted image or a soft part image used as a soft part weighted image) ) Can be obtained. At this time, the two original images S1 and S2 are referred to as a set of energy subtraction original images.
[0015]
“Align two or more sets of energy subtraction original images (two or more images)” means, for example, that the first set of energy subtraction original images is S11 and S12, and the second set of energy subtraction original images is When S21 and S22, it means that the first set of original images S11 and the second set of original images S21 are aligned. Of course, the first set of original images S12 and the second set of original images S22 may be aligned, or the first set of original images S11 and the second set of original images S22, or the first set of original images S22. The image S12 and the second set of original images S21 may be aligned. However, it is common to use two high-pressure emphasized images (high-pressure images) and low-pressure emphasized images (low-pressure images) as the energy subtraction original images, and the low-pressure images or the high-pressure images are aligned. Further, it is more preferable to perform alignment between low-pressure images having a relatively small noise component.
[0016]
In addition to the human body, the subject includes all things such as animals and plants, industrial products, topography, celestial bodies, and landscapes.
[0017]
The structural correspondence positional relationship means a positional relationship when the structural elements of the subject recorded as an image are associated with each other, and ignores the structural elements on the image from the left edge of the image. It does not mean a positional relationship in which a formal position is matched with cm, ○ × cm from the upper edge. The structure may be not only an external structure on the image but also an anatomical structure (for example, lung field, sternum, neck, etc.). In the medical field, it is the most interesting part for comparative interpretation.
[0018]
Further, the image alignment method of the present invention is applied to the corresponding positional relationship obtained by weighting and adding the structural corresponding positional relationship between the bone-oriented images and the structural corresponding positional relationship between the soft-weighted images at a predetermined ratio. Based on this, the two or more images may be aligned. That is, the structural correspondence positional relationship between the bone-oriented image of the first image and the bone-oriented image of the second image is obtained as P1, and the soft image of the first image and the soft image of the second image are emphasized. Based on the correspondence position relationship P3 (= mP1 + nP2; m + n = 1) obtained by weighting and adding the structure correspondence position relationships P1 and P2, the structural correspondence position relationship with the image is obtained as P2. The image and the second image may be aligned. Further, m and n may be changed continuously to change the corresponding positional relationship P3 correspondingly, and the alignment state may be changed continuously accordingly.
[0019]
Further, a predetermined ratio at the time of weighted addition may be set for each part of two or more images. That is, the corresponding positional relationship P3 may be calculated by appropriately changing m and n for each part in the image.
[0020]
An image alignment apparatus of the present invention is an apparatus for carrying out the image alignment method of the present invention, and is an image alignment apparatus provided with alignment means for aligning two or more images. A structural correspondence position between the structure-oriented image acquisition unit that acquires a specific structure-oriented image that emphasizes a specific structure for each of the above images and the specific structure-oriented image acquired by the structure-oriented image acquisition unit A structural corresponding positional relationship calculating means for obtaining a relationship, and the aligning means aligns the two or more images based on the structural corresponding positional relationship obtained by the structural corresponding positional relationship calculating means. It is characterized by this.
[0021]
Further, each of the two or more images may be a medical radiation image, and the specific structure-oriented image may be a bone-oriented image and / or a soft-weighted image.
[0022]
The image alignment apparatus of the present invention calculates the corresponding positional relationship by weighting and adding the structural corresponding positional relationship between the bone-oriented images and the structural corresponding positional relationship between the soft-weighted images at a predetermined ratio. It is also possible to further include means for aligning the two or more images based on the corresponding positional relationship obtained by the corresponding positional relationship calculating means. Furthermore, the corresponding positional relationship calculating means may be configured to set a predetermined ratio at the time of weighted addition for each part of the two or more images.
[0023]
In addition, the structural correspondence positional relationship calculation means performs global alignment between the specific structure-oriented images, and further, the specific structure-oriented images that have been globally aligned are virtually divided into a large number of narrow small regions. The structural correspondence positional relationship may be obtained by dividing and performing local matching with each of a plurality of narrow small regions obtained by the division.
[0024]
Two or more images may be used as two or more sets of energy subtraction original images, and the specific structure-oriented image may be an energy subtraction image acquired for each set based on the energy subtraction original images. That is, in an image alignment apparatus provided with an alignment means for aligning two or more sets of energy subtraction original images between the sets, the energy subtraction is determined for each set based on the energy subtraction original images. Energy subtraction means for obtaining each subtraction image, and corresponding position relationship calculating means for obtaining a structural corresponding position relationship between each set of the obtained energy subtraction images, and the alignment means includes the obtained energy subtraction image The energy subtraction original image may be aligned between the groups based on the structural correspondence positional relationship for the subtraction image.
[0025]
Further, the bone-oriented image can be an edge-enhanced image of each of two or more images.
[0026]
Note that the two or more images may be time-series images at different shooting points, or may be images of the same subject that is the target of comparative interpretation.
[0027]
【The invention's effect】
According to the image alignment method and the alignment apparatus of the present invention, in an image alignment method for aligning two or more images, a structural correspondence positional relationship is obtained between specific structure-oriented images acquired from each image. Since the images are aligned based on the obtained structural correspondence positional relationship, the specific structures can be aligned with higher accuracy, and as a result, the types of structures in which artifacts remain are limited. It is possible to easily identify the remaining artifact and the difference between the two or more images so that the reader can recognize the difference between the images.
[0028]
That is, for example, a soft part emphasis image is acquired based on two or more images, the structural correspondence positional relationship calculation unit calculates the structural correspondence positional relationship between the soft part importance images, and based on the calculated structural correspondence positional relationship. When the alignment unit aligns the two or more images, the alignment is performed based on the corresponding positional relationship of the soft part. In this case, the same structure of the soft part is almost erased in the difference image. However, a difference existing in the soft part (for example, an abnormal shadow existing only in one image) remains, and the bone part remains as an artifact.
[0029]
However, bone artifacts are both positive (high) and negative (low) within a narrow range of true contours, whereas soft shadows are There is nothing. Therefore, the shadow (difference) of the soft part can be clearly distinguished from the artifact.
[0030]
As described above, according to the image alignment method and alignment apparatus of the present invention, when two or more images are aligned to create a subtraction image, various artifacts such as a bone portion and a soft portion are generated as in the related art. It is possible to prevent the remaining halfway subtraction image from being created, and it is possible to provide various subtraction images and perform appropriate diagnosis.
[0031]
Further, two or more images are positioned based on the corresponding positional relationship obtained by weighting and adding the structural corresponding positional relationship between the bone-oriented images and the structural corresponding positional relationship between the soft-weighted images at a predetermined ratio. If combined, it is possible to obtain a subtraction image in which both the bone and soft parts are erased to some extent, and various types of subtraction images can be obtained by appropriately changing the predetermined ratio. Various images such as an image suitable for follow-up observation and an image suitable for disease detection can be generated in accordance with the desires of the person.
[0032]
Furthermore, if it is possible to set a predetermined ratio at the time of weighting addition for each part in the image, the weighting of the structural correspondence positional relationship is changed for each part according to the characteristics of the positional deviation of the part. Therefore, for example, due to a change in posture, even when the direction and degree of positional deviation differ for each part, the parts can be properly aligned to some extent.
[0033]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of an image alignment method and an alignment apparatus according to the present invention will be described below with reference to the drawings.
[0034]
FIG. 1 is a diagram showing a
[0035]
The illustrated
[0036]
The
[0037]
A QA-WS (image quality check workstation) 60 interposed between the
[0038]
The
[0039]
Next, the operation of the
[0040]
The
[0041]
First, the energy subtraction image creation means 11 of the
[0042]
In the present embodiment, the soft part image from which the bone part is substantially erased is obtained as the energy subtraction image Ssu11 by performing the subtraction process by substantially matching the signal values of the bone part existing in the two original images S11 and S12.
[0043]
Similarly, another set of energy subtraction original images S21 (second set first original image) and S22 (second set second original image) are input to the energy subtraction image creating means 11, and based on these, An energy subtraction image Ssu21 representing the soft part image from which the part has been erased is calculated.
[0044]
The two energy subtraction (soft part) images Ssu11 and Ssu21 obtained in this way are input to the corresponding positional relationship calculating means 12, and the original images S11, S12 and S21, S22, which are the basis of energy subtraction image calculation, are stored in the memory. 14 is stored.
[0045]
The two energy subtraction (soft part) images Ssu11 and Ssu21 calculated here are both soft part images from which the bone part has been erased, but the first set of original images and the second set of original images have a shooting time. Since the images are different from each other, there is a difference in the body position at the time of shooting between the two sets of images. Therefore, the soft part is also detected between the two subtraction (soft part) images Ssu11 and Ssu21 obtained based on the original images. There is a difference in the corresponding positional relationship between the structures. The corresponding positional relationship for this specific structure is referred to as a structural corresponding positional relationship.
[0046]
Corresponding positional relationship calculation means 12 calculates the structural corresponding positional relationship of the structures in both input subtraction (soft part) images Ssu11 and Ssu21. That is, global alignment by linear transformation is performed between the energy subtraction (soft part) images Ssu11 and Ssu21, and the energy subtraction (soft part) images Ssu11 and Ssu21 after the global alignment are virtually divided into a plurality of narrownesses. The structural corresponding positional relationship is obtained by dividing the image into small regions and making local matching with each of the many narrow regions obtained by the division. Specifically, with respect to the energy subtraction (soft part) images Ssu11 and Ssu21, firstly, the other subtraction image (same as the second set of subtractions) using one subtraction image (for example, the first set of subtraction images Ssu11) as a reference. The overall alignment (global alignment) by linear transformation such as affine transformation is performed so that the structure of the image Ssu21) (the structure in the soft part image) substantially matches, and this global alignment is performed. Second, for both energy subtraction images Ssu11 and Ssu21, one subtraction image (for example, the first set of subtraction images Ssu11) is virtually divided into a large number of narrow small regions (template regions), and the other Subtraction images (for example, after global alignment In the second set of subtraction images Ssu21), a template search area wider than the template area corresponding to the template area of one of the subtraction images is set, and each template area in the one subtraction image is set. The template area is moved within the template search area so that the image part of the template and the image part of the corresponding template search area in the other subtraction image substantially match, and the corresponding positional relationship is determined for each template / template search area. Is calculated (local matching). Note that according to this local matching, the corresponding positional relationship is different for each narrow region, and therefore, the non-linear alignment is different from the first global alignment.
[0047]
When the structural corresponding positional relationship between the two subtraction (soft part) images Ssu11 and Ssu21 is calculated in this way, this structural corresponding positional relationship is used as the corresponding positional relationship when the original image is aligned in the alignment means 13. Input to the alignment means 13. The alignment means 13 positions the first set of first original images S11 and the second set of first original images S21 (both low pressure images) input from the
[0048]
Here, since the corresponding positional relationship input to the alignment means 13 is the structural corresponding positional relationship for the energy subtraction (soft part) images Ssu11 and Ssu21, the structural relationship for the soft part images in the two original images S11 and S21. Corresponding positional relationship. Therefore, only the soft part image portion in both the original images S11 and S21 is aligned by the alignment means 13.
[0049]
The original images S11 and S21 after the soft part image portion is substantially aligned in this way are output from the
[0050]
Here, the image interpreter can clearly identify the artifact of the bone portion and the temporally changing portion of the soft tissue. In other words, artifacts that appear in subtraction images due to misalignment between images appear when both the high density part and the low density part appear in close proximity to the original reference density when there is no misregistration. On the other hand, the time-varying portion of the soft tissue does not appear as such, and simply appears as a high-density or low-density image portion. Therefore, even if bone artifacts remain, the soft tissue artifacts that are difficult to distinguish from the time-varying portions of the soft tissue are substantially erased. High image.
[0051]
As described above, according to the image alignment apparatus of the present embodiment, halfway in which various artifacts such as a bone portion and a soft portion remain as in the case of two or more images of the same subject to be subjected to comparative interpretation as in the past. Therefore, it is possible to prevent a subtraction image from being created, and to provide various subtraction images to perform appropriate diagnosis.
[0052]
Next, a second embodiment of the present invention will be described below. Since the configuration and operation thereof are substantially the same as those of the first embodiment, FIG. 1 is adopted as a configuration diagram, and only different portions from the first embodiment will be described.
[0053]
In this embodiment, the energy subtraction image creating means 11 creates energy subtraction (soft part) images Ssu11 and Ssu22 in which the soft part is substantially omitted together with energy subtraction (soft part) images Ssu11 and Ssu21 in which the bone part is substantially omitted. The generated energy subtraction (soft part) images Ssu11 and Ssu21 and the energy subtraction (bone part) images Ssu12 and Ssu22 are input to the corresponding positional relationship calculation means 12. The original images S11, S12 and S21, S22, which are the basis for energy subtraction image calculation, are stored in the
[0054]
Since the two energy subtraction (bone) images Ssu12 and Ssu22 calculated here are images obtained based on the original images having different shooting times, similarly to the soft part images in the first embodiment, the images There is a difference in the posture during shooting. Note that the difference in the structural correspondence positional relationship between the bone part images represented by this difference does not necessarily coincide with the difference in the structural correspondence positional relationship between the soft part images, and the difference appears in a different direction depending on the body position. It may be called.
[0055]
Corresponding positional relationship calculation means 12 firstly, the structural corresponding positional relationship (bone part) P1 of the structure in the input subtraction (bone) images Ssu12, Ssu22 and the structure in the subtraction (soft part) images Ssu11, Ssu21. The structural corresponding positional relationship (soft part) P2 of the object is calculated, and the calculated structural corresponding positional relationship (bone part) P1 and the structural corresponding positional relationship (soft part) P2 are weighted and added at a predetermined ratio. Corresponding positional relationship (original image) P3 (= mP1 + nP2; m + n = 1) is calculated.
[0056]
Here, the predetermined ratio (m, n) at the time of weighted addition is switched for each of the
[0057]
Based on the corresponding positional relationship P3 for each part input from the corresponding positional relationship calculating unit 12, the
[0058]
Here, the corresponding positional relationship for each part input to the alignment means 13 is obtained by weighting and adding the structural corresponding positional relation for each part according to the characteristics (position shift direction and characteristics of the degree) of each part of the original image. Since the corresponding positional relationship is obtained, it is possible to perform positioning with a certain degree of accuracy for each part. That is, even if an image is shifted in a different direction for each part because of a change in posture, it can be aligned in an appropriate direction for each part. be able to.
[0059]
In the image registration apparatus of the first embodiment, the energy subtraction image creation unit 11 creates the soft part image from which the bone part image has been erased. Is not limited to the configuration of the embodiment. For example, contrary to the above embodiment, a bone image obtained by deleting the soft part image may be created, or a bone part image and a soft part image may be created respectively. Then, the bone images (as energy subtraction images) are aligned and the subtraction image Ssu from which the bone portions are mainly erased and the soft portion images (as energy subtraction images) are aligned to mainly erase the soft portions. Two subtraction images with the subtraction image Ssu ′ are created, and these two subtraction images are created. Each image may be displayed, or an image Ssu ″ obtained by weighted addition of these two subtraction images (= (m · Ssu + n · Ssu ′) / (m + n); m and n are constants) is displayed. Further, it may be displayed as a morphed image obtained by continuously changing the constants m and n.
[0060]
Further, in each of the above embodiments, an example in which an energy subtraction image is used as a structure-oriented image (bone-oriented image, soft-part-oriented image) has been shown, but the structure-oriented image in the present invention is not limited to this. For example, an image in which a straight edge corresponding to a rib is emphasized as described in Japanese Patent Application No. 2000-303743 may be used as the bone-oriented image, and a horizontal straight line may be used as the soft-part-oriented image. An image in which a typical edge (a portion corresponding to a rib) is blurred may be used.
[0061]
Further, according to the image registration device of each of the above embodiments, the corresponding positional relationship obtained based on the energy subtraction images is applied to the low-pressure image of the original image, but may be applied to the high-pressure image. Needless to say.
[Brief description of the drawings]
FIG. 1 shows a medical image network including an image registration device of the present invention.
FIG. 2 is a diagram showing a processing flowchart mainly of an image registration device in the medical image network shown in FIG. 1;
FIG. 3 is a
[Explanation of symbols]
10 Image alignment device
11 Energy subtraction image creation means
12 Corresponding positional relationship calculation means
13 Alignment means
14 memory
20 Subtraction means
30 Display means
50 CR equipment
60 QA-WS
70 Database server
100 network
Claims (11)
前記2以上の医療用放射線画像のそれぞれについて骨部および軟部を重視した骨部重視画像および軟部重視画像を取得し、
該取得された骨部重視画像間および軟部重視画像間で構造的対応位置関係を求め、
該求められた骨部重視画像間の構造的対応位置関係と軟部重視画像間の構造的対応位置関係とを所定の割合で重み付け加算して得られた対応位置関係に基づいて、前記2以上の医療用放射線画像を位置合わせすることを特徴とする画像の位置合わせ方法。In an image alignment method for aligning two or more medical radiographic images,
Bone and soft tissue to get the bone emphasized image and soft focus image emphasizing for each of the two or more medical radiographic image,
Obtaining a structural correspondence positional relationship between the acquired bone-oriented images and soft-weighted images ,
Based on the corresponding positional relationship obtained by weighting and adding the structural correspondence positional relationship between the obtained bone-oriented images and the structural correspondence positional relationship between the soft-weighted images at a predetermined ratio, the two or more An image alignment method comprising aligning medical radiographic images.
前記2以上の医療用放射線画像のそれぞれについて骨部および軟部を重視した骨部重視画像および軟部重視画像を取得する構造物重視画像取得手段と、
該構造物重視画像取得手段において取得された骨部重視画像間および軟部重視画像間で構造的対応位置関係を求める構造的対応位置関係算出手段と、
該構造的対応位置関係算出手段において求められた前記骨部重視画像間の構造的対応位置関係と前記軟部重視画像間の構造的対応位置関係とを所定の割合で重み付け加算して対応位置関係を求める対応位置関係算出手段とを備え、
前記位置合わせ手段が、前記対応位置関係算出手段により求められた前記対応位置関係に基づいて、前記2以上の医療用放射線画像を位置合わせするものであることを特徴とする医療用放射線画像の位置合わせ装置。In an image alignment apparatus provided with an alignment means for aligning two or more medical radiographic images,
A structure-oriented image acquisition means for acquiring a bone-oriented image and a soft-weight-oriented image with an emphasis on the bone and the soft portion for each of the two or more medical radiographic images;
A structural correspondence positional relationship calculating means for obtaining a structural correspondence positional relationship between the bone-oriented images and the soft-weighted images acquired by the structure-oriented image acquisition means ;
The structural correspondence positional relationship between the bone-oriented images obtained by the structural correspondence positional relationship calculating means and the structural correspondence positional relationship between the soft-weighted images are weighted and added at a predetermined ratio to obtain the corresponding positional relationship. A corresponding positional relationship calculation means to be obtained,
It said alignment means, on the basis of the corresponding positional relationship the corresponding positional relationship obtained by the calculating means, the position of the medical radiographic image, characterized in that said two or more medical radiographic image is to align Alignment device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001044623A JP4294880B2 (en) | 2000-03-06 | 2001-02-21 | Image registration method and apparatus |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000-60547 | 2000-03-06 | ||
JP2000060547 | 2000-03-06 | ||
JP2001044623A JP4294880B2 (en) | 2000-03-06 | 2001-02-21 | Image registration method and apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2001325584A JP2001325584A (en) | 2001-11-22 |
JP4294880B2 true JP4294880B2 (en) | 2009-07-15 |
Family
ID=26586847
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001044623A Expired - Fee Related JP4294880B2 (en) | 2000-03-06 | 2001-02-21 | Image registration method and apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4294880B2 (en) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4104054B2 (en) | 2001-08-27 | 2008-06-18 | 富士フイルム株式会社 | Image alignment apparatus and image processing apparatus |
JP4647360B2 (en) * | 2004-04-05 | 2011-03-09 | 富士フイルム株式会社 | DIFFERENTIAL IMAGE CREATION DEVICE, DIFFERENTIAL IMAGE CREATION METHOD, AND PROGRAM THEREOF |
JP2006006435A (en) * | 2004-06-23 | 2006-01-12 | Fuji Photo Film Co Ltd | Method and device for image display, and program |
JP4126318B2 (en) | 2006-06-23 | 2008-07-30 | 三菱重工業株式会社 | Radiotherapy apparatus control apparatus and radiotherapy apparatus control method |
JP5085310B2 (en) * | 2007-12-27 | 2012-11-28 | ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー | Image processing apparatus, program, and X-ray CT apparatus |
JP5317479B2 (en) * | 2008-01-11 | 2013-10-16 | ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー | X-ray CT system |
JP5511152B2 (en) * | 2008-05-14 | 2014-06-04 | 富士フイルム株式会社 | Energy subtraction method and apparatus |
KR101430121B1 (en) * | 2010-04-06 | 2014-08-14 | 삼성전자주식회사 | Apparatus of Processing Images in Multi-Energy X-ray System and Method for Processing the Images |
JP6225636B2 (en) * | 2013-10-22 | 2017-11-08 | コニカミノルタ株式会社 | Medical image processing apparatus and program |
JP6650819B2 (en) | 2016-04-15 | 2020-02-19 | 株式会社 資生堂 | Method for evaluating uneven color portion, apparatus for evaluating uneven color portion, and program for evaluating uneven color portion |
JP6845047B2 (en) * | 2017-03-09 | 2021-03-17 | 富士フイルム株式会社 | Medical imaging controls, methods and programs |
DE102020214319B3 (en) * | 2020-11-13 | 2022-01-20 | Siemens Healthcare Gmbh | Providing an optimal subtraction data set |
-
2001
- 2001-02-21 JP JP2001044623A patent/JP4294880B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2001325584A (en) | 2001-11-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2001157675A (en) | Method and apparatus for displaying image | |
JP4130661B2 (en) | Device for detecting temporal changes between temporally continuous chest images | |
US20010007593A1 (en) | Method and unit for displaying images | |
JP4104054B2 (en) | Image alignment apparatus and image processing apparatus | |
US7359542B2 (en) | Method and apparatus for detecting anomalous shadows | |
JP4294880B2 (en) | Image registration method and apparatus | |
JP5016518B2 (en) | Alignment apparatus and program thereof | |
JP4188532B2 (en) | Inter-image calculation method and apparatus, and image display method and apparatus | |
JPH08103439A (en) | Alignment processor for image and inter-image processor | |
JP3888046B2 (en) | Radiation image processing method and radiation image processing apparatus | |
US7035445B2 (en) | Image position matching method, apparatus and storage medium | |
KR101909125B1 (en) | Method for computer-aided diagnosis and computer-aided diagnosis apparatus thereof | |
US7310437B2 (en) | Image processing method and system, and storage medium | |
JP2001285858A (en) | Method and instrument for photographing image | |
JP2001157667A (en) | Method for displaying image and image display device | |
JP2001325583A (en) | Method and device for image processing | |
Gang et al. | Multiscale deformable registration for dual‐energy x‐ray imaging | |
Bier | C-arm Cone-Beam Computed Tomography Reconstruction for Knee Imaging under Weight-Bearing Conditions | |
JP2001169182A (en) | Method and device for displaying image | |
JP2001291087A (en) | Method and device for positioning image | |
Ikwuezunma et al. | Case of the missing vertebra: a report of a radiographic stitching error in a scoliosis patient | |
JP4208049B2 (en) | Image processing device | |
JP2008068099A (en) | Image display method and image display device | |
US11696736B2 (en) | Anatomical landmark detection and identification from digital radiography images containing severe skeletal deformations | |
JP2001170035A (en) | Method and instrument image display |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060113 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20061202 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20081217 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090106 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090309 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090407 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090409 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120417 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120417 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130417 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130417 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140417 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |