JP4130118B2 - Image display apparatus, X-ray CT apparatus, program, and storage medium - Google Patents
Image display apparatus, X-ray CT apparatus, program, and storage medium Download PDFInfo
- Publication number
- JP4130118B2 JP4130118B2 JP2002318004A JP2002318004A JP4130118B2 JP 4130118 B2 JP4130118 B2 JP 4130118B2 JP 2002318004 A JP2002318004 A JP 2002318004A JP 2002318004 A JP2002318004 A JP 2002318004A JP 4130118 B2 JP4130118 B2 JP 4130118B2
- Authority
- JP
- Japan
- Prior art keywords
- needle
- image
- pixel
- image display
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 claims description 68
- 238000002372 labelling Methods 0.000 claims description 50
- 238000001514 detection method Methods 0.000 claims description 17
- 238000006243 chemical reaction Methods 0.000 claims description 7
- 238000001914 filtration Methods 0.000 claims description 6
- 125000001153 fluoro group Chemical group F* 0.000 claims description 6
- 238000000605 extraction Methods 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 17
- 238000009125 cardiac resynchronization therapy Methods 0.000 description 11
- 238000007689 inspection Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 5
- 238000013480 data collection Methods 0.000 description 3
- 230000005484 gravity Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002594 fluoroscopy Methods 0.000 description 1
- 230000003902 lesion Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 238000003325 tomography Methods 0.000 description 1
Images
Description
【0001】
【発明の属する技術分野】
本発明は、針を穿刺された被検体に対してフルオロスキャンを行うことで得られる複数のX線断層像を表示する表示部を複数備える画像表示装置及びその制御方法並びにプログラムコード、記憶媒体に関するものである。
【0002】
【従来の技術】
X線CTシステムの放射線断層撮像システムによる実時間(リアルタイム)透視検査(fluoroscopy)とよばれる診断においては、患者(被検体)の患部等の興味のある部位(関心領域;ROI、Region of Ineterestとよばれる)に薬を注入したり組織の一部を取り出したりする目的で針を穿刺する。操作者は、針を穿刺した後、被検体のX線断層像により、針の位置を確認している。
【0003】
上述の目的で針を用いる場合、操作者は得られるX線断層像から針の位置、特に針の先の位置を確認する必要がある。得られるX線断層像の表示例を図3に示す。
【0004】
図3(a)において301はX線管で、302は4列の検出器列である。図3(b)は図3(a)に示した4列の検出器列302を被検体の搬送方向(以下、z軸方向)にA、B、Cの3つの検出器群に分けたときに、夫々の検出器群で得られたX線断層像の表示例を示す。検出器群Bには2列の検出器列が含まれており、この検出器群からは2つの画像が得られるが、この2つの画像を合成して図3(b)の画面に表示する。
【0005】
図3(c)は図3(a)に示した4列の検出器列302を被検体の搬送方向(以下、z軸方向)にD、Eの2つの検出器群に分けたときに、夫々の検出器群で得られたX線断層像の表示例を示す。尚、検出器群D、Eには夫々2つの検出器列が含まれているが、上述の検出器群Bと同様に、含まれている2列の検出器による画像を合成してから表示する。例えば検出器群Dに属する2列の検出器から得られる2つの画像を合成して図3(c)に示す画面に表示する。
【0006】
【発明が解決しようとする課題】
しかし従来では、被検者のX線断層像は複数得られるので、特に実時間性(リアルタイム性)を要求されるCTフルオロスキャンでは、図3(b)や図3(c)に示す表示例では、どの検出器群による画面に針の画像が表示されているかを瞬間的に探すのが手間であった。また、表示されている画面が分かっても、その断層像内に針の先の位置を特定することが困難であった。
【0007】
また上述の通り、針は関心領域に対して穿刺するので、関心領域に対して正確に、且つ安全に針を穿刺するためには、操作者は針の先と関心領域との位置関係を常に把握する必要がある。
【0008】
本発明はかかる問題点に鑑みてなされたものであり、針の先が表示された画面を操作者に通知することを目的とする。
【0009】
また本発明の別の目的としては、針の先と関心領域との位置関係に応じて、操作者にメッセージを通知することを目的とする。
【0010】
【課題を解決するための手段】
本発明の目的を達成するために、例えば本発明の画像表示装置は以下の構成を備える。
【0011】
すなわち、針を穿刺された被検体に対してフルオロスキャンを行うことで得られるX線断層像を表示する表示部を複数備える画像表示装置であって、
前記針の画像を含むX線断層像から、前記針の端点を検出する検出手段と、
前記複数の表示部において、前記検出手段で検出された針の端点が表示されている表示部を特定し、当該表示部を通知する通知手段と
を備えることを特徴とする。
【0012】
本発明の目的を達成するために、例えば本発明の画像表示装置は以下の構成を備える。
【0013】
すなわち、針を穿刺された被検体に対してフルオロスキャンを行うことで得られるX線断層像を表示する表示部を複数備える画像表示装置であって、
前記針の画像を含むX線断層像であって、
当該X線断層像の集合である3次元画像を2値化して3次元ラベリング処理を施し、3次元連続領域を抽出する3次元連続領域抽出手段と、
前記3次元ラベリング処理の結果に従って、前記3次元画像から前記針の3次元連続領域と推定される領域を特定し、当該領域を包含する楕円体近似情報、もしくは直方体近似情報に基づいて前記画像が針の画像であるか否かを判断する判断手段と、
前記判断手段で針の画像と判断された画像から針の端点を検出する検出手段と、
前記複数の表示部において、前記検出手段で検出された針の端点が表示されている表示部を特定し、当該表示部を通知する通知手段と
を備えることを特徴とする。
【0014】
【発明の実施の形態】
以下添付した図面を参照して、本発明の画像表示装置を操作コンソールに適用した好適な実施形態に従って、詳細に説明する。
【0015】
[第1の実施形態]
図1は、本実施形態のX線CTシステムのブロック構成図である。図示のように本システムは、被検体へのX線照射と被検体を透過したX線を検出するためのX線検出機構を一体的に取り付けるガントリ装置100と、ガントリ装置100に対して各種動作設定を行うとともに、ガントリ装置100から出力されたデータに基づいてX線断層像を再構成し、表示する操作コンソール200により構成されている。
【0016】
ガントリ装置100は、その全体の制御をつかさどるメインコントローラ1をはじめ、以下の構成を備える。
【0017】
2は操作コンソール200との通信を行うためのインタフェース、3はテーブル12上に横たえた被検体(患者)を搬送(図面に垂直な方向で以下、z軸ともいう)するための空洞部を有するガントリであり、内部には、X線発生源であって、X線管コントローラ5により駆動制御されるX線管4、X線の照射範囲を制御するためのスリットを有するコリメータ6、コリメータ6のX線照射範囲を制御するスリット幅の調整用モータであるモータ7aが設けられている。このモータ7aの駆動はコリメータコントローラ7により制御される。
【0018】
また、ガントリ3は、被検体を透過したX線を検出する、複数列の検出器から成るマルチ検出器であるX線検出部8、およびX線検出部8で得た透過X線より得られる投影データを収集するデータ収集部9も備える。X線管4及びコリメータ6と、X線検出部8は互いに空洞部分を挟んで、すなわち、被検体を挟んで対向する位置に設けられ、その関係が維持された状態でガントリ3のまわりを回転運動するようになっている。この回動運動は、モータコントローラ11からの駆動信号により駆動される回転モータ10によって行われる。また、被検体を乗せるテーブル12は、z軸方向への搬送がなされるが、その駆動はテーブルモータ13によって行われる。
【0019】
メインコントローラ1は、インタフェース2を介して受信した各種コマンドの解析を行い、それに基づいて上記のX線管コントローラ5、コリメータコントローラ7、モータコントローラ11、テーブルモータコントローラ14、そして、データ収集部9に対し、各種制御信号を出力することになる。また、データ収集部9で収集された投影データは、データ入力インタフェース60を介して操作コンソール200に送出される。
【0020】
操作コンソール200は、いわゆるワークステーションであり、図示するように、装置全体の制御をつかさどるCPU51、ブートプログラム等を記憶しているROM52、主記憶装置として機能するRAM53をはじめ、以下の構成を備える。
【0021】
HDD54は、ハードディスク装置であって、ここにOS、後述するスキャン制御プログラムのほか、ガントリ装置100に各種指示を与えたり、ガントリ装置100より受信したデータに基づいてX線断層像を再構成するためのプログラムが格納されている。また、後述する画像表示のためのプログラムコードも格納されている。VRAM55は表示しようとするイメージデータを展開するメモリであり、ここにイメージデータ等を展開することでCRT56やCRT61に表示させることができる。なお、CRT61は針の穿刺を行う操作者がその表示画面が目視可能な位置に設けられている。
【0022】
57及び58は、各種設定を行うためのキーボードおよびマウスである。また、59はガントリ装置100と通信を行うためのインタフェースである。
【0023】
次に、以上の構成を備えるX線CTシステムを用いて、被検体のX線断層像を得、このX線断層像から針の画像を特定する方法について説明する。なお、X線断層像を得る際のスキャン方法は、実時間で断層像を表示できるフルオロスキャンを用いる。
【0024】
図2に上述のX線CTシステムにより得られる被検体の複数のX線断層像から成る3次元画像を示す。201はz軸方向に検出器の列の数だけ得られる被検体のX線断層像の集合である3次元画像であって、各画素が3次元的に配置された画像である。202は針の画像(3次元連続領域)である。以下では、3次元画像201から針の画像202を得るために、この3次元画像201に対して適当なCT値範囲で2値化した後、3次元ラベリング処理を施す。
【0025】
図4に本実施形態における3次元ラベリング装置の機能構成を示す。2値画像である3次元画像401は読み出し部402において、2次元平面(2次元平面の定義は上述の通り)毎に読み出される。セレクタ404は後述のラベリング部405において用いられる画素データを読み出し部402から選択し、ラベリング部405に出力する。ラベリング部405はセレクタ404が選択した画素データと後述の近傍マスクを用いてラベリングを行う。そして各2次元平面毎の3次元ラベリング情報を生成し、又各ラベルの接続情報(詳細は後述)を生成し、ラベル接続情報格納部406に出力する。ラベル接続情報格納部406はラベリング部405からのラベル接続情報を格納し、後述のリ・ラベリング部407に出力する。リ・ラベリング部407は、ラベル接続情報を用いて、ラベリングされた3次元画像を構成する。
【0026】
以上の機能構成を有する本実施形態の3次元ラベリング装置が行うラベリング処理について、以下説明する。
【0027】
本実施形態におけるラベリング処理に用いる3次元近傍マスクの構成を図6(a),(b)に示す。本実施形態における3次元近傍マスクは2層を成し、図6(b)に示す近傍マスクの上部(同図において矢印の方向)に図6(a)に示す近傍マスクを重ねた構成を備える。上述の2つの近傍マスクを重ねる際には、図6(a)に示す602の画素と、図6(b)に示す603の画素との位置をあわせるようにして重ねる。本実施形態では図6(c)に示すように、注目画素を中心として上9画素、周囲8画素、下9画素の計26画素を参照する26近傍の3次元近傍マスクを用いる。尚、図6(a)に示す601の画素を以下注目画素と呼称する(詳細は後述する)。
【0028】
図8に上述の本実施形態の3次元近傍マスクを用いて3次元ラベリング処理を行う際の、各2次元平面と3次元近傍マスクを示す。同図において801a、801b、801cは2次元平面(2値画像)、802は図6(b)に示した近傍マスクの上部(走査がz軸座標の大きい方向に進む場合に、z軸座標の小さい方を上部と呼ぶ)、803は図6(a)に示した近傍マスクの下部、803aは注目画素(図6での画素601)である。
【0029】
以下、2次元平面801bに含まれる各画素に対してラベリング処理を行う場合について説明するが、ここで説明するラベリング処理を3次元画像を構成するすべての2次元平面(例えば2次元平面801a,801b,801c)に対して行うことが3次元画像に対してラベリング処理を行うことを包含していることは明白である。つまりこの近傍マスクはx、y、z軸の順に3次元的に走査される。本実施形態ではまずx軸方向に走査され、次にy座標を進めてx軸方向に走査され、そのx−y平面の走査完了後に次のz軸座標に進めている。即ち図8に示すように走査1−1,1−2,1−3、、2−1,2−2,2−3、、という具合に走査される。
【0030】
まず、平面801bの左上隅のx=0,y=0,z=0の画素からx軸方向に1画素毎にスキャンを行い、画素値が1である画素を検索する。右端までスキャンを行ったら、y座標を進めた1段下の行の左端(x=0)から再度スキャンを行う。尚、スキャンを行う最初の画素の位置やスキャンの方向はこれに限定されるものではない。そして最初に見つかった(注目画素の画素値が1である)画素のラベル番号を1とする。そして以後、画素値が1である画素が見つかったら(注目画素の画素値が1であったら)、注目画素の周辺の近傍マスク内(802,803内)の既に走査済みの各画素(各マスク画素と各画素は1対1で対応する)のラベル番号を参照する。
【0031】
近傍マスク内の画素であって、注目画素以外の画素に対してラベル番号iがついていた場合、注目画素のラベル番号をiとする。
【0032】
一方、近傍マスク内の画素であって、注目画素以外の画素に対して複数のラベル番号i、k、mがついていた場合、本実施形態ではラベル番号i、k、mのうち最も小さい番号を注目画素のラベル番号とする。この場合、ラベル番号i、k、mの画素(注目画素も含む)はリ・ラベリングのために全て3次元接続しているラベルであることを示す接続情報(ラベル接続情報)を生成する。
【0033】
この接続情報について図10を用いて説明する。図10は、2次元平面1000内で同じ画像領域であるにもかかわらず、3次元走査する方向の優先度により異なるラベル番号が付けられた場合に、それらの画像領域を接続し、リ・ラベリング処理において同じラベル番号を付ける処理を説明するための図である。図10において左の図より、画像領域1001,1002は同じ画像領域であるにもかかわらず、異なるラベル番号(1,3)が付けられている。本実施形態におけるラベリング処理では、このような状態が発生することがある。上述の接続情報は領域1001と1002とが同じ画像領域に含まれるものであることを示す情報であって、その情報の記述方法は特には限定しない。この接続情報を参照することで、領域1001と領域1002とを接続して、リ・ラベリング処理で同じラベル番号(例えばお互いのラベル番号のうちで最小の番号)を付けることで、一つの領域1003(図10右の図参照)として扱うことができる。
【0034】
また、近傍マスク内の画素であって、注目画素以外の画素の値が全て0である場合、つまり、近傍マスク内の(注目画素以外の)画素のどれもラベル番号がついていない場合、既にそのラベリング処理の中で付けたラベル番号で最も大きい番号に1を加算したラベル番号を注目画素のラベル番号とする。
【0035】
以降、平面801b内の全ての画素に対してスキャンを行いながら、上述の注目画素に対するラベリング処理を行う。その結果、平面801bに対するラベリング情報を作成することができる。
【0036】
そして平面801b内の全ての画素に対して3次元ラベリング処理が終わったら、次の平面801cに移行し、平面801cに対する上述の3次元ラベリング処理を行う。その場合にはセレクタ404は平面801bの次の平面801cを読み出し部402から読み出し、ラベリング処理部405に出力することで、ラベリング処理部405は平面801b、801cを用いて平面801cに含まれる画素のラベリング処理を行う。
【0037】
以上のラベリング処理によって、注目平面(上述の例では平面801b)に含まれる注目画素(上述の例は注目画素)のラベル番号は、その上部の平面(上述の例では平面801a)内で、近傍マスクに含まれる画素の値、もしくはラベル番号によって決まるので、全ての平面に対してラベリング処理を終えた時点で、連続した3次元領域の”1”であった画像領域は平面間で接続されて同じラベル番号になっていることになる。その結果、各平面内で独立したラベリング処理を行い、後に平面間で接続して3次元領域として同じ領域に含まれる画像領域の接続を行う処理方法に比べて、少なくとも平面間の画像領域の接続を調べる処理時間の分だけ、本実施形態におけるラベリング処理は高速に行うことができる。これはリ・ラベリングも含めて2回の3次元走査により3次元的に画像領域の接続関係を参照することができることにも起因している。
【0038】
なお、最上面(z=0)の平面801aを注目平面とするときは上部の平面がいるため、上部平面を構成する全てのデータを0として扱い、処理を進めていく。最下面も同様の処理を行う。
【0039】
以上の3次元ラベリング処理のフローチャートを図9に示す。
【0040】
まず、ラベル番号の変数iを1に初期化する(ステップS901)。そして平面内の各画素を3次元走査し、画素値が1である画素を検索する(ステップS902)。画素値が1である画素を最初に見つけた場合(ステップS903)、その画素のラベル番号をi、すなわち1とする(ステップS904)。そして以降も、画素値が1である画素を検索する。注目画素の画素値が0の場合は、注目画素のラベル番号は0とする(ステップS915)。
【0041】
画素値が1である画素(注目画素が1である画素)を見つけた場合(ステップS905)、図7に示した近傍マスクを用いて、近傍マスク内で、ラベル番号がついた画素を検索する(ステップS906)。ステップS906における検索の結果、複数の画素(ここでは例えば3つとし、夫々ラベル番号がj、k、l、j<k<l)が見つかった場合、処理をステップS907に移行し、j、k、lのうちの最小のラベル番号であるjを注目画素のラベル番号とする(ステップS907)。又、ラベル番号がj、k、lの画素が3次元接続していることを示すラベル接続情報を生成する(ステップS908)。
【0042】
一方、ステップS906における検索の結果、単数の画素(ラベル番号j)が見つかった場合、処理をステップS909に移行し、このラベル番号jを注目画素のラベル番号とする(ステップS909)。また、ステップS906における検索の結果、近傍マスク内の(注目画素以外の)画素値が全て0である場合、処理をステップS910に移行し、今まで付けたラベル番号で最も大きい番号(i)に1を加算した番号(i+1)を注目画素のラベル番号とする(ステップS910)。
【0043】
そして再び、3次元走査を行う(ステップS911)。そしてステップS912における判断により、未だ全ての画素についてスキャンを行っていない場合には処理をステップS905に移行し、上述の処理を繰り返す。一方、平面内の画素全てのスキャンが終わった場合には、3次元画像内の全ての平面を走査し終えるまで繰り返す(ステップS913)。又その後、走査途中で見つかった3次元接続情報に基づき、リ・ラベリング処理を行う(ステップS914)。具体的には上述の接続情報を元に、各平面内で各画像領域の接続を行い、接続を行った各画像領域で同じラベル番号を付ける。
【0044】
なお、上述の例では3次元画像に対して直接2値化処理を行った後、3次元ラベリング処理を行ったが、まず3次元画像に対して3次元空間フィルタ(ローパスフィルタや中間値フィルタなど)を用いて3次元画像雑音除去を行って、また必要に応じて針を強調する3次元空間フィルタリングを行って、その後にラベリング処理を行った方がより良い精度でラベリング結果を得ることができる。
【0045】
以上のラベリング処理の結果、例えば図2に示した3次元画像201において、針の画像202の領域とそれ以外のノイズの領域とで異なるラベルが付けられたことになる。しかし一般にラベリングされた領域が針の画像であるか否かはこの時点では判断できない。よって次に、得られた領域が針の画像であるか否かの判断処理について説明する。
【0046】
3次元画像に含まれる針の画像は大まかに見て、楕円球体もしくは直方体の画像であると考えられる。このことを利用して、上述の3次元ラベリング処理により得られた針と推定される候補の領域を本実施形態では楕円球体の3次元領域と見なし、その特徴パラメータを抽出して、この画像が針であるか否かを判断する。
【0047】
図5(a)に針と推定される領域と、この領域を近似した楕円体を示す。501は針と推定される領域で、502はこの領域501を近似する楕円体である。この楕円を示す特徴パラメータとして、重心周りの2次モーメントを求め、それから主軸方向と3つの径L1,L2,L3を図5(b)に示すように求める。実際にはその長さは画素数として求められることになる。そしてL1,L2,L3の夫々の値、Li/Lj(i、j=1,2,3)の比が所定の基準を満たしているかの判断を行う。針であれば、図5によると、L1,L3は小さな値、L2は大きな値つまり、
L1/L3≒1
L1/L2≪1
L3/L2≪1
となるはずである。又、それ以外にもこの楕円の平均CT値、円形度、球体度などを求めて、それらが針である所定の基準を満たしているか否かの判断を行っても良い。そしてこれらの判断から、針と推定される領域(図5(a)では画像501)が針の画像であるか否かの判断を行う。そしてこの判断により、針の画像でないと判断された画像領域に対しては、ラベル番号を”0”にして針の候補から落とす。以上の処理により、3次元画像における針の3次元領域を特定することができる。
【0048】
また、ラベリングされた3次元画像を各平面に分解した場合、針の領域もしくは針の先端を含んでいる平面をラベルを参照することで特定することができる。また、上記各平面のうちいくつか(例えば図3(b)では3つ)はCRT61の表示画面上に表示されており、例えば図3(b)に示したように各検出器群からのX線断層像を表示する場合、針の領域を含んでいる平面を特定し、特定された画面のフレームの色を変えて表示することで、針を含む画面を見つけやすくすることができる。なお、図3(b)に示した3つの画像は1つのCRT61の表示画面上に表示しても良いし、CRT61が複数のCRTで構成されている場合、夫々のCRTの表示画面上に夫々の画像を表示しても良い。
【0049】
図7にCRT61の表示画面上に表示される、針の画像が表示されている画面を見やすくした表示例を示す。701,702,703は各検出器群からの画像を表示する画面であって、図3(b)に示した例では、それそれ検出器群A,B,Cから得られた画像を表示する画面である。同図において705が針の画像であるので、この画像を含む画面702のフレーム702aの色を変化させることで、操作者は針の画像が画面702に表示されていることが認識しやすくなる。
【0050】
また、3次元画像における針の先を得るために、3次元画像における針の画像に対して、例えば後述の3次元論理フィルタを用いて細線化処理を行った画像を生成する。そして細線化処理を施された針の画像に対して端点検出を行う。端点検出処理について具体的には、端点検出の3次元論理フィルタで検出された端点候補の中のうちで、楕円体近似したときの主軸方向のベクトルにほぼ合致したものを選ぶ。
【0051】
その結果、3次元画像における針の先端が特定できるので、そこから針の先端の存在する平面を特定することができる。そして平面内で針の先端の位置(もしくはその近傍でも良い)に存在する画素の値を操作者が認識しやすい色(例えば赤や黄色など)に変更する(図11のポインタ1101を参照)。その結果、操作者は、近傍に設けられたCRT61の上記表示画面を参照することで針の先端の位置を瞬間的に認識しやすくなり、穿刺の作業に専念できる。なお、上述のフレームの色を変える処理は針の先を表示している画面のフレームに対してのみ行っても良い。
【0052】
次に、上記の3次元論理フィルタについて簡単に説明する。本実施形態で細線化処理に用いる3次元論理フィルタは、3次元画像の注目画素と注目画素の26近傍の画素とを用いて、細線化処理の結果として”1”を出力すべき場合のデータパターンを論理結合する条件部と、その条件部に記述されたデータパターンに対する細線化処理結果に相当する値”1”及び、条件部に記述されたデータパターン以外のデータパターンに対する細線化処理結果結果に相当する値”0”を出力する出力部となら構成される。
【0053】
図12に上述の処理のフローチャートを示す。3次元画像が入力されると(ステップS1201)、入力された3次元画像に対して上述の3次元空間フィルタリング処理(ローパスフィルタや中間値フィルタなど)を施す(ステップS1202)。ステップS1202における処理は必要に応じて省いても良い。次に(必要に応じてフィルタ処理が施された)3次元画像に対して3次元ラベリング処理が施される(ステップS1203)。ステップS1203における3次元ラベリング処理の詳細は前述のとおりである。
【0054】
次に、針と推定される3次元領域を近似した楕円を求め、この楕円の主軸方向と3つの径や夫々の径の比や、楕円の円形度、球体度などを求める(ステップS1204)。そして、求めた特徴パラメータの結果が所定の条件を満たしているかの判断を行い(ステップS1205)、針ではないと判断された場合、処理をステップS1206にすすめ、この領域に対してラベル番号を0にして、針の候補から外す(ステップS1206)。全てのラベル番号について上記の処理を終えた後に(ステップS1207,S1211)処理をステップS1208に進め、針と判断されたラベル番号の領域に対して細線化処理を施す(ステップS1208)。又、その後に端点処理も行う。次に、画面(図3(b)では3つ、図3(c)では2つ)に表示されている画面で、針が表示されている画面を特定する(ステップS1209)。そして特定された画面のフレームの色を変更する。また、針の先の位置(もしくはその近傍の位置)の画素の色を変更する(ステップS1210)。
【0055】
また、針の先が表示された画面のフレームの色を変更する場合、ステップS1209において針の先が表示されている画面を特定し、ステップS1210で特定された画面のフレームの色を変更する。
【0056】
又、本実施形態では針の画像を表示している画面のフレーム、もしくは針の先を表示している画面のフレームを操作者が認識しやすいようにその色を変更していたが、これに限定されるものではなく、他にも例えばフレームを所定の色で点滅させたり、針の先端近辺を指すポインタを針の先端近傍に表示してもよい。
【0057】
図13にガントリ装置100と操作コンソール200の全体的な処理のフローチャートを示す。
【0058】
まず、操作コンソール200においてキーボード57,マウス58を用いてスキャン計画が入力される(ステップS1351)。そしてスキャン計画を操作コンソール200に入力し終えると(ステップS1352)、入力したスキャン計画をガントリ装置100に送信する(ステップS1353)。ガントリ装置100は操作コンソール200からスキャン計画を受信すると(ステップS1301)、受信したスキャン計画に基づいてスキャンの準備を行う(ステップS1302)。そして、ガントリ装置100は受信したスキャン計画に基づいてスキャンを行う(ステップS1303)。そしてスキャンした結果(投影データ)を操作コンソール200に対して送信する(ステップS1304)。投影データを操作コンソール200に対して送信するタイミングなどは公知の方法に従う。
【0059】
操作コンソール200は投影データを受信し(ステップS1354)、受信した投影データに基づいて公知の技術によりX線断層像を再構成する(ステップS1355)。そしてX線検出部8の各列を複数の検出器群に分割した場合の各検出器群に対応した画面に断層像を表示する(ステップS1356)。なお本ステップでは、複数の検出器からの投影データの合成処理を行い、その結果を表示する処理も含まれる。
【0060】
そして、ステップS1357において、針の画像、もしくは針の先が表示されている画面を特定し、特定した画面のフレームの色を変更する。また、本ステップにおいて、針の位置、もしくはその近傍の画素の色を変更する。本ステップにおける処理の詳細は図12に示すとおりである。
【0061】
以上のスキャン(ステップS1302)から針先表示(ステップS1357)までの処理はスキャンが連続する限り繰り返し行われる。
【0062】
尚、本実施形態では針の画像、もしくは針の先が表示された画面のフレームの色変更処理と、針の先の位置、もしくはその近傍の画素の値を変更する処理の両方を行っているが、いずれか1つの処理のみを実行しても良い。
【0063】
[第2の実施形態]
本実施形態では、第1の実施形態で説明した3次元画像における針先の位置の検出方法に加えて、検出した針先の位置をチェックする方法について説明する。
【0064】
一般に、針の先にはアーチファクト(偽像)が発生し易い。図14に針と推定される画像とアーチファクトとの関係を示す。1401は針と推定される画像で、1402はアーチファクトである。そこで、3次元画像(2次元平面でも良いが)において、アーチファクト1402を針の先端を中心に極座標変換、もしくはHough変換する。その結果は図15のようになり、ある径の範囲、もしくは径方向に加算したプロフィールを求め、その標準偏差値(θ方向の頻度のばらつき)が大きければ針の先端であると判断する。その判断結果によって、このアーチファクトが針先に特有のものであるか否かを判断することができ、同時に、このアーチファクトから針の先端か否かを特定することができる。
【0065】
[第3の実施形態]
また上記実施形態での説明による、X線断層像中における針の先の位置を特定する方法を用いれば、X線断層像中の病変部等の検査対象(関心領域)と針の先との位置関係に応じたメッセージを操作者に対して通知することが出来る。針の穿刺は検査対象に対して行われるものであるので、例えば現在の針の位置がこの検査対象に近い、遠い等のように、針の先の位置が検査対象に対してどの位置にあるのかを操作者に対して通知することは重要なことである。
【0066】
以下、このように針の先と検査対象との位置関係に応じたメッセージを操作者に対して通知する場合について説明する。なお本実施形態ではこのメッセージを音声で通知する。図16は本実施形態に係る本実施形態のX線CTシステムのブロック構成図である。図1と同じ部分については同じ番号を付けており、その説明を省略する。62はスピーカで、CPU51からの指示に応じて、RAM53に記憶されている音のデータをD/A変換し、音として出力する。
【0067】
まず同図のX線CTシステムを用いて、ヘリカルスキャン、もしくはアキシャルスキャンを行う範囲を決めるためのスカウトスキャンを行う。ここでヘリカルスキャンとはスキャン位置をz軸方向に移動させつつ、スキャンを連続的に行うスキャンを指す。またアキシャルスキャンとは、1つのスキャン位置におけるスキャンが終了してから次のスキャン位置におけるスキャンを行う作業を全てのスキャン位置に対して行うスキャンを指す。またスカウトスキャンとは、X線管の位置を固定したまま、被検体をz軸方向にスキャンするスキャンを指す。
【0068】
操作者はスカウトスキャンにより得られた2次元像に基づいて、ヘリカルスキャン、もしくはアキシャルスキャンを行う範囲を決め、決めた範囲内で更にヘリカル、もしくはアキシャルスキャンを行う。そしてヘリカル、もしくはアキシャルスキャンを行った結果得られる複数のX線断層像から検査対象を包含する領域であるROIをキーボード57やマウス58を用いて操作者が指定する。
【0069】
図18に検査対象に対してROIを設定した様子を示す。同図において1800はX線断層像で、1801が検査対象部で、1802がROIである。同図では検査対象部1801を包含する矩形領域をROIとして設定している。なおROIの形状は矩形に限定されるものではない。なおROIを指定するX線断層像は1つでも良いし、複数であっても良い。
【0070】
上記実施形態による説明の通り、X線断層像における針の先の位置を求めることが出来るので、求めたX線断層像における針の先の位置とROIの位置(例えばROIの重心の位置)との距離dを求める。そして求めた距離dに応じたメッセージをスピーカ62から出力する。距離dとメッセージとの関係を示すテーブルの一例を図17に示す。
【0071】
CPU51は同図のテーブルを参照して、距離dが0≦d<d1であれば、HDD54に保存されているメッセージデータ「ms1.dat」をRAM53に読み出し、このデータに基づいた音をスピーカ62から出力されるようにCPU51がスピーカ62を制御する。距離dがd1≦d<d2であれば、HDD54に保存されているメッセージデータ「ms2.dat」をRAM53に読み出し、このデータに基づいた音をスピーカ62から出力されるようにCPU51がスピーカ62を制御する。上記メッセージの出力は一定時間毎(例えば5秒毎)に行われる。
【0072】
距離dの値が小さければ小さいほど、針の先がROIに近い(検査対象に近い)ことを示しているので、「ms2.dat」は例えば「まだROIには遠いです」という音のデータ、「ms1.dat」は例えば「ROIに入りました」という音のデータ、というように、距離dが小さいほど、針の先がROIに近いことを操作者に通知するようにメッセージを設定する。なお、上記d1は、距離dが0≦d<d1である場合に、針の先がROI内であるように動的に求めても良い。また、上記テーブルのデータ、各メッセージの音のデータはHDD54に保存されており、必要に応じてRAM53にロードされる。
【0073】
なお、複数のX線断層像に対してROIを設定した場合には、針の先が存在するX線断層像において上記距離dを求める処理、求めた距離dに基づいてメッセージを出力する処理を行う。
【0074】
なお、操作者に対して通知するメッセージの内容は単に針の先がROIの位置に対して遠い、近いのみを示すものに限定されることなく、他にも例えば、ROIの位置に対して針の先が上にあるのか下にあるのか、右にあるのか、左にあるのかを示すものでも良い。また、針の先がROIの位置に対してずれている場合、どの方向に修正すればよいのかを示すものでも良い。その場合、針の先がどの平面に存在しているのかを求め、存在している平面(即ち針の先の位置)とROIの位置とを比較することで、その位置関係を通知することが出来る。もちろんその位置関係に応じたメッセージの内容をテーブルとして予めHDD54に保存しておく必要がある。
【0075】
またメッセージの内容は言葉の発声に限定されるものではなく、他にも例えば単調な音(例えば「ピッ」という音)を繰り返し出力し、この繰り返し周期を距離dに応じて変化させても良い(例えば距離dが小さいほど繰り返し周期を短くする)。
【0076】
以上の処理を行うことで、操作者は上記メッセージを聞くことで針の先がROIに対してどの位置にあるのかを把握しながら針の穿刺を行うことができ、より正確に且つ安全に関心領域に対して針の穿刺を行うことが出来る。
【0077】
[第4の実施形態]
上記第3の実施形態において用いる針の先の位置を求める方法は第1,2の実施形態で説明した方法に限定されるものではなく、より単純な方法を用いても良い。すなわち、3次元画像を二値化し、二値化した結果をラベリングする。ラベリング処理以降は第1の実施形態で説明した方法を用いる。
【0078】
[その他の実施形態]
また、本発明の目的は、上述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体(または記録媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによっても実現できるものである。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。また、コンピュータ(操作コンソール)が読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれる。
【0079】
本発明を上記記憶媒体に適用する場合、その記憶媒体には、先に説明した(図9、及び/又は図12、及び/又は図13に示すフローチャートの一部もしくは全部)に対応するプログラムコードが格納されることになる。
【0080】
このようなプログラムコードを格納する記憶媒体としては、例えばフロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、磁気テープ、不揮発性のメモリカード、ROM等を用いることができる。更には、ネットワーク(例えばインターネット)という媒体を介してダウンロードしても良いであろう。
【0081】
【発明の効果】
以上の説明により、本発明によって、針の先が表示された画面を操作者に通知することができる。
【図面の簡単な説明】
【図1】本発明の第1の実施形態におけるX線CTシステムのブロック構成図である。
【図2】図1に示したX線CTシステムにより得られる被検体の複数のX線断層像から成る3次元画像を示す図である。
【図3】各検出器から得られるX線断層像の表示例を示す図である。
【図4】3次元ラベリング処理の構成を示す図である。
【図5】針と推定される画像と、それを包含する楕円体を示す図である。
【図6】近傍マスクの構成を示す図である。
【図7】CRT61の表示画面上に表示されている、針が表示されている画面を見やすくした表示例を示す図である。
【図8】平面と近傍マスクを示す図である。
【図9】3次元ラベリング処理のフローチャートである。
【図10】接続情報を説明する図である。
【図11】針の先端の位置、もしくはその近傍の画素の色を変更した画面を示す図である。
【図12】針が表示されている画面のフレームの色を変更する、または、針の先の位置(もしくはその近傍の位置)の画素の色を変更する処理のフローチャートである。
【図13】ガントリ装置100と操作コンソール200の全体的な処理のフローチャートである。
【図14】針と推定される領域とアーチファクトとの関係を示す図である。
【図15】3次元画像において、アーチファクトを針の先端を中心に極座標変換、もしくはHough変換した結果と、ある径の範囲、もしくは径方向に加算して求まるプロフィールを示す図である。
【図16】本発明の第3の実施形態に係る本実施形態のX線CTシステムのブロック構成図である。
【図17】距離dとメッセージとの関係を示すテーブルの一例を示す図である。
【図18】検査対象に対してROIを設定した様子を示す図である。[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image display apparatus including a plurality of display units that display a plurality of X-ray tomographic images obtained by performing a fluoro scan on a subject punctured with a needle, a control method thereof, a program code, and a storage medium. Is.
[0002]
[Prior art]
In a diagnosis called real-time fluoroscopy using a radiation tomography system of an X-ray CT system, a region of interest (region of interest; ROI, Region of Ineterest, etc.) such as an affected part of a patient (subject) The needle is punctured for the purpose of injecting drugs or taking out part of the tissue. The operator confirms the position of the needle from the X-ray tomographic image of the subject after puncturing the needle.
[0003]
When the needle is used for the above-mentioned purpose, the operator needs to confirm the position of the needle, particularly the position of the tip of the needle, from the obtained X-ray tomographic image. A display example of the obtained X-ray tomogram is shown in FIG.
[0004]
In FIG. 3A, 301 is an X-ray tube, and 302 is a detector array of four rows. FIG. 3B shows a case where the four
[0005]
3 (c) shows a case where the four
[0006]
[Problems to be solved by the invention]
Conventionally, however, a plurality of X-ray tomographic images of the subject can be obtained, and display examples shown in FIGS. 3 (b) and 3 (c) particularly in CT fluoroscans that require real-time characteristics (real-time characteristics). Then, it has been troublesome to instantaneously find out which detector group displays the needle image on the screen. Even if the displayed screen is known, it is difficult to specify the position of the tip of the needle in the tomographic image.
[0007]
As described above, since the needle punctures the region of interest, in order to puncture the needle accurately and safely to the region of interest, the operator always determines the positional relationship between the tip of the needle and the region of interest. It is necessary to grasp.
[0008]
The present invention has been made in view of such problems, and an object thereof is to notify an operator of a screen on which a needle tip is displayed.
[0009]
Another object of the present invention is to notify the operator of a message according to the positional relationship between the tip of the needle and the region of interest.
[0010]
[Means for Solving the Problems]
In order to achieve the object of the present invention, for example, an image display apparatus of the present invention comprises the following arrangement.
[0011]
That is, an image display device including a plurality of display units for displaying X-ray tomographic images obtained by performing a fluoro scan on a subject punctured with a needle,
Detection means for detecting an end point of the needle from an X-ray tomographic image including an image of the needle;
A notifying unit for identifying a display unit on which the end points of the needles detected by the detecting unit are displayed in the plurality of display units, and notifying the display unit;
It is characterized by providing.
[0012]
In order to achieve the object of the present invention, for example, an image display apparatus of the present invention comprises the following arrangement.
[0013]
That is, an image display device including a plurality of display units for displaying X-ray tomographic images obtained by performing a fluoro scan on a subject punctured with a needle,
An X-ray tomogram including an image of the needle,
Three-dimensional continuous region extraction means for binarizing a three-dimensional image that is a set of the X-ray tomographic images, performing a three-dimensional labeling process, and extracting a three-dimensional continuous region;
According to the result of the three-dimensional labeling process, an area estimated as a three-dimensional continuous area of the needle is identified from the three-dimensional image, and the image is based on ellipsoidal approximation information or rectangular parallelepiped approximation information including the area. A determination means for determining whether the image is a needle image;
Detecting means for detecting an end point of the needle from the image determined as the needle image by the determining means;
A notifying unit for identifying a display unit on which the end points of the needles detected by the detecting unit are displayed in the plurality of display units, and notifying the display unit;
It is characterized by providing.
[0014]
DETAILED DESCRIPTION OF THE INVENTION
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, an image display device according to the present invention will be described in detail according to a preferred embodiment applied to an operation console with reference to the attached drawings.
[0015]
[First Embodiment]
FIG. 1 is a block diagram of the X-ray CT system of this embodiment. As shown in the figure, the present system includes a
[0016]
The
[0017]
2 is an interface for communicating with the
[0018]
The
[0019]
The
[0020]
The
[0021]
The
[0022]
[0023]
Next, a method for obtaining an X-ray tomographic image of a subject using the X-ray CT system having the above configuration and specifying a needle image from the X-ray tomographic image will be described. As a scanning method for obtaining an X-ray tomographic image, a fluoro scan capable of displaying a tomographic image in real time is used.
[0024]
FIG. 2 shows a three-dimensional image composed of a plurality of X-ray tomographic images of the subject obtained by the above-described X-ray CT system.
[0025]
FIG. 4 shows a functional configuration of the three-dimensional labeling apparatus according to this embodiment. A three-
[0026]
A labeling process performed by the three-dimensional labeling apparatus of the present embodiment having the above functional configuration will be described below.
[0027]
6A and 6B show the configuration of the three-dimensional neighborhood mask used for the labeling process in the present embodiment. The three-dimensional neighborhood mask in this embodiment has two layers, and has a configuration in which the neighborhood mask shown in FIG. 6A is superimposed on the upper portion of the neighborhood mask shown in FIG. 6B (in the direction of the arrow in FIG. 6B). . When the above-described two neighboring masks are overlapped, they are overlapped so that the positions of the
[0028]
FIG. 8 shows each two-dimensional plane and three-dimensional neighborhood mask when performing a three-dimensional labeling process using the above-described three-dimensional neighborhood mask of the present embodiment. In the figure, 801a, 801b, and 801c are two-dimensional planes (binary images), and 802 is the upper part of the neighborhood mask shown in FIG. 6B (when the scanning proceeds in the direction of larger z-axis coordinates, 803 is the lower part of the neighborhood mask shown in FIG. 6A, and 803a is the target pixel (
[0029]
Hereinafter, a case where labeling processing is performed on each pixel included in the two-
[0030]
First, scanning is performed for each pixel in the x-axis direction from the pixel of x = 0, y = 0, z = 0 in the upper left corner of the
[0031]
If the pixel in the neighborhood mask has a label number i for a pixel other than the pixel of interest, the label number of the pixel of interest is i.
[0032]
On the other hand, when a plurality of label numbers i, k, m are attached to pixels other than the pixel of interest in the neighborhood mask, in the present embodiment, the smallest number among the label numbers i, k, m is selected. The label number of the target pixel is used. In this case, the connection information (label connection information) indicating that the pixels having the label numbers i, k, and m (including the target pixel) are all three-dimensionally connected for re-labeling is generated.
[0033]
This connection information will be described with reference to FIG. FIG. 10 shows a case where different label numbers are given according to the priority in the direction of three-dimensional scanning, even though they are the same image area in the two-
[0034]
Further, if the values of the pixels other than the pixel of interest in the neighborhood mask are all 0, that is, if any of the pixels (other than the pixel of interest) in the neighborhood mask has no label number, A label number obtained by adding 1 to the largest label number assigned in the labeling process is set as the label number of the target pixel.
[0035]
Thereafter, the above-described labeling process is performed on the target pixel while scanning all the pixels in the
[0036]
When the three-dimensional labeling process is completed for all the pixels in the
[0037]
As a result of the above labeling processing, the label number of the target pixel (the target pixel in the above example) included in the target plane (in the above example,
[0038]
Note that when the uppermost plane (z = 0)
[0039]
FIG. 9 shows a flowchart of the above three-dimensional labeling process.
[0040]
First, the label number variable i is initialized to 1 (step S901). Then, each pixel in the plane is three-dimensionally scanned to search for a pixel having a pixel value of 1 (step S902). When a pixel having a pixel value of 1 is found first (step S903), the label number of that pixel is set to i, that is, 1 (step S904). Thereafter, a pixel having a pixel value of 1 is searched. When the pixel value of the target pixel is 0, the label number of the target pixel is set to 0 (step S915).
[0041]
When a pixel with a pixel value of 1 (a pixel with a pixel of interest of 1) is found (step S905), a pixel with a label number is searched for in the neighborhood mask using the neighborhood mask shown in FIG. (Step S906). As a result of the search in step S906, when a plurality of pixels (here, for example, three are assumed and the label numbers are j, k, l, and j <k <l) are found, the process proceeds to step S907, where j, k , L, which is the smallest label number, is set as the label number of the pixel of interest (step S907). Also, label connection information indicating that the pixels with label numbers j, k, and l are three-dimensionally connected is generated (step S908).
[0042]
On the other hand, if a single pixel (label number j) is found as a result of the search in step S906, the process proceeds to step S909, and this label number j is set as the label number of the target pixel (step S909). If the pixel values (other than the target pixel) in the neighborhood mask are all 0 as a result of the search in step S906, the process proceeds to step S910, and the largest label number assigned so far (i) is set. The number obtained by adding 1 (i + 1) is set as the label number of the target pixel (step S910).
[0043]
Then, three-dimensional scanning is performed again (step S911). If it is determined in step S912 that scanning has not been performed for all pixels, the process proceeds to step S905, and the above-described process is repeated. On the other hand, when all the pixels in the plane have been scanned, the process is repeated until all the planes in the three-dimensional image have been scanned (step S913). Thereafter, re-labeling processing is performed based on the three-dimensional connection information found during scanning (step S914). Specifically, based on the above connection information, each image area is connected within each plane, and the same label number is assigned to each connected image area.
[0044]
In the above example, the binarization process is directly performed on the three-dimensional image, and then the three-dimensional labeling process is performed. First, a three-dimensional spatial filter (such as a low-pass filter or an intermediate value filter) is applied to the three-dimensional image. ) To remove the 3D image noise, and if necessary, perform the 3D spatial filtering to emphasize the needle, and then perform the labeling process to obtain the labeling result with better accuracy. .
[0045]
As a result of the labeling process described above, for example, in the three-
[0046]
A needle image included in the three-dimensional image is roughly considered to be an image of an ellipsoid or a cuboid. By utilizing this, the candidate area estimated as the needle obtained by the above-described three-dimensional labeling process is regarded as a three-dimensional area of an elliptical sphere in the present embodiment, and its feature parameter is extracted, and this image is extracted. It is determined whether or not it is a needle.
[0047]
FIG. 5A shows a region estimated as a needle and an ellipsoid approximating this region. An
L1 / L3 ≒ 1
L1 / L2 << 1
L3 / L2 << 1
Should be. In addition, the average CT value, circularity, sphericity, etc. of this ellipse may be obtained to determine whether or not they satisfy a predetermined standard of being a needle. From these determinations, it is determined whether or not the region estimated as a needle (
[0048]
In addition, when the labeled three-dimensional image is decomposed into each plane, the plane including the needle region or the tip of the needle can be specified by referring to the label. Some of the planes (for example, three in FIG. 3B) are displayed on the display screen of the
[0049]
FIG. 7 shows a display example on the display screen of the
[0050]
Further, in order to obtain the tip of the needle in the three-dimensional image, an image is generated by thinning the needle image in the three-dimensional image using, for example, a three-dimensional logic filter described later. Then, end point detection is performed on the image of the needle subjected to the thinning process. Specifically, the end point detection process selects an end point candidate detected by the end point detection three-dimensional logic filter that substantially matches the vector in the principal axis direction when the ellipsoid is approximated.
[0051]
As a result, since the tip of the needle in the three-dimensional image can be specified, the plane on which the tip of the needle exists can be specified. Then, the value of the pixel existing at the position of the tip of the needle (or the vicinity thereof) in the plane is changed to a color (for example, red or yellow) that is easy for the operator to recognize (see
[0052]
Next, the above three-dimensional logic filter will be briefly described. The three-dimensional logic filter used for the thinning process in this embodiment uses data of the pixel of interest in the three-dimensional image and pixels near 26 of the pixel of interest, and data when “1” should be output as a result of the thinning process. A condition part for logically combining patterns, a value “1” corresponding to the thinning process result for the data pattern described in the condition part, and a thinning process result for a data pattern other than the data pattern described in the condition part And an output unit that outputs a value “0” corresponding to.
[0053]
FIG. 12 shows a flowchart of the above process. When a three-dimensional image is input (step S1201), the above-described three-dimensional spatial filtering processing (such as a low-pass filter and an intermediate value filter) is performed on the input three-dimensional image (step S1202). The processing in step S1202 may be omitted as necessary. Next, a three-dimensional labeling process is performed on the three-dimensional image (filtered as necessary) (step S1203). The details of the three-dimensional labeling process in step S1203 are as described above.
[0054]
Next, an ellipse approximating the three-dimensional region estimated as a needle is obtained, and the principal axis direction of the ellipse and the ratio of the three diameters, the respective diameters, the ellipticity, the sphericity, etc. of the ellipse are obtained (step S1204). Then, it is determined whether the result of the obtained characteristic parameter satisfies a predetermined condition (step S1205). If it is determined that the result is not a needle, the process proceeds to step S1206, and the label number is set to 0 for this area. Thus, it is removed from the needle candidates (step S1206). After the above processing is completed for all label numbers (steps S1207 and S1211), the process proceeds to step S1208, and thinning processing is performed on the area of the label number determined to be a needle (step S1208). After that, end point processing is also performed. Next, on the screen displayed on the screen (three in FIG. 3B and two in FIG. 3C), the screen on which the needle is displayed is specified (step S1209). Then, the color of the frame of the specified screen is changed. Further, the color of the pixel at the tip position of the needle (or a position in the vicinity thereof) is changed (step S1210).
[0055]
When changing the frame color of the screen on which the needle tip is displayed, the screen on which the needle tip is displayed is specified in step S1209, and the color of the frame of the screen specified in step S1210 is changed.
[0056]
In this embodiment, the color of the screen frame displaying the needle image or the frame of the screen displaying the needle tip is changed so that the operator can easily recognize it. For example, the frame may blink in a predetermined color, or a pointer pointing near the tip of the needle may be displayed near the tip of the needle.
[0057]
FIG. 13 shows a flowchart of overall processing of the
[0058]
First, a scan plan is input on the
[0059]
The
[0060]
In step S1357, the screen on which the needle image or the tip of the needle is displayed is specified, and the frame color of the specified screen is changed. In this step, the color of the pixel at or near the position of the needle is changed. Details of the processing in this step are as shown in FIG.
[0061]
The processes from the above scan (step S1302) to the needle tip display (step S1357) are repeated as long as the scan continues.
[0062]
In the present embodiment, both the color change processing of the frame of the screen on which the needle image or the needle tip is displayed and the processing of changing the value of the pixel at the needle tip position or the vicinity thereof are performed. However, only one of the processes may be executed.
[0063]
[Second Embodiment]
In this embodiment, in addition to the method for detecting the position of the needle tip in the three-dimensional image described in the first embodiment, a method for checking the position of the detected needle tip will be described.
[0064]
In general, artifacts (false images) are likely to occur at the tip of the needle. FIG. 14 shows a relationship between an image estimated as a needle and an artifact.
[0065]
[Third Embodiment]
Moreover, if the method for specifying the position of the tip of the needle in the X-ray tomogram described in the above embodiment is used, the inspection target (region of interest) such as a lesion in the X-ray tomogram and the tip of the needle A message corresponding to the positional relationship can be notified to the operator. Since the needle puncture is performed on the inspection target, for example, the position of the tip of the needle relative to the inspection target is located such that the current needle position is close to or far from the inspection target. It is important to notify the operator of whether or not.
[0066]
Hereinafter, a case where the operator is notified of a message according to the positional relationship between the needle tip and the inspection target will be described. In this embodiment, this message is notified by voice. FIG. 16 is a block configuration diagram of the X-ray CT system of the present embodiment according to the present embodiment. The same parts as those in FIG. 1 are denoted by the same reference numerals, and the description thereof is omitted. A
[0067]
First, using the X-ray CT system shown in the figure, a scout scan for determining a range for performing a helical scan or an axial scan is performed. Here, the helical scan refers to a scan in which the scan is continuously performed while moving the scan position in the z-axis direction. An axial scan refers to a scan in which a scan at a next scan position is performed for all scan positions after a scan at one scan position is completed. The scout scan refers to a scan that scans the subject in the z-axis direction while fixing the position of the X-ray tube.
[0068]
Based on the two-dimensional image obtained by the scout scan, the operator determines a range for performing the helical scan or the axial scan, and further performs a helical or axial scan within the determined range. Then, the operator designates an ROI that is an area including the inspection object from a plurality of X-ray tomographic images obtained as a result of the helical or axial scan using the
[0069]
FIG. 18 shows a state in which the ROI is set for the inspection object. In the figure, 1800 is an X-ray tomographic image, 1801 is an inspection object portion, and 1802 is an ROI. In the figure, a rectangular area including the
[0070]
Since the position of the tip of the needle in the X-ray tomogram can be obtained as described in the above embodiment, the position of the needle tip and the position of the ROI (for example, the position of the center of gravity of the ROI) in the obtained X-ray tomogram. The distance d is obtained. A message corresponding to the obtained distance d is output from the
[0071]
If the distance d is 0 ≦ d <d1, the
[0072]
Since the smaller the value of the distance d is, the closer the tip of the needle is to the ROI (closer to the inspection object), “ms2.dat” is sound data such as “still far from the ROI”, For example, “ms1.dat” is data of a sound “I entered ROI”, so that a message is set so as to notify the operator that the tip of the needle is closer to the ROI as the distance d is smaller. The above d1 may be dynamically obtained so that the tip of the needle is within the ROI when the distance d is 0 ≦ d <d1. The data in the table and the sound data of each message are stored in the
[0073]
When ROI is set for a plurality of X-ray tomographic images, processing for obtaining the distance d in the X-ray tomographic image in which the tip of the needle exists, and processing for outputting a message based on the obtained distance d. Do.
[0074]
Note that the content of the message to be notified to the operator is not limited to merely indicating that the tip of the needle is far from or close to the ROI position. It may indicate whether the tip of the head is on the top, bottom, on the right, or on the left. Further, when the tip of the needle is deviated from the position of the ROI, it may be indicated in which direction the correction should be made. In that case, it is possible to determine the plane on which the tip of the needle exists, and notify the positional relationship by comparing the existing plane (that is, the position of the tip of the needle) with the position of the ROI. I can do it. Of course, it is necessary to store the contents of the message corresponding to the positional relationship in advance in the
[0075]
Further, the content of the message is not limited to the utterance of a word, but other monotonous sounds (for example, “beep” sound) may be repeatedly output, and the repetition period may be changed according to the distance d. (For example, the smaller the distance d, the shorter the repetition period).
[0076]
By performing the above processing, the operator can puncture the needle while listening to the above message while grasping the position of the tip of the needle relative to the ROI. A needle can be punctured to the area.
[0077]
[Fourth Embodiment]
The method for obtaining the tip position of the needle used in the third embodiment is not limited to the method described in the first and second embodiments, and a simpler method may be used. That is, the three-dimensional image is binarized and the binarized result is labeled. After the labeling process, the method described in the first embodiment is used.
[0078]
[Other Embodiments]
Another object of the present invention is to supply a storage medium (or recording medium) in which a program code of software that realizes the functions of the above-described embodiments is recorded to a system or apparatus, and to perform a computer (or CPU or CPU) of the system or apparatus. (MPU) can also be realized by reading and executing the program code stored in the storage medium. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention. Further, by executing the program code read out by the computer (operation console), not only the functions of the above-described embodiments are realized, but also an operating system running on the computer based on the instruction of the program code ( OS) etc. perform part or all of the actual processing, and the functions of the above-described embodiments are realized by the processing.
[0079]
When the present invention is applied to the above-mentioned storage medium, the storage medium includes a program code corresponding to the above-described (a part or all of the flowchart shown in FIG. 9 and / or FIG. 12 and / or FIG. 13). Will be stored.
[0080]
As a storage medium for storing such a program code, for example, a floppy (registered trademark) disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a magnetic tape, a nonvolatile memory card, a ROM, or the like can be used. Furthermore, it may be downloaded via a medium called a network (for example, the Internet).
[0081]
【The invention's effect】
As described above, according to the present invention, the operator can be notified of the screen on which the tip of the needle is displayed.
[Brief description of the drawings]
FIG. 1 is a block configuration diagram of an X-ray CT system according to a first embodiment of the present invention.
FIG. 2 is a diagram showing a three-dimensional image composed of a plurality of X-ray tomographic images of a subject obtained by the X-ray CT system shown in FIG.
FIG. 3 is a diagram showing a display example of an X-ray tomographic image obtained from each detector.
FIG. 4 is a diagram illustrating a configuration of a three-dimensional labeling process.
FIG. 5 is a diagram illustrating an image estimated as a needle and an ellipsoid that includes the image.
FIG. 6 is a diagram showing a configuration of a neighborhood mask.
FIG. 7 is a diagram showing a display example in which a screen on which a needle is displayed, which is displayed on the display screen of the
FIG. 8 is a diagram showing a plane and a neighborhood mask.
FIG. 9 is a flowchart of a three-dimensional labeling process.
FIG. 10 is a diagram illustrating connection information.
FIG. 11 is a diagram showing a screen in which the position of the tip of a needle or the color of a pixel in the vicinity thereof is changed.
FIG. 12 is a flowchart of processing for changing the color of a frame of a screen on which a needle is displayed, or changing the color of a pixel at a position ahead of the needle (or a position in the vicinity thereof).
13 is a flowchart of overall processing of the
FIG. 14 is a diagram illustrating a relationship between an area estimated as a needle and an artifact.
FIG. 15 is a diagram showing a profile obtained by adding a result of a polar coordinate conversion or a Hough conversion with respect to the tip of a needle in a three-dimensional image and a certain diameter range or radial direction.
FIG. 16 is a block configuration diagram of an X-ray CT system of the present embodiment according to the third embodiment of the present invention.
FIG. 17 is a diagram illustrating an example of a table indicating a relationship between a distance d and a message.
FIG. 18 is a diagram illustrating a state in which an ROI is set for an inspection target.
Claims (20)
前記針の画像を含むX線断層像から、前記針の端点を検出する検出手段と、
前記検出手段で検出された針の端点の近傍における針先に特有のアーチファクトの有無に基づいて、前記検出手段で検出された針の端点が針の端点か否かをチェックするチェック手段と、
前記複数の表示部において、前記針の端点が表示されている表示部を特定し、当該表示部を通知する通知手段とを備えることを特徴とする画像表示装置。An image display device comprising a plurality of display units for displaying X-ray tomograms obtained by performing a fluoro scan on a subject punctured with a needle,
Detection means for detecting an end point of the needle from an X-ray tomographic image including an image of the needle;
Check means for checking whether or not the end point of the needle detected by the detection means is the end point of the needle based on the presence or absence of an artifact peculiar to the needle tip in the vicinity of the end point of the needle detected by the detection means;
An image display device comprising: a display unit that identifies a display unit on which the end point of the needle is displayed in the plurality of display units and notifies the display unit.
前記針の画像を含むX線断層像であって、当該X線断層像の集合である3次元画像を2値化して3次元ラベリング処理を施し、3次元連続領域を抽出する3次元連続領域抽出手段と、前記3次元ラベリング処理の結果に従って、前記3次元画像から前記針の3次元連続領域と推定される領域を特定し、当該領域を包含する楕円体近似情報、もしくは直方体近似情報に基づいて、各X線断層像における針の画像を判断する判断手段と、
前記判断手段で針の画像と判断された画像から針の端点を検出する検出手段と、
前記検出手段で検出された針の端点の近傍において、針先に特有のアーチファクトの有無に基づいて、前記検出手段で検出された針の端点が針の端点か否かをチェックするチェック手段と、
前記複数の表示部において、前記針の端点が表示されている表示部を特定し、当該表示部を通知する通知手段とを備えることを特徴とする画像表示装置。An image display device comprising a plurality of display units for displaying X-ray tomograms obtained by performing a fluoro scan on a subject punctured with a needle,
An X-ray tomographic image including the needle image, which is a set of X-ray tomographic images, binarized to perform a three-dimensional labeling process and extract a three-dimensional continuous region. And a region estimated as a three-dimensional continuous region of the needle from the three-dimensional image according to the result of the means and the three-dimensional labeling process, and based on ellipsoidal approximation information or rectangular parallelepiped approximation information including the region Determining means for determining a needle image in each X-ray tomographic image;
Detecting means for detecting an end point of the needle from the image determined as the needle image by the determining means;
Check means for checking whether the end point of the needle detected by the detection means is the end point of the needle based on the presence or absence of an artifact peculiar to the needle tip in the vicinity of the end point of the needle detected by the detection means;
An image display device comprising: a display unit that identifies a display unit on which the end point of the needle is displayed in the plurality of display units and notifies the display unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002318004A JP4130118B2 (en) | 2002-03-06 | 2002-10-31 | Image display apparatus, X-ray CT apparatus, program, and storage medium |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002060630 | 2002-03-06 | ||
JP2002-60630 | 2002-03-06 | ||
JP2002318004A JP4130118B2 (en) | 2002-03-06 | 2002-10-31 | Image display apparatus, X-ray CT apparatus, program, and storage medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003325503A JP2003325503A (en) | 2003-11-18 |
JP4130118B2 true JP4130118B2 (en) | 2008-08-06 |
Family
ID=29713795
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002318004A Expired - Fee Related JP4130118B2 (en) | 2002-03-06 | 2002-10-31 | Image display apparatus, X-ray CT apparatus, program, and storage medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4130118B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102004060127B4 (en) * | 2004-12-13 | 2007-05-24 | Siemens Ag | X-ray diagnostic device and method for operating an X-ray diagnostic device for determining the image quality of the X-ray diagnostic device or the visibility of clinically relevant objects determining values |
JP5840738B1 (en) * | 2014-06-18 | 2016-01-06 | 株式会社モリタ製作所 | Display method, display device, and X-ray imaging apparatus |
-
2002
- 2002-10-31 JP JP2002318004A patent/JP4130118B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2003325503A (en) | 2003-11-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7620225B2 (en) | Method for simple geometric visualization of tubular anatomical structures | |
JP4931027B2 (en) | Medical image diagnosis support apparatus and method, and program | |
JP5263995B2 (en) | Network construction apparatus and method, and program | |
JP2006246941A (en) | Image processing apparatus and vessel tracking method | |
US8385614B2 (en) | Slice image display apparatus, method and recording-medium having stored therein program | |
JP2021002338A (en) | Method and system for image segmentation and identification | |
JP2010158452A (en) | Image processing device and method, and program | |
WO2004049948A1 (en) | Computer-aided diagnostic apparatus | |
EP2196958A2 (en) | Image processing method, image processing apparatus, and image processing program | |
JPWO2006011545A1 (en) | Medical image diagnosis support method, apparatus, and image processing program | |
JPH119590A (en) | Image processing unit | |
JP6353827B2 (en) | Image processing device | |
US20100034439A1 (en) | Medical image processing apparatus and medical image processing method | |
JP2010528750A (en) | Inspection of tubular structures | |
JP2015515296A (en) | Providing image information of objects | |
JP2005157902A (en) | Image analyzing method | |
CN101563708A (en) | Apparatus and method for indicating likely computer-detected false positives in medical imaging data | |
US20140334706A1 (en) | Ultrasound diagnostic apparatus and contour extraction method | |
US9123163B2 (en) | Medical image display apparatus, method and program | |
JP2010110544A (en) | Image processing device, method and program | |
JP4922734B2 (en) | MEDICAL IMAGE GENERATION DEVICE, METHOD, AND PROGRAM | |
JP2010284405A (en) | Medical image processor, medical image diagnostic device and medical image processing program | |
JP4130118B2 (en) | Image display apparatus, X-ray CT apparatus, program, and storage medium | |
US7747053B2 (en) | Image diagnosis supporting system and method | |
JP4738236B2 (en) | Image display device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A625 | Written request for application examination (by other person) |
Free format text: JAPANESE INTERMEDIATE CODE: A625 Effective date: 20041014 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20060412 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070720 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20071022 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080509 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080520 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110530 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110530 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110530 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |