JP4130118B2 - Image display apparatus, X-ray CT apparatus, program, and storage medium - Google Patents

Image display apparatus, X-ray CT apparatus, program, and storage medium Download PDF

Info

Publication number
JP4130118B2
JP4130118B2 JP2002318004A JP2002318004A JP4130118B2 JP 4130118 B2 JP4130118 B2 JP 4130118B2 JP 2002318004 A JP2002318004 A JP 2002318004A JP 2002318004 A JP2002318004 A JP 2002318004A JP 4130118 B2 JP4130118 B2 JP 4130118B2
Authority
JP
Japan
Prior art keywords
needle
image
pixel
image display
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002318004A
Other languages
Japanese (ja)
Other versions
JP2003325503A (en
Inventor
明彦 西出
弘文 柳田
晃司 瀬川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GE Medical Systems Global Technology Co LLC
Original Assignee
GE Medical Systems Global Technology Co LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GE Medical Systems Global Technology Co LLC filed Critical GE Medical Systems Global Technology Co LLC
Priority to JP2002318004A priority Critical patent/JP4130118B2/en
Publication of JP2003325503A publication Critical patent/JP2003325503A/en
Application granted granted Critical
Publication of JP4130118B2 publication Critical patent/JP4130118B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、針を穿刺された被検体に対してフルオロスキャンを行うことで得られる複数のX線断層像を表示する表示部を複数備える画像表示装置及びその制御方法並びにプログラムコード、記憶媒体に関するものである。
【0002】
【従来の技術】
X線CTシステムの放射線断層撮像システムによる実時間(リアルタイム)透視検査(fluoroscopy)とよばれる診断においては、患者(被検体)の患部等の興味のある部位(関心領域;ROI、Region of Ineterestとよばれる)に薬を注入したり組織の一部を取り出したりする目的で針を穿刺する。操作者は、針を穿刺した後、被検体のX線断層像により、針の位置を確認している。
【0003】
上述の目的で針を用いる場合、操作者は得られるX線断層像から針の位置、特に針の先の位置を確認する必要がある。得られるX線断層像の表示例を図3に示す。
【0004】
図3(a)において301はX線管で、302は4列の検出器列である。図3(b)は図3(a)に示した4列の検出器列302を被検体の搬送方向(以下、z軸方向)にA、B、Cの3つの検出器群に分けたときに、夫々の検出器群で得られたX線断層像の表示例を示す。検出器群Bには2列の検出器列が含まれており、この検出器群からは2つの画像が得られるが、この2つの画像を合成して図3(b)の画面に表示する。
【0005】
図3(c)は図3(a)に示した4列の検出器列302を被検体の搬送方向(以下、z軸方向)にD、Eの2つの検出器群に分けたときに、夫々の検出器群で得られたX線断層像の表示例を示す。尚、検出器群D、Eには夫々2つの検出器列が含まれているが、上述の検出器群Bと同様に、含まれている2列の検出器による画像を合成してから表示する。例えば検出器群Dに属する2列の検出器から得られる2つの画像を合成して図3(c)に示す画面に表示する。
【0006】
【発明が解決しようとする課題】
しかし従来では、被検者のX線断層像は複数得られるので、特に実時間性(リアルタイム性)を要求されるCTフルオロスキャンでは、図3(b)や図3(c)に示す表示例では、どの検出器群による画面に針の画像が表示されているかを瞬間的に探すのが手間であった。また、表示されている画面が分かっても、その断層像内に針の先の位置を特定することが困難であった。
【0007】
また上述の通り、針は関心領域に対して穿刺するので、関心領域に対して正確に、且つ安全に針を穿刺するためには、操作者は針の先と関心領域との位置関係を常に把握する必要がある。
【0008】
本発明はかかる問題点に鑑みてなされたものであり、針の先が表示された画面を操作者に通知することを目的とする。
【0009】
また本発明の別の目的としては、針の先と関心領域との位置関係に応じて、操作者にメッセージを通知することを目的とする。
【0010】
【課題を解決するための手段】
本発明の目的を達成するために、例えば本発明の画像表示装置は以下の構成を備える。
【0011】
すなわち、針を穿刺された被検体に対してフルオロスキャンを行うことで得られるX線断層像を表示する表示部を複数備える画像表示装置であって、
前記針の画像を含むX線断層像から、前記針の端点を検出する検出手段と、
前記複数の表示部において、前記検出手段で検出された針の端点が表示されている表示部を特定し、当該表示部を通知する通知手段と
を備えることを特徴とする。
【0012】
本発明の目的を達成するために、例えば本発明の画像表示装置は以下の構成を備える。
【0013】
すなわち、針を穿刺された被検体に対してフルオロスキャンを行うことで得られるX線断層像を表示する表示部を複数備える画像表示装置であって、
前記針の画像を含むX線断層像であって、
当該X線断層像の集合である3次元画像を2値化して3次元ラベリング処理を施し、3次元連続領域を抽出する3次元連続領域抽出手段と、
前記3次元ラベリング処理の結果に従って、前記3次元画像から前記針の3次元連続領域と推定される領域を特定し、当該領域を包含する楕円体近似情報、もしくは直方体近似情報に基づいて前記画像が針の画像であるか否かを判断する判断手段と、
前記判断手段で針の画像と判断された画像から針の端点を検出する検出手段と、
前記複数の表示部において、前記検出手段で検出された針の端点が表示されている表示部を特定し、当該表示部を通知する通知手段と
を備えることを特徴とする。
【0014】
【発明の実施の形態】
以下添付した図面を参照して、本発明の画像表示装置を操作コンソールに適用した好適な実施形態に従って、詳細に説明する。
【0015】
[第1の実施形態]
図1は、本実施形態のX線CTシステムのブロック構成図である。図示のように本システムは、被検体へのX線照射と被検体を透過したX線を検出するためのX線検出機構を一体的に取り付けるガントリ装置100と、ガントリ装置100に対して各種動作設定を行うとともに、ガントリ装置100から出力されたデータに基づいてX線断層像を再構成し、表示する操作コンソール200により構成されている。
【0016】
ガントリ装置100は、その全体の制御をつかさどるメインコントローラ1をはじめ、以下の構成を備える。
【0017】
2は操作コンソール200との通信を行うためのインタフェース、3はテーブル12上に横たえた被検体(患者)を搬送(図面に垂直な方向で以下、z軸ともいう)するための空洞部を有するガントリであり、内部には、X線発生源であって、X線管コントローラ5により駆動制御されるX線管4、X線の照射範囲を制御するためのスリットを有するコリメータ6、コリメータ6のX線照射範囲を制御するスリット幅の調整用モータであるモータ7aが設けられている。このモータ7aの駆動はコリメータコントローラ7により制御される。
【0018】
また、ガントリ3は、被検体を透過したX線を検出する、複数列の検出器から成るマルチ検出器であるX線検出部8、およびX線検出部8で得た透過X線より得られる投影データを収集するデータ収集部9も備える。X線管4及びコリメータ6と、X線検出部8は互いに空洞部分を挟んで、すなわち、被検体を挟んで対向する位置に設けられ、その関係が維持された状態でガントリ3のまわりを回転運動するようになっている。この回動運動は、モータコントローラ11からの駆動信号により駆動される回転モータ10によって行われる。また、被検体を乗せるテーブル12は、z軸方向への搬送がなされるが、その駆動はテーブルモータ13によって行われる。
【0019】
メインコントローラ1は、インタフェース2を介して受信した各種コマンドの解析を行い、それに基づいて上記のX線管コントローラ5、コリメータコントローラ7、モータコントローラ11、テーブルモータコントローラ14、そして、データ収集部9に対し、各種制御信号を出力することになる。また、データ収集部9で収集された投影データは、データ入力インタフェース60を介して操作コンソール200に送出される。
【0020】
操作コンソール200は、いわゆるワークステーションであり、図示するように、装置全体の制御をつかさどるCPU51、ブートプログラム等を記憶しているROM52、主記憶装置として機能するRAM53をはじめ、以下の構成を備える。
【0021】
HDD54は、ハードディスク装置であって、ここにOS、後述するスキャン制御プログラムのほか、ガントリ装置100に各種指示を与えたり、ガントリ装置100より受信したデータに基づいてX線断層像を再構成するためのプログラムが格納されている。また、後述する画像表示のためのプログラムコードも格納されている。VRAM55は表示しようとするイメージデータを展開するメモリであり、ここにイメージデータ等を展開することでCRT56やCRT61に表示させることができる。なお、CRT61は針の穿刺を行う操作者がその表示画面が目視可能な位置に設けられている。
【0022】
57及び58は、各種設定を行うためのキーボードおよびマウスである。また、59はガントリ装置100と通信を行うためのインタフェースである。
【0023】
次に、以上の構成を備えるX線CTシステムを用いて、被検体のX線断層像を得、このX線断層像から針の画像を特定する方法について説明する。なお、X線断層像を得る際のスキャン方法は、実時間で断層像を表示できるフルオロスキャンを用いる。
【0024】
図2に上述のX線CTシステムにより得られる被検体の複数のX線断層像から成る3次元画像を示す。201はz軸方向に検出器の列の数だけ得られる被検体のX線断層像の集合である3次元画像であって、各画素が3次元的に配置された画像である。202は針の画像(3次元連続領域)である。以下では、3次元画像201から針の画像202を得るために、この3次元画像201に対して適当なCT値範囲で2値化した後、3次元ラベリング処理を施す。
【0025】
図4に本実施形態における3次元ラベリング装置の機能構成を示す。2値画像である3次元画像401は読み出し部402において、2次元平面(2次元平面の定義は上述の通り)毎に読み出される。セレクタ404は後述のラベリング部405において用いられる画素データを読み出し部402から選択し、ラベリング部405に出力する。ラベリング部405はセレクタ404が選択した画素データと後述の近傍マスクを用いてラベリングを行う。そして各2次元平面毎の3次元ラベリング情報を生成し、又各ラベルの接続情報(詳細は後述)を生成し、ラベル接続情報格納部406に出力する。ラベル接続情報格納部406はラベリング部405からのラベル接続情報を格納し、後述のリ・ラベリング部407に出力する。リ・ラベリング部407は、ラベル接続情報を用いて、ラベリングされた3次元画像を構成する。
【0026】
以上の機能構成を有する本実施形態の3次元ラベリング装置が行うラベリング処理について、以下説明する。
【0027】
本実施形態におけるラベリング処理に用いる3次元近傍マスクの構成を図6(a),(b)に示す。本実施形態における3次元近傍マスクは2層を成し、図6(b)に示す近傍マスクの上部(同図において矢印の方向)に図6(a)に示す近傍マスクを重ねた構成を備える。上述の2つの近傍マスクを重ねる際には、図6(a)に示す602の画素と、図6(b)に示す603の画素との位置をあわせるようにして重ねる。本実施形態では図6(c)に示すように、注目画素を中心として上9画素、周囲8画素、下9画素の計26画素を参照する26近傍の3次元近傍マスクを用いる。尚、図6(a)に示す601の画素を以下注目画素と呼称する(詳細は後述する)。
【0028】
図8に上述の本実施形態の3次元近傍マスクを用いて3次元ラベリング処理を行う際の、各2次元平面と3次元近傍マスクを示す。同図において801a、801b、801cは2次元平面(2値画像)、802は図6(b)に示した近傍マスクの上部(走査がz軸座標の大きい方向に進む場合に、z軸座標の小さい方を上部と呼ぶ)、803は図6(a)に示した近傍マスクの下部、803aは注目画素(図6での画素601)である。
【0029】
以下、2次元平面801bに含まれる各画素に対してラベリング処理を行う場合について説明するが、ここで説明するラベリング処理を3次元画像を構成するすべての2次元平面(例えば2次元平面801a,801b,801c)に対して行うことが3次元画像に対してラベリング処理を行うことを包含していることは明白である。つまりこの近傍マスクはx、y、z軸の順に3次元的に走査される。本実施形態ではまずx軸方向に走査され、次にy座標を進めてx軸方向に走査され、そのx−y平面の走査完了後に次のz軸座標に進めている。即ち図8に示すように走査1−1,1−2,1−3、、2−1,2−2,2−3、、という具合に走査される。
【0030】
まず、平面801bの左上隅のx=0,y=0,z=0の画素からx軸方向に1画素毎にスキャンを行い、画素値が1である画素を検索する。右端までスキャンを行ったら、y座標を進めた1段下の行の左端(x=0)から再度スキャンを行う。尚、スキャンを行う最初の画素の位置やスキャンの方向はこれに限定されるものではない。そして最初に見つかった(注目画素の画素値が1である)画素のラベル番号を1とする。そして以後、画素値が1である画素が見つかったら(注目画素の画素値が1であったら)、注目画素の周辺の近傍マスク内(802,803内)の既に走査済みの各画素(各マスク画素と各画素は1対1で対応する)のラベル番号を参照する。
【0031】
近傍マスク内の画素であって、注目画素以外の画素に対してラベル番号iがついていた場合、注目画素のラベル番号をiとする。
【0032】
一方、近傍マスク内の画素であって、注目画素以外の画素に対して複数のラベル番号i、k、mがついていた場合、本実施形態ではラベル番号i、k、mのうち最も小さい番号を注目画素のラベル番号とする。この場合、ラベル番号i、k、mの画素(注目画素も含む)はリ・ラベリングのために全て3次元接続しているラベルであることを示す接続情報(ラベル接続情報)を生成する。
【0033】
この接続情報について図10を用いて説明する。図10は、2次元平面1000内で同じ画像領域であるにもかかわらず、3次元走査する方向の優先度により異なるラベル番号が付けられた場合に、それらの画像領域を接続し、リ・ラベリング処理において同じラベル番号を付ける処理を説明するための図である。図10において左の図より、画像領域1001,1002は同じ画像領域であるにもかかわらず、異なるラベル番号(1,3)が付けられている。本実施形態におけるラベリング処理では、このような状態が発生することがある。上述の接続情報は領域1001と1002とが同じ画像領域に含まれるものであることを示す情報であって、その情報の記述方法は特には限定しない。この接続情報を参照することで、領域1001と領域1002とを接続して、リ・ラベリング処理で同じラベル番号(例えばお互いのラベル番号のうちで最小の番号)を付けることで、一つの領域1003(図10右の図参照)として扱うことができる。
【0034】
また、近傍マスク内の画素であって、注目画素以外の画素の値が全て0である場合、つまり、近傍マスク内の(注目画素以外の)画素のどれもラベル番号がついていない場合、既にそのラベリング処理の中で付けたラベル番号で最も大きい番号に1を加算したラベル番号を注目画素のラベル番号とする。
【0035】
以降、平面801b内の全ての画素に対してスキャンを行いながら、上述の注目画素に対するラベリング処理を行う。その結果、平面801bに対するラベリング情報を作成することができる。
【0036】
そして平面801b内の全ての画素に対して3次元ラベリング処理が終わったら、次の平面801cに移行し、平面801cに対する上述の3次元ラベリング処理を行う。その場合にはセレクタ404は平面801bの次の平面801cを読み出し部402から読み出し、ラベリング処理部405に出力することで、ラベリング処理部405は平面801b、801cを用いて平面801cに含まれる画素のラベリング処理を行う。
【0037】
以上のラベリング処理によって、注目平面(上述の例では平面801b)に含まれる注目画素(上述の例は注目画素)のラベル番号は、その上部の平面(上述の例では平面801a)内で、近傍マスクに含まれる画素の値、もしくはラベル番号によって決まるので、全ての平面に対してラベリング処理を終えた時点で、連続した3次元領域の”1”であった画像領域は平面間で接続されて同じラベル番号になっていることになる。その結果、各平面内で独立したラベリング処理を行い、後に平面間で接続して3次元領域として同じ領域に含まれる画像領域の接続を行う処理方法に比べて、少なくとも平面間の画像領域の接続を調べる処理時間の分だけ、本実施形態におけるラベリング処理は高速に行うことができる。これはリ・ラベリングも含めて2回の3次元走査により3次元的に画像領域の接続関係を参照することができることにも起因している。
【0038】
なお、最上面(z=0)の平面801aを注目平面とするときは上部の平面がいるため、上部平面を構成する全てのデータを0として扱い、処理を進めていく。最下面も同様の処理を行う。
【0039】
以上の3次元ラベリング処理のフローチャートを図9に示す。
【0040】
まず、ラベル番号の変数iを1に初期化する(ステップS901)。そして平面内の各画素を3次元走査し、画素値が1である画素を検索する(ステップS902)。画素値が1である画素を最初に見つけた場合(ステップS903)、その画素のラベル番号をi、すなわち1とする(ステップS904)。そして以降も、画素値が1である画素を検索する。注目画素の画素値が0の場合は、注目画素のラベル番号は0とする(ステップS915)。
【0041】
画素値が1である画素(注目画素が1である画素)を見つけた場合(ステップS905)、図7に示した近傍マスクを用いて、近傍マスク内で、ラベル番号がついた画素を検索する(ステップS906)。ステップS906における検索の結果、複数の画素(ここでは例えば3つとし、夫々ラベル番号がj、k、l、j<k<l)が見つかった場合、処理をステップS907に移行し、j、k、lのうちの最小のラベル番号であるjを注目画素のラベル番号とする(ステップS907)。又、ラベル番号がj、k、lの画素が3次元接続していることを示すラベル接続情報を生成する(ステップS908)。
【0042】
一方、ステップS906における検索の結果、単数の画素(ラベル番号j)が見つかった場合、処理をステップS909に移行し、このラベル番号jを注目画素のラベル番号とする(ステップS909)。また、ステップS906における検索の結果、近傍マスク内の(注目画素以外の)画素値が全て0である場合、処理をステップS910に移行し、今まで付けたラベル番号で最も大きい番号(i)に1を加算した番号(i+1)を注目画素のラベル番号とする(ステップS910)。
【0043】
そして再び、3次元走査を行う(ステップS911)。そしてステップS912における判断により、未だ全ての画素についてスキャンを行っていない場合には処理をステップS905に移行し、上述の処理を繰り返す。一方、平面内の画素全てのスキャンが終わった場合には、3次元画像内の全ての平面を走査し終えるまで繰り返す(ステップS913)。又その後、走査途中で見つかった3次元接続情報に基づき、リ・ラベリング処理を行う(ステップS914)。具体的には上述の接続情報を元に、各平面内で各画像領域の接続を行い、接続を行った各画像領域で同じラベル番号を付ける。
【0044】
なお、上述の例では3次元画像に対して直接2値化処理を行った後、3次元ラベリング処理を行ったが、まず3次元画像に対して3次元空間フィルタ(ローパスフィルタや中間値フィルタなど)を用いて3次元画像雑音除去を行って、また必要に応じて針を強調する3次元空間フィルタリングを行って、その後にラベリング処理を行った方がより良い精度でラベリング結果を得ることができる。
【0045】
以上のラベリング処理の結果、例えば図2に示した3次元画像201において、針の画像202の領域とそれ以外のノイズの領域とで異なるラベルが付けられたことになる。しかし一般にラベリングされた領域が針の画像であるか否かはこの時点では判断できない。よって次に、得られた領域が針の画像であるか否かの判断処理について説明する。
【0046】
3次元画像に含まれる針の画像は大まかに見て、楕円球体もしくは直方体の画像であると考えられる。このことを利用して、上述の3次元ラベリング処理により得られた針と推定される候補の領域を本実施形態では楕円球体の3次元領域と見なし、その特徴パラメータを抽出して、この画像が針であるか否かを判断する。
【0047】
図5(a)に針と推定される領域と、この領域を近似した楕円体を示す。501は針と推定される領域で、502はこの領域501を近似する楕円体である。この楕円を示す特徴パラメータとして、重心周りの2次モーメントを求め、それから主軸方向と3つの径L1,L2,L3を図5(b)に示すように求める。実際にはその長さは画素数として求められることになる。そしてL1,L2,L3の夫々の値、Li/Lj(i、j=1,2,3)の比が所定の基準を満たしているかの判断を行う。針であれば、図5によると、L1,L3は小さな値、L2は大きな値つまり、
L1/L3≒1
L1/L2≪1
L3/L2≪1
となるはずである。又、それ以外にもこの楕円の平均CT値、円形度、球体度などを求めて、それらが針である所定の基準を満たしているか否かの判断を行っても良い。そしてこれらの判断から、針と推定される領域(図5(a)では画像501)が針の画像であるか否かの判断を行う。そしてこの判断により、針の画像でないと判断された画像領域に対しては、ラベル番号を”0”にして針の候補から落とす。以上の処理により、3次元画像における針の3次元領域を特定することができる。
【0048】
また、ラベリングされた3次元画像を各平面に分解した場合、針の領域もしくは針の先端を含んでいる平面をラベルを参照することで特定することができる。また、上記各平面のうちいくつか(例えば図3(b)では3つ)はCRT61の表示画面上に表示されており、例えば図3(b)に示したように各検出器群からのX線断層像を表示する場合、針の領域を含んでいる平面を特定し、特定された画面のフレームの色を変えて表示することで、針を含む画面を見つけやすくすることができる。なお、図3(b)に示した3つの画像は1つのCRT61の表示画面上に表示しても良いし、CRT61が複数のCRTで構成されている場合、夫々のCRTの表示画面上に夫々の画像を表示しても良い。
【0049】
図7にCRT61の表示画面上に表示される、針の画像が表示されている画面を見やすくした表示例を示す。701,702,703は各検出器群からの画像を表示する画面であって、図3(b)に示した例では、それそれ検出器群A,B,Cから得られた画像を表示する画面である。同図において705が針の画像であるので、この画像を含む画面702のフレーム702aの色を変化させることで、操作者は針の画像が画面702に表示されていることが認識しやすくなる。
【0050】
また、3次元画像における針の先を得るために、3次元画像における針の画像に対して、例えば後述の3次元論理フィルタを用いて細線化処理を行った画像を生成する。そして細線化処理を施された針の画像に対して端点検出を行う。端点検出処理について具体的には、端点検出の3次元論理フィルタで検出された端点候補の中のうちで、楕円体近似したときの主軸方向のベクトルにほぼ合致したものを選ぶ。
【0051】
その結果、3次元画像における針の先端が特定できるので、そこから針の先端の存在する平面を特定することができる。そして平面内で針の先端の位置(もしくはその近傍でも良い)に存在する画素の値を操作者が認識しやすい色(例えば赤や黄色など)に変更する(図11のポインタ1101を参照)。その結果、操作者は、近傍に設けられたCRT61の上記表示画面を参照することで針の先端の位置を瞬間的に認識しやすくなり、穿刺の作業に専念できる。なお、上述のフレームの色を変える処理は針の先を表示している画面のフレームに対してのみ行っても良い。
【0052】
次に、上記の3次元論理フィルタについて簡単に説明する。本実施形態で細線化処理に用いる3次元論理フィルタは、3次元画像の注目画素と注目画素の26近傍の画素とを用いて、細線化処理の結果として”1”を出力すべき場合のデータパターンを論理結合する条件部と、その条件部に記述されたデータパターンに対する細線化処理結果に相当する値”1”及び、条件部に記述されたデータパターン以外のデータパターンに対する細線化処理結果結果に相当する値”0”を出力する出力部となら構成される。
【0053】
図12に上述の処理のフローチャートを示す。3次元画像が入力されると(ステップS1201)、入力された3次元画像に対して上述の3次元空間フィルタリング処理(ローパスフィルタや中間値フィルタなど)を施す(ステップS1202)。ステップS1202における処理は必要に応じて省いても良い。次に(必要に応じてフィルタ処理が施された)3次元画像に対して3次元ラベリング処理が施される(ステップS1203)。ステップS1203における3次元ラベリング処理の詳細は前述のとおりである。
【0054】
次に、針と推定される3次元領域を近似した楕円を求め、この楕円の主軸方向と3つの径や夫々の径の比や、楕円の円形度、球体度などを求める(ステップS1204)。そして、求めた特徴パラメータの結果が所定の条件を満たしているかの判断を行い(ステップS1205)、針ではないと判断された場合、処理をステップS1206にすすめ、この領域に対してラベル番号を0にして、針の候補から外す(ステップS1206)。全てのラベル番号について上記の処理を終えた後に(ステップS1207,S1211)処理をステップS1208に進め、針と判断されたラベル番号の領域に対して細線化処理を施す(ステップS1208)。又、その後に端点処理も行う。次に、画面(図3(b)では3つ、図3(c)では2つ)に表示されている画面で、針が表示されている画面を特定する(ステップS1209)。そして特定された画面のフレームの色を変更する。また、針の先の位置(もしくはその近傍の位置)の画素の色を変更する(ステップS1210)。
【0055】
また、針の先が表示された画面のフレームの色を変更する場合、ステップS1209において針の先が表示されている画面を特定し、ステップS1210で特定された画面のフレームの色を変更する。
【0056】
又、本実施形態では針の画像を表示している画面のフレーム、もしくは針の先を表示している画面のフレームを操作者が認識しやすいようにその色を変更していたが、これに限定されるものではなく、他にも例えばフレームを所定の色で点滅させたり、針の先端近辺を指すポインタを針の先端近傍に表示してもよい。
【0057】
図13にガントリ装置100と操作コンソール200の全体的な処理のフローチャートを示す。
【0058】
まず、操作コンソール200においてキーボード57,マウス58を用いてスキャン計画が入力される(ステップS1351)。そしてスキャン計画を操作コンソール200に入力し終えると(ステップS1352)、入力したスキャン計画をガントリ装置100に送信する(ステップS1353)。ガントリ装置100は操作コンソール200からスキャン計画を受信すると(ステップS1301)、受信したスキャン計画に基づいてスキャンの準備を行う(ステップS1302)。そして、ガントリ装置100は受信したスキャン計画に基づいてスキャンを行う(ステップS1303)。そしてスキャンした結果(投影データ)を操作コンソール200に対して送信する(ステップS1304)。投影データを操作コンソール200に対して送信するタイミングなどは公知の方法に従う。
【0059】
操作コンソール200は投影データを受信し(ステップS1354)、受信した投影データに基づいて公知の技術によりX線断層像を再構成する(ステップS1355)。そしてX線検出部8の各列を複数の検出器群に分割した場合の各検出器群に対応した画面に断層像を表示する(ステップS1356)。なお本ステップでは、複数の検出器からの投影データの合成処理を行い、その結果を表示する処理も含まれる。
【0060】
そして、ステップS1357において、針の画像、もしくは針の先が表示されている画面を特定し、特定した画面のフレームの色を変更する。また、本ステップにおいて、針の位置、もしくはその近傍の画素の色を変更する。本ステップにおける処理の詳細は図12に示すとおりである。
【0061】
以上のスキャン(ステップS1302)から針先表示(ステップS1357)までの処理はスキャンが連続する限り繰り返し行われる。
【0062】
尚、本実施形態では針の画像、もしくは針の先が表示された画面のフレームの色変更処理と、針の先の位置、もしくはその近傍の画素の値を変更する処理の両方を行っているが、いずれか1つの処理のみを実行しても良い。
【0063】
[第2の実施形態]
本実施形態では、第1の実施形態で説明した3次元画像における針先の位置の検出方法に加えて、検出した針先の位置をチェックする方法について説明する。
【0064】
一般に、針の先にはアーチファクト(偽像)が発生し易い。図14に針と推定される画像とアーチファクトとの関係を示す。1401は針と推定される画像で、1402はアーチファクトである。そこで、3次元画像(2次元平面でも良いが)において、アーチファクト1402を針の先端を中心に極座標変換、もしくはHough変換する。その結果は図15のようになり、ある径の範囲、もしくは径方向に加算したプロフィールを求め、その標準偏差値(θ方向の頻度のばらつき)が大きければ針の先端であると判断する。その判断結果によって、このアーチファクトが針先に特有のものであるか否かを判断することができ、同時に、このアーチファクトから針の先端か否かを特定することができる。
【0065】
[第3の実施形態]
また上記実施形態での説明による、X線断層像中における針の先の位置を特定する方法を用いれば、X線断層像中の病変部等の検査対象(関心領域)と針の先との位置関係に応じたメッセージを操作者に対して通知することが出来る。針の穿刺は検査対象に対して行われるものであるので、例えば現在の針の位置がこの検査対象に近い、遠い等のように、針の先の位置が検査対象に対してどの位置にあるのかを操作者に対して通知することは重要なことである。
【0066】
以下、このように針の先と検査対象との位置関係に応じたメッセージを操作者に対して通知する場合について説明する。なお本実施形態ではこのメッセージを音声で通知する。図16は本実施形態に係る本実施形態のX線CTシステムのブロック構成図である。図1と同じ部分については同じ番号を付けており、その説明を省略する。62はスピーカで、CPU51からの指示に応じて、RAM53に記憶されている音のデータをD/A変換し、音として出力する。
【0067】
まず同図のX線CTシステムを用いて、ヘリカルスキャン、もしくはアキシャルスキャンを行う範囲を決めるためのスカウトスキャンを行う。ここでヘリカルスキャンとはスキャン位置をz軸方向に移動させつつ、スキャンを連続的に行うスキャンを指す。またアキシャルスキャンとは、1つのスキャン位置におけるスキャンが終了してから次のスキャン位置におけるスキャンを行う作業を全てのスキャン位置に対して行うスキャンを指す。またスカウトスキャンとは、X線管の位置を固定したまま、被検体をz軸方向にスキャンするスキャンを指す。
【0068】
操作者はスカウトスキャンにより得られた2次元像に基づいて、ヘリカルスキャン、もしくはアキシャルスキャンを行う範囲を決め、決めた範囲内で更にヘリカル、もしくはアキシャルスキャンを行う。そしてヘリカル、もしくはアキシャルスキャンを行った結果得られる複数のX線断層像から検査対象を包含する領域であるROIをキーボード57やマウス58を用いて操作者が指定する。
【0069】
図18に検査対象に対してROIを設定した様子を示す。同図において1800はX線断層像で、1801が検査対象部で、1802がROIである。同図では検査対象部1801を包含する矩形領域をROIとして設定している。なおROIの形状は矩形に限定されるものではない。なおROIを指定するX線断層像は1つでも良いし、複数であっても良い。
【0070】
上記実施形態による説明の通り、X線断層像における針の先の位置を求めることが出来るので、求めたX線断層像における針の先の位置とROIの位置(例えばROIの重心の位置)との距離dを求める。そして求めた距離dに応じたメッセージをスピーカ62から出力する。距離dとメッセージとの関係を示すテーブルの一例を図17に示す。
【0071】
CPU51は同図のテーブルを参照して、距離dが0≦d<d1であれば、HDD54に保存されているメッセージデータ「ms1.dat」をRAM53に読み出し、このデータに基づいた音をスピーカ62から出力されるようにCPU51がスピーカ62を制御する。距離dがd1≦d<d2であれば、HDD54に保存されているメッセージデータ「ms2.dat」をRAM53に読み出し、このデータに基づいた音をスピーカ62から出力されるようにCPU51がスピーカ62を制御する。上記メッセージの出力は一定時間毎(例えば5秒毎)に行われる。
【0072】
距離dの値が小さければ小さいほど、針の先がROIに近い(検査対象に近い)ことを示しているので、「ms2.dat」は例えば「まだROIには遠いです」という音のデータ、「ms1.dat」は例えば「ROIに入りました」という音のデータ、というように、距離dが小さいほど、針の先がROIに近いことを操作者に通知するようにメッセージを設定する。なお、上記d1は、距離dが0≦d<d1である場合に、針の先がROI内であるように動的に求めても良い。また、上記テーブルのデータ、各メッセージの音のデータはHDD54に保存されており、必要に応じてRAM53にロードされる。
【0073】
なお、複数のX線断層像に対してROIを設定した場合には、針の先が存在するX線断層像において上記距離dを求める処理、求めた距離dに基づいてメッセージを出力する処理を行う。
【0074】
なお、操作者に対して通知するメッセージの内容は単に針の先がROIの位置に対して遠い、近いのみを示すものに限定されることなく、他にも例えば、ROIの位置に対して針の先が上にあるのか下にあるのか、右にあるのか、左にあるのかを示すものでも良い。また、針の先がROIの位置に対してずれている場合、どの方向に修正すればよいのかを示すものでも良い。その場合、針の先がどの平面に存在しているのかを求め、存在している平面(即ち針の先の位置)とROIの位置とを比較することで、その位置関係を通知することが出来る。もちろんその位置関係に応じたメッセージの内容をテーブルとして予めHDD54に保存しておく必要がある。
【0075】
またメッセージの内容は言葉の発声に限定されるものではなく、他にも例えば単調な音(例えば「ピッ」という音)を繰り返し出力し、この繰り返し周期を距離dに応じて変化させても良い(例えば距離dが小さいほど繰り返し周期を短くする)。
【0076】
以上の処理を行うことで、操作者は上記メッセージを聞くことで針の先がROIに対してどの位置にあるのかを把握しながら針の穿刺を行うことができ、より正確に且つ安全に関心領域に対して針の穿刺を行うことが出来る。
【0077】
[第4の実施形態]
上記第3の実施形態において用いる針の先の位置を求める方法は第1,2の実施形態で説明した方法に限定されるものではなく、より単純な方法を用いても良い。すなわち、3次元画像を二値化し、二値化した結果をラベリングする。ラベリング処理以降は第1の実施形態で説明した方法を用いる。
【0078】
[その他の実施形態]
また、本発明の目的は、上述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体(または記録媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによっても実現できるものである。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。また、コンピュータ(操作コンソール)が読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれる。
【0079】
本発明を上記記憶媒体に適用する場合、その記憶媒体には、先に説明した(図9、及び/又は図12、及び/又は図13に示すフローチャートの一部もしくは全部)に対応するプログラムコードが格納されることになる。
【0080】
このようなプログラムコードを格納する記憶媒体としては、例えばフロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、磁気テープ、不揮発性のメモリカード、ROM等を用いることができる。更には、ネットワーク(例えばインターネット)という媒体を介してダウンロードしても良いであろう。
【0081】
【発明の効果】
以上の説明により、本発明によって、針の先が表示された画面を操作者に通知することができる。
【図面の簡単な説明】
【図1】本発明の第1の実施形態におけるX線CTシステムのブロック構成図である。
【図2】図1に示したX線CTシステムにより得られる被検体の複数のX線断層像から成る3次元画像を示す図である。
【図3】各検出器から得られるX線断層像の表示例を示す図である。
【図4】3次元ラベリング処理の構成を示す図である。
【図5】針と推定される画像と、それを包含する楕円体を示す図である。
【図6】近傍マスクの構成を示す図である。
【図7】CRT61の表示画面上に表示されている、針が表示されている画面を見やすくした表示例を示す図である。
【図8】平面と近傍マスクを示す図である。
【図9】3次元ラベリング処理のフローチャートである。
【図10】接続情報を説明する図である。
【図11】針の先端の位置、もしくはその近傍の画素の色を変更した画面を示す図である。
【図12】針が表示されている画面のフレームの色を変更する、または、針の先の位置(もしくはその近傍の位置)の画素の色を変更する処理のフローチャートである。
【図13】ガントリ装置100と操作コンソール200の全体的な処理のフローチャートである。
【図14】針と推定される領域とアーチファクトとの関係を示す図である。
【図15】3次元画像において、アーチファクトを針の先端を中心に極座標変換、もしくはHough変換した結果と、ある径の範囲、もしくは径方向に加算して求まるプロフィールを示す図である。
【図16】本発明の第3の実施形態に係る本実施形態のX線CTシステムのブロック構成図である。
【図17】距離dとメッセージとの関係を示すテーブルの一例を示す図である。
【図18】検査対象に対してROIを設定した様子を示す図である。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image display apparatus including a plurality of display units that display a plurality of X-ray tomographic images obtained by performing a fluoro scan on a subject punctured with a needle, a control method thereof, a program code, and a storage medium. Is.
[0002]
[Prior art]
In a diagnosis called real-time fluoroscopy using a radiation tomography system of an X-ray CT system, a region of interest (region of interest; ROI, Region of Ineterest, etc.) such as an affected part of a patient (subject) The needle is punctured for the purpose of injecting drugs or taking out part of the tissue. The operator confirms the position of the needle from the X-ray tomographic image of the subject after puncturing the needle.
[0003]
When the needle is used for the above-mentioned purpose, the operator needs to confirm the position of the needle, particularly the position of the tip of the needle, from the obtained X-ray tomographic image. A display example of the obtained X-ray tomogram is shown in FIG.
[0004]
In FIG. 3A, 301 is an X-ray tube, and 302 is a detector array of four rows. FIG. 3B shows a case where the four detector rows 302 shown in FIG. 3A are divided into three detector groups A, B, and C in the direction in which the subject is conveyed (hereinafter referred to as the z-axis direction). Shows an example of display of X-ray tomograms obtained by each detector group. The detector group B includes two detector rows, and two images are obtained from this detector group. The two images are combined and displayed on the screen of FIG. .
[0005]
3 (c) shows a case where the four detector rows 302 shown in FIG. 3 (a) are divided into two detector groups D and E in the direction in which the subject is conveyed (hereinafter referred to as the z-axis direction). The example of a display of the X-ray tomogram obtained by each detector group is shown. The detector groups D and E each include two detector rows. Similar to the detector group B described above, the images from the two detector rows included are combined and displayed. To do. For example, two images obtained from two rows of detectors belonging to the detector group D are combined and displayed on the screen shown in FIG.
[0006]
[Problems to be solved by the invention]
Conventionally, however, a plurality of X-ray tomographic images of the subject can be obtained, and display examples shown in FIGS. 3 (b) and 3 (c) particularly in CT fluoroscans that require real-time characteristics (real-time characteristics). Then, it has been troublesome to instantaneously find out which detector group displays the needle image on the screen. Even if the displayed screen is known, it is difficult to specify the position of the tip of the needle in the tomographic image.
[0007]
As described above, since the needle punctures the region of interest, in order to puncture the needle accurately and safely to the region of interest, the operator always determines the positional relationship between the tip of the needle and the region of interest. It is necessary to grasp.
[0008]
The present invention has been made in view of such problems, and an object thereof is to notify an operator of a screen on which a needle tip is displayed.
[0009]
Another object of the present invention is to notify the operator of a message according to the positional relationship between the tip of the needle and the region of interest.
[0010]
[Means for Solving the Problems]
In order to achieve the object of the present invention, for example, an image display apparatus of the present invention comprises the following arrangement.
[0011]
That is, an image display device including a plurality of display units for displaying X-ray tomographic images obtained by performing a fluoro scan on a subject punctured with a needle,
Detection means for detecting an end point of the needle from an X-ray tomographic image including an image of the needle;
A notifying unit for identifying a display unit on which the end points of the needles detected by the detecting unit are displayed in the plurality of display units, and notifying the display unit;
It is characterized by providing.
[0012]
In order to achieve the object of the present invention, for example, an image display apparatus of the present invention comprises the following arrangement.
[0013]
That is, an image display device including a plurality of display units for displaying X-ray tomographic images obtained by performing a fluoro scan on a subject punctured with a needle,
An X-ray tomogram including an image of the needle,
Three-dimensional continuous region extraction means for binarizing a three-dimensional image that is a set of the X-ray tomographic images, performing a three-dimensional labeling process, and extracting a three-dimensional continuous region;
According to the result of the three-dimensional labeling process, an area estimated as a three-dimensional continuous area of the needle is identified from the three-dimensional image, and the image is based on ellipsoidal approximation information or rectangular parallelepiped approximation information including the area. A determination means for determining whether the image is a needle image;
Detecting means for detecting an end point of the needle from the image determined as the needle image by the determining means;
A notifying unit for identifying a display unit on which the end points of the needles detected by the detecting unit are displayed in the plurality of display units, and notifying the display unit;
It is characterized by providing.
[0014]
DETAILED DESCRIPTION OF THE INVENTION
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, an image display device according to the present invention will be described in detail according to a preferred embodiment applied to an operation console with reference to the attached drawings.
[0015]
[First Embodiment]
FIG. 1 is a block diagram of the X-ray CT system of this embodiment. As shown in the figure, the present system includes a gantry apparatus 100 that integrally attaches an X-ray irradiation to a subject and an X-ray detection mechanism for detecting X-rays transmitted through the subject, and various operations on the gantry apparatus 100. The operation console 200 is configured to perform setting and reconstruct and display an X-ray tomogram based on data output from the gantry apparatus 100.
[0016]
The gantry apparatus 100 has the following configuration including the main controller 1 that controls the entire system.
[0017]
2 is an interface for communicating with the operation console 200, and 3 has a cavity for transporting a subject (patient) lying on the table 12 (hereinafter also referred to as z-axis in a direction perpendicular to the drawing). The gantry includes an X-ray generation source that is driven and controlled by an X-ray tube controller 5, a collimator 6 having a slit for controlling an X-ray irradiation range, and a collimator 6. A motor 7a, which is a slit width adjusting motor for controlling the X-ray irradiation range, is provided. The driving of the motor 7a is controlled by the collimator controller 7.
[0018]
The gantry 3 is obtained from an X-ray detector 8 that is a multi-detector composed of a plurality of detectors that detect X-rays that have passed through the subject, and transmitted X-rays obtained by the X-ray detector 8. A data collection unit 9 that collects projection data is also provided. The X-ray tube 4 and the collimator 6 and the X-ray detection unit 8 are provided at positions facing each other with the cavity portion interposed therebetween, that is, with the subject interposed therebetween, and rotate around the gantry 3 while maintaining the relationship therebetween. It comes to exercise. This rotational movement is performed by the rotary motor 10 driven by a drive signal from the motor controller 11. The table 12 on which the subject is placed is transported in the z-axis direction, and is driven by the table motor 13.
[0019]
The main controller 1 analyzes various commands received via the interface 2, and based on the analysis, the X-ray tube controller 5, collimator controller 7, motor controller 11, table motor controller 14, and data collection unit 9 On the other hand, various control signals are output. The projection data collected by the data collection unit 9 is sent to the operation console 200 via the data input interface 60.
[0020]
The operation console 200 is a so-called workstation, and includes a CPU 51 that controls the entire apparatus, a ROM 52 that stores a boot program, and a RAM 53 that functions as a main storage device as shown in the figure.
[0021]
The HDD 54 is a hard disk device for giving various instructions to the gantry apparatus 100 and reconstructing an X-ray tomographic image based on data received from the gantry apparatus 100 in addition to the OS and a scan control program described later. The program is stored. In addition, a program code for displaying an image, which will be described later, is also stored. The VRAM 55 is a memory for developing image data to be displayed, and can be displayed on the CRT 56 or CRT 61 by developing the image data or the like here. The CRT 61 is provided at a position where an operator who performs needle puncture can view the display screen.
[0022]
Reference numerals 57 and 58 denote a keyboard and a mouse for performing various settings. Reference numeral 59 denotes an interface for communicating with the gantry apparatus 100.
[0023]
Next, a method for obtaining an X-ray tomographic image of a subject using the X-ray CT system having the above configuration and specifying a needle image from the X-ray tomographic image will be described. As a scanning method for obtaining an X-ray tomographic image, a fluoro scan capable of displaying a tomographic image in real time is used.
[0024]
FIG. 2 shows a three-dimensional image composed of a plurality of X-ray tomographic images of the subject obtained by the above-described X-ray CT system. Reference numeral 201 denotes a three-dimensional image which is a set of X-ray tomographic images of a subject obtained by the number of detector rows in the z-axis direction, and is an image in which each pixel is three-dimensionally arranged. Reference numeral 202 denotes a needle image (three-dimensional continuous region). In the following, in order to obtain the needle image 202 from the three-dimensional image 201, the three-dimensional image 201 is binarized within an appropriate CT value range and then subjected to a three-dimensional labeling process.
[0025]
FIG. 4 shows a functional configuration of the three-dimensional labeling apparatus according to this embodiment. A three-dimensional image 401 that is a binary image is read by the reading unit 402 for each two-dimensional plane (the definition of the two-dimensional plane is as described above). The selector 404 selects pixel data used in a labeling unit 405 described later from the reading unit 402 and outputs the selected pixel data to the labeling unit 405. A labeling unit 405 performs labeling using pixel data selected by the selector 404 and a neighborhood mask described later. Then, three-dimensional labeling information for each two-dimensional plane is generated, and connection information (details will be described later) for each label is generated and output to the label connection information storage unit 406. The label connection information storage unit 406 stores the label connection information from the labeling unit 405 and outputs the label connection information to the re-labeling unit 407 described later. The re-labeling unit 407 configures a labeled three-dimensional image using label connection information.
[0026]
A labeling process performed by the three-dimensional labeling apparatus of the present embodiment having the above functional configuration will be described below.
[0027]
6A and 6B show the configuration of the three-dimensional neighborhood mask used for the labeling process in the present embodiment. The three-dimensional neighborhood mask in this embodiment has two layers, and has a configuration in which the neighborhood mask shown in FIG. 6A is superimposed on the upper portion of the neighborhood mask shown in FIG. 6B (in the direction of the arrow in FIG. 6B). . When the above-described two neighboring masks are overlapped, they are overlapped so that the positions of the pixel 602 shown in FIG. 6A and the pixel 603 shown in FIG. In this embodiment, as shown in FIG. 6C, a 26-neighboring three-dimensional neighborhood mask is used that refers to a total of 26 pixels including the upper 9 pixels, the surrounding 8 pixels, and the lower 9 pixels around the target pixel. The pixel 601 shown in FIG. 6A is hereinafter referred to as a target pixel (details will be described later).
[0028]
FIG. 8 shows each two-dimensional plane and three-dimensional neighborhood mask when performing a three-dimensional labeling process using the above-described three-dimensional neighborhood mask of the present embodiment. In the figure, 801a, 801b, and 801c are two-dimensional planes (binary images), and 802 is the upper part of the neighborhood mask shown in FIG. 6B (when the scanning proceeds in the direction of larger z-axis coordinates, 803 is the lower part of the neighborhood mask shown in FIG. 6A, and 803a is the target pixel (pixel 601 in FIG. 6).
[0029]
Hereinafter, a case where labeling processing is performed on each pixel included in the two-dimensional plane 801b will be described. However, the labeling processing described here is performed on all the two-dimensional planes (for example, two-dimensional planes 801a and 801b) constituting the three-dimensional image. , 801c) clearly includes performing a labeling process on the three-dimensional image. That is, this neighborhood mask is scanned three-dimensionally in the order of the x, y, and z axes. In the present embodiment, scanning is first performed in the x-axis direction, then the y-coordinate is advanced, and scanning is performed in the x-axis direction, and after completion of scanning of the xy plane, the next z-axis coordinate is advanced. That is, as shown in FIG. 8, scanning is performed in the order of scanning 1-1, 1-2, 1-3, 2-1, 2-2, 2-3.
[0030]
First, scanning is performed for each pixel in the x-axis direction from the pixel of x = 0, y = 0, z = 0 in the upper left corner of the plane 801b, and a pixel having a pixel value of 1 is searched. When scanning is performed to the right end, scanning is performed again from the left end (x = 0) of the row one stage below the y coordinate. Note that the position of the first pixel to be scanned and the scan direction are not limited to this. The label number of the first pixel found (the pixel value of the pixel of interest is 1) is set to 1. Thereafter, when a pixel having a pixel value of 1 is found (if the pixel value of the pixel of interest is 1), each pixel that has already been scanned in each of the neighboring masks (802 and 803) around the pixel of interest (each mask) Refer to the label number of the pixel and each pixel one-to-one.
[0031]
If the pixel in the neighborhood mask has a label number i for a pixel other than the pixel of interest, the label number of the pixel of interest is i.
[0032]
On the other hand, when a plurality of label numbers i, k, m are attached to pixels other than the pixel of interest in the neighborhood mask, in the present embodiment, the smallest number among the label numbers i, k, m is selected. The label number of the target pixel is used. In this case, the connection information (label connection information) indicating that the pixels having the label numbers i, k, and m (including the target pixel) are all three-dimensionally connected for re-labeling is generated.
[0033]
This connection information will be described with reference to FIG. FIG. 10 shows a case where different label numbers are given according to the priority in the direction of three-dimensional scanning, even though they are the same image area in the two-dimensional plane 1000, the image areas are connected and re-labeled. It is a figure for demonstrating the process which attaches the same label number in a process. In FIG. 10, different label numbers (1, 3) are assigned to the image areas 1001 and 1002 even though they are the same image area. Such a state may occur in the labeling process in the present embodiment. The above connection information is information indicating that the areas 1001 and 1002 are included in the same image area, and the description method of the information is not particularly limited. By referring to this connection information, the region 1001 and the region 1002 are connected, and the same label number (for example, the smallest number among the label numbers of each other) is given by the re-labeling process, thereby one region 1003. (See the figure on the right side of FIG. 10).
[0034]
Further, if the values of the pixels other than the pixel of interest in the neighborhood mask are all 0, that is, if any of the pixels (other than the pixel of interest) in the neighborhood mask has no label number, A label number obtained by adding 1 to the largest label number assigned in the labeling process is set as the label number of the target pixel.
[0035]
Thereafter, the above-described labeling process is performed on the target pixel while scanning all the pixels in the plane 801b. As a result, labeling information for the plane 801b can be created.
[0036]
When the three-dimensional labeling process is completed for all the pixels in the plane 801b, the process proceeds to the next plane 801c, and the above-described three-dimensional labeling process is performed on the plane 801c. In that case, the selector 404 reads the plane 801c next to the plane 801b from the reading unit 402 and outputs it to the labeling processing unit 405, so that the labeling processing unit 405 uses the planes 801b and 801c to display the pixels included in the plane 801c. Perform the labeling process.
[0037]
As a result of the above labeling processing, the label number of the target pixel (the target pixel in the above example) included in the target plane (in the above example, plane 801b) is within the vicinity of the upper plane (the plane 801a in the above example). Since it is determined by the value of the pixel included in the mask or the label number, when the labeling process is finished for all the planes, the image area that was “1” in the continuous three-dimensional area is connected between the planes. It will be the same label number. As a result, the image areas are connected at least between the planes, compared to a processing method that performs independent labeling within each plane and then connects the planes to connect the image areas included in the same area as a three-dimensional area. The labeling process in this embodiment can be performed at a high speed by the processing time for checking the above. This is also due to the fact that the connection relationship of the image areas can be referred to three-dimensionally by two-dimensional scanning twice including re-labeling.
[0038]
Note that when the uppermost plane (z = 0) plane 801a is the target plane, there is an upper plane, so that all data constituting the upper plane is treated as 0 and the process proceeds. The same processing is performed on the bottom surface.
[0039]
FIG. 9 shows a flowchart of the above three-dimensional labeling process.
[0040]
First, the label number variable i is initialized to 1 (step S901). Then, each pixel in the plane is three-dimensionally scanned to search for a pixel having a pixel value of 1 (step S902). When a pixel having a pixel value of 1 is found first (step S903), the label number of that pixel is set to i, that is, 1 (step S904). Thereafter, a pixel having a pixel value of 1 is searched. When the pixel value of the target pixel is 0, the label number of the target pixel is set to 0 (step S915).
[0041]
When a pixel with a pixel value of 1 (a pixel with a pixel of interest of 1) is found (step S905), a pixel with a label number is searched for in the neighborhood mask using the neighborhood mask shown in FIG. (Step S906). As a result of the search in step S906, when a plurality of pixels (here, for example, three are assumed and the label numbers are j, k, l, and j <k <l) are found, the process proceeds to step S907, where j, k , L, which is the smallest label number, is set as the label number of the pixel of interest (step S907). Also, label connection information indicating that the pixels with label numbers j, k, and l are three-dimensionally connected is generated (step S908).
[0042]
On the other hand, if a single pixel (label number j) is found as a result of the search in step S906, the process proceeds to step S909, and this label number j is set as the label number of the target pixel (step S909). If the pixel values (other than the target pixel) in the neighborhood mask are all 0 as a result of the search in step S906, the process proceeds to step S910, and the largest label number assigned so far (i) is set. The number obtained by adding 1 (i + 1) is set as the label number of the target pixel (step S910).
[0043]
Then, three-dimensional scanning is performed again (step S911). If it is determined in step S912 that scanning has not been performed for all pixels, the process proceeds to step S905, and the above-described process is repeated. On the other hand, when all the pixels in the plane have been scanned, the process is repeated until all the planes in the three-dimensional image have been scanned (step S913). Thereafter, re-labeling processing is performed based on the three-dimensional connection information found during scanning (step S914). Specifically, based on the above connection information, each image area is connected within each plane, and the same label number is assigned to each connected image area.
[0044]
In the above example, the binarization process is directly performed on the three-dimensional image, and then the three-dimensional labeling process is performed. First, a three-dimensional spatial filter (such as a low-pass filter or an intermediate value filter) is applied to the three-dimensional image. ) To remove the 3D image noise, and if necessary, perform the 3D spatial filtering to emphasize the needle, and then perform the labeling process to obtain the labeling result with better accuracy. .
[0045]
As a result of the labeling process described above, for example, in the three-dimensional image 201 shown in FIG. 2, different labels are assigned to the region of the needle image 202 and the other noise region. However, it is generally not possible at this point to determine whether the labeled area is a needle image. Therefore, next, a process for determining whether or not the obtained region is a needle image will be described.
[0046]
A needle image included in the three-dimensional image is roughly considered to be an image of an ellipsoid or a cuboid. By utilizing this, the candidate area estimated as the needle obtained by the above-described three-dimensional labeling process is regarded as a three-dimensional area of an elliptical sphere in the present embodiment, and its feature parameter is extracted, and this image is extracted. It is determined whether or not it is a needle.
[0047]
FIG. 5A shows a region estimated as a needle and an ellipsoid approximating this region. An area 501 is estimated as a needle, and an ellipsoid 502 approximates the area 501. As a characteristic parameter indicating this ellipse, a secondary moment around the center of gravity is obtained, and then the principal axis direction and three diameters L1, L2, and L3 are obtained as shown in FIG. 5B. Actually, the length is obtained as the number of pixels. Then, it is determined whether the values of L1, L2, and L3 and the ratio of Li / Lj (i, j = 1, 2, 3) satisfy a predetermined standard. If it is a needle, according to FIG. 5, L1 and L3 are small values, L2 is a large value,
L1 / L3 ≒ 1
L1 / L2 << 1
L3 / L2 << 1
Should be. In addition, the average CT value, circularity, sphericity, etc. of this ellipse may be obtained to determine whether or not they satisfy a predetermined standard of being a needle. From these determinations, it is determined whether or not the region estimated as a needle (image 501 in FIG. 5A) is a needle image. As a result of this determination, the label number is set to “0” for the image area determined not to be a needle image and is dropped from the needle candidates. Through the above processing, the three-dimensional region of the needle in the three-dimensional image can be specified.
[0048]
In addition, when the labeled three-dimensional image is decomposed into each plane, the plane including the needle region or the tip of the needle can be specified by referring to the label. Some of the planes (for example, three in FIG. 3B) are displayed on the display screen of the CRT 61. For example, as shown in FIG. When displaying a line tomographic image, it is possible to easily find a screen including a needle by specifying a plane including a needle region and changing the color of the frame of the specified screen. Note that the three images shown in FIG. 3B may be displayed on the display screen of one CRT 61, and when the CRT 61 is composed of a plurality of CRTs, each of the images is displayed on the display screen of each CRT. May be displayed.
[0049]
FIG. 7 shows a display example on the display screen of the CRT 61 that makes it easy to see the screen on which the needle image is displayed. Reference numerals 701, 702, and 703 denote screens for displaying images from the respective detector groups. In the example shown in FIG. 3B, images obtained from the detector groups A, B, and C are displayed. It is a screen. In the figure, reference numeral 705 denotes a needle image. By changing the color of the frame 702a of the screen 702 including this image, the operator can easily recognize that the needle image is displayed on the screen 702.
[0050]
Further, in order to obtain the tip of the needle in the three-dimensional image, an image is generated by thinning the needle image in the three-dimensional image using, for example, a three-dimensional logic filter described later. Then, end point detection is performed on the image of the needle subjected to the thinning process. Specifically, the end point detection process selects an end point candidate detected by the end point detection three-dimensional logic filter that substantially matches the vector in the principal axis direction when the ellipsoid is approximated.
[0051]
As a result, since the tip of the needle in the three-dimensional image can be specified, the plane on which the tip of the needle exists can be specified. Then, the value of the pixel existing at the position of the tip of the needle (or the vicinity thereof) in the plane is changed to a color (for example, red or yellow) that is easy for the operator to recognize (see pointer 1101 in FIG. 11). As a result, the operator can easily recognize the position of the tip of the needle instantaneously by referring to the display screen of the CRT 61 provided in the vicinity, and can concentrate on the puncturing operation. Note that the above-described process of changing the color of the frame may be performed only on the frame of the screen displaying the tip of the needle.
[0052]
Next, the above three-dimensional logic filter will be briefly described. The three-dimensional logic filter used for the thinning process in this embodiment uses data of the pixel of interest in the three-dimensional image and pixels near 26 of the pixel of interest, and data when “1” should be output as a result of the thinning process. A condition part for logically combining patterns, a value “1” corresponding to the thinning process result for the data pattern described in the condition part, and a thinning process result for a data pattern other than the data pattern described in the condition part And an output unit that outputs a value “0” corresponding to.
[0053]
FIG. 12 shows a flowchart of the above process. When a three-dimensional image is input (step S1201), the above-described three-dimensional spatial filtering processing (such as a low-pass filter and an intermediate value filter) is performed on the input three-dimensional image (step S1202). The processing in step S1202 may be omitted as necessary. Next, a three-dimensional labeling process is performed on the three-dimensional image (filtered as necessary) (step S1203). The details of the three-dimensional labeling process in step S1203 are as described above.
[0054]
Next, an ellipse approximating the three-dimensional region estimated as a needle is obtained, and the principal axis direction of the ellipse and the ratio of the three diameters, the respective diameters, the ellipticity, the sphericity, etc. of the ellipse are obtained (step S1204). Then, it is determined whether the result of the obtained characteristic parameter satisfies a predetermined condition (step S1205). If it is determined that the result is not a needle, the process proceeds to step S1206, and the label number is set to 0 for this area. Thus, it is removed from the needle candidates (step S1206). After the above processing is completed for all label numbers (steps S1207 and S1211), the process proceeds to step S1208, and thinning processing is performed on the area of the label number determined to be a needle (step S1208). After that, end point processing is also performed. Next, on the screen displayed on the screen (three in FIG. 3B and two in FIG. 3C), the screen on which the needle is displayed is specified (step S1209). Then, the color of the frame of the specified screen is changed. Further, the color of the pixel at the tip position of the needle (or a position in the vicinity thereof) is changed (step S1210).
[0055]
When changing the frame color of the screen on which the needle tip is displayed, the screen on which the needle tip is displayed is specified in step S1209, and the color of the frame of the screen specified in step S1210 is changed.
[0056]
In this embodiment, the color of the screen frame displaying the needle image or the frame of the screen displaying the needle tip is changed so that the operator can easily recognize it. For example, the frame may blink in a predetermined color, or a pointer pointing near the tip of the needle may be displayed near the tip of the needle.
[0057]
FIG. 13 shows a flowchart of overall processing of the gantry apparatus 100 and the operation console 200.
[0058]
First, a scan plan is input on the operation console 200 using the keyboard 57 and the mouse 58 (step S1351). When the scan plan is completely input to the operation console 200 (step S1352), the input scan plan is transmitted to the gantry apparatus 100 (step S1353). When the gantry apparatus 100 receives a scan plan from the operation console 200 (step S1301), it prepares for scanning based on the received scan plan (step S1302). Then, the gantry apparatus 100 performs a scan based on the received scan plan (step S1303). Then, the scanning result (projection data) is transmitted to the operation console 200 (step S1304). The timing for transmitting the projection data to the operation console 200 follows a known method.
[0059]
The operation console 200 receives the projection data (step S1354), and reconstructs an X-ray tomogram based on the received projection data by a known technique (step S1355). Then, a tomographic image is displayed on a screen corresponding to each detector group when each column of the X-ray detection unit 8 is divided into a plurality of detector groups (step S1356). This step includes a process of combining projection data from a plurality of detectors and displaying the result.
[0060]
In step S1357, the screen on which the needle image or the tip of the needle is displayed is specified, and the frame color of the specified screen is changed. In this step, the color of the pixel at or near the position of the needle is changed. Details of the processing in this step are as shown in FIG.
[0061]
The processes from the above scan (step S1302) to the needle tip display (step S1357) are repeated as long as the scan continues.
[0062]
In the present embodiment, both the color change processing of the frame of the screen on which the needle image or the needle tip is displayed and the processing of changing the value of the pixel at the needle tip position or the vicinity thereof are performed. However, only one of the processes may be executed.
[0063]
[Second Embodiment]
In this embodiment, in addition to the method for detecting the position of the needle tip in the three-dimensional image described in the first embodiment, a method for checking the position of the detected needle tip will be described.
[0064]
In general, artifacts (false images) are likely to occur at the tip of the needle. FIG. 14 shows a relationship between an image estimated as a needle and an artifact. Reference numeral 1401 denotes an image estimated as a needle, and reference numeral 1402 denotes an artifact. Therefore, in a three-dimensional image (which may be a two-dimensional plane), the artifact 1402 is subjected to polar coordinate conversion or Hough conversion with the tip of the needle as the center. The result is as shown in FIG. 15. A profile added in a certain diameter range or radial direction is obtained, and if the standard deviation value (variation in the frequency in the θ direction) is large, it is determined that the tip of the needle is present. Based on the determination result, it is possible to determine whether or not the artifact is unique to the needle tip, and at the same time, it is possible to specify whether or not the tip of the needle is based on the artifact.
[0065]
[Third Embodiment]
Moreover, if the method for specifying the position of the tip of the needle in the X-ray tomogram described in the above embodiment is used, the inspection target (region of interest) such as a lesion in the X-ray tomogram and the tip of the needle A message corresponding to the positional relationship can be notified to the operator. Since the needle puncture is performed on the inspection target, for example, the position of the tip of the needle relative to the inspection target is located such that the current needle position is close to or far from the inspection target. It is important to notify the operator of whether or not.
[0066]
Hereinafter, a case where the operator is notified of a message according to the positional relationship between the needle tip and the inspection target will be described. In this embodiment, this message is notified by voice. FIG. 16 is a block configuration diagram of the X-ray CT system of the present embodiment according to the present embodiment. The same parts as those in FIG. 1 are denoted by the same reference numerals, and the description thereof is omitted. A speaker 62 performs D / A conversion on sound data stored in the RAM 53 in accordance with an instruction from the CPU 51, and outputs the sound as sound.
[0067]
First, using the X-ray CT system shown in the figure, a scout scan for determining a range for performing a helical scan or an axial scan is performed. Here, the helical scan refers to a scan in which the scan is continuously performed while moving the scan position in the z-axis direction. An axial scan refers to a scan in which a scan at a next scan position is performed for all scan positions after a scan at one scan position is completed. The scout scan refers to a scan that scans the subject in the z-axis direction while fixing the position of the X-ray tube.
[0068]
Based on the two-dimensional image obtained by the scout scan, the operator determines a range for performing the helical scan or the axial scan, and further performs a helical or axial scan within the determined range. Then, the operator designates an ROI that is an area including the inspection object from a plurality of X-ray tomographic images obtained as a result of the helical or axial scan using the keyboard 57 and the mouse 58.
[0069]
FIG. 18 shows a state in which the ROI is set for the inspection object. In the figure, 1800 is an X-ray tomographic image, 1801 is an inspection object portion, and 1802 is an ROI. In the figure, a rectangular area including the inspection target portion 1801 is set as the ROI. The ROI shape is not limited to a rectangle. Note that there may be one or more X-ray tomographic images specifying the ROI.
[0070]
Since the position of the tip of the needle in the X-ray tomogram can be obtained as described in the above embodiment, the position of the needle tip and the position of the ROI (for example, the position of the center of gravity of the ROI) in the obtained X-ray tomogram. The distance d is obtained. A message corresponding to the obtained distance d is output from the speaker 62. An example of a table indicating the relationship between the distance d and the message is shown in FIG.
[0071]
If the distance d is 0 ≦ d <d1, the CPU 51 reads out the message data “ms1.dat” stored in the HDD 54 to the RAM 53 and outputs a sound based on this data to the speaker 62. The CPU 51 controls the speaker 62 so that it is output from. When the distance d is d1 ≦ d <d2, the message data “ms2.dat” stored in the HDD 54 is read into the RAM 53, and the CPU 51 causes the speaker 62 to output a sound based on this data from the speaker 62. Control. The message is output every certain time (for example, every 5 seconds).
[0072]
Since the smaller the value of the distance d is, the closer the tip of the needle is to the ROI (closer to the inspection object), “ms2.dat” is sound data such as “still far from the ROI”, For example, “ms1.dat” is data of a sound “I entered ROI”, so that a message is set so as to notify the operator that the tip of the needle is closer to the ROI as the distance d is smaller. The above d1 may be dynamically obtained so that the tip of the needle is within the ROI when the distance d is 0 ≦ d <d1. The data in the table and the sound data of each message are stored in the HDD 54 and loaded into the RAM 53 as necessary.
[0073]
When ROI is set for a plurality of X-ray tomographic images, processing for obtaining the distance d in the X-ray tomographic image in which the tip of the needle exists, and processing for outputting a message based on the obtained distance d. Do.
[0074]
Note that the content of the message to be notified to the operator is not limited to merely indicating that the tip of the needle is far from or close to the ROI position. It may indicate whether the tip of the head is on the top, bottom, on the right, or on the left. Further, when the tip of the needle is deviated from the position of the ROI, it may be indicated in which direction the correction should be made. In that case, it is possible to determine the plane on which the tip of the needle exists, and notify the positional relationship by comparing the existing plane (that is, the position of the tip of the needle) with the position of the ROI. I can do it. Of course, it is necessary to store the contents of the message corresponding to the positional relationship in advance in the HDD 54 as a table.
[0075]
Further, the content of the message is not limited to the utterance of a word, but other monotonous sounds (for example, “beep” sound) may be repeatedly output, and the repetition period may be changed according to the distance d. (For example, the smaller the distance d, the shorter the repetition period).
[0076]
By performing the above processing, the operator can puncture the needle while listening to the above message while grasping the position of the tip of the needle relative to the ROI. A needle can be punctured to the area.
[0077]
[Fourth Embodiment]
The method for obtaining the tip position of the needle used in the third embodiment is not limited to the method described in the first and second embodiments, and a simpler method may be used. That is, the three-dimensional image is binarized and the binarized result is labeled. After the labeling process, the method described in the first embodiment is used.
[0078]
[Other Embodiments]
Another object of the present invention is to supply a storage medium (or recording medium) in which a program code of software that realizes the functions of the above-described embodiments is recorded to a system or apparatus, and to perform a computer (or CPU or CPU) of the system or apparatus. (MPU) can also be realized by reading and executing the program code stored in the storage medium. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention. Further, by executing the program code read out by the computer (operation console), not only the functions of the above-described embodiments are realized, but also an operating system running on the computer based on the instruction of the program code ( OS) etc. perform part or all of the actual processing, and the functions of the above-described embodiments are realized by the processing.
[0079]
When the present invention is applied to the above-mentioned storage medium, the storage medium includes a program code corresponding to the above-described (a part or all of the flowchart shown in FIG. 9 and / or FIG. 12 and / or FIG. 13). Will be stored.
[0080]
As a storage medium for storing such a program code, for example, a floppy (registered trademark) disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a magnetic tape, a nonvolatile memory card, a ROM, or the like can be used. Furthermore, it may be downloaded via a medium called a network (for example, the Internet).
[0081]
【The invention's effect】
As described above, according to the present invention, the operator can be notified of the screen on which the tip of the needle is displayed.
[Brief description of the drawings]
FIG. 1 is a block configuration diagram of an X-ray CT system according to a first embodiment of the present invention.
FIG. 2 is a diagram showing a three-dimensional image composed of a plurality of X-ray tomographic images of a subject obtained by the X-ray CT system shown in FIG.
FIG. 3 is a diagram showing a display example of an X-ray tomographic image obtained from each detector.
FIG. 4 is a diagram illustrating a configuration of a three-dimensional labeling process.
FIG. 5 is a diagram illustrating an image estimated as a needle and an ellipsoid that includes the image.
FIG. 6 is a diagram showing a configuration of a neighborhood mask.
FIG. 7 is a diagram showing a display example in which a screen on which a needle is displayed, which is displayed on the display screen of the CRT 61, is easy to see.
FIG. 8 is a diagram showing a plane and a neighborhood mask.
FIG. 9 is a flowchart of a three-dimensional labeling process.
FIG. 10 is a diagram illustrating connection information.
FIG. 11 is a diagram showing a screen in which the position of the tip of a needle or the color of a pixel in the vicinity thereof is changed.
FIG. 12 is a flowchart of processing for changing the color of a frame of a screen on which a needle is displayed, or changing the color of a pixel at a position ahead of the needle (or a position in the vicinity thereof).
13 is a flowchart of overall processing of the gantry apparatus 100 and the operation console 200. FIG.
FIG. 14 is a diagram illustrating a relationship between an area estimated as a needle and an artifact.
FIG. 15 is a diagram showing a profile obtained by adding a result of a polar coordinate conversion or a Hough conversion with respect to the tip of a needle in a three-dimensional image and a certain diameter range or radial direction.
FIG. 16 is a block configuration diagram of an X-ray CT system of the present embodiment according to the third embodiment of the present invention.
FIG. 17 is a diagram illustrating an example of a table indicating a relationship between a distance d and a message.
FIG. 18 is a diagram illustrating a state in which an ROI is set for an inspection target.

Claims (20)

針を穿刺された被検体に対してフルオロスキャンを行うことで得られるX線断層像を表示する表示部を複数備える画像表示装置であって、
前記針の画像を含むX線断層像から、前記針の端点を検出する検出手段と、
前記検出手段で検出された針の端点の近傍における針先に特有のアーチファクトの有無に基づいて、前記検出手段で検出された針の端点が針の端点か否かをチェックするチェック手段と、
前記複数の表示部において、前記針の端点が表示されている表示部を特定し、当該表示部を通知する通知手段とを備えることを特徴とする画像表示装置。
An image display device comprising a plurality of display units for displaying X-ray tomograms obtained by performing a fluoro scan on a subject punctured with a needle,
Detection means for detecting an end point of the needle from an X-ray tomographic image including an image of the needle;
Check means for checking whether or not the end point of the needle detected by the detection means is the end point of the needle based on the presence or absence of an artifact peculiar to the needle tip in the vicinity of the end point of the needle detected by the detection means;
An image display device comprising: a display unit that identifies a display unit on which the end point of the needle is displayed in the plurality of display units and notifies the display unit.
針を穿刺された被検体に対してフルオロスキャンを行うことで得られるX線断層像を表示する表示部を複数備える画像表示装置であって、
前記針の画像を含むX線断層像であって、当該X線断層像の集合である3次元画像を2値化して3次元ラベリング処理を施し、3次元連続領域を抽出する3次元連続領域抽出手段と、前記3次元ラベリング処理の結果に従って、前記3次元画像から前記針の3次元連続領域と推定される領域を特定し、当該領域を包含する楕円体近似情報、もしくは直方体近似情報に基づいて、各X線断層像における針の画像を判断する判断手段と、
前記判断手段で針の画像と判断された画像から針の端点を検出する検出手段と、
前記検出手段で検出された針の端点の近傍において、針先に特有のアーチファクトの有無に基づいて、前記検出手段で検出された針の端点が針の端点か否かをチェックするチェック手段と、
前記複数の表示部において、前記針の端点が表示されている表示部を特定し、当該表示部を通知する通知手段とを備えることを特徴とする画像表示装置。
An image display device comprising a plurality of display units for displaying X-ray tomograms obtained by performing a fluoro scan on a subject punctured with a needle,
An X-ray tomographic image including the needle image, which is a set of X-ray tomographic images, binarized to perform a three-dimensional labeling process and extract a three-dimensional continuous region. And a region estimated as a three-dimensional continuous region of the needle from the three-dimensional image according to the result of the means and the three-dimensional labeling process, and based on ellipsoidal approximation information or rectangular parallelepiped approximation information including the region Determining means for determining a needle image in each X-ray tomographic image;
Detecting means for detecting an end point of the needle from the image determined as the needle image by the determining means;
Check means for checking whether the end point of the needle detected by the detection means is the end point of the needle based on the presence or absence of an artifact peculiar to the needle tip in the vicinity of the end point of the needle detected by the detection means;
An image display device comprising: a display unit that identifies a display unit on which the end point of the needle is displayed in the plurality of display units and notifies the display unit.
更に、前記3次元画像に対して画像ノイズ除去を行う3次元空間フィルタリング処理を施す3次元空間フィルタリング処理手段を備えることを特徴とする請求項2に記載の画像表示装置。 The image display apparatus according to claim 2, further comprising a three-dimensional spatial filtering processing unit that performs a three-dimensional spatial filtering process for removing image noise on the three-dimensional image. 前記3次元空間フィルタリング処理手段が前記フィルタリング処理に用いるフィルタとしては、ローパスフィルタ、中間値フィルタ、最大値フィルタ、最小値フィルタを含むことを特徴とする請求項3に記載の画像表示装置。 The image display apparatus according to claim 3, wherein the three-dimensional spatial filtering processing means includes a low-pass filter, an intermediate value filter, a maximum value filter, and a minimum value filter as filters used for the filtering process. 前記3次元連続領域抽出手段は、注目平面に含まれる注目画素に対してラベリングを行う場合、前記注目画素を含む平面、及び当該平面に隣接する平面において、前記注目画素近傍の画素群を前記近傍マスクを用いて参照し、前記注目画素の値が1で、前記近傍マスク内でラベル番号が付けられている画素の数が複数種の場合、前記複数の画素のラベル番号のうち、最小のラベル番号を前記注目画素のラベル番号とし、前記注目画素の値が1で、前記近傍マスク内でラベル番号が付けられている画素の数が1種の場合、前記画素のラベル番号を前記注目画素のラベル番号とし、前記注目画素の値が1で、前記近傍マスク内でラベル番号が付けられている画素が存在しない場合、既に用いたラベル番号で最も大きいラベル番号に1を加算した数を前記注目画素のラベル番号とすることを特徴とする請求項2又は3に記載の画像表示装置。When the three-dimensional continuous region extraction unit performs labeling on a target pixel included in a target plane, the pixel group in the vicinity of the target pixel in the plane including the target pixel and a plane adjacent to the plane are displayed in the vicinity. Reference is made using a mask, and when the value of the target pixel is 1 and the number of pixels labeled in the neighborhood mask is plural, the smallest label among the label numbers of the plurality of pixels When the number is the label number of the pixel of interest, the value of the pixel of interest is 1, and the number of pixels labeled in the neighborhood mask is one, the label number of the pixel of interest is The number obtained by adding 1 to the largest label number already used when the value of the pixel of interest is 1 and the pixel with the label number in the neighborhood mask does not exist as the label number The image display apparatus according to claim 2 or 3, characterized in that the label number of the pixel of interest. 前記3次元連続領域抽出手段は、前記近傍マスク内でラベル番号が付けられている画素の数が複数の場合、前記複数の画素が接続していることを示す接続情報を生成することを特徴とする請求項5に記載の画像表示装置。 The three-dimensional continuous region extracting means generates connection information indicating that the plurality of pixels are connected when the number of pixels labeled in the neighborhood mask is plural. The image display device according to claim 5. 更に、前記接続情報に基づいて、前記複数の画素を接続し、前記複数の画素のラベル番号を同じ番号にする接続手段を備えることを特徴とする請求項6に記載の画像表示装置。 The image display apparatus according to claim 6, further comprising a connection unit that connects the plurality of pixels based on the connection information and sets the label numbers of the plurality of pixels to the same number. 前記近傍マスクは注目画素を含むX線断層像、及び当該X線断層像に隣接するX線断層像に渡る形状であって、前記注目画素近傍の画素群を参照可能な3次元形状の近傍マスクであることを特徴とする請求項5乃至7のいずれか1項に記載の画像表示装置。 The neighboring mask has a shape extending over an X-ray tomographic image including the pixel of interest and an X-ray tomographic image adjacent to the X-ray tomographic image, and is a three-dimensional neighborhood mask that can refer to a pixel group near the pixel of interest. The image display device according to claim 5, wherein the image display device is an image display device. 前記判断手段は前記楕円体近似情報の長径と短径に基づいて、針の3次元連続領域と推定される領域が針であるか否かの判断を行うことを特徴とする請求項2に記載の画像表示装置。 3. The determination unit according to claim 2, wherein the determination unit determines whether a region estimated as a three-dimensional continuous region of the needle is a needle based on a major axis and a minor axis of the ellipsoid approximate information. Image display device. 前記判断手段は、前記長径、短径、短径と長径の比、円形度、球体度のうち、少なくとも一つを求め、求めた結果を用いて針の3次元連続領域と推定される領域が針の領域であるか否かの判断を行うことを特徴とする請求項9に記載の画像表示装置。 The determination means obtains at least one of the major axis, minor axis, ratio of minor axis to major axis, circularity, sphericity, and using the obtained result, a region estimated as a three-dimensional continuous region of the needle is obtained. The image display device according to claim 9, wherein it is determined whether or not the region is a needle region. 前記判断手段により、針であると判断された3次元連続領域に対して、対応するラベル番号を針の表示色にデータ変換することを特徴とする請求項2に記載の画像表示装置。 3. The image display device according to claim 2, wherein for the three-dimensional continuous area determined to be a needle by the determination means, the corresponding label number is converted into a display color of the needle. 前記検出手段は、前記判断手段で針の画像と判断された画像に対して、細線化処理を施した後、針の端点を検出することを特徴とする請求項2に記載の画像表示装置。 The image display apparatus according to claim 2, wherein the detection unit detects an end point of the needle after performing thinning processing on the image determined as the needle image by the determination unit. 前記通知手段は、前記検出手段で検出された針の端点が表示されている表示部のフレームの色を変更することを特徴とする請求項1乃至12のいずれか1項に記載の画像表示装置。The notification means, the image display apparatus according to any one of claims 1 to 12, characterized in that to change the color of the frame of the display unit end point of the needle detected by the detection means is displayed . 前記通知手段は、前記検出手段で検出された針の端点が表示されている表示部のフレームの色を所定の色で点滅させることを特徴とする請求項1乃至12のいずれか1項に記載の画像表示装置。The said notification means blinks the color of the flame | frame of the display part in which the end point of the needle | hook detected by the said detection means is displayed by predetermined color, It is any one of Claim 1 thru | or 12 characterized by the above-mentioned. Image display device. 前記通知手段は更に、前記検出手段で検出された針の端点が表示されている表示部において、前記針の端点の位置、もしくはその近傍の画素の色を変更することを特徴とする請求項1乃至14のいずれか1項に記載の画像表示装置。2. The notification unit further changes the position of the end point of the needle or the color of a pixel in the vicinity thereof on a display unit on which the end point of the needle detected by the detection unit is displayed. 15. The image display device according to any one of 1 to 14 . 前記チェック手段は、針先に特有のアーチファクトの有無を、前記X線断層像の針の端点候補を中心に極座標変換、もしくはHough変換し、各針の端点候補まわりのCT値の標準偏差に基づき判断することを特徴とする請求項1乃至16のいずれか1項に記載の画像表示装置。The check means performs a polar coordinate conversion or a Hough conversion on the needle end point candidates of the X-ray tomogram based on the standard deviation of the CT values around the needle end point candidates for the presence or absence of unique artifacts in the needle tip. The image display device according to claim 1, wherein the determination is made . 更に、X線断層像に設けられた注目領域と前記検出手段により検出された針の端点との位置関係に応じた音声メッセージを通知する音声通知手段を備えることを特徴とする請求項1乃至16のいずれか1項に記載の画像表示装置。Further, it claims 1 to 16, characterized in that it comprises a voice notification unit for notifying a voice message corresponding to the positional relationship between the end points of the detected needle by the attention area and the detection means provided on the X-ray tomographic image The image display device according to any one of the above. 請求項1乃至17のいずれか1項に記載の画像表示装置を備えたことを特徴とするX線CT装置。An X-ray CT apparatus comprising the image display apparatus according to claim 1. コンピュータを請求項1乃至17のいずれか1項に記載の画像表示装置として機能させることを特徴とするプログラム。A program for causing a computer to function as the image display device according to any one of claims 1 to 17 . 請求項19に記載のプログラムを格納することを特徴とするコンピュータ読み取り可能な記憶媒体。A computer-readable storage medium storing the program according to claim 19 .
JP2002318004A 2002-03-06 2002-10-31 Image display apparatus, X-ray CT apparatus, program, and storage medium Expired - Fee Related JP4130118B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002318004A JP4130118B2 (en) 2002-03-06 2002-10-31 Image display apparatus, X-ray CT apparatus, program, and storage medium

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2002060630 2002-03-06
JP2002-60630 2002-03-06
JP2002318004A JP4130118B2 (en) 2002-03-06 2002-10-31 Image display apparatus, X-ray CT apparatus, program, and storage medium

Publications (2)

Publication Number Publication Date
JP2003325503A JP2003325503A (en) 2003-11-18
JP4130118B2 true JP4130118B2 (en) 2008-08-06

Family

ID=29713795

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002318004A Expired - Fee Related JP4130118B2 (en) 2002-03-06 2002-10-31 Image display apparatus, X-ray CT apparatus, program, and storage medium

Country Status (1)

Country Link
JP (1) JP4130118B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004060127B4 (en) * 2004-12-13 2007-05-24 Siemens Ag X-ray diagnostic device and method for operating an X-ray diagnostic device for determining the image quality of the X-ray diagnostic device or the visibility of clinically relevant objects determining values
JP5840738B1 (en) * 2014-06-18 2016-01-06 株式会社モリタ製作所 Display method, display device, and X-ray imaging apparatus

Also Published As

Publication number Publication date
JP2003325503A (en) 2003-11-18

Similar Documents

Publication Publication Date Title
US7620225B2 (en) Method for simple geometric visualization of tubular anatomical structures
JP4931027B2 (en) Medical image diagnosis support apparatus and method, and program
JP5263995B2 (en) Network construction apparatus and method, and program
JP2006246941A (en) Image processing apparatus and vessel tracking method
US8385614B2 (en) Slice image display apparatus, method and recording-medium having stored therein program
JP2021002338A (en) Method and system for image segmentation and identification
JP2010158452A (en) Image processing device and method, and program
WO2004049948A1 (en) Computer-aided diagnostic apparatus
EP2196958A2 (en) Image processing method, image processing apparatus, and image processing program
JPWO2006011545A1 (en) Medical image diagnosis support method, apparatus, and image processing program
JPH119590A (en) Image processing unit
JP6353827B2 (en) Image processing device
US20100034439A1 (en) Medical image processing apparatus and medical image processing method
JP2010528750A (en) Inspection of tubular structures
JP2015515296A (en) Providing image information of objects
JP2005157902A (en) Image analyzing method
CN101563708A (en) Apparatus and method for indicating likely computer-detected false positives in medical imaging data
US20140334706A1 (en) Ultrasound diagnostic apparatus and contour extraction method
US9123163B2 (en) Medical image display apparatus, method and program
JP2010110544A (en) Image processing device, method and program
JP4922734B2 (en) MEDICAL IMAGE GENERATION DEVICE, METHOD, AND PROGRAM
JP2010284405A (en) Medical image processor, medical image diagnostic device and medical image processing program
JP4130118B2 (en) Image display apparatus, X-ray CT apparatus, program, and storage medium
US7747053B2 (en) Image diagnosis supporting system and method
JP4738236B2 (en) Image display device

Legal Events

Date Code Title Description
A625 Written request for application examination (by other person)

Free format text: JAPANESE INTERMEDIATE CODE: A625

Effective date: 20041014

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060412

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070720

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071022

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080509

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080520

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110530

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110530

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110530

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees