JP4352449B2 - Image display device - Google Patents

Image display device Download PDF

Info

Publication number
JP4352449B2
JP4352449B2 JP2003030575A JP2003030575A JP4352449B2 JP 4352449 B2 JP4352449 B2 JP 4352449B2 JP 2003030575 A JP2003030575 A JP 2003030575A JP 2003030575 A JP2003030575 A JP 2003030575A JP 4352449 B2 JP4352449 B2 JP 4352449B2
Authority
JP
Japan
Prior art keywords
image
region
tomographic
tomographic images
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003030575A
Other languages
Japanese (ja)
Other versions
JP2004141612A (en
JP2004141612A5 (en
Inventor
良洋 後藤
哲彦 高橋
朋洋 永尾
崇 白旗
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Healthcare Manufacturing Ltd
Original Assignee
Hitachi Medical Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Medical Corp filed Critical Hitachi Medical Corp
Priority to JP2003030575A priority Critical patent/JP4352449B2/en
Publication of JP2004141612A publication Critical patent/JP2004141612A/en
Publication of JP2004141612A5 publication Critical patent/JP2004141612A5/ja
Application granted granted Critical
Publication of JP4352449B2 publication Critical patent/JP4352449B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Magnetic Resonance Imaging Apparatus (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は領域抽出方法、領域表示方法及び画像表示装置に係り、特にMR画像、CT画像をコンピュータ処理して心臓の心室、心筋などの領域を抽出し、これを表示する領域抽出方法、領域表示方法及び画像表示装置に関する。
【0002】
また、本発明は画像表示方法及び装置に係り、特に断層像等の医用画像の表示を行う画像表示方法及び装置に関するものである。
【0003】
さらに、本発明は領域抽出方法及び装置に係り、特に画像から特定の領域を抽出する領域抽出方法及び装置に関するものである。
【0004】
【従来の技術】
従来の心臓の心壁厚の変化等を表示する方法として、ブルズアイ表示が使用されていた(例えば、非特許文献1参照)。
【0005】
ブルズアイ表示とは、心臓の機能情報を同心円状のマップで表したものであり、深度と角度からなる極座標上に展開するという手法である。この深度とは、心臓の断面位置を表すものであり、プルズアイ表示部の中心からの距離が深度に対応している。
【0006】
ブルズアイ表示部に記される値は、自動抽出された内膜面の近傍、例えば面から1cm以内の画素の中の最大値とか平均値とかの代表値であり、心臓壁運動の様子を組織ドプラの速度値を基にして求めたものや、造影剤を使用したハーモニック法による染影を基にして求めたものが用いられる。
【0007】
また、MRI装置やCT装置等の医用装置で取得された断層像から特定の領域を抽出する領域抽出方法及び装置として、図24の例に示すように、操作者が断層像中の代表点を指定し、該指定された代表点に基づいて領域を抽出するものが知られている。
【0008】
【非特許文献1】
医療と画像の総合情報誌 インナービジョン(6・9)2001(第15頁〜第18頁)
【0009】
【発明が解決しようとする課題】
しかしながら、上記ブルズアイ表示は、心臓の形を直接表現したものではなく、直感的には分かりにくいという問題があった。
【0010】
さらに、上記ブルズアイ表示では、心筋厚等、断層像の特徴量が同心円状のマップで表されるため、マップ上の位置と実際の心臓上の位置との対応関係が分かりにくく、マップ上に表示された心筋厚等、断層像の特徴量を把握しづらい。
【0011】
このため、観察者が心筋梗塞などの病変部等、断層像中の異常部分を識別することが困難である。
【0012】
また、従来の技術による領域抽出では、操作者が自ら代表点を指定しているが、このような操作は操作者にとって煩雑なものであり、代表点を基にして行う領域抽出を速やかに実施することは困難である。
【0013】
本発明の目的は、観察対象の断層像から心臓の心室や心筋などの領域を正確に抽出することができ、また、抽出した各領域に基づいて心筋の厚さなどが反映された画像を表示することができる領域抽出方法、領域表示方法及び画像表示装置を提供することにある。
【0014】
本発明の他の目的は、観察者が画像の特徴量を迅速に把握でき、画像中の異常部分を容易に識別できる画像表示方法及び装置を提供することにある。
【0015】
本発明のさらに他の目的は、操作者が代表点を指定することなく領域抽出を行う領域抽出方法及び装置を提供することにある。
【0016】
【課題を解決するための手段】
前記目的を達成するために請求項1に係る画像表示装置は、観察対象のスライス位置の異なる複数の断層像を取得する手段と、前記複数の断層像をそれぞれ閾値処理して二値化画像を得る手段と、前記複数の断層像の各々に対して得られた二値化画像から形状を示す情報に基づいて第1の領域を選別する手段と、前記複数の断層像の各々に対して得られた二値化画像から選別された第1の領域の間の相関を求め、所定の断層像の範囲にわたって共通する領域を求める手段と、前記複数の断層像の各々に対して求められた共通する領域の重心を求め、重心を中心とした所定の領域を限定する手段と、前記複数の断層像の各々に対して求められた共通する領域の重心を中心とした所定の領域内から閾値処理により第2の領域を抽出する手段と、を含むことを特徴とする。
【0017】
前記二値化画像は、血管やノイズ等によって各領域が繋がってしまう場合があるため、前記選別ステップの前に繋がってしまっている領域どうしを切断するステップを設けることが好ましい。
【0018】
前記第1の領域を求める手段では、各二値化画像ごとに選別した領域のアンド条件を求め、アンド条件が成立する領域を求める領域とする。尚、全ての二値化画像において、アンド条件が成立する領域に限らず、大部分の二値化画像において、アンド条件が成立する領域でもよい。
【0019】
上記のようにして第1の領域が求まると、この第1の領域を含む所定の領域を限定する。前記限定する所定の領域としては、例えば、第1の領域の中心から観察対象の大きさに応じて予め決めた半径内の領域としたり、第1の領域から所定の肉厚だけ大きい領域とする。そして、前記所定の領域から形状等を基に第1の領域と異なる第2の領域を抽出するようにしている。
【0020】
観察対象を心臓とした場合には、前記第1の領域は心室に対応し、第2の領域はその心室の周りの心筋に対応する。心筋は、心室の周囲にあるため、心室の縁の画素の周辺に心筋(第2の領域)に含まれる画素があるかどうかを判定する。そして、心室の全ての縁の画素において、各画素の周辺に心筋が含まれていると判定される割合が或る大きさ以上ある場合には、心室(第1の領域)と心筋(第2の領域)とは正しく抽出されたと判定する。
【0021】
請求項2に係る画像表示装置は、請求項1に記載の画像表示装置において、前記抽出された複数の断層像の第2の領域の外周画像を、所定の投影面に投影するとともに、前記第2の領域の厚さを示す変移長の方向を陰影付けのパラメータの1つとする陰影付けのアルゴリズムによって陰影付けした擬似三次元画像、又は前記第2の領域の厚さを示す変移長に基づいて前記投影した画像上に前記第2の領域の厚さの分布を示すため等厚線を表示する画像表示手段をさらに含むことを特徴とする。
【0022】
即ち、前記第1の領域の厚さの変化が大きい部分で前記変移長の方向が大きく変化し、これが擬似三次元画像における陰影付けに反映される。
【0039】
【発明の実施の形態】
(第一の実施の形態)
以下添付図面に従って本発明に係る領域抽出方法、領域表示方法及び画像表示装置の好ましい実施の形態について詳説する。
【0040】
本発明に係る領域抽出方法は、MRI装置やX線CT装置等の三次元計測の可能な画像診断装置によって取得した複数の断層像から所望の領域(この実施の形態では、心室の領域Aとその周囲の心筋の領域B)を抽出する方法である。
【0041】
図1は本発明に係る領域抽出方法の実施の形態を示すフローチャートである。〔ステップS10〕
観察対象のスライス位置の異なる複数の断層像を、予め設定した閾値により閾値処理し、複数の二値化画像を得る。尚、断層像の陰影の境界のみをハイレベル「1」、それ以外を「0」としてもよい。
【0042】
図2のa0,b0,…n0は、それぞれスライス位置の異なる複数の二値化画像である。
〔ステップS11〕
二値化画像は、血管部分やノイズ等によって複数の領域が連結している場合があるため、この場合には、領域間を切断する。
【0043】
この切断方法について図3を参照しながら説明する。
【0044】
まず、図3(a)において、領域1の重心位置を求める。この重心を中心にして動径2を矢印3の方向に回転させながら、領域1における最小長Rmin を求める。この最小長Rmin に定数を乗じた値を切断長Lとする。この切断長Lに基づいて図3(b)に示すように血管部分の切断を行う。
【0045】
即ち、横(X軸)方向又は縦(Y軸)方向において切断長Lに対応した画素数の判定領域4、5を設定し、領域1、1a、1b(1a、1bは血管陰影の領域)が判定領域4、5よりも小さいか否かの判定を行う。図3(b)における横方向の判定領域4の場合、画素x1の画素値は「1」であり、画素xcの画素値は「0」であるため、この判定領域4は切断の対象とはならずに、画素x1〜xcの画素はそのまま残される。
【0046】
一方、縦方向の判定領域5の場合、画素y1及び画素ycの画素値は共に「0」であるため、この判定領域5は切断の対象となり、画素y1〜ycの画素値は「0」に変換される。以上の処理を判定領域4、5を移動させながら行うことで、血管陰影の領域1a,1bが切断され、領域1のみが残されるようになる。
〔ステップS12〕
心室は他の臓器に比べて円形に近いので、形を利用して心室と思われる領域を選別する。
【0047】
この選別方法について図4を参照しながら説明する。
【0048】
図4(a)において、領域6の中心付近を回転中心として角度θ=0°からθ=360°まで約1°ずつ所定長の半径を回転させる。このときに、その半径が各角度において陰影と交わる長さを求める。求められた長さの最小値をrとする。即ち、領域6の短径rを求める。この短径rで領域6の面積Sを除算する。即ち、S/r2 を求める。この値と所定値と比較して領域6が円形に近いかどうかを判別する。領域6が円形の場合には、図4(b)に示すようにS/r2 の値はπとなり、正方形の場合には、図4(c)に示すようにS/r2 の値は4となる。また、図4(d)に示すように縦横比が1:2の長方形の場合には、S/r2 の値は8となる。
【0049】
従って、各領域のS/r2 の値を求め、例えば、その値が8以下のものだけを選別することで、心室と思われる領域の選別が可能となる。
【0050】
図2のa1,b1,…n1は、それぞれ選別後の領域a1t1, a1t2、領域b1t1,b2t2 、領域n1t1,n1t2,n1t3を示している。
〔ステップS13〕
上記のようにして選別した各断層像ごとの領域の相関(アンド)を求め、共通領域を取り出す。尚、このようにして取り出される領域は、全ての断層像にわたって共通する領域に限らず、ある程度の断層像の範囲にわたって共通する領域も含む。
〔ステップS14〕
各画像において、取り出した共通領域と相関がない領域は消去する。これにより、各画像において、心室の領域のみが抽出される。
〔ステップS15〕
取り出した共通領域の重心を求め、図5(a)に示すように重心を中心として一定半径rの領域を限定する。一定半径rは、観察対象の大きさに応じて観察対象が含まれるように予め設定された半径である。
【0051】
尚、限定領域は、ステップS14によって抽出された心室の外周に対して心筋の厚さやマージンを加えた領域としてもよい。
〔ステップS16〕
限定領域内の断層像を、予め設定した閾値により閾値処理し、図5(b)に示すように心筋の二値化画像を取り出す。
【0052】
次に、上記のようにして各断層像から取り出した心室の領域及び心筋の領域が正しく抽出されたか否かの判定方法について説明する。
【0053】
図6(a)は心室を示し、同図(b)は心筋を示す。これらを個別に観察しても心室及び心筋の抽出が正しかったかどうかは分からない。
【0054】
図6(b)に示すように解剖学的に、心筋は心室の周辺にある。従って、心室の周辺に心筋が位置しているかどうかを判定することで、心室及び心筋の抽出が正しかったかどうかが分かる。
【0055】
図6(c)に示すように心室を示す領域の外周(縁)と思われる縁上の全画素数をnとし、縁の或る画素i(1≦i≦n)を中心にして上、右、下、左の画素をa,b,c,dとする。画素iが心室の縁に位置するかどうかは、画素iの周囲の画素a〜dに心室でない画素が存在するかどうかで分かる。例えば、図6(c)に示す画素iの場合には、その周囲の画素b,cが心室でない画素であるため、画素iは心室の縁の画素である。
【0056】
このようにして心室の縁と思われると全ての画素(n個)について、心室の縁の画素かどうかを判定し、心室の縁の画素と判定された画素の総数m(m≦n)を求める。
【0057】
同様にして、画素iが心筋に接しているかどうかの判定は、画素iの周囲の画素a〜dのうちのいずれかに心筋の画素が含まれているかどうかで分かる。例えば、図6(c)に示す画素iの場合には、その周囲の画素b,cが心筋の画素であるため、画素iは心筋の縁の画素である。
【0058】
このようにして心室の縁と思われると全ての画素(n個)について、心筋の縁の画素かどうかを判定し、心筋の縁の画素と判定された画素の総数o(o≦n)を求める。
【0059】
そして、心筋の縁の画素と判定された画素の総数oと、心室の縁の画素と判定された画素の総数mとの割合が一定値(例えば、90%)以上(o/m≧一定値)のときに、心室の領域及び心筋の領域がそれぞれ正しく抽出されたと判定する。
【0060】
図7は心室の領域及び心筋の領域を正しく抽出するための手順を示すフローチャートである。
〔ステップS50〕
図1に示したステップS10、ステップS16における閾値処理に使用する閾値などのパラメータを設定する。
〔ステップS51〕
図1に示した手順にしたがって断層像から心室及び心筋を抽出する。
〔ステップS52〕
図6(c)で説明した方法により、心室の領域及び心筋の領域が正しく抽出されたかどうかの抽出チェックを行う。
〔ステップS53〕
心室の領域及び心筋の領域が正しく抽出された場合には終了し、正しく抽出されなかった場合にはステップ54に移行する。
〔ステップS54〕
閾値等のパラメータを変更し、ステップ51に跳ぶ。
【0061】
次に、各断層像から抽出した心筋の外周の画像と心室の外周の画像から心臓の画像を表示する表示方法について説明する。
【0062】
図8に示すように心壁厚を示す変移長を求め、その変移長の一端を基準線50(図8では心室の外周)に合わせる。変移長の他端で構成される最大変移線51(図8では心筋の外周)の各画素点の法線ベクトルを求めるとともに、この法線ベクトルと任意に設定した投影面52とのなす角度θを求める。
【0063】
また、各画素点が投影面52に投影される垂線と、前記変移長を表す線に垂直な直線とのなす角度ηを求める。そして、心筋の外周の各画素点の投影面52上に投影される画素点に対し、cos θのべき乗とcos ηのべき乗の積に比例した濃度を付加して投影面52上の画素値を決定する。
【0064】
これにより、投影面52上には、例えば、図9に示すように陰影付けされた擬似三次元画像が表示される。尚、図9上で、1は投影面に対して正面を向いており、心筋の厚さの変化がない箇所であり、2は心筋が薄く変移長が短くなっている箇所に相当する。
【0065】
ここでは変位長に合わせる基準線は心室の外周に合わせて説明したが、心室の大きさは心拍によって変わるため、心室を含むようにした任意の円筒を求め、その外周に上記基準線を合わせても良い。この円筒に基準線を合わせることにより、その合わせのための操作を心拍毎に行わなくてよくなり操作性が向上する。また、使用する全画像の平均、最大、最小の外周を基準線に合わせても良い。これにより合わせ操作を心拍の基準値毎に行えるので操作性がやはり向上する。
【0066】
また、図10は他の表示例を示している。同図に示すように、投影面上に投影された画素点のうちの心臓の輪郭に相当する画素点(輪郭線)を表示するとともに、心筋の厚さを示す変移長に基づいて前記投影した心臓の輪郭線内に、心筋の厚さの分布を示すため等厚線を表示するようにしている。尚、図10上で、3は心筋の最も厚い部分を示しており、4は心筋の最も薄い部分を示している。
【0067】
図11は複数の断層像が所定の時間間隔(例えば、80m秒)で取得される様子を示している。時相0、時相1、…の各時相ごとの複数の断層像について、前述した心室、心筋の抽出等の処理を行い、図10又は図11に示したような表示をリアルタイムで行うことで、心筋が運動している状態(特に心筋の厚みが変化する様子など)を表示することができる。これにより、梗塞を起こしている部分(心筋の厚みの変化がない部分)などが容易に認識することができる。
【0068】
図12は本発明に係る領域抽出方法及び領域表示方法を実施するための装置のハードウェア構成を示す概略図である。
【0069】
この装置は、中央処理装置(CPU)10、主メモリ12、磁気ディスク14、表示メモリ16、ディスプレイ18、コントローラ20、マウス22、キーボード24、及び共通バス26から構成されており、この装置はネットワーク(LAN)28を介してMR装置30と接続されている。
【0070】
磁気ディスク14には、ネットワーク28を介してMR装置30から取得した被検体の各断層像が格納されており、主メモリ12の領域抽出や領域表示ソフトウェアに従って、CPU10が所定の処理を行う。この処理では、コントローラ20に付加されているマウス22やキーボード24を使用した入出力処理や処理操作が行われる。処理結果は表示メモリ16を介してディスプレイ18に表示され、また、処理結果及び表示内容は磁気ディクス14に格納され、再表示に利用される。
【0071】
尚、断層像は、MR装置30から得られるものに限らず、X線CT装置や超音波診断装置などの他の画像診断装置により取得したものでもよい。また、観察対象としては、この実施の形態で説明した心臓に限定されない。
(第二の実施の形態)
以下、添付図面に従って、本発明に係る画像表示方法及び装置の好ましい実施の形態について詳説する。
【0072】
図13に、本実施の形態が適用された画像表示システム70の全体構成を示す。
【0073】
画像表示システム70は、画像表示装置72と、CT装置94と、MR装置96と、画像データサーバ98とを含み、これらがネットワーク92を介して接続されている。
【0074】
画像表示装置72は、本発明に係る画像表示装置の一の実施の形態であり、CT装置94およびMR装置96は、断層像等の画像を取得する装置である。また、画像データサーバ98は画像データの蓄積や管理等を行うものである。画像表示装置72、CT装置94、MR装置96および画像データサーバ98は、ネットワーク92を介して画像データの送受信等を行う。
【0075】
なお、画像表示装置72は、臓器の種類や部位等について種々の条件で撮影された断層像等の画像を処理の対象とすることができる。
【0076】
また、ネットワーク92としては、LAN(ローカルエリアネットワーク)やインターネット等、種々のネットワークを利用することができ、画像データサーバ98についても、上記ネットワークに接続された1乃至複数のサーバを利用することができる。
【0077】
画像表示装置72は、各構成要素の制御を行う中央処理装置(以下、CPUという)76を備えており、CPU76は共通バス74に接続されている。この共通バス74には、画像表示装置72の制御プログラムを格納するとともに画像処理やデータ処理のための記憶領域として使用される主メモリ78と、画像ファイルやデータベース、プログラム等が格納された磁気ディスク80と、表示用の画像データを一時的に記憶する表示メモリ82と、コントローラ86と、各種パラメータ設定用のキーやスイッチを備えたキーボード90とが接続されている。また、表示メモリ82には画像等を表示する表示用ディスプレイ(以下、CRTという)84が接続されており、コントローラ86にはCRT84の画面上で各種操作を行う手段としてのマウス88が接続されている。
【0078】
なお、記憶装置としては、磁気ディスク80以外にCD−ROMドライブ、光磁気ディスク(MO)ドライブ、DVDドライブ等の装置を接続することが可能であり、また、これらの装置に挿抜可能な記憶媒体を介して、画像ファイル等の入出力を行うようにしてもよい。
【0079】
次に、上記実施の形態の作用を説明する。図14に、画像表示装置72で実行される処理ルーチンを示す。
【0080】
まず、ステップ200において、磁気ディスク80から、マウス88やキーボード90を介してあらかじめ設定された条件に該当する断層像の画像ファイルを読み込む。
【0081】
なお、画像ファイルは、磁気ディスク80から読み込むほか、ネットワーク92を介して画像データサーバ98から読み込んだり、画像表示装置72に上述のような記憶装置を設け、記憶媒体を介して読み込むようにしてもよい。
【0082】
次のステップ202では、断層像を抽出するための基準が、心臓領域断面積、心筋部分面積、心筋厚平均値のいずれであるかを判断する。この判断は、マウス88やキーボード90を介した入力により行われる。断層像の抽出基準が心臓領域断面積である場合はステップ204へ進み、心筋部分面積である場合はステップ212へ進み、心筋厚平均値である場合はステップ220へ進む。
【0083】
断層像の抽出基準が心臓領域断面積である場合は、ステップ204および次のステップ206により、全ての断層像について心臓領域の断面積を求め、その後ステップ208へ進んで該断面積が最大/最小である断層像を抽出する。
【0084】
次のステップ210では、上記心臓領域断面積が最大/最小である断層像について心筋厚の差分を算出し、記憶する。算出する心筋厚の差分は、図15の例に示すように、心臓領域または心室の中心、あるいは重心から動径方向に測定した極座標表示の角度における差分である。
【0085】
一方、ステップ202において断層像の抽出基準が心筋部分面積である場合は、ステップ212へ進む。ステップ212およびステップ214により、全ての断層像について心筋部分の面積を求め、その後ステップ216へ進んで該面積が最大/最小である断層像を抽出する。
【0086】
次のステップ218では、ステップ210と同様にして、上記心筋部分面積が最大/最小である断層像について心筋厚の差分を算出し、記憶する。
【0087】
また、ステップ202において断層像の抽出基準が心筋厚平均値である場合は、ステップ220へ進む。ステップ220およびステップ222により、全ての断層像について各断層像における心筋厚平均値を求め、その後ステップ224へ進んで該平均値が最大/最小である断層像を抽出する。
【0088】
次のステップ226では、ステップ210および218と同様にして、上記心筋厚平均値が最大/最小である断層像について心筋厚の差分を算出し、記憶する。
【0089】
ステップ204からステップ210、ステップ212からステップ218、ステップ220からステップ226のいずれかにより心筋厚の差分が算出されると、ステップ228へ進む。
【0090】
ステップ228では、心筋厚の差分に対するしきい値の設定があるか否かを判断する。この判断は、マウス88やキーボード90を介したしきい値の入力の有無により行うことができる。判断が肯定された場合はステップ230へ進み、否定された場合はステップ236へ進む。
【0091】
なお、上記しきい値は心筋厚の差分の他、心臓領域断面積、心筋領域面積等について設定することが可能である。
【0092】
ステップ228において判断が肯定された場合、ステップ230においてしきい値に基づいて画像強調範囲を設定する。例えば、しきい値よりも大きい差分を画像強調範囲とする。
【0093】
次のステップ232では、心筋厚の差分を色に変換する。この処理は、ステップ210、ステップ218、またはステップ226で算出し記憶した心筋厚の差分に対して、差分の大きさに応じて異なる色を割り当てる処理であり、上記ステップ230で設定した画像強調範囲が考慮される。例えばしきい値よりも小さい差分(画像強調範囲外)に赤色、最も大きい差分に青色を割り当て、その間の差分(画像強調範囲)には赤色から青色のカラー階調を割り当てる。
【0094】
その後、ステップ234へ進み、ステップ200で入力された各断層像に対して、上記ステップ232において割り当てられた色を、対応する心筋の部分に付加する。
【0095】
一方、ステップ228で判断が否定された場合はステップ236に進み、ステップ232と同様にして心筋厚の差分を色に変換する。例えば、最も小さい心筋厚の差分に赤色、最も大きい差分に青色を割り当て、その間の心筋厚の差分には、赤色から青色までのカラー階調を割り当てる。
【0096】
その後、ステップ238へ進み、ステップ200で入力された各断層像に対して、上記ステップ236において割り当てられた色を、対応する心筋の部分に付加する。
【0097】
ステップ240では、ステップ234またはステップ238において色づけされた画像を表示する。この表示は、図16の例に示すように任意の時相における断層像を静止画像として選択的に表示するほか、図17の例に示すように動画像として時相順に表示してもよいし、図18の例に示すように、しきい値に基づいて設定された画像強調範囲を考慮して色づけされた画像を表示するようにしてもよい。
【0098】
なお、図2に示すフローチャートおよび上述の説明では、しきい値を設定し、該しきい値を基に断層像を色付けして画像を表示する場合について説明しているが、図18の例に示すように、画像を表示した後、再度しきい値を設定し、これに基づいて色付けされた画像を表示するようにしてもよい。
【0099】
また、表示に際しては、図16、図17および図18の例に示すように、心筋厚の差分の大きさとカラー階調の対応、表示する画像の時相方向の番号、設定したしきい値の値などを画像と併せて表示することができる。
【0100】
さらに、画像表示の開始/終了、しきい値の設定、静止画像または動画像表示の選択および切換、表示する画像の時相の選択、動画像表示の場合の表示速度の設定等は、画像表示装置72の操作者が、マウス88やキーボード90を介してCRT84の画面上に表示されたボタンやスクロールバー等を操作することにより、繰り返し自由に行うことができる。
【0101】
ステップ240において画像の表示を終了すると、ステップ242へ進む。
【0102】
ステップ242では処理を終了するか否かを判断する。肯定されると本処理ルーチンを終了し、否定されるとステップ200へ戻る。
【0103】
以上説明したように、本実施の形態が適用された画像表示システム70では、画像表示装置72に入力された断層像が心筋厚の差分の大きさに応じた色付けをされて表示されるので、観察者は、心筋梗塞(梗塞部位は心筋厚の変化が少なく、差分が小さい)等、断層像中における病変部分の識別を迅速かつ容易に行うことができる。
【0104】
さらに、本実施の形態が適用された画像表示システム70では、画像の強調処理を行った状態、すなわち病変部が識別可能な状態で動画再生することにより、心臓の機能的観察を行うことができる。
【0105】
なお、本実施の形態では、画像表示として色付けされた断層像を表示する場合について説明しているが、画像の表示は断層像に限らず、図19の例に示すように、ボリュームレンダリングやサーフェスレンダリング等の手法を用いて作成され色付けされた3次元画像であってもよい。また、このようにして作成された3次元画像は、任意の時相における画像を静止画像として表示してもよいし、動画像として時相順に表示してもよい。
【0106】
また、本実施の形態では、画像処理を心筋厚の差分の大きさに応じた赤色から青色までのカラー階調を割り当てとする場合について説明しているが、画像強調処理はこれに限らず、差分の大きさに応じて濃淡を割り当てるようにしてもよい。
(第三の実施の形態)
以下、添付図面に従って、本発明に係る領域抽出方法及び装置の好ましい実施の形態について詳説する。
【0107】
図20に、本実施の形態が適用された領域抽出システム40の全体構成を示す。
【0108】
領域抽出システム40は、領域抽出装置42と、CT装置64と、MR装置66と、画像データサーバ68とを含み、これらがネットワーク62を介して接続されている。
【0109】
領域抽出装置42は、本発明に係る領域抽出装置の一の実施の形態であり、CT装置64およびMR装置66は、断層像等の画像を取得する装置である。また、画像データサーバ68は画像データの蓄積や管理等を行うものである。領域抽出装置42、CT装置64、MR装置66および画像データサーバ68は、ネットワーク62を介して画像データの送受信等を行う。
【0110】
なお、領域抽出装置42は、臓器の種類や部位等について種々の条件で撮影された断層像等の画像を処理の対象とすることができる。
【0111】
また、ネットワーク62としては、LAN(ローカルエリアネットワーク)やインターネット等、種々のネットワークを利用することができ、画像データサーバ68についても、上記ネットワークに接続された1乃至複数のサーバを利用することができる。
【0112】
領域抽出装置42は、各構成要素の制御を行う中央処理装置(以下、CPUという)46を備えており、CPU46は共通バス44に接続されている。この共通バス44には、領域抽出装置42の制御プログラムを格納するとともに画像処理やデータ処理のための記憶領域として使用される主メモリ48と、画像ファイルやデータベース、プログラム等が格納された磁気ディスク50と、表示用の画像データを一時的に記憶する表示メモリ52と、コントローラ56と、各種パラメータ設定用のキーやスイッチを備えたキーボード60とが接続されている。また、表示メモリ52には画像等を表示する表示用ディスプレイ(以下、CRTという)54が接続されており、コントローラ56にはCRT54の画面上で各種操作を行う手段としてのマウス58が接続されている。
【0113】
なお、記憶装置としては、磁気ディスク50以外にCD−ROMドライブ、光磁気ディスク(MO)ドライブ、DVDドライブ等の装置を接続することが可能であり、また、これらの装置に挿抜可能な記憶媒体を介して、画像ファイル等の入出力を行うようにしてもよい。
【0114】
次に、上記実施の形態の作用を説明する。図21に、領域抽出装置42で実行される処理ルーチンを示す。
【0115】
まず、ステップ100において、磁気ディスク50から、マウス58やキーボード60を介してあらかじめ設定された条件に該当する断層像の画像ファイルを読み込む。
【0116】
なお、画像ファイルは、磁気ディスク50から読み込むほか、ネットワーク62を介して画像データサーバ68から読み込んだり、画像表示装置42に上述のような記憶装置を設け、記憶媒体を介して読み込むようにしてもよい。
【0117】
次のステップ102では、代表点の指定が自動であるか否かを判断する。この判断は、図22の例に示すように、CRT54の画面表示およびマウス58やキーボード60を介した入力により行うことができる。判断が肯定されるとステップ104以降のステップにおいて代表点の抽出を自動的に行い、否定されるとステップ118以降のステップにおいて操作者の指定により代表点を設定する。
【0118】
上記ステップ102で判断が肯定された場合、ステップ104へ進んで加算メモリ(主メモリ48のうち差分データの加算に用いられる記憶領域)をクリアし、ステップ106へ進む。
【0119】
ステップ106では、基準画像を設定する。基準画像は、入力された断層像のうち任意の時相のもの、例えば最初の時相における断層像であってよい。
【0120】
次のステップ108では、入力された断層像のうち、基準画像と時相が異なる断層像について、画素毎に画像データの差分を算出し、絶対値をとる。
【0121】
次のステップ110では、上記ステップ108で求められた差分の絶対値を加算メモリに加え、その後ステップ112へ進む。
【0122】
上述のステップ108およびステップ110の処理は、基準画像と時相が異なる全ての断層像について行われる。
【0123】
ここで、入力が心臓の断層像である場合、心臓は時間とともに大きさが変位(変形)するが、心室以外の部分は基本的にわずかしか変位しない。例えば図23の例に示すように、1、2、5、6の部分はほとんど変化せず、心室3および心筋4が変化し、特に心室3が大きく変化する。したがって、時相の異なる断層像間で差分を算出しこれを加算していくと、変位の大きな心室部分の画素値だけが大きな値になる。
【0124】
ステップ112では、全断層像について処理が終了したか否かを判断する。肯定された場合はステップ114へ進み、否定された場合はステップ108へ戻る。
【0125】
ステップ114では、加算メモリをしきい値処理して0と1の二値画像を求め、その後ステップ116へ進んで、上記二値画像のうち、対象とする領域(例えば画素値1の領域)の重心を求める。
【0126】
次のステップ118では、上記ステップ116で求められた重心を代表点として設定する。
【0127】
このようにして、本実施の形態が適用された領域抽出システム40では、操作者が代表点を指定することなく、入力された断層像を基に自動的に代表点を設定することができる。
【0128】
一方、ステップ102で判断が否定された場合は、ステップ120からステップ124までの処理により、操作者の指定に基づいて代表点を設定する。
【0129】
ステップ120では、基準画像を設定する。この基準画像は、ステップ106と同様に、任意の時相における断層像を基準画像とすることができる。
【0130】
次のステップ122では、代表点を設定する。この処理は、図24の例に示すように、操作者がマウス58やキーボード60を介して指定した基準画像中の点を代表点として設定する処理である。
【0131】
このように、本実施の形態が適用された領域抽出システム40では、操作者の指定により代表点を設定することも可能である。
【0132】
ステップ118またはステップ122の処理により代表点が設定されると、ステップ124へ進み、代表点を基に領域抽出を行う。この領域抽出処理は、従来と同様の手法により行うことができる。領域抽出が終了すると、ステップ126へ進む。
【0133】
ステップ126では、画像表示を行う。この画像表示においては、入力された断層像、自動的にまたは操作者の指定により設定された代表点、抽出された領域を表示することができる。これらの表示は、操作者がマウス58やキーボード60を介して操作することにより、自由に繰り返し行うことができる。また、断層像等に色づけや濃淡付け等の処理を施したり、断層像、代表点、抽出された領域を重ね合せた画像を表示するようにしてもよい。画像表示が終了すると、ステップ128へ進む。
【0134】
ステップ128では、処理を終了するか否かを判断する。肯定されると本処理ルーチンを終了し、否定されるとステップ100へ戻る。
【0135】
以上説明したように、本実施の形態が適用された領域抽出システム40では、操作者が自ら指定することなく代表点を自動的に設定でき、領域抽出を速やかに実施することができるので、操作者は煩わしさから開放される。
【0136】
また、本実施の形態が適用された領域抽出システム40では、入力された断層像、代表点、抽出された領域を表示するので、操作者は処理の結果を迅速かつ容易に確認することができる。
【0137】
【発明の効果】
以上説明したように本発明によれば、観察対象の断層像から心臓の心室や心筋などの領域を正確に抽出することができ、また、抽出した各領域に基づいて心筋の厚さなどが反映された、直感的に分かりやすい画像を表示することができる。従って、心臓にあっては心筋梗塞などの機能障害の診断に寄与することができる。
【0138】
また、本発明によれば、観察者が画像の特徴量を迅速に把握でき、画像中の異常部分を容易に識別できる。
【0139】
さらに、本発明によれば、操作者が代表点の指定を行うことなく領域抽出を行うことができる。
【図面の簡単な説明】
【図1】本発明に係る領域抽出方法の実施の形態を示すフローチャート
【図2】本発明に係る領域抽出方法を説明するために用いた図
【図3】複数の領域が連結している場合の切断方法を説明するために用いた図
【図4】形状によって領域を選別する方法を説明するために用いた図
【図5】本発明に係る領域抽出方法を説明するために用いた図
【図6】抽出した複数の領域が正しいかどうかの判定方法を説明するために用いた図
【図7】正しい領域を抽出するまでの手順を示すフローチャート
【図8】本発明に係る領域表示方法を説明するために用いた図
【図9】本発明に係る領域表示方法に基づいて表示された画像の一例を示す図
【図10】本発明に係る領域表示方法に基づいて表示された画像の他の例を示す図
【図11】所定の時間間隔ごとに複数の断層像が取り込まれる様子を示す図
【図12】本発明に係る領域抽出方法及び領域表示方法が適用される装置のハードウェア構成例を示す図
【図13】本発明の一の実施の形態に係る画像表示システムの構成図
【図14】本発明の一の実施の形態に係り、画像表示装置での処理を示すフローチャート
【図15】本発明の一の実施の形態に係り、断層像間での心筋厚の差分の算出を示す概念図
【図16】本発明の一の実施の形態に係り、断層像を静止画像として表示する場合の例を示す図
【図17】本発明の一の実施の形態に係り、断層像を動画像として表示する場合のイメージを示す図
【図18】本発明の一の実施の形態に係り、しきい値に基づいて設定された画像強調範囲を考慮して色づけされた画像の表示の例を示す図
【図19】本発明の一の実施の形態に係り、3次元画像の表示の例を示す図
【図20】本発明の一の実施の形態に係る領域抽出システムの構成図
【図21】本発明の一の実施の形態に係り、領域抽出装置での処理を示すフローチャート
【図22】代表点設定方法の選択画面の例を示すイメージ図
【図23】心臓の大きさの時相変化の例を示すイメージ図
【図24】操作者の指定による代表点設定の例を示すイメージ図
【符号の説明】
10…中央処理装置(CPU)、12…主メモリ、14…磁気ディスク、16…表示メモリ、18…ディスプレイ、20…コントローラ、22…マウス、24…キーボード、26…共通バス、28…ネットワーク、30…MR装置、40…領域抽出システム、42…領域抽出装置、70…画像表示システム、72…画像表示装置
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a region extraction method, a region display method, and an image display device, and in particular, extracts a region such as a heart ventricle and myocardium by computer processing of an MR image and a CT image, and displays the region extraction method and region display. The present invention relates to a method and an image display device.
[0002]
The present invention also relates to an image display method and apparatus, and more particularly to an image display method and apparatus for displaying a medical image such as a tomogram.
[0003]
Furthermore, the present invention relates to a region extraction method and apparatus, and more particularly to a region extraction method and device for extracting a specific region from an image.
[0004]
[Prior art]
A bullseye display has been used as a conventional method for displaying changes in the heart wall thickness of the heart (for example, see Non-Patent Document 1).
[0005]
The bullseye display is a technique in which functional information of the heart is represented by a concentric map and is developed on polar coordinates composed of depth and angle. This depth represents the cross-sectional position of the heart, and the distance from the center of the pulls eye display unit corresponds to the depth.
[0006]
The value recorded on the bullseye display is a representative value such as the maximum value or the average value in the vicinity of the automatically extracted intima surface, for example, within 1 cm from the surface, and indicates the state of heart wall motion. And those obtained on the basis of the shadow by the harmonic method using a contrast agent.
[0007]
As an area extraction method and apparatus for extracting a specific area from a tomographic image acquired by a medical apparatus such as an MRI apparatus or a CT apparatus, as shown in the example of FIG. 24, an operator selects representative points in the tomographic image. A device that designates and extracts a region based on the designated representative point is known.
[0008]
[Non-Patent Document 1]
Comprehensive information magazine for medicine and images Inner Vision (6 ・ 9) 2001 (pages 15-18)
[0009]
[Problems to be solved by the invention]
However, the bullseye display is not a direct representation of the shape of the heart, and there is a problem that it is difficult to understand intuitively.
[0010]
Furthermore, in the above bullseye display, the feature quantity of the tomographic image, such as the myocardial thickness, is represented by a concentric map, so the correspondence between the position on the map and the actual position on the heart is difficult to understand and is displayed on the map. It is difficult to grasp the feature quantity of tomographic images such as the myocardial thickness.
[0011]
For this reason, it is difficult for an observer to identify an abnormal part in a tomographic image such as a lesion part such as a myocardial infarction.
[0012]
In addition, in the conventional region extraction, the operator designates the representative point by himself, but such an operation is complicated for the operator, and the region extraction performed based on the representative point is quickly performed. It is difficult to do.
[0013]
An object of the present invention is to accurately extract a region such as a heart ventricle and a myocardium from a tomographic image to be observed, and to display an image reflecting the thickness of the myocardium based on each extracted region. It is an object of the present invention to provide an area extraction method, an area display method, and an image display device that can be used.
[0014]
Another object of the present invention is to provide an image display method and apparatus that allows an observer to quickly grasp the feature amount of an image and easily identify an abnormal portion in the image.
[0015]
Still another object of the present invention is to provide an area extraction method and apparatus for extracting an area without an operator specifying a representative point.
[0016]
[Means for Solving the Problems]
  In order to achieve the object, an image display device according to claim 1 is provided.Obtained for each of the plurality of tomographic images, means for obtaining a plurality of tomographic images with different slice positions of the observation object, means for obtaining a binarized image by thresholding each of the plurality of tomographic images, and A means for selecting a first region based on information indicating a shape from the binarized image, and a first region selected from the binarized image obtained for each of the plurality of tomographic images Means for obtaining a correlation and obtaining a common area over a range of a predetermined tomographic image, and determining a centroid of the common area obtained for each of the plurality of tomographic images, and limiting a predetermined area centered on the centroid Means for extracting a second region by threshold processing from within a predetermined region centered on the center of gravity of the common region obtained for each of the plurality of tomographic images;It is characterized by including.
[0017]
  In the binarized image, each region may be connected by blood vessels, noise, or the like. Therefore, it is preferable to provide a step of cutting the connected regions before the selection step.
[0018]
  The means for obtaining the first area obtains the AND condition of the area selected for each binarized image, and sets the area for obtaining the AND condition. Note that, in all binarized images, not only a region where the AND condition is satisfied, but a region where the AND condition is satisfied in most binarized images.
[0019]
  When the first area is obtained as described above, a predetermined area including the first area is limited. The predetermined region to be limited is, for example, a region within a predetermined radius according to the size of the observation target from the center of the first region, or a region larger than the first region by a predetermined thickness. . Then, a second area different from the first area is extracted from the predetermined area based on the shape and the like.
[0020]
  When the observation target is a heart, the first region corresponds to the ventricle, and the second region corresponds to the myocardium around the ventricle. Since the myocardium is around the ventricle, it is determined whether there is a pixel included in the myocardium (second region) around the pixel at the edge of the ventricle. When the ratio of determining that the myocardium is included around each pixel is greater than or equal to a certain size in the pixels of all the edges of the ventricle, the ventricle (first region) and the myocardium (second Are determined to be correctly extracted.
[0021]
  An image display device according to claim 2 is the image display device according to claim 1.,in frontThe outer peripheral image of the second region of the plurality of extracted tomographic images is projected onto a predetermined projection plane, and the direction of the transition length indicating the thickness of the second region is set as one of the shading parameters. A pseudo three-dimensional image shaded by a shading algorithm, or an equal thickness to show the thickness distribution of the second region on the projected image based on the transition length indicating the thickness of the second region lineThe tableShowFurther including image display meansIt is characterized by that.
[0022]
  That is, the direction of the transition length changes greatly in the portion where the thickness change of the first region is large, and this is reflected in the shading in the pseudo three-dimensional image.
[0039]
DETAILED DESCRIPTION OF THE INVENTION
(First embodiment)
Hereinafter, preferred embodiments of a region extraction method, a region display method, and an image display device according to the present invention will be described in detail with reference to the accompanying drawings.
[0040]
The region extraction method according to the present invention is based on a desired region (in this embodiment, the region A of the ventricle and This is a method of extracting the surrounding myocardial region B).
[0041]
FIG. 1 is a flowchart showing an embodiment of a region extraction method according to the present invention. [Step S10]
A plurality of tomographic images having different slice positions to be observed are subjected to threshold processing using a preset threshold value to obtain a plurality of binarized images. Only the boundary of the shadow of the tomographic image may be set to the high level “1”, and the others may be set to “0”.
[0042]
2, a0, b0,... N0 are a plurality of binarized images having different slice positions.
[Step S11]
In the binarized image, a plurality of regions may be connected due to a blood vessel portion, noise, or the like. In this case, the regions are cut.
[0043]
This cutting method will be described with reference to FIG.
[0044]
First, in FIG. 3A, the position of the center of gravity of the region 1 is obtained. The minimum length R in the region 1 while rotating the moving radius 2 in the direction of the arrow 3 around the center of gravity.minAsk for. This minimum length RminA value obtained by multiplying by a constant is defined as a cutting length L. Based on this cutting length L, the blood vessel portion is cut as shown in FIG.
[0045]
That is, the determination areas 4 and 5 having the number of pixels corresponding to the cutting length L are set in the horizontal (X-axis) direction or the vertical (Y-axis) direction, and the areas 1, 1a and 1b (1a and 1b are blood vessel shadow areas) are set. Is determined to be smaller than the determination areas 4 and 5. In the case of the determination region 4 in the horizontal direction in FIG. 3B, the pixel value of the pixel x1 is “1” and the pixel value of the pixel xc is “0”. Instead, the pixels x1 to xc are left as they are.
[0046]
On the other hand, in the case of the determination region 5 in the vertical direction, since the pixel values of the pixel y1 and the pixel yc are both “0”, the determination region 5 is a cutting target, and the pixel values of the pixels y1 to yc are “0”. Converted. By performing the above processing while moving the determination areas 4 and 5, the blood vessel shadow areas 1 a and 1 b are cut, and only the area 1 remains.
[Step S12]
Since the ventricle is nearly circular compared to other organs, the region that appears to be a ventricle is selected using the shape.
[0047]
This sorting method will be described with reference to FIG.
[0048]
In FIG. 4A, a radius of a predetermined length is rotated by about 1 ° from an angle θ = 0 ° to θ = 360 ° around the center of the region 6 as a rotation center. At this time, the length at which the radius intersects the shadow at each angle is obtained. Let r be the minimum value of the obtained length. That is, the minor axis r of the region 6 is obtained. The area S of the region 6 is divided by the minor axis r. That is, S / r2Ask for. By comparing this value with a predetermined value, it is determined whether or not the region 6 is nearly circular. When the region 6 is circular, as shown in FIG. 4B, S / r2The value of π is π, and in the case of a square, as shown in FIG.2The value of is 4. In the case of a rectangle having an aspect ratio of 1: 2, as shown in FIG.2The value of is 8.
[0049]
Therefore, S / r of each region2For example, by selecting only those having a value of 8 or less, it is possible to select a region that seems to be a ventricle.
[0050]
In FIG. 2, a1, b1,... N1 indicate areas a1t1, a1t2, b1t1, b2t2, n1t1, n1t2, and n1t3 after selection.
[Step S13]
The correlation (AND) of the areas for each tomographic image selected as described above is obtained, and the common area is extracted. Note that the region extracted in this way is not limited to a region common to all tomographic images, but also includes a region common to a certain range of tomographic images.
[Step S14]
In each image, an area having no correlation with the extracted common area is deleted. As a result, only the ventricular region is extracted from each image.
[Step S15]
The center of gravity of the extracted common area is obtained, and an area having a constant radius r is defined around the center of gravity as shown in FIG. The constant radius r is a radius set in advance so that the observation target is included according to the size of the observation target.
[0051]
The limited region may be a region obtained by adding the thickness or margin of the myocardium to the outer periphery of the ventricle extracted in step S14.
[Step S16]
The tomographic image in the limited region is subjected to threshold processing with a preset threshold value, and a binarized image of the myocardium is extracted as shown in FIG.
[0052]
Next, a method for determining whether or not the ventricular region and the myocardial region extracted from each tomographic image as described above have been correctly extracted will be described.
[0053]
FIG. 6A shows the ventricle, and FIG. 6B shows the myocardium. Even if these are observed individually, it is not known whether the extraction of the ventricle and the myocardium was correct.
[0054]
As shown in FIG. 6B, anatomically, the myocardium is located around the ventricle. Therefore, it can be determined whether or not the extraction of the ventricle and the myocardium was correct by determining whether or not the myocardium is located around the ventricle.
[0055]
As shown in FIG. 6C, the total number of pixels on the edge that is considered to be the outer periphery (edge) of the region showing the ventricle is n, and the pixel i at the edge (1 ≦ i ≦ n) is the center, Let the right, bottom, and left pixels be a, b, c, d. Whether or not the pixel i is located at the edge of the ventricle can be determined by whether or not there are non-ventricular pixels in the pixels a to d around the pixel i. For example, in the case of the pixel i shown in FIG. 6C, since the surrounding pixels b and c are non-ventricular pixels, the pixel i is a pixel at the edge of the ventricle.
[0056]
In this way, if all the pixels (n) are considered to be ventricular edges, it is determined whether they are ventricular edge pixels, and the total number m (m ≦ n) of pixels determined to be ventricular edge pixels is determined. Ask.
[0057]
Similarly, whether or not the pixel i is in contact with the myocardium can be determined by whether or not the myocardial pixel is included in any of the pixels a to d around the pixel i. For example, in the case of the pixel i shown in FIG. 6C, since the surrounding pixels b and c are myocardial pixels, the pixel i is a pixel at the edge of the myocardium.
[0058]
In this way, if all the pixels (n) are considered to be ventricular edges, it is determined whether they are myocardial edge pixels, and the total number o (o ≦ n) of pixels determined to be myocardial edge pixels is determined. Ask.
[0059]
The ratio between the total number o of pixels determined as the myocardial edge pixels and the total number m of pixels determined as the ventricular edge pixels is equal to or greater than a certain value (for example, 90%) (o / m ≧ constant value). ), It is determined that the ventricular region and the myocardial region are correctly extracted.
[0060]
FIG. 7 is a flowchart showing a procedure for correctly extracting a ventricular region and a myocardial region.
[Step S50]
Parameters such as a threshold used for threshold processing in step S10 and step S16 shown in FIG. 1 are set.
[Step S51]
The ventricle and the myocardium are extracted from the tomogram according to the procedure shown in FIG.
[Step S52]
By the method described with reference to FIG. 6C, an extraction check is performed to determine whether the ventricular region and the myocardial region have been correctly extracted.
[Step S53]
If the ventricular region and the myocardial region are correctly extracted, the process ends. If not correctly extracted, the process proceeds to step 54.
[Step S54]
Change parameters such as the threshold and jump to step 51.
[0061]
Next, a display method for displaying an image of the heart from the image of the outer periphery of the myocardium extracted from each tomogram and the image of the outer periphery of the ventricle will be described.
[0062]
As shown in FIG. 8, the transition length indicating the heart wall thickness is obtained, and one end of the transition length is aligned with the reference line 50 (in FIG. 8, the outer periphery of the ventricle). The normal vector of each pixel point of the maximum transition line 51 (in FIG. 8, the outer periphery of the myocardium) constituted by the other end of the transition length is obtained, and the angle θ formed by this normal vector and the arbitrarily set projection plane 52 Ask for.
[0063]
Further, an angle η formed by a perpendicular line on which each pixel point is projected onto the projection plane 52 and a straight line perpendicular to the line representing the transition length is obtained. Then, the pixel value projected on the projection surface 52 of each pixel point on the outer periphery of the myocardium is added with a density proportional to the product of the power of cos θ and the power of cos η to obtain the pixel value on the projection surface 52. decide.
[0064]
Thereby, on the projection surface 52, for example, a pseudo three-dimensional image shaded as shown in FIG. 9 is displayed. In FIG. 9, 1 is the front of the projection plane and there is no change in the thickness of the myocardium, and 2 corresponds to the place where the myocardium is thin and the transition length is short.
[0065]
Here, the reference line to match the displacement length has been described according to the outer periphery of the ventricle, but since the size of the ventricle changes depending on the heartbeat, an arbitrary cylinder including the ventricle is obtained, and the reference line is aligned with the outer periphery. Also good. By aligning the reference line with the cylinder, it is not necessary to perform an operation for the alignment for each heartbeat, and the operability is improved. Further, the average, maximum, and minimum perimeters of all images used may be matched with the reference line. As a result, the matching operation can be performed for each reference value of the heart rate, so that the operability is also improved.
[0066]
FIG. 10 shows another display example. As shown in the figure, among the pixel points projected on the projection plane, pixel points (contour lines) corresponding to the outline of the heart are displayed, and the projection is performed based on the transition length indicating the thickness of the myocardium. A contour line is displayed in the outline of the heart to show the distribution of the thickness of the heart muscle. In FIG. 10, 3 indicates the thickest part of the myocardium, and 4 indicates the thinnest part of the myocardium.
[0067]
FIG. 11 shows a state in which a plurality of tomographic images are acquired at a predetermined time interval (for example, 80 milliseconds). For the plurality of tomographic images for each time phase of time phase 0, time phase 1,..., The above-described processing such as extraction of the ventricle and myocardium is performed, and the display as shown in FIG. Thus, it is possible to display a state in which the myocardium is exercising (particularly, a state in which the thickness of the myocardium changes). As a result, the infarcted part (the part where the thickness of the myocardium does not change) can be easily recognized.
[0068]
FIG. 12 is a schematic diagram showing a hardware configuration of an apparatus for carrying out the region extraction method and the region display method according to the present invention.
[0069]
This apparatus comprises a central processing unit (CPU) 10, a main memory 12, a magnetic disk 14, a display memory 16, a display 18, a controller 20, a mouse 22, a keyboard 24, and a common bus 26. This apparatus is a network. It is connected to the MR apparatus 30 via the (LAN) 28.
[0070]
The magnetic disk 14 stores each tomographic image of the subject acquired from the MR apparatus 30 via the network 28, and the CPU 10 performs predetermined processing according to the area extraction and area display software of the main memory 12. In this processing, input / output processing and processing operations using the mouse 22 and keyboard 24 attached to the controller 20 are performed. The processing result is displayed on the display 18 via the display memory 16, and the processing result and display contents are stored in the magnetic disk 14 and used for redisplay.
[0071]
Note that the tomographic image is not limited to that obtained from the MR apparatus 30, but may be obtained by another image diagnostic apparatus such as an X-ray CT apparatus or an ultrasonic diagnostic apparatus. Further, the observation target is not limited to the heart described in this embodiment.
(Second embodiment)
Hereinafter, preferred embodiments of an image display method and apparatus according to the present invention will be described in detail with reference to the accompanying drawings.
[0072]
FIG. 13 shows an overall configuration of an image display system 70 to which the present exemplary embodiment is applied.
[0073]
The image display system 70 includes an image display device 72, a CT device 94, an MR device 96, and an image data server 98, which are connected via a network 92.
[0074]
The image display device 72 is an embodiment of the image display device according to the present invention, and the CT device 94 and the MR device 96 are devices that acquire images such as tomographic images. The image data server 98 stores and manages image data. The image display device 72, the CT device 94, the MR device 96, and the image data server 98 perform transmission / reception of image data via the network 92.
[0075]
Note that the image display device 72 can process an image such as a tomographic image taken under various conditions with respect to the type and part of the organ.
[0076]
In addition, various networks such as a LAN (local area network) and the Internet can be used as the network 92, and the image data server 98 can also use one or more servers connected to the network. it can.
[0077]
The image display device 72 includes a central processing unit (hereinafter referred to as a CPU) 76 that controls each component, and the CPU 76 is connected to a common bus 74. The common bus 74 stores a control program for the image display device 72 and a main memory 78 used as a storage area for image processing and data processing, and a magnetic disk storing image files, databases, programs, and the like. 80, a display memory 82 for temporarily storing display image data, a controller 86, and a keyboard 90 having keys and switches for setting various parameters are connected. The display memory 82 is connected with a display 84 (hereinafter referred to as CRT) for displaying images and the like, and the controller 86 is connected with a mouse 88 as means for performing various operations on the screen of the CRT 84. Yes.
[0078]
As the storage device, in addition to the magnetic disk 80, devices such as a CD-ROM drive, a magneto-optical disk (MO) drive, and a DVD drive can be connected, and a storage medium that can be inserted into and removed from these devices. An image file or the like may be input / output via the.
[0079]
Next, the operation of the above embodiment will be described. FIG. 14 shows a processing routine executed by the image display device 72.
[0080]
First, in step 200, a tomographic image file corresponding to a preset condition is read from the magnetic disk 80 via the mouse 88 and the keyboard 90.
[0081]
In addition to reading from the magnetic disk 80, the image file may be read from the image data server 98 via the network 92, or the image display device 72 may be provided with the storage device as described above and read via the storage medium. Good.
[0082]
In the next step 202, it is determined whether the criterion for extracting a tomographic image is a cardiac region cross-sectional area, a myocardial partial area, or a myocardial thickness average value. This determination is made by input via the mouse 88 or the keyboard 90. If the tomographic image extraction standard is the cardiac region cross-sectional area, the process proceeds to step 204. If it is the myocardial partial area, the process proceeds to step 212. If it is the myocardial thickness average value, the process proceeds to step 220.
[0083]
If the tomographic image extraction criterion is the heart area cross-sectional area, the cross-sectional area of the heart area is obtained for all tomographic images in step 204 and the next step 206, and then the process proceeds to step 208, where the cross-sectional area is maximum / minimum. A tomographic image is extracted.
[0084]
In the next step 210, the difference in myocardial thickness is calculated and stored for the tomographic image having the maximum / minimum cross-sectional area of the heart region. As shown in the example of FIG. 15, the calculated myocardial thickness difference is a difference in polar coordinate display angle measured in the radial direction from the center or center of gravity of the heart region or ventricle.
[0085]
On the other hand, if the tomographic image extraction criterion is the myocardial partial area in step 202, the process proceeds to step 212. In step 212 and step 214, the area of the myocardial portion is obtained for all tomographic images, and then the process proceeds to step 216 to extract the tomographic image having the maximum / minimum area.
[0086]
In the next step 218, as in step 210, the difference in myocardial thickness is calculated and stored for the tomographic image having the maximum / minimum myocardial partial area.
[0087]
If the tomographic image extraction standard is the myocardial thickness average value in step 202, the process proceeds to step 220. In steps 220 and 222, the myocardial thickness average value in each tomographic image is obtained for all tomographic images, and then the process proceeds to step 224 to extract a tomographic image having the maximum / minimum average value.
[0088]
In the next step 226, the myocardial thickness difference is calculated and stored for the tomographic image having the maximum / minimum myocardial thickness average value as in steps 210 and 218.
[0089]
When the myocardial thickness difference is calculated by any one of step 204 to step 210, step 212 to step 218, and step 220 to step 226, the process proceeds to step 228.
[0090]
In step 228, it is determined whether there is a threshold value for the difference in myocardial thickness. This determination can be made based on whether or not a threshold value is input via the mouse 88 or the keyboard 90. If the determination is affirmed, the process proceeds to step 230. If the determination is negative, the process proceeds to step 236.
[0091]
In addition to the difference in myocardial thickness, the threshold value can be set for a heart area cross-sectional area, a myocardial area, and the like.
[0092]
If the determination in step 228 is affirmative, an image enhancement range is set based on the threshold value in step 230. For example, a difference larger than the threshold value is set as the image enhancement range.
[0093]
In the next step 232, the difference in myocardial thickness is converted into a color. This process is a process of assigning a different color to the difference in the myocardial thickness calculated and stored in step 210, step 218, or step 226 according to the magnitude of the difference, and the image enhancement range set in step 230 above. Is considered. For example, red is assigned to a difference smaller than the threshold (outside the image enhancement range), blue is assigned to the largest difference, and a color gradation from red to blue is assigned to the difference (image enhancement range) therebetween.
[0094]
Thereafter, the process proceeds to step 234, and the color assigned in step 232 is added to the corresponding myocardial portion for each tomographic image input in step 200.
[0095]
On the other hand, if the determination in step 228 is negative, the process proceeds to step 236, and the myocardial thickness difference is converted into a color in the same way as in step 232. For example, red is assigned to the smallest difference in myocardial thickness, blue is assigned to the largest difference, and color gradations from red to blue are assigned to the difference in myocardial thickness therebetween.
[0096]
Thereafter, the process proceeds to step 238, and the color assigned in step 236 is added to the corresponding myocardial portion for each tomographic image input in step 200.
[0097]
In step 240, the image colored in step 234 or step 238 is displayed. In this display, a tomographic image at an arbitrary time phase is selectively displayed as a still image as shown in the example of FIG. 16, or may be displayed in order of time as a moving image as shown in the example of FIG. As shown in the example of FIG. 18, an image colored in consideration of the image enhancement range set based on the threshold value may be displayed.
[0098]
In the flowchart shown in FIG. 2 and the above description, a case where a threshold value is set and a tomographic image is colored based on the threshold value is described. As shown, after displaying an image, a threshold value may be set again, and an image colored based on the threshold value may be displayed.
[0099]
When displaying, as shown in the examples of FIGS. 16, 17 and 18, the correspondence between the difference in myocardial thickness and the color gradation, the number of the time phase direction of the image to be displayed, and the set threshold value Values etc. can be displayed along with images.
[0100]
Furthermore, start / end of image display, setting of threshold, selection and switching of still image or moving image display, selection of time phase of image to be displayed, setting of display speed in case of moving image display, etc. The operator of the device 72 can freely and repeatedly perform the operation by operating buttons, scroll bars, and the like displayed on the screen of the CRT 84 via the mouse 88 and the keyboard 90.
[0101]
When the display of the image is finished in step 240, the process proceeds to step 242.
[0102]
In step 242, it is determined whether or not to end the process. If the determination is affirmative, the present processing routine is terminated, and if the determination is negative, the processing returns to step 200.
[0103]
As described above, in the image display system 70 to which the present exemplary embodiment is applied, the tomographic image input to the image display device 72 is displayed by being colored according to the magnitude of the difference in myocardial thickness. An observer can quickly and easily identify a lesion portion in a tomographic image such as myocardial infarction (the infarcted site has a small change in myocardial thickness and a small difference).
[0104]
Furthermore, in the image display system 70 to which the present exemplary embodiment is applied, it is possible to perform functional observation of the heart by reproducing a moving image in a state in which image enhancement processing is performed, that is, in a state in which a lesion is identifiable. .
[0105]
In this embodiment, the case where a tomographic image colored as an image display is displayed has been described. However, the display of an image is not limited to a tomographic image, and volume rendering or surface as shown in the example of FIG. It may be a three-dimensional image created and colored using a technique such as rendering. In addition, the three-dimensional image created in this way may be displayed as an image at an arbitrary time phase as a still image or as a moving image in order of time phase.
[0106]
Further, in the present embodiment, a case has been described in which image processing is assigned a color gradation from red to blue according to the difference in myocardial thickness, but image enhancement processing is not limited to this, You may make it allocate light and shade according to the magnitude | size of a difference.
(Third embodiment)
Hereinafter, preferred embodiments of a region extraction method and apparatus according to the present invention will be described in detail with reference to the accompanying drawings.
[0107]
FIG. 20 shows the overall configuration of a region extraction system 40 to which this exemplary embodiment is applied.
[0108]
The region extraction system 40 includes a region extraction device 42, a CT device 64, an MR device 66, and an image data server 68, which are connected via a network 62.
[0109]
The region extraction device 42 is an embodiment of the region extraction device according to the present invention, and the CT device 64 and the MR device 66 are devices that acquire images such as tomographic images. The image data server 68 is for accumulating and managing image data. The region extraction device 42, the CT device 64, the MR device 66, and the image data server 68 perform image data transmission / reception via the network 62.
[0110]
Note that the region extraction device 42 can process images such as tomographic images taken under various conditions for organ types, parts, and the like.
[0111]
Further, various networks such as a LAN (local area network) and the Internet can be used as the network 62. As the image data server 68, one or more servers connected to the network can be used. it can.
[0112]
The area extraction device 42 includes a central processing unit (hereinafter referred to as CPU) 46 that controls each component, and the CPU 46 is connected to a common bus 44. The common bus 44 stores a control program for the area extraction device 42 and a main memory 48 used as a storage area for image processing and data processing, and a magnetic disk storing image files, databases, programs, and the like. 50, a display memory 52 for temporarily storing image data for display, a controller 56, and a keyboard 60 having keys and switches for setting various parameters. The display memory 52 is connected to a display for displaying images (hereinafter referred to as CRT) 54, and the controller 56 is connected to a mouse 58 as means for performing various operations on the screen of the CRT 54. Yes.
[0113]
As the storage device, in addition to the magnetic disk 50, devices such as a CD-ROM drive, a magneto-optical disk (MO) drive, and a DVD drive can be connected, and a storage medium that can be inserted into and removed from these devices. An image file or the like may be input / output via the.
[0114]
Next, the operation of the above embodiment will be described. FIG. 21 shows a processing routine executed by the region extraction device 42.
[0115]
First, in step 100, a tomographic image file corresponding to a preset condition is read from the magnetic disk 50 via the mouse 58 and the keyboard 60.
[0116]
In addition to reading from the magnetic disk 50, the image file may be read from the image data server 68 via the network 62, or the image display device 42 may be provided with a storage device as described above and read via a storage medium. Good.
[0117]
In the next step 102, it is determined whether or not the designation of the representative point is automatic. This determination can be made by the screen display of the CRT 54 and input via the mouse 58 or the keyboard 60 as shown in the example of FIG. If the determination is affirmed, the representative point is automatically extracted in the steps after step 104, and if the determination is negative, the representative point is set by the operator's designation in the steps after step 118.
[0118]
If the determination in step 102 is affirmative, the process proceeds to step 104 to clear the addition memory (the storage area used for adding difference data in the main memory 48), and then proceeds to step 106.
[0119]
In step 106, a reference image is set. The reference image may be a tomographic image in an arbitrary time phase among the input tomographic images, for example, a tomographic image in the first time phase.
[0120]
In the next step 108, for the tomographic image having a time phase different from that of the reference image among the input tomographic images, the difference between the image data is calculated for each pixel, and an absolute value is obtained.
[0121]
In the next step 110, the absolute value of the difference obtained in step 108 is added to the addition memory, and then the process proceeds to step 112.
[0122]
The above-described processing of Step 108 and Step 110 is performed for all tomographic images having a time phase different from that of the reference image.
[0123]
Here, when the input is a tomographic image of the heart, the size of the heart is displaced (deformed) with time, but the portion other than the ventricle is basically slightly displaced. For example, as shown in the example of FIG. 23, the portions 1, 2, 5, and 6 hardly change, the ventricle 3 and the myocardium 4 change, and particularly the ventricle 3 changes greatly. Therefore, when the difference is calculated between the tomographic images having different time phases and added, only the pixel value of the ventricle portion having a large displacement becomes a large value.
[0124]
In step 112, it is determined whether or not processing has been completed for all tomographic images. If the determination is affirmative, the process proceeds to step 114. If the determination is negative, the process returns to step 108.
[0125]
In step 114, threshold processing is performed on the addition memory to obtain a binary image of 0 and 1, and then the process proceeds to step 116 where the target region (for example, the region of pixel value 1) of the binary image is processed. Find the center of gravity.
[0126]
In the next step 118, the center of gravity obtained in step 116 is set as a representative point.
[0127]
In this way, in the region extraction system 40 to which this embodiment is applied, the representative point can be automatically set based on the input tomographic image without the operator specifying the representative point.
[0128]
On the other hand, if the determination in step 102 is negative, a representative point is set based on the operator's designation through the processing from step 120 to step 124.
[0129]
In step 120, a reference image is set. As in step 106, the reference image can be a tomographic image at an arbitrary time phase as the reference image.
[0130]
In the next step 122, representative points are set. This process is a process of setting a point in the reference image designated by the operator via the mouse 58 or the keyboard 60 as a representative point, as shown in the example of FIG.
[0131]
As described above, in the region extraction system 40 to which the present exemplary embodiment is applied, it is also possible to set a representative point according to an operator's designation.
[0132]
When the representative point is set by the processing of step 118 or step 122, the process proceeds to step 124, and region extraction is performed based on the representative point. This region extraction process can be performed by a method similar to the conventional method. When region extraction ends, the process proceeds to step 126.
[0133]
In step 126, an image is displayed. In this image display, the input tomographic image, the representative points set automatically or by the operator's designation, and the extracted area can be displayed. These displays can be freely repeated as the operator operates the mouse 58 or the keyboard 60. Further, the tomographic image or the like may be subjected to processing such as coloring or shading, or an image obtained by superimposing the tomographic image, the representative point, and the extracted region may be displayed. When the image display ends, the process proceeds to step 128.
[0134]
In step 128, it is determined whether or not to end the process. If the determination is affirmative, the present processing routine is terminated, and if the determination is negative, the processing returns to step 100.
[0135]
As described above, in the region extraction system 40 to which the present embodiment is applied, the representative points can be automatically set without specifying the operator himself, and the region extraction can be performed quickly. One is free from annoyance.
[0136]
Further, in the region extraction system 40 to which the present embodiment is applied, the input tomographic image, the representative point, and the extracted region are displayed, so that the operator can confirm the processing result quickly and easily. .
[0137]
【The invention's effect】
As described above, according to the present invention, it is possible to accurately extract regions such as the heart ventricle and the myocardium from the tomographic image to be observed, and reflect the thickness of the myocardium based on the extracted regions. It is possible to display an intuitively easy-to-understand image. Therefore, the heart can contribute to the diagnosis of functional disorders such as myocardial infarction.
[0138]
Further, according to the present invention, the observer can quickly grasp the feature amount of the image, and can easily identify the abnormal part in the image.
[0139]
Furthermore, according to the present invention, the region can be extracted without the operator specifying the representative point.
[Brief description of the drawings]
FIG. 1 is a flowchart showing an embodiment of a region extraction method according to the present invention.
FIG. 2 is a diagram used for explaining a region extraction method according to the present invention.
FIG. 3 is a diagram used for explaining a cutting method when a plurality of regions are connected.
FIG. 4 is a diagram used for explaining a method of selecting an area by shape.
FIG. 5 is a diagram used for explaining a region extraction method according to the present invention.
FIG. 6 is a diagram used for explaining a method of determining whether or not a plurality of extracted areas are correct.
FIG. 7 is a flowchart showing a procedure until a correct area is extracted.
FIG. 8 is a diagram used for explaining a region display method according to the present invention.
FIG. 9 is a diagram showing an example of an image displayed based on the region display method according to the present invention.
FIG. 10 is a diagram showing another example of an image displayed based on the region display method according to the present invention.
FIG. 11 is a diagram illustrating a state in which a plurality of tomographic images are captured at predetermined time intervals.
FIG. 12 is a diagram illustrating a hardware configuration example of an apparatus to which the region extraction method and the region display method according to the present invention are applied.
FIG. 13 is a configuration diagram of an image display system according to an embodiment of the present invention.
FIG. 14 is a flowchart showing processing in the image display apparatus according to the embodiment of the present invention.
FIG. 15 is a conceptual diagram showing calculation of a difference in myocardial thickness between tomographic images according to one embodiment of the present invention.
FIG. 16 is a diagram illustrating an example of displaying a tomographic image as a still image according to an embodiment of the present invention.
FIG. 17 is a diagram illustrating an image when a tomographic image is displayed as a moving image according to the embodiment of the present invention.
FIG. 18 is a diagram illustrating an example of display of an image colored in consideration of an image enhancement range set based on a threshold according to an embodiment of the present invention.
FIG. 19 is a diagram showing an example of display of a three-dimensional image according to one embodiment of the present invention.
FIG. 20 is a configuration diagram of a region extraction system according to an embodiment of the present invention.
FIG. 21 is a flowchart showing processing in the region extraction device according to one embodiment of the present invention.
FIG. 22 is an image diagram showing an example of a representative point setting method selection screen.
FIG. 23 is an image diagram showing an example of a temporal change in the size of the heart.
FIG. 24 is an image diagram showing an example of representative point setting by an operator's designation.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 10 ... Central processing unit (CPU), 12 ... Main memory, 14 ... Magnetic disk, 16 ... Display memory, 18 ... Display, 20 ... Controller, 22 ... Mouse, 24 ... Keyboard, 26 ... Common bus, 28 ... Network, 30 ... MR device, 40 ... region extraction system, 42 ... region extraction device, 70 ... image display system, 72 ... image display device

Claims (2)

観察対象のスライス位置の異なる複数の断層像を取得する手段と、
前記複数の断層像をそれぞれ閾値処理して二値化画像を得る手段と、
前記複数の断層像の各々に対して得られた二値化画像から形状を示す情報に基づいて第1の領域を選別する手段と、
前記複数の断層像の各々に対して得られた二値化画像から選別された第1の領域の間の相関を求め、所定の断層像の範囲にわたって共通する領域を求める手段と、
前記複数の断層像の各々に対して求められた共通する領域の重心を求め、重心を中心とした所定の領域を限定する手段と、
前記複数の断層像の各々に対して求められた共通する領域の重心を中心とした所定の領域内から閾値処理により第2の領域を抽出する手段と、
を含むことを特徴とする画像表示装置。
Means for acquiring a plurality of tomographic images having different slice positions of the observation target;
Means for thresholding each of the plurality of tomographic images to obtain a binarized image;
Means for selecting a first region based on information indicating a shape from a binarized image obtained for each of the plurality of tomographic images;
Means for obtaining a correlation between first regions selected from the binarized images obtained for each of the plurality of tomographic images, and obtaining a common region over a range of a predetermined tomographic image;
Means for determining a center of gravity of a common area obtained for each of the plurality of tomographic images, and limiting a predetermined area centered on the center of gravity;
Means for extracting a second region by threshold processing from a predetermined region centered on the center of gravity of the common region obtained for each of the plurality of tomographic images;
An image display device comprising:
記抽出された複数の断層像の第2の領域の外周画像を、所定の投影面に投影するとともに、前記第2の領域の厚さを示す変移長の方向を陰影付けのパラメータの1つとする陰影付けのアルゴリズムによって陰影付けした擬似三次元画像、又は前記第2の領域の厚さを示す変移長に基づいて前記投影した画像上に前記第2の領域の厚さの分布を示すため等厚線を表示する画像表示手段をさらに含む
ことを特徴とする請求項1に記載の画像表示装置。
The outer peripheral image of the second region of the plurality of tomographic images that have been pre-Symbol extraction, as well as projected onto the predetermined projection surface, one of the displacement length direction of the shading parameters indicating the thickness of the second region In order to show the thickness distribution of the second region on the projected image based on the pseudo three-dimensional image shaded by the shading algorithm, or on the transition length indicating the thickness of the second region, etc. the Atsusen further comprising a table Shimesuru image display means,
The image display apparatus according to claim 1.
JP2003030575A 2002-08-30 2003-02-07 Image display device Expired - Fee Related JP4352449B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003030575A JP4352449B2 (en) 2002-08-30 2003-02-07 Image display device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2002253652 2002-08-30
JP2003030575A JP4352449B2 (en) 2002-08-30 2003-02-07 Image display device

Publications (3)

Publication Number Publication Date
JP2004141612A JP2004141612A (en) 2004-05-20
JP2004141612A5 JP2004141612A5 (en) 2006-03-16
JP4352449B2 true JP4352449B2 (en) 2009-10-28

Family

ID=32472848

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003030575A Expired - Fee Related JP4352449B2 (en) 2002-08-30 2003-02-07 Image display device

Country Status (1)

Country Link
JP (1) JP4352449B2 (en)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4497951B2 (en) * 2004-02-16 2010-07-07 株式会社日立メディコ Medical diagnostic imaging equipment
JP4795694B2 (en) * 2004-06-11 2011-10-19 株式会社東芝 X-ray CT apparatus and myocardial perfusion image generation system
WO2006013499A1 (en) * 2004-07-27 2006-02-09 Koninklijke Philips Electronics N.V. Automatic determination of parameters of an imaging geometry
JP4763989B2 (en) * 2004-09-22 2011-08-31 株式会社東芝 Magnetic resonance imaging apparatus, magnetic resonance data processing apparatus, and magnetic resonance data processing program
WO2006051831A1 (en) * 2004-11-10 2006-05-18 Hitachi Medical Corporation Image creating method and device
JP4651375B2 (en) * 2004-12-16 2011-03-16 株式会社日立メディコ Medical image display apparatus and method
JP2006346177A (en) * 2005-06-16 2006-12-28 Toshiba Corp Image diagnostic apparatus, image processor, and three-dimensional image data display method
DE102005041581A1 (en) * 2005-09-01 2007-03-15 Tomtec Imaging Systems Gmbh Method and device for navigation and measurement in a multi-dimensional image data set
JP4996128B2 (en) * 2006-04-27 2012-08-08 株式会社東芝 Medical image processing apparatus and medical image processing method
EP2066228A2 (en) * 2006-07-26 2009-06-10 Koninklijke Philips Electronics N.V. Visualization of stress level cardiac functional analysis results
JP4837579B2 (en) * 2007-01-23 2011-12-14 日本メジフィジックス株式会社 Image processing apparatus, image processing method, and program
US8081811B2 (en) * 2007-04-12 2011-12-20 Fujifilm Corporation Method, apparatus, and program for judging image recognition results, and computer readable medium having the program stored therein
US7957570B2 (en) * 2007-05-03 2011-06-07 General Electric Company System and method to generate an illustration of a cardiac region of interest
JP4937843B2 (en) * 2007-06-11 2012-05-23 株式会社日立メディコ MEDICAL IMAGE DISPLAY DEVICE, MEDICAL IMAGE DISPLAY METHOD, AND PROGRAM
JP5308973B2 (en) 2009-09-16 2013-10-09 富士フイルム株式会社 MEDICAL IMAGE INFORMATION DISPLAY DEVICE AND METHOD, AND PROGRAM
JP5349384B2 (en) 2009-09-17 2013-11-20 富士フイルム株式会社 MEDICAL IMAGE DISPLAY DEVICE, METHOD, AND PROGRAM
JP5502583B2 (en) * 2009-11-12 2014-05-28 学校法人日本医科大学 Image display apparatus, image display program, and image diagnostic apparatus
JP5606832B2 (en) 2010-03-05 2014-10-15 富士フイルム株式会社 Image diagnosis support apparatus, method, and program
JP5662082B2 (en) 2010-08-23 2015-01-28 富士フイルム株式会社 Image display apparatus and method, and program
JP6016222B2 (en) * 2010-10-25 2016-10-26 東芝メディカルシステムズ株式会社 Medical image processing apparatus, medical image photographing apparatus, and medical image processing program
JP5663279B2 (en) * 2010-11-25 2015-02-04 株式会社日立メディコ Image processing device
JP2012161460A (en) 2011-02-07 2012-08-30 Fujifilm Corp Image processor, image processing method and image processing program
JP5263997B2 (en) 2011-03-30 2013-08-14 富士フイルム株式会社 Medical report creation device, medical report creation method, and medical report creation program
JP6041781B2 (en) 2013-10-11 2016-12-14 富士フイルム株式会社 MEDICAL IMAGE PROCESSING DEVICE, ITS OPERATION METHOD, AND MEDICAL IMAGE PROCESSING PROGRAM
JP6790537B2 (en) * 2016-07-15 2020-11-25 コニカミノルタ株式会社 Dynamic analyzer

Also Published As

Publication number Publication date
JP2004141612A (en) 2004-05-20

Similar Documents

Publication Publication Date Title
JP4352449B2 (en) Image display device
JP4209017B2 (en) Method and apparatus for creating an enhanced image of a desired structure
JP4374234B2 (en) Method and apparatus for medical invasive treatment planning
US7020510B2 (en) Optimal view map V.0.01
US7613500B2 (en) Methods and apparatus for assisting cardiac resynchronization therapy
JP4681885B2 (en) Protocol-based volume visualization
EP2054860B1 (en) Selection of datasets from 3d renderings for viewing
US8952960B2 (en) Method for visualizing an atrium of the heart in a patient
JP5572470B2 (en) Diagnosis support apparatus, method, and program
US9198603B2 (en) Device, method and program for searching for the shortest path in a tubular structure
JP2002078706A (en) Computer-aided diagnosis method for supporting diagnosis of three-dimensional digital image data and program storage device
JP2007135858A (en) Image processor
Bullitt et al. Volume rendering of segmented image objects
JP2009018005A (en) Bull's eye map creating apparatus, bull's eye map creating method, and image processing apparatus
CN110458837A (en) A kind of post processing of image method, apparatus, electronic equipment and storage medium
US9019272B2 (en) Curved planar reformation
JP2008514261A (en) Image processing apparatus and method
JP3989896B2 (en) Medical image processing apparatus, region of interest extraction method, and program
CN113506277B (en) Image processing method and device
JP4653760B2 (en) Image segmentation of volume dataset
EP3828836B1 (en) Method and data processing system for providing a two-dimensional unfolded image of at least one tubular structure
JP4473578B2 (en) Method and apparatus for forming an isolated visualized body structure
CN115861347A (en) Method and device for extracting focus region, electronic equipment and readable storage medium
KR20180115122A (en) Image processing apparatus and method for generating virtual x-ray image
CN109727662B (en) Display method and device for medical image detection, equipment and non-transient storage medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060126

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090422

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090515

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090706

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090719

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120807

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120807

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130807

Year of fee payment: 4

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees