JP3747388B2 - 3D image display method - Google Patents

3D image display method Download PDF

Info

Publication number
JP3747388B2
JP3747388B2 JP05936196A JP5936196A JP3747388B2 JP 3747388 B2 JP3747388 B2 JP 3747388B2 JP 05936196 A JP05936196 A JP 05936196A JP 5936196 A JP5936196 A JP 5936196A JP 3747388 B2 JP3747388 B2 JP 3747388B2
Authority
JP
Japan
Prior art keywords
image
dimensional image
point
images
projection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP05936196A
Other languages
Japanese (ja)
Other versions
JPH09251551A (en
Inventor
良洋 後藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Healthcare Manufacturing Ltd
Original Assignee
Hitachi Medical Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Medical Corp filed Critical Hitachi Medical Corp
Priority to JP05936196A priority Critical patent/JP3747388B2/en
Publication of JPH09251551A publication Critical patent/JPH09251551A/en
Application granted granted Critical
Publication of JP3747388B2 publication Critical patent/JP3747388B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、例えばX線CT装置で得られた多数の断層像(CT像)や、MRI装置等の三次元計測によるボリューム画像を分解して得られた多数の断層像、あるいはその他の多数の断層像を積み上げて積上げ三次元画像を得、これを任意の方向から見た二次元画像に陰影付け等を行って再構成された三次元画像(疑似三次元画像)の表示方法の改良に関するものである。
以下、X線CT装置で得られた多数のCT像による積上げ三次元画像を用いた場合を例に採って説明する。
【0002】
【従来の技術】
近年、コンピュータを利用した上記三次元画像の構成,表示は、被検体目的部位の外面あるいは内面形状等、例えば頭部皮膚像や骨像、あるいは血管内壁面像の外観的な性状の観察,診断に供するものとして注目されている。
【0003】
このような三次元画像を構成,表示する場合、それに用いる上記多数の断層像(原画像)の隣り合う断層像間のピッチ(距離)が粗いと、得られる三次元画像の画質が劣り、観察しにくいものとなる。そこで、隣り合う断層像間の画素を補間によって求め、その画素をも用いて三次元画像を構成,表示することにより画質を改善する方法が提案されている。
この種の画質改善方法の例として周藤安造,他、共著による「三次元表示における画質改善の一方法」(MEDICAL IMAGING TECHNOLOGY.August 1988.275頁)がある。以下、これにつき図15を参照して説明する。
【0004】
図15は、隣り合う互いに平行な2つの原画像(CT像)1,2が存在し、視点Eから投影面Pへ投影を図った例を示す。視点Eは任意の点、投影面Pの位置も任意の位置に存在するものであり、この視点Eと投影面Pとの位置は投影目的、表示目的によって定まる。
視点Eからの投影面Pへの投影法は種々存在する。視点Eを面としてとらえ、この面から投影面Pへの平行な投影線で平行投影する方法や、視点Eを点としてとらえ、この点から投影面方向へ放射状に広がる中心投影線を想定して投影面Pに中心投影する方法等、種々の方法が採用され得る。
【0005】
さて、視点Eから投影面P上の投影点pへの投影について述べる。視点Eから投影点pまでの直線Lが投影線であり、この投影線L上の各画素が、投影点pへの投影すべき画素となる。ここで投影線Lは、互いに平行な2つの原画像1,2に垂直に交わらない投影線である。すなわち、原画像1,2に対して斜め方向となる投影線Lを想定している。投影線L上にあって、Q1が投影線LとCT像1との交点、Q2が投影線LとCT像2との交点である。そして、点Q1の画素値はCT像1の当該位置の画素値、点Q2の画素値はCT像2の当該位置の画素値であり、点Q1と点Q2とを結ぶ投影線L上の当該Q1,Q2点間をN分割(Nは整数)したときの各点の画素値が補間によって求めるべき画素値ということになる。
【0006】
そのためには、まず点Q1と点Q2とを結ぶ投影線L上の上記各点(補間点)の座標を特定する必要がある。いま、x,y,zの座標系のもとで、その任意の一点である補間点(新CT像点)Aの位置(x1,y1,z1)を特定したとする。ここで、x,y,zはCT像1,2等の積み上げた状態での各点の座標を特定するための空間座標系であり、yは互いに平行な配置のCT像1,2,…に直交する座標軸を示し、x,zはyに直交する平面の座標軸である。そして、各CT像の積上げ位置(スライス位置)はyで表現でき、各CT像の各点画素位置はx,zで表現できる。また、CT像1のy位置をy01、CT値2のy位置をy02とする。
【0007】
いま、点Aを通るy軸に平行な直線mを与え、この直線mとCT像1,2との交点a5,b5を、a5(x1,y01,z1),b5(x1,y02,z1)とする。点a5と補間点Aとの距離は(y01−y1)、補間点Aと点b5との距離は(y1−y02)であり、これらから、補間点Aの画素値Iaは、点a5,b5での画素値を各々I01,I02とすると次式(1)の線形補間式で求められる。
Ia={I01(y1−y02)+I02(y01−y1)/(y01−y02) …(1)
一方、CT像1,2上の上記点a5,b5は、画素位置として実際には存在しないことが多い。これは、CT像1,2のCT画素位置が投影分解能に比して粗いためである。例えば、図15ではCT像1,2の実際の隣り合う画素位置はa1,a2,a3,a4,…、b1,b2,b3,b4,…のように粗い。そして点a5,b5にはCT像1,2の画素は存在しない。そこで、点a5,b5の画素値もその周囲の実際の画素値から補間によって求める。点a5,b5の画素値I01,I02を求めるには、例えばその点a5,b5近傍の各4点a1,a2,a3,a4;b1,b2,b3,b4の画素値の加重平均値から算出する方法もあれば、近傍2点の画素値からの線形補間法によって求める方法もある。
【0008】
以上は補間点Aについてであるが、他の補間点B(x1´,y1´,z1´)の画素値Ibを求めるためには、同様にy軸に平行な直線m´との交点a5´,b5´を求め、この交点a5´,b5´の画素値I01´,I02´を補間によって求める。この補間によって求めた画素値I01´,I02´と、交点a5´,b5´との距離(y01−y1´),(y1´−y02)とを用いて上式(1)による線形補間を行い、補間点Bの画素値Ibを求める。
【0009】
上述演算を、投影線Lの点Q1と点Q2との間で基本ピッチ毎に行ってその基本ピッチ毎の補間画素値を求める。投影線Lはその投影法によって種々定められるものであり、このような演算処理を、CT像1,2に対する全ての投影線について行う。更に、CT像1,2以外での隣り合うCT像についても同様の処理を行って画素値を求める。このようにして求めた画素値の表示に際しては、投影線L上の全ての画素値をそのまま表示したのでは表示内容が極めて不鮮明となるので、視点Eから遠い距離にある点(画素位置)の画素値は暗くし、すなわち小さい値とし、また、視点Eから近い距離にある点(画素位置)の画素値は明るくする、すなわち大きな値とする方法(ボクセル法あるいはデプス法等)をとる。この方法は陰影付け処理と呼ばれるものである。更に、必要に応じて奥側を除去し一番手前の位置の画素値のみを表示させる画像処理(隠面処理)を行う。
【0010】
【発明が解決しようとする課題】
上述補間方法により補間された画素値をも用いて構成表示された三次元画像の画質は大幅に向上され、例えば頭部骨像あるいは血管内壁面像の外観的な性状の観察,診断をより有効なものとする。特に、血管内壁面像の画質の向上は、対血管術技における事前の観察,診断あるいはシミュレーション等に有用である。
しかしながら上述従来方法では、上記のように被検体目的部位の外面あるいは内面形状を見ること、例えば血管内壁面についていえば、その血管内壁面を外観的に見ることしかできず、血管内壁面の性状について観察,診断できるに過ぎなかった。しかし、血管内壁面に加えて血管壁中組織の性状をも同時観察できれば、血管全体についてより有効な診断をなし得ることはいうまでもなく、またこのことは血管のみならず、他の部位についても同様であり、従来、この点についての改善が要求されていた。
【0011】
本発明の目的は、被検体目的部位の表面、例えば血管内壁面の性状について観察可能であり、かつそのうちの所望部分についてはその内部の性状、例えば血管壁中組織の性状をも同時観察可能で、血管全体等、目的部位全体についてより有効な観察,診断をなし得、容易に病巣と正常組織を見分けられる三次元画像の表示方法を提供することにある。
【0012】
【課題を解決するための手段】
上記目的は、多数の断層像を積み上げて積上げ三次元画像を得、これを任意の方向から見た二次元画像に所定の処理を行って再構成された三次元画像の表示方法において、所望方向については、その投影線上、所望のしきい値の条件を満たした位置から投影面方向に所定距離進んだ位置の断層像の画素値を前記処理を行うことなくそのまま表示することにより達成される。
【0013】
病巣と正常組織を見分ける1つの方法として、画素値(断層像がX線CT装置のCT像であるときにはCT値、MRI装置等の三次元計測によるボリューム画像を分解して得られた断層像であるときは濃度値)をそのまま表示する方法が有効である。これはX線CT装置やMRI装置による断層像で病巣の観察,診断が有効に行えることと同じ理由による。また、病巣を見つけるには目的部位の外面あるいは内面を表示するよりも組織の内部を表示するほうがよい。特に、血管に関してはそうである。
積上げ三次元画像による再構成三次元画像は、被検体目的部位の外面あるいは内面形状を見ることしかできず、内部の性状について観察,診断はできない。しかし、陰影付けや隠面処理等を行って再構成された三次元画像の表示方法において、所望方向の所定距離進んだ位置については断層像の画素値(補間方法によるものも含む)をそのまま表示することとすれば、目的部位の外面あるいは内面形状を見ると同時に、内部の所望部分の性状についても見ることができる。
【0014】
これによれば、目的部位の表面の性状について観察可能で、かつ所望部分についてはその内部の性状をも同時観察可能となり、目的部位全体についてより有効な観察をなし得る。特に、血管内壁面の性状について観察可能で、かつ所望部分については血管壁中組織の性状をも同時観察可能であることによれば、血管全体についてより有効な観察,診断をなし得ることになる。
【0015】
【発明の実施の形態】
以下、図面を参照して本発明の実施形態を説明するが、それに先立って、まず本発明方法で用いられる三次元画像構成での中心投影法による座標変換方法及び隣接2CT像間での投影線上の位置の画素値(断層像)の補間方法について説明する。
【0016】
図11は上記座標変換方法において必要な座標系や視点E、投影面Pの定義及びそれらの関係を示す図である。図11中、x,y,zは積上げ三次元画像(CT像1,2…)の空間座標系であり、yはCT像1,2…に直交する座標軸、x,zはyに直交する平面の座標軸であってCT像1,2…上での各画素位置を特定する座標軸である。投影面P及び視点Eは診断目的や投影目的によって定まる。また視点Eは、平行投影法での平面上の視点の1つとしても、中心投影法での視点としても考えられるが、図11では中心投影法での視点を表わしている。
【0017】
投影面Pは、3つのパラメータである角度α,β及び距離hで定義する。x,y,z座標系での原点0から投影面Pに垂線を下ろし、その交点をN1とする。交点N1をx−z平面に垂直に投影し、その投影点をN2とする。パラメータαは、原点0と交点N2とを結ぶ直線とx軸とのなす角度、パラメータβは、原点0と交点N2とを結ぶ直線と、原点0と交点N1とを結ぶ直線とのなす角度である。距離hは、視点Eから投影面Pへの垂線L1上の視点Eと垂直交点C間の距離であり、このパラメータhは視点Eと投影点pとの関係を規定する。
【0018】
投影面Pそのものの座標系をX,Yとする。視点Eの位置をE(x0,y0,z0)とし、この視点Eからの投影線Lの投影面Pとの交点(すなわち投影点)pをp(x,y,z)とする。またp(x,y,z)は、X,Y座標系でp(X,Y)と表現する。視点Eから投影面Pへ垂直に交わる点をc(x11,y11,z11)とし、これをX,Y平面上ではC(X,Y)とする。
更に、CT像1には、交点Q1の周囲4点a1,a2,a3,a4に画素が存在し、CT像2には、交点Q2の周囲4点b1,b2,b3,b4に画素が存在しているものとする。
【0019】
以上の各座標系や位置定義のもとで、CT像1,2上の上記点Q1,Q2の算出方法を次に示す。まず、投影面Pのパラメータ(α,β,h)と、視点Eの座標(x0,y0,z0)と2つの隣り合うCT像1,2及びそのCT像1,2のy座標値y01,y02とをキーボード等からキー入力し、投影面Pを決定する定数a,b,cを(2),(3),(4)式によって算出する。定数a,b,cは、図11に示すx,y,z座標系の原点からの、投影面Pへのx,y,z軸交点への距離である。
【0020】
【数1】

Figure 0003747388
【0021】
【数2】
Figure 0003747388
【0022】
【数3】
Figure 0003747388
【0023】
ここで、t=x0・cosα+z0・sinα+y0・tanβである。(α,β,h),(x0,y0,z0)はオペレータによって設定される値である。
【0024】
次に、視点Eから投影面Pへの垂線L1の、投影面Pとの交点C(x11,y11,z11)を(5),(6),(7)式によって算出する。
【0025】
【数4】
Figure 0003747388
【0026】
【数5】
Figure 0003747388
【0027】
【数6】
Figure 0003747388
【0028】
その後、視点Eからの投影線Lの、投影面Pとの交点(投影点)pの座標p(x,y,z)を(8),(9),(10)式によって算出する。
【0029】
【数7】
Figure 0003747388
【0030】
【数8】
Figure 0003747388
【0031】
【数9】
Figure 0003747388
【0032】
ただし、
【0033】
【数10】
Figure 0003747388
【0034】
【数11】
Figure 0003747388
【0035】
である。
なお、X,Yは、投影点pの座標p(x,y,z)の、X,Y座標系上での座標である。この投影点pの座標P(X,Y)は走査時にX=0〜±256,Y=0〜±256として与えられたものの任意のX,Yの組合せ値である。
【0036】
次に、投影線LとCT像1,2との交点Q1,Q2の座標Q1(x01,y01,z01)、Q2(x02,y02,z02)を、(13),(14),(15),(16)式によって算出する。
【0037】
【数12】
Figure 0003747388
【0038】
【数13】
Figure 0003747388
【0039】
【数14】
Figure 0003747388
【0040】
【数15】
Figure 0003747388
【0041】
ここで、y01はCT像1のy座標値、y02はCT像2のy座標値であり、CT像1,2はy座標値に垂直な平面である。y01,y02はCT像1,2の積上げ時に入力設定された値である。
【0042】
次に、図12を参照して本発明方法で用いられる画素値の補間方法の一例を説明する。本発明方法における補間画素位置は上記点Q1,Q2のようなCT像(断層面)上に限らない。
図12は、投影線L上の2つの点D1,D2の画素値を用いて補間によりD1,D2間の補間点M3の画素値を求める例を示している。ただし、点D1,D2はCT像1,2上にない点である。なお、CT像1上の画素位置a1,a2,a3,a4の画素値を各々Qa1,Qa2,Qa3,Qa4とし、CT像2上の画素位置b1,b2,b3,b4の画素値を各々Qb1,Qb2,Qb3,Qb4とする。これらの画素値Qa1,Qa2,Qa3,Qa4;Qb1,Qb2,Qb3,Qb4は、画素位置a1,a2,a3,a4;b1,b2,b3,b4がCT像1,2上にあるので既知である。
【0043】
まず、点D1,D2の画素値QD1,QD2を画素位置a1,a2,a3,a4;b1,b2,b3,b4の画素値から補間によって下記の手順で求める。
【0044】
点D1からCT像1,2に垂線を延ばし、各CT像1,2との交点R1,R2の画素値を、画素値Qa1,Qa2,Qa3,Qa4と画素値Qb1,Qb2,Qb3,Qb4を用いて補間によって求める。次に、その点R1,R2の画素値を用いて点D1の画素値を補間によって求める。点D2の画素値についても同様の方法で求める。点D1,D2の画素値QD1,QD2を求める式(17),(18)を下記に示す。
【0045】
QD1=〔(1−dz1){Qa4(1−dx1)+Qa3・dx1}+dz1{Qa1(1−dx1)+Qa2・dx1}〕・(1−dy1)+〔(1−dz1){Qb4(1−dx1)+Qb3・dx1}+dz1{Qb1(1−dx1)+Qb2・dx1}〕・dy1 ……(17)
QD2=〔(1−dz2){Qa4(1−dx2)+Qa3・dx2}+dz2{Qa1(1−dx2)+Qa2・dx2}〕・dy2+〔(1−dz2){Qb4(1−dx2)+Qb3・dx2}+dz2{Qb1(1−dx2)+Qb2・dx2}〕・(1−dy2) ……(18)
ここで、
dx1はa1,a2間を1に正規化したときの距離を示す。
dy1はa1,b1間を1に正規化したときの距離を示す。
dz1はa1,a4間を1に正規化したときの距離を示す。
dx2はb1,b2間を1に正規化したときの距離を示す。
dy2はa1,b1間を1に正規化したときの距離を示す。
dz2はb1,b4間を1に正規化したときの距離を示す。
ここで、視点Eの座標をE(x0,y0,z0)、投影面P上の投影点pの座標をp(x1,y1,z1)、視点Eと投影点pとの距離をlとし、x,y,z方向の増分を、
incx=(x1−x0)/l
incy=(y1−y0)/l
incz=(z1−z0)/l
としたとき、投影線L上の視点Eから距離sにある補間点M3の座標(x,y,z)は、
x=x0+s・incx
y=y0+s・incy
z=z0+s・incz
と表わされる。
【0046】
また、補間点M3の画素値は、点D1,D2の画素値QD1,QD2を使用して次式(19)で表わされる。
補間点M3の画素値=r2・QD1+r1・QD2 …(19)
ただしr1,r2は点D1,D2間を正規化した場合の補間点M3と点D1,D2間の正規化された距離であり、r1+r2=1である。
式(19)において、補間点M3の画素値として臓器抽出用しきい値を与えた場合、投影線L上で該しきい値を満たす座標が直ちに求められことになる。
【0047】
上述補間方法を図13のフローチャートを併用して更に詳しく述べる。
まず、ステップ70でx,y,z,sの初期化を行う。すなわち、x=x0,y=y0,z=z0,s=0とする。
【0048】
ステップ71では、y←(y+incy)としてCT像1,2間の点を指定する。これで視点Eから距離sの位置が指定される。ここで、incyを加える前の点を旧s、incyを加えた後の点を新sと定義する。旧sが図12の点D1に対応し、新sが点D2に対応する。
【0049】
ステップ72では、旧sと新sとが同じCT像間(ここではCT像1,2間)に入るか否かを判定する。具体的には、旧sと新sのy座標の小数点以下を切り捨てて、整数部が同じか否かを判定する。同じと判定されたならば、同じCT像間に入ると判定され、異なると判定されたならば異なるCT像間に入いると判定される。
【0050】
図14は、旧sと新sとが同じCT像間に入らない場合を例示する。この場合は、新sの位置がCT像(図14においてはCT像j+1)上の点Wになるようにする。これにより補間に用いる画素点を同じにする。この場合、新s点の座標はステップ73で下記のように設定する。
y=CT像のy座標
x←(x+incx´)
z←(z+incz´)
ここで、
incx´=incx・(CT像y座標−旧sのy座標)/incy
incz´=incz・(CT像y座標−旧sのy座標)/incy
ステップ72で旧sと新sとが同じCT像間に入ると判定された場合、新s点の座標はステップ74で次のように設定される。
s←(s+incs)
x←(x+incx)
z←(z+incz)
ステップ75では、sの先端が投影面Pに達したか否かを判定し、達していないならばステップ76に進む。達していたならば処理を終了する。
ステップ76では、新sの画素値QD2を求める。
ステップ77では、新sの画素値QD2を求める計算が1回目か否かを判定する。1回目ならばステップ78でQD1=QD2としてメモリに格納する。この段階で、点D1の画素値QD1が求まったことになり、引き続き点D2の位置と画素値を求めるためにステップ71に戻る。
ステップ77で新sの画素値QD2を求める計算が1回目でなければ、ステップ76で求められた画素値QD2は点D2の画素値に相当するので2つの補間点が求まっていると判断し、ステップ79で旧s,新s間の補間点M3の画素値を補間によって求める。旧sの画素値はQD1となる。線形補間による場合は式(19)を用いて求めるが、非線形補間により求めてもよい。
ステップ80では、QD2をQD1とすることにより新sの画素値を旧sの画素値として設定し、新sの位置と画素値を求めるためにステップ71に跳ぶ。
以後、上述処理を繰り返す。
【0051】
以下、上述補間方法を用いた本発明による三次元画像の表示方法の実施形態について説明する。図1は、本発明による三次元画像の表示方法の一実施形態を説明するためのフローチャートである。
ここでは、血液に造影剤を投与した状態で血管のCT像計測が行われ、多数の血管CT像が得られ、それらの積上げ三次元画像を任意の方向から見た血管の二次元画像に陰影付け等を行って再構成された三次元画像(疑似三次元画像)の表示において本発明方法が適用される場合について説明する。
【0052】
上述のようにして得られた積上げ三次元画像において、臓器抽出用しきい値、ここでは造影剤と血管壁の境界に相当するCT値(画素値)をしきい値として与え、しきい値処理すると血液と血管壁の境界付近の画素点、例えば図2中の画素点40が求まる。
【0053】
血管壁中組織の画素点41を求めるには投影線Lに沿って点40から所定距離だけ延長した点を求めればよい。これを図3により具体的に説明すると、点ai(i=1,2,3…)でしきい値(血管壁と造影剤との境界を表わすCT値)の条件を満たしたら各々所定距離ds(しきい値の検出点から所定距離進んだ点までの距離)だけ延長した点bi(i=1,2,3…)の画素点を抽出する。
【0054】
図4は上記所定距離dsを投影線L毎に変化させる例を示す。ここでは、デプス画像(視点Eから、しきい値処理で抽出した画素点までの距離を画素値とした画像)の濃度勾配面の法線と投影線Lとのなす立体角θi(i=1,2,3…)の大きいほど距離dsを大きくする。実際には、ds=C1−C2・cosθx・cosθyで近似する。
【0055】
ここで、C1,C2はC1>C2の正の定数である。またθx,θyは、図5で示すように、
tanθx=(f(m+1)−f(m−1))/2点間の距離
tanθy=(f(n+1)−f(n−1))/2点間の距離
である。ここで、fは視点と投影面間の距離を表わす。
【0056】
したがって、投影線L上の最終抽出点の座標(x,y,z)は、次のように表わされる。
x=x_ex+ds・incx
y=y_ex+ds・incy
z=z_ex+ds・incz
ただし、(x_ex,y_ex,y_ex)は、しきい値の条件を満たす画素点の座標である。
【0057】
これによる画素座標(x,y,z)のCT値(このCT値は原画像に存在しなければ補間方法で求めたCT値)を投影面L上の点P(X,Y)に相当する表示メモリのアドレスに格納する。これにより、画素座標(x,y,z)についてはCT値がそのまま表示されることになる。
投影線Lが臓器面、ここでは血管壁内面に対して斜めに入射した場合、距離dsを長く設定しないとCT値がそのまま表示される画素座標(x,y,z)は観察,診断に適した血管壁中組織の深い位置には達しない。図4の例は、そのような不都合を解消できる。
【0058】
なお、図5はデプス画像濃度勾配を求める図で、X,Yは投影面の座標軸、Iは画素値を表わす軸、dix1はデプス画像のX方向の濃度差(=i(n,m+1)−i(n,m−1))、diyはデプス画像のY方向の濃度差(=i(n+1,m)−i(n−1,m))、θxはθx=tan-1(dix1/2)で与えられる値、θyはθy=tan-1(diy1/2)で与えられる値、Nxはθxで定まる直角三角形の斜辺に垂直な法線ベクトル、Nyはθyで定まる直角三角形の斜辺に垂直な法線ベクトルである。
【0059】
図6は投影,表示する画素点の抽出の他の例を示す。
図6において、CT像の画素値の等高線を考えると、しきい値の条件を満たす点x(ベクトル表記)での等高線の法線ベクトルnは、
n=(dnx/dn,dny/dn,dnz/dn)
dn=sqrt(dnx2+dny2+dnz2
と表記される。ここでdnx,dny,dnzは画素値のx,y,z方向の変化分である。
【0060】
この例では、点xを投影せずに、ベクトルnと反対方向の点x´(表記はベクトル)
x´=x−定数・n
で指定される画素値を投影面P上の点P(X´,Y´)に投影する。
【0061】
このとき、X´,Y´は前記X,Yを変数とした式(8),(9),(10)をx,y,zを変数として逆に解いた式(明示せず)にx´,y´,z´を代入して得る。これによれば、血管等の場合、壁に垂直方向のCT値による三次元画像が構成できる。
【0062】
次に、図1に戻り本発明方法を説明する。
まず、ステップ30において、sを初期化する。s=0で、x=x0、y=y0、z=z0(視点Eの位置)である。
次に、ステップ31で、点(x,y,z)がしきい値の条件を満たすか否かを判定する。満たすならばその点を(x_ex,y_ex,z_ex)とし、ステップ33へ移り、満たさなければステップ32へ移る。
ステップ32では、sの長さをincsだけ長くして投影線L上の次の点を指定する。
【0063】
ステップ33では、デプス画像(視点−投影面の画像が格納してある)の点(X−1,Y)と点(X,Y−1)の値も用いてデプス画像の勾配を求める。ここで、θx,θyが求まる。
ステップ34では、上記θx,θyの関数としてsの延長分dsを求める。
ステップ35では、sをdsだけ延ばす。
またステップ36では、血管壁中組織の点(x,y,z)を求める。
ステップ37では、点(x,y,z)のCT値を表示メモリに格納し、画像として表示する。
【0064】
図7は、サーフェイス法、ボリュームレンダリング法等により陰影付けした画像100の所望部分を上述本発明方法により得られたCT像の画素値(補間方法によるものも含む)、ここではCT値をそのまま表示する部分画像101で置き換え表示した血管分岐部分の表示画像例を示した図である。この場合、画像100で血管内壁面の性状について観察し、部分画像101で所望部分の血管壁中組織の性状を同時観察し得る。
これにより、血管内壁面の性状について観察可能で、かつ所望部分については血管壁中組織の性状をも同時観察可能であり、血管全体についてより有効な観察,診断をなし得ることになる。
【0065】
図8は、上記陰影付けした画像100とCT像のCT値をそのまま表示した部分画像101とを図7のように重ねて表示せず、並べて表示する場合の例を示す。ここでは、一方の画像101(又は100)上の所望の一箇所P1(P2)を、マウス等のポインティングデバイス102の操作で画面上を移動する矢印形カーソルCUR1(CUR2)により指示した場合に、他方の画像100(又は101)の対応位置P2(P1)に矢印形カーソルCUR2(CUR1)が表示されるようになされている。これによれば、画像100と部分画像101との相互位置関係が分かりやすくなる。
【0066】
図9は、サーフェイス法、ボリュームレンダリング法等で陰影付けした画像110の微分画像111をラプラシアン等を用いて作成し、この上記微分画像111と、画像110の所望部分のCT値をそのまま表示した画像112(上記画像100に対する部分画像101に相当する画像)との合成画像113を表示する例を示す。これによれば、微分画像は線画であって、他の画像を合成しやすい。
【0067】
図10は本発明方法が適用可能なハードウェア構成例を示すブロック図である。
図10において、200はCPU、201は主メモリ、202は磁気ディスク、203は表示メモリ、204はマウスコントローラ、208はキーボードで、これらは共通バス207に接続されている。磁気ディスク202には、多数のCT像及び座標変換や陰影付け、隠面処理、更には補間処理のためのプログラム等が格納されている。CPU200は、これら多数のCT像及びプログラムを読み出し、主メモリ201を用いて目的部位、例えば血管壁中組織の所望部についてはCT値をそのままその画素値とした三次元画像(疑似三次元画像)を構成し、その結果を表示メモリ203に格納し、CRTモニタ205に表示させる。キーボード208又はマウスコントローラ204に接続されたマウス206は、上記三次元画像を構成する際の、視点位置、補間処理時の所定距離等のパラメータ等を指定する。得られた三次元画像は必要に応じて磁気ディスク202に格納される。なお、磁気ディスク202に代えて光ディスク、光−磁気ディスク等、他の記憶装置を用いてもよい。
【0068】
なお、上述実施形態における補間方法としては、線形補間や非線形補間等、種々の補間方法が適用可能である。また、原画像となる断層像として、X線CT装置によるCT像を例に採って説明したが、これに限らず、MRI装置等の三次元計測によるボリューム画像を分解して得られた多数の断層像、あるいは超音波断層装置の断層像等であってもよい。更に、断層像は血管像に限らない。
また、本発明方法で用いられるしきい値は、複数、例えば2値設定し、設定された範囲内の値で特定される位置から投影面方向に所定距離進んだ位置の断層像の画素値を、陰影付け、隠面処理を行うことなくそのまま表示するようにしてもよい。
【0069】
【発明の効果】
以上説明したように本発明によれば、多数の断層像を積み上げて積上げ三次元画像を得、これを任意の方向から見た二次元画像に所定の処理を行って再構成された三次元画像を表示方法において、所望方向については、その投影線上、所望のしきい値の条件を満たした位置から投影面方向に所定距離進んだ位置の(断層像の)画素値を前記処理を行うことなくそのまま表示する。例えば前記断層像がCT像の場合、CT値をそのまま表示する。したがって、被検体目的部位の表面、例えば血管内壁面の性状について観察可能であり、かつそのうちの所望部分についてはその内部の性状、例えば血管壁中組織の性状をも同時観察可能で、血管全体等、目的部位全体についてより有効な観察,診断をなし得、容易に病巣と正常組織を見分けられるようになるという効果がある。
【図面の簡単な説明】
【図1】本発明方法の一実施形態を説明するためのフローチャートである。
【図2】本発明方法を血管内壁の表示に適用した場合の説明図である。
【図3】本発明方法において投影,表示する画素点を抽出するときの所定距離dsの設定の一例の説明図である。
【図4】本発明方法において投影,表示する画素点を抽出するときの所定距離dsの設定の他の例の説明図である。
【図5】図4に示す所定距離dsの設定例を説明するための図である。
【図6】本発明方法において投影,表示する画素点の抽出の他の例の説明図である。
【図7】本発明方法による表示画像の一例を示す図である。
【図8】本発明方法による表示画像の他の例を示す図である。
【図9】本発明方法による表示画像の更に異なる例の説明図である。
【図10】本発明方法が適用可能なハードウェア構成例を示すブロック図である。
【図11】本発明方法で用いられる三次元画像構成での中心投影法による座標変換方法の説明図である。
【図12】本発明方法で用いられる隣接2CT像間での投影線上の位置の画素値補間方法の説明図である。
【図13】同上補間方法を説明するためのフローチャートである。
【図14】図13に示すフローチャート中のステップ72においてnoと判定されたときの処理の説明図である。
【図15】従来公知の隣接2CT像間での投影線上の位置の画素値補間方法の説明図である。
【符号の説明】
200…CPU、201…主メモリ、202…磁気ディスク、203…表示メモリ、204…マウスコントローラ、205…CRTモニタ、206…マウス、207…共通バス、208…キーボード。[0001]
BACKGROUND OF THE INVENTION
For example, the present invention provides a large number of tomographic images (CT images) obtained by an X-ray CT apparatus, a large number of tomographic images obtained by decomposing a volume image obtained by three-dimensional measurement such as an MRI apparatus, or a number of other tomographic images. Regarding the improvement of the display method of 3D images (pseudo 3D images) reconstructed by accumulating tomographic images to obtain stacked 3D images and shading the 2D images viewed from any direction. It is.
Hereinafter, a case where a stacked three-dimensional image using a large number of CT images obtained by an X-ray CT apparatus is used will be described as an example.
[0002]
[Prior art]
In recent years, the configuration and display of the above-described three-dimensional image using a computer has been made by observing and diagnosing the appearance or external shape of the target region of the subject, such as the appearance of the head skin image, bone image, or blood vessel inner wall surface image. It has been attracting attention as a product to be used.
[0003]
When such a three-dimensional image is constructed and displayed, if the pitch (distance) between adjacent tomographic images of the above-mentioned many tomographic images (original images) is coarse, the image quality of the obtained three-dimensional image is inferior and observation is performed. It becomes difficult to do. In view of this, a method has been proposed in which pixels between adjacent tomographic images are obtained by interpolation, and a three-dimensional image is constructed and displayed using the pixels to improve image quality.
An example of this type of image quality improvement method is Yasuzou Saito et al., Co-authored “A method for improving image quality in 3D display” (MEDICAL IMAGING TECHNOLOGY. August 1988.275). This will be described below with reference to FIG.
[0004]
FIG. 15 shows an example in which there are two original images (CT images) 1 and 2 that are parallel to each other and are projected from the viewpoint E onto the projection plane P. The viewpoint E is an arbitrary point, and the position of the projection plane P is also at an arbitrary position. The position of the viewpoint E and the projection plane P is determined by the projection purpose and the display purpose.
There are various projection methods from the viewpoint E onto the projection plane P. Assuming a viewpoint E as a plane and parallel projection with parallel projection lines from this plane to the projection plane P, or a central projection line that takes the viewpoint E as a point and spreads radially from this point toward the projection plane Various methods such as a method of centrally projecting onto the projection plane P can be adopted.
[0005]
Now, the projection from the viewpoint E to the projection point p on the projection plane P will be described. A straight line L from the viewpoint E to the projection point p is a projection line, and each pixel on the projection line L is a pixel to be projected onto the projection point p. Here, the projection line L is a projection line that does not perpendicularly intersect two original images 1 and 2 that are parallel to each other. That is, a projection line L that is oblique to the original images 1 and 2 is assumed. On the projection line L, Q1 is the intersection of the projection line L and the CT image 1, and Q2 is the intersection of the projection line L and the CT image 2. The pixel value of the point Q1 is the pixel value at the corresponding position of the CT image 1, the pixel value of the point Q2 is the pixel value of the corresponding position of the CT image 2, and the pixel value on the projection line L connecting the point Q1 and the point Q2 The pixel value at each point when the Q1 and Q2 points are divided into N (N is an integer) is the pixel value to be obtained by interpolation.
[0006]
For this purpose, it is first necessary to specify the coordinates of the above points (interpolation points) on the projection line L connecting the points Q1 and Q2. Now, assume that the position (x1, y1, z1) of an interpolation point (new CT image point) A, which is an arbitrary point, is specified under the coordinate system of x, y, z. Here, x, y, and z are spatial coordinate systems for specifying the coordinates of each point in a state in which the CT images 1 and 2 are stacked, and y is the CT images 1, 2,. The coordinate axes orthogonal to are shown, and x and z are the coordinate axes of a plane orthogonal to y. The accumulated position (slice position) of each CT image can be expressed by y, and each point pixel position of each CT image can be expressed by x and z. The y position of CT image 1 is y01, and the y position of CT value 2 is y02.
[0007]
Now, a straight line m passing through the point A and parallel to the y-axis is given, and the intersection points a5 and b5 between the straight line m and the CT images 1 and 2 are designated as a5 (x1, y01, z1), b5 (x1, y02, z1). And The distance between the point a5 and the interpolation point A is (y01-y1), and the distance between the interpolation point A and the point b5 is (y1-y02). From these, the pixel value Ia of the interpolation point A is the points a5, b5. If the pixel values at are respectively I01 and I02, they can be obtained by the linear interpolation equation (1) below.
Ia = {I01 (y1-y02) + I02 (y01-y1) / (y01-y02) (1)
On the other hand, the points a5 and b5 on the CT images 1 and 2 often do not actually exist as pixel positions. This is because the CT pixel positions of the CT images 1 and 2 are coarser than the projection resolution. For example, in FIG. 15, the actual adjacent pixel positions of the CT images 1 and 2 are coarse like a1, a2, a3, a4,..., B1, b2, b3, b4,. The pixels of CT images 1 and 2 do not exist at points a5 and b5. Therefore, the pixel values of the points a5 and b5 are also determined by interpolation from the actual pixel values around them. In order to obtain the pixel values I01 and I02 of the points a5 and b5, for example, they are calculated from the weighted average values of the pixel values of the four points a1, a2, a3 and a4 near the points a5 and b5; b1, b2, b3 and b4. There is also a method for obtaining the value by a linear interpolation method from pixel values of two neighboring points.
[0008]
The above is for the interpolation point A. In order to obtain the pixel value Ib of the other interpolation point B (x1 ′, y1 ′, z1 ′), the intersection point a5 ′ with the straight line m ′ parallel to the y-axis is similarly used. , B5 ′, and the pixel values I01 ′, I02 ′ of the intersection points a5 ′, b5 ′ are obtained by interpolation. Using the pixel values I01 ′ and I02 ′ obtained by this interpolation and the distances (y01−y1 ′) and (y1′−y02) between the intersection points a5 ′ and b5 ′, linear interpolation is performed by the above equation (1). The pixel value Ib of the interpolation point B is obtained.
[0009]
The above calculation is performed for each basic pitch between the point Q1 and the point Q2 of the projection line L, and an interpolation pixel value for each basic pitch is obtained. The projection line L is variously determined depending on the projection method, and such calculation processing is performed for all the projection lines for the CT images 1 and 2. Further, similar processing is performed on adjacent CT images other than the CT images 1 and 2 to obtain pixel values. When displaying the pixel values obtained in this way, the display content becomes very unclear if all the pixel values on the projection line L are displayed as they are, so that the point (pixel position) at a distance far from the viewpoint E is displayed. The pixel value is darkened, that is, a small value, and the pixel value at a point (pixel position) that is close to the viewpoint E is brightened, that is, a large value is used (such as a voxel method or a depth method). This method is called a shading process. Further, if necessary, image processing (hidden surface processing) for removing only the back side and displaying only the pixel value at the foremost position is performed.
[0010]
[Problems to be solved by the invention]
The image quality of 3D images constructed and displayed using the pixel values interpolated by the interpolation method described above is greatly improved. For example, it is more effective to observe and diagnose the appearance of head bone images or blood vessel inner wall images. It shall be In particular, the improvement of the image quality of the blood vessel inner wall surface image is useful for prior observation, diagnosis, simulation, etc. in anti-vascular technique.
However, in the above-described conventional method, the shape of the outer surface or the inner surface of the target site of the subject can be seen as described above. For example, regarding the inner wall surface of the blood vessel, the inner wall surface of the blood vessel can only be viewed externally. I could only observe and diagnose However, if the characteristics of the tissue in the blood vessel wall can be simultaneously observed in addition to the inner wall surface of the blood vessel, it goes without saying that a more effective diagnosis can be made for the entire blood vessel. Similarly, there has been a demand for improvement in this regard.
[0011]
The object of the present invention is to observe the surface of a subject's target site, for example, the properties of the inner wall of the blood vessel, and at the same time, it is also possible to observe the internal properties of the desired portion, for example, the properties of the tissue in the blood vessel wall. Another object of the present invention is to provide a method for displaying a three-dimensional image, which enables more effective observation and diagnosis of the entire target site such as the entire blood vessel and the like and easily distinguishes the lesion from the normal tissue.
[0012]
[Means for Solving the Problems]
The object is to display a three-dimensional image obtained by stacking a large number of tomographic images to obtain a stacked three-dimensional image, and performing a predetermined process on the two-dimensional image viewed from an arbitrary direction. Is achieved by displaying the pixel values of the tomographic image at a position advanced by a predetermined distance in the projection plane direction from the position satisfying the desired threshold condition on the projection line without performing the above processing.
[0013]
One method of distinguishing a lesion from a normal tissue is a pixel value (when a tomographic image is a CT image of an X-ray CT apparatus, a CT value, a tomographic image obtained by decomposing a volume image by three-dimensional measurement such as an MRI apparatus) In some cases, it is effective to display the density value as it is. This is due to the same reason that a lesion can be effectively observed and diagnosed by a tomographic image by an X-ray CT apparatus or an MRI apparatus. In order to find a lesion, it is better to display the inside of the tissue than to display the outer surface or inner surface of the target site. This is especially true for blood vessels.
The reconstructed three-dimensional image based on the stacked three-dimensional image can only see the outer surface or inner surface shape of the target region of the subject, and cannot observe or diagnose the internal properties. However, in the method of displaying a three-dimensional image reconstructed by performing shading, hidden surface processing, etc., the pixel values of the tomographic image (including those by the interpolation method) are displayed as they are for the position advanced by a predetermined distance in the desired direction. By doing so, it is possible to see the shape of the desired portion inside as well as the shape of the outer surface or the inner surface of the target portion.
[0014]
According to this, it is possible to observe the surface properties of the target site, and it is possible to simultaneously observe the internal properties of the desired portion, and more effective observation can be performed for the entire target site. In particular, if the properties of the inner wall surface of the blood vessel can be observed and the properties of the tissue in the blood vessel wall can be simultaneously observed for the desired portion, more effective observation and diagnosis can be performed for the entire blood vessel. .
[0015]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings. Prior to that, first, a coordinate conversion method based on a central projection method in a three-dimensional image configuration used in the method of the present invention and projection lines between adjacent 2CT images will be described. An interpolation method of the pixel value (tomographic image) at the position of will be described.
[0016]
FIG. 11 is a diagram showing the definition of the coordinate system, the viewpoint E, the projection plane P, and their relationships necessary for the coordinate conversion method. In FIG. 11, x, y, and z are spatial coordinate systems of stacked three-dimensional images (CT images 1, 2,...), Y is a coordinate axis orthogonal to the CT images 1, 2,..., And x, z are orthogonal to y. This is a plane coordinate axis that specifies each pixel position on the CT images 1, 2,. The projection plane P and the viewpoint E are determined depending on the purpose of diagnosis and the purpose of projection. The viewpoint E can be considered as one of the viewpoints on the plane in the parallel projection method and the viewpoint in the central projection method, but FIG. 11 represents the viewpoint in the central projection method.
[0017]
The projection plane P is defined by three parameters, angles α and β, and a distance h. A perpendicular line is drawn from the origin 0 in the x, y, z coordinate system to the projection plane P, and the intersection is defined as N1. The intersection N1 is projected perpendicularly to the xz plane, and the projection point is N2. Parameter α is the angle between the straight line connecting origin 0 and intersection N2 and the x axis, and parameter β is the angle between the line connecting origin 0 and intersection N2 and the line connecting origin 0 and intersection N1. is there. The distance h is a distance between the viewpoint E and the vertical intersection C on the perpendicular L1 from the viewpoint E to the projection plane P, and this parameter h defines the relationship between the viewpoint E and the projection point p.
[0018]
Let the coordinate system of the projection plane P itself be X and Y. The position of the viewpoint E is E (x0, y0, z0), and the intersection (namely, projection point) p of the projection line L from the viewpoint E with the projection plane P is p (x, y, z). P (x, y, z) is expressed as p (X, Y) in the X, Y coordinate system. Let c (x11, y11, z11) be a point perpendicular to the projection plane P from the viewpoint E, and C (X, Y) on the X, Y plane.
Furthermore, the CT image 1 has pixels at four points a1, a2, a3, a4 around the intersection point Q1, and the CT image 2 has pixels at four points b1, b2, b3, b4 around the intersection point Q2. Suppose you are.
[0019]
A method for calculating the points Q1 and Q2 on the CT images 1 and 2 based on the above coordinate system and position definition will be described below. First, the parameters (α, β, h) of the projection plane P, the coordinates (x0, y0, z0) of the viewpoint E, the two adjacent CT images 1, 2 and the y coordinate values y01, y02 is key-inputted from a keyboard or the like, and constants a, b, and c for determining the projection plane P are calculated by equations (2), (3), and (4). Constants a, b, and c are distances from the origin of the x, y, and z coordinate system shown in FIG. 11 to the intersection of the x, y, and z axes on the projection plane P.
[0020]
[Expression 1]
Figure 0003747388
[0021]
[Expression 2]
Figure 0003747388
[0022]
[Equation 3]
Figure 0003747388
[0023]
Here, t = x0 · cosα + z0 · sinα + y0 · tanβ. (Α, β, h) and (x0, y0, z0) are values set by the operator.
[0024]
Next, the intersection C (x11, y11, z11) with the projection plane P of the perpendicular L1 from the viewpoint E to the projection plane P is calculated by the equations (5), (6), (7).
[0025]
[Expression 4]
Figure 0003747388
[0026]
[Equation 5]
Figure 0003747388
[0027]
[Formula 6]
Figure 0003747388
[0028]
Thereafter, the coordinates p (x, y, z) of the intersection (projection point) p of the projection line L from the viewpoint E with the projection plane P are calculated by the equations (8), (9), and (10).
[0029]
[Expression 7]
Figure 0003747388
[0030]
[Equation 8]
Figure 0003747388
[0031]
[Equation 9]
Figure 0003747388
[0032]
However,
[0033]
[Expression 10]
Figure 0003747388
[0034]
## EQU11 ##
Figure 0003747388
[0035]
It is.
X and Y are the coordinates on the X and Y coordinate system of the coordinates p (x, y, z) of the projection point p. The coordinates P (X, Y) of the projection point p are arbitrary X and Y combination values given as X = 0 to ± 256 and Y = 0 to ± 256 at the time of scanning.
[0036]
Next, the coordinates Q1 (x01, y01, z01) and Q2 (x02, y02, z02) of the intersections Q1, Q2 between the projection line L and the CT images 1, 2 are expressed as (13), (14), (15). , (16).
[0037]
[Expression 12]
Figure 0003747388
[0038]
[Formula 13]
Figure 0003747388
[0039]
[Expression 14]
Figure 0003747388
[0040]
[Expression 15]
Figure 0003747388
[0041]
Here, y01 is the y coordinate value of the CT image 1, y02 is the y coordinate value of the CT image 2, and the CT images 1 and 2 are planes perpendicular to the y coordinate value. y01 and y02 are values set when CT images 1 and 2 are stacked.
[0042]
Next, an example of a pixel value interpolation method used in the method of the present invention will be described with reference to FIG. The interpolation pixel position in the method of the present invention is not limited to the CT image (tomographic plane) such as the points Q1 and Q2.
FIG. 12 shows an example in which the pixel value of the interpolation point M3 between D1 and D2 is obtained by interpolation using the pixel values of the two points D1 and D2 on the projection line L. However, the points D1 and D2 are not on the CT images 1 and 2. The pixel values at the pixel positions a1, a2, a3, a4 on the CT image 1 are Qa1, Qa2, Qa3, Qa4, respectively, and the pixel values at the pixel positions b1, b2, b3, b4 on the CT image 2 are Qb1, respectively. , Qb2, Qb3, and Qb4. These pixel values Qa1, Qa2, Qa3, Qa4; Qb1, Qb2, Qb3, Qb4 are known because the pixel positions a1, a2, a3, a4; b1, b2, b3, b4 are on the CT images 1, 2. is there.
[0043]
First, the pixel values QD1, QD2 of the points D1, D2 are obtained by interpolation from the pixel values of the pixel positions a1, a2, a3, a4; b1, b2, b3, b4 by the following procedure.
[0044]
A perpendicular line is extended from the point D1 to the CT images 1 and 2, and the pixel values of the intersections R1 and R2 with the CT images 1 and 2 are set as the pixel values Qa1, Qa2, Qa3, Qa4 and the pixel values Qb1, Qb2, Qb3, Qb4. And obtained by interpolation. Next, the pixel value of the point D1 is obtained by interpolation using the pixel values of the points R1 and R2. The pixel value at the point D2 is obtained by the same method. Expressions (17) and (18) for obtaining the pixel values QD1 and QD2 of the points D1 and D2 are shown below.
[0045]
QD1 = [(1-dz1) {Qa4 (1-dx1) + Qa3 · dx1} + dz1 {Qa1 (1-dx1) + Qa2 · dx1}] · (1-dy1) + [(1-dz1) {Qb4 (1- dx1) + Qb3.dx1} + dz1 {Qb1 (1-dx1) + Qb2.dx1}]. dy1 (17)
QD2 = [(1-dz2) {Qa4 (1-dx2) + Qa3 · dx2} + dz2 {Qa1 (1-dx2) + Qa2 · dx2}] · dy2 + [(1-dz2) {Qb4 (1-dx2) + Qb3 · dx2 } + Dz2 {Qb1 (1-dx2) + Qb2 · dx2}]. (1-dy2) (18)
here,
dx1 represents the distance when a1 and a2 are normalized to 1.
dy1 indicates the distance when a1 and b1 are normalized to 1.
dz1 represents the distance when a1 and a4 are normalized to 1.
dx2 indicates the distance when b1 and b2 are normalized to 1.
dy2 indicates a distance when a1 and b1 are normalized to 1.
dz2 represents the distance when b1 and b4 are normalized to 1.
Here, the coordinate of the viewpoint E is E (x0, y0, z0), the coordinate of the projection point p on the projection plane P is p (x1, y1, z1), the distance between the viewpoint E and the projection point p is l, x, y, z direction increments
incx = (x1-x0) / l
incy = (y1-y0) / l
incz = (z1-z0) / l
, The coordinates (x, y, z) of the interpolation point M3 at a distance s from the viewpoint E on the projection line L are
x = x0 + s · incx
y = y0 + s · incy
z = z0 + s · incz
It is expressed as
[0046]
Further, the pixel value of the interpolation point M3 is expressed by the following equation (19) using the pixel values QD1 and QD2 of the points D1 and D2.
Pixel value of interpolation point M3 = r 2 · QD 1 + r 1 · QD 2 (19)
However, r1 and r2 are normalized distances between the interpolation point M3 and the points D1 and D2 when the points D1 and D2 are normalized, and r1 + r2 = 1.
In the equation (19), when an organ extraction threshold value is given as the pixel value of the interpolation point M3, coordinates that satisfy the threshold value on the projection line L are immediately obtained.
[0047]
The above interpolation method will be described in more detail using the flowchart of FIG.
First, at step 70, x, y, z, and s are initialized. That is, x = x0, y = y0, z = z0, and s = 0.
[0048]
In step 71, a point between the CT images 1 and 2 is designated as y ← (y + incy). Thus, the position of the distance s from the viewpoint E is designated. Here, the point before adding incy is defined as the old s, and the point after adding incy is defined as the new s. The old s corresponds to the point D1 in FIG. 12, and the new s corresponds to the point D2.
[0049]
In step 72, it is determined whether or not the old s and the new s fall between the same CT images (here, between the CT images 1 and 2). Specifically, it is determined whether or not the integer part is the same by rounding off the decimal point of the y coordinate of the old s and the new s. If it is determined that they are the same, it is determined that they are between the same CT images, and if they are determined to be different, it is determined that they are between different CT images.
[0050]
FIG. 14 illustrates a case where the old s and the new s do not fall between the same CT images. In this case, the position of the new s is set to a point W on the CT image (CT image j + 1 in FIG. 14). This makes the pixel points used for interpolation the same. In this case, the coordinates of the new s point are set in step 73 as follows.
y = y coordinate of CT image
x ← (x + incx ′)
z ← (z + incz ′)
here,
incx ′ = incx · (CT image y coordinate−y s y coordinate) / incy
incz ′ = incz · (CT image y coordinate−y s y coordinate) / incy
If it is determined in step 72 that the old s and the new s fall within the same CT image, the coordinates of the new s point are set in step 74 as follows.
s ← (s + incs)
x ← (x + incx)
z ← (z + incz)
In step 75, it is determined whether or not the tip of s has reached the projection plane P. If not, the process proceeds to step 76. If it has reached, the process is terminated.
In step 76, a new s pixel value QD2 is obtained.
In step 77, it is determined whether or not the calculation for obtaining the new s pixel value QD2 is the first time. If it is the first time, it is stored in the memory at step 78 as QD1 = QD2. At this stage, the pixel value QD1 of the point D1 has been obtained, and the process returns to step 71 in order to obtain the position and pixel value of the point D2.
If the calculation for obtaining the new s pixel value QD2 in step 77 is not the first calculation, it is determined that two interpolation points are obtained because the pixel value QD2 obtained in step 76 corresponds to the pixel value of the point D2, In step 79, the pixel value of the interpolation point M3 between the old s and new s is obtained by interpolation. The old s pixel value is QD1. In the case of linear interpolation, it is obtained using equation (19), but may be obtained by nonlinear interpolation.
In step 80, the new s pixel value is set as the old s pixel value by setting QD2 to QD1, and the process jumps to step 71 to obtain the new s position and pixel value.
Thereafter, the above process is repeated.
[0051]
Hereinafter, an embodiment of a method for displaying a three-dimensional image according to the present invention using the above-described interpolation method will be described. FIG. 1 is a flowchart for explaining an embodiment of a 3D image display method according to the present invention.
Here, blood vessel CT images are measured in a state in which a contrast medium is administered to the blood, and a large number of blood vessel CT images are obtained. The accumulated three-dimensional images are shaded on the two-dimensional image of the blood vessels viewed from any direction. A case will be described in which the method of the present invention is applied to the display of a three-dimensional image (pseudo three-dimensional image) reconstructed by attaching and the like.
[0052]
In the stacked three-dimensional image obtained as described above, a threshold for organ extraction, here, a CT value (pixel value) corresponding to the boundary between the contrast agent and the blood vessel wall is given as a threshold, and threshold processing is performed. Then, a pixel point near the boundary between the blood and the blood vessel wall, for example, a pixel point 40 in FIG. 2 is obtained.
[0053]
In order to obtain the pixel point 41 of the tissue in the blood vessel wall, a point extended by a predetermined distance from the point 40 along the projection line L may be obtained. This will be described in detail with reference to FIG. 3. When a point ai (i = 1, 2, 3...) Satisfies a threshold value (CT value representing a boundary between a blood vessel wall and a contrast medium), a predetermined distance ds is obtained. Pixel points of points bi (i = 1, 2, 3,...) Extended by (distance from the threshold detection point to a point advanced by a predetermined distance) are extracted.
[0054]
FIG. 4 shows an example in which the predetermined distance ds is changed for each projection line L. Here, the solid angle θi (i = 1) formed by the normal line of the density gradient surface of the depth image (image from the viewpoint E to the pixel point extracted by the threshold value processing as the pixel value) and the projection line L. , 2, 3...) Increases the distance ds. Actually, it is approximated by ds = C1−C2 · cos θx · cos θy.
[0055]
Here, C1 and C2 are positive constants of C1> C2. Also, θx and θy are as shown in FIG.
tanθx = (f (m + 1) −f (m−1)) / 2 distance between two points
tanθy = (f (n + 1) −f (n−1)) / 2 distance between two points
It is. Here, f represents the distance between the viewpoint and the projection plane.
[0056]
Therefore, the coordinates (x, y, z) of the final extraction point on the projection line L are expressed as follows.
x = x_ex + ds · incx
y = y_ex + ds · incy
z = z_ex + ds · incz
However, (x_ex, y_ex, y_ex) is the coordinates of the pixel point that satisfies the threshold condition.
[0057]
The CT value of the pixel coordinates (x, y, z) thus obtained (the CT value obtained by the interpolation method if this CT value does not exist in the original image) corresponds to the point P (X, Y) on the projection plane L. Store at display memory address. As a result, the CT value is displayed as it is for the pixel coordinates (x, y, z).
When the projection line L is obliquely incident on the organ surface, here the inner surface of the blood vessel wall, the pixel coordinates (x, y, z) where the CT value is displayed as it is unless the distance ds is set long are suitable for observation and diagnosis. It does not reach deep positions in the vascular wall middle tissue. The example of FIG. 4 can eliminate such inconvenience.
[0058]
FIG. 5 is a diagram for obtaining a depth image density gradient, where X and Y are coordinate axes of the projection plane, I is an axis representing a pixel value, and dix1 is a density difference in the X direction of the depth image (= i (n, m + 1) − i (n, m-1)), diy is the density difference in the Y direction of the depth image (= i (n + 1, m) -i (n-1, m)), and θx is θx = tan -1 The value given by (dix1 / 2), θy is θy = tan -1 A value given by (diy1 / 2), Nx is a normal vector perpendicular to the hypotenuse of the right triangle determined by θx, and Ny is a normal vector perpendicular to the hypotenuse of the right triangle determined by θy.
[0059]
FIG. 6 shows another example of extraction of pixel points to be projected and displayed.
In FIG. 6, when considering the contour lines of the pixel values of the CT image, the contour normal vector n at the point x (vector notation) that satisfies the threshold condition is
n = (dnx / dn, dny / dn, dnz / dn)
dn = sqrt (dnx 2 + Dny 2 + Dnz 2 )
It is written. Here, dnx, dny, and dnz are changes in pixel values in the x, y, and z directions.
[0060]
In this example, the point x ′ in the direction opposite to the vector n without projecting the point x (notation is a vector)
x ′ = x−constant · n
Is projected onto a point P (X ′, Y ′) on the projection plane P.
[0061]
At this time, X ′ and Y ′ are the expressions (not explicitly shown) obtained by reversing equations (8), (9), and (10) with x, y, and z as variables. It is obtained by substituting ', y', z '. According to this, in the case of a blood vessel or the like, a three-dimensional image with CT values in the direction perpendicular to the wall can be constructed.
[0062]
Next, returning to FIG. 1, the method of the present invention will be described.
First, in step 30, s is initialized. s = 0, x = x0, y = y0, z = z0 (the position of the viewpoint E).
Next, in step 31, it is determined whether or not the point (x, y, z) satisfies the threshold condition. If it is satisfied, the point is set to (x_ex, y_ex, z_ex), and the process proceeds to step 33. Otherwise, the process proceeds to step 32.
In step 32, the length of s is increased by incs and the next point on the projection line L is designated.
[0063]
In step 33, the gradient of the depth image is obtained using the values of the point (X-1, Y) and the point (X, Y-1) of the depth image (the viewpoint-projection plane image is stored). Here, θx and θy are obtained.
In step 34, an extension ds of s is obtained as a function of the above θx and θy.
In step 35, s is extended by ds.
In step 36, the point (x, y, z) of the tissue in the blood vessel wall is obtained.
In step 37, the CT value of the point (x, y, z) is stored in the display memory and displayed as an image.
[0064]
FIG. 7 shows a desired portion of the image 100 shaded by the surface method, the volume rendering method, etc., and the pixel values (including those obtained by the interpolation method) of the CT image obtained by the above-described method of the present invention. It is the figure which showed the example of a display image of the blood vessel branch part replaced and displayed by the partial image 101 to be performed. In this case, the properties of the inner wall surface of the blood vessel can be observed with the image 100, and the properties of the tissue in the blood vessel wall of the desired portion can be simultaneously observed with the partial image 101.
As a result, the properties of the inner wall surface of the blood vessel can be observed, and the properties of the tissue in the blood vessel wall can be simultaneously observed for the desired portion, so that more effective observation and diagnosis can be performed for the entire blood vessel.
[0065]
FIG. 8 shows an example in which the shaded image 100 and the partial image 101 in which the CT value of the CT image is displayed as it is are displayed side by side without being superimposed as shown in FIG. Here, when one desired location P1 (P2) on one image 101 (or 100) is indicated by an arrow cursor CUR1 (CUR2) that moves on the screen by operating a pointing device 102 such as a mouse, An arrow cursor CUR2 (CUR1) is displayed at the corresponding position P2 (P1) of the other image 100 (or 101). This makes it easy to understand the mutual positional relationship between the image 100 and the partial image 101.
[0066]
FIG. 9 shows an image in which a differential image 111 of an image 110 shaded by a surface method, a volume rendering method, or the like is created using Laplacian or the like, and the differential image 111 and a CT value of a desired portion of the image 110 are displayed as they are. An example in which a composite image 113 with 112 (an image corresponding to the partial image 101 with respect to the image 100) is displayed is shown. According to this, the differential image is a line drawing, and it is easy to synthesize other images.
[0067]
FIG. 10 is a block diagram showing a hardware configuration example to which the method of the present invention can be applied.
In FIG. 10, 200 is a CPU, 201 is a main memory, 202 is a magnetic disk, 203 is a display memory, 204 is a mouse controller, 208 is a keyboard, and these are connected to a common bus 207. The magnetic disk 202 stores a number of CT images and programs for coordinate conversion, shading, hidden surface processing, and interpolation processing. The CPU 200 reads out a large number of these CT images and programs, and uses the main memory 201 to obtain a three-dimensional image (pseudo three-dimensional image) with the CT value as it is as the pixel value of a desired portion, for example, a desired portion of the vascular wall tissue. The result is stored in the display memory 203 and displayed on the CRT monitor 205. A mouse 206 connected to the keyboard 208 or the mouse controller 204 specifies parameters such as a viewpoint position and a predetermined distance during interpolation processing when the three-dimensional image is formed. The obtained three-dimensional image is stored in the magnetic disk 202 as necessary. Instead of the magnetic disk 202, another storage device such as an optical disk or an optical-magnetic disk may be used.
[0068]
Note that various interpolation methods such as linear interpolation and nonlinear interpolation can be applied as the interpolation method in the above-described embodiment. In addition, the CT image obtained by the X-ray CT apparatus has been described as an example of the tomographic image as the original image. However, the present invention is not limited to this. It may be a tomographic image or a tomographic image of an ultrasonic tomographic apparatus. Furthermore, the tomographic image is not limited to a blood vessel image.
The threshold value used in the method of the present invention is set to a plurality of, for example, binary values, and the pixel value of the tomographic image at a position advanced by a predetermined distance in the projection plane direction from the position specified by the value within the set range. Alternatively, the image may be displayed as it is without performing shading or hidden surface processing.
[0069]
【The invention's effect】
As described above, according to the present invention, a large number of tomographic images are stacked to obtain a stacked three-dimensional image, and the two-dimensional image viewed from an arbitrary direction is subjected to predetermined processing and reconstructed. In the display method, with respect to the desired direction, the pixel value (tomographic image) at a position advanced by a predetermined distance in the projection plane direction from the position satisfying the desired threshold condition on the projection line without performing the above processing. Display as it is. For example, when the tomographic image is a CT image, the CT value is displayed as it is. Therefore, it is possible to observe the surface of the subject's target site, for example, the properties of the inner wall of the blood vessel, and the desired portion of the same can be observed simultaneously, for example, the properties of the tissue in the blood vessel wall. This makes it possible to make more effective observation and diagnosis of the entire target site, and to easily distinguish a lesion from a normal tissue.
[Brief description of the drawings]
FIG. 1 is a flowchart for explaining an embodiment of a method of the present invention.
FIG. 2 is an explanatory diagram when the method of the present invention is applied to display of an inner wall of a blood vessel.
FIG. 3 is an explanatory diagram showing an example of setting a predetermined distance ds when extracting pixel points to be projected and displayed in the method of the present invention.
FIG. 4 is an explanatory diagram of another example of setting a predetermined distance ds when extracting pixel points to be projected and displayed in the method of the present invention.
FIG. 5 is a diagram for explaining an example of setting the predetermined distance ds shown in FIG. 4;
FIG. 6 is an explanatory diagram of another example of extraction of pixel points to be projected and displayed in the method of the present invention.
FIG. 7 is a diagram showing an example of a display image according to the method of the present invention.
FIG. 8 is a diagram showing another example of a display image according to the method of the present invention.
FIG. 9 is an explanatory diagram of still another example of a display image according to the method of the present invention.
FIG. 10 is a block diagram showing a hardware configuration example to which the method of the present invention can be applied.
FIG. 11 is an explanatory diagram of a coordinate conversion method using a center projection method in a three-dimensional image configuration used in the method of the present invention.
FIG. 12 is an explanatory diagram of a pixel value interpolation method for positions on a projection line between adjacent 2CT images used in the method of the present invention.
FIG. 13 is a flowchart for explaining the interpolation method of the above.
FIG. 14 is an explanatory diagram of processing when it is determined no in step 72 in the flowchart shown in FIG. 13;
FIG. 15 is an explanatory diagram of a pixel value interpolation method for a position on a projection line between adjacent two CT images that is conventionally known.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 200 ... CPU, 201 ... Main memory, 202 ... Magnetic disk, 203 ... Display memory, 204 ... Mouse controller, 205 ... CRT monitor, 206 ... Mouse, 207 ... Common bus, 208 ... Keyboard.

Claims (3)

多数の断層像を積上げて積上げ三次元画像を得るステップとこのステップにより得られた積上げ三次元画像を視点から投影面へ投影し、該視点、積上げ三次元画像、投影面の位置関係に応じて求められる濃度値を二次元画像として再構成するステップと、このステップにより再構成された二次元画像を表示するステップとを備えた三次元画像の表示方法において、前記再構成ステップにより再構成された二次元画像の所望の画素値を前記断層像の画素値に置き換える置換ステップとを備えたことを特徴とする三次元画像の表示方法。Obtaining a three-dimensional image stack by stacking a plurality of tomographic images, by projecting the three-dimensional image stack obtained by this step from the viewpoint to the projection plane, convergent points, stacked three-dimensional image, depending on the positional relationship between the projection surface A three-dimensional image display method comprising: a step of reconstructing a density value obtained as a two-dimensional image; and a step of displaying the two-dimensional image reconstructed by this step. A three-dimensional image display method comprising: a replacement step of replacing a desired pixel value of the two-dimensional image with a pixel value of the tomographic image . 前記置換ステップにおいて、前記二次元画像の所望の画素値は、前記視点から前記投影面までの投影線上であって、前記断層像中の病巣を示す濃度値に対するしきい値の条件を満たした位置から前記投影面方向に所定距離を進めた位置の画素値であることを特徴とする請求項1に記載の三次元画像の表示方法。In the replacement step, the desired pixel value of the two-dimensional image is on a projection line from the viewpoint to the projection plane and satisfies a threshold condition for a density value indicating a lesion in the tomographic image 2. The method of displaying a three-dimensional image according to claim 1, wherein the pixel value is a position at a predetermined distance in the projection plane direction. 前記置換ステップにより置き換えられた断層像の画素値を含む二次元画像と、前記再構成ステップにより再構成された二次元画像とを並べて表示するステップと、一方の二次元画像において所望の一箇所を指示すると他方の二次元画像の対応位置に所定の目印を表示するステップとを備えたことを特徴とする請求項1または2に記載の三次元画像の表示方法。A step of displaying the two-dimensional image including the pixel value of the tomographic image replaced by the replacement step and the two-dimensional image reconstructed by the reconstruction step side by side, and a desired one place in one of the two-dimensional images The method of displaying a three-dimensional image according to claim 1 or 2, further comprising a step of displaying a predetermined mark at a corresponding position of the other two-dimensional image when instructed.
JP05936196A 1996-03-15 1996-03-15 3D image display method Expired - Fee Related JP3747388B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP05936196A JP3747388B2 (en) 1996-03-15 1996-03-15 3D image display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP05936196A JP3747388B2 (en) 1996-03-15 1996-03-15 3D image display method

Publications (2)

Publication Number Publication Date
JPH09251551A JPH09251551A (en) 1997-09-22
JP3747388B2 true JP3747388B2 (en) 2006-02-22

Family

ID=13111061

Family Applications (1)

Application Number Title Priority Date Filing Date
JP05936196A Expired - Fee Related JP3747388B2 (en) 1996-03-15 1996-03-15 3D image display method

Country Status (1)

Country Link
JP (1) JP3747388B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10160530B4 (en) * 2001-12-10 2005-03-17 Siemens Ag Method and apparatus for magnetic resonance imaging
JP2007522826A (en) * 2004-02-18 2007-08-16 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Volume visualization method using tissue mixing
JP2006346177A (en) * 2005-06-16 2006-12-28 Toshiba Corp Image diagnostic apparatus, image processor, and three-dimensional image data display method
JP5631649B2 (en) * 2010-07-13 2014-11-26 オリンパス株式会社 Image information display method
JP6059444B2 (en) * 2012-03-30 2017-01-11 ソニー株式会社 Image processing apparatus and method, and program
JP6382921B2 (en) * 2016-12-09 2018-08-29 ソニー株式会社 Image processing apparatus and method, and program

Also Published As

Publication number Publication date
JPH09251551A (en) 1997-09-22

Similar Documents

Publication Publication Date Title
US8537159B2 (en) Visualization of voxel data
JP4335817B2 (en) Region of interest designation method, region of interest designation program, region of interest designation device
US7920734B2 (en) Method for visualization of plaque deposits from 3D image data records of vessel structures
US8423124B2 (en) Method and system for spine visualization in 3D medical images
JP4377464B2 (en) Image display device
US7742060B2 (en) Sampling methods suited for graphics hardware acceleration
US9858716B2 (en) Fast three-dimensional visualization of object volumes without image reconstruction by direct display of acquired sensor data
US20040165766A1 (en) Method and apparatus for forming and displaying projection image from a plurality of sectional images
US4989142A (en) Three-dimensional images obtained from tomographic slices with gantry tilt
US7250946B1 (en) Shared N-patch edges
US9563978B2 (en) Image generation apparatus, method, and medium with image generation program recorded thereon
CN111009033B (en) OpenGL-based lesion area visualization method and system
JPH02899A (en) Graphic display device and generation of three-dimensional image of object
JP2006326312A (en) Simultaneous projection of multi-branched blood vessels and their context on single image
Grevera et al. An order of magnitude faster isosurface rendering in software on a PC than using dedicated, general purpose rendering hardware
JP4885042B2 (en) Image processing method, apparatus, and program
JP3692050B2 (en) Image processing apparatus and method
JP2004174241A (en) Image forming method
JP3747388B2 (en) 3D image display method
Bartroll et al. Virtual colon flattening
US4868748A (en) Rapid processing of three-dimensional graphical objects from tomographic data
JP2006000205A (en) Projection image processing method, projection image processing program, and projection image processor
JP4242527B2 (en) Method and system for displaying a surface in stereo measurement data
Karamalis et al. Fast hybrid freehand ultrasound volume reconstruction
EP3876205A1 (en) Image generation system and method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050914

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20051025

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20051117

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees