JP3623276B2 - 3D image display method - Google Patents
3D image display method Download PDFInfo
- Publication number
- JP3623276B2 JP3623276B2 JP09758695A JP9758695A JP3623276B2 JP 3623276 B2 JP3623276 B2 JP 3623276B2 JP 09758695 A JP09758695 A JP 09758695A JP 9758695 A JP9758695 A JP 9758695A JP 3623276 B2 JP3623276 B2 JP 3623276B2
- Authority
- JP
- Japan
- Prior art keywords
- point
- viewpoint
- plane
- image
- equation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000000034 method Methods 0.000 title claims description 17
- 238000010586 diagram Methods 0.000 description 8
- 238000006243 chemical reaction Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Endoscopes (AREA)
Description
【0001】
【産業上の利用分野】
本発明は、三次元原画像の内視鏡的映像化を行う疑似三次元画像を形成して表示する方法に関し、特に新たな視点位置の入力に関する。
【0002】
【従来の技術】
従来、三次元原画像の内視鏡的映像化を行い、形状観察のために三次元空間内の視点を変える際の視点と投影面の更新は、三次元の視点位置、視線方向、視点と投影面の距離を試行錯誤しながら設定し、キー入力することで行われてきた。
【0003】
【発明が解決しようとしている課題】
キー入力による視点位置の更新では、画像上での視点と画像の対応関係がつきにくく、視点の更新がやりにくいという問題があった。そこで、画面上で画像との位置関係を把握しながら自由に視点を設定し、視点更新を行えることが必要となる。
【0004】
本発明の目的は、表示画面上の画像に対し、マウスによって二次元CRT上で次の三次元空間内の視点位置を入力する方法を提供し、キー入力なしで画面の更新を行えるようにすることである。
【0005】
【課題を解決するための手段】
上記目的は、視点からの視線方向に三次元原画像、投影面の順で配置し、その配置状態で前記投影面に前記三次元原画像を投影して疑似三次元画像を形成し、該形成された疑似三次元画像を表示装置に表示する工程と、該表示された疑似三次元画像内に現視点とは異なる位置に視点移動方向を設定する点を入力する工程と、前記現視点と前記視点移動方向設定点とを結ぶライン上に基準点を設定する工程と、該設定された基準点を通る仮想平面を求める工程と、前記仮想平面内に新たな視点を設定する工程と、を含むことで達成される。
【0006】
【作用】
上記達成手段は、以上のような構成を有しているので、基準点を表示された三次元画像内に任意に設定し、この基準点と現に表示されている三次元画像の視点とに基づいて設定した視点設定平面とを表示し、この視点設定平面上に新たな視点を設定するから、キー入力なしで画面の更新を行える。
【0007】
【実施例】
図1は、本発明の処理の流れである。ただし、ステップ1の初期画面設定は、上記公報に記載した既存の手順による。
各ステップを説明する。
【0008】
ステップ1では、疑似三次元画像の初期画像を表示する。疑似三次元画像は、中心投影法により視点と投影面との間に介在する三次元画像を投影面に投影した画像を、陰影化処理して得た画像である。表示方法は特願平6−3492号に記載の方法を用いる。
初期画像の表示において、視点と視線方向と投影面は初期設定されたものである。
また、表示画面には、図2に示すように、「設定」「再構成」「終了」の3つのアイコンを表示する。
【0009】
ステップ2では、終了アイコンが選択されたか否かの判断を行う。終了アイコンが選択された場合、プログラムを終了させる。この選択は操作者が行う。
【0010】
ステップ3では、設定アイコンが選択されたか否かの判断を行う。設定アイコンが選択された場合、ステップ5に移る。この選択は操作者が行う。
【0011】
ステップ4では、再構成アイコンが選択されたか否かの判断を行う。このステップで再構成アイコンが選択された場合は無視する。この選択は操作者が行う。
【0012】
ステップ5では、次に見たいと思う方向の任意点Aを指定する。この指定は操作者が行う。
【0013】
ステップ6では、新視点を設定するための画面の表示を行う。図2に、新視点の設定のための表示画面遷移図を示す。マウスで画面上の視点を移動させたい方向Aを指定する(図2(a))。現視点の投影面である画面中心CとAを結ぶ線分を表示し、線分上に仮想設定のためのM点と直線J,Kを表示する(図2(b))。Mをドラックすることで仮想平面を任意に設定する(図2(c))。仮想平面に新視点E’を設定する(図2(d))。
仮想平面を表す直線J,Kを表示する際、直線J,Kの位置がCT断層像より視点の近くにあるか、遠くにあるかで、区別して表示することにする。投影面上と空間上の位置関係の変換は、以下のように行う。
視点と断層像、投影面、座標軸の位置関係を図3に示す。これは特願平6−3492号に示された図であり、三次元座標系と投影面座標系の変換も特願平6−3492号に示された変換式を用いて行う。
【0014】
図3において、座標変換は次のように行われる。
ここで、
aはx軸と投影面21の交わる点、bはy軸と投影面21の交わる点、cはz軸と投影面21の交わる点である。
また、αは原点から投影面21に降ろした垂線をz−x面に投影した線がx軸となす角度、βは前記垂線がx−z面となす角度である。
e点(x1,y1,z1)は視点eの位置、P点((x,y,z)は投影面(表示画面に相当する)21上の点、S点(x0,y0,z0)はe点(x1,y1,z1)とP点((x,y,z)を通る直線22と断層像23の交わる点とすると、投影面C1点(xc1,yc1,zc1)を通るとき、特願平6−3492号より、
k1=sin α
k2=cos α/sin β
k3=cos α・cos α/sin β
ai=1/a
bi=1/b
ci=1/c
として、
【数1】
【数2】
【数3】
を用いて(X,Y)から(x,y,z)へ変換を行う。
【0015】
さらに、これに新視点設定のための平面が加わると、図4のような位置関係になる。
直線J,Kで示される平面Qは、三次元座標系では、投影面上の点Mに投影されたmは、点Aに投影されたCT画像上の点A0と視点eを結ぶ線分A0eを、投影面上でのAM:MCの割合で分割する点として定義する。
直線J,Kは、投影面上において点Mで直交して表示する。
投影面上の直線上の点(XJ,YJ)の投影前の位置(xJ,yJ,zJ)は、点(XJ,YJ)の三次元座標(xJ,yJ,zJ)を通り、点Mと点mを結ぶ直線に平行直線が、平面Qと交わる点として算出する。算出した点と視点の距離を求め、現在表示されている像より、視点に近い位置の場合、直線をかく。
【0016】
以下、具体的に説明する。
画面の表示課程を図5に示す。
【0017】
ステップ50では、指定された点Aと画面中央の点Cの、表示面での座標値を用いて、線分ACを表示する。
【0018】
ステップ51では、ステップ50で表示した線分ACの中点M点の初期位置トロイダルして表示する。
【0019】
ステップ52では、点Aに対応するCT画像上の点A0(xA0,yA0,zA0)を算出する。
(数1)〜(数3)を用いて点Aの投影面上の座標(XA,YA)から三次元座標値(xA,yA,zA)を算出する。また、輝度値として保存されている値から、視点と断層像上の点A0の距離を算出して、視点eと点Aの間を線分AA0:線分A0eに分割する座標として、点A0(xA0,yA0,zA0)を求める。
【0020】
ステップ53では、点mの座標点を求める。
点A(XA,YA)、点C(XC,YC)、点M(XM,YM)とし、以下の(数4)、(数5)にてAMとCMの長さを求める。
【数4】
【数5】
さらに、現視点e(x1,y1,z1)と点A0(xA0,yA0,zA0)を結ぶ線分A0eをAM:CMで分ける点m(xm,ym,zm)を以下から算出する。
【数6】
【数7】
【数8】
【0021】
ステップ54では、点M(XM,YM)の三次元座標(xM,yM,zM)を(数1)〜(数3)を用いて算出する。
【0022】
ステップ55では、直線Mmの式を求める。点m(xm,ym,zm)から直線Mmは(数9)で表される。
【数9】
【0023】
ステップ56では、点mを通り線分A0eに垂直な平面Qを求める。点m(xm,ym,zm)を通り、法線ベクトルが(x1−xA0e,y1−yA0e,z1−zA0e)である平面なので、(数10)で表される。
【数10】
【0024】
ステップ57では、投影面上で仮想平面を表す直線上の点(XJ,YJ)を、三次元座標上の座標(xJ,yJ,zJ)に変換する。
【0025】
ステップ58では、ステップ57で求めた座標をとり、直線Mmに平行直線を求める。直線Mmに平行であるから方向ベクトルが同じであり、ステップ57で求めた座標も通るので、
【数11】
のようになる。
【0026】
ステップ59では、平面Qとステップ58で求めた直線の交点を求める。
(数11)=tとおくと、
【数12】
【数13】
【数14】
これらで求めたx,y,zで(数10)をみたすものが交点となる。(数12)〜(数14)を(数10)に代入して、tの値を求めると、以下のようになる。
【数15】
このtの値を、(数12)〜(数14)に代入して得られた交点を投影面上の直線J(あるいは直線K)上のある点の、投影前の三次元位置とする。
【0027】
ステップ60では、ステップ59で求めた点の視点からの距離を求める。
【0028】
ステップ61では、ステップ60で求めた距離が、CT画像の位置より視点に近い場合、投影面に直線を引く。
【0029】
ステップ7では、終了アイコンが選択されたか否かの判断を行う。終了アイコンが選択された場合、プログラムを終了させる。この選択は操作者が行う。
【0030】
ステップ8では、点Mが移動したかどうかを判断する。Mの移動は、操作者がM上をクリックしながら線分AC上を動かすことで行う(図2(c))。移動した場合、ステップ9へ移る。
【0031】
ステップ9では、Mの移動に合わせ、Mで直交するJ,Kを移動して、仮想平面を移動する。移動した際の、Mと仮想平面の再表示は、上記ステップ51〜61と同様に行う。
【0032】
ステップ10では、仮想平面上の点がクリックされたかどうかを判断する。仮想平面上の点のクリックは、操作者が行う。仮想平面上の点がクリックされた場合は、ステップ11に移る。
【0033】
ステップ11では、仮想平面上でクリックされた点を新視点位置として、画面上に表示する(図2(d))。
【0034】
ステップ12では、新視点位置で画像の再構成を行うかの判断をする。再構成が選択された場合、ステップ13に移る。
【0035】
ステップ7からステップ12の間で「設定」がクリックされても無視する。
ステップ13では、仮想平面上の指定点から三次元空間内の視点位置を算出し、画像の再構成を行う。再構成の際、指定点から三次元空間内の視点位置を算出する方法は、上記、投影面状の直線の各点の三次元位置を求める方法と同じく、指定点E’を通り直線Mmに平行な直線と平面と交点を新視点e’の位置とする。
【0036】
新投影面を決めるためには、xyz座標系の原点から投影面に降ろした垂線のz−x面への投影線がx軸となす角αと、前記垂線がx−z面となす角βの値が必要となる。視線方向はe’A0となるので、そこからα、βの値を求める。その後、初期画面表示と同様の処理にて、画像を表示する。
【0037】
図6は再構成処理の流れである。各ステップを説明する。
【0038】
ステップ130では、投影面上の線分AMとCMの長さの比を(数4)、(数5)にて求める。
【0039】
ステップ131では、点Aに対応するCT画像上の点A0の座標を計算する。
【0040】
ステップ132では、現視点e(x1,y1,z1)と点A0(xA0,yA0,zA0)を結ぶ線分A0eをAM:CMで分ける点m(xm,ym,zm)を(数4)、(数5)、(数6)、(数7)、(数8)によって算出する。
【0041】
ステップ133では、点mを通り線分A0eに垂直な平面Qを(数10)から求める。
【0042】
ステップ134では、直線Mmを(数9)から求める。
【0043】
ステップ135では、新視点E’のxyz座標(xE’,yE’,zE’)を上記(数1)、(数2)、(数3)にて求める。この際、X=XE’,Y=YE’である。
【0044】
ステップ136では、直線Mmに平行で点E’を通る直線Rを求める。直線Mmに平行であるから方向ベクトルが同じであり、点E’をとおるから、以下で表される。
【数16】
【0045】
ステップ137では、平面Q(数10)と直線R(数16)の交点を求める。(数16)=tとおくと、
【数17】
【数18】
【数19】
これら、x,y,zで(数10)をみたすものが交点となる。(数17)〜(数19)を(数10)に代入してtの値を求めると、以下のようになる。
【数20】
【0046】
ステップ138では、このtの値を、(数17)〜(数19)に代入して得られた交点を新視点e’の座標(xe’,ye’,ze’)とする。
【0047】
ステップ139では、新視点e’とCT画像上の点A0を結んだ方向を新しい視線方向とし、新たな投影面のα、βは、図7のような位置関係になる。
【数21】
【数22】
とおくと、
【数23】
【数24】
であるから、
【数25】
【数26】
以上により、α、βが定まる。
【0048】
ステップ140では、上記ステップにて算出された パラメータを用いて、新しい投影面を算出し投影像を作り、陰影化、陰面化処理を行い表示する。手順はステップ1の初期画面の設定と同様である。
【0049】
図8は本発明が適用可能なハードウエア構成例を示すブロック図である。この図8において、70はCPU、71は主メモリ、72は磁気ディスク、73は表示メモリ、75はマウスコントローラで、これらは共通バス77に接続されている。磁気ディスク72には、複数の断層像および座標変換や陰影づけのためのプログラムなどが格納されている。
CPU70は、これら複数の断層像および座標変換や陰影づけのためのプログラムを読み出し、主メモリ71を用いて三次元画像を再構成し、その結果を表示メモリ73に送り、CRTモニタ74に表示させる。マウスコントローラ75に接続されてマウス76は、表示された三次元画像に対し、視点位置の再指定に用いる。得られた画像は、必要に応じて磁気ディスク72に格納される。
【0050】
上記実施例では、視点設定平面を法線から求めたが、法線でなくても、m点を通って、かつ視点設定平面が画面に表示でき、マウスによってその平面の一点をポイントできる如何なる場合も含む。例えば、視点決定平面を投影面に平行に配置される場合がある。
【0051】
また、仮想視点設定平面を十字カーソルとしたのは、仮想視点設定平面が決定医されて視点設定平面となるまで移動させる必要が有るので、描画速度が遅くなることと、いくつも平面が表示されると画像が見づらくなるからであるが、描画速度はプロセッサの処理速度の問題であり高速処理ができるようになれば解決され、平面を多重させて表示することは表示色、表示濃度の組合せで対応することができる。さらに、十字カーソールとしないで、仮想視点設定平面を示せるものであれば、どのような表示でもよい。
【0052】
さらに、マウスをポインティングデバイス入力の手段としたが、画面上を点入力できるものであれば、全ての入力手段による上記実施例の実施ができる。前記入力手段の一例を挙げれば、トラック・ボール、ジョイ・スティック、タッチパネル、ライトペンなどがある。
【0053】
【発明の効果】
本発明によれば、キー入力なしで画面の更新を行える。
また、二次元である投影面上で、画像との位置関係を踏まえながら、次の視点を指定することができるようになる。
【図面の簡単な説明】
【図1】本発明の流れを示すフローチャートである。
【図2】新しい視点を指定するため、仮想平面を表示した場合のCRTモニタ画面を示す図である。
【図3】断層像の画素座標の投影面上の座標への変換を説明するための図である。
【図4】投影面と新しい視点の存在する平面との位置関係を示す図である。
【図5】図2に示す仮想平面の画面表示を行うための手順を示すフローチャートである。
【図6】新しい視点で画像の再構成を行う場合の処理を示すフローチャートである。
【図7】新たな投影面の視線方向を表す図である。
【図8】本発明が適応可能なハードウエア構成を示すブロック図である。
【符号の説明】
x x軸
y y軸
z z軸
21 投影面
22 直線
23 断層像
24 平面Q
e 視点(視点の位置)
P 投影面上の点
S eとPを通る直線と断層像の交わる点
X 投影面上のX軸
Y 投影面上のY
C1 視点から投影面に下ろした垂線と投影面との交点
α 原点から投影面21に下ろした垂線をz−x面に投影した線がx軸となす角
β 原点から投影面21に下ろした垂線がx−z面となす角
a x軸と投影面21の交わる点
b y軸と投影面21の交わる点
c z軸と投影面21の交わる点
A 投影面上の任意の指定点
A0 断層像上の点
C 画面中心点(視点の投影点)
M 投影面上の線分AC上の点
K,J 仮想平面
E’ 投影面上で指定した新視点
e’ 新視点(新視点の位置)
m Mに対応する空間上の点[0001]
[Industrial application fields]
The present invention relates to a method for forming and displaying a pseudo three-dimensional image for performing endoscopic visualization of a three-dimensional original image, and more particularly to input of a new viewpoint position.
[0002]
[Prior art]
Conventionally, the 3D original image is converted into an endoscopic image, and the viewpoint and projection plane are updated when changing the viewpoint in the 3D space for shape observation. This has been done by setting the distance of the projection plane through trial and error and entering keys.
[0003]
[Problems to be solved by the invention]
In updating the viewpoint position by key input, there is a problem that it is difficult to establish a correspondence between the viewpoint on the image and the image, and it is difficult to update the viewpoint. Therefore, it is necessary to set the viewpoint freely while grasping the positional relationship with the image on the screen and to update the viewpoint.
[0004]
An object of the present invention is to provide a method for inputting a viewpoint position in the next three-dimensional space on a two-dimensional CRT by using a mouse with respect to an image on a display screen so that the screen can be updated without key input. That is.
[0005]
[Means for Solving the Problems]
The purpose is to arrange a three-dimensional original image in the order of the line of sight from the viewpoint and the projection plane in this order, and project the three-dimensional original image on the projection plane in the arrangement state to form a pseudo three-dimensional image. and displaying a pseudo three-dimensional image on the display device, and a step of inputting a point that sets a viewpoint movement direction at a position different from the current viewpoint to the displayed in pseudo three-dimensional image, and the current viewpoint the Including a step of setting a reference point on a line connecting the viewpoint movement direction setting point, a step of obtaining a virtual plane passing through the set reference point , and a step of setting a new viewpoint in the virtual plane Is achieved.
[0006]
[Action]
Since the above achievement means has the above-described configuration, a reference point is arbitrarily set in the displayed three-dimensional image, and based on the reference point and the viewpoint of the currently displayed three-dimensional image. The viewpoint setting plane set in this way is displayed and a new viewpoint is set on this viewpoint setting plane, so that the screen can be updated without key input.
[0007]
【Example】
FIG. 1 is a process flow of the present invention. However, the initial screen setting in
Each step will be described.
[0008]
In
In the display of the initial image, the viewpoint, the line-of-sight direction, and the projection plane are initially set.
Further, as shown in FIG. 2, three icons of “setting”, “reconfiguration”, and “end” are displayed on the display screen.
[0009]
In
[0010]
In
[0011]
In
[0012]
In
[0013]
In
When the straight lines J and K representing the virtual plane are displayed, the lines J and K are distinguished from each other depending on whether the positions of the straight lines J and K are closer to the viewpoint or farther than the CT tomogram. The positional relationship between the projection plane and the space is converted as follows.
FIG. 3 shows the positional relationship between the viewpoint, the tomographic image, the projection plane, and the coordinate axes. This is a diagram shown in Japanese Patent Application No. 6-3492, and the conversion between the three-dimensional coordinate system and the projection plane coordinate system is also performed using the conversion formula shown in Japanese Patent Application No. 6-3492.
[0014]
In FIG. 3, the coordinate conversion is performed as follows.
here,
a is a point where the x-axis and the projection plane 21 intersect, b is a point where the y-axis and the projection plane 21 intersect, and c is a point where the z-axis and the projection plane 21 intersect.
Further, α is an angle formed by a line projected from the origin to the projection plane 21 on the zx plane and the x axis, and β is an angle formed by the perpendicular and the xz plane.
The point e (x1, y1, z1) is the position of the viewpoint e, the point P ((x, y, z) is the point on the projection plane (corresponding to the display screen) 21, and the point S (x0, y0, z0) is Assuming that the
k1 = sin α
k2 = cos α / sin β
k3 = cos α · cos α / sin β
ai = 1 / a
bi = 1 / b
ci = 1 / c
As
[Expression 1]
[Expression 2]
[Equation 3]
Is used to convert (X, Y) to (x, y, z).
[0015]
Furthermore, when a plane for setting a new viewpoint is added to this, the positional relationship is as shown in FIG.
In the three-dimensional coordinate system, the plane Q indicated by the straight lines J and K is a line segment A0e connecting the point A0 on the CT image projected onto the point A and the viewpoint e in the three-dimensional coordinate system. Is defined as a point to be divided at a ratio of AM: MC on the projection plane.
The straight lines J and K are displayed orthogonally at a point M on the projection plane.
The position (xJ, yJ, zJ) before projection of the point (XJ, YJ) on the straight line on the projection plane passes through the three-dimensional coordinates (xJ, yJ, zJ) of the point (XJ, YJ) and A straight line parallel to the straight line connecting the points m is calculated as a point where the plane Q intersects. The distance between the calculated point and the viewpoint is obtained, and if the position is closer to the viewpoint than the currently displayed image, a straight line is drawn.
[0016]
This will be specifically described below.
The screen display process is shown in FIG.
[0017]
In step 50, the line segment AC is displayed using the coordinate values on the display surface of the designated point A and the point C in the center of the screen.
[0018]
In step 51, the initial position of the midpoint M of the line segment AC displayed in step 50 is toroidal and displayed.
[0019]
In step 52, a point A0 (xA0, yA0, zA0) on the CT image corresponding to the point A is calculated.
The three-dimensional coordinate values (xA, yA, zA) are calculated from the coordinates (XA, YA) of the point A on the projection plane using (Equation 1) to (Equation 3). Further, the distance between the viewpoint and the point A0 on the tomographic image is calculated from the value stored as the luminance value, and the point A0 is used as a coordinate for dividing the line between the viewpoint e and the point A into the line segment AA0: line segment A0e. (XA0, yA0, zA0) is obtained.
[0020]
In step 53, the coordinate point of the point m is obtained.
The points A (XA, YA), C (XC, YC), and M (XM, YM) are used, and the lengths of AM and CM are obtained by the following (Equation 4) and (Equation 5).
[Expression 4]
[Equation 5]
Further, a point m (xm, ym, zm) for dividing the line segment A0e connecting the current viewpoint e (x1, y1, z1) and the point A0 (xA0, yA0, zA0) by AM: CM is calculated from the following.
[Formula 6]
[Expression 7]
[Equation 8]
[0021]
In step 54, the three-dimensional coordinates (xM, yM, zM) of the point M (XM, YM) are calculated using (Equation 1) to (Equation 3).
[0022]
In step 55, the equation of the straight line Mm is obtained. From the point m (xm, ym, zm), the straight line Mm is expressed by (Equation 9).
[Equation 9]
[0023]
In step 56, a plane Q that passes through the point m and is perpendicular to the line segment A0e is obtained. Since the plane passes through the point m (xm, ym, zm) and the normal vector is (x1−xA0e, y1−yA0e, z1−zA0e), it is expressed by (Equation 10).
[Expression 10]
[0024]
In
[0025]
In
[Expression 11]
become that way.
[0026]
In step 59, the intersection of the plane Q and the straight line obtained in
If (Expression 11) = t,
[Expression 12]
[Formula 13]
[Expression 14]
An intersection is obtained by satisfying (Equation 10) with x, y, and z obtained as described above. Substituting (Equation 12) to (Equation 14) into (Equation 10) to obtain the value of t is as follows.
[Expression 15]
The intersection obtained by substituting the value of t into (Equation 12) to (Equation 14) is the three-dimensional position before projection of a point on the straight line J (or straight line K) on the projection plane.
[0027]
In step 60, the distance from the viewpoint of the point obtained in step 59 is obtained.
[0028]
In step 61, when the distance obtained in step 60 is closer to the viewpoint than the position of the CT image, a straight line is drawn on the projection plane.
[0029]
In
[0030]
In step 8, it is determined whether the point M has moved. The movement of M is performed by the operator moving on the line segment AC while clicking on M (FIG. 2C). If so, go to
[0031]
In
[0032]
In
[0033]
In step 11, the clicked point on the virtual plane is displayed on the screen as the new viewpoint position (FIG. 2 (d)).
[0034]
In step 12, it is determined whether to reconstruct an image at the new viewpoint position. If reconfiguration is selected, go to step 13.
[0035]
Even if “Setting” is clicked between
In
[0036]
In order to determine a new projection plane, an angle α formed by the projection line on the z-x plane of the perpendicular drawn from the origin of the xyz coordinate system to the x-axis and an angle β formed by the perpendicular formed by the xz plane. The value of is required. Since the line-of-sight direction is e′A0, the values of α and β are obtained therefrom. Thereafter, the image is displayed by the same processing as the initial screen display.
[0037]
FIG. 6 shows the flow of the reconstruction process. Each step will be described.
[0038]
In
[0039]
In
[0040]
In
[0041]
In
[0042]
In
[0043]
In
[0044]
In
[Expression 16]
[0045]
In
[Expression 17]
[Expression 18]
[Equation 19]
Those that satisfy (Equation 10) with x, y, z are intersections. Substituting (Equation 17) to (Equation 19) into (Equation 10) to obtain the value of t is as follows.
[Expression 20]
[0046]
In
[0047]
In
[Expression 21]
[Expression 22]
After all,
[Expression 23]
[Expression 24]
Because
[Expression 25]
[Equation 26]
As described above, α and β are determined.
[0048]
In
[0049]
FIG. 8 is a block diagram showing a hardware configuration example to which the present invention can be applied. In FIG. 8, 70 is a CPU, 71 is a main memory, 72 is a magnetic disk, 73 is a display memory, 75 is a mouse controller, and these are connected to a
The CPU 70 reads the plurality of tomographic images and programs for coordinate transformation and shading, reconstructs a three-dimensional image using the
[0050]
In the above embodiment, the viewpoint setting plane is obtained from the normal line. However, in any case where the viewpoint setting plane can be displayed on the screen through the m point even if it is not the normal line, and one point of the plane can be pointed with the mouse. Including. For example, the viewpoint determination plane may be arranged parallel to the projection plane.
[0051]
In addition, the cross point cursor is used as the virtual viewpoint setting plane because it is necessary to move the virtual viewpoint setting plane until the virtual viewpoint setting plane becomes the viewpoint setting plane, so that the drawing speed is slow and several planes are displayed. This is because it is difficult to see the image, but the drawing speed is a problem of the processing speed of the processor, and it will be solved if high-speed processing is possible, and the display of multiple planes is a combination of display color and display density. Can respond. Further, any display may be used as long as the virtual viewpoint setting plane can be displayed without using the cross cursor.
[0052]
Further, although the mouse is used as the pointing device input means, the above-described embodiment can be implemented by all input means as long as the point can be input on the screen. Examples of the input means include a track ball, a joy stick, a touch panel, and a light pen.
[0053]
【The invention's effect】
According to the present invention, the screen can be updated without key input.
Further, the next viewpoint can be designated on the two-dimensional projection plane while taking into account the positional relationship with the image.
[Brief description of the drawings]
FIG. 1 is a flowchart showing the flow of the present invention.
FIG. 2 is a diagram showing a CRT monitor screen when a virtual plane is displayed in order to designate a new viewpoint.
FIG. 3 is a diagram for explaining conversion of pixel coordinates of a tomographic image into coordinates on a projection plane.
FIG. 4 is a diagram illustrating a positional relationship between a projection plane and a plane where a new viewpoint exists.
FIG. 5 is a flowchart showing a procedure for performing screen display of the virtual plane shown in FIG. 2;
FIG. 6 is a flowchart illustrating processing when image reconstruction is performed from a new viewpoint.
FIG. 7 is a diagram illustrating a line-of-sight direction of a new projection plane.
FIG. 8 is a block diagram showing a hardware configuration to which the present invention can be applied.
[Explanation of symbols]
x x axis y y axis z z axis 21
e Viewpoint (viewpoint position)
P The point where the line passing the points Se and P on the projection plane and the tomographic image intersect X The X axis Y on the projection plane Y on the projection plane
C1 Intersection α between a perpendicular drawn from the viewpoint to the projection plane and the projection plane α An angle formed by a line projected from the origin to the projection plane 21 on the zx plane to the x axis β A perpendicular drawn from the origin to the projection plane 21 An angle a made by the xz plane a point where the x axis intersects the projection plane 21 a point where the y axis intersects the projection plane 21 a point A where the z axis intersects the projection plane 21 any designated point A0 on the projection plane A tomographic image Top point C Screen center point (projection point of viewpoint)
M Point K on line segment AC on projection plane, J Virtual plane E 'New viewpoint e' specified on projection plane e 'New viewpoint (position of new viewpoint)
point in space corresponding to m M
Claims (1)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP09758695A JP3623276B2 (en) | 1995-03-31 | 1995-03-31 | 3D image display method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP09758695A JP3623276B2 (en) | 1995-03-31 | 1995-03-31 | 3D image display method |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH08273004A JPH08273004A (en) | 1996-10-18 |
JP3623276B2 true JP3623276B2 (en) | 2005-02-23 |
Family
ID=14196350
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP09758695A Expired - Lifetime JP3623276B2 (en) | 1995-03-31 | 1995-03-31 | 3D image display method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3623276B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5214876B2 (en) * | 2006-12-15 | 2013-06-19 | 株式会社東芝 | 3D image processing apparatus and medical image diagnostic apparatus |
JP5322794B2 (en) * | 2009-06-16 | 2013-10-23 | 株式会社東芝 | Endoscopy support system |
JP5377153B2 (en) * | 2009-08-18 | 2013-12-25 | 株式会社東芝 | Image processing apparatus, image processing program, and medical diagnostic system |
-
1995
- 1995-03-31 JP JP09758695A patent/JP3623276B2/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JPH08273004A (en) | 1996-10-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4077321B2 (en) | Display control device | |
JP3240156B2 (en) | Moving viewpoint for target in 3D work area | |
US7640515B2 (en) | System for dynamically mapping input device movement as a user's viewpoint changes | |
JP3123501B2 (en) | Space viewpoint controller | |
US6084589A (en) | Information retrieval apparatus | |
JPH03250267A (en) | Device and method for displaying picture | |
JP2000242392A (en) | Computer system for dynamic information display and method thereof | |
JPH1011614A (en) | Method and device for setting viewpoint position and line-of-sight direction in three-dimensional picture constitution method | |
US5577176A (en) | Method and apparatus for displaying a cursor along a two dimensional representation of a computer generated three dimensional surface | |
JPH11272721A (en) | Interference check result display method, interference check result display device and computer readable record medium recording interference check result display program | |
JP3623276B2 (en) | 3D image display method | |
JP4110226B2 (en) | 3D image display device | |
JP2000048065A (en) | Virtual three-dimensional pipeline plotting method | |
JPH11272892A (en) | Device and method for moving and arranging object in three-dimensional space display system | |
JP3206047B2 (en) | Graphic data processing system | |
JP3794509B2 (en) | Three-dimensional parameter input device, three-dimensional parameter input method, and image processing device | |
JP3672352B2 (en) | Three-dimensional configuration editing method and three-dimensional configuration editing apparatus | |
JP3146451B2 (en) | Three-dimensional image display method and device therefor | |
JPH0614336B2 (en) | Design support method | |
JP3851364B2 (en) | Projection image display device | |
JP3470771B2 (en) | Projection plane linked display device | |
JPH06274599A (en) | Method for determining slice picture number and coordinate from there-dimensional picture | |
JP3732174B2 (en) | Three-dimensional configuration editing method and three-dimensional configuration editing apparatus | |
JPH0816826A (en) | Solid graphic arrangement input method and graphic system | |
JPH04180180A (en) | Three-dimensional position input method and device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040816 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20041007 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20041122 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20041124 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091203 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101203 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101203 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111203 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111203 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121203 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131203 Year of fee payment: 9 |
|
EXPY | Cancellation because of completion of term |