JPH0981786A - Three-dimensional image processing method - Google Patents

Three-dimensional image processing method

Info

Publication number
JPH0981786A
JPH0981786A JP23110595A JP23110595A JPH0981786A JP H0981786 A JPH0981786 A JP H0981786A JP 23110595 A JP23110595 A JP 23110595A JP 23110595 A JP23110595 A JP 23110595A JP H0981786 A JPH0981786 A JP H0981786A
Authority
JP
Japan
Prior art keywords
interest
point
dimensional
dimensional image
approach
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP23110595A
Other languages
Japanese (ja)
Other versions
JP3704652B2 (en
Inventor
Michio Oikawa
道雄 及川
Koichi Sano
耕一 佐野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Hitachi Healthcare Manufacturing Ltd
Original Assignee
Hitachi Ltd
Hitachi Medical Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd, Hitachi Medical Corp filed Critical Hitachi Ltd
Priority to JP23110595A priority Critical patent/JP3704652B2/en
Publication of JPH0981786A publication Critical patent/JPH0981786A/en
Application granted granted Critical
Publication of JP3704652B2 publication Critical patent/JP3704652B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

PROBLEM TO BE SOLVED: To display the three-dimensional position relation of a point of attention and its peripheral areas of interest to other areas from an arbitrary direction when a three-dimensional image is displayed by projecting three-dimensional data on a plane. SOLUTION: This three-dimensional image processing method has a step 103 wherein a point of attention is specified in the three-dimensional image, a step 104 wherein three-dimensional coordinates of the sets point of attention are found, a step 105 wherein areas of interest are set around the point of attention, and steps 111-117 wherein a rendering means having rendering parameters for the areas of interest and other areas renders the areas respectively with inputted parameters when the parameters are inputted.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は3次元画像処理方法に関
し、特に、X線CT装置などから得られたボクセルデー
タから成る3次元データから、3次元形状を2次元平面
に投影した画像を計算して表示する3次元画像処理方法
に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a three-dimensional image processing method, and in particular, it calculates an image obtained by projecting a three-dimensional shape onto a two-dimensional plane from three-dimensional data composed of voxel data obtained from an X-ray CT apparatus or the like. The present invention relates to a three-dimensional image processing method for displaying the same.

【0002】[0002]

【従来の技術】ボクセルから成る3次元データから2次
元平面に投影した3次元画像を生成する方法は、高画質
な画像を得られるボリュームレンダリング手法が医療分
野を始めとして、広く用いられている。また、このよう
な3次元画像を表示し、診療やデータの解析に利用する
ために、単に表示するだけではなく局所について特別な
画像処理を行う技術が知られている。例えば、「ヘリカ
ルスキャンCT(HES-CT)による小脳橋角部腫瘍の
術前シミュレーション」(第2回コンピュータ外科研究会
論文集、pp.49〜50(1993))においては、術前の治療計画
のために、3次元画像上で指定した領域ついて、指定し
た奥行きの位置の断面画像を表示する、シンセサイズド
・オブリーク表示という方法が述べられている。また、
特開平3-219377号公報には、計測された3次元ボクセル
データを表示するとき、その3次元的なマスクによっ
て、指定した領域の3次元データを切り出して合成表示
する方法が開示されている。更に、あらかじめセグメン
テーションされた3次元データを表示する場合に、特定
の領域について特定の組織を表示することにより、内部
の状態を表示する方法が知られており、"Surface Ren
dering",IEEE CG & A,vol.10,pp.41-53(March,
1990)に、表示例が示されている。また、”Clinical
Planning Support System - CliPSS”,IEEE
CG & A,vol.13, No.6,pp.76-84(Nov.,1993)には、
頭部腫瘍にガイドチューブを挿入したときの様子を合成
した3次元画像を表示した例が述べられている。これ
は、予め腫瘍と頭蓋骨を抽出した表面データに対して処
理を行っているものであり、ガイドチューブの挿入方向
は、パラメータの数値入力により決定している。
2. Description of the Related Art As a method for generating a three-dimensional image projected on a two-dimensional plane from three-dimensional data composed of voxels, a volume rendering method capable of obtaining a high quality image is widely used in the medical field and the like. Further, there is known a technique of displaying such a three-dimensional image and performing special image processing on a local area in addition to simply displaying the three-dimensional image for use in medical treatment and data analysis. For example, in “Preoperative simulation of cerebellopontine angle tumor by helical scan CT (HES-CT)” (The 2nd Computer Surgery Research Society Proceedings, pp.49-50 (1993)), preoperative treatment plan For this reason, a method called synthesized oblique display is described in which a cross-sectional image at a specified depth position is displayed for a specified area on a three-dimensional image. Also,
Japanese Unexamined Patent Publication No. 3-219377 discloses a method of displaying the measured three-dimensional voxel data by cutting out the three-dimensional data of a designated area by the three-dimensional mask and combining and displaying. Further, when displaying three-dimensional data segmented in advance, there is known a method of displaying an internal state by displaying a specific tissue in a specific region.
dering ", IEEE CG & A, vol.10, pp.41-53 (March,
1990) shows a display example. Also, "Clinical
Planning Support System-CliPSS ", IEEE
CG & A, vol.13, No.6, pp.76-84 (Nov., 1993),
An example in which a three-dimensional image in which a state when a guide tube is inserted into a head tumor is synthesized is displayed is described. In this, the surface data obtained by extracting the tumor and the skull in advance is processed, and the insertion direction of the guide tube is determined by the numerical input of parameters.

【0003】[0003]

【発明が解決しようとする課題】上記各従来技術には、
それぞれ、下記の如き問題があった。まず、上述のシン
セサイズド・オブリーク法では、断面表示しか行えない
ため立体的な形状を把握することが困難である。また、
上述の、ある領域に対してマスクをかけてデータを切り
出す方法では、表示対象を回転させることにより、領域
を切り出して穴を開けた深さ方向と、視線方向が一致し
なくなると、穴の底にある領域を表示できなくなってし
まう。これでは、データを取り除き、その奥にある注目
領域を観察しようとしても目的が果たせなくなる。そこ
で、本発明の基本的な目的は、注目領域の立体的な形状
の把握や、3次元データ全体と注目領域との位置関係を
あらゆる角度から把握することを可能とする3次元画像
処理方法を提供することである。
DISCLOSURE OF THE INVENTION Problems to be Solved by the Invention
Each had the following problems. First, in the above-described synthesized oblique method, it is difficult to grasp the three-dimensional shape because only the cross-sectional display can be performed. Also,
In the method of cutting out data by masking a certain area as described above, by rotating the display target, if the depth direction in which the area is cut out and the hole does not match the line-of-sight direction, the bottom of the hole It becomes impossible to display the area in. In this case, the purpose cannot be achieved even if the data is removed and the attention area in the back is observed. Therefore, a basic object of the present invention is to provide a three-dimensional image processing method capable of grasping the three-dimensional shape of the attention area and the positional relationship between the entire three-dimensional data and the attention area from all angles. Is to provide.

【0004】本発明の他の目的は、内部表示のために3
次元データをセグメンテーションして表示する方法で
は、セグメンテーションに非常に時間がかかるため、セ
グメンテーションを行わずに、あるいは、高速かつ容易
にセグメンテーションを行うことによって、内部の注目
領域を表示することを可能とする3次元画像処理方法を
提供することである。なお、この場合、注目領域の指定
をどのように行うかが重要となる。本発明の更に他の目
的は、上述の腫瘍へのアプローチを表示する方法では、
表面データを定義する必要があり、前処理の時間がかか
ることに鑑みて、この問題を解決可能な3次元画像処理
方法を提供することである。また、表面の定義が難しい
計測データにおいては、画質が問題となること、アプロ
ーチの方向を指定する方法が直観的でないという問題を
解決可能な3次元画像処理方法を提供することである。
Another object of the present invention is 3 for internal display.
The method of segmenting and displaying dimensional data takes a very long time to perform segmentation. Therefore, it is possible to display the attention area inside without segmentation or by performing segmentation quickly and easily. A three-dimensional image processing method is provided. In this case, how to specify the attention area is important. Yet another object of the present invention is a method of displaying the above tumor approach, comprising:
It is an object of the present invention to provide a three-dimensional image processing method capable of solving this problem in view of the necessity of defining surface data and the time required for preprocessing. It is another object of the present invention to provide a three-dimensional image processing method capable of solving the problem that the image quality becomes a problem in measurement data where the surface definition is difficult and the method of designating the approach direction is not intuitive.

【0005】[0005]

【課題を解決するための手段】本発明の上記目的は、以
下に述べる如き構成によって達成される。すなわち、ま
ず、ボリュームレンダリングにより表示を行う手段によ
って立体的な形状を把握できるようにする。また、注目
点を3次元空間上で設定し、回転後の注目点の位置を計
算し、投影面上で注目点を中心とする関心領域であるR
OI(Region of Interest)を自動的に計算して設定す
る手段を実現し、更に、視線方向に沿ったROI内につ
いて、その他の領域とは別にボリュームレンダリング計
算のパラメータを設定し、計算して表示する手段を実現
することにより、視線方向とROIの深さ方向を一致さ
せる。また、ROI内のレンダリングについて、サンプ
リング数をその他の領域よりも多くして、注目領域を高
精細に表示する手段を実現する。更に、希望する深さの
領域を削除するために、ROI内のレンダリングの開始
点の深さを指定する手段を実現する。また、ROIの大
きさや、形状を指定できる手段を実現する。更に、注目
点と投影面との間に表示対象が存在しない場合に注目点
の位置を3次元画像に重ねて表示する手段を実現する。
また、この注目点の位置を指定する方法として、仮の注
目点を指定した後、仮の注目点を通り投影面に平行な断
面画像を表示する手段と、断面の切断位置を平行に移動
する手段と、断面画像上で真の注目点を指定する手段を
実現する。更に、注目点を通る視線方向に平行なアプロ
ーチ方向を設定する手段と、3次元画像と注目点、アプ
ローチ方向を重ねて表示する手段を実現する。
The above objects of the present invention can be achieved by the following constitutions. That is, first, a three-dimensional shape can be grasped by means of displaying by volume rendering. In addition, the attention point is set in the three-dimensional space, the position of the attention point after rotation is calculated, and the region of interest R centering on the attention point on the projection plane is set.
A means for automatically calculating and setting the OI (Region of Interest) is realized, and further, for the ROI along the line-of-sight direction, the parameters for the volume rendering calculation are set separately from the other areas, and the calculation is displayed. By implementing the means, the line-of-sight direction and the depth direction of the ROI are matched. Further, regarding the rendering in the ROI, the number of samplings is set to be larger than that of the other areas, and a means for displaying the attention area with high definition is realized. Further, a means for specifying the depth of the starting point of the rendering in the ROI is implemented so as to delete the region having the desired depth. Also, a means for designating the size and shape of the ROI is realized. Further, it realizes a means for displaying the position of the attention point on the three-dimensional image in a superimposed manner when there is no display target between the attention point and the projection surface.
As a method of designating the position of this point of interest, after the temporary point of interest is designated, a means for displaying a cross-sectional image that passes through the temporary point of interest and is parallel to the projection surface and the cutting position of the cross section are moved in parallel. Means and means for designating a true point of interest on the cross-sectional image are realized. Further, it realizes a means for setting an approach direction parallel to the line-of-sight direction passing through the attention point and a means for displaying the three-dimensional image and the attention point and the approach direction in an overlapping manner.

【0006】[0006]

【作用】上述の手段により、常に注目点の周囲をROI
とし、かつ、ROIの奥行きが視線方向に一致するた
め、回転中心と注目点が異なっていても、あらゆる角度
から注目領域の観察が可能となる。また、ROI部分の
みをその他の領域とは異なったパラメータで表示する手
段を実現したことにより、以下の作用が提供できる。ま
ず、多くの場合、簡易的なセグメンテーションはしきい
値により可能であり、抽出を行わずに、パラメータであ
るしきい値を変更するだけで、注目している対象を表示
することができる。更にサンプリング数を増やせば詳細
な画像が得られるが、計算量は基本的に3乗のオーダー
で増加するので、従来の技術では全体を高精細に計算す
るには問題があったが、上述の手段により、ROI部分
についてのみ高精細な表示をすることが可能となり、計
算領域が小さいため、少ない計算時間で注目している領
域について詳細に観察できる。
With the above-mentioned means, the ROI always surrounds the point of interest.
In addition, since the depth of the ROI matches the line-of-sight direction, it is possible to observe the attention area from any angle even if the rotation center and the attention point are different. Further, the following operation can be provided by realizing the means for displaying only the ROI portion with parameters different from those of the other areas. First, in many cases, a simple segmentation can be performed by using a threshold value, and a target of interest can be displayed only by changing a threshold value that is a parameter without performing extraction. If the number of samplings is further increased, a detailed image can be obtained. However, the amount of calculation basically increases on the order of the third power, so that the conventional technique has a problem in calculating the entire image with high precision. By the means, it is possible to display a high-definition display only for the ROI portion, and since the calculation area is small, it is possible to observe in detail the area of interest in a short calculation time.

【0007】更に、ROIのレンダリング開始点を指定
する手段を実現したことにより、不透明度の高いボクセ
ル領域の内側にある不透明度の低いボクセル領域を表示
することができ、ROIについて指定された深さの穴を
あけていくような操作を行うことができる。また、RO
Iの大きさと形状を入力する手段を実現したことによ
り、注目領域の大きさや形状あわせたROIの視野を確
保できる。更に、注目点の手前に表示対象がないときに
注目点を3次元画像に重ねて表示する手段を実現したこ
とにより、注目点が3次元データに書き込まれたような
効果になり、注目点の3次元的な位置を3次元データと
同じ感覚で確認できる。また、仮の注目点と断面画像を
用いた注目点の位置の指定手段により、注目点をある物
体の表面だけでなく、その中心にも設定することが可能
となる。これにより、常に注目物体をROIの中心にお
いて回転して表示することができる。更に、アプローチ
方向を視線方向に一致させて設定することにより、直観
的にアプローチ方向を指定できる。
Further, by implementing the means for designating the ROI rendering start point, a low opacity voxel region inside a voxel region with high opacity can be displayed, and the depth specified for the ROI can be displayed. You can perform operations such as drilling holes. Also, RO
By realizing the means for inputting the size and shape of I, the field of view of the ROI that matches the size and shape of the region of interest can be secured. Further, by realizing the means for displaying the attention point on the three-dimensional image when there is no display object in front of the attention point, the effect that the attention point is written in the three-dimensional data is obtained. The 3D position can be confirmed with the same feeling as the 3D data. In addition, it is possible to set the attention point not only on the surface of an object but also at the center thereof by means for designating the position of the attention point using the provisional attention point and the cross-sectional image. As a result, the object of interest can always be rotated and displayed at the center of the ROI. Furthermore, the approach direction can be intuitively designated by setting the approach direction so as to match the line-of-sight direction.

【0008】[0008]

【実施例】以下、本発明の実施例を、図1〜図5を用い
て説明する。図1は、本発明の第1の実施例に係る3次
元画像処理方法を示すフローチャート、図2は、本実施
例のボリュームレンダリング法を説明する図である。図
2において、1は3次元データ、2は投影面、3は投影
面2上でいま投影される値を求めようとするピクセル、
4は該ピクセル3から投影面に垂直な線7上に存在す
る、再サンプリングされたボクセル集合、5は3次元デ
ータの座標系Aで、座標値は(x,y,z)で表わされ、
また、6は投影を行う座標系Vで、座標値は(X,Y,
Z)で表わされる。図3は、本実施例に係る3次元画像
処理方法において、3次元データ1のボクセルを再サン
プリングするときの例であり、右側の図は左側の図の一
部を拡大したものである。図3中、11は3次元データ
1のボクセルの中心点、12は再サンプリングするボク
セルの中心位置、13は再サンプリングするボクセル1
2を囲む8つのボクセル中心からなるセルである。
Embodiments of the present invention will be described below with reference to FIGS. FIG. 1 is a flow chart showing a three-dimensional image processing method according to the first embodiment of the present invention, and FIG. 2 is a diagram explaining a volume rendering method of the present embodiment. In FIG. 2, 1 is three-dimensional data, 2 is a projection plane, 3 is a pixel for which a value is currently projected on the projection plane 2,
4 is a set of resampled voxels existing on the line 7 perpendicular to the projection plane from the pixel 3, 5 is a coordinate system A of three-dimensional data, and coordinate values are represented by (x, y, z) ,
Further, 6 is a coordinate system V for projection, and coordinate values are (X, Y,
Z). FIG. 3 is an example of re-sampling voxels of the three-dimensional data 1 in the three-dimensional image processing method according to this embodiment, and the right diagram is an enlarged view of a part of the left diagram. In FIG. 3, 11 is the center point of the voxel of the three-dimensional data 1, 12 is the center position of the voxel to be resampled, and 13 is the voxel 1 to be resampled.
It is a cell that consists of eight voxel centers that surround 2.

【0009】図4は、本実施例におけるボクセル値と不
透明度との対応を示した図で、21は不透明度を0とす
るしきい値、22は比例定数である。図5は、本実施例
により表示された頭部3次元画像の例である。図5中、
31は表示対象である頭部表面、32は注目点、33は
注目点32を中心とするROI、34は表示パラメータ
により表示対象となった脳表面である。以下、図1〜図
5に従って、本実施例に係る3次元画像処理方法の動作
を説明する。まず、ボリュームレンダリングにより、3
次元データ全体の3次元画像を表示する(ステップ10
1)。このボリュームレンダリング法について、図2を
用いて説明する。投影面2は、図のように3次元データ
1に対して配置され、視線方向は投影面に垂直であると
する。
FIG. 4 is a diagram showing the correspondence between voxel values and opacity in this embodiment. Reference numeral 21 is a threshold value at which opacity is 0, and 22 is a proportional constant. FIG. 5 is an example of a three-dimensional image of the head displayed according to this embodiment. In FIG.
31 is the surface of the head that is the display target, 32 is the point of interest, 33 is the ROI centered at the point of interest 32, and 34 is the surface of the brain that is the display target based on the display parameters. The operation of the three-dimensional image processing method according to this embodiment will be described below with reference to FIGS. First, 3 by volume rendering
Display a three-dimensional image of the entire dimensional data (step 10
1). This volume rendering method will be described with reference to FIG. The projection plane 2 is arranged with respect to the three-dimensional data 1 as shown, and the line-of-sight direction is assumed to be perpendicular to the projection plane.

【0010】投影する座標系V系に再サンプリングされ
たボクセル4の各ボクセルは、それぞれ、不透明度αと
影付けされたカラーCという値を持っている。再サンプ
リングについては、後で説明する。不透明度αは、その
ボクセルが完全に透明で光が透過するならば「0」、完全
に不透明で光が透過しないならば「1」の値をとるものと
する。また、カラーというのはボクセルの発する色のこ
とであり、ボクセル自体が持つ色に対して、ボクセル位
置での仮想表面における光の反射を、ボクセルデータ値
(以下、「ボクセル値」と呼ぶ)の傾斜ベクトルを仮想表面
の向きであると考えることにより考慮し、光源の向きや
投影面の方向などにより影付けを行ったものである。こ
のとき、ボクセル集合4の各ボクセルに対して、投影面
から近い順に番号を付け、各ボクセルの不透明度,カラ
ーをそれぞれ、α(1),C(1)、・・・・、α(n),C(n)と
する。
Each voxel of the voxel 4 resampled to the projected coordinate system V system has an opacity α and a shaded color C. Resampling will be described later. The opacity α has a value of “0” if the voxel is completely transparent and allows light to pass therethrough, and takes a value of “1” if the voxel is completely opaque and does not allow light to pass therethrough. Color is the color emitted by a voxel. For the color that the voxel itself has, the reflection of light on the virtual surface at the voxel position is the voxel data value.
The tilt vector (hereinafter referred to as “voxel value”) is considered by considering it as the direction of the virtual surface, and the shadow is cast by the direction of the light source, the direction of the projection surface, and the like. At this time, the voxels of the voxel set 4 are numbered in order from the projection plane, and the opacity and color of each voxel are α (1), C (1), ..., α (n ), C (n).

【0011】ここで、簡略化のため光は平行光とし、光
線は投影面と垂直方向に、投影面側から3次元データへ
入射するものとする。以上のような場合に、光を投影面
から最も近いボクセルから遠いボクセルへと透過させ、
各ボクセルでの反射量を加算する方法で、式(1)によっ
てピクセル3に投影される値Pを計算する。本実施例で
は、説明の簡略化と扱うデータの性質を考慮して拡散反
射のみを扱い、光は平行光で投影面に垂直であるとす
る。
Here, for simplification, light is assumed to be parallel light, and light rays are incident on the three-dimensional data in the direction perpendicular to the projection surface from the projection surface side. In the above cases, light is transmitted from the closest voxel to the farthest voxel from the projection surface,
The value P projected on the pixel 3 is calculated by the equation (1) by a method of adding the reflection amount at each voxel. In this embodiment, only diffuse reflection is handled in consideration of simplification of description and the nature of data to be handled, and light is assumed to be parallel light and perpendicular to the projection surface.

【数1】 なお、式(1)中のA(i)はi番目のボクセルに入射する
光の透過率を表わしている。
[Equation 1] It should be noted that A (i) in the equation (1) represents the transmittance of light incident on the i-th voxel.

【0012】ここで、再サンプリングについて、図3を
用いて説明する。図3の左側の図のように、あるボクセ
ルについて再サンプリングしようとするとき、右側の図
のような座標系Aの8つのボクセル中心に囲まれたセル
の中で、それらのボクセル中心と再サンプリングするボ
クセル中心12との距離の比が、図のように、s:(1-
s),t:(1-t),u:(1-u)となっているとする。こ
のとき、再サンプリングしたボクセルの不透明度やカラ
ーなどの値は、次の式(2)のtrilinear法によって 求め
る。ここで、不透明度やカラーなどの値を代表してQを
用いて表わす。
Here, resampling will be described with reference to FIG. As shown in the diagram on the left side of FIG. 3, when trying to resample a certain voxel, among the cells surrounded by the eight voxel centers of the coordinate system A as shown in the diagram on the right side, the resampling with those voxel centers is performed. As shown in the figure, the ratio of the distance to the voxel center 12 is s: (1--
s), t: (1-t), u: (1-u). At this time, values such as opacity and color of the resampled voxels are obtained by the trilinear method of the following equation (2). Here, Q is used as a representative of values such as opacity and color.

【数2】 [Equation 2]

【0013】再サンプリングを行う方法は、再サンプリ
ングするボクセルに最も近い位置にある元のボクセルの
値を用いる最近傍法など、別の方法を用いてもよい。以
上のような方法で計算を行うとき、ボリュームレンダリ
ング計算におけるパラメータを定義する。まず、不透明
度αはボクセル値から定義されるが、この対応付けを変
化させることで様々な表示が可能となる。そこで、本実
施例ではボクセル値に比例して不透明度を決めることに
する。図4のように、ボクセル値fと不透明度αを対応
付け、不透明度を0とするボクセル値のしきい値fth
と、比例定数kをパラメータとすることにする。これ
は、不透明度を簡単に設定できるようにするためと、X
線CTなどで計測された人体のような3次元データを表
示する場合には、ボクセル値の高いものほど不透明度が
高いように設定すると、自然な表示が行えるためであ
る。
As a method of performing resampling, another method such as a nearest neighbor method using a value of an original voxel closest to a voxel to be resampled may be used. When the calculation is performed by the above method, the parameters in the volume rendering calculation are defined. First, the opacity α is defined from the voxel value, but various displays can be made by changing this association. Therefore, in this embodiment, the opacity is determined in proportion to the voxel value. As shown in FIG. 4, the voxel value f and the opacity α are associated with each other, and the threshold value fth of the voxel value where the opacity is 0 is set.
And the proportional constant k is used as a parameter. This is to make it easy to set the opacity
This is because when displaying three-dimensional data such as a human body measured by the line CT or the like, if the higher the voxel value is, the higher the opacity is, so that the natural display can be performed.

【0014】上記実施例によれば、レンダリングパラメ
ータであるしきい値fthと比例定数kを変化させること
で、表示対象を変更することができる。また、3次元デ
ータと投影面の位置関係を変えることで、様々な方向か
らの3次元画像表示が可能となる。そこで、3次元デー
タ空間の座標系Aと投影空間の座標系Vとの座標変換を
行う行列、特に本実施例では回転のみを考え、回転行列
をパラメータとする。本実施例では簡略化のため、以上
の要素のみをパラメータとし、ボクセルの色はモノクロ
とし、光源の方向などについては固定とするが、もちろ
ん、これらをパラメータに加え、可変にしても良いこと
は言うまでもない。さて、上述の方法で、ステップ10
1でボリュームレンダリングを行うとき、各ピクセルの
投影値を求めるときのライン上にあるボクセルで、しき
い値fthを超える、最も投影面に近いボクセルの投影面
からの距離をZバッファとして記憶する(ステップ10
2)。
According to the above embodiment, the display object can be changed by changing the threshold value fth which is a rendering parameter and the proportional constant k. Further, by changing the positional relationship between the three-dimensional data and the projection surface, it becomes possible to display a three-dimensional image from various directions. Therefore, a matrix for performing coordinate conversion between the coordinate system A in the three-dimensional data space and the coordinate system V in the projection space, particularly in the present embodiment, only rotation is considered and the rotation matrix is used as a parameter. In this embodiment, for simplification, only the above elements are used as parameters, the voxel color is monochrome, and the direction of the light source and the like are fixed. Of course, these may be added to the parameters and may be variable. Needless to say. Now, using the method described above, step 10
When performing volume rendering with 1, the distance from the projection surface of the voxel closest to the projection surface that exceeds the threshold fth among voxels on the line when the projection value of each pixel is obtained is stored as the Z buffer ( Step 10
2).

【0015】次に、上のように計算され、表示された3
次元画像上で着目する点をマウスで指定し、表示する
(ステップ103)。指定された着目点のZバッファを参
照し、回転後の座標系Vにおける着目点の座標値を得る
(ステップ104)。ステップ105では、3次元画像上
のROIとして、着目点を中心とするあらかじめ定めた
初期値の半径を持つ円を設定し、3次元画像上にROI
の範囲を表示する。座標系Vにおける着目点の座標を変
換し、オリジナルの座標系Aにおける着目点の座標を求
めて記憶する(ステップ106)。以上で着目点の設定と
ROIの設定が終了し、表示パラメータの変更・入力待
ち状態となり、この時点で表示されている3次元画像
は、図5(a)に示すようになる。
Next, the 3 calculated and displayed as above.
Specify the point of interest on the 3D image with the mouse and display it
(Step 103). Referring to the Z buffer of the specified point of interest, the coordinate value of the point of interest in the rotated coordinate system V is obtained.
(Step 104). In step 105, as the ROI on the three-dimensional image, a circle centered on the point of interest and having a predetermined initial radius is set, and the ROI on the three-dimensional image is set.
Display the range of. The coordinates of the point of interest in the coordinate system V are converted, and the coordinates of the point of interest in the original coordinate system A are obtained and stored (step 106). As described above, the setting of the point of interest and the setting of the ROI are completed, and the display parameter changing / input waiting state is set. The three-dimensional image displayed at this time is as shown in FIG.

【0016】続いて、回転を行い、表示方向を変化させ
る場合について説明する。ここで、回転を指示するとき
にレンダリング処理部に与えられるパラメータは、座標
系Aと座標系Vの座標値を変換する回転行列であるとす
る。パラメータが入力され(ステップ107)、ステップ
108で回転のパラメータかどうかチェックする。ここ
では、回転パラメータが入力されたため、ステップ10
9へ進む。ステップ109では、入力された回転行列を
用い、記憶した座標系Aにおける着目点の座標から座標
系Vにおける座標値を求める。求めた座標系Vにおける
着目点の投影面上の座標を中心とする、円形のROIを
設定し、表示する(ステップ110)。この後は、ステッ
プ111で、投影面全体についてボリュームレンダリン
グを行う。このとき、計算中のピクセル位置が、設定さ
れたROIの領域内かどうか判定し(ステップ112)、
ROI内についてはROI用の表示パラメータで、それ
以外の領域は通常の表示パラメータでボリュームレンダ
リングをして、表示を行う(ステップ113,114)。
このとき表示される画像は、図5(b)のようになり、注
目点32を中心としたROI33が注目点とともに回転
する。
Next, a case where the display direction is changed by performing rotation will be described. Here, it is assumed that the parameter given to the rendering processing unit when instructing rotation is a rotation matrix for converting the coordinate values of the coordinate system A and the coordinate system V. A parameter is input (step 107), and it is checked in step 108 whether it is a rotation parameter. Here, since the rotation parameter is input, step 10
Go to 9. In step 109, the input rotation matrix is used to obtain the coordinate value in the coordinate system V from the stored coordinates of the point of interest in the coordinate system A. A circular ROI centered on the coordinates of the point of interest in the obtained coordinate system V on the projection plane is set and displayed (step 110). After that, in step 111, volume rendering is performed on the entire projection surface. At this time, it is determined whether the pixel position under calculation is within the set ROI region (step 112),
The ROI is used as display parameters for ROI, and the other areas are displayed by performing volume rendering with normal display parameters (steps 113 and 114).
The image displayed at this time is as shown in FIG. 5B, and the ROI 33 centering on the point of interest 32 rotates with the point of interest.

【0017】次に、回転以外の表示パラメータが変更さ
れた場合には、ステップ114でROI用の表示パラメ
ータの変更か判定する。ROI用のパラメータの場合は
ROI内のピクセルについてのみ、ROI用のパラメー
タでボリュームレンダリングを行い、ROIの部分のみ
表示し直す(ステップ116)。このとき表示される画像
は図5(c)のようになり、ROIについてのみ別の部位
を表示できる。また、通常のパラメータが変更されたと
きは、ROI以外のピクセルについてのみ、通常のパラ
メータでボリュームレンダリングを行い、ROI以外の
部分のみ表示し直す(ステップ117)。このとき表示さ
れる画像は図5(d)のように、ROI以外の部分につい
て表示部位を変更できる。表示が終れば、次の入力待ち
状態となり、レンダリングパラメータが入力されればス
テップ107へ戻る。上記実施例によれば、注目点を中
心としてROIが設定でき、回転を行った場合にも注目
点を特別の表示パラメータで表示することが可能とな
る。更に、ROIの深さ方向は視線方向と一致するた
め、関心領域が奥まで隠れることなしに表示できる。
Next, when the display parameter other than rotation is changed, it is determined in step 114 whether the display parameter for ROI is changed. In the case of the ROI parameter, volume rendering is performed with the ROI parameter only for pixels within the ROI, and only the ROI portion is displayed again (step 116). The image displayed at this time is as shown in FIG. 5C, and another region can be displayed only for the ROI. When the normal parameter is changed, volume rendering is performed with the normal parameter only for pixels other than the ROI, and only the portion other than the ROI is displayed again (step 117). As for the image displayed at this time, as shown in FIG. 5D, the display portion can be changed for the portion other than the ROI. When the display is completed, the next input is awaited. When the rendering parameters are input, the process returns to step 107. According to the above-described embodiment, the ROI can be set around the point of interest, and the point of interest can be displayed with a special display parameter even when the ROI is rotated. Furthermore, since the depth direction of the ROI matches the line-of-sight direction, the ROI can be displayed without being hidden.

【0018】本実施例の応用として、例えば、全体とし
ては体の表面を表示しておいて、関心領域については内
臓を表示することができるようになり、内部の状態と外
部の位置関係を把握しやすい表示ができる。また、上記
実施例では、投影画像計算方法としてボリュームレンダ
リング法を用いたが、他の方法でも良い。例えば、しき
い値を超えたボクセル位置に表面があると考えて、表面
ボクセルの位置から、表面の傾きを求めて、表面におけ
る反射を計算して投影画像を生成する、ボクセル法と呼
ばれる方法などでも良い。更に、前記実施例では注目点
を設定するのにマウスを用いていたが、キーボードや、
ペン入力装置など、他の座標指示装置を用いても良い。
また、Zバッファの位置を決めるとき、最も投影面に近
いしきい値を超えたボクセルの位置をとっていたが、そ
の視線上にあるボクセルの反射光量が最も多いボクセル
の位置をとっても良い。これは、仮想的な表面をどう定
義するかということであり、このようなデータでは実際
の表面が曖昧であるため、どちらでも問題ではない。
As an application of the present embodiment, for example, the body surface can be displayed as a whole and the internal organs can be displayed for the region of interest, and the internal state and the external positional relationship can be grasped. It can be displayed easily. Further, in the above embodiment, the volume rendering method is used as the projection image calculation method, but other methods may be used. For example, considering that there is a surface at a voxel position that exceeds a threshold value, the inclination of the surface is obtained from the position of the surface voxel, the reflection on the surface is calculated, and a projection image is generated, a method called the voxel method, etc. But good. Furthermore, although the mouse is used to set the attention point in the above-mentioned embodiment, a keyboard,
Other coordinate pointing devices such as a pen input device may be used.
Further, when the position of the Z buffer is determined, the position of the voxel that exceeds the threshold value closest to the projection plane is taken, but the position of the voxel on the line of sight that has the largest amount of reflected light may be taken. This is how to define a virtual surface, and neither is a problem because the actual surface is ambiguous in such data.

【0019】更に、一度注目点を設定した後にステップ
103へ戻り、着目点を設定し直しても構わないし、着
目点の設定を取り消して、通常の3次元表示を行っても
構わない。また、上記実施例において、表示パラメータ
として、ROIのサンプリング数を増やすことによって
高精細なレンダリングを行うことができる。図6に、こ
の実施例を示す。簡略化のため、3次元データ1は投影
面2と平行であるとする。41は3次元データ中に存在
する線上の物体、42は投影面上におけるROI、43
はROIに対応した3次元データ上の領域、44はRO
I以外の領域と同じサンプリング間隔で表示したときの
ROIの画像、45はROI以外の領域の半分のサンプ
リング間隔で表示したときのROIの画像であり、46
は物体41を投影した領域である。図6のようにサンプ
リング間隔を細かくとった方が、より細かく正確な画像
をことができる。サンプリング数が増えるため、計算時
間は増えるが、注目している限定されたROIのみにつ
いて計算するため、全体を細かく計算するより圧倒的に
計算量は少なくて済む。
Further, after once setting the point of interest, the process may return to step 103 to reset the point of interest, or the setting of the point of interest may be canceled and normal three-dimensional display may be performed. Further, in the above embodiment, high-definition rendering can be performed by increasing the number of ROI samplings as a display parameter. FIG. 6 shows this embodiment. For simplification, it is assumed that the three-dimensional data 1 is parallel to the projection plane 2. 41 is an object on a line existing in the three-dimensional data, 42 is a ROI on the projection plane, 43
Is an area on the three-dimensional data corresponding to ROI, and 44 is RO
An ROI image when displayed at the same sampling interval as the region other than I, 45 an ROI image when displayed at a sampling interval half the region other than the ROI, and 46
Is an area where the object 41 is projected. A finer and more accurate image can be obtained when the sampling interval is made smaller as shown in FIG. Although the number of samplings increases, the calculation time increases, but since the calculation is performed only for the limited ROI of interest, the amount of calculation is overwhelmingly smaller than the detailed calculation.

【0020】上記実施例によれば、例えば、高エネルギ
ーのX線CTを用いて、荷物の検査を3次元画像により
行っていた場合に、全体の表示は処理時間を考慮し、あ
る程度サンプリング間隔を広くとって計算しておき、何
か異常な物体、例えば、拳銃らしいものが見つかった場
合に、その領域をマークし、その周囲のROIのみ細か
くサンプリングを行って正確な観察を行い、更に回転し
て表示することで3次元形状を把握する、ということが
可能となる。ここで、図7に示すようなデータについ
て、ROIの深さをレンダリングパラメータとして指定
する実施例について説明する。図7では、説明を簡略化
するため、3次元データ中のある1断面のレンダリング
について考える。図中51は、今着目する3次元データ
の1断面、52は3次元データ中に存在する物体で、内
部に丸い形状の53、四角い形状の54、三角の形状の
55の構造を持ち、それぞれの領域のボクセル値は丸囲
みの数字で示された10,50,100,30である。
According to the above embodiment, for example, when the inspection of the package is performed by the three-dimensional image using the high-energy X-ray CT, the entire display considers the processing time and the sampling interval is set to some extent. If you find an abnormal object, for example, something that looks like a handgun, mark that area, sample only the ROI around that area for precise observation, and rotate it further. It is possible to grasp the three-dimensional shape by displaying it. Here, an example in which the depth of the ROI is designated as a rendering parameter for the data shown in FIG. 7 will be described. In FIG. 7, in order to simplify the explanation, rendering of one cross section in the three-dimensional data will be considered. In the figure, 51 is one cross section of the three-dimensional data of interest, 52 is an object existing in the three-dimensional data, and has a round shape 53, a square shape 54, and a triangular shape 55 inside. The voxel values of the area are 10, 50, 100, and 30 indicated by circled numbers.

【0021】56は断面51が投影面に投影される領
域、57は53の領域のうちROIにあたる領域を示
す。また、58,59,60はROI領域のレンダリン
グ計算の開始点の位置を示している。まず、通常のレン
ダリング計算開始位置58から計算を行うと、しきい値
が10より小さければ四角い物体の表面が表示され、1
0〜50では丸い物体が、50〜100では棒状の物体
が表示される。このように、しきい値を変更することで
ROI内の物体の内部を表示できる。次に、レンダリン
グ計算開始位置59から計算を行うと、しきい値が30
より小さければ三角の物体の表面と丸い物体の内部が表
示され、30〜50では丸い物体の内部が、50〜10
0では棒状の物体が表示される。更に、レンダリング計
算開始位置60から計算を行うと、しきい値が50より
小さければ丸い物体の内部が表示され、50〜100で
は棒状の物体が表示される。
Reference numeral 56 denotes a region where the cross-section 51 is projected on the projection surface, and 57 denotes a region corresponding to the ROI out of 53 regions. Reference numerals 58, 59 and 60 indicate the positions of the start points of the ROI area rendering calculation. First, when calculation is performed from the normal rendering calculation start position 58, if the threshold value is smaller than 10, the surface of a square object is displayed and
A round object is displayed at 0 to 50, and a rod-shaped object is displayed at 50 to 100. In this way, the inside of the object in the ROI can be displayed by changing the threshold value. Next, when the calculation is performed from the rendering calculation start position 59, the threshold value becomes 30.
If it is smaller, the surface of the triangular object and the inside of the round object are displayed. At 30 to 50, the inside of the round object is 50 to 10
At 0, a rod-shaped object is displayed. Furthermore, when the calculation is performed from the rendering calculation start position 60, if the threshold value is smaller than 50, the inside of a round object is displayed, and at 50 to 100, a rod-shaped object is displayed.

【0022】上述の実施例のように、レンダリング開始
位置を奥にすることで、物体に穴をあけて内部の表示を
行うことができる。更に、通常のレンダリング位置から
では表示できなかった、高いボクセル値の物体の中にあ
る低いボクセル値の三角の物体を表示することもできる
ようになる。以上の実施例では、レンダリング開始位置
を投影面からの距離で設定したが、他の設定法でもよ
く、例えば、ボクセル値10の物体の表面からの奥行き
で設定したりすることもできる。次に、ROIの形状と
大きさを変更する実施例について、図8を用いて説明す
る。図中、35は変更後のROIである。まず、ROI
の初期状態が、例えば、注目点32を中心とする正方形
で1辺が20の長さだとする。このとき、マウスを用い
て正方形ROIの頂点をドラッグすることで、ROIの
大きさを変更する。ROIは注目点を中心として変化
し、変更後のROI35は1辺が30となったとする。
ここで、例えば、ポップアップメニューからROIの形
状を選択し、円形に変更したとすると、ROIは直径3
0の円になる。マウスでこの円周をドラッグをすること
で、ROIの大きさを変更する。
As in the above-mentioned embodiment, the inside of the object can be displayed by making a hole in the object by making the rendering start position deep. Further, it becomes possible to display a triangular object having a low voxel value in an object having a high voxel value, which could not be displayed from the normal rendering position. In the above embodiments, the rendering start position is set by the distance from the projection surface, but other setting methods may be used, for example, the depth from the surface of the object having a voxel value of 10 may be set. Next, an example of changing the shape and size of the ROI will be described with reference to FIG. In the figure, 35 is the ROI after the change. First, ROI
Assume, for example, that the initial state is a square centered on the point of interest 32 and one side has a length of 20. At this time, the size of the ROI is changed by dragging the vertices of the square ROI with the mouse. It is assumed that the ROI changes around the point of interest, and the changed ROI 35 has 30 on one side.
Here, for example, if the ROI shape is selected from the pop-up menu and changed to a circle, the ROI has a diameter of 3
It becomes a circle of 0. The size of the ROI can be changed by dragging this circumference with the mouse.

【0023】以上の実施例では、大きさを直観的に変更
するために、マウスを用いていたが、1辺の長さや、直
径、半径などの数値をキーボードから入力するようにし
ても良い。また、ROIの形状は長方形や三角形であっ
てもよく、マウスでなぞった自由形状としてもよい(た
だし、注目点をROI内部に含む)。更にROI形状の
指定は、メニューで選択しないで、例えば、マウスの中
ボタンを押すたびに、形状が切り替わるようにしてもよ
い。次に、注目点の位置を表示する実施例を図9に示
す。図中、61は表示対象物である。まず、(a)の角度
で表示したときに注目点32を設定する。これを回転し
て別の角度から表示したものが、(b),(c),(d)であ
る。(b)は、回転後、座標系Vにおいて、注目点の手前
側、すなわち注目点と投影面との間に表示対象物61が
存在する場合で、このような場合には、注目点の位置を
表示しない。このようにすることで、注目点を3次元デ
ータに書き込んだような効果を得ることができ、自然な
前後関係で表示が行える。
In the above embodiment, the mouse is used to intuitively change the size, but numerical values such as the length of one side, the diameter and the radius may be input from the keyboard. The shape of the ROI may be a rectangle or a triangle, or may be a free shape traced with a mouse (however, the point of interest is included inside the ROI). Further, the ROI shape may be designated without switching from the menu, for example, the shape may be switched each time the middle button of the mouse is pressed. Next, FIG. 9 shows an example in which the position of the point of interest is displayed. In the figure, 61 is a display object. First, the attention point 32 is set when the image is displayed at the angle (a). These are rotated and displayed from different angles are (b), (c), and (d). (b) shows the case where the display object 61 exists in front of the point of interest in the coordinate system V after rotation, that is, between the point of interest and the projection surface. In such a case, the position of the point of interest is Is not displayed. By doing so, it is possible to obtain the effect of writing the attention point in the three-dimensional data, and display can be performed in a natural context.

【0024】しかし、(b)の方法では、物体の影にある
注目点の位置がわからなくなってしまうため、(c)では
どのような場合にも注目点の位置を表示する。ただし、
この方法では、注目点の奥行き感覚はわからなくなる場
合がある。また、(d)では、注目点と投影面との間に物
体が存在するときには、注目点と物体の色を平均した色
で表示を行い、半透明に表示する。これは、(b),(c)
両方の長所と欠点を持つ。そこで、上の(b),(c),
(d)の方法を場合によって使いわけるようにする。注目
点位置の表示は、図1におけるステップ111または1
16の終了後に、ステップ109で求めたV系での注目
点座標と3次元画像のZバッファを用いて上記の方法に
より行う。以上の実施例では、注目点は物体の表面にし
か設定ができなかったので、物体の内部にも設定できる
実施例について、図10,図11を用いて説明する。
However, in the method of (b), the position of the point of interest in the shadow of the object is unknown, so in (c), the position of the point of interest is displayed in any case. However,
In this method, the sense of depth at the point of interest may not be known. Further, in (d), when an object exists between the point of interest and the projection surface, the color of the point of interest and the color of the object are displayed in an averaged color, and are displayed semitransparently. This is (b), (c)
Has both strengths and weaknesses. Therefore, the above (b), (c),
Use the method of (d) properly depending on the case. The display of the position of the attention point is performed in step 111 or 1 in FIG.
After the end of 16, the above method is performed using the coordinates of the point of interest in the V system obtained in step 109 and the Z buffer of the three-dimensional image. In the above embodiments, the attention point can be set only on the surface of the object, so an embodiment in which it can be set inside the object will be described with reference to FIGS. 10 and 11.

【0025】図10は、本実施例のフローチャート、ま
た、図11は、図10に示したフローチャートに対応し
た操作と画像の例を示している。65は表示対象となっ
ている物体、66は物体表面の仮の注目点、67は物体
65を投影した3次元画像、68は3次元画像上におけ
る注目点の位置、69は仮の注目点の周りに設定された
ROIの断面画像、70は断面上で指定した真の注目点
である。このとき、3次元データ1中の表示対象は、図
11(a)に示す65のような球状の中身の詰まった物体
であるとする。以下、フローチャートを用いて注目点の
設定方法を説明する。まず、ステップ201では、物体
65が投影された3次元画像67上で仮の注目点68を
指定する。すると、3次元空間上では物体の表面位置6
6に注目点が設定される(図11(a)参照)。次のステッ
プ202では、ステップ201で設定した仮の注目点6
6を通り、投影面2に平行な断面の画像69を計算し、
ステップ203で表示する。この段階では、断面は物体
の表面に接するような位置なので、図11(b)のように
点として表示されている。
FIG. 10 shows a flow chart of this embodiment, and FIG. 11 shows an example of operations and images corresponding to the flow chart shown in FIG. Reference numeral 65 is an object to be displayed, 66 is a temporary attention point on the surface of the object, 67 is a three-dimensional image on which the object 65 is projected, 68 is a position of the attention point on the three-dimensional image, and 69 is a temporary attention point. The ROI cross-sectional image set around is designated by 70, which is a true point of interest specified on the cross-section. At this time, it is assumed that the display target in the three-dimensional data 1 is a solid object having a spherical content like 65 shown in FIG. Hereinafter, a method of setting a point of interest will be described using a flowchart. First, in step 201, a temporary attention point 68 is designated on the three-dimensional image 67 on which the object 65 is projected. Then, the surface position 6 of the object in the three-dimensional space
An attention point is set at 6 (see FIG. 11A). At the next step 202, the temporary attention point 6 set at step 201 is set.
An image 69 of a cross section passing through 6 and parallel to the projection plane 2 is calculated,
Display in step 203. At this stage, the cross section is in contact with the surface of the object, and thus is displayed as a dot as shown in FIG.

【0026】続いて、真の注目点として指定する断面位
置を探すためにステップ205で断面の位置を平行移動
させ、図11(c)のような表示を行う。平行移動を行い
ながら注目点を設定する位置が決まったら、ステップ2
04で注目点を設定するステップ206へ進み、図11
(d)のように真の注目点の位置を指定する。断面画像上
で指定された注目点の3次元位置を求めて記憶し、図1
に示した実施例のステップ107以降の処理に用いるこ
とができる。以上の実施例により、物体の内部に注目点
を指定することができる。これにより、例えば腫瘍の中
心を常に関心領域の中心とした表示が可能となり、腫瘍
が関心領域をはみ出さないように回転することができ
る。さて、次に、注目点へのアプローチ方向を設定し、
表示するための実施例について図12のフローチャート
と図13を用いて説明する。本実施例は、例えば、腫瘍
のある患者を撮影した3次元データに対して、注目点と
して腫瘍を指定し、手術する際のアプローチを事前に検
討するような場合に利用できる。
Then, in step 205, the position of the cross section is moved in parallel to find the cross section position to be designated as the true point of interest, and the display as shown in FIG. When the position to set the point of interest is decided while performing the parallel movement, step 2
In step 04, the process proceeds to step 206 for setting a point of interest, and FIG.
The position of the true point of interest is designated as in (d). The three-dimensional position of the point of interest specified on the cross-sectional image is obtained and stored, and
It can be used for the processing after step 107 of the embodiment shown in FIG. With the above embodiment, the point of interest can be specified inside the object. Thereby, for example, it is possible to always display the center of the tumor as the center of the region of interest, and rotate the tumor so that it does not extend beyond the region of interest. Now, next, set the approach direction to the point of interest,
An example for displaying will be described with reference to the flowchart of FIG. 12 and FIG. The present embodiment can be used, for example, in the case of designating a tumor as a point of interest for three-dimensional data obtained by imaging a patient with a tumor and examining the approach for surgery in advance.

【0027】本実施例は、図1に示した注目点を中心と
したROIを設定する方法などの上記実施例と併用する
こともできるが、ここでは説明簡略化のため、単独でア
プローチの設定と表示を行う例を示す。アプローチは指
定した注目点を通り、投影面に垂直な方向に設定する。
図13中、71はアプローチ方向、72はアプローチ方
向単位ベクトル、73は物体65の投影画像、74は注
目点を投影したもの、75はアプローチを投影したもの
である。まず、注目点を設定するところに関しては、図
1に示した実施例と同じである(ステップ101,10
2,103,104,106)。注目点を設定した後、
回転を行って、表示対象を様々な角度から観察を行い、
注目点へアプローチするために最適な方向を探して、ア
プローチ方向を決定する(ステップ301)。回転後座標
系V系における、Z軸向きの(投影面に垂直方向の)単位
ベクトルのオリジナル座標系A系における値を求めて、
アプローチ方向単位ベクトルとして記憶する(ステップ
302)。
This embodiment can be used in combination with the above-described embodiment such as the method of setting the ROI centering on the point of interest shown in FIG. 1, but here, for the sake of simplification of description, the approach is set independently. The following shows an example of displaying. The approach passes through the specified point of interest and is set in the direction perpendicular to the projection plane.
In FIG. 13, 71 is an approach direction, 72 is an approach direction unit vector, 73 is a projected image of the object 65, 74 is a projected point, and 75 is an approach projected. First, the setting of the point of interest is the same as in the embodiment shown in FIG. 1 (steps 101 and 10).
2, 103, 104, 106). After setting the point of interest,
Rotate, observe the display target from various angles,
The optimum direction for approaching the point of interest is searched for and the approach direction is determined (step 301). In the post-rotation coordinate system V system, the value of the unit vector in the Z-axis direction (perpendicular to the projection plane) in the original coordinate system A system is obtained,
It is stored as an approach direction unit vector (step 302).

【0028】以上のステップにより、アプローチ方向が
設定できる。次に、設定されたアプローチを表示する。
アプローチが設定されたときには、アプローチ方向は投
影面と垂直であるため投影面上では注目点と重なる位置
に点として表示される(図13(a))。回転をして、アプ
ローチ方向と視線方向が一致しない場合には、アプロー
チは直線として表示されるが、このとき、アプローチを
示す直線と投影面との間に物体が存在すれば、アプロー
チは表示しないようにする(図13(b))。また、アプロ
ーチは注目点から、アプローチ方向単位ベクトルの向き
に、ある長さだけ表示することにする。この長さは初期
設定されているものとする。アプローチが設定された、
または、回転などのパラメータが入力された場合には
(ステップ311)、ステップ312で、回転後のV系に
おける注目点の座標を求める。
The approach direction can be set by the above steps. Next, the set approach is displayed.
When the approach is set, the approach direction is perpendicular to the projection plane, so that it is displayed as a point on the projection plane at a position overlapping with the target point (FIG. 13A). When the rotation is performed and the approach direction and the line-of-sight direction do not match, the approach is displayed as a straight line. At this time, if an object exists between the straight line indicating the approach and the projection plane, the approach is not displayed. (FIG. 13B). In addition, the approach is displayed only a certain length from the point of interest in the direction of the approach direction unit vector. It is assumed that this length is initially set. The approach was set,
Or if parameters such as rotation are entered
In step 311 and step 312, the coordinates of the point of interest in the V system after rotation are obtained.

【0029】次に、V系におけるアプローチ方向単位ベ
クトルを求める(ステップ313)。また、すでに指定さ
れているアプローチの長さとアプローチ方向単位ベクト
ルと注目点の座標から、アプローチを表示する際の注目
点ではない方の端点を求める(ステップ314)。そこ
で、注目点と端点を結ぶ直線を投影面に投影し、そのと
きのV系でのZバッファを記憶する(ステップ315)。
ボリュームレンダリングを行い、3次元画像を求め(ス
テップ316)、そのとき求めた画像のZバッファ(ステ
ップ317)とアプローチのZバッファとを比較し、画
像のZバッファの方が投影面に近い場合には3次元画像
を表示し、そうでなければアプローチを表示する。(ス
テップ318)。その後、注目点は、例えば、図9の実
施例のように表示する。本実施例により、前後関係を考
慮した自然な合成表示を行うことができるが、アプロー
チと3次元画像を合成表示するならば、他の方法でも良
い。また、アプローチの長さや太さは変更できるように
してもよい。
Next, the approach direction unit vector in the V system is obtained (step 313). Further, the end point which is not the target point when displaying the approach is obtained from the already specified approach length, the approach direction unit vector and the coordinates of the target point (step 314). Therefore, a straight line connecting the target point and the end point is projected on the projection surface, and the Z buffer in the V system at that time is stored (step 315).
Volume rendering is performed to obtain a three-dimensional image (step 316), the Z buffer of the image obtained at that time (step 317) is compared with the Z buffer of the approach, and when the Z buffer of the image is closer to the projection plane. Displays a 3D image, otherwise displays the approach. (Step 318). After that, the point of interest is displayed as in the embodiment of FIG. 9, for example. According to the present embodiment, natural composite display can be performed in consideration of the context, but other methods may be used as long as the approach and the three-dimensional image are composite displayed. Further, the length and thickness of the approach may be changeable.

【0030】上記実施例により、アプローチ方向を決め
た後、回転を行い、様々な角度から観察してアプローチ
の検討を行うことができる。ここで、設定したアプロー
チ方向と視線方向が一致した表示をすることにより、術
中にアプローチする方向から観察するような状態をシミ
ュレーションできる。そこで、図14にアプローチビュ
ーを表示するための実施例を示す。図12におけるフロ
ーチャートに次の処理を加える。ステップ302により
アプローチ方向が決定された後、現在の表示角度での座
標系Aから座標系Vへの回転行列を記憶する(ステップ
401)。これにより、アプローチビュー方向が記憶さ
れる。ここで、アプローチビュー表示を行う指示が入力
されると(ステップ411)、ステップ401で記憶した
回転行列をパラメータに入力する(ステップ412)。す
ると、図12のステップ311へ進み、上記の図12の
実施例により、アプローチ方向と視線方向が一致したア
プローチビューが表示される。
According to the above-described embodiment, after determining the approach direction, it is possible to examine the approach by rotating and observing from various angles. Here, by displaying the set approach direction and the line-of-sight direction in the same direction, it is possible to simulate a state of observing from the approaching direction during the operation. Therefore, FIG. 14 shows an embodiment for displaying the approach view. The following processing is added to the flowchart in FIG. After the approach direction is determined in step 302, the rotation matrix from the coordinate system A to the coordinate system V at the current display angle is stored (step 401). Thereby, the approach view direction is stored. When an instruction to display the approach view is input (step 411), the rotation matrix stored in step 401 is input as a parameter (step 412). Then, the process proceeds to step 311 in FIG. 12, and the approach view in which the approach direction and the line-of-sight direction match is displayed according to the embodiment of FIG. 12 described above.

【0031】上述の実施例により、手術のアプローチを
計画できるが、そのとき、体の表面のどこからアプロー
チすればよいかを求めることにより、更に手術計画を支
援できる。図15にアプローチ表面位置を求めるための
実施例を示す。まず、注目点やアプローチを設定する前
に、ボリュームレンダリングを行い、体表面を表示する
ようなパラメータを設定し、記憶する(ステップ50
1)。本実施例ではしきい値を記憶する。ここで、図1
2の実施例のステップ301,302によりアプローチ
方向が設定されたあと、ステップ501で記憶したパラ
メータ(しきい値)を呼び出し、レンダリングパラメータ
に入力する(ステップ511)。すると、図12に示した
実施例(ステップ311〜318)により、体表面の3次
元画像とアプローチと注目点とを合成表示する。このと
き、アプローチは投影面と垂直のため点となり、アプロ
ーチと注目点は重なり、図13(a)のようになる。
Although the above-described embodiment can plan a surgical approach, the surgical planning can be further assisted by determining from which surface of the body the approach should be taken. FIG. 15 shows an embodiment for obtaining the approach surface position. First, before setting the attention point and the approach, volume rendering is performed, and parameters for displaying the body surface are set and stored (step 50).
1). In this embodiment, the threshold value is stored. Here, FIG.
After the approach direction is set in steps 301 and 302 of the second embodiment, the parameter (threshold value) stored in step 501 is called and the rendering parameter is input (step 511). Then, according to the embodiment shown in FIG. 12 (steps 311 to 318), the three-dimensional image of the body surface, the approach, and the point of interest are combined and displayed. At this time, the approach becomes a point because it is perpendicular to the projection plane, and the approach and the point of interest overlap each other, as shown in FIG.

【0032】すると、体表面とアプローチ方向の交わる
位置はステップ317で得られたZバッファにより求め
られる(ステップ512)。得られたアプローチ表面位置
はV系の座標なので、A系の座標に変換し、記憶する
(ステップ513)。以降、記憶されたアプローチ表面位
置は、注目点を表示するときに、記憶していた座標系A
から、座標系Vに変換し、図9の実施例と同様に表示を
行う。以上の実施例により、術前にアプローチ方向と、
アプローチ表面位置の検討を行うことができる。なお、
上記各実施例は本発明の一例を示したものであり、本発
明はこれに限定されるべきものではないことは言うまで
もないことである。
Then, the position where the body surface and the approach direction intersect is determined by the Z buffer obtained in step 317 (step 512). Since the obtained approach surface position is the coordinate of the V system, it is converted into the coordinate of the A system and stored.
(Step 513). After that, the stored approach surface position is the coordinate system A that was stored when the target point was displayed.
Is converted to the coordinate system V and displayed as in the embodiment of FIG. According to the above example, the approach direction before surgery,
A study of approach surface position can be made. In addition,
Needless to say, each of the above-mentioned embodiments shows an example of the present invention, and the present invention should not be limited thereto.

【0033】[0033]

【発明の効果】以上述べたように、本発明によれば、観
察方向によらず、常に注目する部分を中心として関心領
域が設定され、関心領域とそれ以外の領域との関係を、
表示パラメータをインタラクティブに変更することによ
り、立体的に把握できるようになる。また、関心領域に
ついてのみレンダリングすることで、高速な処理が可能
となったり、高精細な画像を得ることができるようにな
る。更に、表示対象について穴をあけるような表示や、
アプローチ方向を表示することにより、手術の計画など
を行うことができるようになる。
As described above, according to the present invention, the region of interest is always set centering on the portion of interest regardless of the viewing direction, and the relationship between the region of interest and other regions is
By interactively changing the display parameter, it becomes possible to grasp in three dimensions. In addition, by rendering only the region of interest, high-speed processing becomes possible and a high-definition image can be obtained. Furthermore, a display that makes a hole in the display target,
By displaying the approach direction, it becomes possible to plan an operation.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例に係る、注目点を中心とした
関心領域の設定とレンダリング法を示すフローチャート
である。
FIG. 1 is a flowchart showing a method of setting a region of interest around a point of interest and a rendering method according to an embodiment of the present invention.

【図2】ボリュームレンダリングの実施例を説明する図
である。
FIG. 2 is a diagram illustrating an example of volume rendering.

【図3】再サンプリングの実施例を説明する図である。FIG. 3 is a diagram illustrating an example of resampling.

【図4】不透明度とボクセル値の対応例を示す図であ
る。
FIG. 4 is a diagram showing an example of correspondence between opacity and voxel value.

【図5】注目点と関心領域とが設定されたときのレンダ
リング結果の例を説明する図である。
FIG. 5 is a diagram illustrating an example of a rendering result when an attention point and a region of interest are set.

【図6】高精細な表示を行うときの例を示す図である。FIG. 6 is a diagram showing an example when high-definition display is performed.

【図7】レンダリング計算開始位置を変更する実施例を
説明する図である。
FIG. 7 is a diagram illustrating an example of changing a rendering calculation start position.

【図8】関心領域の大きさと形状を変更する例を示す図
である。
FIG. 8 is a diagram showing an example of changing the size and shape of a region of interest.

【図9】注目点を表示する例を示す図である。FIG. 9 is a diagram showing an example of displaying an attention point.

【図10】注目点を物体内部に指定する例を示す図であ
る。
FIG. 10 is a diagram showing an example of designating a target point inside an object.

【図11】注目点を物体内部に指定する例を示す図であ
る。
FIG. 11 is a diagram showing an example of designating a target point inside an object.

【図12】アプローチ方向の設定とレンダリングの例を
示すフローチャートである。
FIG. 12 is a flowchart showing an example of approach direction setting and rendering.

【図13】アプローチ方向の表示例を示す図である。FIG. 13 is a diagram showing a display example of an approach direction.

【図14】アプローチビューへの復帰の例を示すフロー
チャートである。
FIG. 14 is a flowchart showing an example of returning to the approach view.

【図15】アプローチ上の表面位置を求める実施例を示
したフローチャートである。
FIG. 15 is a flowchart showing an example of obtaining a surface position on an approach.

【符号の説明】[Explanation of symbols]

1 3次元データ 2 投影面 5 3次元データのオリジナル座標系 6 回転後の投影座標系 21 しきい値 22 不透明度を定義する比例定数 32 注目点 33 関心領域 66 仮の注目点 70 真の注目点 71 アプローチ方向 1 3D data 2 Projection plane 5 3D data original coordinate system 6 Projected coordinate system after rotation 21 Threshold 22 Proportional constant defining opacity 32 Attention point 33 ROI 66 Temporary attention point 70 True attention point 71 Approach direction

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 ボクセルデータの3次元配列からなる3
次元データを用いて該3次元データ中の表示対象物体を
2次元平面上に投影した画像を生成し、表示を行う3次
元画像処理方法であって、少なくとも、前記投影した画
像である3次元画像上で、注目点を指定するステップ
と、指定した3次元画像上の注目点の奥行き座標値を求
めるステップと、注目点の3次元座標値を記憶するステ
ップと、投影面上において注目点を内部に含む関心領域
を設定するステップと、前記関心領域について、その他
の領域とは別に、投影画像生成計算のパラメータを設定
するステップを有する3次元画像処理方法において、 前記パラメータにより3次元データと投影面との位置関
係が変更されたとき、表示方向が変わることにより投影
面上で移動する注目点に追従して関心領域を移動させる
ステップと、関心領域とその他の領域とのそれぞれのパ
ラメータにより両者の領域について投影画像生成計算を
行い、表示するステップを有することを特徴とする3次
元画像処理方法。
1. A three-dimensional array of voxel data
A three-dimensional image processing method for generating and displaying an image in which a display target object in the three-dimensional data is projected on a two-dimensional plane using three-dimensional data, which is at least a three-dimensional image that is the projected image. In the above, the step of designating the attention point, the step of obtaining the depth coordinate value of the attention point on the designated three-dimensional image, the step of storing the three-dimensional coordinate value of the attention point, and the interior of the attention point on the projection surface In the three-dimensional image processing method, there is a step of setting a region of interest included in the step of setting a region of interest in the region of interest and a step of setting a parameter for projection image generation calculation for the region of interest separately from other regions. And the step of moving the region of interest by following the point of interest that moves on the projection surface due to the change in the display direction when the positional relationship with A three-dimensional image processing method, characterized in that it includes a step of performing projection image generation calculation for both areas by using respective parameters of the area and other areas, and displaying them.
【請求項2】 前記各ステップに加え、関心領域につい
ては、投影画像生成計算のパラメータのうちのサンプリ
ング間隔をその他の領域より細かくして投影画像生成計
算を行うステップを有することを特徴とする請求項1記
載の3次元画像処理方法。
2. In addition to the above steps, the step of performing projection image generation calculation for the region of interest is performed by making the sampling interval of the parameters of the projection image generation calculation finer than the other regions. Item 3. The three-dimensional image processing method according to item 1.
【請求項3】 前記各ステップに加え、関心領域につい
ては、投影画像生成計算のパラメータのうちの投影画像
生成計算の開始点の位置を指定するステップを有するこ
とを特徴とする請求項1記載の3次元画像処理方法。
3. The method according to claim 1, further comprising the step of designating the position of the start point of the projection image generation calculation of the parameters of the projection image generation calculation for the region of interest, in addition to the above steps. Three-dimensional image processing method.
【請求項4】 前記各ステップに加え、関心領域の大き
さを入力するステップと、関心領域の形状を入力するス
テップを有することを特徴とする請求項1記載の3次元
画像処理方法。
4. The three-dimensional image processing method according to claim 1, further comprising a step of inputting a size of the region of interest and a step of inputting a shape of the region of interest, in addition to the respective steps.
【請求項5】 前記注目点を指定するステップは、仮の
注目点を指定するステップと、仮の注目点を通り投影面
と垂直な平面による3次元データの断面画像を表示する
ステップと、前記断面の位置を平行に移動し表示するス
テップと、断面画像上で真の注目点を指定するステップ
から成ることを特徴とする請求項1記載の3次元画像処
理方法。
5. The step of designating the point of interest includes the step of designating a temporary point of interest, the step of displaying a cross-sectional image of three-dimensional data by a plane passing through the temporary point of interest and perpendicular to the projection plane, 2. The three-dimensional image processing method according to claim 1, further comprising a step of moving and displaying the position of the cross section in parallel and a step of designating a true point of interest on the cross sectional image.
【請求項6】 ボクセルデータの3次元配列からなる3
次元データを用いて該3次元データ中の表示対象物体を
2次元上に投影した画像を生成し、表示を行う3次元画
像処理方法であって、少なくとも、 前記投影した画像である3次元画像上で、注目点を指定
するステップと、指定した3次元画像上の注目点の奥行
き座標値を求めるステップと、注目点の3次元座標値を
記憶するステップと、現在の視線方向で注目点を通る線
である、注目点へのアプローチを設定するステップとを
持ち、投影画像生成計算のパラメータが変更・入力され
るたびに、そのパラメータによる3次元画像と注目点と
注目点へのアプローチとを合成表示するステップを持つ
ことを特徴とする3次元画像処理方法。
6. A three-dimensional array of voxel data
A three-dimensional image processing method for generating and displaying a two-dimensionally projected image of a display target object in the three-dimensional data using three-dimensional data, which is at least a three-dimensional image which is the projected image. Then, the step of designating the attention point, the step of obtaining the depth coordinate value of the attention point on the designated three-dimensional image, the step of storing the three-dimensional coordinate value of the attention point, and passing through the attention point in the current line-of-sight direction And a step of setting an approach to the point of interest, which is a line, and each time a parameter of the projection image generation calculation is changed / input, a three-dimensional image based on the parameter is combined with the point of interest and the approach to the point of interest. A three-dimensional image processing method having a step of displaying.
【請求項7】 前記各ステップに加え、一つの操作で、
アプローチ方向と視線方向を一致させるステップを持つ
ことを特徴とする請求項6記載の3次元画像処理方法。
7. In addition to the above steps, in one operation,
7. The three-dimensional image processing method according to claim 6, further comprising the step of matching the approach direction and the line-of-sight direction.
【請求項8】 前記各ステップに加え、物体の表面を表
示するときの投影画像生成計算のパラメータを記憶する
ステップと、注目点へのアプローチを設定したときに、
物体表面を表示するパラメータに変更するステップと、
アプローチ上で物体表面にある点の位置を求めるステッ
プと、投影画像生成計算のパラメータが変更・入力され
るたびに、そのパラメータによる3次元画像と注目点と
注目点へのアプローチとアプローチ上の物体表面の点を
合成表示するステップを持つことを特徴とする請求項6
記載の3次元画像処理方法。
8. In addition to the above steps, a step of storing parameters for projection image generation calculation when displaying a surface of an object, and a step of setting an approach to a point of interest,
Changing the parameters to display the object surface,
The step of obtaining the position of a point on the surface of the object on the approach, and whenever the parameters of the projection image generation calculation are changed / input, the three-dimensional image, the point of interest, the approach to the point of interest, and the object on the approach 7. The method according to claim 6, further comprising a step of combining and displaying points on the surface.
The described three-dimensional image processing method.
JP23110595A 1995-09-08 1995-09-08 3D image processing method Expired - Fee Related JP3704652B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP23110595A JP3704652B2 (en) 1995-09-08 1995-09-08 3D image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP23110595A JP3704652B2 (en) 1995-09-08 1995-09-08 3D image processing method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2005151859A Division JP3891442B2 (en) 2005-05-25 2005-05-25 3D image processing method

Publications (2)

Publication Number Publication Date
JPH0981786A true JPH0981786A (en) 1997-03-28
JP3704652B2 JP3704652B2 (en) 2005-10-12

Family

ID=16918383

Family Applications (1)

Application Number Title Priority Date Filing Date
JP23110595A Expired - Fee Related JP3704652B2 (en) 1995-09-08 1995-09-08 3D image processing method

Country Status (1)

Country Link
JP (1) JP3704652B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001118086A (en) * 1999-10-21 2001-04-27 Hitachi Medical Corp Method and device for displaying image
JP2003091735A (en) * 2001-09-19 2003-03-28 Toshiba Medical System Co Ltd Image processor
JP2003116825A (en) * 2001-07-27 2003-04-22 General Electric Co <Ge> Method and system for unsupervized transfer function generation for image of rendered volume
JP2006055213A (en) * 2004-08-17 2006-03-02 Konica Minolta Medical & Graphic Inc Image processor and program
JP2006334259A (en) * 2005-06-06 2006-12-14 Toshiba Corp Three dimensional image processing device and three dimensional image displaying method
CN100392677C (en) * 2004-07-12 2008-06-04 富士通株式会社 Apparatus for displaying cross-sectional image and computer product
JP2009034503A (en) * 2007-08-02 2009-02-19 General Electric Co <Ge> Method and system for displaying tomosynthesis image
JP2011134352A (en) * 2011-03-25 2011-07-07 Toshiba Corp Image processing device
JP2014512607A (en) * 2011-04-08 2014-05-22 コーニンクレッカ フィリップス エヌ ヴェ Image processing system and method
US9990703B2 (en) 2014-01-09 2018-06-05 Fujitsu Limited Visualization method and apparatus
JP2019063364A (en) * 2017-10-03 2019-04-25 キヤノン株式会社 Image processing device and method for controlling the same

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001118086A (en) * 1999-10-21 2001-04-27 Hitachi Medical Corp Method and device for displaying image
JP2003116825A (en) * 2001-07-27 2003-04-22 General Electric Co <Ge> Method and system for unsupervized transfer function generation for image of rendered volume
JP2003091735A (en) * 2001-09-19 2003-03-28 Toshiba Medical System Co Ltd Image processor
CN100392677C (en) * 2004-07-12 2008-06-04 富士通株式会社 Apparatus for displaying cross-sectional image and computer product
JP2006055213A (en) * 2004-08-17 2006-03-02 Konica Minolta Medical & Graphic Inc Image processor and program
JP2006334259A (en) * 2005-06-06 2006-12-14 Toshiba Corp Three dimensional image processing device and three dimensional image displaying method
JP2009034503A (en) * 2007-08-02 2009-02-19 General Electric Co <Ge> Method and system for displaying tomosynthesis image
JP2011134352A (en) * 2011-03-25 2011-07-07 Toshiba Corp Image processing device
JP2014512607A (en) * 2011-04-08 2014-05-22 コーニンクレッカ フィリップス エヌ ヴェ Image processing system and method
US10373375B2 (en) 2011-04-08 2019-08-06 Koninklijke Philips N.V. Image processing system and method using device rotation
US10629002B2 (en) 2011-04-08 2020-04-21 Koninklijke Philips N.V. Measurements and calibration utilizing colorimetric sensors
US9990703B2 (en) 2014-01-09 2018-06-05 Fujitsu Limited Visualization method and apparatus
JP2019063364A (en) * 2017-10-03 2019-04-25 キヤノン株式会社 Image processing device and method for controlling the same

Also Published As

Publication number Publication date
JP3704652B2 (en) 2005-10-12

Similar Documents

Publication Publication Date Title
JP3891442B2 (en) 3D image processing method
JP4450786B2 (en) Image processing method and image processing program
US5953013A (en) Method of constructing three-dimensional image according to central projection method and apparatus for same
KR100439756B1 (en) Apparatus and method for displaying virtual endoscopy diaplay
US11547499B2 (en) Dynamic and interactive navigation in a surgical environment
JP3483929B2 (en) 3D image generation method
US7502025B2 (en) Image processing method and program for visualization of tubular tissue
KR20000036177A (en) System and method for performing a three-dimensional virtual examination
Mori et al. Virtualized Endoscope System--An Application of Virtual Reality Technology to Diagnostic Aid--
US7424140B2 (en) Method, computer program product, and apparatus for performing rendering
US20070279436A1 (en) Method and system for selective visualization and interaction with 3D image data, in a tunnel viewer
US20070279435A1 (en) Method and system for selective visualization and interaction with 3D image data
US20100201683A1 (en) Medical image display apparatus and medical image display method
KR20000069171A (en) Enhanced image processing for a three-dimensional imaging system
JP2004534584A (en) Image processing method for interacting with 3D surface displayed on 3D image
US20210353371A1 (en) Surgical planning, surgical navigation and imaging system
JP2006346022A (en) Image display method and image display program
JP2007135843A (en) Image processor, image processing program and image processing method
JP3704652B2 (en) 3D image processing method
JP2007512064A (en) Method for navigation in 3D image data
JP2001052195A (en) Method for visualizing one part of three-dimensional image
CN116958486A (en) Medical image processing method and system based on convolutional neural network
JPH05189543A (en) Three-dimensional image information presenting method
Bruckner et al. Illustrative focus+ context approaches in interactive volume visualization
JP2019170412A (en) Surgery simulation apparatus and surgery simulation program

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050506

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050525

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050701

A61 First payment of annual fees (during grant procedure)

Effective date: 20050714

Free format text: JAPANESE INTERMEDIATE CODE: A61

R150 Certificate of patent (=grant) or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees