JP3891442B2 - 3D image processing method - Google Patents

3D image processing method Download PDF

Info

Publication number
JP3891442B2
JP3891442B2 JP2005151859A JP2005151859A JP3891442B2 JP 3891442 B2 JP3891442 B2 JP 3891442B2 JP 2005151859 A JP2005151859 A JP 2005151859A JP 2005151859 A JP2005151859 A JP 2005151859A JP 3891442 B2 JP3891442 B2 JP 3891442B2
Authority
JP
Japan
Prior art keywords
point
interest
approach
roi
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005151859A
Other languages
Japanese (ja)
Other versions
JP2005322257A (en
Inventor
道雄 及川
耕一 佐野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Healthcare Manufacturing Ltd
Original Assignee
Hitachi Medical Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Medical Corp filed Critical Hitachi Medical Corp
Priority to JP2005151859A priority Critical patent/JP3891442B2/en
Publication of JP2005322257A publication Critical patent/JP2005322257A/en
Application granted granted Critical
Publication of JP3891442B2 publication Critical patent/JP3891442B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

本発明は、3次元画像処理方法に関し、特に、X線CT装置などから得られたボクセルデータから成る3次元データから、3次元形状を2次元平面に投影した画像を計算して表示する3次元画像処理方法に関するものである。   The present invention relates to a three-dimensional image processing method, and more particularly, to calculate and display an image obtained by projecting a three-dimensional shape onto a two-dimensional plane from three-dimensional data composed of voxel data obtained from an X-ray CT apparatus or the like. The present invention relates to an image processing method.

ボクセルから成る3次元データから2次元平面に投影した3次元画像を生成する方法は、高画質な画像を得られるボリュームレンダリング手法が医療分野を始めとして、広く用いられている。また、このような3次元画像を表示し、診療やデータの解析に利用するために、単に表示するだけではなく局所について特別な画像処理を行う技術が知られている。   As a method of generating a three-dimensional image projected on a two-dimensional plane from three-dimensional data composed of voxels, a volume rendering method capable of obtaining a high-quality image is widely used in the medical field and the like. In addition, in order to display such a three-dimensional image and use it for medical treatment or data analysis, a technique for performing special image processing on a local area as well as merely displaying is known.

例えば、「ヘリカルスキャンCT(HES−CT)による小脳橋角部腫瘍の術前シミュレーション」(第2回コンピュータ外科研究会論文集、pp.49〜50(1993))においては、術前の治療計画のために、3次元画像上で指定した領域について、指定した奥行きの位置の断面画像を表示する、シンセサイズド・オブリーク表示という方法が述べられている。   For example, in “Preoperative simulation of cerebellar pontine corner tumor by helical scan CT (HES-CT)” (2nd Computer Surgery Study Group, pp.49-50 (1993)) Therefore, a method called synthesized oblique display is described in which a cross-sectional image at a specified depth position is displayed for a specified region on a three-dimensional image.

また、特開平3−219377号公報には、計測された3次元ボクセルデータを表示するとき、その3次元的なマスクによって、指定した領域の3次元データを切り出して合成表示する方法が開示されている。
更に、あらかじめセグメンテーションされた3次元データを表示する場合に、特定の領域について特定の組織を表示することにより、内部の状態を表示する方法が知られており、“Surface Rendering”,IEEE CG & A,vol.10,pp.41−53(March,1990)に、表示例が示されている。
Japanese Patent Application Laid-Open No. 3-219377 discloses a method of displaying and synthesizing three-dimensional data of a specified area using the three-dimensional mask when displaying measured three-dimensional voxel data. Yes.
Furthermore, when displaying pre-segmented three-dimensional data, a method of displaying an internal state by displaying a specific organization for a specific region is known, “Surface Rendering”, IEEE CG & A , Vol. 10, pp. A display example is shown in 41-53 (March, 1990).

また、“Clinical Planning Support System−CliPSS”,IEEE CG &A,vol.13,No.6,pp.76−84(Nov.,1993)には、頭部腫瘍にガイドチューブを挿入したときの様子を合成した3次元画像を表示した例が述べられている。
これは、予め腫瘍と頭骸骨を抽出した表面データに対して処理を行っているものであり、ガイドチューブの挿入方向は、パラメータの数値入力により決定している。
“Clinical Planning Support System-CliPSS”, IEEE CG & A, vol. 13, no. 6, pp. 76-84 (Nov., 1993) describes an example in which a three-dimensional image obtained by synthesizing a state when a guide tube is inserted into a head tumor is displayed.
In this method, surface data obtained by extracting a tumor and a cranium in advance are processed, and the insertion direction of the guide tube is determined by numerical input of parameters.

特開平3−219377号公報JP-A-3-219377 「ヘリカルスキャンCT(HES−CT)による小脳橋角部腫瘍の術前シミュレーション」(第2回コンピュータ外科研究会論文集、pp.49〜50(1993))"Preoperative simulation of cerebellopontine angle tumor by helical scan CT (HES-CT)" (Proceedings of the Second Computer Surgery Study Group, pp.49-50 (1993)) “Surface Rendering”,IEEE CG & A,vol.10,pp.41−53(March,1990)“Surface Rendering”, IEEE CG & A, vol. 10, pp. 41-53 (March, 1990) “Clinical Planning Support System−CliPSS”,IEEE CG &A,vol.13,No.6,pp.76−84(Nov.,1993)“Clinical Planning Support System-CliPSS”, IEEE CG & A, vol. 13, no. 6, pp. 76-84 (Nov., 1993)

上記各従来技術には、それぞれ下記の如き問題があった。
まず、上述のシンセサイズド・オブリーク法では、断面表示しか行えないため、立体的な形状を把握することが困難である。
また、上述の、ある領域に対してマスクをかけてデータを切り出す方法では、表示対象を回転させることにより、領域を切り出して穴を開けた深さ方向と、視線方向が一致しなくなると、穴の底にある領域を表示できなくなってしまう。これでは、データを取り除き、その奥にある注目領域を観察しようとしても目的が果せなくなる。
Each of the above prior arts has the following problems.
First, since the above-described synthesized oblique method can only display a cross section, it is difficult to grasp the three-dimensional shape.
Further, in the above-described method of cutting out data by masking a certain area, by rotating the display object, if the depth direction in which the area is cut out and the hole is formed does not match the line-of-sight direction, The area at the bottom of the can not be displayed. In this case, even if it is attempted to remove the data and observe the attention area in the back, the purpose cannot be achieved.

(目的)
そこで、本発明の基本的な目的は、注目領域の立体的な形状の把握や、3次元データ全体と注目領域との位置関係をあらゆる角度から把握することを可能とする3次元画像処理方法を提供することである。
(the purpose)
Accordingly, a basic object of the present invention is to provide a three-dimensional image processing method that makes it possible to grasp the three-dimensional shape of a region of interest and the positional relationship between the entire three-dimensional data and the region of interest from all angles. Is to provide.

本発明の他の目的は、内部表示のために3次元データをセグメンテーションして表示する方法では、セグメンテーションに非常に時間がかかるため、セグメンテーションを行わずに、あるいは、高速かつ容易にセグメンテーションを行うことによって、内部の注目領域を表示することを可能とする3次元画像処理方法を提供することである。なお、この場合、注目領域の指定をどのように行うかが重要となる。   Another object of the present invention is to perform segmentation without segmentation or at high speed and easily because segmentation takes a very long time in the method of segmenting and displaying three-dimensional data for internal display. By providing a three-dimensional image processing method that makes it possible to display an internal region of interest. In this case, how to specify the attention area is important.

本発明の更に他の目的は、上述の腫瘍へのアプローチを表示する方法では、表画データを定義する必要があり、前処理の時間がかかることに鑑みて、この問題を解決可能な3次元画像処理方法を提供することである。また、表面の定義が難しい計測データにおいては、画質が問題となること、アプローチの方向を指定する方法が直観的でないという問題を解決可能な3次元画像処理方法を提供することである。   Still another object of the present invention is to provide a three-dimensional solution that can solve this problem in view of the fact that the above-mentioned method for displaying an approach to a tumor requires definition of display data, which takes time for preprocessing. An image processing method is provided. Another object of the present invention is to provide a three-dimensional image processing method that can solve the problem that image quality is a problem in measurement data whose surface definition is difficult, and that the method of specifying the direction of the approach is not intuitive.

本発明の上記目的は、以下に述べる如き構成によって達成される。
すなわち、まず、ボリュームレンダリングにより表示を行う手段によって立体的な形状を把握できるようにする。また、注目点を3次元空間上で設定し、回転後の注目点の位置を計算し、投影面上で注目点を中心とする関心領域であるROI(Region of Interest)を自動的に計算して設定する手段を実現し、更に、視線方向に沿ったROI内について、その他の領域とは別にボリュームレンダリング計算のパラメータを設定し、計算して表示する手段を実現することにより、視線方法とROIの深さ方向を一致させる。
The above object of the present invention can be achieved by the following configurations.
That is, first, a three-dimensional shape can be grasped by means for displaying by volume rendering. In addition, the attention point is set in a three-dimensional space, the position of the attention point after rotation is calculated, and the ROI (Region of Interest) that is the region of interest centered on the attention point on the projection plane is automatically calculated. Further, by setting a parameter for volume rendering calculation in the ROI along the line-of-sight direction separately from other areas, and realizing the means for calculating and displaying the line-of-sight method and the ROI Match the depth direction.

また、ROI内のレンダリングについてサンプリング数をその他の領域よりも多くして、注目領域を高精細に表示する手段を実現する。
更に、希望する深さの領域を削除するために、ROI内のレンダリングの開始点の深さを指定する手段を実現する。
また、ROIの大きさや、形状を指定できる手段を実現する。
更に、注目点と投影面との間に表示対象が存在しない場合に注目点の位置を3次元画像に重ねて表示する手段を実現する。
また、この注目点の位置を指定する方法として、仮の注目点を指定した後、仮の注目点を通り投影面に平行な断面画像を表示する手段と、断面の切断位置を平行に移動する手段と、断面画像上で真の注目点を指定する手段を実現する。
更に、注目点を通る視線方向に平行なアプローチ方向を設定する手段と、3次元画像と注目点、アプローチ方向を重ねて表示する手段を実現する。
Further, a means for displaying the region of interest with high definition is realized by increasing the number of samplings in the rendering in the ROI as compared with other regions.
Furthermore, in order to delete a region having a desired depth, a means for designating the depth of the rendering start point in the ROI is realized.
Also, a means for specifying the size and shape of the ROI is realized.
Furthermore, a means for displaying the position of the target point superimposed on the three-dimensional image when there is no display target between the target point and the projection plane is realized.
As a method for specifying the position of the target point, after the temporary target point is specified, a means for displaying a cross-sectional image that passes through the temporary target point and is parallel to the projection plane, and the cutting position of the cross section are moved in parallel. And means for designating the true attention point on the cross-sectional image.
Furthermore, a means for setting an approach direction parallel to the line-of-sight direction passing through the attention point and a means for displaying the three-dimensional image, the attention point and the approach direction in an overlapping manner are realized.

(作用)
上述の手段により、常に注目点の周囲をROIとし、かつ、ROIの奥行きが視線方向に一致するため、回転中心と注目点が異なっていても、あらゆる角度から注目領域の視察が可能となる。
また、ROI部分のみをその他の領域とは異なったパラメータで表示する手段を実現したことにより、以下の作用が提供できる。まず、多くの場合、簡易的なセグメンテーションはしきい値により可能であり、抽出を行わずに、パラメータであるしきい値を変更するだけで、注目している対象を表示することができる。
(Function)
With the above-described means, the ROI is always set around the attention point, and the ROI depth coincides with the line-of-sight direction. Therefore, even if the rotation center and the attention point are different, the attention region can be observed from all angles.
Further, by realizing a means for displaying only the ROI portion with parameters different from those of other regions, the following operations can be provided. First, in many cases, simple segmentation is possible using threshold values, and an object of interest can be displayed simply by changing the threshold value, which is a parameter, without performing extraction.

更にサンプリング数を増やせば詳細な画像が得られるが、計算量は基本的に3乗のオーダーで増加するので、従来の技術では全体を高精細に計算するには問題があったが、上述の手段により、ROI部分についてのみ高精細な表示をすることが可能となり、計算領域が小さいため、少ない計算時間で注目している領域について詳細に観察できる。   If the number of samplings is further increased, a detailed image can be obtained. However, since the amount of calculation basically increases in the order of the third power, there is a problem in the conventional technique in calculating the whole with high definition. By means, it becomes possible to display only the ROI portion with high definition, and since the calculation area is small, it is possible to observe in detail the area of interest in a short calculation time.

更に、ROIのレンダリング開始点を指定する手段を実現したことにより、不透明度の高いボクセル領域の内側にある不透明度の低いボクセル領域を表示することができ、ROIについて指定された深さの穴をあけていくような操作を行うことができる。
また、ROIの大きさと形状を入力する手段を実現したことにより、注目領域の大きさや形状をあわせたROIの視野を確保できる。
更に、注目点の手前に表示対象がないときに注目点を3次元画像に重ねて表示する手段を実現したことにより、注目点が3次元データに書き込まれたような効果になり、注目点の3次元的な位置を3次元データと同じ感覚で確認できる。
Furthermore, by realizing a means for designating the ROI rendering start point, it is possible to display a low-opacity voxel region inside a high-opacity voxel region, and to create a hole with a depth specified for the ROI. You can perform operations like opening them.
In addition, by realizing the means for inputting the size and shape of the ROI, it is possible to secure a field of view of the ROI that matches the size and shape of the region of interest.
Furthermore, by realizing a means for displaying the target point in a three-dimensional image when there is no display target in front of the target point, the effect is as if the target point was written in the three-dimensional data. The three-dimensional position can be confirmed with the same feeling as the three-dimensional data.

また、仮の注目点と断面画像を用いた注目点の位置の指定手段により、注目点をある物体の表面だけでなく、その中心にも設定することが可能となる。これにより、常に注目物体をROIの中心において回転して表示することができる。
更に、アプローチ方向を視線方向に一致させて設定することにより、直観的にアプローチ方向を指定できる。
In addition, it is possible to set the attention point not only on the surface of an object but also on the center thereof by means of specifying the position of the attention point using the temporary attention point and the cross-sectional image. As a result, the object of interest can always be rotated and displayed at the center of the ROI.
Furthermore, the approach direction can be intuitively designated by setting the approach direction to coincide with the line-of-sight direction.

本発明によれば、観察方向によらず、常に注目する部分を中心として関心領域が設定され、関心領域とそれ以外の領域との関係を、表示パラメータをインタラティブに変更することにより、立体的に把握できるようになる。また、関心領域についてのみレンダリングすることで、高速な処理が可能となったり、高精細な画像を得ることができるようになる。
更に、表示対象について穴をあけるような表示や、アプローチ方向を表示することにより、手術の計画などを行うことができるようになる。
According to the present invention, a region of interest is always set centering on a portion of interest regardless of the observation direction, and the relationship between the region of interest and the other region is changed to be three-dimensional by changing display parameters interactively. You will be able to grasp. Further, by rendering only the region of interest, high-speed processing can be performed and a high-definition image can be obtained.
Furthermore, it is possible to plan an operation by displaying a display of a hole to be displayed or an approach direction.

以下、本発明の実施例を、図1〜図5を用いて説明する。
図1は、本発明の第1の実施例に係る3次元画像処理方法を示すフローチャート、図2は、本実施例のボリュームレンダリング法を説明する図である。
図2において、1は3次元データ、2は投影面、3は投影面2上でいま投影される値を求めようとするピクセル、4は該ピクセル3から投影面に垂直な線7上に存在する、再サンプリングされたボクセル集合、5は3次元データの座標系Aで、座標値は(x,y,z)で表わされ、また、6は投影を行う座標系Vで、座標値は(X,Y,Z)で表わされる。
図3は、本実施例に係る3次元画像処理方法において、3次元データ1のボクセルを再サンプリングするときの例であり、右側の図は左側の図の一部を拡大したものである。
図3中、11は3次元データ1のボクセルの中心点、12は再サンプリングするボクセルの中心位置、13は再サンプリングするボクセル12を囲む8つのボクセル中心からなるセルである。
Embodiments of the present invention will be described below with reference to FIGS.
FIG. 1 is a flowchart showing a three-dimensional image processing method according to the first embodiment of the present invention, and FIG. 2 is a diagram for explaining a volume rendering method of the present embodiment.
In FIG. 2, 1 is three-dimensional data, 2 is a projection plane, 3 is a pixel whose value is to be projected on the projection plane 2, and 4 is on a line 7 perpendicular to the projection plane from the pixel 3. A resampled voxel set, 5 is a coordinate system A of three-dimensional data, coordinate values are represented by (x, y, z), and 6 is a coordinate system V that performs projection, and the coordinate values are It is represented by (X, Y, Z).
FIG. 3 shows an example of re-sampling voxels of the three-dimensional data 1 in the three-dimensional image processing method according to the present embodiment, and the diagram on the right side is an enlarged part of the diagram on the left side.
In FIG. 3, 11 is the center point of the voxel of the three-dimensional data 1, 12 is the center position of the voxel to be resampled, and 13 is a cell composed of eight voxel centers surrounding the voxel 12 to be resampled.

図4は、本実施例におけるボクセル値と不透明度との対応を示した図で、21は不透明度を0とするしきい値、22は比例定数である。
図5は、本実施例により表示された頭部3次元画像の例である。図5中、31は表示対象である頭部表面、32は注目点、33は注目点32を中心とするROI、34は表示パラメータにより表示対象となった脳表面である。
以下、図1〜図5に従って、本実施例に係る3次元画像処理方法の動作を説明する。
まず、ボリュームレンダリングにより、3次元データ全体の3次元画像を表示する(ステップ101)。このボリュームレンダリング法について、図2を用いて説明する。投影面2は、図のように3次元データ1に対して配置され、視線方向は投影面に垂直であるとする。
FIG. 4 is a diagram showing the correspondence between voxel values and opacity in the present embodiment, in which 21 is a threshold value for setting opacity to 0, and 22 is a proportional constant.
FIG. 5 is an example of a head three-dimensional image displayed according to this embodiment. In FIG. 5, 31 is the head surface that is the display target, 32 is the attention point, 33 is the ROI centered on the attention point 32, and 34 is the brain surface that is the display target according to the display parameters.
The operation of the three-dimensional image processing method according to the present embodiment will be described below with reference to FIGS.
First, a three-dimensional image of the entire three-dimensional data is displayed by volume rendering (step 101). This volume rendering method will be described with reference to FIG. The projection plane 2 is arranged with respect to the three-dimensional data 1 as shown in the figure, and the line-of-sight direction is perpendicular to the projection plane.

投影する座標系V系に再サンプリングされたボクセル4の各ボクセルは、それぞれ、不透明度αと影付けされたカラーCという値を持っている。再サンプリングについては、後で説明する。不透明度αは、そのボクセルが完全に透明で光が透過するならば「0」、完全に不透明で光が透過しないならば「1」の値をとるものとする。
また、カラーというのはボクセルの発する色のことであり、ボクセル自体が持つ色に対して、ボクセル位置での仮想表面における光の反射を、ボクセルデータ値(以下、「ボクセル値」と呼ぶ)の傾斜ベクトルを仮想表面の向きであると考えることにより考慮し、光源の向きや投影面の方向などにより影付けを行ったものである。このとき、ボクセル集合4の各ボクセルに対して、投影面から近い順に番号を付け、各ボクセルの不透明度、カラーをそれぞれ、α(1),C(1)、・・・、α(n),C(n)とする。
Each voxel of the voxel 4 resampled into the coordinate system V system to be projected has a value of opacity α and a shaded color C. Re-sampling will be described later. The opacity α takes a value of “0” if the voxel is completely transparent and transmits light, and takes “1” if it is completely opaque and does not transmit light.
The color is a color emitted by the voxel, and the reflection of light on the virtual surface at the voxel position with respect to the color of the voxel itself is a voxel data value (hereinafter referred to as “voxel value”). Considering the inclination vector as the direction of the virtual surface, it is shaded by the direction of the light source, the direction of the projection surface, and the like. At this time, numbers are assigned to the voxels of the voxel set 4 in the order from the projection plane, and the opacity and color of each voxel are α (1), C (1),..., Α (n), respectively. , C (n).

ここで、簡略化のため光は平行光とし、光線は投影面と垂直方向に、投影面側から3次元データへ入射するものとする。
以上のような場合に、光を投影面から最も近いボクセルから遠いボクセルへと透過させ、各ボクセルでの反射量を加算する方法で、式(1)によってピクセル3に投影される値Pを計算する。本実施例では、説明の簡略化と扱うデータの性質を考慮して拡散反射のみを扱い、光は平行光で投影面に垂直であるとする。
Here, for simplification, it is assumed that the light is parallel light, and the light ray is incident on the three-dimensional data from the projection surface side in a direction perpendicular to the projection surface.
In such a case, the value P projected onto the pixel 3 is calculated by Expression (1) by transmitting light from the voxel closest to the projection surface to the voxel far from the projection plane and adding the reflection amount at each voxel. To do. In the present embodiment, it is assumed that only diffuse reflection is handled in consideration of the simplification of the description and the nature of data to be handled, and the light is parallel light and is perpendicular to the projection plane.

Figure 0003891442
なお、式(1)中のA(i)はi番目のボクセルに入射する光の透過率を表わしている。
Figure 0003891442
In addition, A (i) in Formula (1) represents the transmittance | permeability of the light which injects into an i-th voxel.

ここで、再サンプリングについて、図3を用いて説明する。
図3の左側の図のように、あるボクセルについて再サンプリングしようとするとき、右側の図のような座標系Aの8つのボクセル中心に囲まれたセルの中で、それらのボクセル中心と再サンプリングするボクセル中心12との距離の比が、図のように、s:(1−s),t:(1−t),u:(1−u)となっているとする。このとき、再サンプリングしたボクセルの不透明度やカラーなどの値は、次の式(2)のtrilinear法によって求める。ここで、不透明度やカラーなどの値を代表してQを用いて表わす。
Here, re-sampling will be described with reference to FIG.
As shown in the left diagram of FIG. 3, when trying to resample a certain voxel, among the cells surrounded by the eight voxel centers of the coordinate system A as shown in the right diagram, those voxel centers and resampling are performed. It is assumed that the ratio of the distance to the voxel center 12 to be performed is s: (1-s), t: (1-t), u: (1-u) as shown in the figure. At this time, the resampled voxel values such as opacity and color are obtained by the trilinear method of the following equation (2). Here, Q is used to represent values such as opacity and color.

Figure 0003891442
Figure 0003891442

再サンプリングを行う方法は、再サンプリングするボクセルに最も近い位置にある元のボクセルの値を用いる最近傍法など、別の方法を用いてもよい。
以上のような方法で計算を行うとき、ボリュームレンダリング計算におけるパラメータを定義する。
まず、不透明度αはボクセル値から定義されるが、この対応付けを変化させることで様々な表示が可能となる。そこで、本実施例ではボクセル値に比例して不透明度を決めることにする。図4のように、ボクセル値fと不透明度αを対応付け、不透明度を0とするボクセル値のしきい値fthと、比例定数kをパラメータとすることにする。これは、不透明度を簡単に設定できるようにするためと、X線CTなどで計測された人体のような3次元データを表示する場合には、ボクセル値の高いものほど不透明度が高いように設定すると、自然な表示が行えるためである。
As a method of performing resampling, another method such as a nearest neighbor method using the value of the original voxel located closest to the voxel to be resampled may be used.
When performing the calculation by the method as described above, parameters for volume rendering calculation are defined.
First, the opacity α is defined by the voxel value, but various displays are possible by changing this association. Therefore, in this embodiment, the opacity is determined in proportion to the voxel value. As shown in FIG. 4, the voxel value f and the opacity α are associated with each other, and the threshold value fth of the voxel value for which the opacity is 0 and the proportionality constant k are used as parameters. This is to make it possible to easily set the opacity, and when displaying three-dimensional data such as a human body measured by X-ray CT, the higher the voxel value, the higher the opacity. This is because when set, natural display can be performed.

上記実施例によれば、レンダリングパラメータであるしきい値fthと比例定数kを変化させることで、表示対象を変更することができる。
また、3次元データと投影面の位置関係を変えることで、様々な方向からの3次元画像表示が可能となる。そこで、3次元データ空間の座標系Aと投影空間の座標系Vとの座標変換を行う行列、特に本実施例では回転のみを考え、回転行列をパラメータとする。
本実施例では簡略化のため、以上の要素のみをパラメータとし、ボクセルの色はモノクロとし、光源の方向などについては固定とするが、もちろん、これらをパラメータに加え、可変にしても良いことは言うまでもない。
さて、上述の方法で、ステップ101でボリュームレンダリングを行うとき、各ピクセルの投影値を求めるときのライン上にあるボクセルで、しきい値fthを超える、最も投影面に近いボクセルの投影面からの距離をZバッファとして記憶する(ステップ102)。
According to the above embodiment, the display target can be changed by changing the threshold value fth and the proportionality constant k which are rendering parameters.
In addition, by changing the positional relationship between the three-dimensional data and the projection plane, it is possible to display a three-dimensional image from various directions. Therefore, a matrix for performing coordinate transformation between the coordinate system A in the three-dimensional data space and the coordinate system V in the projection space, particularly in this embodiment, only rotation is considered, and the rotation matrix is used as a parameter.
In this embodiment, for simplification, only the above elements are used as parameters, the voxel color is monochrome, and the direction of the light source is fixed. Of course, these may be added to the parameters and made variable. Needless to say.
Now, when performing volume rendering in step 101 by the above-described method, the voxel on the line when obtaining the projection value of each pixel, which exceeds the threshold fth, from the projection plane of the voxel closest to the projection plane. The distance is stored as a Z buffer (step 102).

次に、上のように計算され、表示された3次元画像上で着目する点をマウスで指定し、表示する(ステップ103)。
指定された着目点のZバッファを参照し、回転後の座標系Vにおける着目点の座標値を得る(ステップ104)。
ステップ105では、3次元画像上のROIとして、着目点を中心とするあらかじめ定めた初期値の半径を持つ円を設定し、3次元画像上にROIの範囲を表示する。
座標系Vにおける着目点の座標を変換し、オリジナルの座標Aにおける着目点の座標を求めて記憶する(ステップ106)。
以上で着目点の設定とROIの設定が終了し、表示パラメータの変更・入力待ち状態となり、この時点で表示されている3次元画像は、図5(a)に示すようになる。
Next, the point of interest on the three-dimensional image calculated and displayed as described above is designated with the mouse and displayed (step 103).
With reference to the Z buffer of the designated point of interest, the coordinate value of the point of interest in the coordinate system V after rotation is obtained (step 104).
In step 105, a circle having a predetermined initial radius centered on the point of interest is set as the ROI on the three-dimensional image, and the ROI range is displayed on the three-dimensional image.
The coordinates of the point of interest in the coordinate system V are converted, and the coordinates of the point of interest in the original coordinate A are obtained and stored (step 106).
Thus, the setting of the point of interest and the setting of the ROI are completed, and the display parameter change / input waiting state is entered. The three-dimensional image displayed at this point is as shown in FIG.

続いて、回転を行い、表示方向を変化させる場合について説明する。ここで、回転を指示するときにレンダリング処理部に与えられるパラメータは、座標系Aと座標系Vの座標値を変換する回転行列であるとする。
パラメータが入力され(ステップ107)、ステップ108で回転パラメータかどうかチェックする。ここでは、回転パラメータが入力されたため、ステップ109へ進む。
ステップ109では、入力された回転行列を用い、記憶した座標系Aにおける着目点の座標から座標系Vにおける座標値を求める。
求めた座標系Vにおける着目点の投影面上の座標を中心とする。円形のROIを設定し、表示する(ステップ110)。
この後は、ステップ111で、投影面全体についてボリュームレンダリングを行う。このとき、計算中のピクセル位置が、設定されたROIの領域内かどうか判定し(ステップ112)、ROI内についてはROI用の表示パラメータで、それ以外の領域は通常の表示パラメータでボリュームレンダリングをして、表示を行う(ステップ113,114)。このとき表示される画像は、図5(b)のようになり、注目点32を中心としたROI33が注目点とともに回転する。
Next, a case where the display direction is changed by performing rotation will be described. Here, it is assumed that the parameter given to the rendering processing unit when the rotation is instructed is a rotation matrix for converting the coordinate values of the coordinate system A and the coordinate system V.
A parameter is input (step 107), and it is checked in step 108 if it is a rotation parameter. Here, since the rotation parameter has been input, the routine proceeds to step 109.
In step 109, a coordinate value in the coordinate system V is obtained from the coordinates of the point of interest in the stored coordinate system A using the input rotation matrix.
The coordinates on the projection plane of the target point in the obtained coordinate system V are set as the center. A circular ROI is set and displayed (step 110).
Thereafter, in step 111, volume rendering is performed on the entire projection surface. At this time, it is determined whether or not the pixel position being calculated is within the set ROI area (step 112), and the volume rendering is performed with the ROI display parameters in the ROI and the other areas with the normal display parameters. Then, display is performed (steps 113 and 114). The image displayed at this time is as shown in FIG. 5B, and the ROI 33 centered on the attention point 32 rotates together with the attention point.

次に、回転以外の表示パラメータが変更された場合には、ステップ114でROI用の表示パラメータの変更か判定する。ROI用のパラメータの場合はROI内のピクセルについてのみ、ROI用のパラメータでボリュームレンダリングを行い、ROIの部分のみ表示し直す(ステップ116)。このとき表示される画像は図5(c)のようになり、ROIについてのみ別の部位を表示できる。
また、通常のパラメータが変更されたときは、ROI以外のピクセルについてのみ、通常のパラメータでボリュームレンダリングを行い、ROI以外の部分のみ表示し直す(ステップ117)。このとき表示される画像は図5(d)のように、ROI以外の部分について表示部位を変更できる。
表示が終れば、次の入力待ち状態となり、レンダリングパラメータが入力されればステップ107へ戻る。
上記実施例によれば、注目点を中心としてROIが設定でき、回転を行った場合にも注目点を特別の表示パラメータで表示することが可能となる。更に、ROIの深さ方向は視線方向と一致するため、関心領域が奥まで隠れることなしに表示できる。
Next, when display parameters other than rotation are changed, it is determined in step 114 whether the display parameters for ROI are changed. In the case of the parameters for ROI, volume rendering is performed with the parameters for ROI only for the pixels in the ROI, and only the ROI portion is displayed again (step 116). The image displayed at this time is as shown in FIG. 5C, and a different part can be displayed only for the ROI.
When the normal parameter is changed, volume rendering is performed with the normal parameter only for pixels other than the ROI, and only the portion other than the ROI is displayed again (step 117). In the image displayed at this time, the display part can be changed for a portion other than the ROI as shown in FIG.
When the display is completed, the process waits for the next input. If the rendering parameter is input, the process returns to step 107.
According to the embodiment, the ROI can be set around the attention point, and the attention point can be displayed with the special display parameter even when the rotation is performed. Furthermore, since the ROI depth direction coincides with the line-of-sight direction, the region of interest can be displayed without being hidden.

本実施例の応用として、例えば、全体としては体の表面を表示しておいて、関心領域については内臓を表示することができるようになり、内部の状態と外部の位置関係を把握しやすい表示ができる。
また、上記実施例では、投影画像計算方法としてボリュームレンダリング法を用いたが、他の方法でも良い。例えば、しきい値を超えたボクセル位置に表面があると考えて、表面ボクセルの位置から、表面の傾きを求めて、表面における反射を計算して投影画像を生成する。ボクセル法と呼ばれる方法などでも良い。
更に、前記実施例では注目点を設定するのにマウスを用いていたが、キーボードや、ペン入力装置など、他の座標指示装置を用いても良い。
また、Zバッファの位置を決めるとき、最も投影面に近いしきい値を超えたボクセルの位置をとっていたが、その視線上にあるボクセルの反射光量が最も多いボクセルの位置をとっても良い。これは、仮想的な表面をどう定義するかということであり、このようなデータでは実際の表面が曖昧であるため、どちらでも問題ではない。
As an application of the present embodiment, for example, the body surface is displayed as a whole, and the internal organs can be displayed for the region of interest, so that the internal state and the external positional relationship can be easily grasped. Can do.
In the above embodiment, the volume rendering method is used as the projection image calculation method, but other methods may be used. For example, assuming that there is a surface at a voxel position exceeding a threshold value, the inclination of the surface is obtained from the position of the surface voxel, and reflection on the surface is calculated to generate a projection image. A method called a voxel method may be used.
Furthermore, in the above embodiment, the mouse is used to set the attention point, but other coordinate indicating devices such as a keyboard and a pen input device may be used.
Further, when determining the position of the Z buffer, the position of the voxel exceeding the threshold closest to the projection plane is taken, but the position of the voxel with the largest amount of reflected light of the voxel on the line of sight may be taken. This is how to define a virtual surface, and the actual surface is ambiguous in such data, so neither is a problem.

更に、一度注目点を設定した後にステップ103へ戻り、着目点を設定し直しても構わないし、着目点の設定を取り消して、通常の3次元表示を行っても構わない。
また、上記実施例において、表示パラメータとして、ROIのサンプリング数を増やすことによって高精細なレンダリングを行うことができる。
図6に、この実施例を示す。簡略化のため、3次元データ1は投影面2と平行であるとする。41は3次元データ中に存在する線上の物体、42は投影面上におけるROI、43はROIに対応した3次元データ上の領域、44はROI以外の領域と同じサンプリング間隔で表示したときのROIの画像、45はROI以外の領域の半分のサンプリング間隔で表示したときのROIの画像であり、46は物体41を投影した領域である。
図6のようにサンプリング間隔を細かくとった方が、より細かく正確な画像を得ることができる。サンプリング数が増えるため、計算時間は増えるが、注目している限定されたROIのみについて計算するため、全体を細かく計算するより圧倒的に計算量は少なくて済む。
Further, after setting a point of interest once, the process may return to step 103 to reset the point of interest, or the setting of the point of interest may be canceled and normal three-dimensional display may be performed.
In the above embodiment, high-definition rendering can be performed by increasing the number of ROI samplings as a display parameter.
FIG. 6 shows this embodiment. For simplification, it is assumed that the three-dimensional data 1 is parallel to the projection plane 2. 41 is an object on a line existing in the three-dimensional data, 42 is an ROI on the projection plane, 43 is an area on the three-dimensional data corresponding to the ROI, and 44 is an ROI when displayed at the same sampling interval as the area other than the ROI. , 45 is an ROI image displayed at half the sampling interval of the area other than the ROI, and 46 is an area where the object 41 is projected.
A finer and more accurate image can be obtained when the sampling interval is finer as shown in FIG. Since the number of samplings increases, the calculation time increases. However, since only the limited ROI of interest is calculated, the calculation amount is far less than the detailed calculation of the whole.

上記実施例によれば、例えば、高エネルギーのX線CTを用いて、荷物の検査を3次元画像により行っていた場合に、全体の表示は処理時間を考慮し、ある程度サンプリング間隔を広くとって計算しておき、何か異常な物体、例えば、拳銃らしいものが見つかった場合に、その領域をマークし、その周囲のROIのみ細かくサンプリングを行って正確な観察を行い、更に回転して表示することで3次元形状を把握する、ということが可能となる。
ここで、図7に示すようなデータについて、ROIの深さをレンダリングパラメータとして指定する実施例について説明する。図7では、説明を簡略化するため、3次元データ中のある1断面のレンダリングについて考える。図中51は、今着目する3次元データの1断面、52は3次元データ中に存在する物体で、内部に丸い形状の53、四角い形状の54、三角の形状の55の構造を持ち、それぞれの領域のボクセル値は丸囲みの数字で示された10,50,100,30である。
According to the above embodiment, for example, when a package is inspected by a three-dimensional image using high energy X-ray CT, the entire display takes a certain sampling interval in consideration of the processing time. If an abnormal object such as a pistol is found, the area is marked, and only the surrounding ROI is sampled finely for accurate observation, and rotated and displayed. This makes it possible to grasp the three-dimensional shape.
Here, an embodiment in which the depth of ROI is designated as a rendering parameter for data as shown in FIG. 7 will be described. In FIG. 7, to simplify the description, consider the rendering of a certain section in three-dimensional data. In the figure, 51 is a cross section of the three-dimensional data of interest, 52 is an object existing in the three-dimensional data, and has a round shape 53, a square shape 54, and a triangular shape 55, respectively. The voxel values in the region are 10, 50, 100, and 30 indicated by encircled numbers.

56は断面51が投影面に投影される領域、57は53の領域のうちROIにあたる領域を示す。また、58,59,60はROI領域のレンダリング計算の開始点の位置を示している。
まず、通常のレンダリング計算開始位置58から計算を行うと、しきい値が10より小さければ四角い物体の表面が表示され、10〜50では丸い物体が、50〜100では棒状の物体が表示される。このように、しきい値を変更することでROI内の物体の内部を表示できる。
次に、レンダリング計算開始位置59から計算を行うと、しきい値が30より小さければ三角の物体の表面と丸い物体の内部が表示され、30〜50では丸い物体の内部が、50〜100では棒状の物体が表示される。
更に、レンダリング計算開始位置60から計算を行うと、しきい値が50より小さければ丸い物体の内部が表示され、50〜100では棒状の物体が表示される。
Reference numeral 56 denotes an area where the cross section 51 is projected onto the projection plane, and 57 denotes an area corresponding to the ROI among 53 areas. Reference numerals 58, 59, and 60 indicate the positions of the start points of the rendering calculation in the ROI area.
First, when the calculation is performed from the normal rendering calculation start position 58, if the threshold value is smaller than 10, the surface of the square object is displayed, the round object is displayed in 10 to 50, and the rod-shaped object is displayed in 50 to 100. . Thus, the inside of the object in the ROI can be displayed by changing the threshold value.
Next, when the calculation is performed from the rendering calculation start position 59, if the threshold value is smaller than 30, the surface of the triangular object and the inside of the round object are displayed. In the case of 30 to 50, the inside of the round object is displayed. A rod-shaped object is displayed.
Further, when the calculation is performed from the rendering calculation start position 60, if the threshold is smaller than 50, the inside of the round object is displayed, and 50 to 100, a bar-shaped object is displayed.

上述の実施例のように、レンダリング開始位置を奥にすることで、物体に穴をあけて内部の表示を行うことができる。更に、通常のレンダリング位置からでは表示できなかった、高いボクセル値の物体の中にある低いボクセル値の三角の物体を表示することもできるようになる。
以上の実施例では、レンダリング開始位置を投影面からの距離で設定したが、他の設定法でもよく、例えば、ボクセル値10の物体の表面からの奥行きで設定したりすることもできる。
次に、ROIの形状と大きさを変更する実施例について、図8を用いて説明する。図中、35は変更後のROIである。
まず、ROIの初期状態が、例えば、注目点32を中心とする正方形で1辺が20の長さだとする。このとき、マウスを用いて正方形ROIの頂点をドラッグすることで、ROIの大きさを変更する。ROIは注目点を中心として変化し、変更後のROI35は1辺が30となったとする。ここで、例えば、ポップアップメニューからROIの形状を選択し、円形に変更したとすると、ROIは直径30の円になる。マウスでこの円周をドラッグすることで、ROIの大きさを変更する。
As in the above-described embodiment, by setting the rendering start position in the back, it is possible to make a hole in the object and display the inside. Furthermore, a triangular object having a low voxel value in an object having a high voxel value, which could not be displayed from the normal rendering position, can be displayed.
In the above embodiment, the rendering start position is set by the distance from the projection plane. However, other setting methods may be used. For example, the rendering start position may be set by the depth from the surface of the object having a voxel value of 10.
Next, an embodiment for changing the shape and size of the ROI will be described with reference to FIG. In the figure, 35 is the ROI after the change.
First, it is assumed that the initial state of the ROI is, for example, a square centered on the point of interest 32 and one side is 20 in length. At this time, the size of the ROI is changed by dragging the vertex of the square ROI with the mouse. It is assumed that the ROI changes around the attention point, and the changed ROI 35 has 30 on one side. Here, for example, if the ROI shape is selected from the pop-up menu and changed to a circle, the ROI becomes a circle with a diameter of 30. The size of the ROI is changed by dragging this circumference with the mouse.

以上の実施例では、大きさを直観的に変更するために、マウスを用いていたが、1辺の長さや、直径、半径などの数値をキーボードから入力するようにしても良い。また、ROIの形状は長方形や三角形であってもよく、マウスでなぞった自由形状としてもよい(ただし、注目点をROI内部に含む)。更にROI形状の指定は、メニューで選択しないで、例えば、マウスの中ボタンを押すたびに、形状が切り替わるようにしてもよい。
次に、注目点の位置を表示する実施例を図9に示す。図中、61は表示対象物である。
まず、(a)の角度で表示したときに注目点32を設定する。これを回転して別の角度から表示したものが、(b),(c),(d)である。
(b)は、回転後、座標系Vにおいて、注目点の手前側、すなわち注目点と投影面との間に表示対象物61が存在する場合で、このような場合には、注目点の位置を表示しない。
このようにすることで、注目点を3次元データに書き込んだような効果を得ることができ、自然な前後関係で表示が行える。
In the above embodiment, the mouse is used to intuitively change the size, but numerical values such as the length of one side, the diameter, and the radius may be input from the keyboard. The shape of the ROI may be a rectangle or a triangle, and may be a free shape traced with a mouse (however, the point of interest is included inside the ROI). Furthermore, the designation of the ROI shape may not be selected from the menu, and the shape may be switched each time the middle button of the mouse is pressed, for example.
Next, an embodiment for displaying the position of the attention point is shown in FIG. In the figure, reference numeral 61 denotes a display object.
First, the point of interest 32 is set when displayed at the angle (a). Rotating this and displaying it from another angle are (b), (c) and (d).
(B) is a case where the display object 61 exists in the coordinate system V after the rotation, in front of the attention point, that is, between the attention point and the projection plane. In such a case, the position of the attention point is shown. Is not displayed.
In this way, it is possible to obtain the effect of writing the attention point in the three-dimensional data, and display can be performed in a natural context.

しかし、(b)の方法では、物体の影にある注目点の位置がわからなくなってしまうため、(c)ではどのような場合にも注目点の位置を表示する。ただし、この方法では、注目点の奥行き感覚はわからなくなる場合がある。
また、(d)では、注目点と投影面との間に物体が存在するときには、注目点と物体の色を平均した色で表示を行い、半透明に表示する。これは、(b),(c)両方の長所と欠点を持つ。
そこで、上の(b),(c),(d)の方法を場合によって使いわけるようにする。
注目点位置の表示は、図1におけるステップ111または116の終了後に、ステップ109で求めたV系での注目点座標と3次元画像のZバッファを用いて上記の方法により行う。
以上の実施例では、注目点は物体の表面にしか設定ができなかったので、物体の内部にも設定できる実施例について、図10,図11を用いて説明する。
However, in the method (b), the position of the point of interest in the shadow of the object cannot be known. Therefore, in (c), the position of the point of interest is displayed in any case. However, with this method, the sense of depth at the point of interest may not be known.
In (d), when an object exists between the attention point and the projection plane, the object is displayed in an average color of the attention point and the object, and displayed in a translucent manner. This has the advantages and disadvantages of both (b) and (c).
Therefore, the above methods (b), (c), and (d) are used in some cases.
The point of interest position is displayed by the method described above using the point of interest coordinates in the V system obtained in step 109 and the Z buffer of the three-dimensional image after step 111 or 116 in FIG.
In the above embodiment, since the attention point can be set only on the surface of the object, an embodiment that can also be set inside the object will be described with reference to FIGS.

図10は、本実施例のフローチャート、また、図11は、図10に示したフローチャートに対応した操作と画像の例を示している。65は表示対象となっている物体、66は物体表面の仮の注目点、67は物体65を投影した3次元画像、68は3次元画像上における注目点の位置、69は仮の注目点の周りに設定されたROIの断面画像、70は断面上で指定した真の注目点である。
このとき、3次元データ1中の表示対象は、図11(a)に示す65のような球状の中身の詰まった物体であるとする。以下、フローチャートを用いて注目点の設定方法を説明する。
まず、ステップ201では、物体65が投影された3次元画像67上で仮の注目点68を指定する。すると、3次元空間上では物体の表面位置66に注目点が設定される(図11(a)参照)。
次のステップ202では、ステップ201で設定した仮の注目点66を通り、投影面2に平行な断面の画像69を計算し、ステップ203で表示する。この段階では、断面は物体の表面に接するような位置なので、図11(b)のように点として表示されている。
FIG. 10 shows a flowchart of the present embodiment, and FIG. 11 shows an example of operations and images corresponding to the flowchart shown in FIG. 65 is an object to be displayed, 66 is a temporary attention point on the object surface, 67 is a three-dimensional image on which the object 65 is projected, 68 is a position of the attention point on the three-dimensional image, and 69 is a temporary attention point. A cross-sectional image 70 of the ROI set around is a true attention point designated on the cross-section.
At this time, it is assumed that the display target in the three-dimensional data 1 is an object having a spherical content 65 as shown in FIG. The attention point setting method will be described below using a flowchart.
First, in step 201, a temporary attention point 68 is designated on the three-dimensional image 67 on which the object 65 is projected. Then, the attention point is set at the surface position 66 of the object in the three-dimensional space (see FIG. 11A).
In the next step 202, a cross-sectional image 69 passing through the temporary attention point 66 set in step 201 and parallel to the projection plane 2 is calculated and displayed in step 203. At this stage, since the cross section is in a position where it touches the surface of the object, it is displayed as a point as shown in FIG.

続いて、真の注目点として指定する断面位置を探すためにステップ205で断面の位置を平行移動させ、図11(c)のような表示を行う。
平行移動を行いながら注目点を設定する位置が決まったら、ステップ204で注目点を設定するステップ206へ進み、図11(d)のように真の注目点の位置を指定する。断面画像上で指定された注目点の3次元位置を求めて記憶し、図1に示した実施例のステップ107以降の処理に用いることができる。
以上の実施例により、物体の内部に注目点を指定することができる。これにより、例えば腫瘍の中心を常に関心領域の中心とした表示が可能となり、腫瘍が関心領域をはみ出さないように回転することができる。
さて、次に、注目点へのアプローチ方向を設定し、表示するための実施例について図12のフローチャートと図13を用いて説明する。本実施例は、例えば、腫瘍のある患者を撮影した3次元データに対して、注目点として腫瘍を指定し、手術する際のアプローチを事前に検討するような場合に利用できる。
Subsequently, in order to search for a cross-sectional position designated as a true attention point, the cross-sectional position is translated in step 205 to display as shown in FIG.
When the position for setting the attention point is determined while performing the parallel movement, the process proceeds to step 206 for setting the attention point in step 204, and the position of the true attention point is designated as shown in FIG. The three-dimensional position of the attention point designated on the cross-sectional image can be obtained and stored, and used for the processing after step 107 in the embodiment shown in FIG.
With the above embodiment, it is possible to specify a point of interest inside the object. Thereby, for example, the center of the tumor can always be displayed as the center of the region of interest, and the tumor can be rotated so as not to protrude from the region of interest.
Now, an embodiment for setting and displaying the approach direction to the attention point will be described with reference to the flowchart of FIG. 12 and FIG. The present embodiment can be used, for example, when three-dimensional data obtained by imaging a patient with a tumor is designated as a point of interest and the approach for performing an operation is examined in advance.

本実施例は、図1に示した注目点を中心としたROIを設定する方法などの上記実施例と併用することもできるが、ここでは説明簡略化のため、単独でアプローチの設定と表示を行う例を示す。アプローチは指定した注目点を通り、投影面に垂直な方向に設定する。図13中、71はアプローチ方向、72はアプローチ方向単位ベクトル、73は物体65の投影画像、74は注目点を投影したもの、75はアプローチを投影したものである。
まず、注目点を設定するところに関しては、図1に示した実施例と同じである(ステップ101,102,103,104,106)。
注目点を設定した後、回転を行って、表示対象を様々な角度から観察を行い、注目点へアプローチするために最適な方向を探して、アプローチ方向を決定する(ステップ301)。
回転後座標系V系における、Z軸向きの(投影面に垂直方向の)単位ベクトルのオリジナル座標系A系における値を求めて、アプローチ方向単位ベクトルとして記憶する(ステップ302)。
This embodiment can be used in combination with the above-described embodiment such as the method of setting the ROI centered on the attention point shown in FIG. 1, but here, for simplicity of explanation, the setting and display of the approach are performed alone. An example is shown. The approach is set in a direction perpendicular to the projection plane through the specified point of interest. In FIG. 13, 71 is an approach direction, 72 is an approach direction unit vector, 73 is a projection image of an object 65, 74 is a projection of a point of interest, and 75 is a projection of an approach.
First, the point of interest is set as in the embodiment shown in FIG. 1 (steps 101, 102, 103, 104, 106).
After setting the attention point, rotation is performed, the display object is observed from various angles, an optimum direction for approaching the attention point is searched, and an approach direction is determined (step 301).
In the post-rotation coordinate system V system, the value in the original coordinate system A system of the unit vector in the Z axis direction (perpendicular to the projection plane) is obtained and stored as an approach direction unit vector (step 302).

以上のステップにより、アプローチ方向が設定できる。次に、設定されたアプローチを表示する。
アプローチが設定されたときには、アプローチ方向は投影面と垂直であるため投影面上では注目点と重なる位置に点として表示される(図13(a))。回転をして、アプローチ方向と視線方向が一致しない場合には、アプローチは直線として表示されるが、このとき、アプローチを示す直線と投影面との間に物体が存在すれば、アプローチは表示しないようにする(図13(b))。また、アプローチは注目点から、アプローチ方向単位ベクトルの向きに、ある良さだけ表示することにする。この長さは初期設定されているものとする。
アプローチが設定された、または、回転などのパラメータが入力された場合には(ステップ311)、ステップ312で、回転後のV系における注目点の座標を求める。
The approach direction can be set by the above steps. Next, the set approach is displayed.
When the approach is set, the approach direction is perpendicular to the projection plane, so that it is displayed as a point on the projection plane at a position overlapping the point of interest (FIG. 13A). If the approach direction and the line-of-sight direction do not coincide after rotation, the approach is displayed as a straight line, but at this time, if there is an object between the straight line indicating the approach and the projection plane, the approach is not displayed. (FIG. 13B). In addition, the approach is displayed in a certain direction from the attention point in the direction of the approach direction unit vector. This length is assumed to be initialized.
When an approach is set or parameters such as rotation are input (step 311), in step 312, the coordinates of the point of interest in the rotated V system are obtained.

次に、V系におけるアプローチ方向単位ベクトルを求める(ステップ313)。
また、すでに指定されているアプローチの長さとアプローチ方向単位ベクトルと注目点の座標から、アプローチを表示する際の注目点ではない方の端点を求める(ステップ314)。そこで、注目点と端点を結ぶ直線を投影面に投影し、そのときのV系でのZバッファを記憶する(ステップ315)。ボリュームレンダリングを行い、3次元画像を求め(ステップ316)、そのとき求めた画像のZバッファ(ステップ317)とアプローチのZバッファとを比較し、画像のZバッファの方が投影面に近い場合には3次元画像を表示し、そうでなければアプローチを表示する(ステップ318)。
その後、注目点は、例えば、図9の実施例のように表示する。
本実施例により、前後関係を考慮した自然な合成表示を行うことができるが、アプローチと3次元画像を合成表示するならば、他の方法でも良い。
また、アプローチの長さや太さは変更できるようにしてもよい。
Next, an approach direction unit vector in the V system is obtained (step 313).
Further, the end point which is not the attention point at the time of displaying the approach is obtained from the approach length, approach direction unit vector and the attention point coordinates already specified (step 314). Therefore, a straight line connecting the target point and the end point is projected onto the projection plane, and the Z buffer in the V system at that time is stored (step 315). Volume rendering is performed to obtain a three-dimensional image (step 316), and the obtained Z buffer (step 317) is compared with the approach Z buffer, and the image Z buffer is closer to the projection plane. Displays a 3D image, otherwise it displays an approach (step 318).
Thereafter, the attention point is displayed as in the embodiment of FIG. 9, for example.
According to the present embodiment, it is possible to perform natural combined display in consideration of the context, but other methods may be used as long as the approach and the three-dimensional image are combined and displayed.
Further, the length and thickness of the approach may be changed.

上記実施例により、アプローチ方向を決めた後、回転を行い、様々な角度から観察してアプローチの検討を行うことができる。ここで、設定したアプローチ方向と視線方向が一致した表示をすることにより、術中にアプローチする方向から観察するような状態をシミュレーションできる。そこで、図14にアプローチビューを表示するための実施例を示す。
図12におけるフローチャートに次の処理を加える。
ステップ302によりアプローチ方向が決定された後、現在の表示角度での座標系Aから座標系Vへの回転行列を記憶する(ステップ401)。これにより、アプローチビュー方向が記憶される。
ここで、アプローチビュー表示を行う指示が入力されると(ステップ411)、ステップ401で記憶した回転行列をパラメータに入力する(ステップ412)。
すると、図12のステップ311へ進み、上記の図12の実施例により、アプローチ方向と視線方向が一致したアプローチビューが表示される。
According to the above embodiment, the approach direction can be determined and then rotated, and the approach can be examined by observing from various angles. Here, by performing a display in which the set approach direction and the line-of-sight direction coincide with each other, it is possible to simulate a state of observing from the direction approached during the operation. FIG. 14 shows an embodiment for displaying the approach view.
The following processing is added to the flowchart in FIG.
After the approach direction is determined in step 302, the rotation matrix from the coordinate system A to the coordinate system V at the current display angle is stored (step 401). Thereby, the approach view direction is stored.
Here, when an instruction to perform approach view display is input (step 411), the rotation matrix stored in step 401 is input as a parameter (step 412).
Then, the process proceeds to step 311 in FIG. 12, and an approach view in which the approach direction coincides with the line-of-sight direction is displayed according to the embodiment in FIG.

上述の実施例により、手術のアプローチを計画できるが、そのとき、体の表面のどこからアプローチすればよいかを求めることにより、更に手術計画を支援できる。
図15にアプローチ表面位置を求めるための実施例を示す。
まず、注目点やアプローチを設定する前に、ボリュームレンダリングを行い、体表面を表示するようなパラメータを設定し、記憶する(ステップ501)。本実施例ではしきい値を記憶する。
ここで、図12の実施例のステップ301,302によりアプローチ方向が設定されたあと、ステップ501で記憶したパラメータ(しきい値)を呼び出し、レンダリングパラメータに入力する(ステップ511)。
すると、図12に示した実施例(ステップ311〜318)により、体表面の3次元画像とアプローチと注目点とを合成表示する。このとき、アプローチは投影面と垂直のため点となり、アプローチと注目点は重なり、図13(a)のようになる。
With the above-described embodiments, a surgical approach can be planned, but then the surgical planning can be further supported by determining where on the body surface to approach.
FIG. 15 shows an embodiment for obtaining the approach surface position.
First, before setting the attention point and approach, volume rendering is performed, and parameters for displaying the body surface are set and stored (step 501). In this embodiment, a threshold value is stored.
Here, after the approach direction is set in steps 301 and 302 in the embodiment of FIG. 12, the parameter (threshold value) stored in step 501 is called and input to the rendering parameter (step 511).
Then, according to the embodiment (steps 311 to 318) shown in FIG. 12, the three-dimensional image of the body surface, the approach, and the attention point are combined and displayed. At this time, since the approach is perpendicular to the projection plane, the approach becomes a point, and the approach and the point of interest overlap, as shown in FIG.

すると、体表面とアプローチ方向の交わる位置はステップ317で得られたZバッファにより求められる(ステップ512)。得られたアプローチ表面位置はV系の座標なので、A系の座標に変換し、記憶する(ステップ513)。
以降、記憶されたアプローチ表面位置は、注目点を表示するときに、記憶していた座標系Aから、座標系Vに変換し、図9の実施例と同様に表示を行う。
以上の実施例により、術前にアプローチ方向と、アプローチ表面位置の検討を行うことができる。
なお、上記各実施例は本発明の一例を示したものであり、本発明はこれに限定されるべきものでないことは言うまでもないことである。
Then, the position where the body surface and the approach direction intersect is obtained by the Z buffer obtained in step 317 (step 512). Since the obtained approach surface position is a V-system coordinate, it is converted into an A-system coordinate and stored (step 513).
Thereafter, the stored approach surface position is converted from the stored coordinate system A to the coordinate system V when displaying the attention point, and displayed in the same manner as in the embodiment of FIG.
According to the above embodiment, the approach direction and approach surface position can be examined before surgery.
Each of the above-described embodiments shows an example of the present invention, and it goes without saying that the present invention should not be limited thereto.

本発明の一実施例に係る、注目点を中心とした関心領域の設定とレンダリング法を示すフローチャートである。6 is a flowchart illustrating a method of setting a region of interest centered on a point of interest and a rendering method according to an embodiment of the present invention. ボリュームレンダリングの実施例を説明する図である。It is a figure explaining the Example of volume rendering. 再サンプリングの実施例を説明する図である。It is a figure explaining the Example of resampling. 不透明度とボクセル値の対応例を示す図である。It is a figure which shows the example of a correspondence of opacity and a voxel value. 注目点と関心領域とが設定されたときのレンダリング結果の例を説明する図である。It is a figure explaining the example of a rendering result when an attention point and a region of interest are set. 高精細な表示を行うときの例を示す図である。It is a figure which shows the example when performing a high-definition display. レンダリング計算開始位置を変更する実施例を説明する図である。It is a figure explaining the Example which changes a rendering calculation start position. 関心領域の大きさと形状を変更する例を示す図である。It is a figure which shows the example which changes the magnitude | size and shape of a region of interest. 注目点を表示する例を示す図である。It is a figure which shows the example which displays an attention point. 注目点を物体内部に指定する例を示す図である。It is a figure which shows the example which designates an attention point inside an object. 注目点を物体内部に指定する例を示す図である。It is a figure which shows the example which designates an attention point inside an object. アプローチ方向の設定とレンダリングの例を示すフローチャートである。It is a flowchart which shows the example of the setting and rendering of an approach direction. アプローチ方向の表示例を示す図である。It is a figure which shows the example of a display of an approach direction. アプローチビューへの復帰の例を示すフローチャートである。It is a flowchart which shows the example of the return to an approach view. アプローチ上の表示位置を求める実施例を示したフローチャートである。It is the flowchart which showed the Example which calculates | requires the display position on an approach.

符号の説明Explanation of symbols

1 3次元データ
2 投影面
5 3次元データのオリジナル座標系
6 回転後の投影座標系
21 しきい値
22 不透明度を定義する比例定数
32 注目点
33 関心領域
66 仮の注目点
70 真の注目点
71 アプローチ方向
DESCRIPTION OF SYMBOLS 1 3D data 2 Projection surface 5 Original coordinate system of 3D data 6 Projection coordinate system after rotation 21 Threshold value 22 Proportional constant defining opacity 32 Point of interest 33 Region of interest 66 Temporary point of interest 70 True point of interest 71 Approach direction

Claims (3)

ボクセルデータの3次元配列からなる3次元データを用いて該3次元データ中の表示対象物体を2次元上に投影した画像を生成し、表示を行う3次元画像処理方法であって、
少なくとも、前記3次元画像上で、注目点を指定するステップと、指定した3次元画像上の注目点の奥行き座標値を求めるステップと、注目点の3次元座標値を記憶するステップと、現在の視線方向で注目点を通る線である、注目点へのアプローチを設定するステップとを持ち、投影画像生成計算のパラメータが変更・入力されるたびに、そのパラメータによる3次元画像と注目点と該注目点へのアプローチとを合成表示するステップを持つことを特徴とする3次元画像処理方法。
A three-dimensional image processing method for generating and displaying an image obtained by projecting a display target object in the three-dimensional data onto two dimensions using three-dimensional data composed of a three-dimensional array of voxel data,
At least a step of designating a point of interest on the three-dimensional image, a step of obtaining a depth coordinate value of the point of interest on the designated three-dimensional image, a step of storing the three-dimensional coordinate value of the point of interest, A step of setting an approach to the attention point, which is a line passing through the attention point in the line-of-sight direction, and each time a projection image generation calculation parameter is changed / input, the three-dimensional image by the parameter, the attention point, A three-dimensional image processing method comprising a step of combining and displaying an approach to a point of interest.
前記各ステップに加え、一つの操作で、アプローチ方向と視線方向を一致させるステップを持つことを特徴とする請求項1記載の3次元画像処理方法。   The three-dimensional image processing method according to claim 1, further comprising the step of matching the approach direction and the line-of-sight direction by one operation in addition to the steps. 前記各ステップに加え、物体の表面を表示するときの投影画像生成計算のパラメータを記憶するステップと、注目点へのアプローチを設定したときに、物体表面を表示するパラメータに変更するステップと、アプローチ上で物体表面にある点の位置を求めるステップとを持ち、さらに請求項1に記載された合成表示するステップに代えて、投影画像生成計算のパラメータが変更・入力されるたびに、そのパラメータによる3次元画像と注目点と該注目点へのアプローチと該アプローチ上の物体表面の点を合成表示するステップとを持つことを特徴とする請求項1記載の3次元画像処理方法。 In addition to the above steps, a step of storing projection image generation calculation parameters when displaying the surface of the object, a step of changing the parameters to display the object surface when setting an approach to the point of interest, and an approach A step of obtaining a position of a point on the object surface, and instead of the step of combining and displaying according to claim 1, each time a parameter for calculation of projection image generation is changed / input, 2. The three-dimensional image processing method according to claim 1, further comprising the step of combining and displaying a three-dimensional image, a point of interest, an approach to the point of interest, and a point on the object surface on the approach.
JP2005151859A 2005-05-25 2005-05-25 3D image processing method Expired - Fee Related JP3891442B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005151859A JP3891442B2 (en) 2005-05-25 2005-05-25 3D image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005151859A JP3891442B2 (en) 2005-05-25 2005-05-25 3D image processing method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP23110595A Division JP3704652B2 (en) 1995-09-08 1995-09-08 3D image processing method

Publications (2)

Publication Number Publication Date
JP2005322257A JP2005322257A (en) 2005-11-17
JP3891442B2 true JP3891442B2 (en) 2007-03-14

Family

ID=35469442

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005151859A Expired - Fee Related JP3891442B2 (en) 2005-05-25 2005-05-25 3D image processing method

Country Status (1)

Country Link
JP (1) JP3891442B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7760924B2 (en) * 2002-11-27 2010-07-20 Hologic, Inc. System and method for generating a 2D image from a tomosynthesis data set
US7801273B2 (en) * 2006-01-12 2010-09-21 Koninklijke Philips Electronics N.V. Indication of patient skin dose in radiology
JP5309379B2 (en) * 2008-03-03 2013-10-09 株式会社日立メディコ Medical imaging device
JP5224451B2 (en) 2008-06-03 2013-07-03 富士フイルム株式会社 Projection image creation apparatus, method and program
JP5524458B2 (en) * 2008-07-18 2014-06-18 富士フイルムRiファーマ株式会社 Organ surface image display apparatus and method
JP5606076B2 (en) * 2010-01-08 2014-10-15 株式会社東芝 Ultrasonic diagnostic apparatus, medical image processing apparatus, and medical image processing program
JP5226887B2 (en) * 2011-06-09 2013-07-03 株式会社東芝 Image processing system and method
JP6040193B2 (en) * 2014-03-28 2016-12-07 富士フイルム株式会社 Three-dimensional direction setting device, method and program
SK289010B6 (en) * 2016-10-17 2022-11-24 Ústav experimentálnej fyziky SAV, v. v. i. Method of interactive quantification of digitized 3D objects using eye tracking camera

Also Published As

Publication number Publication date
JP2005322257A (en) 2005-11-17

Similar Documents

Publication Publication Date Title
JP3891442B2 (en) 3D image processing method
JP3483929B2 (en) 3D image generation method
US11547499B2 (en) Dynamic and interactive navigation in a surgical environment
US8611988B2 (en) Projection image generation apparatus and method, and computer readable recording medium on which is recorded program for the same
US10758212B2 (en) Automatic depth scrolling and orientation adjustment for semi-automated path planning
JP4450786B2 (en) Image processing method and image processing program
US7424140B2 (en) Method, computer program product, and apparatus for performing rendering
KR20000036177A (en) System and method for performing a three-dimensional virtual examination
EP2420188A1 (en) Diagnosis support apparatus, diagnosis support method, and storage medium storing diagnosis support program
US20080297509A1 (en) Image processing method and image processing program
US20140193789A1 (en) Cutting simulation device and cutting simulation program
JP3704652B2 (en) 3D image processing method
CN110298915A (en) A kind of Fast Volume Rendering Algorithm three-dimensional ultrasonic image reconstruction algorithm introducing scattering model
Kruger et al. Sinus endoscopy-application of advanced GPU volume rendering for virtual endoscopy
JP5114121B2 (en) Medical image processing device
Bozorgi et al. GPU-based multi-volume ray casting within VTK for medical applications
CN113645896A (en) System for surgical planning, surgical navigation and imaging
JP2001149366A (en) Three-dimensional image processing device
CN111009033A (en) OpenGL-based focal region visualization method and system
JP2006061274A (en) Program and endoscope system
Kirmizibayrak Interactive volume visualization and editing methods for surgical applications
Bruckner et al. Illustrative focus+ context approaches in interactive volume visualization
JP2019170412A (en) Surgery simulation apparatus and surgery simulation program
i Bartrolı et al. Visualization techniques for virtual endoscopy
US20240112395A1 (en) Image processing device, image processing method, and program

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060926

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061004

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20061117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20061130

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101215

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101215

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111215

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111215

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121215

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131215

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees