JPH04363775A - Method for three-dimensional display at high speed - Google Patents

Method for three-dimensional display at high speed

Info

Publication number
JPH04363775A
JPH04363775A JP2277691A JP2277691A JPH04363775A JP H04363775 A JPH04363775 A JP H04363775A JP 2277691 A JP2277691 A JP 2277691A JP 2277691 A JP2277691 A JP 2277691A JP H04363775 A JPH04363775 A JP H04363775A
Authority
JP
Japan
Prior art keywords
dimensional
vector
rotation
density
determined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2277691A
Other languages
Japanese (ja)
Inventor
Hiroyuki Sekiguchi
博之 関口
Koichi Sano
佐野 耕一
Tetsuo Yokoyama
哲夫 横山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2277691A priority Critical patent/JPH04363775A/en
Publication of JPH04363775A publication Critical patent/JPH04363775A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To display a three-dimensional picture with quality level being proportionate to a linear interpolation within processing time being proportionate to be most adjacent and approximate. CONSTITUTION:A three-dimensional picture shaded in such a way that a density gradient vector is calculated by peripheral density changing quantity concerning the individual voxcel of three-dimensional picture data, a luminance value in the individual vox is obtained by the density gradient vector and the incident light vector to the voxcel and the luminance value is projection-processed in a two-dimensional plane is generated in a three-dimensional picture displaying method. In the method, density changing quantity in the respective reference axis directions in the coordinate system of pre-rotation is obtained at every voxcel, the density changing quantity in the respective reference axis directions in the coordinate system of post-rotation is estimated and the vector where the respective density changing quantity becomes a component is used as the density gradient vector at the time of displaying the three-dimensional picture from the optional direction.

Description

【発明の詳細な説明】[Detailed description of the invention]

【0001】0001

【産業上の利用分野】本発明は、高速3次元表示方法に
係り、特に、X線CT,MRI等の断層撮影装置により
得られる人体3次元データから、診断に有用な3次元像
を表示する方法に関する。
[Industrial Application Field] The present invention relates to a high-speed three-dimensional display method, and in particular, to display three-dimensional images useful for diagnosis from human body three-dimensional data obtained by tomography equipment such as X-ray CT and MRI. Regarding the method.

【0002】0002

【従来技術】医用画像においては臓器の形状モデリング
が困難なため、シェーディング処理は通常ボクセル(画
素)単位に行われる。シェーディング処理において投影
面上のピクセル値は、入射光ベクトルと、物体表面の各
ボクセル(画素)について計算した法線ベクトルとの内
積として求められる。代表的な3次元表示方法として次
の2つがあげられる。
2. Description of the Related Art In medical images, since it is difficult to model the shape of an organ, shading processing is usually performed on a voxel (pixel) basis. In shading processing, pixel values on the projection plane are determined as the inner product of the incident light vector and the normal vector calculated for each voxel (pixel) on the object surface. There are two typical three-dimensional display methods:

【0003】Zバッファシェーデングは、物体表面に存
在するボクセル(画素)の前後関係をもとに表面の法線
ベクトルを求め、3次元表示を行う。本手法は高速に3
次元像を得られるという利点を持つが、ボクセル自身の
大きさによって法線ベクトルが量子化されてしまうため
、通常のデータ(分解能128〜256画素/列)では
満足な画質は得られない。
[0003] Z-buffer shading calculates the normal vector of the surface based on the anteroposterior relationship of voxels (pixels) existing on the object surface, and performs three-dimensional display. This method is fast 3
Although it has the advantage of being able to obtain a dimensional image, normal vectors are quantized depending on the size of the voxel itself, so normal data (resolution of 128 to 256 pixels/column) cannot provide satisfactory image quality.

【0004】これに対し、グレイレベルグラジェントシ
ェーディングは、隣接画素間の濃度差から物体表面の法
線ベクトルを計算する。本手法では法線ベクトルが連続
量として求められるため、濃度分解能に優れた高画質の
3次元像が得られる。
On the other hand, gray level gradient shading calculates the normal vector of the object surface from the density difference between adjacent pixels. In this method, the normal vector is obtained as a continuous quantity, so a high-quality three-dimensional image with excellent density resolution can be obtained.

【0005】近年医用3次元表示に広く用いられるよう
になったボリュームレンダリング(アイ・イー・イー・
イー  シージー・アンド・エー1988年5月号、第
29頁〜第37頁(IEEE  Computer  
Graphics&Applications)等に述
べられている)も、グレイレベルグラジェイトシェーデ
ングの考え方を用いたものである。
[0005] Volume rendering (I.E.E.
ECG & A May 1988 issue, pages 29-37 (IEEE Computer
Graphics & Applications) also uses the concept of gray level gradient shading.

【0006】グレイレベルグラジェントとは、濃度の傾
斜方向ならびにその傾斜量を表したベクトルである。こ
れは、ある着目した点(基準点)に隣接するボクセル(
画素)の濃度値の差分をとることにより求められる。 グレイレベルグラジェントシェーデングでは、このグレ
イレベルグラジェントをボクセル(画素)ごとに仮想的
に設定した微小平面における法線ベクトルとして定義し
、この法線ベクトルと入射光ベクトルとの内積として各
面の輝度を算出する。
[0006] A gray level gradient is a vector representing the gradient direction of density and the amount of gradient. This is the voxel (
It is obtained by taking the difference between the density values of pixels (pixels). In gray level gradient shading, this gray level gradient is defined as a normal vector on a microplane virtually set for each voxel (pixel), and the inner product of this normal vector and the incident light vector is calculated for each surface. Calculate the brightness.

【0007】そのため、グレイレベルグラジェントシェ
ーデングによる3次元像の画質・忠実度を高めるために
は、グレイレベルグラジェントを正確に算出する必要が
ある。
[0007] Therefore, in order to improve the image quality and fidelity of a three-dimensional image by gray level gradient shading, it is necessary to accurately calculate the gray level gradient.

【0008】回転処理を行うと回転後の格子ともとの格
子との並びがずれる。そのため、ずれた格子点の濃度値
を補間して求める必要が生じる。補間処理に最近傍近似
補間(nearest  neibour)を用いると
、濃度差分をとるボクセル(画素)間の距離のばらつき
により、グレイレベルグラジェントの値は周期的に増減
する。これは3次元像上に縞状アーチファクトとなって
現れ、3次元像の画質を著しく低下させる。そのため、
従来はアイ・イー・イー・イー  シージー・アンド・
エー1988年5月号、第29頁〜第37頁(IEEE
  ComputerGraphics&Applic
ations)に述べられているように、任意方向から
の3次元表示を行う場合は、回転後の格子点の値を正確
に求めるために、線形補間(tri−linear  
interpolation)を用いていた。しかし、
線形補間は最近傍近似補間に比べ、データに対するアク
セス、演算量ともに非常に多くなるため、表示処理を高
速化する際のネックとなっていた。
[0008] When the rotation process is performed, the alignment of the rotated lattice and the original lattice is shifted. Therefore, it is necessary to interpolate and find the density values of the shifted grid points. When nearest neighbor interpolation is used for interpolation processing, the value of the gray level gradient periodically increases or decreases due to variations in the distance between voxels (pixels) from which density differences are taken. This appears as striped artifacts on the three-dimensional image, significantly reducing the image quality of the three-dimensional image. Therefore,
Previously I.E.E.C.G.&.
May 1988 issue, pp. 29-37 (IEEE
Computer Graphics & Applications
ations), when performing three-dimensional display from any direction, linear interpolation (tri-linear
interpolation) was used. but,
Linear interpolation requires much more access to data and a much larger amount of calculations than nearest-neighbor interpolation, which has been a bottleneck in speeding up display processing.

【0009】ここで、従来の最近傍近似による補間手法
を用いた場合の3次元表示処理の概略と、アーチファク
トが発生する要因を第8図の参考図を用いて述べる。
[0009] Here, an outline of the three-dimensional display processing when using the conventional interpolation method using nearest neighbor approximation and the factors that cause artifacts to occur will be described with reference to the reference diagram of FIG.

【0010】グレイレベルグランジェントは、グレイレ
ベルグランジェントを求める点(基準点)に隣接する点
の濃度差から算出される。なお、ここでは簡単のためグ
レイレベルグラジェントの1方向(縦方向)成分に限定
して説明する。
[0010] The gray level gradient is calculated from the density difference between points adjacent to the point (reference point) for which the gray level gradient is to be determined. Note that for the sake of simplicity, the description will be limited to one direction (vertical direction) component of the gray level gradient.

【0011】回転処理を行わない場合を第8図(a)に
示す。このとき隣接点は常に格子上に乗るため隣接点間
の距離は常に等しくなる。従って濃度傾斜量(=濃度差
/隣接点距離)を常に正確に求めることができる。
FIG. 8(a) shows a case where rotation processing is not performed. At this time, since adjacent points are always on the grid, the distance between adjacent points is always equal. Therefore, the amount of concentration gradient (=density difference/adjacent point distance) can always be accurately determined.

【0012】回転を行うと第8図(b)に示すように、
回転前と回転後の格子の並びがずれる。ここで隣接点を
最近傍近似によって求めると第8図(c)に示すように
隣接点間の距離、方向がばらつくため、濃度傾斜量が正
確に求められなくなる。しかも、これは等間隔の格子ど
うしの干渉によって生じるものであるため、隣接点間の
距離は周期的に増減し、その結果が画像上に縞模様とし
て現れる。
When the rotation is performed, as shown in FIG. 8(b),
The alignment of the grid before and after rotation is misaligned. If the adjacent points are determined by nearest neighbor approximation, the distance and direction between the adjacent points will vary as shown in FIG. 8(c), so that the concentration gradient cannot be determined accurately. Moreover, since this is caused by interference between equally spaced grids, the distance between adjacent points increases and decreases periodically, and the result appears as a striped pattern on the image.

【0013】線形補間は、着目点の周囲のボクセル(画
素)値を参照し、これらに重み付け加算を行うことによ
り、着目点の値を求めるものである。従って縞状アーチ
ファクトは生じない。しかし、線形補間の計算では一点
につきそれを囲む8点(3次元の場合)のデータアクセ
スならび重み付け計算が必要となるため、リアルタイム
処理は困難である。
Linear interpolation refers to voxel (pixel) values around the point of interest and performs weighted addition to these values to determine the value of the point of interest. Therefore, no stripe artifacts occur. However, in linear interpolation calculations, real-time processing is difficult because each point requires data access to eight surrounding points (in the case of three dimensions) and weighting calculations.

【0014】以上述べたように、最近傍近似を用いた場
合は、縞状のアーチファクトが発生し画質が大幅に劣化
する。一方、線形補間を用いた場合は、画質的には問題
ないものの、3次元像の作成にかかる時間が問題となっ
てくる。
As described above, when the nearest neighbor approximation is used, striped artifacts occur and the image quality is significantly degraded. On the other hand, when linear interpolation is used, there is no problem in terms of image quality, but the time required to create a three-dimensional image becomes a problem.

【0015】[0015]

【発明が解決しようとする課題】本発明の目的は、線形
補間に準ずるレベルの画質を持つ3次元像を、最近傍近
似に準ずる処理時間で表示可能にすることである。
SUMMARY OF THE INVENTION An object of the present invention is to make it possible to display a three-dimensional image having an image quality comparable to linear interpolation in a processing time comparable to nearest neighbor approximation.

【0016】[0016]

【課題を解決するための手段】本発明は、3次元画像デ
ータの個々のボクセルについて、周囲の濃度変化量より
濃度傾斜ベクトルを計算し、この濃度傾斜ベクトルとボ
クセルへの入射光ベクトルより個々のボクセルにおける
輝度値を求め、該輝度値を2次元平面上に投影処理する
ことにより陰影付けされた3次元画像を作成する3次元
像表示方法において、任意方向からの3次元像表示を行
う際に、回転前の座標系における各基準軸方向の濃度変
化量を各ボクセル毎に求め、この濃度変化量から回転後
の座標系における各基準軸方向の濃度変化量を推定し、
この各濃度変化量を成分とするベクトルを上記濃度傾斜
ベクトルとして用いることを特徴とする。
[Means for Solving the Problems] The present invention calculates a density gradient vector for each voxel of three-dimensional image data from the amount of surrounding density change, and calculates each voxel from the density gradient vector and the incident light vector to the voxel. In a 3D image display method that creates a shaded 3D image by determining the brightness value at a voxel and projecting the brightness value onto a 2D plane, when displaying a 3D image from any direction. , find the amount of density change in each reference axis direction in the coordinate system before rotation for each voxel, estimate the amount of density change in each reference axis direction in the coordinate system after rotation from this amount of density change,
The present invention is characterized in that a vector having each density change amount as a component is used as the density gradient vector.

【0017】[0017]

【作用】本発明では、回転計算の基本手法として最近傍
近似補間を用いる。これにより、3次元像の作成に要す
る時間は問題とならなくなる。本発明が従来の方法と異
なる点は、従来方法が濃度変化量の算出に用いる点の値
を最近傍近似によって直接求めていたのに対し、本発明
では、まずグレイレベルグラジェントの基準点を最近傍
近似によって求め、この基準点に隣接する点の値から、
濃度変化量を求めるところにある。この時隣接点は回転
前の座標系の格子上の点となるため、回転前の座標系に
おけるグレイレベルグラジェントを正確に算出できる。 回転後の座標系に関するグレイレベルグラジェントはこ
こで求めたグレイレベルグラジェントに3次元データの
回転に用いたのと同じ変換行列による線形変換処理を施
すことにより得られる。本発明の方法を用いることによ
り、縞状アーチファクトのない、高画質の3次元表示像
を得ることができる。
[Operation] In the present invention, nearest-neighbor interpolation is used as a basic method for rotation calculation. Thereby, the time required to create a three-dimensional image is no longer a problem. The difference between the present invention and the conventional method is that the conventional method directly obtains the value of the point used to calculate the amount of density change by nearest neighbor approximation, whereas in the present invention, the reference point of the gray level gradient is first determined. Obtained by nearest neighbor approximation, and from the values of points adjacent to this reference point,
This is where you find the amount of change in concentration. At this time, since the adjacent points become points on the grid of the coordinate system before rotation, it is possible to accurately calculate the gray level gradient in the coordinate system before rotation. The gray level gradient regarding the rotated coordinate system is obtained by subjecting the gray level gradient obtained here to linear transformation processing using the same transformation matrix used for the rotation of the three-dimensional data. By using the method of the present invention, a high-quality three-dimensional display image without striped artifacts can be obtained.

【0018】本発明の方法の概念を再び第8図の参考図
を用いて述べる。濃度傾斜の基準点を第8図(d)に示
すように、本来の基準点(黒丸で示す)に最も近い回転
前の座標系における格子上の点(黒四角)に置く。この
ように基準点を格子上の点に改めて取ることにより、第
8図(e)に示すように、その隣接点も格子上の点(白
四角)となる。これにより隣接点間の距離は常に一定と
なるため、濃度傾斜量を正確に求めることが可能となる
The concept of the method of the present invention will be described again using the reference diagram of FIG. As shown in FIG. 8(d), the reference point for the concentration gradient is placed at the point (black square) on the grid in the coordinate system before rotation that is closest to the original reference point (shown by the black circle). By resetting the reference point to a point on the grid in this way, the adjacent points also become points (white squares) on the grid, as shown in FIG. 8(e). As a result, the distance between adjacent points is always constant, making it possible to accurately determine the amount of concentration gradient.

【0019】しかし、ここで求めた濃度傾斜量は回転前
の座標系の基準軸方向に対して求めたものであり、求め
るべき回転後の座標系に対するものにはなっていない。 そこで第8図(e)に示すように、縦方向、横方向につ
いて求めた濃度傾斜量と回転方向のベクトルから求める
べき方向の濃度傾斜量を計算する。回転後の濃度傾斜ベ
クトル(x,y,z)は座標回転を表す行列A、回転前
の濃度傾斜ベクトル(dx,dy,dz)より〔数2〕
式(〔図9〕の〔数2〕式を参照。)によって算出でき
る。
However, the amount of concentration gradient determined here is determined with respect to the reference axis direction of the coordinate system before rotation, and not with respect to the coordinate system after rotation, which should be determined. Therefore, as shown in FIG. 8(e), the concentration gradient in the direction to be determined is calculated from the concentration gradient determined in the vertical and horizontal directions and the vector in the rotational direction. The concentration gradient vector (x, y, z) after rotation is obtained from the matrix A representing coordinate rotation and the concentration gradient vector (dx, dy, dz) before rotation [Equation 2]
It can be calculated using the formula (see formula 2 in FIG. 9).

【0020】このようにして求めた回転後の濃度傾斜ベ
クトルの算出点は、第8図(f)の白丸で表わされる点
となり、2点間の距離、方向は常に等しい。
The calculation point of the rotational density gradient vector thus obtained is the point represented by the white circle in FIG. 8(f), and the distance and direction between the two points are always equal.

【0021】このようなグレイレベルグラジェントの計
算手法によって、縞状アーチファクトが抑止された3次
元画像を、ほぼ従来の最近傍近似による手法と同等の速
度で得ることが可能になる。すなわち、線形補間に準ず
るレベルの画質をもつ3次元像を、線形補間を用いた場
合に比し、高速に作成することができる。
[0021] Such a gray level gradient calculation method makes it possible to obtain a three-dimensional image in which striped artifacts are suppressed at approximately the same speed as the conventional method using nearest neighbor approximation. That is, a three-dimensional image having an image quality comparable to linear interpolation can be created faster than when linear interpolation is used.

【0022】[0022]

【実施例】本発明を以下の実施例に基づいて説明する。 本実施例は、MRIを用いて撮像した複数枚の頭部断層
データから、皮膚領域の3次元表示を行うものである。
EXAMPLES The present invention will be explained based on the following examples. In this embodiment, a three-dimensional display of a skin region is performed from a plurality of head tomographic data captured using MRI.

【0023】第1図に、本発明の本質部分である、グレ
イレベルグラジェントの算出手法に関するフローチャー
トを示す。 〈ステップ001〉 グレイレベルグラジェントの基準点Aを、最近傍近似補
間により、元の格子の最近傍点A’にとり、以後A’を
グレイレベルグラジェントの基準点とする。 〈ステップ002〉 格子上の基準点A’に対する隣接点B’,C’,D’,
E’も格子上の点となる。この隣接点B’,C’の濃度
値の差として元の座標系における濃度変化量dy’を求
め、この隣接点D’,E’の濃度値の差として元の座標
系における濃度変化量dx’を求める。 〈ステップ003〉 ステップ002で求めた濃度変化量は回転前の元の格子
の座標系に対するものであるので、元の格子に対する回
転後の格子の傾斜角θと上記濃度変化量dx’,dy’
より、回転後の格子における濃度変化量dx”,dy”
を求める。
FIG. 1 shows a flowchart relating to a gray level gradient calculation method, which is the essential part of the present invention. <Step 001> The reference point A of the gray level gradient is set to the nearest point A' of the original grid by nearest neighbor interpolation, and A' is hereinafter used as the reference point of the gray level gradient. <Step 002> Adjacent points B', C', D', to the reference point A' on the grid
E' is also a point on the grid. The density change amount dy' in the original coordinate system is determined as the difference between the density values of these adjacent points B' and C', and the density change amount dx in the original coordinate system is calculated as the difference between the density values of these adjacent points D' and E'. 'Seek.'<Step003> Since the amount of concentration change obtained in step 002 is with respect to the coordinate system of the original lattice before rotation, the inclination angle θ of the lattice after rotation with respect to the original lattice and the amount of concentration change dx', dy'
Therefore, the amount of concentration change in the lattice after rotation dx", dy"
seek.

【0024】第2図は、本発明を適用する装置のシステ
ム構成図である。本装置はI/O装置10,3次元メモ
リ11、イメージメモリ12,CPU13,CRT14
、コンソール15から構成される。まず各構成要素の役
割を説明する。
FIG. 2 is a system configuration diagram of an apparatus to which the present invention is applied. This device includes an I/O device 10, a three-dimensional memory 11, an image memory 12, a CPU 13, and a CRT 14.
, console 15. First, the role of each component will be explained.

【0025】MRIによって得られた頭部断層像データ
はI/O装置10を通し3次元メモリ11に転送される
。送られてきた複数枚の断層像データは3次元メモリ1
1上に相互の位置関係を保ちながら格納される。その結
果、断層線データは3次元メモリ11上にて3次元デー
タとして構成される。
Head tomographic image data obtained by MRI is transferred to a three-dimensional memory 11 through an I/O device 10. The sent multiple tomographic image data are stored in 3D memory 1.
1 while maintaining their mutual positional relationship. As a result, the fault line data is configured as three-dimensional data on the three-dimensional memory 11.

【0026】CPU13は3次元メモリ11上の3次元
データを参照して、回転、3次元像作成等の処理を行う
。本処理はCPU13に接続されているコンソール15
からの指示に基づいて行われる。処理結果はイメージメ
モリ12上に格納され、CRT14上に表示される。
The CPU 13 refers to the three-dimensional data on the three-dimensional memory 11 and performs processing such as rotation and three-dimensional image creation. This process is performed by the console 15 connected to the CPU 13.
This is done based on instructions from. The processing results are stored on the image memory 12 and displayed on the CRT 14.

【0027】第2図のCPU13における3次元像作成
の処理手順のフローチャートを第3図に示す。以下第2
図の装置構成図と第3図のフローチャートを用いて実施
例を説明する。 〈ステップ100〉 MRIによって撮像された複数枚の断層データをI/O
装置10を通し3次元メモリ11上に格納する。各断層
データは3次元メモリ11上にて3次元データとして構
成される。 〈ステップ101〉 オペレータは、3次元像の回転方向をコンソール15よ
り入力する。この入力手法としてはX軸、Y軸、Z軸に
関する回転角を数値で入力する手法、3次元グラフィッ
クスとマウスを用いた感覚的に回転角を指定する手法等
がある。 〈ステップ102〉 回転変換後の座標を効率よく求めるために、本ステップ
において回転後の座標系における基準ベクトルを算出し
ておく。このようにすることによって回転後の各座標を
この基準ベクトルの線形和として求めることができる。 回転軸をX軸、y軸、z軸の順にとって回転を行う場合
、回転後の各基準ベクトルは〔数3〕式(〔図9〕の〔
数3〕式を参照。)によって表わされる。 〈ステップ103〉 3次元メモリ11内のデータを参照しながら、イメージ
メモリ12上に3次元画像を作成する。本発明を適用す
る3次元表示方法では、イメージメモリ12上の個々の
画素ごとにその画素値を計算する。個々の画素値の計算
手法については、サーフェスレンダリングとボリューム
レンダリングに分けて後で詳しく述べる。本発明のサー
フェスレンダリングへの適用例については、ステップ2
00〜205で、ボリュームレンダリングへの適用例は
ステップ300〜308で後述する。 〈ステップ104〉 イメージメモリ12上の全ての点に対して画素値の計算
が終了した後、必要に応じイメージメモリ12上の画像
に対しフィルタリング、LUT処理を行い、その結果を
ディスプレイ14に表示する。 〈ステップ105〉 別な角度から観察したいという場合、ステップ101に
戻り、回転角度入力、回転・表示処理を繰り返す。
FIG. 3 shows a flowchart of the processing procedure for three-dimensional image creation in the CPU 13 of FIG. 2. 2nd below
An embodiment will be described using the apparatus configuration diagram shown in the figure and the flowchart shown in FIG. <Step 100> I/O multiple tomographic data captured by MRI
The data is stored on the three-dimensional memory 11 through the device 10. Each tomographic data is configured as three-dimensional data on the three-dimensional memory 11. <Step 101> The operator inputs the rotation direction of the three-dimensional image from the console 15. Examples of this input method include a method of numerically inputting the rotation angle regarding the X, Y, and Z axes, and a method of intuitively specifying the rotation angle using three-dimensional graphics and a mouse. <Step 102> In order to efficiently obtain the coordinates after rotational transformation, a reference vector in the rotated coordinate system is calculated in this step. By doing this, each coordinate after rotation can be determined as a linear sum of the reference vectors. When rotating the rotation axes in the order of the X-axis, y-axis, and Z-axis, each reference vector after rotation is expressed by the formula
Refer to equation 3. ). <Step 103> A three-dimensional image is created on the image memory 12 while referring to the data in the three-dimensional memory 11. In the three-dimensional display method to which the present invention is applied, the pixel value of each pixel on the image memory 12 is calculated. The calculation method for each pixel value will be described in detail later, dividing it into surface rendering and volume rendering. For an example application of the present invention to surface rendering, see Step 2.
00-205, and an example of application to volume rendering will be described later in steps 300-308. <Step 104> After the calculation of pixel values for all points on the image memory 12 is completed, filtering and LUT processing are performed on the image on the image memory 12 as necessary, and the results are displayed on the display 14. . <Step 105> If you wish to observe from a different angle, return to step 101 and repeat the rotation angle input and rotation/display processing.

【0028】《サーフェスレンダリングへの適用例》サ
ーフェスレンダリングにおける本発明の適用例を第4図
のフローチャートと第7図を用いて説明する。
<<Example of Application to Surface Rendering>> An example of application of the present invention to surface rendering will be explained using the flowchart of FIG. 4 and FIG. 7.

【0029】イメージメモリと3次元メモリの位置関係
を第7図に示す。本図において10は、3次元像を作成
するスクリーンであり、イメージメモリに対応する。1
1は、3次元データ空間を示し、3次元メモリに対応す
る。本図における3次元データ空間11は回転処理後の
ものを示している。まず、スクリーン上の点12におけ
る輝度を計算する。この点12における輝度は、この点
12を通る視線すなわちスクリーン10の法線13と交
差する3次元メモリ空間の画素列14の値から以下に述
べる計算により求められる。 〈ステップ200〉 第7図においてスクリーン上の画素12を通る法線13
上に存在する3次元データの画素列14を、スクリーン
に近い画素から順にスキャンする。 〈ステップ201〉 スキャンを画素列14の最後まで行った場合は、対象物
体がその法線13上に存在しなかったものと見なす。こ
のときスクリーン上の画素12の値を0とし、次のスク
リーン上の画素の計算に移る。 〈ステップ202〉 画素列14から取りだした画素に対し、あらかじめ設定
したしきい値と比較を行い、その画素が物体の表面を表
しているか否かを判定する。表面の画素であればステッ
プ203でスクリーン上の画素12の輝度計算を行う。 また表面でない場合はステップ200に戻り、画素列の
後方へのスキャンを続ける。 〈ステップ203〉 ステップ202で求めた物体表面を表す画素に対し、そ
の近傍画素の値から表面における濃度傾斜ベクトルを求
める。濃度傾斜ベクトルの算出処理はステップ500〜
504で詳述する。 〈ステップ204〉 スクリーン10上の点12の輝度を、ステップ203で
求めた濃度傾斜ベクトルと視線方向ベクトル、光線ベク
トルから計算する。 〈ステップ205〉 ステップ204で計算したスクリーン10上の点12の
輝度をイメージメモリに格納する。
FIG. 7 shows the positional relationship between the image memory and the three-dimensional memory. In the figure, 10 is a screen for creating a three-dimensional image, and corresponds to an image memory. 1
1 indicates a three-dimensional data space and corresponds to a three-dimensional memory. The three-dimensional data space 11 in this figure shows the one after rotation processing. First, the brightness at point 12 on the screen is calculated. The brightness at this point 12 is determined by the calculation described below from the value of the pixel column 14 in the three-dimensional memory space that intersects with the line of sight passing through this point 12, that is, the normal line 13 of the screen 10. <Step 200> In FIG. 7, normal line 13 passing through pixel 12 on the screen
The pixel rows 14 of the three-dimensional data existing above are scanned in order from the pixels closest to the screen. <Step 201> If scanning is performed to the end of the pixel row 14, it is assumed that the target object does not exist on the normal line 13 thereof. At this time, the value of pixel 12 on the screen is set to 0, and the calculation moves on to the next pixel on the screen. <Step 202> A pixel taken out from the pixel row 14 is compared with a preset threshold value to determine whether the pixel represents the surface of an object. If it is a front pixel, the brightness of the pixel 12 on the screen is calculated in step 203. If it is not the surface, the process returns to step 200 and continues scanning backwards in the pixel column. <Step 203> For the pixel representing the object surface determined in step 202, a concentration gradient vector on the surface is determined from the values of its neighboring pixels. The concentration gradient vector calculation process starts from step 500.
504 will be explained in detail. <Step 204> The brightness of the point 12 on the screen 10 is calculated from the concentration gradient vector, line-of-sight direction vector, and light ray vector obtained in step 203. <Step 205> The brightness of the point 12 on the screen 10 calculated in step 204 is stored in the image memory.

【0030】《ボリュームレンダリングへの適用例》ボ
リュームレンダリングへの本発明の適用例を第5図のフ
ローチャートと第7図を用いて説明する。 〈ステップ300〉 入射光量の初期値を設定する。(初期値=1)スクリー
ン上の輝度値を設定する。(初期値=0)〈ステップ3
01〉 第7図においてスクリーン10上の一点12を通る法線
13上に存在する3次元データ11内の画素列14を、
スクリーンに近い画素から順にスキャンする。 〈ステップ302〉 法線13上の画素列14の全ての画素を全てスキャンし
たか、あるいは各画素への入射光量が減衰を受けて0に
なった場合、ここまでに計算されている画素列14上の
各画素の持つ値を全て積算し、スクリーン上の点12の
輝度としてイメージメモリに格納する。 〈ステップ303〉 スキャンした画素の濃度値がノズルレベルとしてあらか
じめ設定されている値より低い場合、その画素について
の以下の計算をスキップする。 〈ステップ304〉 スキャンした画素の近傍画素の値からその画素における
濃度傾斜ベクトルを求める。濃度傾斜ベクトルの算出法
についてはステップ500〜502で述べる。 〈ステップ305〉 ステップ304で求めた濃度傾斜ベクトルと視線方向ベ
クトル、光線ベクトルから画素列14上の各画素の持つ
輝度を計算する。 〈ステップ306〉 次の画素の入射光量を計算する。ステップ301に戻り
、奥行き方向の次の画素について以上の計算を繰り返す
<<Example of Application to Volume Rendering>> An example of application of the present invention to volume rendering will be explained using the flowchart of FIG. 5 and FIG. 7. <Step 300> An initial value of the amount of incident light is set. (Initial value = 1) Sets the brightness value on the screen. (Initial value = 0) <Step 3
01> In FIG. 7, the pixel row 14 in the three-dimensional data 11 existing on the normal line 13 passing through one point 12 on the screen 10 is
Scan pixels starting from those closest to the screen. <Step 302> If all the pixels in the pixel row 14 on the normal line 13 have been scanned, or if the amount of light incident on each pixel has been attenuated to 0, the pixel row 14 calculated so far is All the values of each pixel above are integrated and stored in the image memory as the brightness of point 12 on the screen. <Step 303> If the density value of the scanned pixel is lower than the value preset as the nozzle level, the following calculation for that pixel is skipped. <Step 304> A density gradient vector at the scanned pixel is determined from the values of neighboring pixels of that pixel. The method for calculating the concentration gradient vector will be described in steps 500-502. <Step 305> The luminance of each pixel on the pixel row 14 is calculated from the density gradient vector, line of sight direction vector, and light ray vector obtained in step 304. <Step 306> Calculate the amount of incident light for the next pixel. Returning to step 301, the above calculation is repeated for the next pixel in the depth direction.

【0031】本発明を適用するグレイレベルグラジェン
ト法では各画素の輝度を、原則的に入射光と画素単位に
考えた仮想平面の法線とのなす角度から求める。仮想平
面の法線方向は濃度の最大傾斜方向として定義される。 以下に濃度傾斜ベクトルの算出法を第6図のフローチャ
ートを用いて説明する。 〈ステップ500〉 回転変換後の座標を算出する。これはあらかじめ、回転
前の基準ベクトルに対し回転処理を施し、回転後の基準
ベクトルを求めておくことにより、回転後の座標はこれ
らのベクトルの線形和として求めることができる。 〈ステップ501〉 前ステップで求めた座標に最も近い回転前の格子上の点
を、求める濃度傾斜の基準点とする。 〈ステップ502〉 基準点に隣接する格子点の濃度値から各基準軸方向の濃
度傾斜量を算出する。基準点の座標をP(x0,y0,
z0)とするとき、各基準軸方向の濃度傾斜量は〔数4
〕式(〔図10〕の〔数4〕式を参照。)で求められる
。なお、f(x,y,z)は点(x,y,z)における
濃度値とする。 〈ステップ503〉 各基準軸方向の濃度傾斜量dx,dy,dzと各軸回り
の3次元回転行列Az,Ay,Azから回転後座標にお
ける濃度傾斜ベクトルを〔数5〕式(〔図10〕の〔数
5〕式を参照。)によって計算する。
In the gray level gradient method to which the present invention is applied, the brightness of each pixel is basically determined from the angle formed between the incident light and the normal to a virtual plane considered for each pixel. The normal direction of the virtual plane is defined as the direction of maximum concentration gradient. The method for calculating the concentration gradient vector will be explained below using the flowchart shown in FIG. <Step 500> Calculate coordinates after rotational transformation. By performing rotation processing on the reference vector before rotation and obtaining the reference vector after rotation in advance, the coordinates after rotation can be obtained as a linear sum of these vectors. <Step 501> The point on the grid before rotation that is closest to the coordinates determined in the previous step is set as the reference point for the concentration gradient to be determined. <Step 502> The concentration gradient amount in each reference axis direction is calculated from the density value of the grid point adjacent to the reference point. Let the coordinates of the reference point be P(x0, y0,
z0), the amount of concentration gradient in each reference axis direction is given by [Equation 4]
] formula (see formula [4] in [Fig. 10]). Note that f(x, y, z) is the density value at the point (x, y, z). <Step 503> From the concentration gradient amounts dx, dy, and dz in each reference axis direction and the three-dimensional rotation matrices Az, Ay, and Az around each axis, the concentration gradient vector at the rotated coordinates is calculated using the formula [Equation 5] ([Figure 10] (See equation 5.).

【0032】[0032]

【発明の効果】本発明によれば、縞状アーチファクトが
抑止された3次元画像を、ほぼ従来の最近傍近似による
手法と同等の速度で得ることが可能になり、従来の線形
補間による手法に比べ、はるかに短い時間で、画質の劣
化を最小限に抑えた高画質の3次元表示像を得ることが
できる。また、本発明の方法は、従来方法に比べ処理が
簡潔であるため、ハードウェアへの搭載も容易となる。
According to the present invention, it is possible to obtain a three-dimensional image in which striped artifacts are suppressed at almost the same speed as the conventional method using nearest neighbor approximation, and it is possible to obtain a three-dimensional image in which striped artifacts are suppressed. In comparison, a high-quality three-dimensional display image with minimal deterioration in image quality can be obtained in a much shorter time. Furthermore, since the method of the present invention is simpler in processing than the conventional method, it can be easily installed in hardware.

【図面の簡単な説明】[Brief explanation of the drawing]

【図1】第1図は、本発明が提案したグレイレベルグラ
ジェントの算出手法のフローチャート。
FIG. 1 is a flowchart of a gray level gradient calculation method proposed by the present invention.

【図2】第2図は、本発明を実施する装置の構成図。FIG. 2 is a configuration diagram of an apparatus implementing the present invention.

【図3】第3図は、本発明の実施例のメインフローチャ
ート。
FIG. 3 is a main flowchart of an embodiment of the present invention.

【図4】第4図は、第2図の一部を詳細に説明したもの
で、本発明をサーフェスレンダリングに適用した実施例
のフローチャート。
FIG. 4 is a detailed explanation of a part of FIG. 2, and is a flowchart of an embodiment in which the present invention is applied to surface rendering.

【図5】第5図は、同じくボリュームレンダリングに適
用した実施例のフローチャート。
FIG. 5 is a flowchart of an embodiment similarly applied to volume rendering.

【図6】第6図は、実施例における濃度傾斜ベクトルの
算出手法のフローチャート。
FIG. 6 is a flowchart of a concentration gradient vector calculation method in an embodiment.

【図7】第7図は、3次元画像を作成するスクリーンと
、このスクリーン上の値の計算に用いる回転後の3次元
データとの位置関係を表したもの。
FIG. 7 shows the positional relationship between a screen for creating a three-dimensional image and rotated three-dimensional data used to calculate values on this screen.

【図8】第8図は、従来方法と本発明の方法の概念を示
した参考図。
FIG. 8 is a reference diagram showing the concept of a conventional method and a method of the present invention.

【図9】〔数2〕式、〔数3〕式を示す。FIG. 9 shows formulas [Math. 2] and [Math. 3].

【図10】〔数4〕式、〔数5〕式を示す。FIG. 10 shows equations [4] and [5].

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】3次元画像データの個々のボクセルについ
て、周囲の濃度変化量より濃度傾斜ベクトルを計算し、
この濃度傾斜ベクトルとボクセルへの入射光ベクトルよ
り個々のボクセルにおける輝度値を求め、該輝度値を2
次元平面上に投影処理することにより陰影付けされた3
次元画像を作成する3次元像表示方法において、任意方
向からの3次元像表示を行う際に、回転前の座標系にお
ける各基準軸方向の濃度変化量を各ボクセル毎に求め、
この濃度変化量から回転後の座標系における各基準軸方
向の濃度変化量を推定し、この各濃度変化量を成分とす
るベクトルを上記濃度傾斜ベクトルとして用いることを
特徴とする高速3次元表示方法。
Claim 1: Calculate a density gradient vector for each voxel of three-dimensional image data from surrounding density changes,
The brightness value in each voxel is determined from this density gradient vector and the incident light vector to the voxel, and the brightness value is
3 shaded by projection processing onto a dimensional plane
In a three-dimensional image display method for creating a dimensional image, when displaying a three-dimensional image from any direction, the amount of density change in each reference axis direction in the coordinate system before rotation is determined for each voxel,
A high-speed three-dimensional display method characterized in that the density change amount in each reference axis direction in the rotated coordinate system is estimated from this density change amount, and a vector having each density change amount as a component is used as the concentration gradient vector. .
【請求項2】前記第1項記載の方法において、3次元画
像の投影処理の中に回転後の座標を計算する処理を含み
、回転後の座標を計算する画素範囲を投影処理に必要な
画素範囲に限定することを特徴とする高速3次元表示方
法。
2. The method according to claim 1, wherein the projection process of the three-dimensional image includes a process of calculating the rotated coordinates, and the pixel range for calculating the rotated coordinates is set to the pixels necessary for the projection process. A high-speed three-dimensional display method characterized by limiting to a range.
【請求項3】前記第1項記載の方法において、回転後の
個々の座標の値を最近傍近似補間を用いて求めることを
特徴とする高速3次元表示方法。
3. A high-speed three-dimensional display method according to claim 1, characterized in that the values of the individual coordinates after rotation are determined using nearest-neighbor interpolation.
【請求項4】前記第1項記載の方法において、濃度傾斜
ベクトルは、濃度傾斜ベクトルの基準位置を、回転後の
座標を最近傍近似によって求めた回転前の座標系の格子
点上にとることを特徴とする高速3次元表示方法。
4. In the method according to claim 1, the concentration gradient vector has a reference position on a grid point of a coordinate system before rotation whose coordinates after rotation are obtained by nearest neighbor approximation. A high-speed three-dimensional display method characterized by:
【請求項5】前記第4項記載の方法において、濃度傾斜
ベクトルは、まず、基準位置に隣接する格子点の値より
求めた各基準軸方向の濃度変化量を各成分とするベクト
ルを求め、ついで、このベクトルに対し、3次元データ
を回転させる際に用いた変換行列によって線形変換を行
って算出することを特徴とする高速3次元表示方法。
5. In the method according to claim 4, the concentration gradient vector is obtained by first determining a vector whose components are the amount of change in concentration in each reference axis direction determined from the values of grid points adjacent to the reference position; A high-speed three-dimensional display method characterized in that the vector is then calculated by linearly transforming it using a transformation matrix used when rotating the three-dimensional data.
【請求項6】前記第4項記載の方法において、濃度傾斜
ベクトルは、基準位置に隣接する格子点の各軸方向の差
分量をdx,dy,dzとし、3次元データに対するx
軸、y軸、z軸回りの回転行列をAx,Ay,Azとす
るとき、次式〔数1〕によって求めることを特徴とする
高速3次元表示方法。 【数1】 なお、Ax,Ay,Azの並び方は回転の順番に対応し
て変化する。θz,θy,θxはz,y,x軸まわりの
回転角である。
6. In the method according to claim 4, the concentration gradient vector is defined as x for three-dimensional data, with dx, dy, and dz being the difference amounts in each axis direction of grid points adjacent to the reference position.
A high-speed three-dimensional display method characterized in that rotation matrices around the axes, y-axes, and z-axes are determined by the following equation [Equation 1] when Ax, Ay, and Az are rotation matrices. [Formula 1] Note that the arrangement of Ax, Ay, and Az changes depending on the rotation order. θz, θy, and θx are rotation angles around the z, y, and x axes.
JP2277691A 1991-01-23 1991-01-23 Method for three-dimensional display at high speed Pending JPH04363775A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2277691A JPH04363775A (en) 1991-01-23 1991-01-23 Method for three-dimensional display at high speed

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2277691A JPH04363775A (en) 1991-01-23 1991-01-23 Method for three-dimensional display at high speed

Publications (1)

Publication Number Publication Date
JPH04363775A true JPH04363775A (en) 1992-12-16

Family

ID=12092068

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2277691A Pending JPH04363775A (en) 1991-01-23 1991-01-23 Method for three-dimensional display at high speed

Country Status (1)

Country Link
JP (1) JPH04363775A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010152609A (en) * 2008-12-25 2010-07-08 Dainippon Printing Co Ltd Voxel array visualization device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010152609A (en) * 2008-12-25 2010-07-08 Dainippon Printing Co Ltd Voxel array visualization device

Similar Documents

Publication Publication Date Title
US6369818B1 (en) Method, apparatus and computer program product for generating perspective corrected data from warped information
EP0638875B1 (en) A 3-dimensional animation generating apparatus and a method for generating a 3-dimensional animation
JPH0454682A (en) Method and device for three-dimensional picture processing
US4989142A (en) Three-dimensional images obtained from tomographic slices with gantry tilt
JP5866177B2 (en) Image processing apparatus and image processing method
CN110753954B (en) System and method for combining color 3D images
JPH08138078A (en) Image processing device
JPH02899A (en) Graphic display device and generation of three-dimensional image of object
JP4885042B2 (en) Image processing method, apparatus, and program
JP2022033344A (en) Oct retina image data rendering method and oct retina image data rendering device
JPH0528243A (en) Image-forming device
Udupa et al. 3D98: a turnkey system for the 3D display and analysis of medical objects in CT data
Petkov et al. Interactive visibility retargeting in vr using conformal visualization
JP2001202532A (en) Method for generating stereoscopic picture by using z buffer
US7031505B2 (en) Perspective with shear warp
JPWO2016098323A1 (en) Information processing apparatus, information processing method, and program
JP7013849B2 (en) Computer program, image processing device and image processing method
JPH04363775A (en) Method for three-dimensional display at high speed
US11120606B1 (en) Systems and methods for image texture uniformization for multiview object capture
US5821942A (en) Ray tracing through an ordered array
JP6443574B1 (en) Ray casting program, search control data, search control data generation method, and ray casting apparatus
JP7131080B2 (en) volume rendering device
JPH1031753A (en) Method for preparing three-dimensional image and medical image diagnostic device
CN107978015B (en) Acceleration method and device for self-adaptive real-time three-dimensional volume rendering
RU2681348C1 (en) Method of three-dimensional visualization of the internal structure of the investigated object in real time