JP2010152609A - Voxel array visualization device - Google Patents

Voxel array visualization device Download PDF

Info

Publication number
JP2010152609A
JP2010152609A JP2008329488A JP2008329488A JP2010152609A JP 2010152609 A JP2010152609 A JP 2010152609A JP 2008329488 A JP2008329488 A JP 2008329488A JP 2008329488 A JP2008329488 A JP 2008329488A JP 2010152609 A JP2010152609 A JP 2010152609A
Authority
JP
Japan
Prior art keywords
value
voxel
voxel array
luminance
array
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008329488A
Other languages
Japanese (ja)
Other versions
JP5245811B2 (en
Inventor
Toshio Motegi
敏雄 茂出木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2008329488A priority Critical patent/JP5245811B2/en
Publication of JP2010152609A publication Critical patent/JP2010152609A/en
Application granted granted Critical
Publication of JP5245811B2 publication Critical patent/JP5245811B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of Radiation (AREA)
  • Nuclear Medicine (AREA)
  • Image Generation (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a voxel array visualization device for suitably visualizing a voxel array obtained by nuclear medical diagnosis such as PET (Positron Emission Tomography) and SPECT (Single Photon Emission Computed Tomography) with a small processing loads. <P>SOLUTION: The voxel array visualization device includes steps of: calculating a viewing angle according to a set parameter (S1); arranging a voxel array in a three-dimensional coordinate system (S2); rotating the voxel array according to the calculated view angle (S3); projecting the voxel array by a Z-buffer method using a luminance frame and a Z buffer installed corresponding to the viewing angle (S4); applying shading (S5); and performing grayscale conversion according to a display output means (S6). <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、主としてPET、SPECTなど核医学診断等により得られたボクセル配列構成のボリュームデータを可視化する技術に関する。   The present invention relates to a technique for visualizing volume data of a voxel array configuration obtained mainly by nuclear medicine diagnosis such as PET and SPECT.

従来、生体内部の3次元的な構造を生体外から非侵襲的にセンシングして画像再構成により断面像を作成する映像化手法が主として医療分野で実用化されている。このような映像化手法には、生体外からX線を照射し、各組織のX線透過率をセンシングして画像を作成するCT(Computed Tomography)、生体外から高周波磁場を照射し、各組織の水分子から放射される電波をセンシングして画像を作成するMRI(Magnetic Resonance Imaging)、生体内に放射性化合物(トレーサ)を注入し、特定の組織に蓄積される化合物から放射されるガンマ線をセンシングして画像を作成するSPECT(Single Photon Emission Computed Tomography)またはPET(Positron Emission Tomography)の3通りがある。   2. Description of the Related Art Conventionally, an imaging technique for creating a cross-sectional image by image reconstruction by non-invasively sensing a three-dimensional structure inside a living body from outside the living body has been put to practical use mainly in the medical field. Such imaging methods include CT (Computed Tomography) that generates images by irradiating X-rays from outside the body, sensing the X-ray transmittance of each tissue, irradiating a high-frequency magnetic field from outside the body, MRI (Magnetic Resonance Imaging), which senses radio waves radiated from water molecules in water, injects radioactive compounds (tracers) into the body, and senses gamma rays emitted from compounds accumulated in specific tissues Then, there are three types of SPECT (Single Photo Emission Tomography) or PET (Positron Emission Tomography) for creating an image.

CTとMRIは組織のX線透過率や水分子の密度の相違から形状を映像化することができ、いわば生体内地図を作成するのに適している。これに対して、PET/SPECTは、特定の組織に蓄積される化合物の定量値を映像化することができ、地図に例えれば、地区別の交通量分布図を作成するのに適している。   CT and MRI can visualize the shape from the difference in the X-ray transmittance of tissues and the density of water molecules, and so are suitable for creating an in-vivo map. On the other hand, PET / SPECT can visualize a quantitative value of a compound accumulated in a specific tissue, and is suitable for creating a traffic distribution map for each area if compared to a map.

上記映像化手法は、いずれも断面像を作成でき、スキャニングヘッドを移動させたり、センサを多列化することにより、連続した複数の断面像で構成されるボクセル画像を作成でき、更に、一定時間ごとに反復スキャンすればボクセル動画も作成できる。しかし、収集された膨大な断面像が並べられても、生体内の立体構造を一瞥するのは難しい。そこで、CT、MRIについては、ボクセル画像に対してボリュームレンダリングを行い、可視化する手法が提案されている(特許文献1参照)。   All of the above imaging methods can create cross-sectional images, and voxel images composed of multiple continuous cross-sectional images can be created by moving the scanning head or using multiple sensors. A voxel movie can be created by repeatedly scanning each time. However, even if a large number of collected cross-sectional images are arranged, it is difficult to glance at the three-dimensional structure in the living body. Therefore, for CT and MRI, a technique has been proposed in which volume rendering is performed on a voxel image to visualize it (see Patent Document 1).

そのため、PETについては、CTまたはMRIで形状を描写した上に、PETの定量値を重ねる合成手法が開発され、PET−CTという双方の画像を同時にスキャニングできる装置も開発された(特許文献2参照)。
特公平7−120434号公報 特表2005−518915号公報
Therefore, with regard to PET, a composition method has been developed in which the shape is drawn by CT or MRI and the quantitative values of PET are superimposed, and an apparatus capable of simultaneously scanning both images of PET-CT has also been developed (see Patent Document 2). ).
Japanese Patent Publication No.7-120434 JP 2005-518915 A

しかしながら、上記特許文献1のようなボリュームレンダリングをPET/SPECTから得られた情報に対して適用した場合、形状に関する情報が欠落しているため、従来の位置関係を把握し難い映像になってしまうという問題がある。また、このボリュームレンダリングの標準的なアルゴリズムであるレイキャスティング法は計算負荷が大きいという問題もある。   However, when volume rendering as described in Patent Document 1 is applied to information obtained from PET / SPECT, the information regarding the shape is missing, so that it is difficult to grasp the conventional positional relationship. There is a problem. In addition, the ray casting method, which is a standard algorithm for volume rendering, has a problem that the calculation load is heavy.

また、上記特許文献2のような合成手法は非常に計算負荷が大きく、リアルタイム再生を行うためには専用のミニスーパーコンピュータを必要とする(PETとCTの装置自体が大掛かりなため、現状、計算負荷はあまり問題視されていない。)。上記特許文献2のような合成手法は、CT等の情報がなく、PET単独の情報しか得られない場合には、人体の形状を把握可能に映像化することは困難であるという問題もある。   In addition, the synthesis method as described in Patent Document 2 has a very large calculation load, and a dedicated mini supercomputer is required to perform real-time reproduction (the PET and CT apparatuses themselves are large-scale, so the current calculation The load is not considered as a problem.) The synthesis method as described in Patent Document 2 has a problem that it is difficult to visualize the shape of the human body when there is no information such as CT and only PET information is obtained.

そこで、本発明は、PET、SPECTなど核医学診断等により得られたボクセル配列を少ない処理負荷で、好適に可視化することが可能なボクセル配列可視化装置を提供することを課題とする。   Accordingly, an object of the present invention is to provide a voxel array visualization device that can suitably visualize a voxel array obtained by nuclear medicine diagnosis such as PET and SPECT with a small processing load.

上記課題を解決するため、本発明では、3次元座標系にボクセル値が定義されたボクセル配列に対して、指定されたアングルで前記ボクセル配列を2次元平面に投影した投影画像データを作成するための可視化装置であって、2次元座標系に輝度値と深さZ値を蓄積するための輝度値バッファおよびZバッファを同一の画素サイズで設定する画像バッファ設定手段と、前記ボクセル配列のボクセルに対して指定されたアングルで3次元座標系上で回転処理を実行する回転処理手段と、回転処理実行後の(x,y,z)座標に対応する各ボクセル値V(x,y,z)について、z値がZバッファに記録された値よりも視点に近い値を有する場合に限り当該z値でZバッファを更新しながら、前記輝度値バッファ上の対応するピクセル(x,y)に各z値に応じたボクセル値を反映させる処理を実行し、前記輝度値バッファのピクセル値V(x,y)を算出する投影処理手段と、前記投影処理手段により算出された前記輝度値バッファ上の各ピクセル値を表示手段の出力階調に合わせるために所定の演算を行う階調変換手段を有するボクセル配列可視化装置を提供する。   In order to solve the above-described problems, the present invention creates projection image data obtained by projecting a voxel array on a two-dimensional plane at a specified angle with respect to a voxel array in which voxel values are defined in a three-dimensional coordinate system. An image buffer setting means for setting a luminance value buffer and a Z buffer for storing a luminance value and a depth Z value in a two-dimensional coordinate system with the same pixel size, and a voxel in the voxel array. Rotation processing means for executing rotation processing on a three-dimensional coordinate system with an angle specified for each, and each voxel value V (x, y, z) corresponding to the (x, y, z) coordinates after execution of the rotation processing Only if the z value has a value closer to the viewpoint than the value recorded in the Z buffer, the corresponding pixel (x, y) on the luminance value buffer is updated while updating the Z buffer with the z value. Projection processing means for calculating a pixel value V (x, y) of the brightness value buffer by executing a process for reflecting a voxel value corresponding to each z value; and on the brightness value buffer calculated by the projection processing means There is provided a voxel array visualizing device having gradation converting means for performing a predetermined calculation in order to match each pixel value with the output gradation of the display means.

本発明によれば、ボクセル配列を2次元平面に投影する際に、2次元平面と直行するz軸方向の値を保持するZバッファを用意し、投影するボクセルのz値がZバッファに記録された値よりも視点に近い値を有する場合に限り当該z値でZバッファを更新しながら、ボクセルのz値が視点に近い値を有する場合と、視点から遠い値を有する場合により反映させる度合いを変えて、ボクセル値をピクセル値に反映させるようにしたので、少ない処理負荷で高速にボリュームデータを投影した投影画像を作成することが可能となる。   According to the present invention, when projecting a voxel array onto a two-dimensional plane, a Z buffer that holds a value in the z-axis direction orthogonal to the two-dimensional plane is prepared, and the z value of the projected voxel is recorded in the Z buffer. Only when the value is closer to the viewpoint than the measured value, the Z buffer is updated with the z value, and the degree of reflection is reflected depending on whether the z value of the voxel has a value close to the viewpoint or a value far from the viewpoint. In other words, the voxel value is reflected in the pixel value, so that it is possible to create a projection image in which volume data is projected at high speed with a small processing load.

本発明によれば、少ない処理負荷で高速にボリュームデータを投影した投影画像を作成することが可能となる。   According to the present invention, it is possible to create a projection image in which volume data is projected at high speed with a small processing load.

以下、本発明の好適な実施形態について図面を参照して詳細に説明する。
(1.装置構成)
まず、本発明に係るボクセル配列可視化装置の構成について説明する。図1は本発明に係るボクセル配列可視化装置の構成図である。図1において、10はボクセル配列記憶手段、20はボクセル変換処理部、30はピクセル変換処理部、40は画像表示手段、50はパラメータ設定手段である。
DESCRIPTION OF EMBODIMENTS Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings.
(1. Device configuration)
First, the configuration of the voxel array visualization device according to the present invention will be described. FIG. 1 is a configuration diagram of a voxel array visualization device according to the present invention. In FIG. 1, 10 is a voxel array storage unit, 20 is a voxel conversion processing unit, 30 is a pixel conversion processing unit, 40 is an image display unit, and 50 is a parameter setting unit.

ボクセル配列記憶手段10は、PET、SPECTなどの核医学診断装置により得られた三次元配列(ボクセル配列)のボリュームデータを記憶したものであり、コンピュータに内蔵または接続されたハードディスク等の記憶装置で実現される。ボクセル変換処理部20は、ボクセル配列を三次元のまま変換処理するものであり、空間内配置手段21、視点角算出手段22、回転処理手段23を有している。ピクセル変換処理部30は、ボクセル配列を二次元に変換して、二次元画像として処理するものであり、投影処理手段31、陰影処理手段32、階調変換手段33を有している。画像表示手段40は、ピクセル変換処理部30により得られた結果である輝度フレームデータを表示出力するものであり、液晶ディスプレイその他の表示出力装置により実現される。パラメータ設定手段50は、ボクセル配列に対する処理を特定するためのパラメータを設定するものであり、キーボード、マウス等により実現される。図1に示したボクセル配列可視化装置は、現実には汎用のコンピュータに専用のプログラムを組み込むことにより実現される。   The voxel array storage means 10 stores volume data of a three-dimensional array (voxel array) obtained by a nuclear medicine diagnostic apparatus such as PET or SPECT, and is a storage device such as a hard disk built in or connected to a computer. Realized. The voxel conversion processing unit 20 converts the voxel array in a three-dimensional manner, and includes an in-space arrangement unit 21, a viewpoint angle calculation unit 22, and a rotation processing unit 23. The pixel conversion processing unit 30 converts the voxel array into a two-dimensional image and processes it as a two-dimensional image, and includes a projection processing unit 31, a shadow processing unit 32, and a gradation conversion unit 33. The image display means 40 displays and outputs the luminance frame data that is the result obtained by the pixel conversion processing unit 30, and is realized by a liquid crystal display or other display output device. The parameter setting means 50 sets parameters for specifying processing for the voxel array, and is realized by a keyboard, a mouse, or the like. The voxel array visualization apparatus shown in FIG. 1 is actually realized by incorporating a dedicated program into a general-purpose computer.

ボクセル配列記憶手段10に記憶されたボクセル配列のボリュームデータについて説明する。ボリュームデータは、PET、SPECTなどの核医学診断装置により人体を撮像することにより得られたボクセル配列データである。本実施形態で用いるボリュームデータは、128×128×47画素で、時系列に61回撮像して得られたものとなっている。図2に、本実施形態で用いるボリュームデータの構成を模式的に示す。図2の例では、1つの矩形がXY断面における断面画像を示している。例えば人体頭部の場合、このXY断面画像が同一時刻(T)においてZ軸方向(通常、人体の体軸方向)に47個存在し、このXYZのボクセル配列(三次元配列)が異なる61の時点(T)に対応する数だけ存在する。したがって、時刻Tを特定すると、その時刻における128×128×47ボクセルのボクセル配列が得られることになる。   The volume data of the voxel array stored in the voxel array storage means 10 will be described. The volume data is voxel array data obtained by imaging a human body with a nuclear medicine diagnostic apparatus such as PET or SPECT. The volume data used in the present embodiment is 128 × 128 × 47 pixels and is obtained by imaging 61 times in time series. FIG. 2 schematically shows the configuration of volume data used in the present embodiment. In the example of FIG. 2, one rectangle indicates a cross-sectional image in the XY cross section. For example, in the case of a human head, 47 XY cross-sectional images exist in the Z-axis direction (usually in the body axis direction of the human body) at the same time (T), and 61 XYZ voxel arrays (three-dimensional arrays) are different. There are a number corresponding to the time (T). Therefore, when the time T is specified, a voxel array of 128 × 128 × 47 voxels at that time is obtained.

(2.処理動作)
次に、本発明に係るボクセル配列可視化装置の処理動作について説明する。まず、利用者は、パラメータ設定手段50を利用してパラメータの設定を行う。具体的なパラメータとして、ボリュームデータの時刻Tと視点角の設定を行う。時刻Tは、処理対象とすべきボリュームデータを特定するものである。例えば、図2の例では、時刻Tを特定することにより、61個の三次元配列の中から処理対象とする三次元配列が1つに定まる。視点角パラメータとしては、XY平面での回転角Rxy、XZ平面での回転角Rxz、YZ平面での回転角Ryzの3種を設定する。視点角パラメータは、初期位置の視点角、最終位置の視点角を指定するとともに、初期位置から最終位置までのフレーム数を指定することにより設定される。
(2. Processing operation)
Next, the processing operation of the voxel array visualization device according to the present invention will be described. First, the user uses the parameter setting unit 50 to set parameters. As specific parameters, time T and viewpoint angle of volume data are set. Time T specifies volume data to be processed. For example, in the example of FIG. 2, by specifying the time T, one three-dimensional array to be processed is determined from 61 three-dimensional arrays. As the viewpoint angle parameter, three types of rotation angle Rxy on the XY plane, rotation angle Rxz on the XZ plane, and rotation angle Ryz on the YZ plane are set. The viewpoint angle parameter is set by designating the viewpoint angle at the initial position and the viewpoint angle at the final position and the number of frames from the initial position to the final position.

図3は、パラメータ設定後の、ボクセル配列可視化装置の処理動作の概要を示すフローチャートである。パラメータが設定されると、ボクセル配列可視化装置では、まず、視点角算出手段22が、設定されたパラメータに従って視点角を算出する。具体的には、初期フレームを1、視点角パラメータをRxy1、Rxz1、Ryz1とし、最終フレームをFm(指定されたフレーム数)、視点角パラメータをRxy2、Rxz2、Ryz2とした場合、視点角算出手段22は、以下の〔数式1〕に従った処理を実行することにより、各フレームFにおける視点角Rxy、Rxz、Ryzを算出する。   FIG. 3 is a flowchart showing an outline of the processing operation of the voxel array visualization device after parameter setting. When the parameters are set, in the voxel array visualization device, first, the viewpoint angle calculation unit 22 calculates the viewpoint angles according to the set parameters. Specifically, when the initial frame is 1, the viewpoint angle parameters are Rxy1, Rxz1, and Ryz1, the final frame is Fm (specified number of frames), and the viewpoint angle parameters are Rxy2, Rxz2, and Ryz2, the viewpoint angle calculation means 22 calculates viewpoint angles Rxy, Rxz, and Ryz in each frame F by executing processing according to the following [Equation 1].

〔数式1〕
Rxy=(Rxy2−Rxy1)・(F−1)/(Fm−1)+Rxy1
Rxz=(Rxz2−Rxz1)・(F−1)/(Fm−1)+Rxz1
Ryz=(Ryz2−Ryz1)・(F−1)/(Fm−1)+Ryz1
[Formula 1]
Rxy = (Rxy2-Rxy1). (F-1) / (Fm-1) + Rxy1
Rxz = (Rxz2-Rxz1). (F-1) / (Fm-1) + Rxz1
Ryz = (Ryz2-Ryz1). (F-1) / (Fm-1) + Ryz1

なお、〔数式1〕において、Fはフレーム番号を示す変数であり、1〜Fmの範囲の整数値をとる。最初は、1フレーム目の視点角を算出することになるので、視点角算出手段22は、F=1として、上記〔数式1〕に従った処理を実行し、視点角Rxy、Rxz、Ryzを算出する。   In [Formula 1], F is a variable indicating a frame number and takes an integer value in the range of 1 to Fm. At first, since the viewpoint angle of the first frame is calculated, the viewpoint angle calculation means 22 performs processing according to the above [Equation 1] with F = 1, and sets the viewpoint angles Rxy, Rxz, Ryz. calculate.

パラメータ設定手段50により視点角Rxy、Rxz、Ryzの設定が行われたら、次に、空間内配置手段21が、ボリュームデータの3次元座標系(3次元空間内)への配置を行う(S2)。具体的には、ボクセル配列のサイズを(Sx,Sy,Sz)、Z軸方向のXY座標に対するスケーリング比率をγとすると、時刻TのSx×Sy×Sz個全てのボクセル(x,y,z)を、以下の〔数式2〕のようにして変換し、配置する。   After setting the viewpoint angles Rxy, Rxz, and Ryz by the parameter setting unit 50, the in-space arrangement unit 21 arranges the volume data in the three-dimensional coordinate system (in the three-dimensional space) (S2). . Specifically, if the size of the voxel array is (Sx, Sy, Sz) and the scaling ratio with respect to the XY coordinates in the Z-axis direction is γ, all Sx × Sy × Sz voxels (x, y, z) at time T ) Is converted and arranged as in the following [Equation 2].

〔数式2〕
(x,y,z)→(x−Sx/2,y−Sy/2,(z−Sz/2)γ)
[Formula 2]
(X, y, z) → (x-Sx / 2, y-Sy / 2, (z-Sz / 2) γ)

〔数式2〕の例では、ボクセル配列の中央が(0,0,0)の原点に位置するように配置を行っている。また、z座標については係数γを乗じているが、これは、スキャナ装置のベッド移動方向の検出器の分解能が断面方向の分解能と一致せず、一般に前者が後者に比べ粗くなることから、ボクセル配列の各ボクセルを空間的に歪の無い立方体形状に見せるため、z値のとり得る範囲をx座標、y座標と合わせるためのものである。例えば、128×128×47ボクセルのボクセル配列を用いる場合、γ=2程度に設定する。γ=2に設定することにより、x、yとの比率は、128:94となり、完全ではないが、各ボクセルは立方体に近い状態となる。ただし、本例のようにスキャンされたボクセル配列が頭部である場合、全体のボクセル配列自体は頭部の幾何形状と相似形になり、γ係数を乗じた後のボクセル配列の形状は一般にZ方向に長めの直方体になる。また、本例のように、128×128×47ボクセルであっても、z方向を、x,y方向と同じ間隔で表示する必要性がなければ、スケーリング比率γを乗じなくても良い。通常、PET、SPECTなどの核医学診断装置により得られたボリュームデータは、x,y,zの各座標が1以上の整数値として設定されているため、本実施形態では、上記〔数式2〕に従った処理を実行しているが、ボクセル配列記憶手段10に記憶されたボリュームデータの中心が(0,0,0)に設定されていれば、上記〔数式2〕に従った処理を実行する必要はない。   In the example of [Formula 2], the arrangement is performed so that the center of the voxel array is located at the origin of (0, 0, 0). The z-coordinate is multiplied by a coefficient γ. This is because the resolution of the detector in the bed moving direction of the scanner device does not match the resolution in the cross-sectional direction, and the former is generally coarser than the latter. In order to make each voxel of the array look like a cubic shape without any spatial distortion, the range that the z value can take is matched with the x coordinate and the y coordinate. For example, when a voxel array of 128 × 128 × 47 voxels is used, γ = 2 is set. By setting γ = 2, the ratio of x and y becomes 128: 94, which is not perfect, but each voxel is close to a cube. However, when the scanned voxel array is the head as in this example, the entire voxel array itself is similar to the geometric shape of the head, and the shape of the voxel array after multiplying by the γ coefficient is generally Z. It becomes a long rectangular parallelepiped in the direction. Further, as in this example, even if it is 128 × 128 × 47 voxels, it is not necessary to multiply the scaling ratio γ if it is not necessary to display the z direction at the same interval as the x and y directions. Usually, volume data obtained by a nuclear medicine diagnostic apparatus such as PET or SPECT is set such that each coordinate of x, y, and z is an integer value of 1 or more. If the center of the volume data stored in the voxel array storage means 10 is set to (0, 0, 0), the process according to [Formula 2] is executed. do not have to.

次に、ボクセル配列回転手段23が、視点位置の変更に伴うボクセル配列の回転を行う(S3)。具体的には、時刻TのSx×Sy×Sz個全てのボクセルV(x,y,z)に対して、設定されたXY面、XZ面、YZ面での回転角Rxy、Rxz、Ryz(各角度の単位をラジアンとする)を用いて、以下の〔数式3〕に従った処理を実行することにより変換する。なお、〔数式3〕第1式における(x,y,z)は〔数式2〕による座標変換後のものであり、第2式における(x,y,z)は第1式による座標変換後のものであり、第3式における(x,y,z)は第2式による座標変換後のものである。したがって、〔数式3〕に示す3つの式の処理順序により処理結果が異なる。本実施形態では、以下に示した第1式(XY平面での回転)、第2式(XZ平面での回転)、第3式(YZ平面での回転)の順序で実行を行うが、必ずしもこの順序で実行する必要はなく、他の順序で実行しても良い。   Next, the voxel array rotating unit 23 rotates the voxel array in accordance with the change of the viewpoint position (S3). Specifically, with respect to all Sx × Sy × Sz voxels V (x, y, z) at time T, rotation angles Rxy, Rxz, Ryz (with respect to the set XY plane, XZ plane, and YZ plane) are set. The unit of each angle is radians), and the conversion is performed by executing the processing according to the following [Equation 3]. [Expression 3] (x, y, z) in the first expression is after the coordinate conversion by [Expression 2], and (x, y, z) in the second expression is after the coordinate conversion by the first expression. (X, y, z) in the third equation is after the coordinate conversion by the second equation. Therefore, the processing results differ depending on the processing order of the three formulas shown in [Formula 3]. In this embodiment, execution is performed in the order of the following first formula (rotation on the XY plane), second formula (rotation on the XZ plane), and third formula (rotation on the YZ plane). It is not necessary to execute in this order, and it may be executed in another order.

〔数式3〕
(x,y,z)→(x・cosRxy+y・sinRxy,−x・sinRxy+y・cosRxy,z)
(x,y,z)→(x・cosRxz+z・sinRxz,y,−x・sinRxz+z・cosRxz)
(x,y,z)→(x,y・cosRyz+z・sinRyz,−y・sinRyz+z・cosRyz)
[Formula 3]
(X, y, z) → (x · cosRxy + y · sinRxy, −x · sinRxy + y · cosRxy, z)
(X, y, z) → (x · cosRxz + z · sinRxz, y, −x · sinRxz + z · cosRxz)
(X, y, z) → (x, y · cosRyz + z · sinRyz, −y · sinRyz + z · cosRyz)

ボクセル配列回転手段23による回転処理を実行することにより、ボクセル変換処理部20による処理が終わったら、次に、ピクセル変換処理部30による処理を開始する。まず、投影処理手段31が、3次元のボクセル配列を2次元のフレームに投影する処理を行う(S4)。具体的には、ボクセル配列アドレスのフレームアドレスへの変換と、Zバッファ法の実行を行う。フレームアドレスへの変換は、レンダリングするフレームサイズSfx×Sfyに対応させるため、Sfx×Sfyの輝度フレームB(x´,y´)(整数値)とZバッファZ(x´,y´)(実数値)をコンピュータのメモリ内に準備する。輝度フレームBの各ピクセルの輝度値は初期状態では、全ピクセルにおいてB(x´,y´)=0、ZバッファZの各ピクセルの値は初期状態では、全ピクセルにおいてZ(x´,y´)=−∞とする。なお、“−∞”は、理論的な値であり、現実に初期設定する際には、Z(x´,y´)として絶対値が十分に大きい負値を設定する。   When the processing by the voxel conversion processing unit 20 is completed by executing the rotation processing by the voxel array rotation means 23, the processing by the pixel conversion processing unit 30 is started next. First, the projection processing means 31 performs a process of projecting a three-dimensional voxel array onto a two-dimensional frame (S4). Specifically, the voxel array address is converted into a frame address and the Z buffer method is executed. Since the conversion to the frame address corresponds to the frame size Sfx × Sfy to be rendered, the luminance frame B (x ′, y ′) (integer value) of Sfx × Sfy and the Z buffer Z (x ′, y ′) (actual) Value) in the computer's memory. The luminance value of each pixel of the luminance frame B is B (x ′, y ′) = 0 in all pixels in the initial state, and the value of each pixel in the Z buffer Z is Z (x ′, y in all pixels in the initial state. ′) = − ∞. Note that “−∞” is a theoretical value, and when it is actually initialized, a negative value having a sufficiently large absolute value is set as Z (x ′, y ′).

輝度フレームB、ZバッファZの初期設定が終わったら、投影処理手段31は、以下の〔数式4〕に従った処理を実行し、三次元座標値上のボクセル配列の各ボクセル(x,y,z)に対応するフレームアドレス(x´,y´)を求める。フレームアドレスは、輝度フレームB、ZバッファZにおいて共通である。   When the initial setting of the luminance frame B and the Z buffer Z is completed, the projection processing unit 31 executes processing according to the following [Equation 4], and each voxel (x, y, A frame address (x ′, y ′) corresponding to z) is obtained. The frame address is common to the luminance frame B and the Z buffer Z.

〔数式4〕
(x,y,z)→(x+Sfx/2,y+Sfy/2,z)
[Formula 4]
(X, y, z) → (x + Sfx / 2, y + Sfy / 2, z)

輝度フレームB、ZバッファZのフレームアドレスは、ともにx座標、y座標が0以上の整数値であるため、上記〔数式4〕においては、それぞれSfx/2、Sfy/2を加算している。したがって、x´=x+Sfx/2、y´=y+Sfy/2となる。   Since both the frame address of the luminance frame B and the Z buffer Z are integer values having x and y coordinates of 0 or more, Sfx / 2 and Sfy / 2 are added in the above [Equation 4], respectively. Therefore, x ′ = x + Sfx / 2 and y ′ = y + Sfy / 2.

さらに、投影処理手段31は、0〜1の実数値をとる透過率αを定義して、Sx×Sy×Sz個全てのボクセル(x´,y´,z)に対して、いわゆるZバッファ法を実行する。具体的には、投影処理手段31は、以下の〔数式5〕に従った処理を実行する。   Further, the projection processing means 31 defines a transmittance α that takes a real value from 0 to 1, and performs so-called Z buffer method for all Sx × Sy × Sz voxels (x ′, y ′, z). Execute. Specifically, the projection processing unit 31 executes processing according to the following [Equation 5].

〔数式5〕
1)z>Z(x´,y´)の場合
B(x´,y´)←αB(x´,y´)/(z−Z(x´,y´))2+V(x´,y´,z)
Z(x´,y´)←z
2)z<Z(x´,y´)の場合
B(x´,y´)←B(x´,y´)+αV(x´,y´,z)/(z−Z(x´,y´))2
3)z=Z(x´,y´)の場合
B(x´,y´)←B(x´,y´)+V(x´,y´,z)
[Formula 5]
1) When z> Z (x ′, y ′) B (x ′, y ′) ← αB (x ′, y ′) / (z−Z (x ′, y ′)) 2 + V (x ′, y ', z)
Z (x ′, y ′) ← z
2) In the case of z <Z (x ′, y ′) B (x ′, y ′) ← B (x ′, y ′) + αV (x ′, y ′, z) / (z−Z (x ′, y ')) 2
3) When z = Z (x ′, y ′) B (x ′, y ′) ← B (x ′, y ′) + V (x ′, y ′, z)

上記〔数式5〕から明らかなように、ZバッファZ(x´,y´)については、z>Z(x´,y´)の場合、すなわち三次元空間におけるボクセルが、ZバッファZ(x´,y´)に記録されているz座標値よりもz軸方向において手前側(視点側)にあるときだけ、そのボクセルのz座標値により更新される。したがって、ZバッファZ(x´,y´)の値は、常に大きい値に更新されていく。z≦Z(x´,y´)の場合には、ZバッファZ(x´,y´)の値は、更新されない。   As is clear from the above [Equation 5], for the Z buffer Z (x ′, y ′), when z> Z (x ′, y ′), that is, the voxel in the three-dimensional space is represented by the Z buffer Z (x It is updated with the z-coordinate value of the voxel only when it is on the near side (viewpoint side) in the z-axis direction with respect to the z-coordinate value recorded in ', y'). Therefore, the value of the Z buffer Z (x ′, y ′) is constantly updated to a large value. When z ≦ Z (x ′, y ′), the value of the Z buffer Z (x ′, y ′) is not updated.

続いて、陰影処理手段32が、陰影付加処理を行う(S5)。具体的には、輝度フレームのSfx×Sfyの全ピクセルに対して、ZバッファZ(x´,y´)を参照してシェーディング輝度L(x´,y´)を計算し、既に計算されている輝度フレームBの各ピクセル(x´,y´)の値に乗算して、輝度フレームBの各ピクセル(x´,y´)の値を更新することにより陰影を付加する。   Subsequently, the shadow processing means 32 performs a shadow addition process (S5). Specifically, the shading luminance L (x ′, y ′) is calculated with reference to the Z buffer Z (x ′, y ′) for all pixels of Sfx × Sfy of the luminance frame, and has already been calculated. The value of each pixel (x ′, y ′) of the brightness frame B is multiplied and the value of each pixel (x ′, y ′) of the brightness frame B is updated to add a shadow.

ここで、シェーディング輝度L(x´,y´)の算出手法について説明する。ZバッファZ(x´,y´)のある点P(x´,y´)のシェーディング輝度L(x´,y´)を算出する場合を考えてみる。このとき、点Pのx軸方向の両隣、y軸方向の両隣の点を、そのz値を含めて三次元表現した点P-1,0(x´−l,y,zl)、P+1,0(x´+l,y´,zr)、P0,+1(x´,y´+l,zu)、P0,-1(x´,y´−l,zd)の4点を定義する。そして、x軸方向の2点のベクトルU=P+1,0−P-1,0=(2,0,zr−zl)、y軸方向の2点のベクトルV=P0,+1−P0,-1=(0,2,zu−zd)を算出する。 Here, a method for calculating the shading luminance L (x ′, y ′) will be described. Consider a case where the shading luminance L (x ′, y ′) of a point P (x ′, y ′) in the Z buffer Z (x ′, y ′) is calculated. At this time, the point P −1,0 (x′−l, y, zl), P + , which represents the point P adjacent to the point P in the x-axis direction and the point adjacent to the y-axis direction inclusive of the z value. 1,0 (x ′ + l, y ′, zr), P 0, + 1 (x ′, y ′ + l, zu), P 0, −1 (x ′, y′−l, zd) Define. The vector of two points in the x-axis direction U = P +1,0 -P -1,0 = ( 2,0, zr-zl), the vector V = P 0 of the two points in the y-axis direction, + 1 - P 0, −1 = (0,2, zu-zd) is calculated.

点Pにおける法線ベクトルNは、上記ベクトルUとベクトルVの外積として求められる。したがって、N=U×V=(−2(zr−zl),−2(zu−zd),4)=(zl−zr,zd−zu,2)となる。一方、シェーディング輝度L(x´,y´)と平行光源ベクトル、法線ベクトルの間では、以下の〔数式6〕に示す関係が成り立つ。なお、平行光源ベクトルは、事前に設定されるものであり、本実施形態では、(1,1,1)として設定されている。   A normal vector N at the point P is obtained as an outer product of the vector U and the vector V. Therefore, N = U × V = (− 2 (zr−zl), −2 (zu−zd), 4) = (zl−zr, zd−zu, 2). On the other hand, the relationship shown in [Formula 6] below holds between the shading luminance L (x ′, y ′) and the parallel light source vector and normal vector. The parallel light source vector is set in advance, and is set as (1, 1, 1) in the present embodiment.

〔数式6〕
L(x´,y´)・cosθ=(平行光源ベクトルと法線ベクトルNの内積)
[Formula 6]
L (x ′, y ′) · cos θ = (inner product of parallel light source vector and normal vector N)

上記の例では、L(x´,y´)・cosθ=(zl−zr+zd−zu+2)/[(zl−zr)2+(zd−zu)2+4)]1/2/31/2となる。したがって、シェーディング輝度計算手段33は、この数式に従った処理を実行することにより、各ピクセル(x´,y´)におけるシェーディング輝度L(x´,y´)を算出する。上述のように、シェーディング輝度計算手段33は、算出された各ピクセル(x´,y´)のシェーディング輝度L(x´,y´)を、輝度フレームB上の各ピクセル(x´,y´)の輝度値に乗じ、輝度フレームB上の各ピクセル(x´,y´)の輝度値を、陰影を含む値として更新する。 In the above example, L (x ′, y ′) · cos θ = (zl−zr + zd−zu + 2) / [(zl−zr) 2 + (zd−zu) 2 +4)] 1/2 / 3 1/2 Become. Therefore, the shading luminance calculation means 33 calculates the shading luminance L (x ′, y ′) at each pixel (x ′, y ′) by executing processing according to this mathematical expression. As described above, the shading luminance calculation unit 33 uses the calculated shading luminance L (x ′, y ′) of each pixel (x ′, y ′) to each pixel (x ′, y ′) on the luminance frame B. ) And the luminance value of each pixel (x ′, y ′) on the luminance frame B is updated as a value including a shadow.

次に、階調変換手段32が、輝度フレームの階調変換を行う(S6)。具体的には、輝度フレームBのSfx×Sfyの各ピクセル値B(x´,y´)に対して、適当な係数βを設定し、以下の〔数式7〕に従った処理を実行し、0〜255の値をもつ256階調の整数値に変換する。βの具体的な決定は、実際にボリュームデータの表示出力を数回行い、輝度フレームB上の画素(x´,y´)の大部分の画素が256未満となるように経験的に探し出すことにより行う。また、幾つかの画素は256を超えてもよいが、それらの画素値は一律255に制限する。   Next, the gradation conversion means 32 performs gradation conversion of the luminance frame (S6). Specifically, an appropriate coefficient β is set for each pixel value B (x ′, y ′) of Sfx × Sfy of the luminance frame B, and a process according to the following [Equation 7] is executed. It is converted into an integer value of 256 gradations having a value of 0-255. The specific determination of β is to actually display and output the volume data several times and to empirically find that most of the pixels (x ′, y ′) on the luminance frame B are less than 256. To do. Some pixels may exceed 256, but their pixel values are limited to 255 uniformly.

〔数式7〕
B(x´,y´)>0の場合、B(x´,y´)=256・β・B(x´,y´)+1
B(x´,y´)≦0の場合、B(x´,y´)=0
[Formula 7]
When B (x ′, y ′)> 0, B (x ′, y ′) = 256 · β · B (x ′, y ′) + 1
When B (x ′, y ′) ≦ 0, B (x ′, y ′) = 0

このようにして輝度フレームB上のピクセルに得られた輝度値の集合が、投影画像データとなる。得られた投影画像データは、画像表示手段40に表示され、ボリュームデータが投影された状態が確認できる。1つの視点角における投影処理が終わったら、ボクセル配列可視化装置は、全ての視点角について処理を終了したかどうかを判断する。具体的には、フレームの番号を示すFが指定されたフレーム数Fmに達したかどうかを判断する。判断の結果、FがFm未満である場合、Fの値を1つ加算した後S1に戻り、次のフレームの処理を行う。   A set of luminance values obtained for the pixels on the luminance frame B in this way becomes projection image data. The obtained projection image data is displayed on the image display means 40, and the state where the volume data is projected can be confirmed. When the projection processing at one viewpoint angle is completed, the voxel array visualization device determines whether the processing has been completed for all viewpoint angles. Specifically, it is determined whether or not F indicating the frame number has reached the designated number of frames Fm. If F is less than Fm as a result of the determination, the value of F is incremented by one, and then the process returns to S1 to process the next frame.

以上、本発明の好適な実施形態について説明したが、本発明は、上記実施形態に限定されず、種々の変形が可能である。例えば、上記実施形態では、シェーディング輝度計算手段33により、シェーディング輝度L(x´,y´)を計算し、これを輝度フレームの各画素値B(x´,y´)に乗じるようにしたが、必ずしもシェーディング輝度L(x´,y´)を乗じなくても良い。シェーディング輝度を乗じた場合、陰影が付加され、より立体的な投影画像の作成が可能となるが、陰影が付加されなくても、本発明のボクセル配列可視化装置は、ボクセル配列から投影データを高速に作成するという効果を有する。   The preferred embodiment of the present invention has been described above. However, the present invention is not limited to the above embodiment, and various modifications can be made. For example, in the above-described embodiment, the shading luminance calculation unit 33 calculates the shading luminance L (x ′, y ′) and multiplies each pixel value B (x ′, y ′) of the luminance frame by this. However, it is not always necessary to multiply the shading luminance L (x ′, y ′). When shading brightness is multiplied, shadows are added, making it possible to create a more stereoscopic projection image. However, the voxel array visualization device of the present invention can quickly project projection data from a voxel array even if shadows are not added. Has the effect of creating.

また、上記実施形態では、視点角を変化させて投影する処理を順次行うことにより、ある固定した位置の配置されたボクセル配列を、周りを動きながら見ているような映像が得られることになる。この場合、各フレームの投影処理が遅くなると、動きが鈍い動画になるため、本発明による高速な処理が効果を発揮する。視点角を変化させず、指定された1つの視点角だけで表示した場合であっても、従来の投影処理に比べて、ボクセル配列から投影データを高速に作成するという効果は得られる。   Further, in the above embodiment, by sequentially performing the process of projecting while changing the viewpoint angle, it is possible to obtain an image as if the voxel array arranged at a certain fixed position is viewed while moving around. . In this case, if the projection processing of each frame is slowed down, the moving motion becomes dull and the high-speed processing according to the present invention is effective. Even when the display is performed with only one designated viewpoint angle without changing the viewpoint angle, the effect of creating projection data from the voxel array at a higher speed than the conventional projection processing can be obtained.

(3.時系列のデータ全体を処理対象とする場合)
上記実施形態では、時刻Tを特定した場合のボクセル配列を処理対象とした場合について説明したが、図2に示したような時系列のボクセル配列セット全てを処理対象とすることも可能である。この場合、フレーム1として時刻T=1のボクセル配列を投影して可視化し、フレーム2として時刻T=2のボクセル配列を投影して可視化するというように、順にフレームFmとして時刻T=Fm(図2の例では61)のボクセル配列を投影して可視化する処理までを行う。視点角は上記実施形態のように、変化させても良いし、固定させておいても良い。
(3. When processing the entire time-series data)
In the above embodiment, the case where the voxel array when the time T is specified is set as the processing target has been described, but it is also possible to set all time-series voxel array sets as shown in FIG. 2 as the processing target. In this case, the voxel array at time T = 1 is projected and visualized as frame 1, and the voxel array at time T = 2 is projected and visualized as frame 2, so that time T = Fm (frame FIG. In the example of 2, the processing up to the projection and visualization of the 61) voxel array is performed. The viewpoint angle may be changed as in the above embodiment, or may be fixed.

ボクセル配列セット全てを処理対象とする場合、基本的な処理の流れは、図3のフローチャートに示したものと同様であるが、S6の階調変換処理の後、処理全体を終了するかどうかの判断は、全時刻Tのボクセル配列の処理を終えたかどうかにより行われる。   When all voxel array sets are to be processed, the basic processing flow is the same as that shown in the flowchart of FIG. 3, but whether or not the entire processing is to be terminated after the gradation conversion processing in S6. The determination is made based on whether the processing of the voxel array at all times T has been completed.

本発明に係るボクセル配列可視化装置の構成図である。It is a block diagram of the voxel arrangement | sequence visualization apparatus which concerns on this invention. 本実施形態で用いるボリュームデータの構成を模式的に示す図である。It is a figure which shows typically the structure of the volume data used by this embodiment. ボクセル配列可視化装置の処理動作の概要を示すフローチャートである。It is a flowchart which shows the outline | summary of the processing operation of a voxel arrangement | sequence visualization apparatus.

符号の説明Explanation of symbols

10・・・ボクセル配列記憶手段
20・・・ボクセル変換処理部
21・・・空間内配置手段
22・・・視点角算出手段
23・・・ボクセル配列回転手段
30・・・ピクセル変換処理部
31・・・投影処理手段
32・・・陰影処理手段
33・・・階調変換手段
40・・・画像表示手段
50・・・パラメータ設定手段
DESCRIPTION OF SYMBOLS 10 ... Voxel arrangement | sequence storage means 20 ... Voxel conversion process part 21 ... Space arrangement means 22 ... View angle calculation means 23 ... Voxel arrangement rotation means 30 ... Pixel conversion process part 31. ..Projection processing means 32 ... shadow processing means 33 ... gradation conversion means 40 ... image display means 50 ... parameter setting means

Claims (7)

3次元座標系にボクセル値が定義されたボクセル配列に対して、指定された視点角に従って前記ボクセル配列を2次元平面に投影した投影画像データを作成するための可視化装置であって、
2次元座標系に輝度値を蓄積するための輝度フレームと、
前記輝度フレームと同一のピクセルサイズであって、深さZ値を蓄積するためのZバッファと、
前記ボクセル配列に対して、指定された視点角で3次元座標系上で回転処理を実行するボクセル配列回転手段と、
回転処理実行後の(x,y,z)座標に対応する各ボクセル値V(x,y,z)について、z値がZバッファに記録された値よりも視点に近い値を有する場合に限り当該z値でZバッファを更新しながら、前記輝度フレームの対応するピクセル(x´,y´)に各z値に応じたボクセル値を反映させる処理を実行し、前記輝度フレームの各ピクセルの輝度値V(x´,y´)を算出する投影処理手段と、
前記投影処理手段により算出された前記輝度フレームの各ピクセルの輝度値を表示手段の出力階調に合わせるために所定の演算を行う階調変換手段と、
を有することを特徴とするボクセル配列可視化装置。
A visualization device for creating projection image data obtained by projecting a voxel array on a two-dimensional plane according to a specified viewpoint angle with respect to a voxel array in which voxel values are defined in a three-dimensional coordinate system,
A luminance frame for accumulating luminance values in a two-dimensional coordinate system;
A Z buffer having the same pixel size as the luminance frame and storing a depth Z value;
Voxel array rotation means for executing rotation processing on a three-dimensional coordinate system at a specified viewing angle with respect to the voxel array;
For each voxel value V (x, y, z) corresponding to the (x, y, z) coordinates after execution of the rotation process, only when the z value has a value closer to the viewpoint than the value recorded in the Z buffer. While updating the Z buffer with the z value, a process of reflecting the voxel value corresponding to each z value to the corresponding pixel (x ′, y ′) of the luminance frame is performed, and the luminance of each pixel of the luminance frame Projection processing means for calculating a value V (x ′, y ′);
Gradation conversion means for performing a predetermined calculation in order to match the luminance value of each pixel of the luminance frame calculated by the projection processing means with the output gradation of the display means;
A voxel array visualization device characterized by comprising:
請求項1において、
前記投影処理手段により得られた輝度フレームの各ピクセルの輝度値について、当該ピクセルおよび周辺ピクセルの前記Zバッファの値に基づいて法線ベクトルを算出し、事前に設定された平行光源ベクトルとの内積として算出される当該画素の陰影輝度値を乗じる陰影処理手段をさらに有し、陰影処理手段による処理後の輝度フレームの各ピクセルの輝度値に対して、前記階調変換手段が処理を行うものであることを特徴とするボクセル配列可視化装置。
In claim 1,
For the luminance value of each pixel of the luminance frame obtained by the projection processing means, a normal vector is calculated based on the value of the Z buffer of the pixel and surrounding pixels, and the inner product with a preset parallel light source vector Further comprising a shadow processing means for multiplying the shadow luminance value of the pixel calculated as described above, and the gradation converting means performs processing on the luminance value of each pixel of the luminance frame processed by the shadow processing means. A voxel array visualization device characterized by being.
請求項1または請求項2において、
前記投影処理手段は、前記輝度フレーム上の対応するピクセル(x,y)に各z値に応じたボクセル値を反映させる際に、その時点におけるZバッファの値と前記z値の距離に基づいて反映させる値を定めることを特徴とするボクセル配列可視化装置。
In claim 1 or claim 2,
When the projection processing unit reflects the voxel value corresponding to each z value to the corresponding pixel (x, y) on the luminance frame, the projection processing unit is based on the distance between the Z buffer value and the z value at that time. A voxel array visualization device characterized by determining a value to be reflected.
請求項1から請求項3のいずれかにおいて、
前記視点角は、三次元座標系においてXY平面上の回転角、XZ平面上の回転角、YZ平面上の回転角の3種類の角度を設定することにより指定され、前記ボクセル配列回転手段は、設定された順序に従って前記3平面上の回転を順次行うことを特徴とするボクセル配列可視化装置。
In any one of Claims 1-3,
The viewpoint angle is specified by setting three kinds of angles, a rotation angle on the XY plane, a rotation angle on the XZ plane, and a rotation angle on the YZ plane in a three-dimensional coordinate system, and the voxel array rotation means is A voxel array visualization device that sequentially performs rotation on the three planes according to a set order.
請求項1から請求項4のいずれかにおいて、
前記視点角を時系列に連続的に変化させて複数指定する視点角算出手段をさらに有し、
指定された視点角について前記ボクセル配列回転手段が処理を実行することを特徴とするボクセル配列可視化装置。
In any one of Claims 1-4,
A view angle calculation means for continuously specifying the view angle in time series and designating a plurality of the view angles;
The voxel array visualization device, wherein the voxel array rotation means executes processing for a specified viewpoint angle.
請求項1から請求項5のいずれかにおいて、
あらかじめ時系列に複数セットのボクセル配列が定義されたボクセル配列セットの中から指定された時刻の範囲内で複数セットのボクセル配列を順次抽出し、前記抽出した複数の各ボクセル配列に対して処理を実行し、各ボクセル配列に対する輝度値を順次算出することを特徴とするボクセル配列可視化装置。
In any one of Claims 1-5,
A plurality of voxel arrays are sequentially extracted within a specified time range from a voxel array set in which a plurality of voxel arrays are defined in time series in advance, and processing is performed on each of the extracted voxel arrays. A voxel array visualization device that executes and sequentially calculates a luminance value for each voxel array.
コンピュータを、請求項1から請求項6のいずれかに記載のボクセル配列可視化装置として機能させるためのプログラム。   The program for functioning a computer as a voxel arrangement | sequence visualization apparatus in any one of Claims 1-6.
JP2008329488A 2008-12-25 2008-12-25 Voxel array visualization device Active JP5245811B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008329488A JP5245811B2 (en) 2008-12-25 2008-12-25 Voxel array visualization device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008329488A JP5245811B2 (en) 2008-12-25 2008-12-25 Voxel array visualization device

Publications (2)

Publication Number Publication Date
JP2010152609A true JP2010152609A (en) 2010-07-08
JP5245811B2 JP5245811B2 (en) 2013-07-24

Family

ID=42571636

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008329488A Active JP5245811B2 (en) 2008-12-25 2008-12-25 Voxel array visualization device

Country Status (1)

Country Link
JP (1) JP5245811B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2533055C1 (en) * 2013-09-27 2014-11-20 Общество С Ограниченной Ответственностью "Биомедицинские Технологии" Method of optimising maximum intensity projection technique for rendering scalar three-dimensional data in static mode, in interactive mode and in real time
WO2018043594A1 (en) 2016-08-30 2018-03-08 キヤノン株式会社 Image processing device, image processing method, image processing program, and impage processing system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04363775A (en) * 1991-01-23 1992-12-16 Hitachi Ltd Method for three-dimensional display at high speed
JPH07120434B2 (en) * 1992-01-29 1995-12-20 インターナショナル・ビジネス・マシーンズ・コーポレイション Method and apparatus for volume rendering
JPH08147496A (en) * 1994-11-21 1996-06-07 Hitachi Medical Corp Method and device for forming rotating image
JP2005518915A (en) * 2002-03-06 2005-06-30 シーメンス コーポレイト リサーチ インコーポレイテツド Visualization of fusion between volumes
JP2006000205A (en) * 2004-06-15 2006-01-05 Ziosoft Inc Projection image processing method, projection image processing program, and projection image processor

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04363775A (en) * 1991-01-23 1992-12-16 Hitachi Ltd Method for three-dimensional display at high speed
JPH07120434B2 (en) * 1992-01-29 1995-12-20 インターナショナル・ビジネス・マシーンズ・コーポレイション Method and apparatus for volume rendering
JPH08147496A (en) * 1994-11-21 1996-06-07 Hitachi Medical Corp Method and device for forming rotating image
JP2005518915A (en) * 2002-03-06 2005-06-30 シーメンス コーポレイト リサーチ インコーポレイテツド Visualization of fusion between volumes
JP2006000205A (en) * 2004-06-15 2006-01-05 Ziosoft Inc Projection image processing method, projection image processing program, and projection image processor

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2533055C1 (en) * 2013-09-27 2014-11-20 Общество С Ограниченной Ответственностью "Биомедицинские Технологии" Method of optimising maximum intensity projection technique for rendering scalar three-dimensional data in static mode, in interactive mode and in real time
WO2018043594A1 (en) 2016-08-30 2018-03-08 キヤノン株式会社 Image processing device, image processing method, image processing program, and impage processing system
US10997775B2 (en) 2016-08-30 2021-05-04 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and image processing system
US11494972B2 (en) 2016-08-30 2022-11-08 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and image processing system

Also Published As

Publication number Publication date
JP5245811B2 (en) 2013-07-24

Similar Documents

Publication Publication Date Title
JP4267598B2 (en) Image fusion processing method, image fusion processing program, and image fusion processing apparatus
JP5639739B2 (en) Method and system for volume rendering of multiple views
US10593099B2 (en) Transfer function determination in medical imaging
JP4233547B2 (en) Image display processing method
JP2009034521A (en) System and method for volume rendering data in medical diagnostic imaging, and computer readable storage medium
US8659602B2 (en) Generating a pseudo three-dimensional image of a three-dimensional voxel array illuminated by an arbitrary light source by a direct volume rendering method
US9596444B2 (en) Image processing system, apparatus, and method
JP2001524722A (en) Lighting of Volume Rendering Using Dot Product Method
US20050237336A1 (en) Method and system for multi-object volumetric data visualization
JPH08138078A (en) Image processing device
US9424680B2 (en) Image data reformatting
JP2016135252A (en) Medical image processing apparatus and medical image diagnostic apparatus
JP2006326312A (en) Simultaneous projection of multi-branched blood vessels and their context on single image
US9965875B2 (en) Virtual projection image method
JP5245811B2 (en) Voxel array visualization device
JP7003635B2 (en) Computer program, image processing device and image processing method
JP7223312B2 (en) volume rendering device
JP7131080B2 (en) volume rendering device
JP7206846B2 (en) volume rendering device
JP7167699B2 (en) volume rendering device
Gavrilov et al. General implementation aspects of the GPU-based volume rendering algorithm
EP4273809A1 (en) Technique for real-time rendering of medical images using virtual spherical light sources
JP6436258B1 (en) Computer program, image processing apparatus, and image processing method
JP7206617B2 (en) Color map optimization device and volume rendering device for tomographic image display
US20230386128A1 (en) Image clipping method and image clipping system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111021

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121218

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130312

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130325

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160419

Year of fee payment: 3