JP7013849B2 - Computer program, image processing device and image processing method - Google Patents

Computer program, image processing device and image processing method Download PDF

Info

Publication number
JP7013849B2
JP7013849B2 JP2017246756A JP2017246756A JP7013849B2 JP 7013849 B2 JP7013849 B2 JP 7013849B2 JP 2017246756 A JP2017246756 A JP 2017246756A JP 2017246756 A JP2017246756 A JP 2017246756A JP 7013849 B2 JP7013849 B2 JP 7013849B2
Authority
JP
Japan
Prior art keywords
voxel
value
voxels
opacity
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017246756A
Other languages
Japanese (ja)
Other versions
JP2019114035A (en
Inventor
敏雄 茂出木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2017246756A priority Critical patent/JP7013849B2/en
Publication of JP2019114035A publication Critical patent/JP2019114035A/en
Application granted granted Critical
Publication of JP7013849B2 publication Critical patent/JP7013849B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本開示は、コンピュータプログラム、画像処理装置及び画像処理方法に関する。 The present disclosure relates to computer programs, image processing devices and image processing methods .

医療分野においては、CT(Computed Tomography)、MRI(Magnetic Resonance Imaging)、PET(Positron Emission Tomography)などの医用画像診断機器により所定のスライス間隔で連続的に撮影され、DICOM(Digital Imaging and COmmunications in Medicine)形式で保管された2次元の断層画像に基づいて、臓器等の観察対象物を3次元的に可視化して画像診断支援、手術又は治療支援に役立てるための技術が開発されている。 In the medical field, it is continuously photographed at predetermined slice intervals by medical diagnostic imaging equipment such as CT (Computed Tomography), MRI (Magnetic Resonance Imaging), and PET (Positron Emission Tomography), and DICOM (Digital Imaging and COmmunications in Medicine). ) A technique has been developed for three-dimensionally visualizing an observation object such as an organ based on a two-dimensional tomographic image stored in the format to be useful for diagnostic imaging support, surgery or treatment support.

観察対象物の内部組織を3次元画像表示する代表的な手法としてボリュームレンダリング手法が知られている。ボリュームレンダリング手法としては、レイキャスティング及びテクスチャベースのレンダリングが知られている。特許文献1には、複数の断層画像を積層して3次元ボクセル空間を構築し、3次元ボクセル空間に対して任意の視点方向からレイ(仮想光線)を照射し、視線上にあるサンプリング点において色及び輝度値を視線に沿って累積計算するレイキャスティングが開示されている。具体的には、視点方向が3次元座標軸のZ軸と平行になるように座標変換を施し、座標変換後の3次元ボクセル空間に対して、Z軸方向にレイを照射し、XY平面上の投影面(スクリーン)に、投影結果をピクセル値として算出するものである。 A volume rendering method is known as a typical method for displaying a three-dimensional image of the internal structure of an observation object. Ray casting and texture-based rendering are known as volume rendering methods. In Patent Document 1, a plurality of tomographic images are stacked to construct a three-dimensional voxel space, and a ray (virtual ray) is applied to the three-dimensional voxel space from an arbitrary viewpoint direction at a sampling point on the line of sight. Raycasting is disclosed that cumulatively calculates color and brightness values along the line of sight. Specifically, coordinate transformation is performed so that the viewpoint direction is parallel to the Z axis of the three-dimensional coordinate axis, and a ray is applied to the three-dimensional boxel space after the coordinate transformation in the Z-axis direction on the XY plane. The projection result is calculated as a pixel value on the projection surface (screen).

また、特許文献2には、テクスチャマッピング機能とアルファブレンディング機能を用いてボリュームデータ全体をスライスデータの積み重ねで表現することにより、グラフィックスハードウェアのポリゴン表示機能を利用するテクスチャベースのレンダリングが開示されている。 Further, Patent Document 2 discloses texture-based rendering using the polygon display function of graphics hardware by expressing the entire volume data by stacking slice data using a texture mapping function and an alpha blending function. ing.

特開平11-175743号公報Japanese Unexamined Patent Publication No. 11-175743 特許第3589654号公報Japanese Patent No. 3589654

本開示は、斯かる事情に鑑みてなされたものであり、モアレを抑制することができるコンピュータプログラム、画像処理装置及び画像処理方法を明らかにする。 The present disclosure has been made in view of such circumstances, and clarifies a computer program, an image processing device, and an image processing method capable of suppressing moire.

本開示は、斯かる事情に鑑みてなされたものであり、モアレを抑制することができるコンピュータプログラム、画像処理装置、画像処理方法及びボクセルデータを明らかにする。 The present disclosure has been made in view of such circumstances, and clarifies a computer program, an image processing device, an image processing method, and voxel data capable of suppressing moire.

本願は上記課題を解決する手段を複数含んでいるが、その一例を挙げるならば、コンピュータプログラムは、コンピュータに、z軸方向に沿って所定間隔で撮像された複数のxy平面画像の画像データを取得する処理と、前記複数のxy平面画像それぞれの各画素に対応し、RGB値及び不透明度が定められたボクセルで構成されるボクセル構造体を生成する処理と、前記ボクセル構造体の不透明度が所定値である対象ボクセルに対して、該対象ボクセルの近傍に位置する近傍ボクセルのRGB値に基づいて、前記対象ボクセルのRGB値を補正する処理と、RGB値が補正されたボクセル構造体のボクセルで構成される3Dテクスチャ画像を生成する処理と、前記3Dテクスチャ画像に対して所定の変換を行って変換後3Dテクスチャ画像を生成する処理と、3次元空間のXY座標面上の四角形をZ軸方向に並べた積層四角形を設定する処理と、所定の視点からZ軸方向に平行な視線上の前記四角形のXY座標に対応する前記変換後3Dテクスチャ画像のボクセルのRGB値を前記ボクセルの不透明度に基づいて前記視点から遠い四角形の順にアルファブレンディングして得られたRGB値を、前記視線が投影面と交差する画素の画素値としてレンダリング画像を生成する処理とを実行させる。 The present application includes a plurality of means for solving the above problems, and to give an example thereof, a computer program causes a computer to obtain image data of a plurality of xy plane images captured at predetermined intervals along the z-axis direction. The process of acquiring, the process of generating a voxel structure composed of voxels having RGB values and opacity corresponding to each pixel of each of the plurality of xy plane images, and the opacity of the voxel structure are A process of correcting the RGB value of the target voxel based on the RGB value of the neighboring voxel located in the vicinity of the target voxel with respect to the target voxel having a predetermined value, and the voxel of the voxel structure in which the RGB value is corrected. A process of generating a 3D texture image composed of, a process of performing a predetermined conversion on the 3D texture image to generate a converted 3D texture image, and a Z-axis of a quadrangle on the XY coordinate plane in the three-dimensional space. The process of setting stacked voxels arranged in a direction and the RGB value of the voxel of the converted 3D texture image corresponding to the XY coordinates of the voxel on the line of sight parallel to the Z-axis direction from a predetermined viewpoint are the opacity of the voxel. The RGB values obtained by alpha blending in the order of the squares far from the viewpoint based on the above are executed as the pixel values of the pixels whose line of sight intersects the projection plane to generate a rendered image.

本開示によれば、モアレを抑制することができる。 According to the present disclosure, moire can be suppressed.

本実施の形態の画像処理装置としてのレイキャスティング装置の構成の一例を示すブロック図である。It is a block diagram which shows an example of the structure of the ray casting apparatus as the image processing apparatus of this embodiment. DICOM形式の断層画像の一例を示す模式図である。It is a schematic diagram which shows an example of the tomographic image of DICOM format. 本実施の形態のカラーマップデータの第1例を示す説明図である。It is explanatory drawing which shows the 1st example of the color map data of this embodiment. 本実施の形態のカラーマップデータの第2例を示す説明図である。It is explanatory drawing which shows the 2nd example of the color map data of this embodiment. 本実施の形態の3Dテクスチャマッピング装置による階調圧縮処理の一例を示す説明図である。It is explanatory drawing which shows an example of the gradation compression processing by the 3D texture mapping apparatus of this embodiment. 本実施の形態の3Dテクスチャマッピング装置による平滑化処理の一例を示す説明図である。It is explanatory drawing which shows an example of the smoothing process by the 3D texture mapping apparatus of this embodiment. 本実施の形態の3Dテクスチャマッピング装置による3Dテクスチャマッピングの概念を示す模式図である。It is a schematic diagram which shows the concept of 3D texture mapping by the 3D texture mapping apparatus of this embodiment. 本実施の形態の3Dテクスチャマッピング装置による3Dテクスチャマッピング処理の手順の一例を示すフローチャートである。It is a flowchart which shows an example of the procedure of the 3D texture mapping processing by the 3D texture mapping apparatus of this embodiment. 本実施の形態の3Dテクスチャマッピング装置による3Dテクスチャマッピング処理の手順の一例を示すフローチャートである。It is a flowchart which shows an example of the procedure of the 3D texture mapping processing by the 3D texture mapping apparatus of this embodiment. 本実施の形態の3Dテクスチャマッピング装置によるROIクリッピング領域外のボクセルの透明化処理の一例を示す説明図である。It is explanatory drawing which shows an example of the transparency processing of the voxel outside the ROI clipping area by the 3D texture mapping apparatus of this embodiment. 本実施の形態の3Dテクスチャマッピング装置によるダミー透明画像付加処理の一例を示す説明図である。It is explanatory drawing which shows an example of the dummy transparent image addition processing by the 3D texture mapping apparatus of this embodiment. 本実施の形態の3Dテクスチャマッピング装置による断層画像の外縁部のボクセルの透明化処理の一例を示す説明図である。It is explanatory drawing which shows an example of the transparent processing of the voxel of the outer edge part of the tomographic image by the 3D texture mapping apparatus of this embodiment. 本実施の形態の3Dテクスチャマッピング装置による投影画面設定の一例を示す説明図である。It is explanatory drawing which shows an example of the projection screen setting by the 3D texture mapping apparatus of this embodiment. 本実施の形態の3Dテクスチャマッピング装置による透明ボクセルの色補間処理の手順の一例を示すフローチャートである。It is a flowchart which shows an example of the procedure of the color interpolation processing of a transparent voxel by the 3D texture mapping apparatus of this embodiment. 本実施の形態の3Dテクスチャマッピング装置によるレンダリング処理の手順の一例を示すフローチャートである。It is a flowchart which shows an example of the procedure of the rendering process by the 3D texture mapping apparatus of this embodiment. 3Dテクスチャマッピングとの対応付け方法の一例を示す説明図である。It is explanatory drawing which shows an example of the correspondence method with 3D texture mapping. 本実施の形態の画像処理部の構成の他の例を示すブロック図である。It is a block diagram which shows the other example of the structure of the image processing part of this embodiment. 曲線状のモアレが発生する様子の一例を示す模式図である。It is a schematic diagram which shows an example of how the curved moire occurs. 本実施の形態の3Dテクスチャマッピング装置によるモアレ対策結果の第1例を示す説明図である。It is explanatory drawing which shows the 1st example of the moire measures result by the 3D texture mapping apparatus of this embodiment. ストライプ・格子状のモアレが発生する様子の一例を示す模式図である。It is a schematic diagram which shows an example of the appearance of the stripe / grid-like moire. 座標変換時の丸め誤差の発生の様子の一例を示す説明図である。It is explanatory drawing which shows an example of the appearance of the rounding error at the time of coordinate conversion. 座標変換により周期パターンの発生の様子の一例を示す模式図であるIt is a schematic diagram which shows an example of the state of generation of a periodic pattern by coordinate transformation. 本実施の形態の3Dテクスチャマッピング装置による色補間の様子の一例を示す模式図である。It is a schematic diagram which shows an example of the state of the color interpolation by the 3D texture mapping apparatus of this embodiment. 本実施の形態の3Dテクスチャマッピング装置によるモアレ対策結果の第2例を示す説明図である。It is explanatory drawing which shows the 2nd example of the moire measures result by the 3D texture mapping apparatus of this embodiment. 本実施の形態の3Dテクスチャマッピング装置によるモアレ対策結果の第3例を示す説明図である。It is explanatory drawing which shows the 3rd example of the moire measures result by the 3D texture mapping apparatus of this embodiment. 本実施の形態の3Dテクスチャマッピング装置によるモアレ対策結果の第4例を示す説明図である。It is explanatory drawing which shows the 4th example of the moire measures result by the 3D texture mapping apparatus of this embodiment. 本実施の形態の3Dテクスチャマッピング装置によるモアレ対策結果の第5例を示す説明図である。It is explanatory drawing which shows the 5th example of the moire measures result by the 3D texture mapping apparatus of this embodiment.

以下、本開示の実施の形態を図面に基づいて説明する。図1は本実施の形態の画像処理装置としての3Dテクスチャマッピング装置100の構成の一例を示すブロック図である。本実施の形態の3Dテクスチャマッピング装置100は、入力部10、記憶部11、出力部12、画像処理部20などを備える。画像処理部20は、階調圧縮処理部21、平滑化処理部22、ボクセル構造体生成部23、変換処理部24、レンダリング処理部25、3Dテクスチャ画像生成部26、積層四角形設定部27、色補間部28、ROI(Region of Interest)クリッピング処理部29などを備える。 Hereinafter, embodiments of the present disclosure will be described with reference to the drawings. FIG. 1 is a block diagram showing an example of the configuration of the 3D texture mapping device 100 as the image processing device of the present embodiment. The 3D texture mapping device 100 of the present embodiment includes an input unit 10, a storage unit 11, an output unit 12, an image processing unit 20, and the like. The image processing unit 20 includes a gradation compression processing unit 21, a smoothing processing unit 22, a voxel structure generation unit 23, a conversion processing unit 24, a rendering processing unit 25, a 3D texture image generation unit 26, a laminated square setting unit 27, and a color. It includes an interpolation unit 28, a ROI (Region of Interest) clipping processing unit 29, and the like.

入力部10は、取得部としての機能を有し、z軸方向に沿って所定間隔で撮像された複数のxy平面画像の画像データを取得する。より具体的には、入力部10は、観察対象物(例えば、臓器、脳、骨、血管などを内部に含む人体・動物の様々な部位)に対して所定の間隔で断層撮影された複数の2次元の断層画像のDICOM(Digital Imaging and COmmunications in Medicine)形式の画像データを取得する。 The input unit 10 has a function as an acquisition unit, and acquires image data of a plurality of xy plane images captured at predetermined intervals along the z-axis direction. More specifically, the input unit 10 is a plurality of tomographic images taken at predetermined intervals with respect to an observation object (for example, various parts of the human body / animal including organs, brains, bones, blood vessels, etc.). Acquire image data in DICOM (Digital Imaging and COmmunications in Medicine) format of a two-dimensional tomographic image.

図2はDICOM形式の断層画像の一例を示す模式図である。図2に示すようにxyz軸を設定した場合、xy平面画像である2次元の断層画像が、z軸方向に沿って複数並んでいる。Sxはx軸方向の画素数であり、Syはy軸方向の画素数であり、Szは断層画像の枚数である。なお、Szはz軸方向の画素数を表す。Rxyはx方向及びy方向の解像度であり、画素の間隔の逆数、すなわち単位距離あたりの画素数を示す。x軸方向とy軸方向の解像度は等しいが、異なっていてもよい。Rzはz軸方向の解像度であり、隣り合う断層画像の間隔の逆数、すなわち単位距離あたりの画像数を表す。各断層画像の座標(x,y,z)での画素値をDo(x,y,z)で現す。Do(x,y,z)は、-32768以上、32767以下の値を取り得る。画素値Do(x,y,z)は、例えば、CT画像の場合、水が0を示し、水よりも密度の高い組織(例えば、骨など)は正値となり、水よりも密度の低い組織(例えば、脂肪組織など)は負値となる。断層画像の座標(x,y,z)において、x座標は0以上、Sx-1以下の値をとり、y座標は0以上、Sy-1以下の値をとり、z座標は0以上、Sz-1以下の値をとる。 FIG. 2 is a schematic diagram showing an example of a DICOM format tomographic image. When the xyz axis is set as shown in FIG. 2, a plurality of two-dimensional tomographic images, which are xy plane images, are arranged along the z-axis direction. Sx is the number of pixels in the x-axis direction, Sy is the number of pixels in the y-axis direction, and Sz is the number of tomographic images. Note that Sz represents the number of pixels in the z-axis direction. Rxy is the resolution in the x-direction and the y-direction, and indicates the reciprocal of the pixel spacing, that is, the number of pixels per unit distance. The resolutions in the x-axis direction and the y-axis direction are the same, but may be different. Rz is the resolution in the z-axis direction, and represents the reciprocal of the interval between adjacent tomographic images, that is, the number of images per unit distance. The pixel value at the coordinates (x, y, z) of each tomographic image is represented by Do (x, y, z). Do (x, y, z) can take a value of -32768 or more and 32767 or less. For example, in the case of a CT image, the pixel value Do (x, y, z) shows 0 for water, a tissue having a density higher than water (for example, bone) has a positive value, and a tissue having a density lower than water. (For example, adipose tissue) has a negative value. In the coordinates (x, y, z) of the tomographic image, the x coordinate takes a value of 0 or more and Sx-1 or less, the y coordinate takes a value of 0 or more and Sy-1 or less, and the z coordinate takes a value of 0 or more and Sz. Takes a value less than or equal to -1.

また、入力部10は、画素値に対応付けてRGB値及び不透明度が定義されたカラーマップデータを取得する。 Further, the input unit 10 acquires color map data in which RGB values and opacity are defined in association with pixel values.

図3は本実施の形態のカラーマップデータの第1例を示す説明図である。第1例のカラーマップデータをCmap(v,c)で示す。変数vは、Do(x,y,z)の画素値を示し、Do(x,y,z)の範囲と同様に、-32768以上、32767以下の範囲内の数値を表す。変数cは、0、1、2、3の値を含み、c=0は、RGBのR値を示し、c=1はG値を示し、c=2はB値を示す。c=3は不透明度αを示す。Cmap(v,c)は、0以上、255以下の数値を取り得る。図3に示すように、カラーマップデータは、スライス画像の画素値Do(x,y,z)とRGB値及び不透明度αとの関係を定義するものである。例えば、画素値Do(x,y,z)が32767の場合、R値はR(32767)となり、G値はG(32767)となり、B値はB(32767)となり、不透明度はα(32767)となる。ここで、R(32767)、G(32767)、B(32767)、及びα(32767)は、画素値32767に対応していることを便宜上示すものであり、実際には適切な数値となる。また、カラーマップデータは、-32768から32767までの全ての画素値に対して定義する必要はなく、CT画像の場合、通常は-2048から2048の範囲をとるように調整されるため、-32768から-2048の範囲、および2048から32767の範囲のRGB値及び不透明度は全て0に設定するようにしてもよい。 FIG. 3 is an explanatory diagram showing a first example of the color map data of the present embodiment. The color map data of the first example is shown by Cmap (v, c). The variable v indicates a pixel value of Do (x, y, z), and represents a numerical value within the range of -23768 or more and 32767 or less, similarly to the range of Do (x, y, z). The variable c includes the values of 0, 1, 2, and 3, c = 0 indicates the R value of RGB, c = 1 indicates the G value, and c = 2 indicates the B value. c = 3 indicates the opacity α. Cmap (v, c) can take a numerical value of 0 or more and 255 or less. As shown in FIG. 3, the color map data defines the relationship between the pixel value Do (x, y, z) of the sliced image, the RGB value, and the opacity α. For example, when the pixel value Do (x, y, z) is 32767, the R value is R (32767), the G value is G (32767), the B value is B (32767), and the opacity is α (32767). ). Here, R (32767), G (32767), B (32767), and α (32767) indicate for convenience that they correspond to the pixel value 32767, and are actually appropriate values. Further, the color map data does not need to be defined for all the pixel values from -32768 to 32767, and in the case of a CT image, it is usually adjusted to take the range of -2048 to 2048. The RGB values and opacity in the range from 2048 to 2048 and from 2048 to 32767 may all be set to 0.

図4は本実施の形態のカラーマップデータの第2例を示す説明図である。第2例のカラーマップデータをCmap8(v,c)で示す。後述するように、DICOM画像を、例えば、16ビットから8ビットへ階調圧縮した場合、画素値を、-32768以上、32767以下の範囲から、0以上、255以下の範囲とすることができる。Cmap8(v,c)の変数vは、0以上、255以下の範囲内の数値となる。変数cは第1例と同様である。 FIG. 4 is an explanatory diagram showing a second example of the color map data of the present embodiment. The color map data of the second example is shown by Cmap8 (v, c). As will be described later, when the DICOM image is gradation-compressed from, for example, 16 bits to 8 bits, the pixel value can be in the range of 0 or more and 255 or less from the range of 32768 or more and 32767 or less. The variable v of Cmap8 (v, c) is a numerical value within the range of 0 or more and 255 or less. The variable c is the same as in the first example.

カラーマップデータCmap(v,c)、Cmap8(v,c)を用いることにより、例えば、人体の部位毎に異なる色を付すだけでなく、部位ごとに不透明度を設定することができ、手前に位置する臓器を透明にして奥に隠れている臓器を描出するなど、観察対象を認識しやすくすることができる。 By using the color map data Cmap (v, c) and Cmap8 (v, c), for example, not only different colors can be added to each part of the human body, but also the opacity can be set for each part. It is possible to make it easier to recognize the observation target, such as making the located organ transparent and depicting the organ hidden in the back.

また、入力部10は、x軸中心の回転角、y軸中心の回転角、z軸中心の回転角、xyz軸方向のオフセット値、xyz軸方向の拡大又は縮小倍率、z軸方向の変倍率、及び注視点から視点までの距離を含む座標変換のパラメータ、xyz方向のROI(Region of Interest:関心領域)の値、並びに透視変換パラメータなどを取得する。座標変換のパラメータ、ROI値、透視変換パラメータの詳細は後述する。 Further, the input unit 10 has a rotation angle centered on the x-axis, a rotation angle centered on the y-axis, a rotation angle centered on the z-axis, an offset value in the xyz-axis direction, an enlargement / reduction magnification in the xyz-axis direction, and a variable magnification in the z-axis direction. , And the parameters of coordinate conversion including the distance from the gazing point to the viewpoint, the value of ROI (Region of Interest) in the xyz direction, the perspective conversion parameters, and the like are acquired. Details of the coordinate conversion parameters, ROI value, and perspective conversion parameters will be described later.

記憶部11は、入力部10で取得したデータ、画像処理部20での処理結果などを記憶することができる。なお、カラーマップデータ、座標変換パラメータ、ROI値、透視変換パラメータなどを予め記憶部11に記憶する構成でもよい。 The storage unit 11 can store the data acquired by the input unit 10, the processing result of the image processing unit 20, and the like. The color map data, the coordinate conversion parameter, the ROI value, the perspective conversion parameter, and the like may be stored in the storage unit 11 in advance.

出力部12は、画像処理部20での処理結果、例えば、レンダリング処理部25で生成したレンダリング画像の画像データを表示装置(不図示)に出力する。 The output unit 12 outputs the processing result of the image processing unit 20, for example, the image data of the rendered image generated by the rendering processing unit 25 to the display device (not shown).

階調圧縮処理部21は、DICOM形式の断層画像を、例えば、8ビットの階調圧縮断層画像にする。 The gradation compression processing unit 21 converts a DICOM format tomographic image into, for example, an 8-bit gradation compression tomographic image.

図5は本実施の形態の3Dテクスチャマッピング装置100による階調圧縮処理の一例を示す説明図である。階調圧縮処理部21は、複数の断層画像のうちの所定の断層画像の画素の最小値及び最大値を特定する。例えば、1からSzまでの断層画像のうち、Sz/2番目の中間の断層画像における全ての画素の最小値Dmin及び最大値Dmaxを特定することができる。なお、所定のスライス画像としては、本来は全てのスライス画像における全ての画素の最小値及び最大値を特定する方法が正確である。しかし、その場合は、一旦全ての大容量の16ビットのDICOM形式の断層画像をメモリに保持する必要が生じ、階調圧縮効果が半減する。また、この最小値Dmin及び最大値Dmaxは階調圧縮のパラメータに使用するだけで、8ビットの階調圧縮断層画像の精度には直接影響しない。そこで、単一のスライス画像の画素の最小値及び最大値を用いて、おおまかに特定する方法をとる。ただし、先頭のスライス画像では被写体が適切に映っていない場合が多いため、中間のスライス画像だけで最小値Dmin及び最大値Dmaxを特定する方法をとる。これにより、大容量の16ビットのDICOM形式の断層画像をメモリに保持することなく8ビットの階調圧縮断層画像だけをメモリに直接構築することができる。 FIG. 5 is an explanatory diagram showing an example of gradation compression processing by the 3D texture mapping device 100 of the present embodiment. The gradation compression processing unit 21 specifies a minimum value and a maximum value of pixels of a predetermined tomographic image among a plurality of tomographic images. For example, among the tomographic images from 1 to Sz, the minimum value Dmin and the maximum value Dmax of all the pixels in the Sz / second intermediate tomographic image can be specified. As the predetermined slice image, the method of specifying the minimum value and the maximum value of all the pixels in all the slice images is originally accurate. However, in that case, it becomes necessary to temporarily hold all the large-capacity 16-bit DICOM format tomographic images in the memory, and the gradation compression effect is halved. Further, the minimum value Dmin and the maximum value Dmax are only used as parameters for gradation compression, and do not directly affect the accuracy of the 8-bit gradation compression tomographic image. Therefore, a method of roughly specifying is taken by using the minimum value and the maximum value of the pixels of a single slice image. However, since the subject is often not properly reflected in the first slice image, a method of specifying the minimum value Dmin and the maximum value Dmax is adopted only in the intermediate slice image. As a result, it is possible to directly construct only an 8-bit gradation compressed tomographic image in the memory without holding a large-capacity 16-bit DICOM format tomographic image in the memory.

8ビットの階調圧縮断層画像D8(x,y,z)は、D8(x,y,z)=(Do(x,y,z)-Lmin)・255/(Lmax-Lmin)という式により生成することができる。ただし、D8(x,y,z)>255の場合は、D8(x,y,z)=255とし、D8(x,y,z)<0の場合は、D8(x,y,z)=0とする。ここで、Lmin=(Dmax-Dmin)・γ+Dmin、Lmax=(Dmax-Dmin)・(1-γ)+Dminである。γは階調圧縮画像のコントラスト調整幅で、0に近いほどコントラストは増大するが輝度は小さくなる。通常は、γ=0.1に設定する。レンダリング像の輝度コントラストは、例えば、カラーマップデータなどの種々の設定で調整することができるので、γは固定値でよい。また、0≦D8(x,y,z)≦255、0≦x≦Sx-1、0≦y≦Sy-1、0≦z≦Sz-1である。また、xy方向の解像度はRxy、z方向の解像度はRzである。 The 8-bit gradation compressed tomographic image D8 (x, y, z) is based on the formula D8 (x, y, z) = (Do (x, y, z) -Lmin) · 255 / (Lmax-Lmin). Can be generated. However, when D8 (x, y, z)> 255, D8 (x, y, z) = 255, and when D8 (x, y, z) <0, D8 (x, y, z). = 0. Here, Lmin = (Dmax-Dmin) · γ + Dmin, Lmax = (Dmax−Dmin) · (1-γ) + Dmin. γ is the contrast adjustment range of the gradation compressed image, and the closer it is to 0, the higher the contrast but the lower the brightness. Normally, it is set to γ = 0.1. Since the luminance contrast of the rendered image can be adjusted by various settings such as color map data, γ may be a fixed value. Further, 0 ≦ D8 (x, y, z) ≦ 255, 0 ≦ x ≦ Sx-1, 0 ≦ y ≦ Sy-1, and 0 ≦ z ≦ Sz-1. The resolution in the xy direction is Rxy, and the resolution in the z direction is Rz.

なお、8ビットの階調圧縮断層画像D8(x,y,z)に対しては、図4に示すカラーマップCmap8(v,c)を適用することができる。 The color map Cmap8 (v, c) shown in FIG. 4 can be applied to the 8-bit gradation compressed tomographic image D8 (x, y, z).

上述のように、階調圧縮処理部21は、複数のxy平面画像のうちの所定のxy平面画像の画素の最小値Dmin及び最大値Dmaxを特定し、特定した最大値よりも小さい上限値Lmax及び特定した最小値よりも大きい下限値Lminを算出する。階調圧縮処理部21は、複数のxy平面画像の各画素の画素値の上限値Lmax及び下限値Lminの範囲内を圧縮する。すなわち、階調圧縮処理部21は、上限値Lmax及び下限値Lminの範囲を、例えば、256段階に圧縮し、上限値Lmax以上は255にし、下限値Lmin以下は0にする。 As described above, the gradation compression processing unit 21 specifies the minimum value Dmin and the maximum value Dmax of the pixels of the predetermined xy plane image among the plurality of xy plane images, and the upper limit value Lmax smaller than the specified maximum value. And the lower limit Lmin larger than the specified minimum value is calculated. The gradation compression processing unit 21 compresses within the range of the upper limit value Lmax and the lower limit value Lmin of the pixel value of each pixel of the plurality of xy plane images. That is, the gradation compression processing unit 21 compresses the range of the upper limit value Lmax and the lower limit value Lmin into, for example, 256 steps, sets the upper limit value Lmax or more to 255, and sets the lower limit value Lmin or less to 0.

平滑化処理部22は、複数のxy平面画像それぞれの一のxy平面画像上の任意の注目画素及び当該注目画素のxyz方向の近傍画素の画素値に基づいて、当該一のxy平面画像を平滑化する。xy平面画像は、DICOM画像Do(x,y,z)でもよく、階調圧縮処理部21により階調圧縮された階調圧縮断層画像D8(x,y,z)でもよい。 The smoothing processing unit 22 smoothes the one xy plane image based on the pixel values of an arbitrary pixel of interest on one xy plane image of each of the plurality of xy plane images and pixels in the vicinity of the pixel of interest in the xyz direction. To become. The xy plane image may be a DICOM image Do (x, y, z) or a gradation compression tomographic image D8 (x, y, z) that is gradation-compressed by the gradation compression processing unit 21.

図6は本実施の形態の3Dテクスチャマッピング装置100による平滑化処理の一例を示す説明図である。図6の例では、階調圧縮断層画像D8(x,y,z)を図示しているが、DICOM画像Do(x,y,z)でもよい。図6では、一の断層画像の注目画素D8(x,y,z)と当該注目画素の近傍に存在する26個の近傍画素D8(x+i,y+j,z+k)を示す。ここで、i=-1、0、1であり、j=-1、0、1であり、k=-1、0、1である。なお、便宜上、三つの断層画像(z-1,z,z+1)を平面的に図示している。xyz座標の平滑化された画像をD(x,y,z)とすると、D(x,y,z)は、注目画素と該注目画素の26近傍画素の画素値の平均値となる。 FIG. 6 is an explanatory diagram showing an example of smoothing processing by the 3D texture mapping device 100 of the present embodiment. In the example of FIG. 6, the gradation compressed tomographic image D8 (x, y, z) is shown, but it may be a DICOM image Do (x, y, z). FIG. 6 shows a pixel of interest D8 (x, y, z) of one tomographic image and 26 nearby pixels D8 (x + i, y + j, z + k) existing in the vicinity of the pixel of interest. Here, i = -1, 0, 1, j = -1, 0, 1, and k = -1, 0, 1. For convenience, three tomographic images (z-1, z, z + 1) are shown in a plane. Assuming that the smoothed image of the xyz coordinates is D (x, y, z), D (x, y, z) is the average value of the pixel values of the pixel of interest and the pixels in the vicinity of 26 of the pixel of interest.

断層画像には、元々自然に存在する知覚可能な規則性をもたないパターンが存在する。複数の断層画像を座標変換(xyz軸回りの回転)することにより、断層画像に存在する前述のようなパターンがずれて合成されることにより、これらのパターンが線状に連結し、結果として、ボリュームレンダリング像に曲線状の縞模様が形成され、モアレとなる。 There are patterns in tomographic images that do not have perceptible regularity that are naturally present. By performing coordinate transformation (rotation around the xyz axis) of a plurality of tomographic images, the above-mentioned patterns existing in the tomographic images are deviated and synthesized, so that these patterns are linearly connected, and as a result, the patterns are linearly connected. A curved striped pattern is formed on the volume rendered image, resulting in moire.

階調圧縮断層画像D8(x,y,z)、あるいはDICOM画像Do(x,y,z)のxyz方向の26近傍画素及び注目画素の画素値の平均値で等方性(xyz方向という意味)平滑処理を行うことにより、前述の曲線状の縞模様によるモアレの発生を抑制することができる。特に、スライス間隔が粗いCT画像に対して、モアレの発生を抑制することができる。 The average value of the pixel values of the 26 neighborhood pixels in the xyz direction of the gradation compressed tomographic image D8 (x, y, z) or the DICOM image Do (x, y, z) and the pixel of interest is isotropic (meaning in the xyz direction). ) By performing the smoothing process, it is possible to suppress the occurrence of moire due to the above-mentioned curved striped pattern. In particular, it is possible to suppress the occurrence of moire on CT images with coarse slice intervals.

ボクセル構造体生成部23は、各ボクセルに対してRGB値及び不透明度αが定められ、平滑化した複数のxy平面画像それぞれの各画素に対応するボクセルで構成されるボクセル構造体を生成する。より具体的には、ボクセル構造体生成部23は、平滑化した複数のxy平面画像それぞれの各画素の画素値に対応するカラーマップデータのRGB値及び不透明度を対応付けてRGB値及び不透明度αを設定し、ボクセル構造体を生成する。すなわち、ボクセル構造体は、ボクセルが3次元的に詰まった構成(ボリュームとも称する)をなす。各ボクセルは、ボクセル値(RGB値及び不透明度α)を有する。 The voxel structure generation unit 23 generates a voxel structure composed of voxels in which RGB values and opacity α are set for each voxel and corresponding to each pixel of each of a plurality of smoothed xy plane images. More specifically, the voxel structure generation unit 23 associates the RGB values and opacity of the color map data corresponding to the pixel values of each pixel of each of the smoothed plurality of xy plane images with the RGB values and opacity. Set α to generate a voxel structure. That is, the voxel structure has a structure (also referred to as a volume) in which voxels are three-dimensionally packed. Each voxel has a voxel value (RGB value and opacity α).

ボクセル構造体をV(x,y,z,c)で表す。ここで、0≦V(x,y,z,c)≦255、c=0(R)、1(G)、2(B)、3(α)、0≦x≦Sx-1、0≦y≦Sy-1、0≦z≦Sz-1である。 The voxel structure is represented by V (x, y, z, c). Here, 0 ≦ V (x, y, z, c) ≦ 255, c = 0 (R), 1 (G), 2 (B), 3 (α), 0 ≦ x ≦ Sx-1, 0 ≦ y ≦ Sy-1 and 0 ≦ z ≦ Sz-1.

また、ボクセル構造体生成部23は、RGB値及び不透明度が所定値であるボクセルを含むボクセル構造体を生成する。所定値としては、RGB値がR=G=B=0(すなわち、無色つまり黒色)で、不透明度α=0(すなわち、透明)とするが、これらはボリュームレンダリング像の計算に寄与しないボクセルの値であることを意味し、ボリュームレンダリング像の計算に寄与しない値であれば、R=G=B=0及び不透明度α=0に限定しなくてもよい。 Further, the voxel structure generation unit 23 generates a voxel structure including voxels having RGB values and opacity as predetermined values. As predetermined values, the RGB values are R = G = B = 0 (that is, colorless or black) and the opacity α = 0 (that is, transparent), but these do not contribute to the calculation of the volume rendering image of the voxel. It does not have to be limited to R = G = B = 0 and opacity α = 0 as long as it means that it is a value and does not contribute to the calculation of the volume rendering image.

色補間部28は、色補正部としての機能を有し、ボクセル構造体のRGB値及び不透明度が所定値である対象ボクセルに対して、対象ボクセルの近傍に位置する近傍ボクセルのRGB値に基づいて、色補間して、対象ボクセルのRGB値を補正する。なお、色補間を色補正とも称する。色補間の詳細は後述する。 The color interpolation unit 28 has a function as a color correction unit, and is based on the RGB value of the voxel structure and the RGB value of the neighboring voxel located in the vicinity of the target voxel with respect to the target voxel whose opacity is a predetermined value. Then, color interpolation is performed to correct the RGB value of the target voxel. Note that color interpolation is also referred to as color correction. The details of color interpolation will be described later.

3Dテクスチャ画像生成部26は、RGB値が色補間されたボクセル構造体のボクセルで構成される3Dテクスチャ画像を生成する。すなわち、3Dテクスチャ画像生成部26は、ボクセル構造体生成部23で生成されたボクセル(RGB値及び不透明度が所定値であるボクセルを含む)に基づいて、3Dテクスチャ画像を生成する。3Dテクスチャ画像のデータは、3Dテクスチャマップとも称し、データの実体はボクセル構造体と同一である。3Dテクスチャ画像生成部26は、ボクセル構造体のボリュームをグラフィックAPI(例えば、OpenGL)の3Dテクスチャマップとして登録する。より具体的には、ボクセル構造体のボリュームは、CPUのメインメモリからGPUのビデオメモリにグラフィックAPIを介して転送され、グラフィックAPIのテクスチャ形式に変換されてビデオメモリに保持される。本願では以降、説明の便宜上グラフィックAPIとしてOpenGLを対象に処理の内容を説明するが、これに限定されない。 The 3D texture image generation unit 26 generates a 3D texture image composed of voxels of a voxel structure in which RGB values are color-interpolated. That is, the 3D texture image generation unit 26 generates a 3D texture image based on the voxels generated by the voxel structure generation unit 23 (including voxels having RGB values and opacity as predetermined values). The data of the 3D texture image is also referred to as a 3D texture map, and the substance of the data is the same as the voxel structure. The 3D texture image generation unit 26 registers the volume of the voxel structure as a 3D texture map of a graphic API (for example, OpenGL). More specifically, the volume of the boxel structure is transferred from the main memory of the CPU to the video memory of the GPU via the graphic API, converted into the texture format of the graphic API, and held in the video memory. Hereinafter, for convenience of explanation, the content of the process will be described for OpenGL as a graphic API, but the present application is not limited thereto.

3DテクスチャマップをTex(xt,yt,zt,c)で表す。ここで、0≦Tex(xt,yt,zt,c)≦255、c=0(R)、1(G)、2(B)、3(α)、0≦xt≦Sx-1、0≦yt≦Sy-1、0≦zt≦Sz-1である。 The 3D texture map is represented by Tex (xt, yt, zt, c). Here, 0≤Tex (xt, yt, zt, c) ≤255, c = 0 (R), 1 (G), 2 (B), 3 (α), 0≤xt≤Sx-1, 0≤ yt ≦ Sy-1, 0 ≦ zt ≦ Sz-1.

なお、ボクセル構造体の座標系をOpenGLのワールド座標系で定義し、XYZ座標(-1≦x≦1、-1≦y≦1、-1≦z≦1)で表し、3Dテクスチャマップの座標系をテクスチャ座標系で定義し、OpenGLではテクスチャ座標系をSTR座標(0≦s≦1、0≦t≦1、0≦r≦1)で表す習慣がある。座標sは座標xに対応し、座標tは座標yに対応し、座標rは座標zに対応する。本実施の形態では、便宜上、ワールド座標系のXYZをXYZ座標と表し、テクスクチャ座標系のSTR座標をxyz座標と表す。 The coordinate system of the boxel structure is defined by the OpenGL world coordinate system, and is represented by XYZ coordinates (-1≤x≤1, -1≤y≤1, -1≤z≤1), and the coordinates of the 3D texture map. The system is defined by the texture coordinate system, and in OpenGL, it is customary to express the texture coordinate system by STR coordinates (0 ≦ s ≦ 1, 0 ≦ t ≦ 1, 0 ≦ r ≦ 1). The coordinate s corresponds to the coordinate x, the coordinate t corresponds to the coordinate y, and the coordinate r corresponds to the coordinate z. In the present embodiment, for convenience, the XYZ of the world coordinate system is represented by the XYZ coordinates, and the STR coordinates of the texture coordinate system are represented by the xyz coordinates.

積層四角形設定部27は、ワールド座標系において、XY座標面で定義される複数の四角形をZ軸方向に所定の間隔だけずらして並べた積層四角形を設定する。積層四角形は各々が3次元空間上の4つの頂点で定義された四角形である。 The laminated quadrangle setting unit 27 sets a laminated quadrangle in which a plurality of quadrangles defined in the XY coordinate plane are arranged by shifting them by a predetermined interval in the Z-axis direction in the world coordinate system. A laminated quadrangle is a quadrangle, each defined by four vertices in three-dimensional space.

変換処理部24は、変換後3Dテクスチャ画像生成部としての機能を有し、テクスチャ座標系に定義された複数のスライス画像で構成される3Dテクスチャ画像に対してテクスチャ座標系において所定の変換を行って変換後3Dテクスチャ画像を生成する。所定の変換は、透視変換処理、座標変換処理などを含む。 The conversion processing unit 24 has a function as a 3D texture image generation unit after conversion, and performs predetermined conversion in the texture coordinate system for a 3D texture image composed of a plurality of slice images defined in the texture coordinate system. After conversion, a 3D texture image is generated. The predetermined transformation includes a perspective transformation process, a coordinate transformation process, and the like.

図7は本実施の形態の3Dテクスチャマッピング装置100による3Dテクスチャマッピングの概念を示す模式図である。図7Aは積層四角形に対して座標変換前の3Dテクスチャマップをマッピングした状態を示し、図7Bは積層四角形に対して座標変換後の3Dテクスチャマップをマッピングした状態を示す。ワールド座標(X,Y,Z)において、XY座標面上の四角形がZ軸方向に沿って複数配置されている。視点は、図7において、投影面(レンダリング像が生成される面)より上側(すなわち、Z軸の正方向)に存在する。ワールド座標系に定義した積層四角形は固定であるため、個々の四角形は、視線に対して常に垂直である。図7中、積層四角形の内部に図示した楕円形状は、マッピングされた3Dテクスチャマップ(ボクセルデータ)を示す。3Dテクスチャマップは、テクスチャ座標系において適宜所定の変換が行われるが、ワールド座標系とテクスチャ座標系との対応関係(マッピング)は固定であるため、3Dテクスチャマップの変換後に積層四角形にマッピングされている3Dテクスチャマップの内容は自動的に変更される。 FIG. 7 is a schematic diagram showing the concept of 3D texture mapping by the 3D texture mapping device 100 of the present embodiment. FIG. 7A shows a state in which the 3D texture map before coordinate conversion is mapped to the laminated quadrangle, and FIG. 7B shows a state in which the 3D texture map after coordinate conversion is mapped to the laminated quadrangle. In world coordinates (X, Y, Z), a plurality of quadrilaterals on the XY coordinate plane are arranged along the Z-axis direction. The viewpoint is located above the projection plane (the plane on which the rendered image is generated) (that is, in the positive direction of the Z axis) in FIG. 7. Since the stacked quadrilaterals defined in the world coordinate system are fixed, each quadrangle is always perpendicular to the line of sight. In FIG. 7, the elliptical shape shown inside the laminated quadrangle indicates a mapped 3D texture map (voxel data). The 3D texture map is appropriately converted in the texture coordinate system, but since the correspondence (mapping) between the world coordinate system and the texture coordinate system is fixed, it is mapped to the laminated square after the conversion of the 3D texture map. The contents of the existing 3D texture map are automatically changed.

図7Aに示すように、3Dテクスチャマッピングでは、ボクセルデータをテクスチャ座標系に3Dテクスチャマップとして定義し、3Dテクスチャマップをワールド座標系に定義された積層四角形の各四角形に貼り付ける。すなわち、四角形に3Dテクスチャマップの各断面(スライス)をマッピングすることにより、3Dテクスチャマップを視線に対して垂直な断面の集まりとして再構成する。 As shown in FIG. 7A, in 3D texture mapping, voxel data is defined as a 3D texture map in the texture coordinate system, and the 3D texture map is pasted on each of the laminated squares defined in the world coordinate system. That is, by mapping each cross section (slice) of the 3D texture map to the quadrangle, the 3D texture map is reconstructed as a collection of cross sections perpendicular to the line of sight.

図7Bに示すように、視点の変更は、ワールド座標(X,Y,Z)に定義された積層四角形およびワールド座標系とテクスチャ座標系との対応関係を初期のまま動かさずに、四角形に貼り付けた3Dテクスチャマップをテクスチャ座標系で回転させる。これにより、個々の四角形の4頂点と3Dテクスチャマップの座標位置(図7では、xyz座標で表す)が回転により変更され、視点を変更した画像を得ることができる。 As shown in FIG. 7B, the viewpoint is changed by pasting the laminated quadrangle defined in the world coordinates (X, Y, Z) and the correspondence between the world coordinate system and the texture coordinate system on the quadrangle without moving the initial state. Rotate the attached 3D texture map in the texture coordinate system. As a result, the four vertices of each quadrangle and the coordinate positions of the 3D texture map (represented by xyz coordinates in FIG. 7) are changed by rotation, and an image with a changed viewpoint can be obtained.

レンダリング処理部25は、所定の視点からZ軸方向に平行な視線上の四角形のXY座標に対応する変換後3Dテクスチャ画像のボクセルのRGB値を視点から遠い四角形の順に当該ボクセルのアルファ値を基にアルファブレンディングして得られたRGB値を、視線が投影面と交差する画素の画素値としてレンダリング画像を生成する。この場合、レンダリング処理部25は、レンダリング画像のXY座標と視線方向に交差する四角形の交差座標(XYZ座標)を算出し、算出した交差座標と対応する変換後3Dテクスチャ画像のxyz座標を算出し、算出したxyz座標に対応するボクセルのRGB値及び不透明度に基づいてアルファブレンディングする。すなわち、3Dテクスチャマップが貼り付けられた四角形を、視点から遠い順にアルファブレンディングすることでボリュームレンダリングを行う。これらの手順をOpenGLなどのグラフィックAPIを用いて指示することで、GPUの機能を利用した高速処理が可能となる。GPUの機能を利用することにより、待ち時間を抑制して高速にレンダリング画像を生成することができる。本実施の形態であれば、汎用コンピュータに装着されたビデオカードに搭載されたGPUであっても、0.1秒以内でレンダリング処理が可能であり、対話形式で(あるいはインタラクティブ性を確保して)レンダリング画像をリアルタイムに表示させることができる。 The rendering processing unit 25 bases the RGB values of the voxels of the converted 3D texture image corresponding to the XY coordinates of the voxels on the line of sight parallel to the Z-axis direction from the predetermined viewpoint in the order of the voxels far from the viewpoint. The RGB value obtained by alpha blending is used as the pixel value of the pixel whose line of sight intersects the projection plane to generate a rendered image. In this case, the rendering processing unit 25 calculates the intersection coordinates (XYZ coordinates) of the rectangle that intersects the XY coordinates of the rendered image in the line-of-sight direction, and calculates the xyz coordinates of the converted 3D texture image corresponding to the calculated intersection coordinates. , Alpha blending based on the RGB value and opacity of the boxel corresponding to the calculated xyz coordinates. That is, volume rendering is performed by alpha blending the quadrangle to which the 3D texture map is pasted in the order of distance from the viewpoint. By instructing these procedures using a graphic API such as OpenGL, high-speed processing using the GPU function becomes possible. By using the GPU function, it is possible to suppress the waiting time and generate a rendered image at high speed. In the present embodiment, even a GPU mounted on a video card mounted on a general-purpose computer can perform rendering processing within 0.1 seconds, and can be rendered interactively (or ensure interactivity). ) The rendered image can be displayed in real time.

上述のように、本実施の形態のボクセル構造体のボクセルデータは、z軸方向に沿って所定間隔で撮像された複数のxy平面画像のそれぞれの各画素に対応し、RGB値及び不透明度が定められたボクセルで構成されるボクセル構造体のボクセルデータを含む構造を有し、ボクセルデータは、ボクセル構造体のボクセルのうちRGB値及び不透明度が所定値である対象ボクセルに対して、対象ボクセルの近傍に位置する近傍ボクセルのRGB値に基づいて、対象ボクセルのRGB値が色補間(色補正)されたデータを含み、ボクセル構造体のボクセルで構成される3Dテクスチャ画像に対して、所定の変換を行って変換後3Dテクスチャ画像を生成する処理と、3次元空間のXY座標面上の四角形をZ軸方向に並べた積層四角形を設定する処理と、所定の視点からZ軸方向に平行な視線上の四角形のXY座標に対応する変換後3Dテクスチャ画像のボクセルのRGB値を視点から遠い四角形の順に当該ボクセルのアルファ値を基にアルファブレンディングして得られたRGB値を、視線が投影面と交差する画素の画素値としてレンダリング画像を生成する処理とを実行するのに用いられる。 As described above, the voxel data of the voxel structure of the present embodiment corresponds to each pixel of a plurality of xy plane images captured at predetermined intervals along the z-axis direction, and has RGB values and opacity. It has a structure including voxel data of a voxel structure composed of defined voxels, and the voxel data is a target voxel for a target voxel whose RGB value and opacity are predetermined values among the voxels of the voxel structure. A predetermined 3D texture image composed of voxels of a voxel structure, which includes data in which the RGB values of the target voxels are color-interpolated (color-corrected) based on the RGB values of neighboring voxels located in the vicinity of. Processing to generate a 3D texture image after conversion by performing conversion, processing to set a laminated quadrangle in which quadrangles on the XY coordinate plane of the three-dimensional space are arranged in the Z-axis direction, and processing parallel to the Z-axis direction from a predetermined viewpoint The line of sight projects the RGB values obtained by alpha blending the RGB values of the voxels of the converted 3D texture image corresponding to the XY coordinates of the squares on the line of sight based on the alpha values of the voxels in the order of the voxels far from the viewpoint. It is used to execute a process of generating a rendered image as a pixel value of a pixel intersecting with.

本実施の形態では、3Dテクスチャマッピング法を用いるが、一般的な2Dテクスチャマッピング法の場合には、以下のような課題がある。すなわち、2Dテクスチャマッピング法では、ボクセルデータを構成する各スライスの輪郭形状をワールド座標系において四角形で表現するところは本願と同様であるが、2次元のテクスチャ座標系においてボクセルデータを構成する各スライスの画像を複数の2Dテクスチャマップとして定義する点で異なる(本実施の形態では、全スライスの画像を3次元のテクスチャ座標系において単一の3Dテクスチャマップとして定義している)。そして、各四角形に対応するいずれかの2Dテクスチャマップを各四角形に貼り付ける(本実施の形態では、各四角形の4頂点に対応する3Dテクスチャマップ内の4つの座標を対応付けて貼り付けている)。2Dテクスチャマップは2次元のテクスチャ座標系において定義されているため、回転は2次元的にしか行えない。そのため、ワールド座標系において、積層した四角形を3次元的に回転させる方法をとらざるを得ない。そうすると、回転角度により奥行関係が崩れ、あるいは2Dテクスチャマップが反転し、積層した四角形をY軸中心に90度回転させると、四角形(厚みが0)は描画されず、レンダリング像は真っ黒になる。 In this embodiment, the 3D texture mapping method is used, but in the case of a general 2D texture mapping method, there are the following problems. That is, in the 2D texture mapping method, the contour shape of each slice constituting the voxel data is expressed by a square in the world coordinate system, which is the same as in the present application, but each slice constituting the voxel data in the two-dimensional texture coordinate system. The difference is that the image of the above is defined as a plurality of 2D texture maps (in the present embodiment, the images of all slices are defined as a single 3D texture map in the three-dimensional texture coordinate system). Then, one of the 2D texture maps corresponding to each quadrangle is pasted to each quadrangle (in the present embodiment, the four coordinates in the 3D texture map corresponding to the four vertices of each quadrangle are associated and pasted. ). Since the 2D texture map is defined in the two-dimensional texture coordinate system, rotation can only be done two-dimensionally. Therefore, in the world coordinate system, there is no choice but to take a method of rotating the stacked quadrangles three-dimensionally. Then, the depth relationship is broken depending on the rotation angle, or the 2D texture map is inverted, and when the stacked quadrangles are rotated 90 degrees around the center of the Y axis, the quadrangle (thickness is 0) is not drawn and the rendered image becomes black.

また、スライスと視線とのなす角度が小さくなるにつれて投影面積が小さくなり、サンプリングされるデータの数が減少し、ボリュームレンダリングの意義が失われ、実用的なレンダリング像を得ることができない場合がある。即ち、回転角度により、ワールド座標系の積層四角形とテクスチャ座標系の2Dテクスチャマップとの対応関係を補正しないと、適切なレンダリング像を得ることができない。 In addition, as the angle between the slice and the line of sight decreases, the projected area decreases, the number of data sampled decreases, the significance of volume rendering is lost, and a practical rendered image may not be obtained. .. That is, an appropriate rendered image cannot be obtained unless the correspondence between the stacked quadrangle of the world coordinate system and the 2D texture map of the texture coordinate system is corrected by the rotation angle.

本実施の形態によれば、2Dテクスチャマッピング法における課題、あるいはワールド座標を回転する場合に生じる課題を解決することができる。 According to this embodiment, it is possible to solve the problem in the 2D texture mapping method or the problem that occurs when the world coordinates are rotated.

次に、本実施の形態の3Dテクスチャマッピング装置100の動作について説明する。 Next, the operation of the 3D texture mapping device 100 of the present embodiment will be described.

図8及び図9は本実施の形態の3Dテクスチャマッピング装置100による3Dテクスチャマッピング処理の手順の一例を示すフローチャートである。以下では、便宜上、処理の主体を画像処理部20として説明する。画像処理部20は、DICOM画像の画像データを取得し(S11)、カラーマップデータを取得する(S12)。なお、カラーマップデータは、図3、図4で例示したものである。 8 and 9 are flowcharts showing an example of the procedure of the 3D texture mapping process by the 3D texture mapping device 100 of the present embodiment. Hereinafter, for convenience, the subject of processing will be described as the image processing unit 20. The image processing unit 20 acquires the image data of the DICOM image (S11) and acquires the color map data (S12). The color map data is illustrated in FIGS. 3 and 4.

画像処理部20は、変換パラメータを取得し(S13)、xyz方向のROI値を取得する(S14)。なお、変換パラメータは、座標変換パラメータ及び透視変換パラメータなどを含む。変換パラメータの詳細は後述する。画像処理部20は、DICOM画像の階調圧縮処理を行い(S15)、階調圧縮断層画像D8に対してカラーマップ定義を行う(S16)。カラーマップ定義は、階調圧縮断層画像D8の画素値に対して、RGB値及び不透明度αを定義する。なお、ステップS15の処理は必須ではなく、ステップS15の処理を実施しない場合には、DICOM画像に対してカラーマップ定義を行えばよい。ただし、カラーマップはCT画像の場合、見たい部位ごとに汎用的に定義することが可能で、与えられたDICOM画像に依存して定義されるものではないため、ステップS16の処理を省略し、あらかじめ定義されたカラーマップを流用することもできる。 The image processing unit 20 acquires the conversion parameter (S13) and acquires the ROI value in the xyz direction (S14). The conversion parameters include coordinate conversion parameters, perspective conversion parameters, and the like. Details of the conversion parameters will be described later. The image processing unit 20 performs gradation compression processing of the DICOM image (S15), and defines a color map for the gradation compression tomographic image D8 (S16). The color map definition defines the RGB value and the opacity α with respect to the pixel value of the gradation compressed tomographic image D8. The process of step S15 is not essential, and if the process of step S15 is not performed, the color map may be defined for the DICOM image. However, in the case of a CT image, the color map can be generally defined for each part to be viewed and is not defined depending on the given DICOM image. Therefore, the process of step S16 is omitted. A predefined color map can also be used.

画像処理部20は、階調圧縮断層画像D8の平滑化処理を行い(S17)、ボクセル構造体V(x,y,z,c)を生成する(S18)。画像処理部20は、ROIクリッピング領域外のボクセルの透明化処理を行う(S19)。 The image processing unit 20 performs smoothing processing of the gradation compressed tomographic image D8 (S17) to generate a voxel structure V (x, y, z, c) (S18). The image processing unit 20 performs voxel transparency processing outside the ROI clipping region (S19).

図10は本実施の形態の3Dテクスチャマッピング装置100によるROIクリッピング領域外のボクセルの透明化処理の一例を示す説明図である。図10は、z番目に位置するxy平面画像の一例を図示している。ROIによるクリッピングでは、x軸方向のROIとして、Xs-Xeを設定し、y軸方向のROIとして、Ys-Yeを設定し、図10には図示されていないが、z軸方向のROIとして、Zs-Zeを設定する。ここで、0≦Xs、Xe≦Sx-1、0≦Ys、Ye≦Sy-1、0≦Zs、Ze≦Sz-1である。すなわち、ROIクリッピング処理部29は、ボリュームレンダリング処理の対象領域を画定するxyz座標を設定する。ボクセル構造体生成部23は、ROIクリッピング領域外のボクセルの透明化処理を行う。 FIG. 10 is an explanatory diagram showing an example of voxel transparency processing outside the ROI clipping region by the 3D texture mapping device 100 of the present embodiment. FIG. 10 illustrates an example of an xy plane image located at the z-th position. In clipping by ROI, Xs-Xe is set as the ROI in the x-axis direction, Ys-Ye is set as the ROI in the y-axis direction, and although not shown in FIG. 10, it is set as the ROI in the z-axis direction. Set Zs-Ze. Here, 0 ≦ Xs, Xe ≦ Sx-1, 0 ≦ Ys, Ye ≦ Sy-1, 0 ≦ Zs, and Ze ≦ Sz-1. That is, the ROI clipping processing unit 29 sets the xyz coordinates that define the target area of the volume rendering processing. The voxel structure generation unit 23 performs voxel transparency processing outside the ROI clipping region.

ボクセルの透明化処理では、x<Xsまたはx>Xeまたはy<Ysまたはy>Yeまたはz<Zsまたはz>Zeの場合、0≦c≦3に対してV(x,y,z,c)=0、すなわち、R=G=B=α=0とする(すなわち、画素の色を無色つまり黒色で、透明にする)。図10の例では、x<Xs、x>Xe、y<Ys、及びy>Yeを充足する座標(x,y)の画素の色を無色(黒色)にし、不透明度をα=0(透明)にする。 In the voxel transparency process, in the case of x <Xs or x> Xe or y <Ys or y> Ye or z <Zs or z> Ze, V (x, y, z, c) for 0 ≦ c ≦ 3 ) = 0, that is, R = G = B = α = 0 (that is, the color of the pixel is colorless or black and transparent). In the example of FIG. 10, the color of the pixel at the coordinates (x, y) satisfying x <Xs, x> Xe, y <Ys, and y> Ye is made colorless (black), and the opacity is set to α = 0 (transparent). ).

なお、色補間部28は、後述のステップS24において、ROIクリッピング領域外など透明化処理されたボクセルを含む無色・透明なボクセルに対して、対象ボクセルの近傍に位置する近傍ボクセル(不透明ボクセル)のRGB値に基づいて、対象ボクセルのRGB値を色補間する。ただし、透明なボクセルであっても、透明化処理されたものでなく、RGB値のいずれかに1以上の値が設定されている場合(肺野の空気など)は、色補間を行わない。 In step S24 described later, the color interpolation unit 28 is a voxel (opaque voxel) located in the vicinity of the target voxel with respect to a colorless / transparent voxel including a voxel that has been made transparent such as outside the ROI clipping region. Color-interpolates the RGB values of the target voxel based on the RGB values. However, even if it is a transparent voxel, if it is not transparently processed and a value of 1 or more is set for any of the RGB values (air in the lung field, etc.), color interpolation is not performed.

上述のように、本実施の形態のボクセル構造体のボクセルデータにおいて、ボクセル構造体は、ボリュームレンダリング処理の対象領域外であって、RGB値及び不透明度が所定値である対象ボクセルに対して、対象ボクセルの近傍に位置する近傍ボクセルのRGB値に基づいて、対象ボクセルのRGB値が色補間されたデータを含む。 As described above, in the voxel data of the voxel structure of the present embodiment, the voxel structure is outside the target area of the volume rendering process, and the RGB value and the opacity are predetermined values for the target voxel. Contains data in which the RGB values of the target voxels are color-rendered based on the RGB values of the neighboring voxels located in the vicinity of the target voxels.

ROIクリッピング切断面に限らず、ボリュームレンダリング処理の対象領域である不透明領域(不透明度が1以上の値をもつようにした領域)とボリュームレンダリング処理の対象領域外である透明領域(不透明度が0の値をもつようにした領域)との境界面がモアレの発生源になる。(詳細は後述するが、座標変換により境界面において階段状のパターンが生成されるためである。)そもそも、断層画像には人体・撮影治具(寝台など)など被写体以外の背景部が存在することが一般的で、背景部は空気で無色・透明であるため、不透明な被写体との境界面が元々存在し、モアレの発生源になり得るため、背景部に対して後述の補正対象領域と一緒に色補間を行う必要がある。 Not limited to the ROI clipping cut surface, the opaque area (the area where the opacity has a value of 1 or more) which is the target area of the volume rendering process and the transparent area (the opacity is 0) which is outside the target area of the volume rendering process. The interface with the region that has the value of) is the source of moire. (Details will be described later, but this is because a step-like pattern is generated at the boundary surface by coordinate transformation.) In the first place, the tomographic image has a background part other than the subject such as a human body and a photographing jig (sleeper, etc.). Generally, since the background part is colorless and transparent with air, the boundary surface with the opaque subject originally exists and can be a source of moire. It is necessary to perform color interpolation together.

ROIクリッピング切断面に限らず、断層画像の最初のスライスまたは/かつ最後のスライスがそのまま不透明領域と透明領域との境界面となり、当該境界面がモアレの発生源になる場合がある。人体の一部である胸部・腹部などに対してCTスキャンされた断層画像の最初のスライスより手前及び最後のスライスの後方には画像データが存在せず、無色・透明な空間としてボリュームレンダリング処理されるため、ROIクリッピング切断面と同様な特質をもつ。即ち、断層画像の最初のスライスと最後のスライスは、必然的に不透明領域と透明領域の境界面となり、モアレ発生源となる。そこで、最初のスライスより手前及び最後のスライスの後方の領域にボクセルを追加して無色・透明にし、後続処理である色補間することにより、併せてモアレの発生を抑制することができる。色補間の詳細は後述する。 Not limited to the ROI clipping cut surface, the first slice and / or the last slice of the tomographic image may be the boundary surface between the opaque region and the transparent region as it is, and the boundary surface may be the source of moire. There is no image data in front of the first slice of the tomographic image CT-scanned for the chest and abdomen, which are part of the human body, and behind the last slice, and volume rendering is performed as a colorless and transparent space. Therefore, it has the same characteristics as the ROI clipping cut surface. That is, the first slice and the last slice of the tomographic image inevitably become the boundary surface between the opaque region and the transparent region, and become a moire generation source. Therefore, by adding voxels to the regions before the first slice and after the last slice to make them colorless and transparent, and by performing color interpolation which is a subsequent process, it is possible to suppress the occurrence of moire. The details of color interpolation will be described later.

画像処理部20は、z方向の両端に新たにRGB値及び不透明度が所定値とされた(ここでは、無色・透明な)ダミー透明画像を付加し(S20)、ボクセル構造体にダミー透明画像に対応するボクセルを追加する(S21)。ダミー透明画像に対応するボクセルが追加されたボクセル構造体をV(x,y,z,c)と表す。ここで、0≦x≦Sx-1、0≦y≦Sy-1、0≦z≦Sz+1である。 The image processing unit 20 newly adds a dummy transparent image (here, colorless and transparent) having predetermined RGB values and opacity to both ends in the z direction (S20), and the dummy transparent image is added to the voxel structure. Add a voxel corresponding to (S21). A voxel structure to which a voxel corresponding to a dummy transparent image is added is represented as V (x, y, z, c). Here, 0 ≦ x ≦ Sx-1, 0 ≦ y ≦ Sy-1, and 0 ≦ z ≦ Sz + 1.

図11は本実施の形態の3Dテクスチャマッピング装置100によるダミー透明画像付加処理の一例を示す説明図である。z軸方向にスライス間隔で並んだ元の断層画像のz軸方向の両端に、全ての画素のRGB値及び不透明度が所定値とされた(ここでは、無色・透明に設定した)ダミー透明画像を追加する。すなわち、ボクセル構造体生成部23は、複数のxy平面画像を間にしてz軸方向の両端に配置されたダミーxy平面画像の各画素に対応し、RGB値及び不透明度が所定値とされたダミーボクセルを付加したボクセル構造体を生成する。具体的には、ボクセル構造体生成部23は、断層画像のz軸方向の両端にダミー透明画像に対応するボクセルを追加する。所定値としては、当該ボクセルがボリュームレンダリング像の生成に寄与しないように、RGB値をR=G=B=0に、不透明度をα=0(すなわち、無色・透明)とすることができるが、ボリュームレンダリング像の生成に寄与しない値であれば、RGB値をR=G=B=0に限定しなくてもよく、不透明度をα=0に限定しなくてもよい。 FIG. 11 is an explanatory diagram showing an example of a dummy transparent image addition process by the 3D texture mapping device 100 of the present embodiment. A dummy transparent image in which the RGB values and opacity of all pixels are set to predetermined values (here, colorless and transparent) at both ends of the original tomographic image arranged at slice intervals in the z-axis direction. To add. That is, the voxel structure generation unit 23 corresponds to each pixel of the dummy xy plane image arranged at both ends in the z-axis direction with the plurality of xy plane images in between, and the RGB value and the opacity are set to predetermined values. Generate a voxel structure with a dummy voxel added. Specifically, the voxel structure generation unit 23 adds voxels corresponding to the dummy transparent image at both ends of the tomographic image in the z-axis direction. As predetermined values, the RGB value can be set to R = G = B = 0 and the opacity can be set to α = 0 (that is, colorless / transparent) so that the boxel does not contribute to the generation of the volume rendering image. The RGB value may not be limited to R = G = B = 0, and the opacity may not be limited to α = 0 as long as the value does not contribute to the generation of the volume rendering image.

なお、色補間部28は、後述のステップS24において、生成したボクセル構造体のボクセルのRGB値及び不透明度が所定値である対象ボクセルに対して、対象ボクセルの近傍に位置する近傍ボクセルのRGB値に基づいて、対象ボクセルのRGB値を色補間する。ただし、透明なボクセルであっても、RGB値のいずれかに所定値以外の値(ここでは、1以上の値)が設定されている場合(例えば、肺野の空気など)は、色補間を行わない。 In step S24 described later, the color interpolation unit 28 has the RGB value of the voxel of the generated voxel structure and the RGB value of the neighboring voxel located in the vicinity of the target voxel with respect to the target voxel whose opacity is a predetermined value. The RGB values of the target voxels are color-interpolated based on. However, even for transparent voxels, if any of the RGB values is set to a value other than a predetermined value (here, a value of 1 or more) (for example, air in the lung field), color interpolation is performed. Not performed.

上述のように、本実施の形態のボクセル構造体のボクセルデータにおいて、ボクセル構造体は、複数のxy平面画像を間にしてz軸方向の両端に配置されたダミーxy平面画像の各画素に対応し、RGB値及び不透明度が所定値とされたボクセルであるダミーボクセルを含み、ボクセルデータは、ダミーボクセルが付加されたボクセル構造体のRGB値及び不透明度が所定値である対象ボクセルに対して、対象ボクセルの近傍に位置する近傍ボクセルのRGB値に基づいて、対象ボクセルのRGB値が色補間されたデータを含む。 As described above, in the voxel data of the voxel structure of the present embodiment, the voxel structure corresponds to each pixel of the dummy xy plane image arranged at both ends in the z-axis direction with a plurality of xy plane images in between. However, the voxel data includes a dummy voxel which is a voxel whose RGB value and opacity are predetermined values, and the voxel data is for a target voxel whose RGB value and opacity are predetermined values of the voxel structure to which the dummy voxel is added. , Contains data in which the RGB values of the target voxels are color-interpolated based on the RGB values of the neighboring voxels located in the vicinity of the target voxels.

ROIクリッピング切断面に限らず、断層画像の周辺部がそのまま不透明領域と透明領域との境界面となり、モアレの発生源になる場合がある。例えば、CTスキャンの倍率設定により、人体の断層面の周辺部が切れた状態で撮像されることがあり、その場合、ROIクリッピングの指示を行わなくても、図10において、x=0、y=0、x=Sx-1、y=Sy-1のいずれかを満たす面は、x<0、y<0、x>Sx-1、y>Sy-1のいずれかの断層画像の外側領域には画像データが存在せず、無色・透明な空間としてボリュームレンダリング処理されるため、ROIクリッピング切断面と同様な特質をもつ。即ち、x=0、y=0、x=Sx-1、y=Sy-1のいずれかを満たす平面は、必然的に不透明領域と透明領域の境界面となり、モアレ発生源となる。そこで、ROIクリッピングの指示の有無を問わず、x=0、y=0、x=Sx-1、y=Sy-1のいずれかを満たす1ボクセル幅の外縁部の全てのボクセルに対して、図10の斜線部と同様に無色・透明にし、後続処理である色補間を併せて行う。即ち、画像処理部20は、階調圧縮断層画像の外縁部(ボーダー部とも称する)の画素に対応するボクセルの透明化処理を行う(S22)。なお、後述のステップS23の処理を行うか否かにかかわらず、ステップS22の処理は実施する。なお、外縁部とは、画像の外側ではなく、画像内の領域であって、画像の縁にあたる部分を意味する。 Not limited to the ROI clipping cut surface, the peripheral portion of the tomographic image becomes the boundary surface between the opaque region and the transparent region as it is, and may become a source of moire. For example, depending on the magnification setting of the CT scan, the image may be taken in a state where the peripheral portion of the tomographic surface of the human body is cut off. In that case, x = 0, y in FIG. 10 without instructing ROI clipping. The surface satisfying any of = 0, x = Sx-1, y = Sy-1 is the outer region of the tomographic image of any one of x <0, y <0, x> Sx-1, y> Sy-1. Since there is no image data in the image and volume rendering is performed as a colorless and transparent space, it has the same characteristics as the ROI clipping cut surface. That is, a plane satisfying any one of x = 0, y = 0, x = Sx-1, and y = Sy-1 inevitably becomes a boundary surface between an opaque region and a transparent region, and becomes a moire generation source. Therefore, regardless of whether or not ROI clipping is instructed, for all voxels at the outer edge portion of one voxel width satisfying any of x = 0, y = 0, x = Sx-1, and y = Sy-1. Colorless and transparent as in the shaded area of FIG. 10, and color interpolation, which is a subsequent process, is also performed. That is, the image processing unit 20 performs voxel transparency processing corresponding to the pixels of the outer edge portion (also referred to as the border portion) of the gradation compressed tomographic image (S22). The process of step S22 is performed regardless of whether or not the process of step S23 described later is performed. The outer edge portion means a region in the image, not the outside of the image, which corresponds to the edge of the image.

図12は本実施の形態の3Dテクスチャマッピング装置100による断層画像の外縁部のボクセルの透明化処理の一例を示す説明図である。z軸方向にスライス間隔で並んだ断層画像それぞれの外縁部の画素に対応するボクセルの色をR=G=B=0(無色)にし、不透明度αを0(透明)にする。すなわち、ボクセル構造体生成部23は、断層画像の外縁部の画素に対応するボクセルを無色・透明にする。ここで、外縁部とは、例えば、断層画像内の領域であって縁から1画素分とすることができる。ボクセル構造体V(x,y,z,c)は、V(x,y,z,c)=0(x=0またはx=Sx-1またはy=0またはy=Sy-1またはz=0またはz=Sz+1、0≦c≦3)となる。すなわち、ボクセル構造体生成部23は、複数のxy平面画像の外縁部の各画素に対応し、RGB値及び不透明度が所定値とされたボクセルを含むボクセル構造体を生成する。具体的には、ボクセル構造体生成部23は、断層画像の外縁部の画素に対応するボクセルを無色・透明にする。なお、外縁部は1画素に限定しなくてもよい。所定値としては、RGB値をR=G=B=0で不透明度α=0(すなわち、画素の色を無色つまり黒色で、透明)とすることができるが、ボリュレームレンダリングに寄与しないボクセルの値であれば、RGB値をR=G=B=0に限定しなくてもよく、不透明度をα=0に限定しなくてもよい。 FIG. 12 is an explanatory diagram showing an example of voxel transparency processing at the outer edge of the tomographic image by the 3D texture mapping device 100 of the present embodiment. The color of the voxels corresponding to the pixels at the outer edge of each tomographic image arranged at slice intervals in the z-axis direction is set to R = G = B = 0 (colorless), and the opacity α is set to 0 (transparent). That is, the voxel structure generation unit 23 makes the voxels corresponding to the pixels at the outer edge of the tomographic image colorless and transparent. Here, the outer edge portion is, for example, a region in the tomographic image and can be one pixel from the edge. The voxel structure V (x, y, z, c) has V (x, y, z, c) = 0 (x = 0 or x = Sx-1 or y = 0 or y = Sy-1 or z = 0 or z = Sz + 1, 0 ≦ c ≦ 3). That is, the voxel structure generation unit 23 generates a voxel structure including voxels having RGB values and opacity as predetermined values corresponding to each pixel of the outer edge portion of the plurality of xy plane images. Specifically, the voxel structure generation unit 23 makes the voxels corresponding to the pixels at the outer edge of the tomographic image colorless and transparent. The outer edge portion does not have to be limited to one pixel. As a predetermined value, the RGB value can be R = G = B = 0 and the opacity α = 0 (that is, the pixel color is colorless, that is, black and transparent), but the voxel does not contribute to volume rendering. If it is a value, the RGB value may not be limited to R = G = B = 0, and the opacity may not be limited to α = 0.

なお、色補間部28は、後述のステップS24において、断層画像の外縁部の無色・透明な画素に対応するボクセルの対象ボクセルに対して、対象ボクセルの近傍に位置する近傍ボクセルのRGB値に基づいて、対象ボクセルのRGB値を色補間する。ただし、透明なボクセルであっても、RGB値のいずれかに所定値以外の値(ここでは、1以上の値)が設定されている場合(例えば、肺野の空気など)は、色補間を行わない。 The color interpolation unit 28 is based on the RGB values of the neighboring voxels located in the vicinity of the target voxels with respect to the target voxels of the voxels corresponding to the colorless / transparent pixels at the outer edge of the tomographic image in step S24 described later. Then, the RGB values of the target voxels are color-interpolated. However, even for transparent voxels, if any of the RGB values is set to a value other than a predetermined value (here, a value of 1 or more) (for example, air in the lung field), color interpolation is performed. Not performed.

上述のように、本実施の形態のボクセル構造体のボクセルデータにおいて、ボクセル構造体は、複数のxy平面画像の外縁部の各画素に対応し、RGB値及び不透明度が所定値とされたボクセルを含み、ボクセルデータは、ボクセルを含むボクセル構造体のRGB値及び不透明度が所定値である対象ボクセルに対して、対象ボクセルの近傍に位置する近傍ボクセルのRGB値に基づいて、対象ボクセルのRGB値が色補間されたデータを含む。 As described above, in the voxel data of the voxel structure of the present embodiment, the voxel structure corresponds to each pixel of the outer edge portion of a plurality of xy plane images, and the RGB value and the opacity are set to predetermined values. The voxel data includes, and the RGB value of the target voxel is based on the RGB value of the neighboring voxel located in the vicinity of the target voxel with respect to the target voxel whose opacity is a predetermined value and the RGB value of the voxel structure containing the voxel. Contains data whose values are color interpolated.

画像処理部20は、ボクセルの陰影値を算出する(S23)。ただし、ステップS23の処理は、必須ではなく、ステップS23の処理を実施しない場合には、ステップS24の処理に進めばよい。 The image processing unit 20 calculates the voxel shadow value (S23). However, the process of step S23 is not indispensable, and if the process of step S23 is not performed, the process of step S24 may proceed.

ボクセルの陰影値の算出は、以下のようにすることができる。すなわち、ボクセル構造体生成部23は、ボクセル構造体のボクセルの不透明度に関する勾配ベクトルを算出し、算出した勾配ベクトル及び所定の光源ベクトルに基づいてボクセルの陰影値を算出する。 The voxel shadow value can be calculated as follows. That is, the voxel structure generation unit 23 calculates the gradient vector regarding the opacity of the voxel of the voxel structure, and calculates the voxel shadow value based on the calculated gradient vector and the predetermined light source vector.

より具体的には、ボクセル構造体生成部23は、ボクセル構造体のボクセルの不透明度と、当該ボクセルの近傍に位置する複数の近傍ボクセルそれぞれの不透明度との差分を算出する。ボクセル構造体生成部23は、ボクセルと近傍ボクセルとの距離並びにボクセル及び近傍ボクセルそれぞれの不透明度の差分に基づいてボクセルの勾配ベクトルを算出する。この場合、近傍ボクセルとの距離を用いるにあたり、XY方向とZ方向の解像度が異なることを考慮し、ボクセル構造体生成部23は、勾配ベクトルのz軸方向の成分をz軸方向の変倍率Rxy/Rzで補正することが必要である。 More specifically, the voxel structure generation unit 23 calculates the difference between the opacity of the voxel of the voxel structure and the opacity of each of the plurality of neighboring voxels located in the vicinity of the voxel. The voxel structure generation unit 23 calculates a voxel gradient vector based on the distance between the voxel and the neighboring voxel and the difference in opacity between the voxel and the neighboring voxel. In this case, when using the distance to the neighboring voxels, considering that the resolutions in the XY directions and the Z directions are different, the voxel structure generation unit 23 uses the z-axis direction component of the gradient vector as the variable magnification Rxy in the z-axis direction. It is necessary to correct with / Rz.

光源ベクトル(Lx,Ly,Lz)は、例えば、(Lx,Ly,Lz)=(0.57735,0.57735,0.57735)の如く、平行光源で単位ベクトルとして指定する。また、環境光成分をAbとする。ここで、0≦Ab≦1である。例えば、Ab=0.2とする。 The light source vector (Lx, Ly, Lz) is designated as a unit vector by a parallel light source, for example, (Lx, Ly, Lz) = (0.57735, 0.57735, 0.57735). Further, the ambient light component is Ab. Here, 0 ≦ Ab ≦ 1. For example, Ab = 0.2.

0≦x≦Sx-2、0≦y≦Sy-2、0≦z≦Szの範囲のボクセル(x,y,z)の勾配ベクトル(Gx,Gy,Gz)は、式(1)、(2)、(3)で算出することができる。本実施の形態では、26近傍のボクセル値と中央のボクセルのボクセル値との差分により高精度に勾配ベクトルを算出することができる。勾配ベクトルを算出する際に、ボクセルは座標変換前でz方向変倍処理が行われていないため、xy方向とz方向とでは解像度が異なる点に留意し、勾配ベクトルのz方向成分Gzの変倍補正(Rxy/Rzの乗算)を行う。 The gradient vector (Gx, Gy, Gz) of the voxel (x, y, z) in the range of 0 ≦ x ≦ Sx-2, 0 ≦ y ≦ Sy-2, 0 ≦ z ≦ Sz is expressed in the equations (1) and (1). It can be calculated by 2) and (3). In the present embodiment, the gradient vector can be calculated with high accuracy by the difference between the voxel value in the vicinity of 26 and the voxel value in the center voxel. When calculating the gradient vector, keep in mind that the voxels are not scaled in the z direction before the coordinate conversion, so the resolution differs between the xy direction and the z direction, and the change in the z direction component Gz of the gradient vector. Double correction (multiplication of Rxy / Rz) is performed.

Figure 0007013849000001
Figure 0007013849000001

G={Gx2 +Gy2 +Gz2 1/2 とする(Gxの2乗とGyの2乗とGzの2乗との和の平方根をGとする)。G≧1の場合、陰影値S(x,y,z)は、拡散反射成分のみ算出し、式(4)で与えられる。これにより、視線ベクトルを変更してボクセルを回転させると、立体感を表現することができる。なお、視線を変えても、座標の回転処理を行う前であり、勾配ベクトルは変化しないので、鏡面反射成分は加えない。ボクセル構造体生成部23は、算出した輝度値に基づいてボクセルのRGB値を補正する。陰影計算後のボクセルをV′(x,y,z,c)で表すと、ボクセルのRGB値の補正は、0≦c≦2の範囲で式(5)を適用することにより行うことができる。 G = {Gx 2 + Gy 2 + Gz 2 } 1/2 (G is the square root of the sum of the square of Gx, the square of Gy, and the square of Gz). When G ≧ 1, the shadow value S (x, y, z) is given by the equation (4) by calculating only the diffuse reflection component. As a result, when the line-of-sight vector is changed and the voxel is rotated, a three-dimensional effect can be expressed. Even if the line of sight is changed, the specular reflection component is not added because the gradient vector does not change before the coordinate rotation processing is performed. The voxel structure generation unit 23 corrects the RGB value of the voxel based on the calculated luminance value. When the voxel after the shading calculation is represented by V'(x, y, z, c), the RGB value of the voxel can be corrected by applying the equation (5) in the range of 0 ≦ c ≦ 2. ..

OpenGLを用いた3Dテクスチャマッピング法では、ハードウエアレンダリングにおいて、ボクセルの勾配ベクトル、陰影計算に係る処理はサポートされていないため、陰影値として常にα値が与えられている。しかし、本実施の形態では、疑似的に陰影計算を行うことができる。すなわち、陰影計算を正確に行うためには、ボクセルの座標変換後に行う必要があるが、座標変換はハードウエアレンダリングで一緒に行われるため、座標変換前にハードウエアレンダリングに投入するボクセルデータに予め陰影計算結果を組み込むことにより、疑似的に陰影が付与されたレンダリング像を得ることができる。 In the 3D texture mapping method using OpenGL, since the processing related to the voxel gradient vector and the shadow calculation is not supported in the hardware rendering, the α value is always given as the shadow value. However, in the present embodiment, the shadow calculation can be performed in a pseudo manner. That is, in order to perform the shadow calculation accurately, it is necessary to perform it after the voxel coordinate conversion, but since the coordinate conversion is performed together with the hardware rendering, the voxel data to be input to the hardware rendering before the coordinate conversion is performed in advance. By incorporating the shading calculation result, it is possible to obtain a rendered image with pseudo shading.

断層画像の外縁部や背景部のボクセルではG<1となることがあり、その場合、陰影計算を行わずに、一律に無色・透明(R=G=B=α=0)にする。すなわち、陰影計算後のボクセルをV′(x,y,z,c)で表すと、V′(x,y,z,c)=0(c=0,1,2,3)とする。これは、前述のステップS22と同等の処理である。 In the voxels at the outer edge and background of the tomographic image, G <1 may be set. In that case, the color and transparency (R = G = B = α = 0) are uniformly set without performing the shadow calculation. That is, when the voxel after the shadow calculation is represented by V'(x, y, z, c), V'(x, y, z, c) = 0 (c = 0, 1, 2, 3). This is the same process as in step S22 described above.

画像処理部20は、透明ボクセルの色補間処理を行う(S24)。なお、色補間処理の詳細は後述する。 The image processing unit 20 performs color interpolation processing for transparent voxels (S24). The details of the color interpolation processing will be described later.

画像処理部20は、色補間したボクセル構造体を3Dテクスチャマップとして登録し(S25)、投影画面を設定する(S26)。 The image processing unit 20 registers the color-interpolated voxel structure as a 3D texture map (S25), and sets the projection screen (S26).

図13は本実施の形態の3Dテクスチャマッピング装置100による投影画面設定の一例を示す説明図である。変換処理部24は、レンダリング画像のスクリーンサイズ(縦横画素数、縦横アスペクト比率)を設定する。変換処理部24は、平行投影(通常の外観レンダリング)又は透視投影(内視鏡モード)のいずれかを設定する。そして、変換処理部24は、透視投影が設定された場合、透視投影パラメータを設定する。透視投影パラメータは、例えば、カメラの視野角度(焦点距離)、視点位置(視点と注視点で構成され、前者は目の位置で後者は見ている対象物上の位置で、双方ともZ軸上に設定される。一般に、注視点はワールド座標系の原点に固定)、クリッピング位置(視点からのZ軸上の距離、近方及び遠方の2箇所)などを含む。なお、クリッピング位置は、近方だけでもよい。図13に示すように、平行投影の場合には、視点からの視線は全てZ軸に平行となり、視点は仮想的に左方向に無限遠に離れた位置にあることを想定しているため、Z軸方向に定義されている全ての積層四角形がレンダリング対象になる。一方、透視投影の場合には、視点からの視野角度に応じて、視線が広がり、レンダリング対象も近方クリッピングによって制限されている。 FIG. 13 is an explanatory diagram showing an example of projection screen setting by the 3D texture mapping device 100 of the present embodiment. The conversion processing unit 24 sets the screen size (number of vertical / horizontal pixels, vertical / horizontal aspect ratio) of the rendered image. The conversion processing unit 24 sets either parallel projection (normal appearance rendering) or perspective projection (endoscope mode). Then, when the perspective projection is set, the conversion processing unit 24 sets the perspective projection parameter. The perspective projection parameters are, for example, the viewing angle (focal length) of the camera and the viewpoint position (viewpoint and gaze point, the former is the position of the eye and the latter is the position on the object being viewed, both on the Z axis. In general, the gazing point is fixed to the origin of the world coordinate system), clipping position (distance on the Z axis from the viewpoint, two points near and far), and the like. The clipping position may be only near. As shown in FIG. 13, in the case of parallel projection, all the lines of sight from the viewpoint are parallel to the Z axis, and the viewpoint is assumed to be virtually at a position at infinity to the left. All stacked quadrangles defined in the Z-axis direction are rendered targets. On the other hand, in the case of fluoroscopic projection, the line of sight is widened according to the viewing angle from the viewpoint, and the rendering target is also limited by near clipping.

画像処理部20は、レンダリング処理を行い(S27)、フレームメモリ上にレンダリング画像を生成し(S28)、処理を終了する。なお、レンダリング処理の詳細は後述する。 The image processing unit 20 performs a rendering process (S27), generates a rendered image on the frame memory (S28), and ends the process. The details of the rendering process will be described later.

図14は本実施の形態の3Dテクスチャマッピング装置100による透明ボクセルの色補間処理の手順の一例を示すフローチャートである。画像処理部20は、ボクセル構造体の、0≦x≦Sx-1、0≦y≦Sy-1、0≦z≦Sz+1のすべてのボクセルから無色・透明のボクセルを抽出する(S101)。すなわち、式(6)を満たすボクセルを抽出する。 FIG. 14 is a flowchart showing an example of a procedure for color interpolation processing of transparent voxels by the 3D texture mapping device 100 of the present embodiment. The image processing unit 20 extracts colorless and transparent voxels from all the voxels of the voxel structure of 0 ≦ x ≦ Sx-1, 0 ≦ y ≦ Sy-1, and 0 ≦ z ≦ Sz + 1 (S101). That is, a voxel satisfying the formula (6) is extracted.

Figure 0007013849000002
Figure 0007013849000002

画像処理部20は、抽出したボクセルのうち対象ボクセルの近傍ボクセルであって不透明なボクセルを特定する(S102)。対象ボクセルのxyz座標を(x,y,z)とすると、-1≦i≦1、-1≦j≦1、-1≦k≦1の範囲の対象ボクセルの近傍の26近傍ボクセルの中からV(x+i,y+j,z+k,3)>0を満たす不透明ボクセルを特定し、式(7)の定義に従いその個数をCとする。すなわち、ボクセル構造体生成部23は、対象ボクセルに係る近傍ボクセルのうち、不透明度が所定値より大きい近傍ボクセルを特定する。所定値としては、ボリュームレンダリングに寄与しない不透明度α=0(すなわち、透明)とすることができるが、ボリュームレンダリングに寄与しなければ、不透明度をα=0に限定しなくてもよい。 The image processing unit 20 identifies an opaque voxel that is a voxel in the vicinity of the target voxel among the extracted voxels (S102). Assuming that the xyz coordinates of the target voxel are (x, y, z), there are 26 voxels in the vicinity of the target voxel in the range of -1≤i≤1, -1≤j≤1, and -1≤k≤1. An opaque voxel satisfying V (x + i, y + j, z + k, 3)> 0 is specified, and the number is C according to the definition of the equation (7). That is, the voxel structure generation unit 23 identifies a neighboring voxel whose opacity is larger than a predetermined value among the neighboring voxels related to the target voxel. The predetermined value can be opacity α = 0 (that is, transparent) that does not contribute to volume rendering, but the opacity may not be limited to α = 0 if it does not contribute to volume rendering.

画像処理部20は、C>0であるか即ち不透明ボクセルの有無を判定し(S103)、C>0である場合、即ち不透明ボクセルがある場合(S103でYES)、不透明ボクセルのRGB値の平均値で対象ボクセルのRGB値を更新し(S104)、後述のステップS106の処理を行う。RGB値の平均値をRa、Ga、Baとすると、平均値は式(8)、(9)、(10)によりV(x+i,y+j,z+k,3)>0を満たす不透明ボクセルの各々R値V(x+i,y+j,z+k,0)、G値V(x+i,y+j,z+k,1)、B値V(x+i,y+j,z+k,2)の総和で算出することができる。また、無色・透明の対象ボクセルのRGB値の更新は、式(11)、(12)、(13)により行うことができる。 The image processing unit 20 determines whether C> 0, that is, the presence or absence of opaque voxels (S103), and when C> 0, that is, when there is opaque voxels (YES in S103), the average of the RGB values of the opaque voxels. The RGB value of the target voxel is updated with the value (S104), and the process of step S106 described later is performed. Assuming that the average value of the RGB values is Ra, Ga, and Ba, the average value is the R value of each opaque box cell satisfying V (x + i, y + j, z + k, 3)> 0 according to the equations (8), (9), and (10). It can be calculated by the sum of V (x + i, y + j, z + k, 0), G value V (x + i, y + j, z + k, 1), and B value V (x + i, y + j, z + k, 2). Further, the RGB values of the colorless / transparent target voxels can be updated by the equations (11), (12) and (13).

C=0である場合、即ち不透明ボクセルがない場合(S103でNO)、画像処理部20は、対象ボクセルのRGB値を0(すなわち、Ra=Ga=Ba=0)とし(S105)、抽出した無色・透明のボクセルのすべての対象ボクセルの色補間を終了したか否かを判定する(S106)。すべての対象ボクセルの色補間を終了していない場合(S106でNO)、画像処理部20は、ステップS102以降の処理を続け、すべての対象ボクセルの色補間を終了した場合(S106でYES)、処理を終了する。 When C = 0, that is, when there is no opaque voxel (NO in S103), the image processing unit 20 sets the RGB value of the target voxel to 0 (that is, Ra = Ga = Ba = 0) and extracts (S105). It is determined whether or not the color interpolation of all the target voxels of the colorless / transparent voxels has been completed (S106). When the color interpolation of all target voxels is not completed (NO in S106), the image processing unit 20 continues the processing after step S102, and when the color interpolation of all target voxels is completed (YES in S106). End the process.

色補間処理は、画像処理部20の色補間部28が行う。より具体的には、色補間部28は、特定した近傍ボクセルのRGB値の統計値に基づいて、対象ボクセルのRGB値を色補間する。統計値は、平均値を用いることができるが、平均値に限定しなくてもよく、例えば、中央値などを用いることもできる場合がある。 The color interpolation processing is performed by the color interpolation unit 28 of the image processing unit 20. More specifically, the color interpolation unit 28 color-interpolates the RGB values of the target voxels based on the statistical values of the RGB values of the specified neighboring voxels. Although the average value can be used as the statistical value, the statistical value is not limited to the average value, and for example, the median value may be used.

上述のように、本実施の形態のボクセル構造体のボクセルデータは、対象ボクセルに係る近傍ボクセルのうち、不透明度が所定値より大きい近傍ボクセル(すなわち、不透明度αが1以上のボクセル)のRGB値の統計値に基づいて、対象ボクセルのRGB値が色補間されたデータを含む。 As described above, the voxel data of the voxel structure of the present embodiment is RGB of the neighboring voxels having opacity greater than a predetermined value (that is, voxels having opacity α of 1 or more) among the neighboring voxels related to the target voxels. Contains data in which the RGB values of the target voxel are color interpolated based on the statistical values of the values.

図15は本実施の形態の3Dテクスチャマッピング装置100によるレンダリング処理の手順の一例を示すフローチャートである。画像処理部20は、3Dテクスチャマップに対するスケーリング及びz方向変倍処理を行い(S111)、3Dテクスチャマップに対する回転処理を行う(S112)。 FIG. 15 is a flowchart showing an example of the procedure of the rendering process by the 3D texture mapping device 100 of the present embodiment. The image processing unit 20 performs scaling and z-direction scaling processing on the 3D texture map (S111), and rotation processing on the 3D texture map (S112).

画像処理部20は、3Dテクスチャマップに対するオフセット処理を行い(S113)、複数の四角形で構成される積層四角形を設定する(S114)。画像処理部20は、積層四角形を構成する各四角形と3Dテクスチャマップとの対応付けを行う(S115)。 The image processing unit 20 performs offset processing on the 3D texture map (S113), and sets a laminated quadrangle composed of a plurality of quadrangles (S114). The image processing unit 20 associates each quadrangle constituting the laminated quadrangle with the 3D texture map (S115).

図16は3Dテクスチャマッピングとの対応付け方法の一例を示す説明図である。図16Aに示すように、DICOM断層画像をRGBα形式に変換し、グラフィックAPIを介して3Dテクスチャマップとして登録する。そして、図16Bに示すように、積層四角形を定義し、3Dテクスチャマッピングを行う。この場合、ワールド座標系における各四角形の4頂点の3次元ワールド座標とテクスチャ座標系における3Dテクスチャマップの3次元テクスチャ座標とを対応付ける。図16に示すように、(-1,-1,z)、(-1,1,z)、(1,-1,z)、(1,1,z)の4頂点で構成される四角形に対して、ワールド座標の(-1,-1,z)は、テクスチャ座標(0,0,r)に対応付けられている。 FIG. 16 is an explanatory diagram showing an example of a method of associating with 3D texture mapping. As shown in FIG. 16A, the DICOM tomographic image is converted into RGBα format and registered as a 3D texture map via the graphic API. Then, as shown in FIG. 16B, a laminated quadrangle is defined and 3D texture mapping is performed. In this case, the 3D world coordinates of the 4 vertices of each square in the world coordinate system are associated with the 3D texture coordinates of the 3D texture map in the texture coordinate system. As shown in FIG. 16, a quadrangle composed of four vertices (-1, -1, z), (-1,1, z), (1, -1, z), and (1,1, z). On the other hand, the world coordinates (-1, -1, z) are associated with the texture coordinates (0, 0, r).

また、3Dテクスチャマッピングを設定する場合、積層四角形設定部27は、複数のxy平面画像の数及びダミーxy平面画像の数の合計値と同数の四角形をZ軸方向に並べた積層四角形を設定する。 When setting 3D texture mapping, the laminated quadrangle setting unit 27 sets a laminated quadrangle in which the same number of quadrangles as the total value of the number of a plurality of xy plane images and the number of dummy xy plane images are arranged in the Z-axis direction. ..

積層四角形における四角形の数は任意に設定することができるが、四角形の数と断層画像の枚数とが一致しない場合、Z軸方向に補間処理が働き、座標変換による座標値の丸め誤差が累積し、ストライプ・格子状のモアレが発生する。 The number of quadrangles in the laminated quadrangle can be set arbitrarily, but if the number of quadrangles and the number of tomographic images do not match, the interpolation process works in the Z-axis direction, and the rounding error of the coordinate values due to the coordinate conversion accumulates. Striped / quadrangular moire occurs.

そこで、積層四角形における四角形の数、3Dテクスチャマップに登録する2D断層画像の枚数を元のDICOM形式の断層画像の枚数+2枚(z軸方向に追加したダミー透明画像)にする。3Dボクセル構造体を構築する際、XYZ3次元の解像度を統一させた方が、後処理がしやすくなるため、2D断層画像のスライス間を補間して元のDICOM形式の断層画像の枚数よりも増やす処理が一般的に行われるが、本実施の形態の方が、モアレを抑制する観点から、より好ましい。 Therefore, the number of quadrangles in the laminated quadrangle and the number of 2D tomographic images registered in the 3D texture map are set to the number of original DICOM format tomographic images + 2 (dummy transparent images added in the z-axis direction). When constructing a 3D voxel structure, it is easier to post-process if the XYZ 3D resolution is unified, so the number of tomographic images in the original DICOM format is increased by interpolating between slices of the 2D tomographic image. Although the treatment is generally performed, the present embodiment is more preferable from the viewpoint of suppressing moire.

画像処理部20は、積層四角形に3Dテクスチャマップを貼り付けながらスキャンコンバージョンを行い、視点から遠い四角形の順にアルファブレンディング処理を行い(S116)、処理を終了する。 The image processing unit 20 performs scan conversion while pasting a 3D texture map on the laminated quadrangle, performs alpha blending processing in the order of the quadrangles far from the viewpoint (S116), and ends the processing.

より具体的には、あらかじめレンダリング画像のRGB値は全て背景色(例えば、R=G=B=0)で初期化しておく。レンダリング処理部25は、視点から最も遠い四角形に3Dテクスチャマップを貼り付け、図13で定義したレンダリング画像に平行投影または透視投影を行い、投影された四角形のワールド座標系におけるXYZ座標の(-1,-1,-1)からX軸方向及びY軸方向に、投影されたレンダリング画像における画素間隔に対応する間隔u(レンダリング画像の1画素に対応するワールド座標の間隔をuとする。例えばu=0.002)でスキャンコンバージョンを行う。スキャンコンバージョンされた、各ワールド座標(-1+iu,-1+ju,-1)(i,jはレンダリング画像の座標値で、例えば0≦i,j≦511の整数)において、各々対応するテクスチャ座標(2iu,2ju,0)を算出し、算出したテクスチャ座標に基づいて3Dテクスチャマップを参照しRGB値及び不透明度を取得して、対応するレンダリング画像の座標(i,j)に既に記録されているRGB値とアルファブレンディング処理を行い、対応するレンダリング画像の座標(i,j)のRGB値を更新する。このようにして、視点から最も遠い単一の四角形についてアルファブレンディング処理が終了すると、Z座標をv(四角形がZ軸方向に配置されているワールド座標の間隔をvとする。例えば、v=2/Sz)だけ増やし、視点方向に次に近い四角形(-1+iu,-1+ju,-1+v)について同様の処理を繰り返してレンダリング画像を更新する。全ての四角形についてスキャンコンバージョンしてワールド座標(-1+iu,-1+ju,-1+kv)(kは四角形の番号で、0≦k≦Sz-1の整数)に対してアルファブレンディングの処理が終了するとレンダリング画像が完成する。 More specifically, all the RGB values of the rendered image are initialized with the background color (for example, R = G = B = 0) in advance. The rendering processing unit 25 attaches a 3D texture map to the quadrangle farthest from the viewpoint, performs parallel projection or perspective projection on the rendered image defined in FIG. 13, and (-1) of the XYZ coordinates in the world coordinate system of the projected quadrangle. , -1, -1) to the X-axis direction and the Y-axis direction, the interval u corresponding to the pixel interval in the rendered image (for example, u is the interval of the world coordinates corresponding to one pixel of the rendered image. Perform scan conversion at = 0.002). At each scan-converted world coordinate (-1 + iu, -1 + ju, -1) (i, j are the coordinate values of the rendered image, for example, an integer of 0≤i, j≤511), each corresponding texture coordinate (2iu). , 2ju, 0) is calculated, the RGB value and opacity are acquired by referring to the 3D texture map based on the calculated texture coordinates, and the RGB already recorded in the corresponding rendered image coordinates (i, j). Performs alpha blending processing with the value, and updates the RGB values of the coordinates (i, j) of the corresponding rendered image. In this way, when the alpha blending process is completed for the single quadrangle farthest from the viewpoint, the Z coordinate is v (the interval between the world coordinates where the quadrangle is arranged in the Z axis direction is v. For example, v = 2. / Sz) is increased, and the same processing is repeated for the quadrangle (-1 + iu, -1 + ju, -1 + v) next to the viewpoint direction to update the rendered image. Scan-convert all quadrilaterals and render the image when the alpha blending process for world coordinates (-1 + iu, -1 + ju, -1 + kv) (k is the number of the quadrangle and 0≤k≤Sz-1) is completed. Is completed.

アルファブレンディング処理は、式(14)、(15)、(16)を用いることができる。 Equations (14), (15) and (16) can be used for the alpha blending process.

Figure 0007013849000003
Figure 0007013849000003

ここで、R′、G′、B′は、投影面において更新されるレンダリング画像のRGB値である。R、G、Bは、四角形のワールド座標(-1+iu,-1+ju,-1+kv)に対応する3Dテクスチャマップのボクセル(2iu,2ju,2kv)におけるRGB値であり、重ねる色の値に相当する。αも、四角形のワールド座標(-1+iu,-1+ju,-1+kv)に対応する3Dテクスチャマップのボクセル(2iu,2ju,2kv)におけるα値であり、重ねる割合を制御する。また、Rb、Gb、Bbは、ワールド座標(-1+iu,-1+ju,-1+kv)に対応するレンダリング画像の座標(i,j)に既に記録されているRGB値であり、当該四角形に対して視点と反対側に1つ前に位置する四角形に対して式(14)、(15)、(16)に基づいて算出されたR′、G′、B′の値に一致し、視点から最も遠い四角形に対して算出する場合は背景色(例えば、Rb=Gb=Bb=0)が与えられる。 Here, R', G', and B'are RGB values of the rendered image updated on the projection plane. R, G, and B are RGB values in the voxels (2iu, 2ju, 2kv) of the 3D texture map corresponding to the world coordinates (-1 + iu, -1 + ju, -1 + kv) of the quadrangle, and correspond to the values of the overlapping colors. α is also an α value in the voxels (2iu, 2ju, 2kv) of the 3D texture map corresponding to the world coordinates (-1 + iu, -1 + ju, -1 + kv) of the quadrangle, and controls the overlapping ratio. Further, Rb, Gb, and Bb are RGB values already recorded in the coordinates (i, j) of the rendered image corresponding to the world coordinates (-1 + iu, -1 + ju, -1 + kv), and are viewpoints with respect to the quadrangle. It matches the values of R', G', and B'calculated based on the equations (14), (15), and (16) for the quadrangle located one before on the opposite side, and is the farthest from the viewpoint. When calculating for a quadrangle, a background color (for example, Rb = Gb = Bb = 0) is given.

図17は本実施の形態の画像処理部20の構成の他の例を示すブロック図である。図17に示すように、画像処理部20は、CPU201、ROM202、RAM203、GPU204、ビデオメモリ205、記録媒体読取部206などで構成することができる。記録媒体1に記録されたコンピュータプログラムを記録媒体読取部206で読み取ってRAM203に格納することができる。RAM203に格納されたコンピュータプログラムをCPU201で実行させることにより、階調圧縮処理部21、平滑化処理部22、ボクセル構造体生成部23、変換処理部24、レンダリング処理部25、3Dテクスチャ画像生成部26、積層四角形設定部27、色補間部28、ROIクリッピング処理部29で行う処理を実行することができる。なお、CPU201は、セントラル・プロセッシングユニットで、通常は複数のコア(プロセッサ)で構成されてRAM203と連携して動作するのに対し、GPU204は、グラフィックス・プロセッシングユニットで、多くのグラフィックス処理に特化したプロセッサで構成されてビデオメモリ205と連携して動作する。また、コンピュータプログラムは、記録媒体読取部206で読み取る構成に代えて、インターネットなどのネットワークを介してダウンロードすることもできる。 FIG. 17 is a block diagram showing another example of the configuration of the image processing unit 20 of the present embodiment. As shown in FIG. 17, the image processing unit 20 can be composed of a CPU 201, a ROM 202, a RAM 203, a GPU 204, a video memory 205, a recording medium reading unit 206, and the like. The computer program recorded on the recording medium 1 can be read by the recording medium reading unit 206 and stored in the RAM 203. By executing the computer program stored in the RAM 203 by the CPU 201, the gradation compression processing unit 21, the smoothing processing unit 22, the voxel structure generation unit 23, the conversion processing unit 24, the rendering processing unit 25, and the 3D texture image generation unit 26, the processing performed by the laminated square setting unit 27, the color interpolation unit 28, and the ROI clipping processing unit 29 can be executed. The CPU 201 is a central processing unit, which is usually composed of a plurality of cores (processors) and operates in cooperation with the RAM 203, whereas the GPU 204 is a graphics processing unit, which is used for many graphics processing. It is composed of a specialized processor and operates in cooperation with the video memory 205. Further, the computer program can be downloaded via a network such as the Internet instead of the configuration of reading by the recording medium reading unit 206.

また、CPU201は、GPU204に対してレンダリング処理などの命令を出力する。GPU204は、命令を解釈し、レンダリング処理などの所要の処理を実行する。GPU204のプログラミングには、一般にグラフィクスAPI(例えば、OpenGLなど)を用いることができる。例えば、コンピュータプログラムは、CPU201に、変換処理、レンダリング処理を実行するための指令をGPU204に出力する処理を実行させることができる。 Further, the CPU 201 outputs an instruction such as a rendering process to the GPU 204. The GPU 204 interprets the instruction and executes necessary processing such as rendering processing. Graphics API (eg, OpenGL, etc.) can generally be used for programming the GPU 204. For example, the computer program can cause the CPU 201 to execute a process of outputting a command for executing a conversion process and a rendering process to the GPU 204.

次に、モアレの発生パターンについて説明する。ボリュームレンダリング像においてモアレが発生する理由は、断層画像を積層合成する点にある。モアレのタイプとしては、第1のタイプとして、曲線状のパターンがある。また、第2のパターンとして、ストライプ・格子状のパターンがある。なお、曲線状のパターン、ストライプ・格子状のパターンは厳密に分離されるものではなく、ボリュームレンダリング像では、両者が複合的に混ざって存在する。以下では、説明の便宜上、分けて説明する。まず、第1の曲線状のパターンについて説明する。 Next, the pattern of moire occurrence will be described. The reason why moire occurs in a volume rendered image is that tomographic images are laminated and combined. As a type of moire, there is a curved pattern as the first type. Further, as the second pattern, there is a stripe / grid pattern. It should be noted that the curved pattern and the striped / grid-like pattern are not strictly separated, and in the volume rendering image, both are present in a complex mixture. Hereinafter, they will be described separately for convenience of explanation. First, the first curved pattern will be described.

図18は曲線状のモアレが発生する様子の一例を示す模式図である。発生原因は、断層画像(スライス画像)に元々自然に存在する知覚可能な規則性をもたないパターンである。このようなパターンをもつ複数の断層画像を座標変換(xyz軸回りの回転)することにより、各断層画像に存在する前述の規則性をもたないパターンがずれて合成されることにより、これらのパターンが線状に連結し、結果として、ボリュームレンダリング像に曲線状の縞模様が形成され、知覚可能なモアレとして認識される。 FIG. 18 is a schematic diagram showing an example of how curved moire is generated. The cause of occurrence is a pattern that does not have perceptible regularity that originally exists naturally in a tomographic image (slice image). By performing coordinate transformation (rotation around the xyz axis) of a plurality of tomographic images having such a pattern, the above-mentioned non-regular patterns existing in each tomographic image are deviated and synthesized. The patterns are linearly connected, resulting in a curved striped pattern in the volume rendered image, which is perceived as a perceptible moire.

図19は本実施の形態の3Dテクスチャマッピング装置100によるモアレ対策結果の第1例を示す説明図である。図19Aは、比較例であり本実施の形態のモアレ対策を実施していない場合を示す。図19Bは、本実施の形態の3Dテクスチャマッピング装置100の平滑化処理部22により、各断層画像に対して図6で説明したような3D空間(xyz方向の等方性スムージング)で平滑化処理を行った場合を示す。図19Aでは曲線状の縞模様が発生しているが、図19Bでは、縞模様が消えていることが分かる。特に、スライス間隔が比較的粗いCT画像では、モアレの抑制効果は大きい。 FIG. 19 is an explanatory diagram showing a first example of a moire countermeasure result by the 3D texture mapping device 100 of the present embodiment. FIG. 19A is a comparative example and shows a case where the moire countermeasure of the present embodiment is not implemented. In FIG. 19B, the smoothing processing unit 22 of the 3D texture mapping device 100 of the present embodiment smoothes each tomographic image in the 3D space (isotropic smoothing in the xyz direction) as described in FIG. Is shown. In FIG. 19A, a curved striped pattern is generated, but in FIG. 19B, it can be seen that the striped pattern disappears. In particular, in a CT image with a relatively coarse slice interval, the effect of suppressing moire is large.

次に、モアレの第2のパターンであるストライプ・格子状のパターンについて説明する。 Next, a stripe / grid pattern, which is the second pattern of moiré, will be described.

図20はストライプ・格子状のモアレが発生する様子の一例を示す模式図である。ストライプ・格子状のパターンの特徴は、第1のパターンと異なり、モアレ発生源は、断層画像そのものにはなく、3Dテクスチャマッピング処理の過程で計算により発生した人工的パターンにある。3Dテクスチャマップの各断層画像を座標変換(xyz軸回りの回転)することにより、座標変換という実数演算の過程で端数を切り捨てて整数化し、整数値のxyz座標で変換前のボクセル値を参照する過程で、丸め誤差の累積により周期的なパターンが発生し、座標変換後の3Dテクスチャマップの断層画像に加わる。個々の断層画像に加わった周期的パターンは知覚できないレベルの微弱なものであるが、複数の断層画像がアルファブレンディング処理により重なり、重なる時のズレ幅が各周期的パターンの位相条件を満たせば、互いに強めあって、いわゆる干渉縞が発生し、ストライプ・格子状のモアレとして知覚可能なレベルになる。 FIG. 20 is a schematic diagram showing an example of how stripe-lattice moire is generated. The characteristic of the striped / grid pattern is that unlike the first pattern, the moire source is not in the tomographic image itself, but in the artificial pattern generated by calculation in the process of 3D texture mapping processing. By performing coordinate conversion (rotation around the xyz axis) of each tomographic image of the 3D texture map, the fraction is rounded down to an integer in the process of real number operation called coordinate conversion, and the boxel value before conversion is referred to by the xyz coordinate of the integer value. In the process, a periodic pattern is generated due to the accumulation of rounding errors, and it is added to the tomographic image of the 3D texture map after the coordinate conversion. The periodic pattern added to each tomographic image is weak at an imperceptible level, but if multiple tomographic images overlap due to alpha blending processing and the shift width at the time of overlap satisfies the phase condition of each periodic pattern, By strengthening each other, so-called interference fringes are generated, and the level becomes perceptible as stripes and grid-like moire.

図21は座標変換時の丸め誤差の発生の様子の一例を示す説明図である。図21では、便宜上、ボクセルを2次元で表している。座標変換前のボクセルを、横方向をx軸方向、縦方向をz軸方向として、V11、V12、…、V49で表す。z軸中心に回転させる座標変換によって、参照するx座標値は、実数値のx座標の整数化に伴う丸め誤差が累積する。例えば、算出された実数のx座標値は、左から右に向かって、1.3、2.6、3.9、5.2、6.5、7.8とする。 FIG. 21 is an explanatory diagram showing an example of the occurrence of rounding error during coordinate conversion. In FIG. 21, voxels are represented in two dimensions for convenience. The voxels before coordinate conversion are represented by V11, V12, ..., V49 with the horizontal direction as the x-axis direction and the vertical direction as the z-axis direction. Due to the coordinate transformation that is rotated around the z-axis, the rounding error that accompanies the integerization of the x-coordinate of the real value is accumulated in the x-coordinate value to be referenced. For example, the calculated x-coordinate value of the real number is 1.3, 2.6, 3.9, 5.2, 6.5, 7.8 from left to right.

例えば、算出された実数のx座標値が、1.3の場合、座標変換後のボクセルは、V11×0.7+V12×0.3により、座標変換前のV11及びV12を参照し、0.3という端数に基づく重みを乗算しながら補間されて求めることができる。また、算出された実数のx座標値が、2.6の場合、座標変換後のボクセルは、V12×0.4+V13×0.6により、座標変換前のV12及びV13を参照し、0.6という端数に基づく重みを乗算しながら補間されて求めることができる。また、算出された実数のx座標値が、3.9の場合、座標変換後のボクセルは、座標変換前のV13×0.1+V14×0.9により、V13及びV14を参照し、0.9という端数に基づく重みを乗算しながら補間されて求めることができる。また、算出された実数のx座標値が、5.2の場合、座標変換後のボクセルは、V15×0.8+V16×0.2により、座標変換前のV15及びV16を参照し、0.2いう端数に基づく重みを乗算しながら補間されて求めることができる。 For example, when the calculated x-coordinate value of the real number is 1.3, the voxel after the coordinate conversion refers to V11 and V12 before the coordinate conversion by V11 × 0.7 + V12 × 0.3, and 0.3. It can be obtained by interpolating while multiplying the weights based on the fraction. Further, when the calculated x-coordinate value of the real number is 2.6, the voxel after the coordinate conversion refers to V12 and V13 before the coordinate conversion by V12 × 0.4 + V13 × 0.6, and is 0.6. It can be obtained by interpolating while multiplying the weights based on the fraction. Further, when the calculated x-coordinate value of the real number is 3.9, the voxel after the coordinate conversion refers to V13 and V14 by V13 × 0.1 + V14 × 0.9 before the coordinate conversion, and 0.9. It can be obtained by interpolating while multiplying the weights based on the fraction. Further, when the calculated x-coordinate value of the real number is 5.2, the voxel after the coordinate conversion refers to V15 and V16 before the coordinate conversion by V15 × 0.8 + V16 × 0.2, and 0.2. It can be obtained by interpolating while multiplying the weights based on the fraction.

このように、座標変換後の左から4番目のボクセルは、座標変換前のボクセルV14とV15とで補間されず、V15とV16とで補間され、座標変換後の左から3番目のボクセルと4番目のボクセルとの間では、ボクセル値に段差が生じる。ただし、この段差はV11からV19で形成される単一の層(断層画像)では知覚可能なレベルではない。しかし、図21に示されるように、同様な段差がV21からV49で形成される3つの層にも同一の箇所で発生すると、結果として、z軸方向に沿ってストライプ・格子状のモアレとして知覚可能になる。特に色の付いた不透明領域(R+G+B>0、不透明度α>0)と無色の透明領域(R=G=B=α=0)との境界面でこのような段差が発生すると、目立ちやすい。 In this way, the fourth voxel from the left after the coordinate conversion is not interpolated by the voxels V14 and V15 before the coordinate conversion, but is interpolated by V15 and V16, and the third voxel and 4 from the left after the coordinate conversion. There is a step in the voxel value with the third voxel. However, this step is not a perceptible level in a single layer (tomographic image) formed by V11 to V19. However, as shown in FIG. 21, when a similar step occurs at the same location in the three layers formed by V21 to V49, as a result, it is perceived as a striped / grid-like moire along the z-axis direction. It will be possible. In particular, when such a step occurs at the boundary surface between the colored opaque region (R + G + B> 0, opacity α> 0) and the colorless transparent region (R = G = B = α = 0), it is easily noticeable.

図22は座標変換により周期パターンの発生の様子の一例を示す模式図である。モアレ発生の要因となる周期パターンは、不透明領域(R+G+B>0、不透明度α>0)と透明領域(R=G=B=α=0)の境界面が発生源になっており、境界面が平面で、不透明領域の色(RGB値)または不透明度(α値)が比較的大きい場合にモアレが目立ちやすい。座標変換により境界面の画素(すなわち、ボクセル)が階段状に配置されると、補間処理により、近傍の透明領域のボクセルに対して、1以上の不透明度が設定され半透明になり、色も無色つまり黒色からグレーになる。この補間された透明ボクセルの不透明度と色が、階段状の配置に伴って周期的に変化し、ストライプ・格子状の縞模様が発生することにより、モアレの発生源となる。 FIG. 22 is a schematic diagram showing an example of how a periodic pattern is generated by coordinate transformation. The source of the periodic pattern that causes moiré is the boundary surface between the opaque region (R + G + B> 0, opacity α> 0) and the transparent region (R = G = B = α = 0). Is a flat surface, and moire is easily noticeable when the color (RGB value) or opacity (α value) of the opaque region is relatively large. When the pixels of the boundary surface (that is, voxels) are arranged in a stepped manner by the coordinate conversion, one or more opacity is set for the voxels in the nearby transparent area by the interpolation process, and the voxels become translucent and the color is also changed. Colorless, that is, from black to gray. The opacity and color of the interpolated transparent voxels change periodically with the stepped arrangement, and stripes and grid-like stripes are generated, which becomes a source of moire.

図23は本実施の形態の3Dテクスチャマッピング装置100による色補間の様子の一例を示す模式図である。本実施の形態では、色補間部28は、変換処理部24による座標変換が行われる前に、不透明領域と接する透明領域のボクセルの色を事前に色補間(色補正)する。すなわち、不透明領域と接する透明ボクセルの不透明度は0のままにし、透明ボクセルの色を26近傍の不透明ボクセルのRGB値の平均値を与える。そうすると、座標変換により、透明ボクセルの不透明度は、階段状の配置に伴って周期的に変化するが、透明ボクセルの色は殆ど均一になり周期的パターンを知覚できなくなる。つまり、透明領域と不透明領域との境界部(エッジ部)の透明領域内の画素が半透明になっても、近傍の不透明領域と類似した色が付加されているため、色の周期的変化は認知されにくくなる。結果として、本実施の形態による色補間処理によれば、不透明領域と接する透明ボクセルの色が変わるだけで、不透明度は透明なままであるため、ボリュームレンダリングに寄与するボクセルの作用は変化せず、画質劣化を理論上発生させずに、座標変換によるモアレ発生の問題を解消させることができる。 FIG. 23 is a schematic diagram showing an example of the state of color interpolation by the 3D texture mapping device 100 of the present embodiment. In the present embodiment, the color interpolation unit 28 performs color interpolation (color correction) in advance on the color of the voxels in the transparent area in contact with the opaque area before the coordinate conversion by the conversion processing unit 24 is performed. That is, the opacity of the transparent voxels in contact with the opaque region is left as 0, and the color of the transparent voxels is given the average value of the RGB values of the opaque voxels in the vicinity of 26. Then, due to the coordinate transformation, the opacity of the transparent voxels changes periodically with the stepwise arrangement, but the color of the transparent voxels becomes almost uniform and the periodic pattern cannot be perceived. That is, even if the pixels in the transparent area at the boundary (edge part) between the transparent area and the opaque area become semi-transparent, a color similar to that of the opaque area in the vicinity is added, so that the periodic change in color does not occur. It becomes difficult to be recognized. As a result, according to the color interpolation processing according to the present embodiment, only the color of the transparent voxel in contact with the opaque region changes, and the opacity remains transparent, so that the action of the voxel that contributes to volume rendering does not change. It is possible to solve the problem of moire generation due to coordinate conversion without theoretically causing image quality deterioration.

図24は本実施の形態の3Dテクスチャマッピング装置100によるモアレ対策結果の第2例を示す説明図である。図24Aは、比較例であり本実施の形態のモアレ対策を実施していない場合を示す。図24Bは、本実施の形態の3Dテクスチャマッピング装置100の色補間部28により、図9のステップS19、ステップS24の処理に基づいてROIクリッピング領域外のボクセルを無色・透明にし、無色・透明なボクセルの色を近傍の不透明ボクセルのRGB値に基づいて色補間した場合を示す。図24Aではモアレが発生しているが、図24Bではモアレが消えていることが分かる。 FIG. 24 is an explanatory diagram showing a second example of the moire countermeasure result by the 3D texture mapping device 100 of the present embodiment. FIG. 24A is a comparative example and shows a case where the moire countermeasure of the present embodiment is not implemented. In FIG. 24B, the color interpolation unit 28 of the 3D texture mapping device 100 of the present embodiment makes the voxels outside the ROI clipping region colorless and transparent based on the processes of steps S19 and S24 of FIG. 9, and is colorless and transparent. The case where the color of the voxel is color-interpolated based on the RGB value of the opaque voxel in the vicinity is shown. It can be seen that moiré is generated in FIG. 24A, but disappears in FIG. 24B.

図25は本実施の形態の3Dテクスチャマッピング装置100によるモアレ対策結果の第3例を示す説明図である。図25は図24Bの例に対して図9のステップS23の陰影値の算出処理を加えた場合の事例である。図25Aは、図24Aと同一の比較例であり、陰影を付加しておらず、かつ本実施の形態のモアレ対策を実施していない場合を示す。図25Bは、ステップS23の陰影値の算出処理を加えた上で、本実施の形態の3Dテクスチャマッピング装置100の色補間部28により、図9のステップS19、ステップS24の処理に基づいてROIクリッピング領域外のボクセルを透明にし、透明ボクセルの色を近傍の不透明ボクセルのRGB値に基づいて色補間した場合を示す。図25Aではモアレが発生しているが、図25Bでは陰影を付加してもモアレが消えていることが分かる。 FIG. 25 is an explanatory diagram showing a third example of the moire countermeasure result by the 3D texture mapping device 100 of the present embodiment. FIG. 25 is an example in which the shadow value calculation process of step S23 of FIG. 9 is added to the example of FIG. 24B. FIG. 25A is the same comparative example as in FIG. 24A, and shows a case where no shadow is added and the moire countermeasure of the present embodiment is not implemented. FIG. 25B shows ROI clipping based on the processes of steps S19 and S24 of FIG. 9 by the color interpolation unit 28 of the 3D texture mapping device 100 of the present embodiment after adding the shadow value calculation process of step S23. The case where the voxels outside the region are made transparent and the color of the transparent voxels is color-interpolated based on the RGB values of the neighboring opaque voxels is shown. In FIG. 25A, moiré is generated, but in FIG. 25B, it can be seen that the moiré disappears even if a shadow is added.

図26は本実施の形態の3Dテクスチャマッピング装置100によるモアレ対策結果の第4例を示す説明図である。図26Aは、比較例であり本実施の形態のモアレ対策を実施していない場合を示す。図26Bは、本実施の形態の3Dテクスチャマッピング装置100のボクセル構造体生成部23及び色補間部28により、図9のステップS20、ステップS24の処理に基づいて断層画像のz軸方向の両端にダミー透明画像を追加してダミーボクセルを追加し、透明のボクセルの色を近傍の不透明ボクセルのRGB値に基づいて色補間した場合を示す。図26Aでは斜め縞模様が発生しているが、図26Bでは縞模様が消えていることが分かる。 FIG. 26 is an explanatory diagram showing a fourth example of the moire countermeasure result by the 3D texture mapping device 100 of the present embodiment. FIG. 26A is a comparative example and shows a case where the moire countermeasure of the present embodiment is not implemented. FIG. 26B shows the voxel structure generation unit 23 and the color interpolation unit 28 of the 3D texture mapping device 100 of the present embodiment at both ends of the tomographic image in the z-axis direction based on the processes of steps S20 and S24 of FIG. A case where a dummy transparent image is added, a dummy voxel is added, and the color of the transparent voxel is color-interpolated based on the RGB value of a nearby opaque voxel is shown. It can be seen that the diagonal stripe pattern is generated in FIG. 26A, but the stripe pattern disappears in FIG. 26B.

図27は本実施の形態の3Dテクスチャマッピング装置100によるモアレ対策結果の第5例を示す説明図である。図27は図26の双方の事例に対して図9のステップS23の陰影値の算出処理を加えた場合の事例である。図27Aは、比較例であり、図9のステップS23の陰影値の算出処理を加えているが、本実施の形態のモアレ対策を実施していない場合を示す。図27Bは、ステップS23の陰影値の算出処理を加えた上で、本実施の形態の3Dテクスチャマッピング装置100のボクセル構造体生成部23及び色補間部28により、図9のステップS22、ステップS24の処理に基づいて断層画像の外縁部の画素に対応するボクセルを透明にし、透明のボクセルの色を近傍の不透明ボクセルのRGB値に基づいて色補間した場合を示す。図27Aでは斜め縞模様が発生しているが、図27Bでは縞模様が消えていることが分かる。 FIG. 27 is an explanatory diagram showing a fifth example of the moire countermeasure result by the 3D texture mapping device 100 of the present embodiment. FIG. 27 is an example when the shadow value calculation process of step S23 of FIG. 9 is added to both cases of FIG. 26. FIG. 27A is a comparative example, and shows a case where the shadow value calculation process of step S23 of FIG. 9 is added, but the moire countermeasure of the present embodiment is not implemented. 27B shows step S22 and step S24 of FIG. 9 by the voxel structure generation unit 23 and the color interpolation unit 28 of the 3D texture mapping device 100 of the present embodiment after adding the shading value calculation process of step S23. The case where the voxels corresponding to the pixels at the outer edge of the tomographic image are made transparent based on the processing of, and the color of the transparent voxels is color-interpolated based on the RGB values of the neighboring opaque voxels is shown. It can be seen that the diagonal stripe pattern is generated in FIG. 27A, but the stripe pattern disappears in FIG. 27B.

上述のように、本実施の形態によれば、レンダリング像の画質劣化を抑えながら、各種のモアレ(曲線状のモアレ、ストライプ・格子状のモアレ)の発生を抑制することができる。 As described above, according to the present embodiment, it is possible to suppress the generation of various moire (curved moire, striped / grid-shaped moire) while suppressing the deterioration of the image quality of the rendered image.

本実施の形態のコンピュータプログラムは、コンピュータに、z軸方向に沿って所定間隔で撮像された複数のxy平面画像の画像データを取得する処理と、前記複数のxy平面画像それぞれの各画素に対応し、RGB値及び不透明度が定められたボクセルで構成されるボクセル構造体を生成する処理と、前記ボクセル構造体の不透明度が所定値である対象ボクセルに対して、該対象ボクセルの近傍に位置する近傍ボクセルのRGB値に基づいて、前記対象ボクセルのRGB値を補正する処理と、RGB値が補正されたボクセル構造体のボクセルで構成される3Dテクスチャ画像を生成する処理と、前記3Dテクスチャ画像に対して所定の変換を行って変換後3Dテクスチャ画像を生成する処理と、3次元空間のXY座標面上の四角形をZ軸方向に並べた積層四角形を設定する処理と、所定の視点からZ軸方向に平行な視線上の前記四角形のXY座標に対応する前記変換後3Dテクスチャ画像のボクセルのRGB値を前記ボクセルの不透明度に基づいて前記視点から遠い四角形の順にアルファブレンディングして得られたRGB値を、前記視線が投影面と交差する画素の画素値としてレンダリング画像を生成する処理とを実行させる。 The computer program of the present embodiment corresponds to a process of acquiring image data of a plurality of xy plane images captured at predetermined intervals along the z-axis direction and a pixel of each of the plurality of xy plane images. Then, the process of generating a voxel structure composed of voxels having a defined RGB value and opacity, and the position in the vicinity of the target voxel with respect to the target voxel in which the opacity of the voxel structure is a predetermined value. A process of correcting the RGB value of the target voxel based on the RGB value of the neighboring voxel, a process of generating a 3D texture image composed of the voxel of the voxel structure whose RGB value has been corrected, and the process of generating the 3D texture image. To generate a 3D texture image after conversion by performing a predetermined conversion on Obtained by alpha blending the RGB values of the voxels of the converted 3D texture image corresponding to the XY coordinates of the squares on the line of sight parallel to the axial direction in the order of the voxels far from the viewpoint based on the opacity of the voxels. The processing of generating a rendered image is executed by using the RGB value as the pixel value of the pixel whose line of sight intersects the projection surface.

本実施の形態のコンピュータプログラムは、コンピュータに、前記複数のxy平面画像を間にしてz軸方向の両端に配置されたダミーxy平面画像の各画素に対応し、不透明度が前記所定値とされたダミーボクセルを付加したボクセル構造体を生成する処理と、生成したボクセル構造体のボクセルのうち不透明度が前記所定値である対象ボクセルに対して、該対象ボクセルの近傍に位置する近傍ボクセルのRGB値に基づいて、前記対象ボクセルのRGB値を補正する処理とを実行させる。 In the computer program of the present embodiment, the computer corresponds to each pixel of the dummy xy plane image arranged at both ends in the z-axis direction with the plurality of xy plane images in between, and the opacity is set to the predetermined value. The process of generating a voxel structure with a dummy voxel added, and the RGB of the neighboring voxels located in the vicinity of the target voxel with respect to the target voxel whose opacity is the predetermined value among the generated voxel structures. Based on the value, the process of correcting the RGB value of the target voxel is executed.

本実施の形態のコンピュータプログラムは、コンピュータに、前記複数のxy平面画像の数及び前記ダミーxy平面画像の数の合計値と同数の前記四角形をZ軸方向に並べた積層四角形を設定する処理を実行させる。 In the computer program of the present embodiment, a process of setting a laminated quadrangle in which the same number of the quadrangles as the total value of the number of the plurality of xy plane images and the number of the dummy xy plane images is arranged in the Z-axis direction is set in the computer. Let it run.

本実施の形態のコンピュータプログラムは、コンピュータに、前記複数のxy平面画像の外縁部の各画素に対応し、不透明度が前記所定値とされたボクセルを含むボクセル構造体を生成する処理と、生成したボクセル構造体のボクセルのうち不透明度が前記所定値である対象ボクセルに対して、該対象ボクセルの近傍に位置する近傍ボクセルのRGB値に基づいて、前記対象ボクセルのRGB値を補正する処理とを実行させる。 The computer program of the present embodiment processes and generates a voxel structure including a voxel having an opacity set to the predetermined value corresponding to each pixel of the outer edge portion of the plurality of xy plane images on the computer. A process of correcting the RGB value of the target voxel based on the RGB value of the neighboring voxel located in the vicinity of the target voxel for the target voxel whose opacity is the predetermined value among the voxels of the voxel structure. To execute.

本実施の形態のコンピュータプログラムは、コンピュータに、ボリュームレンダリング処理の対象領域を画定するxyz座標を設定する処理と、前記ボクセル構造体のボクセルのうちxyz座標が前記対象領域外のボクセルに対して、該ボクセルの不透明度に前記所定値を設定する処理と、前記所定値が設定されたボクセル構造体のボクセルのうち不透明度が前記所定値である対象ボクセルに対して、該対象ボクセルの近傍に位置する近傍ボクセルのRGB値に基づいて、前記対象ボクセルのRGB値を補正する処理とを実行させる。 The computer program of the present embodiment sets the xyz coordinates that define the target area of the volume rendering process in the computer, and the voxels of the voxel structure whose voxels are outside the target area of the voxels. The process of setting the predetermined value for the opacity of the voxel and the position in the vicinity of the target voxel with respect to the target voxel whose opacity is the predetermined value among the voxels of the voxel structure in which the predetermined value is set. The process of correcting the RGB value of the target voxel is executed based on the RGB value of the neighboring voxel.

本実施の形態のコンピュータプログラムは、コンピュータに、前記対象ボクセルに係る近傍ボクセルのうち、不透明度が前記所定値より大きい近傍ボクセルを特定する処理と、特定した近傍ボクセルのRGB値の統計値に基づいて、前記対象ボクセルのRGB値を補正する処理とを実行させる。 The computer program of the present embodiment is based on a process of specifying to a computer a nearby voxel whose opacity is larger than the predetermined value among the neighboring voxels related to the target voxel, and a statistical value of the RGB value of the specified neighboring voxel. Then, the process of correcting the RGB value of the target voxel is executed.

本実施の形態のコンピュータプログラムは、コンピュータに、前記複数のxy平面画像それぞれの一のxy平面画像上の任意の注目画素及び該注目画素のxyz方向の近傍画素の画素値に基づいて、前記一のxy平面画像を平滑化する処理と、平滑化した前記複数のxy平面画像それぞれの各画素に対応し、RGB値及び不透明度が定められたボクセルで構成されるボクセル構造体を生成する処理とを実行させる。 The computer program of the present embodiment tells a computer based on the pixel values of an arbitrary pixel of interest on one xy plane image of each of the plurality of xy plane images and pixels in the vicinity of the pixel of interest in the xyz direction. The process of smoothing the xy plane image and the process of generating a voxel structure composed of voxels having RGB values and opacity corresponding to each pixel of each of the smoothed xy plane images. To execute.

本実施の形態のコンピュータプログラムは、コンピュータに、前記複数のxy平面画像のうちの所定のxy平面画像の画素の最小値及び最大値を特定する処理と、特定した最大値よりも小さい上限値及び特定した最小値よりも大きい下限値を算出する処理と、前記複数のxy平面画像の各画素の画素値を前記上限値及び下限値の範囲内に圧縮する処理と、圧縮した前記複数のxy平面画像それぞれの任意の注目画素及び前記近傍画素の画素値に基づいて、前記複数のxy平面画像を平滑化する処理とを実行させる。 The computer program of the present embodiment has a process of specifying to a computer a minimum value and a maximum value of pixels of a predetermined xy plane image among the plurality of xy plane images, and an upper limit value smaller than the specified maximum value and a maximum value. A process of calculating a lower limit value larger than the specified minimum value, a process of compressing the pixel value of each pixel of the plurality of xy plane images within the range of the upper limit value and the lower limit value, and a process of compressing the plurality of xy planes. The process of smoothing the plurality of xy plane images is executed based on the pixel values of any pixel of interest and the neighboring pixels of each image.

本実施の形態のコンピュータプログラムは、コンピュータに、画素値に対応付けてRGB値及び不透明度が定義されたカラーマップデータを取得する処理と、前記平滑化した複数のxy平面画像それぞれの各画素に対応するボクセルのRGB値及び不透明度に前記カラーマップデータのRGB値及び不透明度を対応付けてボクセル構造体を生成する処理とを実行させる。 The computer program of the present embodiment has a process of acquiring color map data in which RGB values and opacity are defined in association with pixel values, and each pixel of each of the smoothed plurality of xy plane images. A process of associating the RGB value and opacity of the color map data with the RGB value and opacity of the corresponding voxel to generate a voxel structure is executed.

本実施の形態のコンピュータプログラムは、コンピュータに、前記視線上の前記四角形のXY座標に対応する前記3Dテクスチャ画像のxyz座標を算出する処理と、算出したxyz座標に対応する前記変換後3Dテクスチャ画像のxyz座標に対応するボクセルのRGB値及び不透明度に基づいてアルファブレンディングする処理とを実行させる。 The computer program of the present embodiment has a process of calculating the xyz coordinates of the 3D texture image corresponding to the XY coordinates of the square on the line of sight, and the converted 3D texture image corresponding to the calculated xyz coordinates. The process of alpha blending based on the RGB value and opacity of the boxel corresponding to the xyz coordinate of is executed.

本実施の形態のコンピュータプログラムは、コンピュータに、前記ボクセル構造体のボクセルの不透明度に関する勾配ベクトルを算出する処理と、算出した勾配ベクトル及び所定の光源ベクトルに基づいて前記ボクセルの陰影値を算出する処理と、算出した陰影値に基づいて前記ボクセル構造体のボクセルのRGB値を補正する処理とを実行させる。 The computer program of the present embodiment causes a computer to calculate a gradient vector relating to voxel opacity of the voxel structure, and calculates a voxel shading value based on the calculated gradient vector and a predetermined light source vector. The process and the process of correcting the RGB value of the voxel of the voxel structure based on the calculated shadow value are executed.

本実施の形態のコンピュータプログラムは、コンピュータに、前記ボクセル構造体のボクセルの不透明度と、該ボクセルの近傍に位置する近傍ボクセルそれぞれの不透明度との差分を算出する処理と、前記ボクセルと前記近傍ボクセルとの距離並びに前記ボクセル及び前記近傍ボクセルそれぞれの不透明度の差分に基づいて前記ボクセルの勾配ベクトルを算出する処理とを実行させる。 The computer program of the present embodiment causes a computer to calculate a difference between the opacity of a voxel of the voxel structure and the opacity of each of the neighboring voxels located in the vicinity of the voxel, and the voxel and the vicinity thereof. The process of calculating the gradient vector of the voxel based on the distance to the voxel and the difference in opacity between the voxel and the neighboring voxel is executed.

本実施の形態のコンピュータプログラムは、コンピュータに、前記勾配ベクトルのz軸方向の成分を所定の変倍率で補正する処理を実行させる。 The computer program of the present embodiment causes a computer to execute a process of correcting a component of the gradient vector in the z-axis direction at a predetermined variable magnification.

本実施の形態のコンピュータプログラムは、コンピュータに、前記ボクセル構造体のボクセルの不透明度に関する勾配ベクトルを算出することができないボクセルに対して、該ボクセルの不透明度に前記所定値を設定する処理と、前記所定値が設定されたボクセル構造体のボクセルのうち不透明度が前記所定値である対象ボクセルに対して、該対象ボクセルの近傍に位置する近傍ボクセルのRGB値に基づいて、前記対象ボクセルのRGB値を補正する処理とを実行させる。 The computer program of the present embodiment has a process of setting the predetermined value for the opacity of the voxel for the voxel in which the computer cannot calculate the gradient vector regarding the opacity of the voxel of the voxel structure. Among the voxels of the voxel structure in which the predetermined value is set, for the target voxel whose opacity is the predetermined value, the RGB of the target voxel is based on the RGB values of the neighboring voxels located in the vicinity of the target voxel. The process of correcting the value is executed.

本実施の形態のコンピュータプログラムは、コンピュータに、x軸中心、y軸中心及びz軸中心の回転角、視野角度、視点位置、クリッピング位置、xyz軸方向のオフセット値、xyz軸方向の拡大又は縮小倍率、z軸方向の変倍率を含む前記所定の変換のパラメータを取得する処理と、前記3Dテクスチャ画像に対して、取得したパタメータを用いた所定の変換を行って変換後3Dテクスチャ画像を生成する処理とを実行させる。 The computer program of the present embodiment tells the computer the rotation angle of the x-axis center, the y-axis center and the z-axis center, the viewing angle, the viewpoint position, the clipping position, the offset value in the xyz axis direction, and the enlargement or reduction in the xyz axis direction. A process of acquiring the parameters of the predetermined conversion including the magnification and the variable magnification in the z-axis direction and a predetermined conversion of the 3D texture image using the acquired computer are performed to generate a converted 3D texture image. Process and execute.

本実施の形態のコンピュータプログラムは、コンピュータに、前記変換後3Dテクスチャ画像を生成する処理及び前記レンダリング画像を生成する処理を実行するための指令をGPUに出力する処理を実行させる。 The computer program of the present embodiment causes the computer to execute a process of generating the converted 3D texture image and a process of outputting a command for executing the process of generating the rendered image to the GPU.

本実施の形態の画像処理装置は、3Dテクスチャマッピング法を用いたボリュームレンダリング処理を行う画像処理装置であって、z軸方向に沿って所定間隔で撮像された複数のxy平面画像の画像データを取得する取得部と、前記複数のxy平面画像それぞれの各画素に対応し、RGB値及び不透明度が定められたボクセルで構成されるボクセル構造体を生成するボクセル構造体生成部と、前記ボクセル構造体の不透明度が所定値である対象ボクセルに対して、該対象ボクセルの近傍に位置する近傍ボクセルのRGB値に基づいて、前記対象ボクセルのRGB値を補正する色補正部と、RGB値が補正されたボクセル構造体のボクセルで構成される3Dテクスチャ画像を生成する3Dテクスチャ画像生成部と、前記3Dテクスチャ画像に対して所定の変換を行って変換後3Dテクスチャ画像を生成する変換後3Dテクスチャ画像生成部と、3次元空間のXY座標面上の四角形をZ軸方向に並べた積層四角形を設定する設定部と、所定の視点からZ軸方向に平行な視線上の前記四角形のXY座標に対応する前記変換後3Dテクスチャ画像のボクセルのRGB値を前記ボクセルの不透明度に基づいて前記視点から遠い四角形の順にアルファブレンディングして得られたRGB値を、前記視線が投影面と交差する画素の画素値としてレンダリング画像を生成するレンダリング画像生成部とを備える。 The image processing device of the present embodiment is an image processing device that performs volume rendering processing using a 3D texture mapping method, and obtains image data of a plurality of xy plane images captured at predetermined intervals along the z-axis direction. A box cell structure generation unit that generates a box cell structure composed of a box cell to be acquired, a box cell corresponding to each pixel of each of the plurality of xy plane images and a defined RGB value and opacity, and the box cell structure. For a target boxel whose body opacity is a predetermined value, a color correction unit that corrects the RGB value of the target boxel and a RGB value correction based on the RGB value of the neighboring boxel located in the vicinity of the target boxel. A 3D texture image generation unit that generates a 3D texture image composed of the box cells of the boxel structure, and a converted 3D texture image that generates a converted 3D texture image by performing predetermined conversion on the 3D texture image. Corresponds to the generation unit, the setting unit that sets a laminated quadrangle in which quadrangles on the XY coordinate plane of the three-dimensional space are arranged in the Z-axis direction, and the XY coordinates of the quadrangle on the line of sight parallel to the Z-axis direction from a predetermined viewpoint. The RGB values of the box cells of the converted 3D texture image are alpha-blended in the order of the squares far from the viewpoint based on the opacity of the box cells, and the RGB values obtained by alpha blending the pixels of the pixels whose line of sight intersects the projection plane. It includes a rendered image generator that generates a rendered image as a value.

本実施の形態の画像処理方法は、3Dテクスチャマッピング法を用いたボリュームレンダリング処理を行う画像処理装置による画像処理方法であって、z軸方向に沿って所定間隔で撮像された複数のxy平面画像の画像データを取得し、前記複数のxy平面画像それぞれの各画素に対応し、RGB値及び不透明度が定められたボクセルで構成されるボクセル構造体を生成し、前記ボクセル構造体の不透明度が所定値である対象ボクセルに対して、該対象ボクセルの近傍に位置する近傍ボクセルのRGB値に基づいて、前記対象ボクセルのRGB値を補正し、RGB値が補正されたボクセル構造体のボクセルで構成される3Dテクスチャ画像を生成し、前記3Dテクスチャ画像に対して所定の変換を行って変換後3Dテクスチャ画像を生成し、3次元空間のXY座標面上の四角形をZ軸方向に並べた積層四角形を設定する設定部と、所定の視点からZ軸方向に平行な視線上の前記四角形のXY座標に対応する前記変換後3Dテクスチャ画像のボクセルのRGB値を前記ボクセルの不透明度に基づいて前記視点から遠い四角形の順にアルファブレンディングして得られたRGB値を、前記視線が投影面と交差する画素の画素値としてレンダリング画像を生成する。 The image processing method of the present embodiment is an image processing method using an image processing device that performs volume rendering processing using a 3D texture mapping method, and is a plurality of xy plane images captured at predetermined intervals along the z-axis direction. The image data of the above is acquired, and a voxel structure composed of voxels having RGB values and opacity corresponding to each pixel of each of the plurality of xy plane images is generated, and the opacity of the voxel structure is increased. For the target voxel which is a predetermined value, the RGB value of the target voxel is corrected based on the RGB value of the neighboring voxel located in the vicinity of the target voxel, and the voxel is composed of the voxel structure in which the RGB value is corrected. A 3D texture image is generated, a predetermined conversion is performed on the 3D texture image, and a converted 3D texture image is generated. The RGB value of the voxel of the converted 3D texture image corresponding to the XY coordinates of the quadrangle on the line of sight parallel to the Z-axis direction from the predetermined viewpoint is set to the viewpoint based on the opacity of the voxel. A rendered image is generated using the RGB values obtained by alpha blending in the order of the quadrangles far from the to as the pixel values of the pixels whose line of sight intersects the projection plane.

本実施の形態のボクセルデータは、ボクセル構造体のボクセルデータであって、z軸方向に沿って所定間隔で撮像された複数のxy平面画像のそれぞれの各画素に対応し、RGB値及び不透明度が定められたボクセルで構成されるボクセル構造体のボクセルデータを含む構造を有し、前記ボクセルデータは、前記ボクセル構造体の不透明度が所定値である対象ボクセルに対して、該対象ボクセルの近傍に位置する近傍ボクセルのRGB値に基づいて、前記対象ボクセルのRGB値が補正されたデータを含み、前記ボクセル構造体のボクセルで構成される3Dテクスチャ画像に対して、所定の変換を行って変換後3Dテクスチャ画像を生成する処理と、3次元空間のXY座標面上の四角形をZ軸方向に並べた積層四角形を設定する処理と、所定の視点からZ軸方向に平行な視線上の前記四角形のXY座標に対応する前記変換後3Dテクスチャ画像のボクセルのRGB値を前記ボクセルの不透明度に基づいて前記視点から遠い四角形の順にアルファブレンディングして得られたRGB値を、前記視線が投影面と交差する画素の画素値としてレンダリング画像を生成する処理とを実行するのに用いられる。 The voxel data of the present embodiment is voxel data of a voxel structure, and corresponds to each pixel of a plurality of xy plane images captured at predetermined intervals along the z-axis direction, and has RGB values and opacity. Has a structure including voxel data of a voxel structure composed of voxels in which voxels are defined, and the voxel data is in the vicinity of the target voxel with respect to the target voxel in which the opacity of the voxel structure is a predetermined value. A 3D texture image composed of voxels of the voxel structure, which contains data in which the RGB values of the target voxels are corrected based on the RGB values of neighboring voxels located in, is converted by performing a predetermined conversion. After that, the process of generating a 3D texture image, the process of setting a laminated quadrangle in which quadrangles on the XY coordinate plane of the three-dimensional space are arranged in the Z-axis direction, and the process of setting the quadrangle on the line of sight parallel to the Z-axis direction from a predetermined viewpoint. The RGB value obtained by alpha blending the RGB value of the voxel of the converted 3D texture image corresponding to the XY coordinates of It is used to execute a process of generating a rendered image as a pixel value of intersecting pixels.

本実施の形態のボクセルデータにおいて、前記ボクセル構造体は、前記複数のxy平面画像を間にしてz軸方向の両端に配置されたダミーxy平面画像の各画素に対応し、不透明度が前記所定値とされたボクセルであるダミーボクセルを含み、前記ボクセルデータは、前記ダミーボクセルが付加されたボクセル構造体の不透明度が前記所定値である対象ボクセルに対して、該対象ボクセルの近傍に位置する近傍ボクセルのRGB値に基づいて、前記対象ボクセルのRGB値が補正されたデータを含む。 In the voxel data of the present embodiment, the voxel structure corresponds to each pixel of the dummy xy plane image arranged at both ends in the z-axis direction with the plurality of xy plane images in between, and the opacity is the predetermined. The voxel data includes a dummy voxel which is a valued voxel, and the voxel data is located in the vicinity of the target voxel with respect to the target voxel in which the opacity of the voxel structure to which the dummy voxel is added is the predetermined value. Includes data in which the RGB value of the target voxel is corrected based on the RGB value of the neighboring voxel.

本実施の形態のボクセルデータにおいて、前記ボクセル構造体は、前記複数のxy平面画像の外縁部の各画素に対応し、不透明度が前記所定値とされたボクセルを含み、前記ボクセルデータは、前記ボクセルを含むボクセル構造体のボクセルのうち不透明度が前記所定値である対象ボクセルに対して、該対象ボクセルの近傍に位置する近傍ボクセルのRGB値に基づいて、前記対象ボクセルのRGB値が補正されたデータを含む。 In the voxel data of the present embodiment, the voxel structure corresponds to each pixel of the outer edge portion of the plurality of xy plane images, and includes a voxel having an opacity set to the predetermined value, and the voxel data is the voxel data. Among the voxels of the voxel structure containing the voxels, the RGB values of the target voxels are corrected based on the RGB values of the neighboring voxels located in the vicinity of the target voxels for the target voxels whose opacity is the predetermined value. Includes data.

本実施の形態のボクセルデータにおいて、前記ボクセル構造体は、ボリュームレンダリング処理の対象領域外であって、不透明度に前記所定値が設定されたボクセルを含み、前記ボクセルデータは、前記所定値が設定されたボクセルを含むボクセル構造体のボクセルのうち不透明度が前記所定値である対象ボクセルに対して、該対象ボクセルの近傍に位置する近傍ボクセルのRGB値に基づいて、前記対象ボクセルのRGB値が補正されたデータを含む。 In the voxel data of the present embodiment, the voxel structure is outside the target area of the volume rendering process and includes a voxel in which the predetermined value is set for the opacity, and the voxel data is set to the predetermined value. Among the voxels of the voxel structure containing the voxels, the RGB value of the target voxel is based on the RGB value of the neighboring voxel located in the vicinity of the target voxel with respect to the target voxel whose opacity is the predetermined value. Includes corrected data.

本実施の形態のボクセルデータにおいて、前記ボクセルデータは、前記対象ボクセルに係る近傍ボクセルのうち、不透明度が前記所定値より大きい近傍ボクセルのRGB値の統計値に基づいて、前記対象ボクセルのRGB値が補正されたデータを含む。 In the voxel data of the present embodiment, the voxel data is the RGB value of the target voxel based on the statistical value of the RGB value of the neighboring voxel whose opacity is larger than the predetermined value among the neighboring voxels related to the target voxel. Includes corrected data.

10 入力部
11 記憶部
12 出力部
20 画像処理部
21 階調圧縮処理部
22 平滑化処理部
23 ボクセル構造体生成部
24 変換処理部
25 レンダリング処理部
26 3Dテクスチャ画像生成部
27 積層四角形設定部
28 色補間部
29 ROIクリッピング処理部
100 3Dテクスチャマッピング装置
201 CPU
202 ROM
203 RAM
204 GPU
205 ビデオメモリ
206 記録媒体読取部
10 Input unit 11 Storage unit 12 Output unit 20 Image processing unit 21 Gradation compression processing unit 22 Smoothing processing unit 23 Voxel structure generation unit 24 Conversion processing unit 25 Rendering processing unit 26 3D texture image generation unit 27 Laminated square setting unit 28 Color interpolation unit 29 ROI clipping processing unit 100 3D texture mapping device 201 CPU
202 ROM
203 RAM
204 GPU
205 Video memory 206 Recording medium reader

Claims (18)

コンピュータに、
z軸方向に沿って所定間隔で撮像された複数のxy平面画像の画像データを取得する処理と、
前記複数のxy平面画像それぞれの各画素に対応し、RGB値及び不透明度が定められたボクセルで構成されるボクセル構造体を生成する処理と、
前記ボクセル構造体の不透明度が所定値である対象ボクセルに対して、該対象ボクセルの近傍に位置する近傍ボクセルのRGB値に基づいて、前記対象ボクセルのRGB値を補正する処理と、
RGB値が補正されたボクセル構造体のボクセルで構成される3Dテクスチャ画像を生成する処理と、
前記3Dテクスチャ画像に対して所定の変換を行って変換後3Dテクスチャ画像を生成する処理と、
3次元空間のXY座標面上の四角形をZ軸方向に並べた積層四角形を設定する処理と、
所定の視点からZ軸方向に平行な視線上の前記四角形のXY座標に対応する前記変換後3Dテクスチャ画像のボクセルのRGB値を前記ボクセルの不透明度に基づいて前記視点から遠い四角形の順にアルファブレンディングして得られたRGB値を、前記視線が投影面と交差する画素の画素値としてレンダリング画像を生成する処理と
を実行させるコンピュータプログラム。
On the computer
Processing to acquire image data of a plurality of xy plane images taken at predetermined intervals along the z-axis direction, and
A process of generating a voxel structure composed of voxels having RGB values and opacity corresponding to each pixel of each of the plurality of xy plane images.
A process of correcting the RGB value of the target voxel based on the RGB value of the neighboring voxel located in the vicinity of the target voxel for the target voxel whose opacity of the voxel structure is a predetermined value.
A process to generate a 3D texture image composed of voxels of a voxel structure whose RGB values have been corrected, and
A process of performing a predetermined conversion on the 3D texture image to generate a converted 3D texture image, and
The process of setting a laminated quadrangle in which quadrilaterals on the XY coordinate plane of the three-dimensional space are arranged in the Z-axis direction, and
Alpha blending the RGB values of the voxels of the converted 3D texture image corresponding to the XY coordinates of the squares on the line of sight parallel to the Z-axis direction from a predetermined viewpoint in the order of the squares far from the viewpoint based on the opacity of the voxels. A computer program that executes a process of generating a rendered image using the RGB values obtained in the process as pixel values of pixels whose line of sight intersects the projection plane.
コンピュータに、
前記複数のxy平面画像を間にしてz軸方向の両端に配置されたダミーxy平面画像の各画素に対応し、不透明度が前記所定値とされたダミーボクセルを付加したボクセル構造体を生成する処理と、
生成したボクセル構造体のボクセルのうち不透明度が前記所定値である対象ボクセルに対して、該対象ボクセルの近傍に位置する近傍ボクセルのRGB値に基づいて、前記対象ボクセルのRGB値を補正する処理と
を実行させる請求項1に記載のコンピュータプログラム。
On the computer
A voxel structure is generated to which a dummy voxel having an opacity of a predetermined value is added corresponding to each pixel of the dummy xy plane image arranged at both ends in the z-axis direction with the plurality of xy plane images in between. Processing and
Processing to correct the RGB value of the target voxel based on the RGB value of the neighboring voxel located in the vicinity of the target voxel for the target voxel whose opacity is the predetermined value among the voxels of the generated voxel structure. The computer program according to claim 1, wherein the computer program is executed.
コンピュータに、
前記複数のxy平面画像の数及び前記ダミーxy平面画像の数の合計値と同数の前記四角形をZ軸方向に並べた積層四角形を設定する処理を実行させる請求項2に記載のコンピュータプログラム。
On the computer
The computer program according to claim 2, wherein a process of setting a laminated quadrangle in which the same number of the quadrangles as the total value of the number of the plurality of xy plane images and the number of dummy xy plane images is arranged in the Z-axis direction is executed.
コンピュータに、
前記複数のxy平面画像の外縁部の各画素に対応し、不透明度が前記所定値とされたボクセルを含むボクセル構造体を生成する処理と、
生成したボクセル構造体のボクセルのうち不透明度が前記所定値である対象ボクセルに対して、該対象ボクセルの近傍に位置する近傍ボクセルのRGB値に基づいて、前記対象ボクセルのRGB値を補正する処理と
を実行させる請求項1から請求項3のいずれか一項に記載のコンピュータプログラム。
On the computer
A process of generating a voxel structure including a voxel having an opacity set to the predetermined value corresponding to each pixel of the outer edge portion of the plurality of xy plane images.
Processing to correct the RGB value of the target voxel based on the RGB value of the neighboring voxel located in the vicinity of the target voxel for the target voxel whose opacity is the predetermined value among the voxels of the generated voxel structure. The computer program according to any one of claims 1 to 3, wherein the computer program is executed.
コンピュータに、
ボリュームレンダリング処理の対象領域を画定するxyz座標を設定する処理と、
前記ボクセル構造体のボクセルのうちxyz座標が前記対象領域外のボクセルに対して、該ボクセルの不透明度に前記所定値を設定する処理と、
前記所定値が設定されたボクセル構造体のボクセルのうち不透明度が前記所定値である対象ボクセルに対して、該対象ボクセルの近傍に位置する近傍ボクセルのRGB値に基づいて、前記対象ボクセルのRGB値を補正する処理と
を実行させる請求項1から請求項4のいずれか一項に記載のコンピュータプログラム。
On the computer
The process of setting the xyz coordinates that define the target area of the volume rendering process, and
A process of setting the opacity of the voxel to a predetermined value for a voxel whose xyz coordinate is outside the target area among the voxels of the voxel structure.
Among the voxels of the voxel structure in which the predetermined value is set, for the target voxel whose opacity is the predetermined value, the RGB of the target voxel is based on the RGB values of the neighboring voxels located in the vicinity of the target voxel. The computer program according to any one of claims 1 to 4, wherein the process of correcting the value is executed.
コンピュータに、
前記対象ボクセルに係る近傍ボクセルのうち、不透明度が前記所定値より大きい近傍ボクセルを特定する処理と、
特定した近傍ボクセルのRGB値の統計値に基づいて、前記対象ボクセルのRGB値を補正する処理と
を実行させる請求項1から請求項5のいずれか一項に記載のコンピュータプログラム。
On the computer
Among the neighboring voxels related to the target voxel, the process of specifying the neighboring voxels whose opacity is larger than the predetermined value, and
The computer program according to any one of claims 1 to 5, wherein the process of correcting the RGB values of the target voxels is executed based on the statistical values of the RGB values of the specified neighboring voxels.
コンピュータに、
前記複数のxy平面画像それぞれの一のxy平面画像上の任意の注目画素及び該注目画素のxyz方向の近傍画素の画素値に基づいて、前記一のxy平面画像を平滑化する処理と、
平滑化した前記複数のxy平面画像それぞれの各画素に対応し、RGB値及び不透明度が定められたボクセルで構成されるボクセル構造体を生成する処理と
を実行させる請求項1から請求項6のいずれか一項に記載のコンピュータプログラム。
On the computer
A process of smoothing the one xy plane image based on the pixel values of an arbitrary pixel of interest on one xy plane image of each of the plurality of xy plane images and pixels in the vicinity of the pixel of interest in the xyz direction.
Claims 1 to 6 for executing a process of generating a voxel structure composed of voxels having RGB values and opacity defined for each pixel of each of the plurality of smoothed xy plane images. The computer program described in any one of the sections.
コンピュータに、
前記複数のxy平面画像のうちの所定のxy平面画像の画素の最小値及び最大値を特定する処理と、
特定した最大値よりも小さい上限値及び特定した最小値よりも大きい下限値を算出する処理と、
前記複数のxy平面画像の各画素の画素値を前記上限値及び下限値の範囲内に圧縮する処理と、
圧縮した前記複数のxy平面画像それぞれの任意の注目画素及び前記近傍画素の画素値に基づいて、前記複数のxy平面画像を平滑化する処理と
を実行させる請求項7に記載のコンピュータプログラム。
On the computer
A process of specifying a minimum value and a maximum value of pixels of a predetermined xy plane image among the plurality of xy plane images, and a process of specifying the minimum value and the maximum value.
Processing to calculate the upper limit value smaller than the specified maximum value and the lower limit value larger than the specified minimum value,
A process of compressing the pixel value of each pixel of the plurality of xy plane images within the range of the upper limit value and the lower limit value, and
The computer program according to claim 7, wherein the process of smoothing the plurality of xy plane images is executed based on the pixel values of the arbitrary attention pixels and the neighboring pixels of the plurality of compressed xy plane images.
コンピュータに、
画素値に対応付けてRGB値及び不透明度が定義されたカラーマップデータを取得する処理と、
前記平滑化した複数のxy平面画像それぞれの各画素に対応するボクセルのRGB値及び不透明度に前記カラーマップデータのRGB値及び不透明度を対応付けてボクセル構造体を生成する処理と
を実行させる請求項7又は請求項8に記載のコンピュータプログラム。
On the computer
The process of acquiring color map data in which RGB values and opacity are defined in association with pixel values, and
A request to execute a process of generating a voxel structure by associating the RGB values and opacity of the color map data with the RGB values and opacity of the voxels corresponding to each pixel of each of the smoothed plurality of xy plane images. 7. The computer program according to claim 8.
コンピュータに、
前記視線上の前記四角形のXY座標に対応する前記3Dテクスチャ画像のxyz座標を算出する処理と、
算出したxyz座標に対応する前記変換後3Dテクスチャ画像のxyz座標に対応するボクセルのRGB値及び不透明度に基づいてアルファブレンディングする処理と
を実行させる請求項1から請求項9のいずれか一項に記載のコンピュータプログラム。
On the computer
The process of calculating the xyz coordinates of the 3D texture image corresponding to the XY coordinates of the quadrangle on the line of sight, and
According to any one of claims 1 to 9, the process of performing alpha blending based on the RGB value and opacity of the voxel corresponding to the xyz coordinates of the converted 3D texture image corresponding to the calculated xyz coordinates is executed. Described computer program.
コンピュータに、
前記ボクセル構造体のボクセルの不透明度に関する勾配ベクトルを算出する処理と、
算出した勾配ベクトル及び所定の光源ベクトルに基づいて前記ボクセルの陰影値を算出する処理と、
算出した陰影値に基づいて前記ボクセル構造体のボクセルのRGB値を補正する処理と
を実行させる請求項1から請求項10のいずれか一項に記載のコンピュータプログラム。
On the computer
The process of calculating the gradient vector regarding the voxel opacity of the voxel structure and
Processing to calculate the shadow value of the voxel based on the calculated gradient vector and a predetermined light source vector, and
The computer program according to any one of claims 1 to 10, wherein the process of correcting the RGB value of the voxel of the voxel structure is executed based on the calculated shadow value.
コンピュータに、
前記ボクセル構造体のボクセルの不透明度と、該ボクセルの近傍に位置する近傍ボクセルそれぞれの不透明度との差分を算出する処理と、
前記ボクセルと前記近傍ボクセルとの距離並びに前記ボクセル及び前記近傍ボクセルそれぞれの不透明度の差分に基づいて前記ボクセルの勾配ベクトルを算出する処理と
を実行させる請求項11に記載のコンピュータプログラム。
On the computer
The process of calculating the difference between the opacity of the voxels of the voxel structure and the opacity of each of the neighboring voxels located in the vicinity of the voxels.
The computer program according to claim 11, wherein a process of calculating a gradient vector of the voxel based on the distance between the voxel and the neighboring voxel and the difference in opacity between the voxel and the neighboring voxel is executed.
コンピュータに、
前記勾配ベクトルのz軸方向の成分を所定の変倍率で補正する処理を実行させる請求項
11又は請求項12に記載のコンピュータプログラム。
On the computer
The computer program according to claim 11 or 12, wherein a process of correcting a component of the gradient vector in the z-axis direction at a predetermined variable magnification is executed.
コンピュータに、
前記ボクセル構造体のボクセルの不透明度に関する勾配ベクトルを算出することができないボクセルに対して、該ボクセルの不透明度に前記所定値を設定する処理と、
前記所定値が設定されたボクセル構造体のボクセルのうち不透明度が前記所定値である対象ボクセルに対して、該対象ボクセルの近傍に位置する近傍ボクセルのRGB値に基づいて、前記対象ボクセルのRGB値を補正する処理と
を実行させる請求項11から請求項13のいずれか一項に記載のコンピュータプログラム。
On the computer
A process of setting the predetermined value for the opacity of the voxel for a voxel for which the gradient vector regarding the opacity of the voxel of the voxel structure cannot be calculated.
Among the voxels of the voxel structure in which the predetermined value is set, for the target voxel whose opacity is the predetermined value, the RGB of the target voxel is based on the RGB values of the neighboring voxels located in the vicinity of the target voxel. The computer program according to any one of claims 11 to 13, wherein the process of correcting the value is executed.
コンピュータに、
x軸中心、y軸中心及びz軸中心の回転角、視野角度、視点位置、クリッピング位置、xyz軸方向のオフセット値、xyz軸方向の拡大又は縮小倍率、z軸方向の変倍率を含む前記所定の変換のパラメータを取得する処理と、
前記3Dテクスチャ画像に対して、取得したパメータを用いた所定の変換を行って変換後3Dテクスチャ画像を生成する処理と
を実行させる請求項1から請求項14のいずれか一項に記載のコンピュータプログラム。
On the computer
The predetermined value including the x-axis center, the y-axis center and the z-axis center rotation angle, the viewing angle, the viewpoint position, the clipping position, the offset value in the xyz-axis direction, the enlargement or reduction magnification in the xyz-axis direction, and the variable magnification in the z-axis direction. And the process of getting the conversion parameters of
The invention according to any one of claims 1 to 14, wherein the 3D texture image is subjected to a predetermined conversion using the acquired parameters to generate a converted 3D texture image. Computer program.
コンピュータに、
前記変換後3Dテクスチャ画像を生成する処理及び前記レンダリング画像を生成する処理を実行するための指令をGPUに出力する処理を実行させる請求項1から請求項15のいずれか一項に記載のコンピュータプログラム。
On the computer
The computer program according to any one of claims 1 to 15, wherein the process of generating the converted 3D texture image and the process of outputting a command for executing the process of generating the rendered image to the GPU are executed. ..
3Dテクスチャマッピング法を用いたボリュームレンダリング処理を行う画像処理装置であって、
z軸方向に沿って所定間隔で撮像された複数のxy平面画像の画像データを取得する取得部と、
前記複数のxy平面画像それぞれの各画素に対応し、RGB値及び不透明度が定められたボクセルで構成されるボクセル構造体を生成するボクセル構造体生成部と、
前記ボクセル構造体の不透明度が所定値である対象ボクセルに対して、該対象ボクセルの近傍に位置する近傍ボクセルのRGB値に基づいて、前記対象ボクセルのRGB値を補正する色補正部と、
RGB値が補正されたボクセル構造体のボクセルで構成される3Dテクスチャ画像を生成する3Dテクスチャ画像生成部と、
前記3Dテクスチャ画像に対して所定の変換を行って変換後3Dテクスチャ画像を生成する変換後3Dテクスチャ画像生成部と、
3次元空間のXY座標面上の四角形をZ軸方向に並べた積層四角形を設定する設定部と、
所定の視点からZ軸方向に平行な視線上の前記四角形のXY座標に対応する前記変換後3Dテクスチャ画像のボクセルのRGB値を前記ボクセルの不透明度に基づいて前記視点から遠い四角形の順にアルファブレンディングして得られたRGB値を、前記視線が投影面と交差する画素の画素値としてレンダリング画像を生成するレンダリング画像生成部と
を備える画像処理装置。
An image processing device that performs volume rendering processing using the 3D texture mapping method.
An acquisition unit that acquires image data of a plurality of xy plane images captured at predetermined intervals along the z-axis direction, and an acquisition unit.
A voxel structure generation unit that generates a voxel structure composed of voxels having RGB values and opacity defined for each pixel of each of the plurality of xy plane images.
A color correction unit that corrects the RGB value of the target voxel based on the RGB value of the neighboring voxel located in the vicinity of the target voxel with respect to the target voxel whose opacity of the voxel structure is a predetermined value.
A 3D texture image generation unit that generates a 3D texture image composed of voxels of a voxel structure whose RGB values have been corrected, and a 3D texture image generation unit.
A converted 3D texture image generation unit that generates a converted 3D texture image by performing a predetermined conversion on the 3D texture image.
A setting unit for setting a laminated quadrangle in which quadrilaterals on the XY coordinate plane of the three-dimensional space are arranged in the Z-axis direction,
Alpha blending the RGB values of the voxels of the converted 3D texture image corresponding to the XY coordinates of the squares on the line of sight parallel to the Z-axis direction from a predetermined viewpoint in the order of the squares far from the viewpoint based on the opacity of the voxels. An image processing device including a rendered image generation unit that generates a rendered image using the RGB values obtained in the process as pixel values of pixels whose line of sight intersects the projection surface.
3Dテクスチャマッピング法を用いたボリュームレンダリング処理を行う画像処理装置による画像処理方法であって、
z軸方向に沿って所定間隔で撮像された複数のxy平面画像の画像データを取得し、
前記複数のxy平面画像それぞれの各画素に対応し、RGB値及び不透明度が定められたボクセルで構成されるボクセル構造体を生成し、
前記ボクセル構造体の不透明度が所定値である対象ボクセルに対して、該対象ボクセルの近傍に位置する近傍ボクセルのRGB値に基づいて、前記対象ボクセルのRGB値を補正し、
RGB値が補正されたボクセル構造体のボクセルで構成される3Dテクスチャ画像を生成し、
前記3Dテクスチャ画像に対して所定の変換を行って変換後3Dテクスチャ画像を生成し、
3次元空間のXY座標面上の四角形をZ軸方向に並べた積層四角形を設定
所定の視点からZ軸方向に平行な視線上の前記四角形のXY座標に対応する前記変換後3Dテクスチャ画像のボクセルのRGB値を前記ボクセルの不透明度に基づいて前記視点から遠い四角形の順にアルファブレンディングして得られたRGB値を、前記視線が投影面と交差する画素の画素値としてレンダリング画像を生成する画像処理方法。
It is an image processing method by an image processing device that performs volume rendering processing using a 3D texture mapping method.
Image data of a plurality of xy plane images taken at predetermined intervals along the z-axis direction are acquired, and the image data is acquired.
A voxel structure composed of voxels having RGB values and opacity corresponding to each pixel of each of the plurality of xy plane images is generated.
For the target voxel whose opacity of the voxel structure is a predetermined value, the RGB value of the target voxel is corrected based on the RGB value of the neighboring voxel located in the vicinity of the target voxel.
Generates a 3D texture image composed of voxels of a voxel structure with RGB corrected values.
A predetermined conversion is performed on the 3D texture image to generate a converted 3D texture image.
Set a laminated quadrangle in which quadrilaterals on the XY coordinate plane of the three-dimensional space are arranged in the Z-axis direction.
Alpha blending the RGB values of the voxels of the converted 3D texture image corresponding to the XY coordinates of the squares on the line of sight parallel to the Z-axis direction from a predetermined viewpoint in the order of the squares far from the viewpoint based on the opacity of the voxels. An image processing method for generating a rendered image using the RGB values thus obtained as pixel values of pixels whose line of sight intersects the projection plane.
JP2017246756A 2017-12-22 2017-12-22 Computer program, image processing device and image processing method Active JP7013849B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017246756A JP7013849B2 (en) 2017-12-22 2017-12-22 Computer program, image processing device and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017246756A JP7013849B2 (en) 2017-12-22 2017-12-22 Computer program, image processing device and image processing method

Publications (2)

Publication Number Publication Date
JP2019114035A JP2019114035A (en) 2019-07-11
JP7013849B2 true JP7013849B2 (en) 2022-02-01

Family

ID=67222652

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017246756A Active JP7013849B2 (en) 2017-12-22 2017-12-22 Computer program, image processing device and image processing method

Country Status (1)

Country Link
JP (1) JP7013849B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3891709A1 (en) * 2018-12-06 2021-10-13 Koninklijke Philips N.V. 3-d virtual endoscopy rendering
CN112929682B (en) * 2021-01-21 2023-03-24 广州虎牙科技有限公司 Method, device and system for transparently processing image background and electronic equipment

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001319220A (en) 2000-05-03 2001-11-16 Ge Medical Systems Global Technology Co Llc Extraction of related data from medical image data volume
JP2003263651A (en) 2002-03-12 2003-09-19 Inst Of Physical & Chemical Res Volume rendering method and its program
JP2008259698A (en) 2007-04-12 2008-10-30 Fujifilm Corp Image processing method and apparatus, and program
JP2013191030A (en) 2012-03-14 2013-09-26 Fujifilm Corp Image generation device, method and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001319220A (en) 2000-05-03 2001-11-16 Ge Medical Systems Global Technology Co Llc Extraction of related data from medical image data volume
JP2003263651A (en) 2002-03-12 2003-09-19 Inst Of Physical & Chemical Res Volume rendering method and its program
JP2008259698A (en) 2007-04-12 2008-10-30 Fujifilm Corp Image processing method and apparatus, and program
JP2013191030A (en) 2012-03-14 2013-09-26 Fujifilm Corp Image generation device, method and program

Also Published As

Publication number Publication date
JP2019114035A (en) 2019-07-11

Similar Documents

Publication Publication Date Title
US7505037B2 (en) Direct volume rendering of 4D deformable volume images
US20050116957A1 (en) Dynamic crop box determination for optimized display of a tube-like structure in endoscopic view (&#34;crop box&#34;)
US20060103670A1 (en) Image processing method and computer readable medium for image processing
US20110082667A1 (en) System and method for view-dependent anatomic surface visualization
JPH02899A (en) Graphic display device and generation of three-dimensional image of object
US7893938B2 (en) Rendering anatomical structures with their nearby surrounding area
JP4122463B2 (en) Method for generating medical visible image
JP7013849B2 (en) Computer program, image processing device and image processing method
JP4122314B2 (en) Projection image processing method, projection image processing program, and projection image processing apparatus
JP7003635B2 (en) Computer program, image processing device and image processing method
JP6418344B1 (en) Computer program, image processing apparatus, and image processing method
US20060214930A1 (en) Image processing method and computer readable medium
JP7283603B2 (en) COMPUTER PROGRAM, IMAGE PROCESSING APPARATUS AND IMAGE PROCESSING METHOD
CN111210898A (en) Method and device for processing DICOM data
JP6436258B1 (en) Computer program, image processing apparatus, and image processing method
JP7155670B2 (en) Medical image processing apparatus, medical image processing method, program, and data creation method
JP7131080B2 (en) volume rendering device
JP7180123B2 (en) Medical image processing apparatus, medical image processing method, program, and data creation method
JP7223312B2 (en) volume rendering device
KR20020073841A (en) Method for generating 3-dimensional volume-section combination image
JP2019114034A (en) Computer program, image processing device, image processing method and voxel data
JP7095409B2 (en) Medical image processing device, medical image processing method, program, and MPR image generation method
JP2018121857A (en) Medical image processing device, medical image processing method, and medical image processing program
JP6443574B1 (en) Ray casting program, search control data, search control data generation method, and ray casting apparatus
JP5245811B2 (en) Voxel array visualization device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201026

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210715

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210727

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210902

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210921

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220103