JP2020142003A - Mask generation device, three-dimensional reconstruction image generation device, mask generation method and program - Google Patents

Mask generation device, three-dimensional reconstruction image generation device, mask generation method and program Download PDF

Info

Publication number
JP2020142003A
JP2020142003A JP2019042820A JP2019042820A JP2020142003A JP 2020142003 A JP2020142003 A JP 2020142003A JP 2019042820 A JP2019042820 A JP 2019042820A JP 2019042820 A JP2019042820 A JP 2019042820A JP 2020142003 A JP2020142003 A JP 2020142003A
Authority
JP
Japan
Prior art keywords
mask
calculated
value
size
center
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019042820A
Other languages
Japanese (ja)
Other versions
JP7275669B2 (en
Inventor
茂出木 敏雄
Toshio Modegi
敏雄 茂出木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2019042820A priority Critical patent/JP7275669B2/en
Publication of JP2020142003A publication Critical patent/JP2020142003A/en
Application granted granted Critical
Publication of JP7275669B2 publication Critical patent/JP7275669B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Image Generation (AREA)
  • Image Analysis (AREA)

Abstract

To easily generate mask data for visualizing a desired region.SOLUTION: A mask generation device 1 comprises: image acquisition means for acquiring a plurality of tomographic images; subject region calculation means for, for every tomographic image, calculating a subject region on the basis of a signal value of each pixel; subject shape calculation means for, for every tomographic image, approximating an outline of the calculated subject region by a prescribed geometry for calculating a parameter of the geometry; and mask data generation means for, for every tomographic image, calculating a mask value which defines whether each pixel of the tomographic image is included in inside or outside of the geometry, and generating mask data holding a mask value with respect to each pixel.SELECTED DRAWING: Figure 1

Description

本開示は、マスク生成装置、3次元再構成像生成装置、マスク生成方法、及びプログラムに関する。 The present disclosure relates to a mask generation device, a three-dimensional reconstruction image generation device, a mask generation method, and a program.

医用画像診断において、特定の人体組織の観察に適した3次元再構成像等を得たい場面がある。例えば、胸部や頭部にある内臓や脳等の所定の人体組織の観察を行いたい場合に、内臓や脳等は骨に囲まれており、骨領域はむしろ診断の妨げになる。CT画像から生成される3次元再構成像等では一般に骨が鮮明に描写され、内臓や血管は隠れてしまうことがあるため、可視化にあたっては切断を行うなど工夫が必要となることがある。 In medical image diagnosis, there are scenes where it is desired to obtain a three-dimensional reconstructed image suitable for observing a specific human body tissue. For example, when it is desired to observe predetermined human tissues such as internal organs and brain in the chest and head, the internal organs and brain are surrounded by bones, and the bone region rather hinders diagnosis. In a three-dimensional reconstructed image generated from a CT image, bones are generally clearly depicted and internal organs and blood vessels may be hidden. Therefore, it may be necessary to take some measures such as cutting for visualization.

たとえば、領域拡張法(リージョングローイング法)を用いて非観察対象としたい骨領域を抽出した3次元マスクを作成し、3次元マスクを参照しながらマスク処理により非観察対象としたい骨領域を除去したボリュームレンダリング像を生成する方法が開示されている(特許文献2、3参照)。領域拡張法とは、非観察対象領域の画素を指定し、その画素を開始点(拡張開始点)として、近傍画素を次々と抽出する方法である。 For example, a three-dimensional mask was created by extracting the bone region to be unobserved using the region expansion method (region glowing method), and the bone region to be unobserved was removed by mask processing while referring to the three-dimensional mask. A method for generating a volume rendered image is disclosed (see Patent Documents 2 and 3). The area expansion method is a method in which pixels in a non-observation target area are designated, and neighboring pixels are extracted one after another with the pixels as a start point (expansion start point).

特開2009−240569号公報JP-A-2009-240569 特許4087517号公報Japanese Patent No. 4087517 特許5257958号公報Japanese Patent No. 5257958

しかしながら、領域拡張法を用いた3次元マスクの作成は、ユーザによる複数の拡張開始点の指示が必須で、拡張の打ち切り段階もユーザが指示する必要があるため、自動化が難しく、ユーザごとに結果にバラつきが発生するという問題がある。また領域拡張法に限らず、3次元マスクの作成は、ユーザのスキルや経験が必要であり、その作成に時間や手間がかかる。 However, creating a 3D mask using the region expansion method requires the user to instruct multiple expansion start points, and the user must also instruct the expansion termination stage, which makes automation difficult and results for each user. There is a problem that variations occur. Further, not limited to the area expansion method, the creation of a three-dimensional mask requires the skill and experience of the user, and it takes time and effort to create the mask.

本開示の実施形態は、このような点を鑑みてなされたものであり、所望の領域を可視化するためのマスクデータを容易に作成することが可能な、マスク生成装置等を提供することを目的とする。 The embodiment of the present disclosure has been made in view of such a point, and an object of the present disclosure is to provide a mask generator or the like capable of easily creating mask data for visualizing a desired region. And.

本開示の一実施形態によると、複数の断層画像を取得する画像取得手段と、断層画像毎に、各画素の信号値に基づいて被写体領域を算出する被写体領域算出手段と、断層画像毎に、算出された被写体領域の外郭を所定の幾何形状で近似し、当該幾何形状のパラメータを算出する被写体形状算出手段と、断層画像毎に、断層画像の各画素が前記幾何形状の内部か外部のいずれに含まれるかを定義したマスク値を算出し、各画素に対するマスク値を保持するマスクデータを生成するマスクデータ生成手段と、を備えるマスク生成装置が提供される。 According to one embodiment of the present disclosure, an image acquisition means for acquiring a plurality of tomographic images, a subject area calculation means for calculating a subject area based on a signal value of each pixel for each tomographic image, and a tomographic image for each. The subject shape calculation means that approximates the calculated outline of the subject area with a predetermined geometric shape and calculates the parameters of the geometric shape, and for each tomographic image, each pixel of the tomographic image is either inside or outside the geometric shape. A mask generation device including a mask data generation means for calculating a mask value defining whether or not the image is included in the image and generating mask data for holding the mask value for each pixel is provided.

本開示の一実施形態によると、複数の断層画像を取得する画像取得手段と、断層画像毎に、各画素の信号値に基づいて被写体領域を算出する被写体領域算出手段と、断層画像毎に、算出された被写体領域の外郭を所定の幾何形状で近似し、当該幾何形状のパラメータを算出する被写体形状算出手段と、断層画像毎に、断層画像の各画素が前記幾何形状の内部か外部のいずれに含まれるかを定義したマスク値を算出し、各画素のマスク値を保持するマスクデータを生成するマスクデータ生成手段と、前記断層画像の各画素をボクセル空間に配置して構成される3次元ボクセルと前記マスクデータに基づいて3次元再構成像を生成する3次元再構成像生成手段と、を備える3次元再構成像生成装置が提供される。 According to one embodiment of the present disclosure, an image acquisition means for acquiring a plurality of tomographic images, a subject area calculation means for calculating a subject area based on a signal value of each pixel for each tomographic image, and a tomographic image for each. The subject shape calculation means that approximates the calculated outline of the subject area with a predetermined geometric shape and calculates the parameters of the geometric shape, and for each tomographic image, each pixel of the tomographic image is either inside or outside the geometric shape. A mask data generation means that calculates a mask value that defines whether it is included in the image and generates mask data that holds the mask value of each pixel, and a three-dimensional structure that is configured by arranging each pixel of the tomographic image in a voxel space. A three-dimensional reconstruction image generation device including a voxel and a three-dimensional reconstruction image generation means for generating a three-dimensional reconstruction image based on the mask data is provided.

本開示の一実施形態によると、コンピュータが、複数の断層画像を取得する画像取得ステップと、断層画像毎に、各画素の信号値に基づいて被写体領域を算出する被写体領域算出ステップと、断層画像毎に、算出された被写体領域の外郭を所定の幾何形状で近似し、当該幾何形状のパラメータを算出する被写体形状算出ステップと、断層画像毎に、断層画像の各画素が前記幾何形状の内部か外部のいずれに含まれるかを定義したマスク値を算出し、各画素のマスク値を保持するマスクデータを生成するマスクデータ生成ステップと、を実行するマスク生成方法が提供される。 According to one embodiment of the present disclosure, an image acquisition step in which a computer acquires a plurality of tomographic images, a subject area calculation step in which a subject area is calculated based on a signal value of each pixel for each tomographic image, and a tomographic image. Each time, the outline of the calculated subject area is approximated by a predetermined geometric shape, and the subject shape calculation step of calculating the parameters of the geometric shape, and for each tomographic image, whether each pixel of the tomographic image is inside the geometrical shape. A mask data generation step of calculating a mask value defining which one is included in the outside and generating mask data holding the mask value of each pixel, and a mask generation method for executing the above are provided.

本開示の一実施形態によると、コンピュータを、複数の断層画像を取得する画像取得手段、断層画像毎に、各画素の信号値に基づいて被写体領域を算出する被写体領域算出手段、断層画像毎に、算出された被写体領域の外郭を所定の幾何形状で近似し、当該幾何形状のパラメータを算出する被写体形状算出手段、断層画像毎に、断層画像の各画素が前記幾何形状の内部か外部のいずれに含まれるかを定義したマスク値を算出し、各画素のマスク値を保持するマスクデータを生成するマスクデータ生成手段、として機能させるプログラムが提供される。 According to one embodiment of the present disclosure, a computer is used as an image acquisition means for acquiring a plurality of tomographic images, a subject area calculation means for calculating a subject area based on a signal value of each pixel for each tomographic image, and each tomographic image. , Subject shape calculation means that approximates the calculated outline of the subject area with a predetermined geometric shape and calculates the parameters of the geometric shape. For each tomographic image, each pixel of the tomographic image is either inside or outside the geometric shape. A program is provided that calculates a mask value that defines whether or not it is included in the image, and functions as a mask data generation means that generates mask data that holds the mask value of each pixel.

本開示により、所望の領域を可視化するためのマスクデータを容易に作成することができる。 According to the present disclosure, mask data for visualizing a desired region can be easily created.

マスク生成装置1の機能構成を示す図The figure which shows the functional structure of the mask generation apparatus 1. マスク生成装置1のハードウェア構成を示す図The figure which shows the hardware composition of the mask generation apparatus 1. マスク生成装置1の動作を示すフローチャートFlow chart showing the operation of the mask generator 1 描画重みテーブル作成処理の流れを示すフローチャートFlowchart showing the flow of drawing weight table creation process 矩形領域41、矩形領域42、被写体候補領域50を説明する図The figure explaining the rectangular area 41, the rectangular area 42, and the subject candidate area 50. 被写体領域算出処理の流れを示すフローチャートFlowchart showing the flow of subject area calculation processing 被写体領域算出処理の概要を示す図The figure which shows the outline of the subject area calculation process 第2重心の算出について説明する図The figure explaining the calculation of the 2nd center of gravity 第3重心の算出について説明する図The figure explaining the calculation of the 3rd center of gravity 算出された矩形領域42を示す図The figure which shows the calculated rectangular area 42 (a)領域内部の信号値が比較的大きい場合の矩形領域42、(b)領域内部の信号値が比較的小さい場合の矩形領域42(A) Rectangular area 42 when the signal value inside the area is relatively large, (b) Rectangular area 42 when the signal value inside the area is relatively small. 被写体候補領域50との面積比率に基づいて矩形領域42を補正する内容を示す図The figure which shows the content which corrects the rectangular area 42 based on the area ratio with the subject candidate area 50. 面積比率に基づく補正を上胸部に適用した場合を示す図The figure which shows the case where the correction based on the area ratio is applied to the upper chest 矩形領域42の縦横比率に基づいて矩形領域42を補正(縮小補正)する内容を示す図The figure which shows the content which corrects (reduces correction) the rectangular area 42 based on the aspect ratio of the rectangular area 42. 被写体領域補正処理の流れを示すフローチャートFlowchart showing the flow of subject area correction processing 重み値Sv(x、y、z)の2次元分布パターンを示す図The figure which shows the two-dimensional distribution pattern of the weight value Sv (x, y, z) マスクデータ生成処理の流れを示すフローチャートFlowchart showing the flow of mask data generation processing マスクデータ生成処理の流れを示すフローチャートFlowchart showing the flow of mask data generation processing 描画重みテーブル作成処理およびマスクデータ作成処理を並行して実行する概要を示す図The figure which shows the outline which executes the drawing weight table creation process and the mask data creation process in parallel. 描画重みテーブル作成処理およびマスクデータ作成処理を並行して実行させる仕組みを示す図The figure which shows the mechanism which execute the drawing weight table creation process and the mask data creation process in parallel. 3次元再構成像生成装置2が実行する再構成像生成処理の概要を示す図The figure which shows the outline of the reconstruction image generation processing executed by 3D reconstruction image generation apparatus 2. 3次元再構成像生成装置2の機能構成を示す図The figure which shows the functional structure of the 3D reconstruction image generation apparatus 2. 3次元再構成像生成装置2のハードウェア構成を示す図The figure which shows the hardware composition of the 3D reconstruction image generation apparatus 2. 3次元再構成像生成装置2の動作を示すフローチャートA flowchart showing the operation of the three-dimensional reconstruction image generator 2. ボリュームレンダリング画像を生成する処理の全体の流れを示すフローチャートFlowchart showing the overall flow of the process of generating a volume rendered image 有効ボクセル領域Vrを示す図The figure which shows the effective voxel area Vr ボリュームレンダリング画像を生成する具体的な処理の流れを示すフローチャートA flowchart showing a specific process flow for generating a volume rendered image レイキャスティング処理の流れを示すフローチャートFlowchart showing the flow of ray casting process 有効ボクセル領域Vrと視線ベクトルとの交点を算出する様子を示す図The figure which shows the state of calculating the intersection of the effective voxel region Vr and the line-of-sight vector. 有効ボクセル領域Vrと視線ベクトルとの交点を算出する様子を示す図The figure which shows the state of calculating the intersection of the effective voxel region Vr and the line-of-sight vector. 起点座標探索処理の流れを示すフローチャートFlowchart showing the flow of the starting coordinate search process ボクセルα値取得処理(補間なし)の流れを示すフローチャートFlowchart showing the flow of voxel α value acquisition processing (without interpolation) ボクセルα値取得処理(補間あり)の流れを示すフローチャートFlowchart showing the flow of voxel α value acquisition processing (with interpolation) MIP画像を生成する処理の全体の流れを示すフローチャートA flowchart showing the overall flow of the process of generating a MIP image 有効ボクセル領域Vrを示す図The figure which shows the effective voxel area Vr MIP画像を生成する具体的な処理の流れを示すフローチャートA flowchart showing a specific processing flow for generating a MIP image レイキャスティング処理の流れを示すフローチャートFlowchart showing the flow of ray casting process 起点座標探索処理の流れを示すフローチャートFlowchart showing the flow of the starting coordinate search process ボクセル信号値取得処理(補間なし)の流れを示すフローチャートFlowchart showing the flow of voxel signal value acquisition processing (without interpolation) ボクセル信号値取得処理(補間あり)の流れを示すフローチャートFlowchart showing the flow of voxel signal value acquisition processing (with interpolation) MPR画像を生成する処理の流れを示すフローチャートFlowchart showing the flow of processing to generate an MPR image MPR画像(体軸断面、冠状断面、矢状断面)について説明する図The figure explaining the MPR image (body axis cross section, coronal section, sagittal section) 胸腹部のボリュームレンダリング画像の表示例Display example of volume rendered image of chest and abdomen 胸腹部のMIP画像の表示例Display example of MIP image of chest and abdomen 胸腹部のMPR画像(体軸断面、冠状断面、矢状断面)の表示例Display example of MPR image of chest and abdomen (body axis cross section, coronal section, sagittal section) 胸腹部のボリュームレンダリング画像の比較表示例Comparison display example of volume rendered image of chest and abdomen

以下図面に基づいて、本開示の実施の形態を詳細に説明する。 Hereinafter, embodiments of the present disclosure will be described in detail with reference to the drawings.

(1.マスク生成装置1の機能構成)
図1は、マスク生成装置1の機能構成を示す図である。図に示すように、マスク生成装置1は、画像取得部21、描画重みテーブル作成部22、マスクデータ生成部23を備える。
(1. Functional configuration of mask generator 1)
FIG. 1 is a diagram showing a functional configuration of the mask generation device 1. As shown in the figure, the mask generation device 1 includes an image acquisition unit 21, a drawing weight table creation unit 22, and a mask data generation unit 23.

画像取得部21は、CT装置により撮影された断層画像群Doを取得する。断層画像群Doは、被検体(人体)を頭尾軸に沿って所定の間隔で連続的に撮影した複数の断層画像(CT画像)である。各断層画像はDICOM形式の2次元の画像データである。DICOM形式は、1ファイルにヘッダ部と画像データ部を含む医療画像で一般的に用いられる画像フォーマットであり、画像撮影時のパラメータや診断情報を保存しておくことができる。 The image acquisition unit 21 acquires the tomographic image group Do taken by the CT apparatus. The tomographic image group Do is a plurality of tomographic images (CT images) in which a subject (human body) is continuously photographed at predetermined intervals along the cranio-caudal axis. Each tomographic image is two-dimensional image data in DICOM format. The DICOM format is an image format generally used for medical images including a header part and an image data part in one file, and parameters and diagnostic information at the time of image taking can be saved.

1つの断層画像は、例えば、512×512ピクセルの画像(CT画像)である。断層画像の各画素には、信号値vが付与されており、CT画像の場合、信号値vはCT値である。本実施の形態では、信号値v(CT値)は16ビット(−32768≦v≦32767)のデータとする(但し、信号値vのビット数は特に限定されない)。 One tomographic image is, for example, a 512 × 512 pixel image (CT image). A signal value v is assigned to each pixel of the tomographic image, and in the case of a CT image, the signal value v is a CT value. In the present embodiment, the signal value v (CT value) is 16 bits (-32768 ≦ v ≦ 32767) data (however, the number of bits of the signal value v is not particularly limited).

CT値は、水を基準として表現した組織のX線減弱係数であり、CT値により組織や病変の種類等が判断できるようになっている(単位はHU(Hounsfield Unit))。CT値は、水と空気のX線減弱係数で標準化されており、水のCT値は0、空気のCT値を−1000である。また、脂肪のCT値は−120〜−100程度であり、通常組織のCT値は0〜120程度であり、骨のCT値は1000前後を示す。 The CT value is an X-ray attenuation coefficient of tissue expressed with water as a reference, and the type of tissue or lesion can be determined from the CT value (unit is HU (Hounsfield Unit)). The CT value is standardized by the X-ray attenuation coefficient of water and air, the CT value of water is 0, and the CT value of air is -1000. The CT value of fat is about −120 to -100, the CT value of normal tissue is about 0 to 120, and the CT value of bone is about 1000.

断層画像群Doは、XYの2次元データである断層画像をZ軸方向に積層したものであり、XYZの座標軸で規定されるボクセル空間Rに配置可能なボクセルデータ(3次元ボクセル)として表現可能である。例えば、断層画像群Do(3次元ボクセル)は、以下のように定義される。なお本開示において、X軸は人体の左右軸、Y軸は人体の背腹軸(前後軸)、Z軸は人体の頭尾軸(上下軸)に相当するものとする。XY軸は、例えば、CT装置での撮影時に設定される。また、本開示において、X軸方向を横方向、Y軸方向を縦方向と呼ぶ場合がある。 The tomographic image group Do is a stack of tomographic images, which are two-dimensional data of XY, in the Z-axis direction, and can be expressed as voxel data (three-dimensional voxels) that can be arranged in the voxel space R defined by the coordinate axes of XYZ. Is. For example, the tomographic image group Do (three-dimensional voxel) is defined as follows. In the present disclosure, the X-axis corresponds to the left-right axis of the human body, the Y-axis corresponds to the dorsoventral axis (front-back axis) of the human body, and the Z-axis corresponds to the cranio-caudal axis (upper and lower axis) of the human body. The XY axis is set, for example, at the time of photographing with a CT apparatus. Further, in the present disclosure, the X-axis direction may be referred to as a horizontal direction, and the Y-axis direction may be referred to as a vertical direction.

(式1)
−32768≦Do(x、y、z)≦32767
0≦x≦Sx−1、0≦y≦Sy−1、0≦z≦Sz−1
解像度:Rxy、解像度Rz
(Equation 1)
-32768 ≤ Do (x, y, z) ≤ 32767
0 ≦ x ≦ Sx-1, 0 ≦ y ≦ Sy-1, 0 ≦ z ≦ Sz-1
Resolution: Rxy, resolution Rz

(式1)において、Sxは断層画像の横方向の画素数(ボクセル数)、Syは断層画像の縦方向の画素数(ボクセル数)、Szはスライス枚数(ボクセル数)を表し、スキャン方向に所定の間隔で配置される。Rxyは横方向及び縦方向の断層画像の解像度であり、横方向と縦方向の解像度は通常同一で(DICOM規格上は異なった解像度を指定できるが、異なった解像度でスキャンするモダリティは現存しない)、画素の間隔(Wxy)の逆数、すなわち単位距離あたりの画素数を示す。Rzはスライスの解像度であり、断層画像のスライス間隔(Wz)(例えば、0.5mmや1mm)の逆数、すなわち単位距離あたりのスライス枚数を表す。 In (Equation 1), Sx represents the number of pixels in the horizontal direction (number of voxels) of the tomographic image, Sy represents the number of pixels in the vertical direction (number of voxels) of the tomographic image, and Sz represents the number of slices (number of voxels) in the scanning direction. Arranged at predetermined intervals. Rxy is the resolution of horizontal and vertical tomographic images, and the horizontal and vertical resolutions are usually the same (different resolutions can be specified according to the DICOM standard, but there is no existing modality to scan at different resolutions). , The inverse number of the pixel spacing (Wxy), that is, the number of pixels per unit distance. Rz is the resolution of the slice and represents the reciprocal of the slice interval (Wz) (for example, 0.5 mm or 1 mm) of the tomographic image, that is, the number of slices per unit distance.

断層画像群Doの信号値は、必要に応じて8ビットに階調圧縮される場合がある。8ビットに階調圧縮された断層画像群Do(x、y、z)は以下のように定義される。 The signal value of the tomographic image group Do may be gradation-compressed to 8 bits as needed. The tomographic image group Do (x, y, z) whose gradation is compressed to 8 bits is defined as follows.

(式2)
0≦Do(x、y、z)≦255
0≦x≦Sx−1、0≦y≦Sy−1、0≦z≦Sz−1
(Equation 2)
0 ≦ Do (x, y, z) ≦ 255
0 ≦ x ≦ Sx-1, 0 ≦ y ≦ Sy-1, 0 ≦ z ≦ Sz-1

描画重みテーブル作成部22は、断層画像Do(z)毎に、断層画像Do(z)の各画素(x、y、z)を描画対象とする重み値を格納した描画重みテーブルSvを作成する。描画重みテーブルSvは以下のように定義される。 The drawing weight table creation unit 22 creates a drawing weight table Sv that stores weight values for each pixel (x, y, z) of the tomographic image Do (z) for each tomographic image Do (z). .. The drawing weight table Sv is defined as follows.

(式3)
0≦Sv(x、y、z)≦1
0≦x≦Sx−1、0≦y≦Sy−1、0≦z≦Sz−1
(Equation 3)
0 ≦ Sv (x, y, z) ≦ 1
0 ≦ x ≦ Sx-1, 0 ≦ y ≦ Sy-1, 0 ≦ z ≦ Sz-1

描画重みテーブル作成部22は、図1に示すように、被写体領域算出部31、被写体領域補正部32、被写体形状算出部33、重み値算出部34から構成される。 As shown in FIG. 1, the drawing weight table creation unit 22 includes a subject area calculation unit 31, a subject area correction unit 32, a subject shape calculation unit 33, and a weight value calculation unit 34.

被写体領域算出部31は、断層画像Do(z)毎に、断層画像Do(z)の各画素の信号値に基づいて被写体領域を算出する。 The subject area calculation unit 31 calculates the subject area for each tomographic image Do (z) based on the signal value of each pixel of the tomographic image Do (z).

被写体領域補正部32は、胸部CT画像の場合に、被写体領域算出部31により算出された被写体領域を補正する。 The subject area correction unit 32 corrects the subject area calculated by the subject area calculation unit 31 in the case of a chest CT image.

被写体形状算出部33は、断層画像Do(z)毎に、被写体領域算出部31により算出された被写体領域または被写体領域補正部32により補正された被写体領域の外郭を所定の幾何形状(被写体形状)で近似し、当該幾何形状を規定するパラメータ(幾何パラメータP(z))を算出する。 The subject shape calculation unit 33 has a predetermined geometric shape (subject shape) of the subject area calculated by the subject area calculation unit 31 or the outline of the subject area corrected by the subject area correction unit 32 for each tomographic image Do (z). The parameter (geometric parameter P (z)) that defines the geometric shape is calculated by approximating with.

重み値算出部34は、断層画像Do(z)毎に、被写体形状算出部33により算出された幾何パラメータP(z)に基づいて、断層画像Do(z)の各画素(x、y、z)を描画対象とする重み値Sv(x、y、z)を算出し、重み値Sv(x、y、z)を格納した3次元の描画重みテーブルSvを作成する。 The weight value calculation unit 34 determines each pixel (x, y, z) of the tomographic image Do (z) based on the geometric parameter P (z) calculated by the subject shape calculation unit 33 for each tomographic image Do (z). ) Is calculated as the weight value Sv (x, y, z) for drawing, and a three-dimensional drawing weight table Sv storing the weight value Sv (x, y, z) is created.

なお、重み値Sv(x、y、z)は3次元のデータ配列であり、そのままデータテーブル(描画重みテーブル)として扱えるため、重み値と描画重みテーブルは実質的に同一である。このため、重み値と描画重みテーブルは同一の符号「Sv」で表す。 Since the weight value Sv (x, y, z) is a three-dimensional data array and can be treated as it is as a data table (drawing weight table), the weight value and the drawing weight table are substantially the same. Therefore, the weight value and the drawing weight table are represented by the same reference numeral “Sv”.

マスクデータ生成部23は、描画重みテーブル作成部22により作成された描画重みテーブルSvに基づいて、断層画像群Doの各画素(x、y、z)の重み値を所定の閾値で二値化したマスク値を算出し、各画素(x、y、z)に対応するマスク値を保持する3次元のマスクデータMaskを生成する。マスクデータMaskは以下のように定義される。 The mask data generation unit 23 binarizes the weight values of each pixel (x, y, z) of the tomographic image group Do with a predetermined threshold value based on the drawing weight table Sv created by the drawing weight table creation unit 22. The mask value is calculated, and three-dimensional mask data Mask holding the mask value corresponding to each pixel (x, y, z) is generated. The mask data Mask is defined as follows.

(式4)
Mask(x、y、z)= 0(非描画)または1(描画)
0≦x≦Sx−1、0≦y≦Sy−1、0≦z≦Sz−1
(Equation 4)
Mask (x, y, z) = 0 (non-drawing) or 1 (drawing)
0 ≦ x ≦ Sx-1, 0 ≦ y ≦ Sy-1, 0 ≦ z ≦ Sz-1

(2.マスク生成装置1のハードウェア構成)
図2は、本実施の形態におけるマスク生成装置1のハードウェア構成を示すブロック図である。図に示すように、マスク生成装置1は、制御部11、記憶部12、メディア入出力部13、通信制御部14、入力部15、表示部16、周辺機器I/F部17等が、バス18を介して接続される汎用のコンピュータで実現される。但し、これに限ることなく、用途、目的に応じて様々な構成を採ることが可能である。
(2. Hardware configuration of mask generator 1)
FIG. 2 is a block diagram showing a hardware configuration of the mask generation device 1 according to the present embodiment. As shown in the figure, the mask generation device 1 includes a control unit 11, a storage unit 12, a media input / output unit 13, a communication control unit 14, an input unit 15, a display unit 16, a peripheral device I / F unit 17, and the like. It is realized by a general-purpose computer connected via 18. However, the present invention is not limited to this, and various configurations can be adopted depending on the application and purpose.

制御部11は、単一プロセッサ、或いはマルチコアCPUで構成されるプロセッサ又はプロセッサが複数個で構成されるマルチプロセッサ(以降、いずれも単に「CPU」と表記し、CPUが有するコアをCPUコアと表記する)、ROM(Read Only Memory)、RAM(Random Access Memory)、フレームメモリ(Frame Memory)等によって構成される。CPUは、記憶部12、ROM、記録媒体等に格納されるレンダリングプログラムをRAM、フレームメモリ上のワークメモリ領域に呼び出して実行し、バス18を介して接続された各装置を駆動制御し、マスク生成装置1が行う後述する処理を実現する。なお、本開示では、複数のCPUコアを用いた処理を後述するが、複数のCPUコアには物理的に複数のCPUコア(区別して説明する場合には、物理コアと表記する)だけでなく、論理的に複数のCPUコア(区別して説明する場合には、論理コアと表記する)も含まれる。 The control unit 11 is a single processor or a processor composed of a multi-core CPU or a multi-processor composed of a plurality of processors (hereinafter, both are simply referred to as "CPU", and a core possessed by the CPU is referred to as a CPU core. ), ROM (Read Only Memory), RAM (Random Access Memory), frame memory (Frame Memory), etc. The CPU calls and executes a rendering program stored in the storage unit 12, ROM, recording medium, etc. in the work memory area on the RAM and frame memory, drives and controls each device connected via the bus 18, and masks. The processing described later performed by the generation device 1 is realized. In the present disclosure, processing using a plurality of CPU cores will be described later, but the plurality of CPU cores include not only physically a plurality of CPU cores (in the case of distinction, they are referred to as physical cores). , Logically, a plurality of CPU cores (referred to as logical cores when described separately) are also included.

ROMは、不揮発性メモリであり、コンピュータのブートプログラムやBIOS等のプログラム、データ等を恒久的に保持している。RAM、フレームメモリは、揮発性メモリであり、記憶部12、ROM、記録媒体等からロードしたプログラム、データ等を一時的に保持するとともに、制御部11が各種処理を行う為に使用するワークエリアを備える。 The ROM is a non-volatile memory, and permanently holds a computer boot program, a program such as a BIOS, data, and the like. The RAM and frame memory are volatile memories, and are work areas used by the control unit 11 to perform various processes while temporarily holding programs, data, etc. loaded from the storage unit 12, ROM, recording medium, and the like. To be equipped.

記憶部12は、HDD(Hard Disk Drive)等であり、制御部11が実行するプログラム、プログラム実行に必要なデータ、OS(Operating System)等が格納される。プログラムに関しては、OSに相当する制御プログラムや、後述する処理をコンピュータに実行させるためのアプリケーションプログラムが格納されている。これらの各プログラムコードは、制御部11により必要に応じて読み出されてRAM、フレームメモリに移され、CPUに読み出されて各種の手段として実行される。 The storage unit 12 is an HDD (Hard Disk Drive) or the like, and stores a program executed by the control unit 11, data necessary for program execution, an OS (Operating System), and the like. As for the program, a control program corresponding to the OS and an application program for causing a computer to execute a process described later are stored. Each of these program codes is read by the control unit 11 as necessary, transferred to the RAM and frame memory, read by the CPU, and executed as various means.

メディア入出力部13(ドライブ装置)は、データの入出力を行い、例えば、CDドライブ(−ROM、−R、−RW等)、DVDドライブ(−ROM、−R、−RW等)等のメディア入出力装置を有する。通信制御部14は、通信制御装置、通信ポート等を有し、コンピュータとネットワーク間の通信を媒介する通信インタフェースであり、ネットワークを介して、他のコンピュータ間との通信制御を行う。ネットワークは、有線、無線を問わない。 The media input / output unit 13 (drive device) inputs / outputs data, and for example, media such as a CD drive (-ROM, -R, -RW, etc.) and a DVD drive (-ROM, -R, -RW, etc.). It has an input / output device. The communication control unit 14 has a communication control device, a communication port, and the like, and is a communication interface that mediates communication between a computer and a network, and controls communication between other computers via the network. The network can be wired or wireless.

入力部15は、データの入力を行い、例えば、キーボード、マウス等のポインティングデバイス、テンキー等の入力装置を有する。入力部15を介して、コンピュータに対して、操作指示、動作指示、データ入力等を行うことができる。
表示部16は、液晶パネル等のディスプレイ装置、ディスプレイ装置と連携してコンピュータのビデオ機能を実現するための論理回路等(ビデオアダプタ等)を有する。なお、入力部15及び表示部16は、タッチパネルディスプレイのように、一体となっていてもよい。
The input unit 15 inputs data and has, for example, a pointing device such as a keyboard and a mouse, and an input device such as a numeric keypad. Operation instructions, operation instructions, data input, and the like can be given to the computer via the input unit 15.
The display unit 16 has a display device such as a liquid crystal panel, a logic circuit (video adapter or the like) for realizing a video function of a computer in cooperation with the display device. The input unit 15 and the display unit 16 may be integrated as in the touch panel display.

周辺機器I/F(Interface)部17は、コンピュータに周辺機器を接続させるためのポートであり、周辺機器I/F部17を介してコンピュータは周辺機器とのデータの送受信を行う。周辺機器I/F部17は、USB(Universal Serial Bus)やIEEE1394やRS−232C等によって構成されており、通常複数の周辺機器I/Fを有する。周辺機器との接続形態は有線、無線を問わない。バス18は、各装置間の制御信号、データ信号等の授受を媒介する経路である。 The peripheral device I / F (Interface) unit 17 is a port for connecting the peripheral device to the computer, and the computer transmits / receives data to / from the peripheral device via the peripheral device I / F unit 17. The peripheral device I / F unit 17 is composed of USB (Universal Serial Bus), IEEE1394, RS-232C, or the like, and usually has a plurality of peripheral device I / Fs. The connection form with peripheral devices may be wired or wireless. The bus 18 is a route that mediates the transfer of control signals, data signals, and the like between the devices.

(3.マスク生成装置1の動作)
図3のフローチャートを参照しながら、マスク生成装置1の動作について説明する。
(3. Operation of mask generator 1)
The operation of the mask generation device 1 will be described with reference to the flowchart of FIG.

まず、マスク生成装置1の制御部11は、CT装置により撮影された断層画像群Doを取得する(ステップS1)。 First, the control unit 11 of the mask generation device 1 acquires the tomographic image group Do captured by the CT device (step S1).

続いて、制御部11は、断層画像Do(z)毎に、断層画像Do(z)の各画素(x、y、z)を描画対象とする重み値Sv(x、y、z)を格納した描画重みテーブルSvを作成する(ステップS2)。描画重みテーブルSvを作成する処理については後述する(「4.描画重みテーブルの作成」参照)。 Subsequently, the control unit 11 stores weight values Sv (x, y, z) for drawing each pixel (x, y, z) of the tomographic image Do (z) for each tomographic image Do (z). The drawn drawing weight table Sv is created (step S2). The process of creating the drawing weight table Sv will be described later (see “4. Creating the drawing weight table”).

そして、制御部11は、ステップS2において作成された描画重みテーブルSvを参照して、断層画像群Doの各画素(x、y、z)の重み値Sv(x、y、z)を所定の閾値で二値化したマスク値Mask(x、y、z)を算出し、各画素(x、y、z)に対応するマスク値を保持する3次元のマスクデータMaskを生成する(ステップS3)。マスクデータMaskを生成する処理については後述する(「5.マスクデータの生成」参照)。 Then, the control unit 11 refers to the drawing weight table Sv created in step S2, and determines the weight values Sv (x, y, z) of each pixel (x, y, z) of the tomographic image group Do. The mask value Mask (x, y, z) binarized by the threshold value is calculated, and the three-dimensional mask data Mask holding the mask value corresponding to each pixel (x, y, z) is generated (step S3). .. The process of generating the mask data Mask will be described later (see “5. Mask data generation”).

(4.描画重みテーブルの作成)
図4〜図16を参照しながら、図3のステップS2において実行される描画重みテーブルSvを作成する処理を説明する。
図4は、描画重みテーブルSvを作成する処理の流れを示すフローチャートである。
(4. Creation of drawing weight table)
The process of creating the drawing weight table Sv executed in step S2 of FIG. 3 will be described with reference to FIGS. 4 to 16.
FIG. 4 is a flowchart showing a flow of processing for creating the drawing weight table Sv.

<被写体領域算出処理>
制御部11は、まず、断層画像Do(z)毎に、断層画像Do(z)の各画素の信号値に基づいて、被写体領域として、矩形領域41(第1の矩形領域)または矩形領域42(第2の矩形領域)を算出する(ステップS21)。
<Subject area calculation process>
First, the control unit 11 sets the rectangular region 41 (first rectangular region) or the rectangular region 42 as the subject region for each tomographic image Do (z) based on the signal value of each pixel of the tomographic image Do (z). (Second rectangular area) is calculated (step S21).

図5に示すように、矩形領域41(第1の矩形領域)とは、被写体候補領域50の最外側を囲う矩形領域である。被写体候補領域50とは、断層画像Do(z)のうち信号値が所定の閾値(例えば、空気でない信号値以上)より大きい画素領域である。なお、被写体領域として矩形領域41を算出する方法は、本発明者が特願2018−103767に既に提案しているため、ここでは、主に、被写体領域として矩形領域42(第2の矩形領域)を算出する方法を説明する。 As shown in FIG. 5, the rectangular area 41 (first rectangular area) is a rectangular area surrounding the outermost part of the subject candidate area 50. The subject candidate region 50 is a pixel region of the tomographic image Do (z) whose signal value is larger than a predetermined threshold value (for example, a signal value that is not air or more). Since the present inventor has already proposed a method for calculating the rectangular area 41 as the subject area in Japanese Patent Application No. 2018-103767, here, the rectangular area 42 (second rectangular area) is mainly used as the subject area. The method of calculating is described.

矩形領域42(第2の矩形領域)とは、図5に示すように、矩形領域41の内部に定義される矩形領域である。矩形領域41は、信号値が所定の閾値より大きい全ての画素を含むため、図5に示すように、人体50a以外の寝台50bやヘッドレストなどの不要領域が含まれる場合がある。そこで、本開示では、被写体候補領域50の信号値分布を考慮して、矩形領域41の内部に定義される矩形領域42を算出することで、寝台やヘッドレストなどの不要領域が含まれないように被写体領域を抽出する。 The rectangular area 42 (second rectangular area) is a rectangular area defined inside the rectangular area 41 as shown in FIG. Since the rectangular region 41 includes all pixels whose signal values are larger than a predetermined threshold value, as shown in FIG. 5, an unnecessary region such as a bed 50b or a headrest other than the human body 50a may be included. Therefore, in the present disclosure, by calculating the rectangular area 42 defined inside the rectangular area 41 in consideration of the signal value distribution of the subject candidate area 50, unnecessary areas such as a bed and a headrest are not included. Extract the subject area.

図6〜図14を参照しながら、図4のステップ21において実行される被写体領域(矩形領域42)を算出する処理を具体的に説明する。
図6は、被写体領域(矩形領域42)を算出する処理の流れを示すフローチャートである。なお、断層画像Do(z)の各画素の信号値が16ビットの場合は、あらかじめ、以下のように8ビットの信号値に変換しておく。
The process of calculating the subject area (rectangular area 42) executed in step 21 of FIG. 4 will be specifically described with reference to FIGS. 6 to 14.
FIG. 6 is a flowchart showing a flow of processing for calculating the subject area (rectangular area 42). When the signal value of each pixel of the tomographic image Do (z) is 16 bits, it is converted into an 8-bit signal value in advance as follows.

(式5)
D8(x、y、z)={Do(x、y、z)+700}・255/1724
ただし、D8(x、y、z)<0の場合はD8(x、y、z)=0、D8(x、y、z)>255の場合はD8(x、y、z)=255とする。
(Equation 5)
D8 (x, y, z) = {Do (x, y, z) +700} · 255/1724
However, when D8 (x, y, z) <0, D8 (x, y, z) = 0, and when D8 (x, y, z)> 255, D8 (x, y, z) = 255. To do.

まず、制御部11は、被写体候補領域50の画素の信号値で重み付けした重心座標を、矩形領域42の中心座標として算出する(ステップS31、図7(a))。 First, the control unit 11 calculates the coordinates of the center of gravity weighted by the signal values of the pixels of the subject candidate region 50 as the center coordinates of the rectangular region 42 (step S31, FIG. 7A).

具体的には、制御部11は、算出対象の矩形領域42の中心座標を(C(x)、Cy(z))、重みの総和をWsとし、Cx(z)=Cy(z)=Ws=0に初期化し、断層画像D8(x、y、z)の各画素(x、y)(0≦x≦Sx−1、0≦y≦Sy−1)に対して、D8(x、y、z)>Vmin(例えば、Vmin=10)を満たす場合、被写体候補領域50の画素であるとし、以下のようにCx(z)、Cy(z)、Wsを更新する。 Specifically, the control unit 11 sets the center coordinates of the rectangular region 42 to be calculated as (C (x), Cy (z)) and the sum of the weights as Ws, and Cx (z) = Cy (z) = Ws. Initialized to = 0, D8 (x, y) for each pixel (x, y) (0 ≦ x ≦ Sx-1, 0 ≦ y ≦ Sy-1) of the tomographic image D8 (x, y, z). , Z)> Vmin (for example, Vmin = 10), it is assumed that the pixels are in the subject candidate region 50, and Cx (z), Cy (z), and Ws are updated as follows.

(式6)
w={D8(x、y、z)−Vmin}として、
Cx(z)←Cx(z)+x・w
Cy(z)←Cy(z)+y・w
Ws←Ws+w
(Equation 6)
As w = {D8 (x, y, z) -Vmin} 2 ,
Cx (z) ← Cx (z) + x · w
Cy (z) ← Cy (z) + y ・ w
Ws ← Ws + w

制御部11は、0≦x≦Sx−1、0≦y≦Sy−1の範囲のSx×Sy個の画素に対して上記処理を実行したのち、Ws>1の場合、 The control unit 11 executes the above processing on Sx × Sy pixels in the range of 0 ≦ x ≦ Sx-1 and 0 ≦ y ≦ Sy-1, and then when Ws> 1,

(式7)
Cx(z)=Cx(z)/Ws
Cy(z)=Cy(z)/Ws
(Equation 7)
Cx (z) = Cx (z) / Ws
Cy (z) = Cy (z) / Ws

とする。
以上のように、被写体候補領域50の画素の信号値で重み付けした重心座標を求め、この重心座標を矩形領域42の中心座標(Cx(z)、Cy(z))として算出する。
And.
As described above, the coordinates of the center of gravity weighted by the signal values of the pixels of the subject candidate region 50 are obtained, and the coordinates of the center of gravity are calculated as the center coordinates (Cx (z), Cy (z)) of the rectangular region 42.

続いて、制御部11は、算出された中心座標(Cx(z)、Cy(z))を起点に上下左右の4方向に矩形領域41(第1の矩形領域)の範囲で信号値が所定の閾値より大きい画素(被写体候補領域50の画素)の信号値で重み付けした重心(以下、「第2重心」と呼ぶ)を算出する(ステップS32、図7(b))。 Subsequently, the control unit 11 determines the signal value within the range of the rectangular region 41 (first rectangular region) in the four directions of up, down, left, and right starting from the calculated center coordinates (Cx (z), Cy (z)). The center of gravity (hereinafter, referred to as “second center of gravity”) weighted by the signal value of the pixels larger than the threshold value (pixels in the subject candidate region 50) is calculated (step S32, FIG. 7B).

すなわち、図8(a)(b)に示すように、制御部11は、中心座標(Cx(z)、Cy(z))(被写体候補領域50の重心)を起点に被写体候補領域50をX軸方向に2分割し、分割された各被写体候補領域50における画素の信号値で重み付けした重心(第2重心)のX座標Gx1、Gx2(Gx1<Gx2)を算出する。 That is, as shown in FIGS. 8A and 8B, the control unit 11 sets the subject candidate region 50 to X with the center coordinates (Cx (z), Cy (z)) (center of gravity of the subject candidate region 50) as the starting point. The X coordinates Gx1 and Gx2 (Gx1 <Gx2) of the center of gravity (second center of gravity) weighted by the signal values of the pixels in each of the divided subject candidate regions 50 are calculated by dividing into two in the axial direction.

同様に、図8(c)(d)に示すように、制御部11は、中心座標(Cx(z)、Cy(z))(被写体候補領域50の重心)を起点に被写体候補領域50をY軸方向に2分割し、分割された各被写体候補領域50における画素の信号値で重み付けした重心(第2重心)のY座標Gy1、Gy2(Gy1<Gy2)を算出する。 Similarly, as shown in FIGS. 8C and 8D, the control unit 11 sets the subject candidate area 50 from the center coordinates (Cx (z), Cy (z)) (center of gravity of the subject candidate area 50). The Y coordinates Gy1 and Gy2 (Gy1 <Gy2) of the center of gravity (second center of gravity) weighted by the signal values of the pixels in each of the divided subject candidate regions 50 are calculated by dividing into two in the Y-axis direction.

第2重心を求める具体的な処理は以下の通りである。
制御部11は、まず、各第2重心座標に対する重みの総和をWx1、Wx2、Wy1、Wy2とし、Gx1=Gx2=Gy1=Gy2=Wx1=Wx2=Wy1=Wy2=0に初期化する。
The specific process for obtaining the second center of gravity is as follows.
First, the control unit 11 sets the sum of the weights for each second barycentric coordinate to Wx1, Wx2, Wy1, and Wy2, and initializes them to Gx1 = Gx2 = Gy1 = Gy2 = Wx1 = Wx2 = Wy1 = Wy2 = 0.

そして、制御部11は、断層画像D8(x、y、z)の各画素(x、y)(0≦x≦Sx−1、0≦y≦Sy−1)に対して、D8(x、y、z)>Vmin(例えば、Vmin=10)を満たす場合、被写体候補領域50の画素であるとし、以下のようにGx1、Gx2、Gy1、Gy2、Wx1、Wx2、Wy1、Wy2を更新する。 Then, the control unit 11 has D8 (x, y, z) for each pixel (x, y) (0 ≦ x ≦ Sx-1, 0 ≦ y ≦ Sy-1) of the tomographic image D8 (x, y, z). When y, z)> Vmin (for example, Vmin = 10) is satisfied, it is assumed that the pixels are in the subject candidate region 50, and Gx1, Gx2, Gy1, Gy2, Wx1, Wx2, Wy1, and Wy2 are updated as follows.

(式8)
w={D8(x、y、z)−Vmin}として、
x<Cx(z)の場合、Gx1←Gx1+x・w、Wx1←Wx1+w
x≧Cx(z)の場合、Gx2←Gx2+x・w、Wx2←Wx2+w
y<Cy(z)の場合、Gy1←Gy1+y・w、Wy1←Wy1+w
y≧Cy(z)の場合、Gy2←Gy2+y・w、Wy2←Wy2+w
(Equation 8)
As w = {D8 (x, y, z) -Vmin} 2 ,
When x <Cx (z), Gx1 ← Gx1 + x · w, Wx1 ← Wx1 + w
When x ≧ Cx (z), Gx2 ← Gx2 + x · w, Wx2 ← Wx2 + w
When y <Cy (z), Gy1 ← Gy1 + y · w, Wy1 ← Wy1 + w
When y ≧ Cy (z), Gy2 ← Gy2 + y · w, Wy2 ← Wy2 + w

制御部11は、0≦x≦Sx−1、0≦y≦Sy−1の範囲のSx×Sy個の画素に対して上記処理を実行したのち、 The control unit 11 executes the above processing on Sx × Sy pixels in the range of 0 ≦ x ≦ Sx-1 and 0 ≦ y ≦ Sy-1, and then performs the above processing.

(式9)
Gx1=Gx1/Wx1
Gx2=Gx2/Wx2
Gy1=Gy1/Wy1
Gy2=Gy2/Wy2
(Equation 9)
Gx1 = Gx1 / Wx1
Gx2 = Gx2 / Wx2
Gy1 = Gy1 / Wy1
Gy2 = Gy2 / Wy2

とし、分割された各被写体候補領域50における第2重心座標Gx1、Gx2(Gx1<Gx2)、Gy1、Gy2(Gy1<Gy2)を求める。 Then, the second barycentric coordinates Gx1, Gx2 (Gx1 <Gx2), Gy1, and Gy2 (Gy1 <Gy2) in each of the divided subject candidate regions 50 are obtained.

続いて、制御部11は、ステップS32において算出された第2重心座標を起点に更に上下左右の4方向に矩形領域41(第1の矩形領域)の範囲で信号値が所定の閾値より大きい画素(被写体候補領域50の画素)の信号値で重み付けした重心(以下、「第3重心」と呼ぶ)を算出する(ステップS33、図7(c))。 Subsequently, the control unit 11 is a pixel whose signal value is larger than a predetermined threshold value in the range of the rectangular region 41 (first rectangular region) in four directions of up, down, left, and right, starting from the second barycentric coordinate calculated in step S32. The center of gravity weighted by the signal value of (pixels in the subject candidate region 50) (hereinafter, referred to as “third center of gravity”) is calculated (step S33, FIG. 7 (c)).

すなわち、図9(a)(b)に示すように、制御部11は、第2重心Gx1、Gx2を起点に被写体候補領域50をX軸方向に3分割し、左右端の2つの被写体候補領域50における画素の信号値で重み付けした重心(第3重心)のX座標Gtx1、Gtx2(Gtx1<Gtx2)を算出する。 That is, as shown in FIGS. 9A and 9B, the control unit 11 divides the subject candidate area 50 into three in the X-axis direction starting from the second centers of gravity Gx1 and Gx2, and two subject candidate areas at the left and right ends. The X coordinates Gtx1 and Gtx2 (Gtx1 <Gtx2) of the center of gravity (third center of gravity) weighted by the signal value of the pixel at 50 are calculated.

同様に、図9(c)(d)に示すように、制御部11は、第2重心Gy1、Gy2を起点に被写体候補領域50をY軸方向に3分割し、上下端の2つの被写体候補領域50における画素の信号値で重み付けした重心(第3重心)のY座標Gty1、Gty2(Gty1<Gty2)を算出する。 Similarly, as shown in FIGS. 9C and 9D, the control unit 11 divides the subject candidate area 50 into three in the Y-axis direction starting from the second centers of gravity Gy1 and Gy2, and two subject candidates at the upper and lower ends. The Y coordinates Gty1 and Gty2 (Gty1 <Gty2) of the center of gravity (third center of gravity) weighted by the signal values of the pixels in the region 50 are calculated.

第3重心を求める具体的な処理は以下の通りである。
制御部11は、まず、各第3重心座標に対する重みの総和をWx1、Wx2、Wy1、Wy2とし、Gtx1=Gtx2=Gty1=Gty2=Wx1=Wx2=Wy1=Wy2=0に初期化する。
The specific process for obtaining the third center of gravity is as follows.
First, the control unit 11 sets the sum of the weights for each third barycentric coordinate to Wx1, Wx2, Wy1, and Wy2, and initializes them to Gtx1 = Gtx2 = Gty1 = Gty2 = Wx1 = Wx2 = Wy1 = Wy2 = 0.

そして、制御部11は、断層画像D8(x、y、z)の各画素(x、y)(0≦x≦Sx−1、0≦y≦Sy−1)に対して、D8(x、y、z)>Vmin(例えば、Vmin=10)を満たす場合、被写体候補領域50の画素であるとし、以下のようにGtx1、Gtx2、Gty1、Gty2、Wx1、Wx2、Wy1、Wy2を更新する。 Then, the control unit 11 has D8 (x, y, z) for each pixel (x, y) (0 ≦ x ≦ Sx-1, 0 ≦ y ≦ Sy-1) of the tomographic image D8 (x, y, z). When y, z)> Vmin (for example, Vmin = 10) is satisfied, it is assumed that the pixels are in the subject candidate region 50, and Gtx1, Gtx2, Gty1, Gty2, Wx1, Wx2, Wy1, and Wy2 are updated as follows.

(式10)
w={D8(x、y、z)−Vmin}として、
x<Gx1の場合、Gtx1←Gtx1+x・w、Wx1←Wx1+w
x>Gx2の場合、Gtx2←Gtx2+x・w、Wx2←Wx2+w
y<Gy1の場合、Gty1←Gty1+y・w、Wy1←Wy1+w
y>Gy2の場合、Gty2←Gty2+y・w、Wy2←Wy2+w
(Equation 10)
As w = {D8 (x, y, z) -Vmin} 2 ,
When x <Gx1, Gtx1 ← Gtx1 + x · w, Wx1 ← Wx1 + w
When x> Gx2, Gtx2 ← Gtx2 + x · w, Wx2 ← Wx2 + w
When y <Gy1, Gty1 ← Gty1 + y · w, Wy1 ← Wy1 + w
When y> Gy2, Gty2 ← Gty2 + y · w, Wy2 ← Wy2 + w

制御部11は、0≦x≦Sx−1、0≦y≦Sy−1の範囲のSx×Sy個の画素に対して上記処理を実行したのち、 The control unit 11 executes the above processing on Sx × Sy pixels in the range of 0 ≦ x ≦ Sx-1 and 0 ≦ y ≦ Sy-1, and then performs the above processing.

(式11)
Gtx1=Gtx1/Wx1
Gtx2=Gtx2/Wx2
Gty1=Gty1/Wy1
Gty2=Gty2/Wy2
(Equation 11)
Gtx1 = Gtx1 / Wx1
Gtx2 = Gtx2 / Wx2
Gty1 = Gty1 / Wy1
Gty2 = Gty2 / Wy2

とし、分割された各被写体候補領域50における第3重心座標Gtx1、Gtx2(Gtx1<Gtx2)、Gty1、Gty2(Gty1<Gty2)を求める。 Then, the third barycentric coordinates Gtx1, Gtx2 (Gtx1 <Gtx2), Gty1 and Gty2 (Gty1 <Gty2) in each of the divided subject candidate regions 50 are obtained.

そして、制御部11は、ステップS33において算出された第3重心座標に基づいて、以下のように、矩形領域42の横方向のサイズW(z)、縦方向のサイズH(z)を算出する(ステップS34、図7(d))。 Then, the control unit 11 calculates the horizontal size W (z) and the vertical size H (z) of the rectangular region 42 based on the third barycentric coordinates calculated in step S33 as follows. (Step S34, FIG. 7 (d)).

(式12)
横方向のサイズ:W(z)=Gtx2−Gtx1
縦方向のサイズ:H(z)=Gty2−Gty1
(Equation 12)
Horizontal size: W (z) = Gtx2-Gtx1
Vertical size: H (z) = Gty2-Gty1

また、制御部11は、以下のように、中心座標(Cx(z)、Cy(z))を起点として横方向のサイズと縦方向のサイズを2種類算出する。 Further, the control unit 11 calculates two types of the horizontal size and the vertical size starting from the center coordinates (Cx (z), Cy (z)) as follows.

(式13)
第1の横方向のサイズ:W1(z)=Cx(z)−Gtx1
第2の横方向のサイズ:W2(z)=Gtx2−Cx(z)
第1の縦方向のサイズ:H1(z)=Cy(z)−Gty1
第2の縦方向のサイズ:H2(z)=Gty2−Cy(z)
(Equation 13)
First lateral size: W1 (z) = Cx (z) -Gtx1
Second lateral size: W2 (z) = Gtx2-Cx (z)
First vertical size: H1 (z) = Cy (z) -Gty1
Second vertical size: H2 (z) = Gty2-Cy (z)

図10は、算出された矩形領域42を示す図である。図に示すように、矩形領域42の横方向のサイズW(z)は、右方向の第3重心Gtx2から左方向の第3重心Gtx1までの距離に相当し、矩形領域42の縦方向のサイズH(z)は、下方向の第3重心Gty2から上方向の第3重心Gty1までの距離に相当する。 FIG. 10 is a diagram showing the calculated rectangular region 42. As shown in the figure, the lateral size W (z) of the rectangular region 42 corresponds to the distance from the third center of gravity Gtx2 in the right direction to the third center of gravity Gtx1 in the left direction, and is the vertical size of the rectangular region 42. H (z) corresponds to the distance from the downward third center of gravity Gty2 to the upward third center of gravity Gty1.

また、第1の横方向のサイズW1(z)は、左方向の第3重心Gtx1から矩形領域42の中心座標までの距離に相当し、第2の横方向のサイズW2(z)は、右方向の第3重心Gtx2から矩形領域42の中心座標までの距離に相当する。第1の縦方向のサイズH1(z)は、上方向の第3重心Gty1から矩形領域42の中心座標までの距離に相当し、第2の縦方向のサイズH2(z)は、下方向の第3重心Gty2から矩形領域42の中心座標までの距離に相当する。 Further, the first lateral size W1 (z) corresponds to the distance from the third center of gravity Gtx1 in the left direction to the center coordinate of the rectangular region 42, and the second lateral size W2 (z) is the right. It corresponds to the distance from the third center of gravity Gtx2 in the direction to the center coordinates of the rectangular region 42. The first vertical size H1 (z) corresponds to the distance from the upper third center of gravity Gty1 to the center coordinates of the rectangular region 42, and the second vertical size H2 (z) is downward. It corresponds to the distance from the third center of gravity Gty2 to the center coordinates of the rectangular region 42.

以上の処理により、被写体領域として、中心座標(Cx(z)、Cy(z))、横方向のサイズW(z)(第1の横方向のサイズW1(z)、第2の横方向のサイズW2(z))、縦方向のサイズH(z)(第1の縦方向のサイズH1(z)、第2の縦方向のサイズH2(z))により規定される矩形領域42が算出される。 By the above processing, the subject area has center coordinates (Cx (z), Cy (z)), horizontal size W (z) (first horizontal size W1 (z), second horizontal size W1 (z)). The rectangular area 42 defined by the size W2 (z)), the vertical size H (z) (the first vertical size H1 (z), the second vertical size H2 (z)) is calculated. To.

なお、ステップS34において、制御部11は、ステップS32において算出された第2重心に基づいて矩形領域42の横方向のサイズW(z)(第1の横方向のサイズW1(z)、第2の横方向のサイズW2(z))と縦方向のサイズH(z)(第1の縦方向のサイズH1(z)、第2の縦方向のサイズH2(z))を算出してもよい。 In step S34, the control unit 11 determines the lateral size W (z) of the rectangular region 42 (first lateral size W1 (z), second) based on the second center of gravity calculated in step S32. Horizontal size W2 (z)) and vertical size H (z) (first vertical size H1 (z), second vertical size H2 (z)) may be calculated. ..

また、制御部11は、ステップS33において算出された第3重心を起点に更に上下左右の4方向に第4重心を算出してもよい。この場合、制御部11は、第4重心に基づいて矩形領域42の横方向のサイズW(z)(第1の横方向のサイズW1(z)、第2の横方向のサイズW2(z))と縦方向のサイズH(z)(第1の縦方向のサイズH1(z)、第2の縦方向のサイズH2(z))を算出する。 Further, the control unit 11 may further calculate the fourth center of gravity in four directions of up, down, left, and right, starting from the third center of gravity calculated in step S33. In this case, the control unit 11 has a lateral size W (z) of the rectangular region 42 based on the fourth center of gravity (first lateral size W1 (z), second lateral size W2 (z)). ) And the vertical size H (z) (the first vertical size H1 (z), the second vertical size H2 (z)) are calculated.

<被写体領域補正処理>
ところで、胸部CTの場合、矩形領域42の縦横サイズを中心点から上下左右方向の第2重心や第3重心で算出する方法をとると、骨領域内の臓器の信号値分布によっては、矩形領域42が骨領域を除去し骨領域内の臓器等を可視化するのに適したサイズとならない場合がある。
<Subject area correction processing>
By the way, in the case of chest CT, if the vertical and horizontal sizes of the rectangular region 42 are calculated from the second center of gravity and the third center of gravity in the vertical and horizontal directions from the center point, the rectangular region depends on the signal value distribution of the organs in the bone region. The size of 42 may not be suitable for removing the bone region and visualizing the organs and the like in the bone region.

例えば、図11(a)のように領域内部の信号値が比較的大きい場合(例えば、腹部肝臓領域の場合)、算出される重心(第2重心、第3重心)が中心に寄りやすくなるため、矩形領域42が小さめに算出される。すなわち、矩形領域42が骨領域より内側に定義される場合がある。このような矩形領域42に基づいてマスクデータを作成すると、本体描画対象である内臓領域が除去される場合がある。 For example, when the signal value inside the region is relatively large (for example, in the case of the abdominal liver region) as shown in FIG. 11A, the calculated center of gravity (second center of gravity, third center of gravity) tends to move toward the center. , The rectangular area 42 is calculated to be smaller. That is, the rectangular region 42 may be defined inside the bone region. When mask data is created based on such a rectangular area 42, the built-in area to be drawn on the main body may be removed.

また、図11(b)のように領域内部の信号値が比較的小さい場合(例えば、胸部肺領域の場合)、算出される重心が外側に寄りやすくなるため、矩形領域42が大きめに算出される。すなわち、矩形領域42が骨領域より外側に定義される場合がある。このような矩形領域42に基づいてマスクデータを作成すると、非描画対象である骨領域が精度よく除去できない場合がある。 Further, when the signal value inside the region is relatively small as shown in FIG. 11B (for example, in the case of the thoracic lung region), the calculated center of gravity tends to move outward, so that the rectangular region 42 is calculated to be large. Rectangle. That is, the rectangular region 42 may be defined outside the bone region. When mask data is created based on such a rectangular region 42, the bone region that is a non-drawing target may not be removed accurately.

そこで、上記問題を解決するため、図12に示すように、算出された矩形領域42の横方向および縦方向のサイズに対して、被写体候補領域50と矩形領域42との面積比を倍率として乗算することで、矩形領域42のサイズを補正する。 Therefore, in order to solve the above problem, as shown in FIG. 12, the calculated horizontal and vertical sizes of the rectangular area 42 are multiplied by the area ratio of the subject candidate area 50 and the rectangular area 42 as a magnification. By doing so, the size of the rectangular area 42 is corrected.

これにより、図11(a)のように領域内部の信号値が比較的大きい場合(例えば、腹部肝臓領域の場合)には矩形領域42が拡大補正され、図11(b)のように領域内部の信号値が比較的小さい場合(例えば、胸部肺領域の場合)には矩形領域42が縮小補正され、矩形領域42が骨領域を除去し骨領域内の臓器等を可視化するのに適したサイズに補正される。 As a result, when the signal value inside the region is relatively large as shown in FIG. 11A (for example, in the case of the abdominal liver region), the rectangular region 42 is enlarged and corrected, and the inside of the region is corrected as shown in FIG. 11B. When the signal value of is relatively small (for example, in the case of the thoracic lung region), the rectangular region 42 is reduced and corrected, and the rectangular region 42 is a size suitable for removing the bone region and visualizing the organs in the bone region. Is corrected to.

ただし、上記補正を施すと元来不要な上胸部の矩形領域42(被写体領域)が拡大補正されてしまうという別の問題が生じる。
図13は、上記補正を上胸部に適用した場合を示す。図に示すように、上胸部は骨領域に囲まれた形態ではなく、高信号の骨領域が単独で分布している。そのため、矩形領域42に対する被写体候補領域50の面積比率が腹部並みに大きくなってしまい、腹部と同様に拡大補正されてしまう。しかしながら、上胸部は非描画対象である骨領域が大半を占めるため、上胸部領域において矩形領域42(被写体領域)が拡大されることは望ましくない。
However, when the above correction is applied, another problem arises in which the originally unnecessary rectangular region 42 (subject region) of the upper chest is enlarged and corrected.
FIG. 13 shows the case where the above correction is applied to the upper chest. As shown in the figure, the upper chest is not surrounded by the bone region, but the high-intensity bone region is distributed independently. Therefore, the area ratio of the subject candidate region 50 to the rectangular region 42 becomes as large as the abdomen, and the enlargement correction is performed in the same manner as the abdomen. However, since the upper chest is mostly occupied by the bone region that is not drawn, it is not desirable that the rectangular region 42 (subject region) is enlarged in the upper chest region.

ところで、上胸部の骨領域は横方向に伸びているため、矩形領域42が扁平になる特徴がある。そこで、本開示では、図14に示すように、矩形領域42の縦横比率(縦方向のサイズH(z)/横方向のサイズW(z))を算出し、この値が所定の閾値(例えば、0.6)より小さければ上胸部であると識別し、矩形領域42の横方向および縦方向のサイズに対して、矩形領域42と被写体候補領域50との面積比率を乗算する代わりに、縦横比率を乗算して補正(縮小補正)する。一方、矩形領域42の縦横比率が所定の閾値(例えば、0.6)以上であれば胸部または腹部であると判断し、矩形領域42の横方向および縦方向のサイズに対して、矩形領域42と被写体候補領域50との面積比率を乗算して補正する。 By the way, since the bone region of the upper chest extends in the lateral direction, the rectangular region 42 has a characteristic of being flattened. Therefore, in the present disclosure, as shown in FIG. 14, the aspect ratio of the rectangular region 42 (vertical size H (z) / horizontal size W (z)) is calculated, and this value is a predetermined threshold value (for example,). If it is smaller than 0.6), it is identified as the upper chest, and instead of multiplying the horizontal and vertical sizes of the rectangular area 42 by the area ratio of the rectangular area 42 and the subject candidate area 50, the vertical and horizontal directions are used. Correct by multiplying the ratio (reduction correction). On the other hand, if the aspect ratio of the rectangular area 42 is equal to or greater than a predetermined threshold value (for example, 0.6), it is determined that the rectangular area 42 is the chest or abdomen, and the rectangular area 42 is relative to the horizontal and vertical sizes of the rectangular area 42. And the area ratio of the subject candidate area 50 are multiplied to correct.

このように、本開示では、矩形領域42の縦横比率(縦方向のサイズ/横方向のサイズ)に基づいて被写体領域の部位(上胸部/胸部または腹部)を判断し、部位に応じた補正方法により矩形領域42を補正する。 As described above, in the present disclosure, the region (upper chest / chest or abdomen) of the subject region is determined based on the aspect ratio (vertical size / horizontal size) of the rectangular region 42, and the correction method according to the region is determined. Corrects the rectangular area 42 by.

図15は、ステップS22の被写体領域の補正処理の流れを示すフローチャートである。
制御部11は、まず、以下のように、矩形領域42の縦横比率Rvhを算出する(ステップS41)。
FIG. 15 is a flowchart showing the flow of the correction process of the subject area in step S22.
First, the control unit 11 calculates the aspect ratio Rvh of the rectangular region 42 as follows (step S41).

(式14)
縦横比率Rvh=H(z)/W(z)
(Equation 14)
Aspect ratio Rvh = H (z) / W (z)

縦横比率に対する閾値をSrvh(例えば、0.62)とし、Rvh<Srvhの場合(ステップS42;No)、制御部11は、上胸部であると判断し、以下のように矩形領域42を補正(縮小補正)する(ステップS43、図14の補正)。 When the threshold value for the aspect ratio is Srvh (for example, 0.62) and Rvh <Srvh (step S42; No), the control unit 11 determines that it is the upper chest and corrects the rectangular region 42 as follows ( Reduction correction) (correction in step S43, FIG. 14).

(式15)
横方向のサイズ:W(z)=W(z)・Rvh
縦方向のサイズ:H(z)=H(z)・Rvh
(Equation 15)
Horizontal size: W (z) = W (z) · Rvh
Vertical size: H (z) = H (z) · Rvh

(式16)
第1の横方向のサイズ:W1(z)=W1(z)・Rvh
第2の横方向のサイズ:W2(z)=W2(z)・Rvh
第1の縦方向のサイズ:H1(z)=H1(z)・Rvh
第2の縦方向のサイズ:H2(z)=H2(z)・Rvh
(Equation 16)
First lateral size: W1 (z) = W1 (z) · Rvh
Second lateral size: W2 (z) = W2 (z) · Rvh
First vertical size: H1 (z) = H1 (z) · Rvh
Second vertical size: H2 (z) = H2 (z) · Rvh

一方、Rvh≧Srvhの場合(ステップS42;Yes)、制御部11は、
胸部または腹部であると判断し、まず、断層画像D8(x、y、z)の各画素(x、y)(0≦x≦Sx−1、0≦y≦Sy−1)に対して、D8(x、y、z)>Vmin(例えば、Vmin=10)を満たす画素数をカウントし、カウント値Cobjを被写体候補領域50の面積として算出する(ステップS44)。
On the other hand, when Rvh ≧ Srvh (step S42; Yes), the control unit 11
Judging that it is the chest or abdomen, first, for each pixel (x, y) (0 ≦ x ≦ Sx-1, 0 ≦ y ≦ Sy-1) of the tomographic image D8 (x, y, z), The number of pixels satisfying D8 (x, y, z)> Vmin (for example, Vmin = 10) is counted, and the count value Cobj is calculated as the area of the subject candidate region 50 (step S44).

続いて、制御部11は、矩形領域42との面積比率Robjを Subsequently, the control unit 11 sets the area ratio Robj with the rectangular region 42.

(式17)
Robj=Cobj/(H(z)・W(z))
(Equation 17)
Robj = Cobj / (H (z) · W (z))

により算出し、横方向、縦方向の倍率Rox、RoyをRox=Roy=Robjとする(ステップS45)。 In the horizontal direction and the vertical direction, the magnifications Rox and Roy are set to Rox = Roy = Robj (step S45).

変倍率の上限をMox、Moyに設定し、Rox>Moxの場合はRox=Mox、Roy>Moyの場合はRoy=Moyとし、制御部11は、以下のように矩形領域42を補正する(ステップS46、図12の補正)。 The upper limit of the variable magnification is set to Mox and Moy, Rox = Mox when Rox> Mox, Roy = Moy when Roy> Moy, and the control unit 11 corrects the rectangular region 42 as follows (step). S46, correction of FIG. 12).

(式18)
横方向のサイズ:W(z)=W(z)・Rox
縦方向のサイズ:H(z)=H(z)・Roy
(Equation 18)
Horizontal size: W (z) = W (z) · Rox
Vertical size: H (z) = H (z) · Roy

(式19)
第1の横方向のサイズ:W1(z)=W1(z)・Rox
第2の横方向のサイズ:W2(z)=W2(z)・Rox
第1の縦方向のサイズ:H1(z)=H1(z)・Roy
第2の縦方向のサイズ:H2(z)=H2(z)・Roy
(Equation 19)
First lateral size: W1 (z) = W1 (z) · Rox
Second horizontal size: W2 (z) = W2 (z) · Rox
First vertical size: H1 (z) = H1 (z) · Roy
Second vertical size: H2 (z) = H2 (z) · Roy

<被写体形状算出処理>
続いて、制御部11は、断層画像Do(z)毎に、ステップS21において算出された被写体領域(矩形領域42)、またはステップS22において補正された被写体領域(矩形領域42)の外郭を所定の幾何形状(被写体形状)で近似し、当該幾何形状を規定するパラメータ(幾何パラメータP(z))を算出する(ステップS23)。
<Subject shape calculation process>
Subsequently, the control unit 11 determines the outline of the subject area (rectangular area 42) calculated in step S21 or the subject area (rectangular area 42) corrected in step S22 for each tomographic image Do (z). Approximate with a geometric shape (subject shape) and calculate a parameter (geometric parameter P (z)) that defines the geometric shape (step S23).

本開示では、以下の各領域(4象限)において異なる径が設定できる特殊な楕円(以下、「変形楕円」とも呼ぶ)で近似するものとし、幾何パラメータP(z)として変形楕円を構成する各領域(4象限)の楕円を規定するパラメータ(楕円パラメータP1(z)〜P4(z)))を算出する。
(領域1)x<Cx(z)かつy<Cy(z)
(領域2)x≧Cx(z)かつy<Cy(z)
(領域3)x<Cx(z)かつy≧Cy(z)
(領域4)x≧Cx(z)かつy≧Cy(z)
In the present disclosure, each of the following regions (4 quadrants) is approximated by a special ellipse (hereinafter, also referred to as "deformed ellipse") in which different diameters can be set, and each of the deformed ellipses is configured as a geometric parameter P (z). The parameters (ellipse parameters P1 (z) to P4 (z)) that define the ellipse of the region (4 quadrants) are calculated.
(Region 1) x <Cx (z) and y <Cy (z)
(Region 2) x ≧ Cx (z) and y <Cy (z)
(Region 3) x <Cx (z) and y ≧ Cy (z)
(Region 4) x ≧ Cx (z) and y ≧ Cy (z)

(式20)
(領域1における楕円パラメータP1(z))
楕円の中心座標Cx(z)、Cy(z)
楕円の横方向の2分割サイズrx1=W1(z)・a1(横径)
楕円の縦方向の2分割サイズry1=H1(z)・b1(縦径)
(領域2における楕円パラメータP2(z))
楕円の中心座標Cx(z)、Cy(z)
楕円の横方向の2分割サイズrx2=W2(z)・a2(横径)
楕円の縦方向の2分割サイズry1=H1(z)・b1(縦径)
(領域3における楕円パラメータP3(z))
楕円の中心座標Cx(z)、Cy(z)
楕円の横方向の2分割サイズrx1=W1(z)・a1(横径)
楕円の縦方向の2分割サイズry2=H2(z)・b2(縦径)
(領域4における楕円パラメータP4(z))
楕円の中心座標Cx(z)、Cy(z)
楕円の横方向の2分割サイズrx2=W2(z)・a2(横径)
楕円の縦方向の2分割サイズry2=H2(z)・b2(縦径)
(Equation 20)
(Ellipse parameter P1 (z) in region 1)
Center coordinates of ellipse Cx (z), Cy (z)
Horizontal division size of ellipse rx1 = W1 (z) · a1 (horizontal diameter)
Vertically divided ellipse size ry1 = H1 (z) · b1 (vertical diameter)
(Ellipse parameter P2 (z) in region 2)
Center coordinates of ellipse Cx (z), Cy (z)
Horizontal division size of ellipse rx2 = W2 (z) ・ a2 (horizontal diameter)
Vertically divided ellipse size ry1 = H1 (z) · b1 (vertical diameter)
(Ellipse parameter P3 (z) in region 3)
Center coordinates of ellipse Cx (z), Cy (z)
Horizontal division size of ellipse rx1 = W1 (z) · a1 (horizontal diameter)
Ellipse vertical division size ry2 = H2 (z) · b2 (vertical diameter)
(Ellipse parameter P4 (z) in region 4)
Center coordinates of ellipse Cx (z), Cy (z)
Horizontal division size of ellipse rx2 = W2 (z) ・ a2 (horizontal diameter)
Ellipse vertical division size ry2 = H2 (z) · b2 (vertical diameter)

a1、a2、b1、b2は、楕円の縦横径W1(z)、W2(z)、H1(z)、H2(z)の各々に対応する補正係数(実数値で補正しない場合は1.0)であり、左方向(a1、W1(z))、右方向(a2、W2(z))、正面方向(b1、H1(z))、背面方向(b2、H2(z))の4方向別に設定する。 a1, a2, b1 and b2 are correction coefficients corresponding to each of the vertical and horizontal diameters W1 (z), W2 (z), H1 (z) and H2 (z) of the ellipse (1.0 when not corrected by real values). ), Left direction (a1, W1 (z)), right direction (a2, W2 (z)), front direction (b1, H1 (z)), back direction (b2, H2 (z)) Set separately.

例えば、以下のように設定される。
・胸部CTの場合:a1=a2=0.95、b1=1.05、b2=0.55
・頭部CTの場合:a1=a2=1.15、b1=1.2、b2=1.25
For example, it is set as follows.
-For chest CT: a1 = a2 = 0.95, b1 = 1.05, b2 = 0.55
-For head CT: a1 = a2 = 1.15, b1 = 1.2, b2 = 1.25

<重み値算出処理>
そして、制御部11は、断層画像Do(z)毎に、ステップS23において算出された変形楕円の幾何パラメータP(z)(楕円パラメータP1(z)〜P4(z))に基づいて各画素(x、y、z)を描画対象とする重み値Sv(x、y、z)を算出し、描画重みテーブルSvを作成する(ステップS24)。
例えば、z番目の断層画像Do(z)の各画素(x、y、z)の重み値Sv(x、y、z)は、以下のように算出される。
<Weight value calculation process>
Then, the control unit 11 sets each pixel (for each tomographic image Do (z), based on the geometric parameters P (z) (ellipse parameters P1 (z) to P4 (z)) of the deformed ellipse calculated in step S23. A weight value Sv (x, y, z) for drawing x, y, z) is calculated, and a drawing weight table Sv is created (step S24).
For example, the weight value Sv (x, y, z) of each pixel (x, y, z) of the z-th tomographic image Do (z) is calculated as follows.

(式21)
Sv(x、y、z)=Svxy(x、y、z)・Svz(z)
(0≦Sv(x、y、z)、Svxy(x、y、z)、Svz(z)≦1)
Svxy=1−k・r(x、y、z)
(領域1)x<Cx(z)かつy<Cy(z)の場合:
r(x、y、z)={(x−Cx(z))/rx1}+{(y−Cy(z))/ry1}
(領域2)x≧Cx(z)かつy<Cy(z)の場合:
r(x、y、z)={(x−Cx(z))/rx2}+{(y−Cy(z))/ry1}
(領域3)x<Cx(z)かつy≧Cy(z)の場合:
r(x、y、z)={(x−Cx(z))/rx1}+{(y−Cy(z))/ry2}
(領域4)x≧Cx(z)かつy≧Cy(z)の場合:
r(x、y、z)={(x−Cx(z))/rx2}+{(y−Cy(z))/ry2}
Svz(z)=1.0−kz・{(z−Sz/2)/rz}
rz=Sz・c/2
(Equation 21)
Sv (x, y, z) = Svxy (x, y, z) · Svz (z)
(0 ≦ Sv (x, y, z), Svxy (x, y, z), Svz (z) ≦ 1)
Svxy = 1-k · r (x, y, z)
(Region 1) When x <Cx (z) and y <Cy (z):
r (x, y, z) = {(x-Cx (z)) / rx1} 2 + {(y-Cy (z)) / ry1} 2
(Region 2) When x ≧ Cx (z) and y <Cy (z):
r (x, y, z) = {(x-Cx (z)) / rx2} 2 + {(y-Cy (z)) / ry1} 2
(Region 3) When x <Cx (z) and y ≧ Cy (z):
r (x, y, z) = {(x-Cx (z)) / rx1} 2 + {(y-Cy (z)) / ry2} 2
(Region 4) When x ≧ Cx (z) and y ≧ Cy (z):
r (x, y, z) = {(x-Cx (z)) / rx2} 2 + {(y-Cy (z)) / ry2} 2
Svz (z) = 1.0-kz · {(z-Sz / 2) / rz} 2
rz = Sz · c / 2

kはXY平面、kzはZ方向の各々減衰係数で、胸部CTの場合はk=1.0、kz=0.0、頭部CTの場合はk=kz=1.0に設定する。 k is the attenuation coefficient in the XY plane and kz is the attenuation coefficient in the Z direction. In the case of chest CT, k = 1.0, kz = 0.0, and in the case of head CT, k = kz = 1.0.

cは頭部CTの場合に設定されるZ方向幅Sz/2に対応する補正係数(実数値で補正しない場合は1.0)であり、例えば、c=0.9である。 c is a correction coefficient (1.0 when not corrected by a real value) corresponding to the Z direction width Sz / 2 set in the case of head CT, and for example, c = 0.9.

図16は、式21により算出される重み値Sv(x、y、z)の2次元分布パターンを示す図である。図に示すように、変形楕円の中心(Cx(z)、Cy(z))の重み値Svは1(最大)となり、変形楕円内部は中心から遠ざかるにつれ重み値Svが小さくなる。具体的には、変形楕円内部は、変形楕円を構成する各楕円の横径、縦径の比率および中心座標が同一となる各同心楕円上の重み値Svが、各同心楕円の横径、縦径が大きいほど小さくなる(径の2乗に反比例して小さくなる)。変形楕円外部の重み値Svは一律に0とする。 FIG. 16 is a diagram showing a two-dimensional distribution pattern of weight values Sv (x, y, z) calculated by Equation 21. As shown in the figure, the weight value Sv at the center of the deformed ellipse (Cx (z), Cy (z)) becomes 1 (maximum), and the weight value Sv inside the deformed ellipse becomes smaller as the distance from the center increases. Specifically, inside the deformed ellipse, the weight value Sv on each concentric ellipse having the same horizontal diameter, vertical diameter ratio, and center coordinate of each ellipse constituting the deformed ellipse is the horizontal diameter and vertical diameter of each concentric ellipse. The larger the diameter, the smaller it becomes (it becomes smaller in inverse proportion to the square of the diameter). The weight value Sv outside the deformed ellipse is uniformly set to 0.

また、頭部CTの場合は、Svz(z)によって、断層画像Do(z)のスライス位置が中央から末端に位置するにつれ(Sz/2とスライス順位zとの差が大きくなるにつれ)、重み値Sv(x、y、z)が一律に減衰する(変形楕円の中心であってもSv(x、y、z)は1未満の値となる)。具体的には、断層画像のスライス順位をzとすると、(z−Sz/2)(Sz/2)の2乗に反比例して、重み値Sv(x、y、z)が一律に減衰する Further, in the case of head CT, due to Svz (z), as the slice position of the tomographic image Do (z) is located from the center to the end (as the difference between Sz / 2 and the slice rank z increases), the weight is increased. The value Sv (x, y, z) is uniformly attenuated (Sv (x, y, z) is less than 1 even at the center of the deformed ellipse). Specifically, assuming that the slice order of the tomographic image is z, the weight value Sv (x, y, z) is uniformly attenuated in inverse proportion to the square of (z-Sz / 2) (Sz / 2).

制御部11は、全ての断層画像Do(z)について、重み値Sv(x、y、z)(0≦x≦Sx−1、0≦y≦Sy−1、0≦z≦Sz−1)を算出し、算出された重み値Sv(x、y、z)を格納する3次元の描画重みテーブルSvを作成する。 The control unit 11 has weight values Sv (x, y, z) (0 ≦ x ≦ Sx-1, 0 ≦ y ≦ Sy-1, 0 ≦ z ≦ Sz-1) for all tomographic images Do (z). Is calculated, and a three-dimensional drawing weight table Sv that stores the calculated weight values Sv (x, y, z) is created.

以上、図4〜図16を参照しながら、描画重みテーブルSvを作成する処理について説明した。 The process of creating the drawing weight table Sv has been described above with reference to FIGS. 4 to 16.

(5.マスクデータの生成)
図17のフローチャートを参照しながら、図3のステップS3において実行されるマスクデータMaskを生成する処理を説明する。
図17の処理は全ての画素(x、y、z)に対して実行される。
(5. Generation of mask data)
The process of generating the mask data Mask executed in step S3 of FIG. 3 will be described with reference to the flowchart of FIG.
The process of FIG. 17 is executed for all pixels (x, y, z).

制御部11は、各画素(x、y、z)の重み値Sv(x、y、z)を描画重みテーブルSvから取得し、重み値Sv(x、y、z)・255>閾値Th(例えば、Th=10)を満たす画素(x、y、z)については(ステップS51;Yes)、当該画素(x、y、z)に対応するマスク値を1.0に設定し(Mask(x、y、z)=1.0、ステップS52)、重み値Sv(x、y、z)・255>10を満たさない画素(x、y、z)については(ステップS51;No)、当該画素(x、y、z)に対応するマスク値を0に設定する(Mask(x、y、z)=0、ステップS53)。以上のように、各画素(x、y、z)の重み値Sv(x、y、z)を所定の閾値で二値化し、各画素(x、y、z)のマスク値Mask(x、y、z)を保持するマスクデータMaskを生成する。 The control unit 11 acquires the weight value Sv (x, y, z) of each pixel (x, y, z) from the drawing weight table Sv, and the weight value Sv (x, y, z) · 255> threshold Th ( For example, for a pixel (x, y, z) satisfying Th = 10) (step S51; Yes), the mask value corresponding to the pixel (x, y, z) is set to 1.0 (Mask (x)). , Y, z) = 1.0, step S52), for a pixel (x, y, z) that does not satisfy the weight value Sv (x, y, z) · 255> 10 (step S51; No), the pixel. The mask value corresponding to (x, y, z) is set to 0 (Mask (x, y, z) = 0, step S53). As described above, the weight value Sv (x, y, z) of each pixel (x, y, z) is binarized with a predetermined threshold value, and the mask value Mask (x, y, z) of each pixel (x, y, z) is binarized. The mask data Mask holding y, z) is generated.

図18は、マスクデータMaskを生成する処理の別例である。
図18の処理は全ての画素(x、y、z)に対して実行される。
制御部11は、まず、各画素の8ビットの信号値D8(x、y、z)に描画重みテーブルSvから取得した重み値Sv(x、y、z)を乗算して信号値を補正する(D8’ (x、y、z)=D8(x、y、z)・Sv(x、y、z)、ステップS61)。
FIG. 18 is another example of the process of generating the mask data Mask.
The process of FIG. 18 is executed for all pixels (x, y, z).
First, the control unit 11 corrects the signal value by multiplying the 8-bit signal value D8 (x, y, z) of each pixel by the weight value Sv (x, y, z) obtained from the drawing weight table Sv. (D8'(x, y, z) = D8 (x, y, z) · Sv (x, y, z), step S61).

そして、制御部11は、補正された信号値D8’(x、y、z)がD8’(x、y、z)>閾値Th(例えば、Th=10)を満たす画素(x、y、z)については(ステップS62;Yes)、当該画素(x、y、z)に対応するマスク値を1.0に設定し(Mask(x、y、z)=1.0、ステップS63)、D8’(x、y、z)>閾値Thを満たさない画素(x、y、z)については(ステップS62;No)、当該画素(x、y、z)に対応するマスク値を0に設定する(Mask(x、y、z)=0、ステップS64)。 Then, the control unit 11 has a pixel (x, y, z) in which the corrected signal value D8'(x, y, z) satisfies D8'(x, y, z)> threshold Th (for example, Th = 10). ) (Step S62; Yes), the mask value corresponding to the pixel (x, y, z) is set to 1.0 (Mask (x, y, z) = 1.0, step S63), D8. '(X, y, z)> For a pixel (x, y, z) that does not satisfy the threshold Th, (step S62; No), the mask value corresponding to the pixel (x, y, z) is set to 0. (Mask (x, y, z) = 0, step S64).

(6.描画重みテーブル作成処理とマスクデータ生成処理の並行化)
前述した図3のステップS2およびステップS3の処理(描画重みテーブル作成処理およびマスクデータ作成処理)は、図19に示すように、断層画像群Doの処理領域をZ軸方向に等分割(図の例では4分割)したうえで、各処理領域(Do1〜Do4)ごとに並行して実行することが望ましい。これにより、高速にマスクデータMaskを生成することができる。
(6. Parallel drawing weight table creation process and mask data generation process)
In the processes of steps S2 and S3 (drawing weight table creation process and mask data creation process) of FIG. 3 described above, as shown in FIG. 19, the processing area of the tomographic image group Do is equally divided in the Z-axis direction (in the figure). In the example, it is desirable to divide the data into four and then execute each processing area (Do1 to Do4) in parallel. As a result, mask data Mask can be generated at high speed.

図20は、描画重みテーブル作成処理およびマスクデータ作成処理を並行して実行させる仕組みの例を示す。図20の例では、マスク生成装置1(コンピュータ)に搭載されたマザーボード(図下)は、4つのCPU(物理コア)を備え、かつ、各CPUが2つの論理コアを有する構成(マルチコアCPU)とする。すなわち、マスク生成装置1は、実質8論理コア(スレッド#1〜#8)を備えている。はじめに、マスク生成装置1に格納されているマスク生成プログラムが起動すると、Windowsマルチタスク・オペレーティングシステムのジョブスケジューラによりCPUコア#1のスレッド#1に割り当てられて実行される。続いて、マスク生成プログラムは、処理領域Do1に係る描画重みテーブル作成処理およびマスクデータ作成処理(図の並行処理スレッド#1)、処理領域Do2に係る描画重みテーブル作成処理およびマスクデータ作成処理(図の並行処理スレッド#2)、処理領域Do3に係る描画重みテーブル作成処理およびマスクデータ作成処理(図の並行処理スレッド#3)、処理領域Do4に係る描画重みテーブル作成処理およびマスクデータ作成処理(図の並行処理スレッド#4)の各スレッドを起動し、Windowsマルチタスク・オペレーティングシステムのジョブスケジューラに登録する。 FIG. 20 shows an example of a mechanism for executing the drawing weight table creation process and the mask data creation process in parallel. In the example of FIG. 20, the motherboard (lower part of the figure) mounted on the mask generator 1 (computer) has four CPUs (physical cores), and each CPU has two logical cores (multi-core CPU). And. That is, the mask generation device 1 includes substantially 8 logical cores (threads # 1 to # 8). First, when the mask generation program stored in the mask generation device 1 is started, it is assigned to thread # 1 of CPU core # 1 and executed by the job scheduler of the Windows multitasking operating system. Subsequently, the mask generation program includes drawing weight table creation processing and mask data creation processing (parallel processing thread # 1 in the figure) related to the processing area Do1, drawing weight table creation processing and mask data creation processing related to the processing area Do2 (FIG. Parallel processing thread # 2), drawing weight table creation processing and mask data creation processing related to the processing area Do3 (parallel processing thread # 3 in the figure), drawing weight table creation processing and mask data creation processing related to the processing area Do4 (FIG. Start each thread of the parallel processing thread # 4) and register it in the job scheduler of the Windows multitasking operating system.

Windowsマルチタスク・オペレーティングシステムでは、コアの空き状況等によって、登録された各並行処理スレッド#1〜#4を、8論理コア(スレッド#1〜#8)のいずれかに割り当て、各並行処理スレッド#1〜#4を並行して実行する。図20の例では、並行処理スレッド#1、並行処理スレッド#2および並行処理スレッド#3は、ジョブスケジューラにより物理コアが空いているCPUコア#2のスレッド#3、CPUコア#3のスレッド#5、CPUコア#4のスレッド#7に各々割り当てられる。残る並行処理スレッド#4は、物理コアは空いていないがCPUコア#1の論理スレッド#2に割り当てられている。CPUコア#1の論理スレッド#1ではレンダリングプログラム本体が使用中であるが、マスク生成プログラム本体は4つの並行処理スレッドの起動を行って、これらの終了待ち状態になっているため、CPUコア#1の論理スレッド#2に割り当てられている並行処理スレッド#4が主に実行することになる。 In the Windows multitasking operating system, each registered parallel processing thread # 1 to # 4 is assigned to one of eight logical cores (threads # 1 to # 8) depending on the availability of cores, etc., and each parallel processing thread is assigned. Execute # 1 to # 4 in parallel. In the example of FIG. 20, the parallel processing thread # 1, the parallel processing thread # 2, and the parallel processing thread # 3 are the thread # 3 of the CPU core # 2 and the thread # of the CPU core # 3 whose physical cores are freed by the job scheduler. 5. Assigned to threads # 7 of CPU core # 4, respectively. The remaining concurrency thread # 4 is assigned to the logical thread # 2 of the CPU core # 1 although the physical core is not free. The rendering program body is in use in the logical thread # 1 of the CPU core # 1, but the mask generation program body starts four parallel processing threads and is in a waiting state for their termination. Therefore, the CPU core # 1. The parallel processing thread # 4 assigned to the logical thread # 2 of 1 is mainly executed.

以上、マスク生成装置1の動作について説明した。マスク生成装置1は、CT装置により撮影された断層画像を取得し(図3のステップS1)、断層画像Do(z)毎に各画素(x、y)の信号値に基づいて被写体領域(矩形領域42)を算出し(図4のステップS21、(式7)(式12)(式13)参照)、算出された被写体領域(矩形領域42)の外郭を所定の幾何形状(変形楕円)で近似し、当該幾何形状(変形楕円)を規定する幾何パラメータP(z)(4象限の楕円パラメータP1(z)〜P4(z))を算出する(図4のステップS23、(式20)参照)。続いて、断層画像Do(z)毎に、幾何パラメータP(z)に基づいて断層画像の各画素(x、y)を描画対象とする重み値Sv(x、y、z)を算出する(図4のステップS24、(式21)参照)。そして、各画素(x、y、z)の重み値Sv(x、y、z)を所定の閾値で二値化したマスク値を算出し、各画素(x、y、z)のマスク値Mask(x、y、z)を保持するマスクデータMaskを生成する(図3のステップS3)。
これにより、被写体領域の外郭を近似した幾何形状に基づいて所望の領域を可視化するためのマスクデータを容易に作成することが可能となる。
The operation of the mask generation device 1 has been described above. The mask generation device 1 acquires a tomographic image taken by the CT device (step S1 in FIG. 3), and for each tomographic image Do (z), the subject area (rectangle) is based on the signal value of each pixel (x, y). Region 42) is calculated (see step S21 in FIG. 4, (Equation 7) (Equation 12) (Equation 13)), and the outline of the calculated subject region (rectangular region 42) is formed into a predetermined geometric shape (deformed ellipse). Calculate the geometric parameters P (z) (four-quadrant rectangle parameters P1 (z) to P4 (z)) that approximate and define the geometric shape (deformed ellipse) (see step S23 in FIG. 4, (Equation 20)). ). Subsequently, for each tomographic image Do (z), a weight value Sv (x, y, z) for drawing each pixel (x, y) of the tomographic image is calculated based on the geometric parameter P (z) ( See step S24 of FIG. 4, (Equation 21). Then, a mask value obtained by binarizing the weight values Sv (x, y, z) of each pixel (x, y, z) with a predetermined threshold value is calculated, and the mask value Mask of each pixel (x, y, z) is calculated. The mask data Mask holding (x, y, z) is generated (step S3 in FIG. 3).
This makes it possible to easily create mask data for visualizing a desired region based on a geometric shape that approximates the outline of the subject region.

また、被写体候補領域50の信号値分布を考慮して被写体領域(矩形領域42)を算出することで(図6参照)、人体以外の寝台やヘッドレストなどの不要領域を不可視とするマスクデータを生成することができる。 Further, by calculating the subject area (rectangular area 42) in consideration of the signal value distribution of the subject candidate area 50 (see FIG. 6), mask data for making unnecessary areas such as a bed and a headrest other than the human body invisible is generated. can do.

また、胸部CTにおいては、被写体領域(矩形領域42)の縦横比率に基づいて部位(上胸部/胸部または腹部)を判断し、部位に応じた補正方法により被写体領域(矩形領域42)を補正することで(図15参照)、被写体領域を高精度に算出することができる。
さらに、被写体領域(矩形領域42)の外郭を、胸骨側と椎骨側で楕円の径を変えることが可能な変形楕円で近似することで(図16参照)、肋骨、胸骨を含む骨領域が的確に除去され、肺、心臓、血管、肝臓、腎臓などの診断上重要な内臓領域等が良好に可視化されるマスクデータを生成することができる。
Further, in the chest CT, a region (upper chest / chest or abdomen) is determined based on the aspect ratio of the subject region (rectangular region 42), and the subject region (rectangular region 42) is corrected by a correction method according to the region. As a result (see FIG. 15), the subject area can be calculated with high accuracy.
Furthermore, by approximating the outer shell of the subject area (rectangular area 42) with a deformed ellipse that can change the diameter of the ellipse on the sternum side and the vertebrae side (see FIG. 16), the bone area including the ribs and the sternum is accurate. It is possible to generate mask data in which the visceral regions such as lungs, heart, blood vessels, liver, and kidneys, which are important for diagnosis, are well visualized.

なお、本開示では各画素(x、y、z)を描画対象とする重み値Sv(x、y、z)を格納する描画重みテーブルSvを作成することとしたが、描画重みテーブルSvの作成は必須ではない。すなわち、図4のステップS24((式21)参照)で算出された重み値Sv(x、y、z)に対して都度、図17または図18の処理によりマスク値Mask(x、y、z)を計算するようにしてもよい。この場合、描画重みテーブルSvのデータ領域をメモリ上に確保する必要がない。 In the present disclosure, it is decided to create a drawing weight table Sv for storing weight values Sv (x, y, z) for each pixel (x, y, z) to be drawn, but the drawing weight table Sv is created. Is not required. That is, each time the weight value Sv (x, y, z) calculated in step S24 of FIG. 4 (see (Equation 21)) is processed, the mask value Mask (x, y, z) is processed by FIG. 17 or FIG. ) May be calculated. In this case, it is not necessary to secure the data area of the drawing weight table Sv in the memory.

更に、(式21)で示される重み値Sv(x、y、z)の算出自体も必須ではない。図17に示す実施例の場合、Sv(x、y、z)・255>Thを満たす場合、マスク値Mask(x、y、z)=1となる。胸部CTにおいては、Svxy(x、y、z)=1−k・r(x、y、z)>Th/255を満たす場合、マスク値Mask(x、y、z)=1となる。これは、ボクセル座標(x、y、z)が図16に示される複数の同心の変形楕円のいずれかの単一の変形楕円の内部に含まれる場合、マスク値Mask(x、y、z)=1となると解釈できる。即ち、胸部CTにおいては、マスク値Mask(x、y、z)は図16に示されるいずれかの単一の変形楕円の内部(マスク値:1)か外部(マスク値:0)かを定義したものであり、ボクセル座標(x、y、z)の単一の変形楕円に対する内外判定処理によりマスク値Mask(x、y、z)を算出することが可能である。頭部CTにおいても、Sv(x、y、z)=Svxy(x、y、z)・Svz(z)で定義される単一の変形楕円体に対する内外判定処理によりマスク値Mask(x、y、z)を算出することは可能である。ただし、特に頭部CTの場合、内外判定処理によりマスク値Mask(x、y、z)を算出する方法より、(式21)に基づいて描画重みテーブルSvを作成し、Thで二値化してマスク値Mask(x、y、z)を算出する前述の方法の方が計算負荷は少ない。 Further, the calculation itself of the weight value Sv (x, y, z) represented by (Equation 21) is not essential. In the case of the embodiment shown in FIG. 17, when Sv (x, y, z) · 255> Th is satisfied, the mask value Mask (x, y, z) = 1. In chest CT, when Svxy (x, y, z) = 1-k · r (x, y, z)> Th / 255 is satisfied, the mask value Mask (x, y, z) = 1. This is the mask value Mask (x, y, z) if the voxel coordinates (x, y, z) are contained within a single deformed ellipse of any of the concentric deformed ellipses shown in FIG. It can be interpreted that = 1. That is, in the chest CT, the mask value Mask (x, y, z) defines whether it is inside (mask value: 1) or outside (mask value: 0) of any single deformed ellipse shown in FIG. It is possible to calculate the mask value Mask (x, y, z) by the inside / outside determination processing for a single deformed ellipse of voxel coordinates (x, y, z). Also in the head CT, the mask value Mask (x, y) is determined by the inside / outside determination processing for a single deformed ellipsoid defined by Sv (x, y, z) = Svxy (x, y, z) · Svz (z). , Z) can be calculated. However, especially in the case of head CT, a drawing weight table Sv is created based on (Equation 21) from the method of calculating the mask value Mask (x, y, z) by the inside / outside determination processing, and binarized by Th. The above-mentioned method for calculating the mask value Mask (x, y, z) has a smaller calculation load.

また、本開示では、図4のステップS23において、被写体領域(矩形領域42)の外郭を変形楕円(図16参照)で近似する場合を説明したが、近似する幾何形状は変形楕円に限定されない。例えば、本発明者が特願2018−103767において既に提案しているように、被写体領域(矩形領域42)の外郭を単一の楕円で近似してもよいし、特願2018−124125において既に提案しているように、被写体領域(矩形領域42)の外郭を複数の楕円で近似してもよい。複数の楕円で近似する場合も、ボクセル座標(x、y、z)の複数の楕円に対する内外判定処理を行い、判定結果のANDまたはOR演算を行うことによりマスク値Mask(x、y、z)を算出することが可能である。 Further, in the present disclosure, in step S23 of FIG. 4, the case where the outer shell of the subject region (rectangular region 42) is approximated by a deformed ellipse (see FIG. 16) has been described, but the geometric shape to be approximated is not limited to the deformed ellipse. For example, as the present inventor has already proposed in Japanese Patent Application No. 2018-103767, the outer shell of the subject area (rectangular area 42) may be approximated by a single ellipse, or already proposed in Japanese Patent Application No. 2018-124125. As shown above, the outer shell of the subject area (rectangular area 42) may be approximated by a plurality of ellipses. Even when approximating with a plurality of ellipses, the mask value Mask (x, y, z) is obtained by performing internal / external judgment processing on the plurality of ellipses of voxel coordinates (x, y, z) and performing AND or OR calculation of the judgment result. Can be calculated.

また、図4のステップS21において、被写体領域として矩形領域42(第2の矩形領域、図5参照)を算出したが、矩形領域41(第1の矩形領域、図5参照)を算出してもよい。この場合、図4のステップS22における被写体領域の補正は行わず、図4のステップS23では、例えば、被写体領域の外郭を単一の楕円(既提案の特願2018−103767参照)や複数の楕円(既提案の特願2018−124125参照)で近似する。 Further, in step S21 of FIG. 4, the rectangular area 42 (second rectangular area, see FIG. 5) was calculated as the subject area, but the rectangular area 41 (first rectangular area, see FIG. 5) can also be calculated. Good. In this case, the subject area is not corrected in step S22 of FIG. 4, and in step S23 of FIG. 4, for example, the outer shell of the subject area is a single ellipse (see the previously proposed Japanese Patent Application No. 2018-103767) or a plurality of ellipses. (See the previously proposed Japanese Patent Application No. 2018-124125).

[マスクデータMaskの適用例]
以降、生成されたマスクデータMaskの適用例として、マスクデータMaskを用いて3次元再構成像を生成する処理を説明する。
[Application example of mask data Mask]
Hereinafter, as an application example of the generated mask data Mask, a process of generating a three-dimensional reconstructed image using the mask data Mask will be described.

(7.3次元再構成像生成処理の概要)
図21は、3次元再構成像を生成する3次元再構成像生成装置2が実行する再構成像生成処理の概要を示す図である。図に示すように、3次元再構成像生成装置2は、複数の断層画像(図の例は、512×512ピクセルの370枚の胸部CT画像)に基づいてマスクデータMaskを用いた再構成像生成処理を実行し、所定の視点から被検体を観察したボリュームレンダリング画像、MIP(Maximum Intensity Projection)画像、MPR(Multi-Planar
Reconstruction)画像などの3次元再構成像を生成する。
(Outline of 7.3D reconstruction image generation process)
FIG. 21 is a diagram showing an outline of a reconstruction image generation process executed by the three-dimensional reconstruction image generation device 2 that generates a three-dimensional reconstruction image. As shown in the figure, the three-dimensional reconstruction image generator 2 uses mask data Mask based on a plurality of tomographic images (the example of the figure is 370 chest CT images of 512 × 512 pixels). Volume-rendered image, MIP (Maximum Intensity Projection) image, MPR (Multi-Planar), which is generated and observed from a predetermined viewpoint.
Reconstruction) Generates a 3D reconstruction image such as an image.

(8.3次元再構成像生成装置2の機能構成)
図22は、3次元再構成像生成装置2の機能構成を示す図である。図に示すように、3次元再構成像生成装置2は、画像取得部21、描画重みテーブル作成部22、マスクデータ生成部23、クリッピング領域設定部24、有効ボクセル領域算出部25、3次元再構成像生成部26、3次元再構成像表示部27を備える。画像取得部21、描画重みテーブル作成部22(被写体領域算出部31、被写体領域補正部32、被写体形状算出部33、重み値算出部34)、マスクデータ生成部23は、図1のマスク生成装置1の機能構成と同様であるため、説明を省略する。
(8. Functional configuration of the three-dimensional reconstruction image generator 2)
FIG. 22 is a diagram showing a functional configuration of the three-dimensional reconstruction image generation device 2. As shown in the figure, the three-dimensional reconstruction image generation device 2 includes an image acquisition unit 21, a drawing weight table creation unit 22, a mask data generation unit 23, a clipping area setting unit 24, an effective voxel area calculation unit 25, and a three-dimensional reconstruction. The configuration image generation unit 26 and the three-dimensional reconstruction image display unit 27 are provided. The image acquisition unit 21, the drawing weight table creation unit 22 (subject area calculation unit 31, subject area correction unit 32, subject shape calculation unit 33, weight value calculation unit 34), and the mask data generation unit 23 are the mask generation devices of FIG. Since it is the same as the functional configuration of No. 1, the description thereof will be omitted.

クリッピング領域設定部24は、被写体のクリッピング領域ROI(関心領域)を設定する。本開示では、クリッピングROIは直方体とし、以下のように、X方向ROI(X方向の開区間)、Y方向ROI(Y方向の開区間)、Z方向ROI(Z方向の開区間)によって定義する。 The clipping area setting unit 24 sets the clipping area ROI (interest area) of the subject. In the present disclosure, the clipping ROI is a rectangular parallelepiped, and is defined by the X-direction ROI (X-direction open section), the Y-direction ROI (Y-direction open section), and the Z-direction ROI (Z-direction open section) as follows. ..

(式22)
X軸方向ROI:Xs−Xe
Y軸方向ROI:Ys−Ye
Z軸方向ROI:Zs−Ze
尚、クリッピング領域を設定しない場合は、Xs=0、Xe=Sx−1、Ys=0、Ye=Sy−1、Zs=0、Ze=Sz−1となる。
(Equation 22)
X-axis direction ROI: Xs-Xe
Y-axis direction ROI: Ys-Ye
Z-axis direction ROI: Zs-Ze
When the clipping region is not set, Xs = 0, Xe = Sx-1, Ys = 0, Ye = Sy-1, Zs = 0, Ze = Sz-1.

有効ボクセル領域算出部25は、ボクセル値が描画対象のボクセルを規定するように予め定められた条件を満たすボクセル(以下、「有効ボクセル」と表記する場合がある)を全て含み、かつ有効ボクセルに外接する直方体を有効ボクセル領域Vrとして算出する。有効ボクセル領域Vrは、以下のように、X軸方向ROI、Y軸方向ROI、Z軸方向ROIによって定義される。ここで「ボクセル値」とは、各ボクセルに対応づけられる数値情報であり、モダリティで測定された信号値(CT値)や、信号値をカラーマップCmapに通して得られる不透明度や色値、などを含む。 The effective voxel area calculation unit 25 includes all voxels (hereinafter, may be referred to as “effective voxels”) that satisfy the predetermined conditions so that the voxel value defines the voxels to be drawn, and the effective voxels include. The tangent rectangular parallelepiped is calculated as the effective voxel region Vr. The effective voxel region Vr is defined by the X-axis direction ROI, the Y-axis direction ROI, and the Z-axis direction ROI as follows. Here, the "voxel value" is numerical information associated with each voxel, and is a signal value (CT value) measured by modality, an opacity or a color value obtained by passing the signal value through a color map Cmap, and the like. And so on.

(式23)
X軸方向ROI:Xis−Xie
Y軸方向ROI:Yis−Yie
Z軸方向ROI:Zis−Zie
(Equation 23)
X-axis direction ROI: Xis-Xie
Y-axis direction ROI: Yis-Yie
Z-axis direction ROI: Zis-Zie

有効ボクセル領域Vrを算出することによって、ボリュームレンダリング画像やMIP画像を生成する処理(レイキャスティング処理)が、有効ボクセル領域Vr内のボクセルのみを参照して実行されるため、計算負荷を大幅に抑えることができ、境界が直方体のためレイキャスティング処理における起点座標を直線(仮想光線)との交点に基づいて迅速に探索できる。 By calculating the effective voxel area Vr, the process of generating a volume rendering image or MIP image (raycasting process) is executed by referring only to the voxels in the effective voxel area Vr, so that the calculation load is greatly reduced. Since the boundary is a rectangular parallelepiped, the starting point coordinates in the ray casting process can be quickly searched based on the intersection with the straight line (virtual ray).

3次元再構成像生成部26は、マスクデータMaskを参照しながら、断層画像群Doから3次元再構成像を生成する。3次元再構成像生成部26は、図22に示すように、ボリュームレンダリング画像生成部51、MIP画像生成部52、MPR画像生成部53から構成される。 The three-dimensional reconstruction image generation unit 26 generates a three-dimensional reconstruction image from the tomographic image group Do while referring to the mask data Mask. As shown in FIG. 22, the three-dimensional reconstructed image generation unit 26 includes a volume rendering image generation unit 51, a MIP image generation unit 52, and an MPR image generation unit 53.

ボリュームレンダリング画像生成部51は、後述するレイキャスティング処理において、マスクデータMaskに基づいて断層画像群Doの各ボクセルの不透明度に対するマスク値(透明/不透明)を設定したうえで(後述する図33のステップS144)、カラーマップ設定部510により設定されたカラーマップCmapを断層画像群Doの各ボクセルに適用し(後述する図33のステップS145)、ボリュームレンダリング画像ImageVRを生成する。 The volume rendering image generation unit 51 sets a mask value (transparent / opaque) for the opacity of each voxel of the tomographic image group Do based on the mask data Mask in the ray casting process described later (FIG. 33 described later). In step S144), the color map Cmap set by the color map setting unit 510 is applied to each voxel of the tomographic image group Do (step S145 in FIG. 33 described later) to generate a volume rendered image ImageVR.

カラーマップCmapは、信号値vと色値(具体的にはRGB値)及び不透明度(α値)との対応関係を定義したものであり、信号値vを24ビットの色(RGB値)及び8ビットの不透明度(α値)に変換する関数(実体的には2次元のデータテーブル)として表現される。例えば、16ビットの断層画像群Do((式1)参照)に適用されるカラーマップCmapは次のように定義される。 The color map Cmap defines the correspondence between the signal value v and the color value (specifically, the RGB value) and the opacity (α value), and the signal value v is the 24-bit color (RGB value) and It is expressed as a function (substantially a two-dimensional data table) that converts to 8-bit opacity (α value). For example, the color map Cmap applied to the 16-bit tomographic image group Do (see (Equation 1)) is defined as follows.

(式24)
0≦Cmap(v、n)≦255
−32768≦v≦32767
n=0(R)、1(G)、2(B)、3(α)
(Equation 24)
0 ≤ Cmap (v, n) ≤ 255
-32768 ≤ v ≤ 32767
n = 0 (R), 1 (G), 2 (B), 3 (α)

また、8ビットの断層画像群Do((式2)参照)に適用されるカラーマップCmap(v、n)は次のように定義される。 The color map Cmap (v, n) applied to the 8-bit tomographic image group Do (see (Equation 2)) is defined as follows.

(式25)
0≦Cmap(v、n)≦255
0≦v≦255
n=0(R)、1(G)、2(B)、3(α)
(Equation 25)
0 ≤ Cmap (v, n) ≤ 255
0 ≦ v ≦ 255
n = 0 (R), 1 (G), 2 (B), 3 (α)

(式24)、(式25)に示すカラーマップCmap(v、n)(0≦n≦3)のうち、特にカラーマップCmap(v、n)(0≦n≦2)は、信号値vを色値(RGB値)に変換する関数に相当する。 Of the color maps Cmap (v, n) (0 ≦ n ≦ 3) shown in (Equation 24) and (Equation 25), the color map Cmap (v, n) (0 ≦ n ≦ 2) has a signal value v. Corresponds to a function that converts to a color value (RGB value).

また、(式24)、(式25)に示すカラーマップCmap(v、n)(0≦n≦3)のうち、特にカラーマップCmap(v、3)は、信号値vを不透明度に変換する関数に相当し、一般的に「オパシティカーブ」と呼ばれる。 Further, among the color maps Cmap (v, n) (0 ≦ n ≦ 3) shown in (Equation 24) and (Equation 25), in particular, the color map Cmap (v, 3) converts the signal value v into opacity. Corresponds to the function that does, and is generally called the "opacity curve".

カラーマップCmap(v、3)(オパシティカーブ)は、例えば、通常組織(16ビットの信号値v=0〜120程度)の不透明度が255に設定(不透明度=255は不透明(光がすべて反射)であることを示す)され、骨領域(16ビットの信号値v=1000前後)の不透明度が1〜254の中間値に設定(不透明度=1〜254は半透明(入射光の一部が反射され、その他は透過)であることを示す)され、その他の組織等の部位を不透明度が0に設定(不透明度=0は透明(入射光の全てが透過)であることを示す)される。 In the color map Cmap (v, 3) (opacity curve), for example, the opacity of the normal structure (16-bit signal value v = 0 to 120) is set to 255 (opacity = 255 is opaque (all light is reflected). ), And the opacity of the bone region (16-bit signal value v = around 1000) is set to an intermediate value between 1 and 254 (opacity = 1 to 254 is translucent (part of the incident light). Is reflected, and others are transmitted), and the opacity of other parts such as tissues is set to 0 (opacity = 0 indicates that all of the incident light is transmitted). Will be done.

生成されるボリュームレンダリング画像ImageVRは、フルカラー(24ビット)の3次元再構成像(Size×Sizeの画像)であり、以下のように定義される。 The generated volume-rendered image ImageVR is a full-color (24-bit) three-dimensional reconstruction image (Size × Size image), and is defined as follows.

(式26)
0≦ImageVR(x、y、n)≦255
0≦x≦Size−1、0≦y≦Size−1
n=0(R)、1(G)、2(B)
(Equation 26)
0 ≤ Image VR (x, y, n) ≤ 255
0 ≦ x ≦ Size-1, 0 ≦ y ≦ Size-1
n = 0 (R), 1 (G), 2 (B)

MIP画像生成部52は、後述するレイキャスティング処理において、マスクデータMaskに基づいて断層画像群Doの各ボクセルの信号値に対するマスク値を設定したうえで(後述する図40のステップS224)、断層画像群Doの各ボクセルに信号値を取得し(後述する図40のステップS225)、MIP画像ImageMIPを生成する。 In the ray casting process described later, the MIP image generation unit 52 sets the mask value for each voxel signal value of the tomographic image group Do based on the mask data Mask (step S224 in FIG. 40 described later), and then the tomographic image. A signal value is acquired for each voxel of the group Do (step S225 in FIG. 40 described later), and a MIP image ImageMIP is generated.

生成されるMIP画像ImageMIPは、モノクロ(16ビットまたは8ビット)の3次元再構成像(Size×Sizeの画像)であり、以下のように定義される。MIP画像ImageMIPを生成する段階では、階調は元のDICOM画像の信号値のままモノクロ(16ビット)で計算する方法が一般的であり、ImageMIP(x、y)は−32768≦ImageMIP(x、y)≦32767の値をもつ場合があるが、表示される段階では以下のようにモノクロ(8ビット)に変換される。 The generated MIP image ImageMIP is a monochrome (16-bit or 8-bit) three-dimensional reconstruction image (Size × Size image), and is defined as follows. At the stage of generating the MIP image ImageMIP, it is common to calculate the gradation in monochrome (16 bits) with the signal value of the original DICOM image as it is, and the ImageMIP (x, y) is -32768 ≤ ImageMIP (x, y) It may have a value of ≦ 32767, but at the stage of being displayed, it is converted to monochrome (8 bits) as follows.

(式27)
0≦ImageMIP(x、y)≦255
0≦x≦Size−1、0≦y≦Size−1
(Equation 27)
0 ≤ Image MIP (x, y) ≤ 255
0 ≦ x ≦ Size-1, 0 ≦ y ≦ Size-1

MPR画像生成部53は、断層画像群Doに基づいて任意断面のMPR画像ImageMPRを生成するともに、MPR画像ImageMPRにマスクデータMaskに基づいて生成されたマスク画像を合成する。 The MPR image generation unit 53 generates an MPR image ImageMPR having an arbitrary cross section based on the tomographic image group Do, and synthesizes a mask image generated based on the mask data Mask into the MPR image ImageMPR.

3次元再構成像表示部27は、3次元再構成像生成部26(ボリュームレンダリング画像生成部51、MIP画像生成部52、MPR画像生成部53)により生成された3次元再構成像を表示画面(表示部16)に表示する。 The three-dimensional reconstruction image display unit 27 displays a three-dimensional reconstruction image generated by the three-dimensional reconstruction image generation unit 26 (volume rendering image generation unit 51, MIP image generation unit 52, MPR image generation unit 53). It is displayed on (display unit 16).

(9.3次元再構成像生成装置2のハードウェア構成)
図23は、3次元再構成像生成装置2のハードウェア構成を示す図である。図に示すように、3次元再構成像生成装置2は、制御部11、記憶部12、メディア入出力部13、通信制御部14、入力部15、表示部16、周辺機器I/F部17等が、バス18を介して接続される汎用のコンピュータで実現される。各構成は図2と同様であるため、記載を省略する。
(Hardware configuration of 9.3-dimensional reconstruction image generator 2)
FIG. 23 is a diagram showing a hardware configuration of the three-dimensional reconstruction image generation device 2. As shown in the figure, the three-dimensional reconstruction image generation device 2 includes a control unit 11, a storage unit 12, a media input / output unit 13, a communication control unit 14, an input unit 15, a display unit 16, and a peripheral device I / F unit 17. Etc. are realized by a general-purpose computer connected via the bus 18. Since each configuration is the same as in FIG. 2, the description is omitted.

(10.3次元再構成像生成装置2の動作)
図24のフローチャートを参照しながら、3次元再構成像生成装置2の全体の動作について説明する。
(Operation of 10.3 dimensional reconstruction image generator 2)
The overall operation of the three-dimensional reconstruction image generation device 2 will be described with reference to the flowchart of FIG. 24.

まず、3次元再構成像生成装置2の制御部11は、CT装置により撮影された16ビットの断層画像群Do((式1)参照)を取得する(ステップ71)。この際、制御部11は、必要に応じて、16ビットの断層画像群Doを8ビットの断層画像群Do((式2)参照)に階調圧縮してもよい。 First, the control unit 11 of the three-dimensional reconstruction image generation device 2 acquires a 16-bit tomographic image group Do (see (Equation 1)) captured by the CT device (step 71). At this time, the control unit 11 may perform gradation compression of the 16-bit tomographic image group Do to the 8-bit tomographic image group Do (see (Equation 2)), if necessary.

(1)断層画像群DoのSz/2番目の中間スライスDo(z/2)における全ての画素の最小値Dmin、最大値Dmaxを算出する。なおDminとDmaxは全てのスライスより最小値と最大値を求める方法をとっても良いが、本実施の形態のように中間スライスだけで決定する方法をとることで、大容量の16ビットの断層画像群Doをメモリ上に保持する必要がなくなる。 (1) The minimum value Dmin and the maximum value Dmax of all the pixels in the Sz / second intermediate slice Do (z / 2) of the tomographic image group Do are calculated. Note that Dmin and Dmax may be determined by obtaining the minimum and maximum values from all the slices, but by adopting the method of determining only the intermediate slices as in the present embodiment, a large-capacity 16-bit tomographic image group. It is no longer necessary to keep Do in memory.

(2)下限値Lmin=(Dmax−Dmin)・γ+Dmin、上限値Lmax=(Dmax−Dmin)・(1−γ)+Dminを設定する。ここで、γは階調圧縮画像のコントラスト調整幅で、0に近いほどコントラストが増大する(但し、輝度が小さくなる)。通常はγ=0.1に設定する。 (2) Set the lower limit value Lmin = (Dmax-Dmin) · γ + Dmin and the upper limit value Lmax = (Dmax-Dmin) · (1-γ) + Dmin. Here, γ is the contrast adjustment width of the gradation compressed image, and the closer it is to 0, the higher the contrast (however, the brightness becomes smaller). Normally, it is set to γ = 0.1.

(3)断層画像群Doを以下の計算式で8ビットの断層画像群Do((式2)参照)に変換する(下限値Lmin〜上限値Lmaxの範囲で256段階に圧縮する)。 (3) The tomographic image group Do is converted into an 8-bit tomographic image group Do (see (Equation 2)) by the following formula (compressed in 256 steps in the range of the lower limit value Lmin to the upper limit value Lmax).

(式28)
Do(x、y、z)
=(Do(x、y、z)−Lmin)・255/(Lmax−Lmin)
但し、Do(x、y、z)>255の場合はDo(x、y、z)=255、Do(x、y、z)<0の場合はDo(x、y、z)=0に飽和させる。
(Equation 28)
Do (x, y, z)
= (Do (x, y, z) -Lmin) · 255 / (Lmax-Lmin)
However, when Do (x, y, z)> 255, Do (x, y, z) = 255, and when Do (x, y, z) <0, Do (x, y, z) = 0. Saturate.

このように階調圧縮をすることで、断層画像群を保持するためのメモリ容量を半分に抑えることができる。たとえ信号値の階調が16ビットあっても、カラーマップCmapにより、変換される色値(RGB値)及び不透明度(α値)の階調はディスプレイの階調に合わせて8ビットに制限されるため、階調圧縮に伴う画質劣化は殆ど生じない。 By performing gradation compression in this way, the memory capacity for holding the tomographic image group can be suppressed to half. Even if the gradation of the signal value is 16 bits, the gradation of the converted color value (RGB value) and opacity (α value) is limited to 8 bits according to the gradation of the display by the color map Cmap. Therefore, there is almost no deterioration in image quality due to gradation compression.

続いて、制御部11は、断層画像Do(z)毎に、断層画像Do(z)の各画素(x、y、z)を描画対象とする重み値Sv(x、y、z)を格納した描画重みテーブルSvを作成し(ステップS72)、作成された描画重みテーブルSvを参照して、断層画像群Doの各画素(x、y、z)の重み値Sv(x、y、z)を所定の閾値で二値化したマスク値Mask(x、y、z)を算出し、各画素(x、y、z)に対応するマスク値Mask(x、y、z)を保持する3次元のマスクデータMaskを生成する(ステップS73)。ステップS72、ステップS73の処理は、図3のステップS2、ステップS3と同様である。 Subsequently, the control unit 11 stores weight values Sv (x, y, z) for drawing each pixel (x, y, z) of the tomographic image Do (z) for each tomographic image Do (z). The drawn drawing weight table Sv is created (step S72), and the weight value Sv (x, y, z) of each pixel (x, y, z) of the tomographic image group Do is referred to with reference to the created drawing weight table Sv. Is calculated as a mask value Mask (x, y, z) obtained by binarizing the above with a predetermined threshold value, and the mask value Mask (x, y, z) corresponding to each pixel (x, y, z) is held in three dimensions. Mask data Mask is generated (step S73). The processing of step S72 and step S73 is the same as that of step S2 and step S3 of FIG.

そして、制御部11は、ステップS73において生成されたマスクデータMaskを参照しながら、断層画像群Doから3次元再構成像を生成し(ステップS74)、生成した3次元再構成像を表示する(ステップS75)。 Then, the control unit 11 generates a three-dimensional reconstruction image from the tomographic image group Do (step S74) while referring to the mask data Mask generated in step S73, and displays the generated three-dimensional reconstruction image (step S74). Step S75).

以降、ステップS74において、ボリュームレンダリング画像、MIP画像、およびMPR画像を生成する例を順に説明する。 Hereinafter, in step S74, an example of generating a volume rendering image, a MIP image, and an MPR image will be described in order.

(11.ボリュームレンダリング画像の生成)
図25〜図33を参照しながら、ボリュームレンダリング画像を生成する処理を説明する。
(11. Generation of volume rendered image)
The process of generating the volume rendered image will be described with reference to FIGS. 25 to 33.

図25は、ボリュームレンダリング画像を生成する処理の全体の流れを示すフローチャートである。
制御部11は、ユーザからカラーマップCmapの設定を受け付ける(ステップS81)。ここで、断層画像群Doの信号値が16ビットの場合((式1)参照)は、16ビット対応のカラーマップCmap((式24)参照)を設定し、断層画像群Doの信号値が8ビットに圧縮されている場合((式2)参照)は、8ビット対応のカラーマップCmap((式25)参照)を設定する。
FIG. 25 is a flowchart showing the entire flow of the process of generating the volume rendered image.
The control unit 11 receives the color map Cmap setting from the user (step S81). Here, when the signal value of the tomographic image group Do is 16 bits (see (Equation 1)), a 16-bit compatible color map Cmap (see (Equation 24)) is set, and the signal value of the tomographic image group Do is set. When it is compressed to 8 bits (see (Equation 2)), a color map Cmap corresponding to 8 bits (see (Equation 25)) is set.

カラーマップCmapの設定方法は特に限定されず、例えば、制御部11は、予め用意されている複数のカラーマップCmapの中から、断層画像群Doに適用するカラーマップCmapをユーザに選択させることで設定することができる。また、制御部11は、前回レンダリング時に使用したカラーマップCmapを記憶部12から読込み、断層画像群Doに適用するカラーマップCmapとして設定しても良い。 The method for setting the color map Cmap is not particularly limited. For example, the control unit 11 allows the user to select a color map Cmap to be applied to the tomographic image group Do from a plurality of color map Cmaps prepared in advance. Can be set. Further, the control unit 11 may read the color map Cmap used at the time of the previous rendering from the storage unit 12 and set it as the color map Cmap to be applied to the tomographic image group Do.

また、制御部11は、カラーマップ設定画面(不図示)においてユーザが作成したカラーマップCmapを設定しても良い。この場合、制御部11は、カラーマップ設定画面において、代表的な信号値v(例えば、10箇所程度の特徴的な信号値)と当該信号値vに対する色値(RGB値)及び不透明度(α値)をユーザに設定させ、ユーザが設定した代表的な信号値vと色値及び不透明度との対応関係に基づいて所定範囲の信号値vを色値及び不透明度に変換するカラーマップCmapを自動生成する。 Further, the control unit 11 may set a color map Cmap created by the user on the color map setting screen (not shown). In this case, the control unit 11 displays a typical signal value v (for example, characteristic signal values at about 10 locations), a color value (RGB value), and an opacity (α) with respect to the signal value v on the color map setting screen. A color map Cmap that causes the user to set the value) and converts the signal value v in a predetermined range into the color value and the opacity based on the correspondence between the typical signal value v set by the user and the color value and the opacity. Automatically generated.

続いて、制御部11は、必要に応じて、ユーザからクリッピング領域ROI((式22)参照)の設定を受け付ける(ステップS82)。 Subsequently, the control unit 11 receives a setting of the clipping region ROI (see (Equation 22)) from the user, if necessary (step S82).

続いて、制御部11は、有効ボクセル領域Vrを算出する(ステップS83)。具体的には、図26に示すように、制御部11は、不透明度が0でない値(α>0)をもつボクセル(不透明ボクセル)を有効ボクセルとし、これらの有効ボクセルを全て含み、かつ有効ボクセルに外接する直方体を有効ボクセル領域Vrとして算出する。クリッピング領域ROIやマスクデータMaskが設定されている場合は、制御部11は、クリッピングROIやマスクデータMaskにより規定された描画範囲内において、不透明度が0でない値(α>0)をもつボクセル(不透明ボクセル)を有効ボクセルとし、これらの有効ボクセルを全て含み、かつ有効ボクセルに外接する直方体を有効ボクセル領域Vrとして算出する。 Subsequently, the control unit 11 calculates the effective voxel region Vr (step S83). Specifically, as shown in FIG. 26, the control unit 11 uses voxels (opaque voxels) having a non-opaque value (α> 0) as effective voxels, and includes all of these effective voxels and is effective. The rectangular parallelepiped circumscribing the voxel is calculated as the effective voxel region Vr. When the clipping region ROI and the mask data Mask are set, the control unit 11 has a voxel (α> 0) having a non-zero opacity value (α> 0) within the drawing range defined by the clipping ROI and the mask data Mask. An opaque voxel) is used as an effective voxel, and a square body including all of these effective voxels and circumscribing the effective voxel is calculated as an effective voxel region Vr.

そして、制御部11は、ステップS71(図24)において取得した断層画像群Do(3次元ボクセル)、ステップS73(図24)において生成されたマスクデータMask、ステップS81(図25)において設定されたカラーマップCmap、ステップS82(図25)において設定されたクリッピング領域ROI、ステップS83(図25)において算出された有効ボクセル領域Vrを参照して、ボリュームレンダリング画像ImageVRを生成する(ステップS83)。 Then, the control unit 11 is set in the tomographic image group Do (three-dimensional voxel) acquired in step S71 (FIG. 24), the mask data Mask generated in step S73 (FIG. 24), and step S81 (FIG. 25). A volume rendered image ImageVR is generated with reference to the color map Cmap, the clipping region ROI set in step S82 (FIG. 25), and the effective voxel region Vr calculated in step S83 (FIG. 25) (step S83).

特に本開示では、制御部11は、レイキャスティング処理において、マスクデータMaskに基づいて断層画像群Doの各ボクセルの不透明度に対するマスク値を設定したうえで(後述する図33のステップS144)、断層画像群Doの各ボクセルにカラーマップCmap(オパシティカーブ)を適用し(後述する図33のステップS145)、ボリュームレンダリング画像ImageVRを生成する。これにより、被写体形状(幾何形状)に基づいて生成したマスクデータMaskの描画・非描画情報が反映されたボリュームレンダリング画像が生成される。 In particular, in the present disclosure, in the ray casting process, the control unit 11 sets the mask value for the opacity of each voxel of the tomographic image group Do based on the mask data Mask (step S144 in FIG. 33 described later), and then the fault. A color map Cmap (opacity curve) is applied to each voxel of the image group Do (step S145 in FIG. 33 described later) to generate a volume rendered image ImageVR. As a result, a volume rendered image reflecting the drawing / non-drawing information of the mask data Mask generated based on the subject shape (geometric shape) is generated.

図27は、ステップS84において実行される、ボリュームレンダリング画像ImageVRを生成する具体的な処理の流れを示す。
まず、制御部11は、座標変換パラメータを設定する(ステップS91)。本開示では、後述するレイキャスティング処理(ステップS93、図28)で、視点座標系の各3次元座標毎にボクセルを参照するため、逐次座標変換を行う方法をとる。そのため、制御部11は、以下のように、各座標変換処理に共通する座標変換パラメータを事前に設定・算出しておく。
FIG. 27 shows a specific flow of processing for generating the volume rendered image ImageVR, which is executed in step S84.
First, the control unit 11 sets the coordinate conversion parameters (step S91). In the present disclosure, in the ray casting process (step S93, FIG. 28) described later, since the voxels are referred to for each three-dimensional coordinate of the viewpoint coordinate system, a method of sequentially performing coordinate conversion is adopted. Therefore, the control unit 11 sets and calculates the coordinate conversion parameters common to each coordinate conversion process in advance as follows.

<座標変換パラメータ>
回転パラメータ行列R:
R=[R11 R12 R13;
R21 R22 R23;
R31 R32 R33]
(ボクセル座標系から視点座標系への座標変換を行うための3×3の行列の逆行列、GUI側はボクセル座標系から視点座標系への座標変換を指示するが、レンダリング側は視点座標系からボクセル座標系に座標変換を行う。)
XYZ軸方向のオフセット:
Xoff、Yoff、Zoff(2次元画面上で指定するため、通常Zoff=0)
クリッピング領域:
X軸方向ROI:Xs−Xe
Y軸方向ROI:Ys−Ye
Z軸方向ROI:Zs−Ze
有効ボクセル領域(外接直方体領域):
X軸方向ROI:Xis−Xie
Y軸方向ROI:Yis−Yie
Z軸方向ROI:Zis―Zie
拡大縮小倍率Scale(XYZ軸方向で同一)
X軸方向変倍率:Scx、Y軸方向変倍率:Scy、Z軸方向変倍率Scz
座標変換サブサンプル・オフセット:X軸方向dx、Y軸方向dy、Z軸方向dz
生成するボリュームレンダリング画像のサイズ:Size(XY軸方向で同一)
仮想光線のサブサンプリング倍率:Sray(通常は1で、値が1より大きいと粗くなり、1未満だと高精細になる。ボリュームレンダリング画像を生成する場合はSray=1、MIP画像を生成する場合はSray=2などに設定する。)
<Coordinate conversion parameters>
Rotation parameter matrix R:
R = [R11 R12 R13;
R21 R22 R23;
R31 R32 R33]
(Inverse matrix of 3 × 3 matrix for performing coordinate conversion from voxel coordinate system to viewpoint coordinate system, GUI side instructs coordinate conversion from voxel coordinate system to viewpoint coordinate system, but rendering side is viewpoint coordinate system Performs coordinate conversion from to the voxel coordinate system.)
XYZ axis offset:
Xoff, Yoff, Zoff (normally Zoff = 0 because it is specified on the 2D screen)
Clipping area:
X-axis direction ROI: Xs-Xe
Y-axis direction ROI: Ys-Ye
Z-axis direction ROI: Zs-Ze
Effective voxel area (circumscribed rectangular parallelepiped area):
X-axis direction ROI: Xis-Xie
Y-axis direction ROI: Yis-Yie
Z-axis direction ROI: Zis-Zie
Scaling Scale (same in XYZ axis direction)
X-axis direction variable magnification: Scx, Y-axis direction variable magnification: Scy, Z-axis direction variable magnification Scz
Coordinate conversion subsample offset: X-axis direction dx, Y-axis direction dy, Z-axis direction dz
Size of generated volume rendered image: Size (same in XY axis direction)
Virtual ray subsampling magnification: Slay (usually 1, if the value is greater than 1, it becomes coarser, and if it is less than 1, it becomes high definition. Is set to Sray = 2, etc.)

制御部11は、上記した回転パラメータ行列Rに対して、初期値として単位行列を設定する。すなわち、R11=1、R12=0、R13=0、R21=0、R22=1、R23=0、R31=0、R32=0、R33=1と設定する。
そして、GUIの指示に従い、X軸中心回転Rx、Y軸中心回転Ry、Z軸中心回転Rz(角度単位:ラジアン)のいずれかを逐次指定し、以下のように、各々回転行列Aを生成して回転パラメータ行列Rに右から乗算して、回転パラメータ行列Rを更新する。これにより、GUIの指示により生成されるボクセル座標系から視点座標系への回転行列の逆行列が算出される。
The control unit 11 sets a unit matrix as an initial value for the rotation parameter matrix R described above. That is, R11 = 1, R12 = 0, R13 = 0, R21 = 0, R22 = 1, R23 = 0, R31 = 0, R32 = 0, and R33 = 1.
Then, according to the instructions of the GUI, one of X-axis center rotation Rx, Y-axis center rotation Ry, and Z-axis center rotation Rz (angle unit: radian) is sequentially specified, and a rotation matrix A is generated for each as follows. The rotation parameter matrix R is multiplied from the right to update the rotation parameter matrix R. As a result, the inverse matrix of the rotation matrix from the voxel coordinate system to the viewpoint coordinate system generated by the instruction of the GUI is calculated.

回転行列Aを
A=[A11 A12 A13;
A21 A22 A23;
A31 A32 A33]
とすると、
X軸中心回転Rxの場合の回転行列Aの各要素は、
A11=1、A12=0、A13=0
A21=0、A22=cosRx、A23=sinRx
A31=0、A32=sinRx、A33=cosRx
Y軸中心回転Ryの場合の回転行列Aの各要素は、
A11=cosRy、A12=0、A13=sinRy
A21=0、A22=1、A23=0
A31=−sinRy、A32=0、A33=cosRy
Z軸中心回転Rzの場合の回転行列Aの各要素は、
A11=cosRz、A12=sinRz、A13=0
A21=−sinRz、A22=cosRz、A23=0
A31=0、A32=0、A33=1
となる。
回転パラメータ行列Rは、R←R×Aと更新される。
Rotation matrix A
A = [A11 A12 A13;
A21 A22 A23;
A31 A32 A33]
Then
Each element of the rotation matrix A in the case of the X-axis center rotation Rx is
A11 = 1, A12 = 0, A13 = 0
A21 = 0, A22 = cosRx, A23 = sinRx
A31 = 0, A32 = sinRx, A33 = cosRx
Each element of the rotation matrix A in the case of Y-axis center rotation Ry is
A11 = cosRy, A12 = 0, A13 = sinRy
A21 = 0, A22 = 1, A23 = 0
A31 = -sinRy, A32 = 0, A33 = cosRy
Each element of the rotation matrix A in the case of Z-axis center rotation Rz is
A11 = cosRz, A12 = sinRz, A13 = 0
A21 = -sinRz, A22 = cosRz, A23 = 0
A31 = 0, A32 = 0, A33 = 1
Will be.
The rotation parameter matrix R is updated as R ← R × A.

以上で定義された座標変換パラメータに基づく座標変換処理は、レイキャスティング処理(ステップS93、図28)の各処理の中で逐次実行される。 The coordinate conversion process based on the coordinate conversion parameters defined above is sequentially executed in each process of the ray casting process (step S93, FIG. 28).

続いて、制御部11は、処理回数l=0、サブサンプル・オフセット値をdx=dy=dz=0に初期化する(ステップS92)。
そして、制御部11は、レイキャスティング処理(各座標(x、y)毎に色値を算出する処理)を実行する(ステップS93)。
Subsequently, the control unit 11 initializes the number of processes l = 0 and the subsample offset value to dx = dy = dz = 0 (step S92).
Then, the control unit 11 executes a ray casting process (a process of calculating a color value for each coordinate (x, y)) (step S93).

<レイキャスティング処理>
図28のフローチャートを参照して、レイキャスティング処理について説明する。
制御部11は、まず、生成する24ビット(RGB)のボリュームレンダリング画像ImageVR(x、y、n)の初期値を全て0に設定する(ImageVR(x、y、n)=0、n=0(R)、1(G)、2(B))。そして、サブサンプル回数Lとして、各2次元座標(x、y)(0≦x≦Size−1、0≦y≦Size−1)に対して、以下の処理を実行する。
<Ray casting process>
The ray casting process will be described with reference to the flowchart of FIG. 28.
First, the control unit 11 sets all the initial values of the 24-bit (RGB) volume-rendered image ImageVR (x, y, n) to be generated to 0 (ImageVR (x, y, n) = 0, n = 0). (R), 1 (G), 2 (B)). Then, as the number of subsamples L, the following processing is executed for each of the two-dimensional coordinates (x, y) (0 ≦ x ≦ Size-1, 0 ≦ y ≦ Size-1).

制御部11は、背景色bg(n)(n=0(R)、1(G)、2(B)、0≦bg(n)≦255)を設定し、x=0、y=0とする(ステップS101)。 The control unit 11 sets the background color pg (n) (n = 0 (R), 1 (G), 2 (B), 0 ≦ pg (n) ≦ 255), and sets x = 0 and y = 0. (Step S101).

続いて、制御部11は、仮想光強度Trans=1.0、累積輝度値Energy(n)=0.0(0≦n≦2)に初期化する(ステップS102)。 Subsequently, the control unit 11 initializes the virtual light intensity Trans = 1.0 and the cumulative luminance value Energy (n) = 0.0 (0 ≦ n ≦ 2) (step S102).

続いて、制御部11は、有効ボクセル領域Vrと仮想光線との交点のZ座標(Zc)を算出する(ステップS103)。有効ボクセル領域Vrと仮想光線との交点のZ座標(Zc)を算出する処理については後述する(「11−1.交点算出処理」参照)。 Subsequently, the control unit 11 calculates the Z coordinate (Zc) of the intersection of the effective voxel region Vr and the virtual ray (step S103). The process of calculating the Z coordinate (Zc) of the intersection of the effective voxel region Vr and the virtual ray will be described later (see "11-1. Intersection calculation process").

続いて、制御部11は、ZstをZst=Zcに設定し(ステップS104)、Zstから先頭の有効ボクセル(不透明ボクセル)のZ座標z(仮想光線の照射を開始する起点座標)を探索する(ステップS105)。すなわち、ステップS103において算出された交点から視線方向に向かってレイキャスティング計算を開始する起点座標を探索する。起点座標zを探索する処理については後述する(「11−2.起点座標探索処理」参照)。 Subsequently, the control unit 11 sets Zst to Zst = Zc (step S104), and searches for the Z coordinate z (starting point coordinate at which the irradiation of the virtual ray is started) of the first effective voxel (opaque voxel) from Zst (step S104). Step S105). That is, the starting point coordinates for starting the ray casting calculation from the intersection calculated in step S103 toward the line of sight are searched for. The process of searching for the starting point coordinate z will be described later (see “11-2. Starting point coordinate search process”).

z<0の場合、ステップS111へ移行する。 If z <0, the process proceeds to step S111.

一方、z≧0の場合、制御部11は、3次元座標(x、y、z)を座標変換してボクセルα値(Vα)を取得し、Alpha=Vα/255を求める(ステップS106)。ボクセルα値(Vα)を取得する処理については後述する(「11−4.ボクセルα値、RGB値の取得(補間あり)」参照)。 On the other hand, when z ≧ 0, the control unit 11 transforms the three-dimensional coordinates (x, y, z) to obtain the voxel α value (Vα), and obtains Integer = Vα / 255 (step S106). The process of acquiring the voxel α value (Vα) will be described later (see “11-4. Acquisition of voxel α value and RGB value (with interpolation)”).

一方、ステップS106において算出したAlphaがAlpha<0(有効ボクセル領域Vrを通過)、またはAlpha=0かつz=0の場合、ステップS111へ移行し、画素(x、y)におけるRGB画素値を決定する。これにより、有効ボクセル領域Vrを逸脱(通過)している場合(Alpha<0)は、その先に描画対象のボクセルは存在しないため、レイキャスティング処理を早期に打ち切り、冗長な処理を省略する。 On the other hand, when the Alpha calculated in step S106 is Alpha <0 (passing through the effective voxel region Vr), or Alpha = 0 and z = 0, the process proceeds to step S111 and the RGB pixel value in the pixel (x, y) is determined. To do. As a result, when the effective voxel region Vr is deviated (passed) (Alpha <0), the voxel to be drawn does not exist ahead of the effective voxel region Vr, so that the raycasting process is terminated early and redundant processing is omitted.

一方、ステップS106において算出したAlphaがAlpha>0の場合、制御部11は、3次元座標(x、y、z)を座標変換してボクセルRGB値Vc(n)を取得する(ステップS108)。ボクセルRGB値(Vc(n))を取得する処理については後述する(「11−4.ボクセルα値、RGB値の取得(補間あり)」参照)。 On the other hand, when the Integer calculated in step S106 is Integer> 0, the control unit 11 transforms the three-dimensional coordinates (x, y, z) to acquire the voxel RGB value Vc (n) (step S108). The process of acquiring the voxel RGB value (Vc (n)) will be described later (see “11-4. Acquisition of voxel α value and RGB value (with interpolation)”).

続いて、制御部11は、仮想光線サブサンプルに基づくα値を、
Alpha’=1−(1−Alpha)1/Sray
と補正し、
累積輝度を、
Energy(n)=Energy(n)+Trans/Alpha・Vc(n)/255
透過光強度を、
Trans=Trans・(1.0−Alpha)
と更新する(ステップS109)。
Subsequently, the control unit 11 sets the α value based on the virtual ray subsample.
Alpha'= 1- (1-Alpha) 1 / Sray
And correct
Cumulative brightness,
Energy (n) = Energy (n) + Trans / Alpha · Vc (n) / 255
Transmitted light intensity,
Trans = Trans · (1.0-Alpha)
Is updated (step S109).

Trans<0.001の場合、ステップS111へ移行し、画素(x、y)におけるRGB画素値を決定する。Trans≧0.001の場合、制御部11は、z=z−1に更新し(ステップS110)、z≧0の場合、ステップS106に戻り、z<0の場合、ステップS111へ移行し、画素(x、y)におけるRGB画素値を決定する。 When Trans <0.001, the process proceeds to step S111, and the RGB pixel value in the pixel (x, y) is determined. When Trans ≧ 0.001, the control unit 11 updates to z = z-1 (step S110), returns to step S106 when z ≧ 0, shifts to step S111 when z <0, and pixels. The RGB pixel value at (x, y) is determined.

ステップS111において、制御部11は、画素(x、y)におけるRGB画素値を次のように決定する。 In step S111, the control unit 11 determines the RGB pixel values in the pixels (x, y) as follows.

(式29)
ImageVR(x、y、n)=ImageVR(x、y、n)+k・Energy(n)・Light(n)/L
ここで、kは強度倍率であり、初期値はk=1.0に設定されている。
(Equation 29)
ImageVR (x, y, n) = ImageVR (x, y, n) + k · Energy (n) · Light (n) / L
Here, k is the intensity magnification, and the initial value is set to k = 1.0.

続いて、制御部11は、x←x+1に更新し(ステップS112)、x<Sizeの場合、ステップS102に戻り、次の画素xのRGB値を決定する処理(ステップS102〜S111)を実行する。x≧Sizeの場合、y←y+1に更新し(ステップS113)、y≦Sizeの場合、x=0としたうえで、ステップS102に戻り、y行目の画素(x、y)のRGB値を決定する処理(ステップS102〜S111)を繰り返す。y>Sizeの場合、制御部11は、処理を終了する。
すなわち、全画素のRGB値が算出されるまで(ステップS112;x≧Size、かつ、ステップS113;y>Size)、ステップS102〜S111の処理を繰り返す。
Subsequently, the control unit 11 updates to x ← x + 1 (step S112), and if x <Size, returns to step S102 and executes a process of determining the RGB value of the next pixel x (steps S102 to S111). .. If x ≧ Size, update to y ← y + 1 (step S113), if y ≦ Size, set x = 0, return to step S102, and change the RGB values of the pixels (x, y) on the y-th row. The process of determining (steps S102 to S111) is repeated. When y> Size, the control unit 11 ends the process.
That is, the processes of steps S102 to S111 are repeated until the RGB values of all the pixels are calculated (step S112; x ≧ Size and step S113; y> Size).

図27のフローチャートに戻る。
制御部11は、処理回数をl←l+1に更新し、サブサンプル・オフセット値をdx←dx+1/L、dy←dy+1/L、dz←dz+1/Lに更新する(ステップS94)。制御部11は、処理回数lがl>L−1を満たすまで(ステップS94;l>L−1)、ステップS93のレイキャスティング処理を繰り返す。レイキャスティング処理が終了すると、制御部11は、生成したボリュームレンダリング画像ImageVRを出力する(ステップS95)。
Return to the flowchart of FIG. 27.
The control unit 11 updates the number of processes to l ← l + 1, and updates the subsample offset values to dx ← dx + 1 / L, dy ← dy + 1 / L, and dz ← dz + 1 / L (step S94). The control unit 11 repeats the ray casting process of step S93 until the number of processes l satisfies l> L-1 (step S94; l> L-1). When the ray casting process is completed, the control unit 11 outputs the generated volume rendered image ImageVR (step S95).

(11−1.交点算出処理)
図28のステップS103において実行される有効ボクセル領域Vrと仮想光線との交点のZ座標(Zc)を算出する処理について説明する。
(11-1. Intersection calculation process)
The process of calculating the Z coordinate (Zc) of the intersection of the effective voxel region Vr and the virtual ray, which is executed in step S103 of FIG. 28, will be described.

制御部11は、以下の処理手順で、レイキャスティング処理の算出対象画素(x、y)に対して、視点座標系において、z=Zo(=Size/Sray−1)からz=0の範囲で、視点z=Zoに最も近い有効ボクセル領域Vr([Xis、Xie]、[Yis、Yie]、[Zis、Zie])との交点Zcを算出する。 The control unit 11 performs the following processing procedure with respect to the calculation target pixel (x, y) in the ray casting process in the range of z = Zoo (= Size / Sray-1) to z = 0 in the viewpoint coordinate system. , The intersection Zc with the effective voxel region Vr ([Xis, Xie], [Yis, Yie], [Zis, Zie]) closest to the viewpoint z = Zo is calculated.

(1)視線ベクトル(仮想光線ベクトル)の算出
制御部11は、図29に示すように、視点座標系における視点座標(x、y、Zo)および下限座標(x、y、0)に対して各々座標変換を行い、ボクセル座標系における視点座標(x1、y1、z1)および下限座標(x2、y2、z2)を求め、視線ベクトル(vx、vy、vz)の各要素を次のように算出する。
(1) Calculation of line-of-sight vector (virtual ray vector) As shown in FIG. 29, the control unit 11 refers to the viewpoint coordinates (x, y, Zo) and the lower limit coordinates (x, y, 0) in the viewpoint coordinate system. Perform coordinate transformation for each, obtain the viewpoint coordinates (x1, y1, z1) and lower limit coordinates (x2, y2, z2) in the boxel coordinate system, and calculate each element of the line-of-sight vector (vx, vy, vz) as follows. To do.

vx=x2−x1
vy=y2−y1
vz=z2−z1
vx = x2-x1
by = y2-y1
vz = z2-z1

(2)視線ベクトルと有効ボクセル領域Vrとの交点の算出
制御部11は、tx=ty=tz=10と初期化し、
1)|vx|≧1の場合、tx1=(Xis−x1)/vx、tx2=(Xie−x1)/vxを算出し、いずれか小さい方をtxに設定する。
2)|vy|≧1の場合、ty1=(Yis−y1)/vy、ty2=(Yie−y1)/vyを算出し、いずれか小さい方をtyに設定する。
3)|vz|≧1の場合、tz1=(Zis−z1)/vz、tz2=(Zie−z1)/vzを算出し、いずれか小さい方をtzに設定する。
(2) Calculation of the intersection of the line-of-sight vector and the effective voxel region Vr The control unit 11 initializes tx = ty = tz = 10.
1) When | vx | ≧ 1, tx1 = (Xis-x1) / vx and tx2 = (Xie-x1) / vx are calculated, and the smaller one is set to tx.
2) When | by | ≧ 1, ty1 = (Yis-y1) / by and ty2 = (Yie-y1) / vy are calculated, and the smaller one is set to ty.
3) When | vz | ≧ 1, tz1 = (Zis-z1) / vz and tz2 = (Zie-z1) / vz are calculated, and the smaller one is set to tz.

これにより、図29(右図)に示すように、ボクセル座標系における交点座標が求まる。具体的には、交点座標は(vx・t+x1,vy・t+y1,vz・t+z1)で与えられ(tは(2)で算出されたtx、ty、tzのいずれかの値)、図29の例ではz=Zisおよびz=Zieの2面に交点が存在し、z=Zieにおける交点座標は(vx・tz+x1,vy・tz+y1,vz・tz+z1)と算出できる。交点座標は、視線ベクトルと有効ボクセル領域Vr(直方体)を構成する6面との交点(通常、交点は2点以上存在する)のうち、視点に最も近い交点である。 As a result, as shown in FIG. 29 (right figure), the coordinates of the intersection in the voxel coordinate system can be obtained. Specifically, the intersection coordinates are given by (vx · t + x1, vy · t + y1, vz · t + z1) (t is any value of tx, ty, tz calculated in (2)), and the example of FIG. 29. Then, there are intersections on the two surfaces of z = Zis and z = Zie, and the coordinates of the intersections at z = Zie can be calculated as (vx · tz + x1, vy · tz + y1, vz · tz + z1). The intersection coordinates are the intersections of the line-of-sight vector and the six planes constituting the effective voxel region Vr (rectangular parallelepiped) (usually, there are two or more intersections), which is the closest to the viewpoint.

(3)視点座標系における交点Zcの決定
制御部11は、視点座標系における交点座標ZcをZc=−1と初期化し、
1)tx≦1の場合
Y=vy・tx+y1、Z=vz・tx+z1を算出する。
Yis≦Y≦YieかつZis≦Z≦Zieの場合(ボクセル座標系における交点が有効ボクセル領域Vr内に存在する場合)、対応する視点座標系における交点Z2=Zo・(1−tx)を算出し、Z2>ZcならばZc=Z2に置換する。
2)ty≦1の場合
X=vx・ty+x1、Z=vz・ty+z1を算出する。
Xis≦X≦XieかつZis≦Z≦Zieの場合(ボクセル座標系における交点が有効ボクセル領域Vr内に存在する場合)、対応する視点座標系における交点Z2=Zo・(1−ty)を算出し、Z2>ZcならばZc=Z2に置換する。
3)tz≦1の場合
X=vx・tz+x1、Y=vy・tz+y1を算出する。
Xis≦X≦XieかつYis≦Y≦Yieの場合(ボクセル座標系における交点が有効ボクセル領域Vr内に存在する場合)、対応する視点座標系における交点Z2=Zo・(1−tz)を算出し、Z2>ZcならばZc=Z2に置換する。
(3) Determination of intersection Zc in the viewpoint coordinate system The control unit 11 initializes the intersection coordinate Zc in the viewpoint coordinate system to Zc = -1.
1) When tx ≦ 1 Y = vy · tx + y1 and Z = vz · tx + z1 are calculated.
In the case of Yis ≤ Y ≤ Yie and Zis ≤ Z ≤ Zie (when the intersection in the voxel coordinate system exists in the effective voxel region Vr), the intersection Z2 = Zo · (1-tx) in the corresponding viewpoint coordinate system is calculated. , If Z2> Zc, replace with Zc = Z2.
2) When ty ≦ 1 X = vx · ty + x1 and Z = vz · ty + z1 are calculated.
In the case of Xis ≤ X ≤ Xie and Zis ≤ Z ≤ Zie (when the intersection in the voxel coordinate system exists in the effective voxel region Vr), the intersection Z2 = Zo · (1-ty) in the corresponding viewpoint coordinate system is calculated. , If Z2> Zc, replace with Zc = Z2.
3) When tz ≦ 1 X = vx · tz + x1 and Y = vy · tz + y1 are calculated.
In the case of Xis ≤ X ≤ Xie and Yis ≤ Y ≤ Yie (when the intersection in the voxel coordinate system exists in the effective voxel region Vr), the intersection Z2 = Zo · (1-tz) in the corresponding viewpoint coordinate system is calculated. , If Z2> Zc, replace with Zc = Z2.

これにより、図29(左図)に示すように、視点座標系における視点に最も近い交点座標(x、y、Zc)が求まる。 As a result, as shown in FIG. 29 (left figure), the intersection coordinates (x, y, Zc) closest to the viewpoint in the viewpoint coordinate system can be obtained.

(4)視点より手前に算出される交点の補正
tx、ty、tzは負値をとる場合があり、その場合は交点が視点より手前になる。制御部11は、Zc>Zoの場合、Zc=Zoに補正する。すなわち、図30のように、視点座標系における交点座標が視点より手前(不可視領域)に算出された場合、当該交点座標を視点位置に補正する。
(4) Correction of intersections calculated before the viewpoint tx, ty, and tz may take negative values, in which case the intersections are before the viewpoint. When Zc> Zo, the control unit 11 corrects Zc = Zo. That is, as shown in FIG. 30, when the intersection coordinates in the viewpoint coordinate system are calculated in front of the viewpoint (invisible region), the intersection coordinates are corrected to the viewpoint position.

(11−2.起点座標探索処理)
図31のフローチャートを参照して、図28のステップS105において実行される、起点座標zを探索する処理について説明する。
(11-2. Origin coordinate search process)
The process of searching for the starting point coordinate z, which is executed in step S105 of FIG. 28, will be described with reference to the flowchart of FIG. 31.

まず、制御部11は、zをz=Zst(=交点座標Zc)に初期化し、探索対象画素(x、y)を入力する(ステップS121)。続いて、制御部11は、3次元座標(x、y、z)に対して座標変換を行い、ボクセルのα値を取得する(ステップS122)。ボクセルのα値を取得する処理は後述する(「11−3.ボクセルα値を取得(補間なし)」参照)。 First, the control unit 11 initializes z to z = Zst (= intersection coordinates Zc) and inputs the search target pixels (x, y) (step S121). Subsequently, the control unit 11 performs coordinate conversion on the three-dimensional coordinates (x, y, z) and acquires the α value of the voxel (step S122). The process of acquiring the voxel α value will be described later (see “11-3. Obtaining the voxel α value (without interpolation)”).

ステップS122において取得したボクセルのα値がα=0の場合(ボクセルが透明の場合)、制御部11は、z←z−m(例えばm=4)に更新する(ステップS123)。mは探索時のZ軸方向のスキップ幅であり、mが大きいほど高速に探索できるが、スキップ幅が大きすぎると起点座標の探索精度が悪化する場合がある。 When the α value of the voxel acquired in step S122 is α = 0 (when the voxel is transparent), the control unit 11 updates to z ← z−m (for example, m = 4) (step S123). m is the skip width in the Z-axis direction at the time of search, and the larger m is, the faster the search can be performed. However, if the skip width is too large, the search accuracy of the starting coordinate may deteriorate.

ステップS123において更新したzがz<0の場合(ボクセル空間外の場合)、制御部11は、z=−1(起点座標が存在しないことを示す値)を返し(ステップS124)、処理を終了する。z≧0の場合、制御部11は、ステップS122に戻る。 When the updated z in step S123 is z <0 (outside the voxel space), the control unit 11 returns z = -1 (a value indicating that the starting point coordinates do not exist) (step S124), and ends the process. To do. When z ≧ 0, the control unit 11 returns to step S122.

ステップS122において取得したボクセルのα値がα<0の場合(有効ボクセル領域Vrを通過した場合)は、制御部11は、z=−1(起点座標が存在しないことを示す値)を返し(ステップS124)、処理を終了する。 When the α value of the voxel acquired in step S122 is α <0 (when passing through the effective voxel region Vr), the control unit 11 returns z = -1 (a value indicating that the starting coordinate does not exist) (a value indicating that the starting coordinate does not exist). Step S124), the process is terminated.

ステップS122において取得したボクセルのα値がα>0の場合(ボクセルが不透明の場合)、以下のように、Z軸の+方向(視線逆方向)に戻って正確な起点座標を探索する。 When the α value of the voxel acquired in step S122 is α> 0 (when the voxel is opaque), the process returns to the + direction of the Z axis (opposite direction of the line of sight) and searches for accurate starting point coordinates as follows.

制御部11は、まず、iをi=0に初期化し(ステップS125)、i←i+1に更新する(ステップS126)。 First, the control unit 11 initializes i to i = 0 (step S125) and updates i ← i + 1 (step S126).

i≧mまたはz+i≧Zstの場合、制御部11は、z=z+i−1を返し(ステップS128)、処理を終了する。 When i ≧ m or z + i ≧ Zst, the control unit 11 returns z = z + i-1 (step S128) and ends the process.

i<mかつz+i<Zstの場合、3次元座標(x、y、z+i)に対して座標変換を行い、ボクセルのα値を取得する(ステップS127)。ボクセルのα値を取得する処理は後述する(「11−3.ボクセルα値を取得(補間なし)」参照)。 In the case of i <m and z + i <Zst, coordinate conversion is performed on the three-dimensional coordinates (x, y, z + i) to acquire the α value of the voxel (step S127). The process of acquiring the voxel α value will be described later (see “11-3. Obtaining the voxel α value (without interpolation)”).

ステップS127において取得したボクセルのα値がα=0の場合(ボクセルが透明の場合)、制御部11は、z=z+i−1を返し(ステップS128)、処理を終了する。 When the α value of the voxel acquired in step S127 is α = 0 (when the voxel is transparent), the control unit 11 returns z = z + i-1 (step S128), and ends the process.

ステップS127において取得したボクセルのα値がα>0の場合(ボクセルが不透明の場合)、ステップS126に戻り、ステップS126〜S127の処理を繰り返す。 When the α value of the voxel acquired in step S127 is α> 0 (when the voxel is opaque), the process returns to step S126 and the processes of steps S126 to S127 are repeated.

以上のように、先頭の不透明ボクセルのZ座標z(仮想光線の照射を開始する起点座標)を所定のステップ幅で探索することで(ステップS122、S123)、起点座標を高速に特定できる。また、不透明ボクセルが探索された場合、当該ボクセルの位置とステップ幅だけ視線逆方向(Z軸の+方向)に戻った位置との間に存在する可能性がある不透明ボクセルを再探索することで(ステップS126、S127)、起点座標を正確に特定することができる。 As described above, the starting point coordinates can be specified at high speed by searching the Z coordinate z (starting point coordinate for starting irradiation of virtual light rays) of the leading opaque voxel with a predetermined step width (steps S122 and S123). In addition, when an opaque voxel is searched, the opaque voxel that may exist between the position of the voxel and the position returned by the step width in the opposite direction of the line of sight (+ direction of the Z axis) can be searched again. (Steps S126 and S127), the starting point coordinates can be accurately specified.

(11−3.ボクセルα値を取得(補間なし))
図32のフローチャートを参照して、起点座標探索処理(図31)のステップS122およびステップS127において実行される、ボクセルのα値を取得する処理について説明する。
(11-3. Obtain voxel α value (without interpolation))
With reference to the flowchart of FIG. 32, the process of acquiring the α value of the voxel, which is executed in step S122 and step S127 of the origin coordinate search process (FIG. 31), will be described.

まず、制御部11は、与えられた視点座標系の3次元座標値(x、y、z)(整数値)に対して座標変換を行い、対応するボクセルの実数の座標値(xr、yr、zr)を算出する(ステップS131)。ここで座標変換とは、視点座標系をボクセル座標系に変換する処理であり、GUI側の変換処理とは逆になる。GUI側では関心領域ROIによるクリッピング、スケーリング、Z軸方向変倍処理、オフセット(XYZ軸方向同時)、回転、透視変換の順に行うものと仮定し、制御部11は、与えられた視点座標系の3次元座標値(x、y、z)(整数値)に対応するボクセルの実数の座標値(xr、yr、zr)を以下のように算出する。 First, the control unit 11 performs coordinate conversion on the three-dimensional coordinate values (x, y, z) (integer values) of the given viewpoint coordinate system, and performs coordinate values (xr, yr,) of the real numbers of the corresponding voxels. zr) is calculated (step S131). Here, the coordinate conversion is a process of converting the viewpoint coordinate system into a voxel coordinate system, which is the opposite of the conversion process on the GUI side. On the GUI side, it is assumed that clipping by the region of interest ROI, scaling, Z-axis direction scaling processing, offset (simultaneous in the XYZ-axis direction), rotation, and fluoroscopic conversion are performed in this order, and the control unit 11 controls the given viewpoint coordinate system. The real coordinate values (xr, yr, zr) of the voxels corresponding to the three-dimensional coordinate values (x, y, z) (integer values) are calculated as follows.

まず、制御部11は、視点座標系の座標値(x、y、z)(整数値)を次のように実数値(xx、yy、zz)に変換する。視点座標系はSize(X軸方向のサイズ)×Size(Y軸方向のサイズ)×Size/Sray(Z軸方向のサイズ)の直方体で、Sx×Sy×Szの断層画像群Doとは独立して定義される。通常Sx=Sy=512であればSize=512となる。視点座標系のZ軸方向は仮想光線サブサンプル1/Sray倍に伸縮されていることを考慮して、はじめに以下のようにオフセット処理(XYZ軸方向同時)を行う。 First, the control unit 11 converts the coordinate values (x, y, z) (integer values) of the viewpoint coordinate system into real values (xx, yy, zz) as follows. The viewpoint coordinate system is a rectangular parallelepiped of Size (size in the X-axis direction) x Size (size in the Y-axis direction) x Size / Sray (size in the Z-axis direction), and is independent of the tomographic image group Do of Sx x Sy x Sz. Is defined. Normally, if Sx = Sy = 512, Size = 512. Considering that the Z-axis direction of the viewpoint coordinate system is expanded and contracted by the virtual ray subsample 1 / Sray times, first, the offset processing (simultaneous in the XYZ axis directions) is performed as follows.

(式30)
xx=x−Size/2+dx+Xoff
yy=y−Size/2+dy+Yoff
zz=z・Sray−Size/2+dz+Zoff
(Equation 30)
xx = x-Size / 2 + dx + Xoff
yy = y-Size / 2 + dy + Yoff
zz = z · Sray-Size / 2 + dz + Zoff

続いて、制御部11は、以下のように、回転パラメータ行列Rを用いて回転処理(座標変換)を行う。 Subsequently, the control unit 11 performs rotation processing (coordinate conversion) using the rotation parameter matrix R as follows.

(式31)
xx’=R11・xx+R12・yy+R13・zz
yy’=R21・xx+R22・yy+R23・zz
zz’=R31・xx+R32・yy+R33・zz
回転処理後の(xx’、yy’、zz’)を(xx、yy、zz)とする。
(Equation 31)
xx'= R11, xx + R12, yy + R13, zz
yy'= R21 ・ xx + R22 ・ yy + R23 ・ zz
zz'= R31, xx + R32, yy + R33, zz
Let (xx', yy', zz') after the rotation process be (xx, yy, zz).

そして、制御部11は、スケーリング、XYZ軸方向変倍処理を同時に行い、以下のように、ボクセルの座標値(xr、yr、zr)(実数値)を算出する。 Then, the control unit 11 performs scaling and scaling in the XYZ axis directions at the same time, and calculates the coordinate values (xr, yr, zr) (real values) of the voxels as follows.

(式32)
xr=xx/Scale/Scx+Sx/2
yr=yy/Scale/Scy+Sy/2
zr=zz/Scale/Scz+Sz/2
(Equation 32)
xx = xx / Scale / Scx + Sx / 2
yr = yy / Scale / Scy + Sy / 2
zr = zz / Scale / Scz + Sz / 2

続いて、制御部11は、算出したボクセルの座標値(xr、yr、zr)(実数値)に対して、各値に0.5を加算して、以下のように、小数点以下を切り捨て整数化した座標値(xi、yi、zi)(四捨五入した整数値)に変換する(ステップS132)。 Subsequently, the control unit 11 adds 0.5 to each value with respect to the calculated coordinate values (xr, yr, zr) (real values) of the voxel, and rounds down the decimal point as shown below. It is converted into the converted coordinate values (xi, yi, zi) (rounded integer values) (step S132).

(式33)
xi=INT[xr+0.5]
yi=INT[yr+0.5]
zi=INT[zr+0.5]
(Equation 33)
xi = INT [xr + 0.5]
yi = INT [yr + 0.5]
zi = INT [zr + 0.5]

そして、制御部11は、有効ボクセル領域Vr、マスクデータMaskを考慮して、以下のようにボクセルα値を取得する(ステップS133)。 Then, the control unit 11 acquires the voxel α value as follows in consideration of the effective voxel region Vr and the mask data Mask (step S133).

(式34)
1)xi<Xis、xi>Xie、yi<Yis、yi>Yie、zi<Zis、又はzi>Zieのいずれかを満たす場合(有効ボクセル領域Vr外の場合)
α=−1
2)上記1)を満たさない場合
α=Cmap(Do(xi、yi、zi)、3)・Mask(xi、yi、zi)
(Equation 34)
1) When any of xi <Xis, xi> Xie, y <Yis, y> Yie, zi <Zis, or zi> Zie is satisfied (when outside the effective voxel region Vr)
α = -1
2) When the above 1) is not satisfied α = Cmap (Do (xi, y, zi), 3) · Mask (xi, y, zi)

(11−4.ボクセルα値、RGB値の取得(補間あり))
レイキャスティング処理(図28)のステップS106、S108において実行される、ボクセルα値(Vα)、ボクセルRGB値を取得する処理を説明する。
(11-4. Acquisition of voxel α value and RGB value (with interpolation))
The process of acquiring the voxel α value (Vα) and the voxel RGB value, which is executed in steps S106 and S108 of the ray casting process (FIG. 28), will be described.

(11−4−1.ボクセルα値の取得)
図33は、ボクセルα値を取得する処理を示すフローチャートである。
(11-4-1. Acquisition of voxel α value)
FIG. 33 is a flowchart showing a process of acquiring a voxel α value.

まず、制御部11は、図32のステップ131と同様の方法で、視点座標系の3次元座標値(x、y、z)(整数値)に対して座標変換を行い、ボクセルの実数の座標値(xr、yr、zr)を算出する(ステップS141)。 First, the control unit 11 performs coordinate conversion on the three-dimensional coordinate values (x, y, z) (integer values) of the viewpoint coordinate system in the same manner as in step 131 of FIG. 32, and coordinates the real numbers of the voxels. The values (xr, yr, zr) are calculated (step S141).

続いて、制御部11は、算出したボクセルの座標値(xr、yr、zr)(実数値)を、小数点以下を切り捨て整数化した座標値(xi、yi、zi)(整数値)に変換する(ステップS142)。ここで、切り捨てた小数点以下の端数を(wx、wy、wz)(0≦wx、wy、wz<1)とする(すなわち、xr=xi+wx、yr=yi+wy、zr=zi+wz)。 Subsequently, the control unit 11 converts the calculated coordinate values (xr, yr, zr) (real values) of the voxels into coordinate values (xi, y, zi) (integer values) obtained by rounding down the decimal point and converting them into integers. (Step S142). Here, the truncated fraction after the decimal point is (wx, wy, wz) (0 ≦ wx, wy, wz <1) (that is, xr = xi + wx, yr = yi + wy, zr = zi + wz).

そして、制御部11は、有効ボクセル領域Vrを考慮して、視点座標系の3次元座標値(x、y、z)(整数値)に対応する補間対象のボクセルの信号値を断層画像群Doに基づいて以下のように抽出する(ステップS143)。 Then, the control unit 11 considers the effective voxel region Vr, and sets the signal value of the voxel to be interpolated corresponding to the three-dimensional coordinate values (x, y, z) (integer value) of the viewpoint coordinate system to the tomographic image group Do. Is extracted as follows (step S143).

(式35)
1)xi<Xis、xi>Xie、yi<Yis、yi>Yie、zi<Zis、又はzi>Zieのいずれかを満たす場合(有効ボクセル領域Vr外)
D000=−32769(無効の値)
2)上記1)の条件を満たさない場合において、xi+1>Xie、yi+1>Yie、又はzi+1>Zieのいずれかを満たす場合(中央ボクセルを抽出)
D000=Do(xi、yi、zi)
3)上記1)2)の条件を満たさない場合(8近傍ボクセルの信号値を抽出)
D000=Do(xi、yi、zi)
D100=Do(xi+1、yi、zi)
D010=Do(xi、yi+1、zi)
D110=Do(xi+1、yi+1、zi)
D001=Do(xi、yi、zi+1)
D101=Do(xi+1、yi、zi+1)
D011=Do(xi、yi+1、zi+1)
D111=Do(xi+1、yi+1、zi+1)
(Equation 35)
1) When any of xi <Xis, xi> Xie, y <Yis, y> Yie, zi <Zis, or zi> Zie is satisfied (outside the effective voxel region Vr)
D000 = -32769 (invalid value)
2) When the condition of 1) above is not satisfied and either xi + 1> Xie, yi + 1> Yie, or zi + 1> Zie is satisfied (central voxel is extracted).
D000 = Do (xi, yi, zi)
3) When the conditions of 1) and 2) above are not satisfied (signal values of voxels in the vicinity of 8 are extracted).
D000 = Do (xi, yi, zi)
D100 = Do (xi + 1, yi, zi)
D010 = Do (xi, yi + 1, zi)
D110 = Do (xi + 1, yi + 1, zi)
D001 = Do (xi, yi, zi + 1)
D101 = Do (xi + 1, yi, zi + 1)
D011 = Do (xi, yi + 1, zi + 1)
D111 = Do (xi + 1, yi + 1, zi + 1)

続いて、制御部11は、マスクデータMaskに基づいて、抽出した補間対象の各ボクセルのα値(不透明度)に対するマスク値S000〜S111(0または1)を以下のように設定する(ステップS144)。すなわち、各ボクセルのα値(不透明度)を計算に用いるか否かを設定する。 Subsequently, the control unit 11 sets the mask values S000 to S111 (0 or 1) for the α value (opacity) of each voxel to be extracted based on the mask data Mask as follows (step S144). ). That is, it is set whether or not to use the α value (opacity) of each voxel in the calculation.

(式36)
1)xi<Xis、xi>Xie、yi<Yis、yi>Yie、zi<Zis、又はzi>Zieのいずれかを満たす場合(有効ボクセル領域Vr外)
S000=0
2)上記1)の条件を満たさない場合において、xi+1>Xie、yi+1>Yie、又はzi+1>Zieのいずれかを満たす場合(中央ボクセルのマスク値を設定)
S000=Mask(xi、yi、zi)
3)上記1)2)の条件を満たさない場合(8近傍ボクセルのマスク値を設定)
S000=Mask(xi、yi、zi)
S100=Mask(xi+1、yi、zi)
S010=Mask(xi、yi+1、zi)
S110=Mask(xi+1、yi+1、zi)
S001=Mask(xi、yi、zi+1)
S101=Mask(xi+1、yi、zi+1)
S011=Mask(xi、yi+1、zi+1)
S111=Mask(xi+1、yi+1、zi+1)
(Equation 36)
1) When any of xi <Xis, xi> Xie, y <Yis, y> Yie, zi <Zis, or zi> Zie is satisfied (outside the effective voxel region Vr)
S000 = 0
2) When the condition of 1) above is not satisfied and either xi + 1> Xie, yi + 1> Yie, or zi + 1> Zie is satisfied (the mask value of the central voxel is set).
S000 = Mask (xi, yi, zi)
3) When the conditions of 1) and 2) above are not satisfied (set the mask value of 8 voxels in the vicinity).
S000 = Mask (xi, yi, zi)
S100 = Mask (xi + 1, yi, zi)
S010 = Mask (xi, yi + 1, zi)
S110 = Mask (xi + 1, y + 1, zi)
S001 = Mask (xi, yi, zi + 1)
S101 = Mask (xi + 1, yi, zi + 1)
S011 = Mask (xi, yi + 1, zi + 1)
S111 = Mask (xi + 1, yi + 1, zi + 1)

そして、制御部11は、抽出した補間対象ボクセルの信号値に基づいて、視点座標系の3次元座標値(x、y、z)(整数値)に対応するボクセルのα値Vαを以下のように取得する(ステップS145)。 Then, the control unit 11 sets the α value Vα of the voxel corresponding to the three-dimensional coordinate value (x, y, z) (integer value) of the viewpoint coordinate system as follows, based on the signal value of the extracted voxel to be interpolated. (Step S145).

(式37)
1)xi<Xis、xi>Xie、yi<Yis、yi>Yie、zi<Zis、又はzi>Zieのいずれかを満たす場合(有効ボクセル領域Vr外)
Vα=−1
2)上記1)の条件を満たさず、xi=Xis、xi=Xie、yi=Yis、yi=Yie、zi=Zis、又はzi=Zieのいずれかを満たす場合(有効ボクセル領域Vrの境界面)
Vα=0
3)上記1)2)の条件を満たさず、xi+1>Xie、yi+1>Yie、又はzi+1>Zieのいずれかを満たす場合(補間しない)
Vα=Cmap(D000、3)・S000
4)上記1)2)3)の条件を満たさない場合(補間する)
Vα=(1−wz)(1−wy)(1−wx)・Cmap(D000、3)・S000+(1−wz)(1−wy)・wx・Cmap(D100、3)・S100+(1−wz)・wy・(1−wx)・Cmap(D010、3)・S010+(1−wz)・wy・wx・Cmap(D110、3)・S110+wz・(1−wy)(1−wx)・Cmap(D001、3)・S001+wz・(1−wy)・wx・Cmap(D101、3)・S101+wz・wy・(1−wx)・Cmap(D011、3)・S011+wz・wy・wx・Cmap(D111、3)・S111
(Equation 37)
1) When any of xi <Xis, xi> Xie, y <Yis, y> Yie, zi <Zis, or zi> Zie is satisfied (outside the effective voxel region Vr)
Vα = -1
2) When the condition of 1) above is not satisfied and any one of xi = Xis, xi = Xie, y = Yis, y = Yie, zi = Zis, or zi = Zie is satisfied (boundary surface of effective voxel region Vr).
Vα = 0
3) When the above conditions 1) and 2) are not satisfied and either xi + 1> Xie, yi + 1> Yie, or zi + 1> Zie is satisfied (no interpolation).
Vα = Cmap (D000, 3) · S000
4) When the above conditions 1) 2) 3) are not satisfied (interpolate)
Vα = (1-wz) (1-wy) (1-wx) ・ Cmap (D000, 3) ・ S000 + (1-wz) (1-wy) ・ wx ・ Cmap (D100, 3) ・ S100 + (1- wz), wy, (1-wx), Cmap (D010, 3), S010 + (1-wz), wy, wx, Cmap (D110, 3), S110 + wz, (1-wy) (1-wx), Cmap (D001, 3), S001 + wz, (1-wy), wx, Cmap (D101, 3), S101 + wz, wy, (1-wx), Cmap (D011, 3), S011 + wz, wy, wx, Cmap (D111, 3) ・ S111

(11−4−2.ボクセルRGB値の取得)
制御部11は、ステップS143において抽出した補間対象ボクセルの信号値に基づいて、視点座標系の3次元座標値(x、y、z)(整数値)に対応するボクセルRGB値(Vc(n))(0≦n≦2)を以下のように取得する。なお、RGB値を取得する場合には、S000、S100、・・・、S111を乗算するマスク処理を行わない。これにより、マスク境界面でのモアレの発生を抑制する。
(11-4-2. Acquisition of voxel RGB values)
The control unit 11 has a voxel RGB value (Vc (n)) corresponding to a three-dimensional coordinate value (x, y, z) (integer value) of the viewpoint coordinate system based on the signal value of the voxel to be interpolated extracted in step S143. ) (0 ≦ n ≦ 2) is acquired as follows. When acquiring the RGB value, the mask process for multiplying S000, S100, ..., S111 is not performed. As a result, the occurrence of moire on the mask boundary surface is suppressed.

(式38)
1)xi<Xis、xi>Xie、yi<Yis、yi>Yie、zi<Zis、又はzi>Zieのいずれかを満たす場合(有効ボクセル領域Vr外)
Vc(n)=0 (0≦n≦2)
2)上記1)の条件を満たさず、xi+1>Xie、yi+1>Yie、又はzi+1>Zieのいずれかを満たす場合(補間しない)
Vc(n)=Cmap(D000、n) (0≦n≦2)
3)上記1)2)の条件を満たさない場合(補間する)
Vc(n)=(1−wz)(1−wy)(1−wx)・Cmap(D000、n)+(1−wz)(1−wy)・wx・Cmap(D100、n)+(1−wz)・wy・(1−wx)・Cmap(D010、n)+(1−wz)・wy・wx・Cmap(D110、n)+wz・(1−wy)(1−wx)・Cmap(D001、n)+wz・(1−wy)・wx・Cmap(D101、n)+wz・wy・(1−wx)・Cmap(D011、n)+wz・wy・wx・Cmap(D111、n) (0≦n≦2)
(Equation 38)
1) When any of xi <Xis, xi> Xie, y <Yis, y> Yie, zi <Zis, or zi> Zie is satisfied (outside the effective voxel region Vr)
Vc (n) = 0 (0 ≦ n ≦ 2)
2) When the condition of 1) above is not satisfied and either xi + 1> Xie, yi + 1> Yie, or zi + 1> Zie is satisfied (no interpolation).
Vc (n) = Cmap (D000, n) (0 ≦ n ≦ 2)
3) When the above conditions 1) and 2) are not satisfied (interpolate)
Vc (n) = (1-wz) (1-wy) (1-wx) · Cmap (D000, n) + (1-wz) (1-wy) · wx · Cmap (D100, n) + (1 -Wz), wy, (1-wx), Cmap (D010, n) + (1-wz), wy, wx, Cmap (D110, n) + wz, (1-wy) (1-wx), Cmap ( D001, n) + wz · (1-wy) · wx · Cmap (D101, n) + wz · wy · (1-wx) · Cmap (D011, n) + wz · wy · wx · Cmap (D111, n) (0 ≦ n ≦ 2)

(11−5.陰影計算)
制御部11は、必要に応じて、次のように陰影計算を行ってもよい。
まず、光源ベクトル(Lx、Ly、Lz)(単位ベクトル)を設定する。例えば、(Lx、Ly、Lz)=(0.57735、0.57735、0.57735)と設定する。また、環境光成分Ab(0≦Ab≦1、例えばAb=0.2)を設定する。
(11-5. Shading calculation)
The control unit 11 may perform the shadow calculation as follows, if necessary.
First, the light source vector (Lx, Ly, Lz) (unit vector) is set. For example, (Lx, Ly, Lz) = (0.57735, 0.57735, 0.57735) is set. Further, the ambient light component Ab (0 ≦ Ab ≦ 1, for example, Ab = 0.2) is set.

続いて、制御部11は、次のように、座標変換により算出された3次元座標(xi、yi、zi)における6近傍ボクセルの不透明度V100、V200、V010、V020、V001、V002を取得する。但し、xi+1>XieのときV100=0、xi−1<XisのときV200=0、yi+1>YieのときV010=0、yi−1<YisのときV020=0、zi+1<ZisのときV001=0、zi−1<ZisのときV002=0とする。すなわち、隣接するボクセルがクリッピング範囲の場合は不透明度を0として扱う。 Subsequently, the control unit 11 acquires the opacity V100, V200, V010, V020, V001, and V002 of the 6-neighboring voxels at the three-dimensional coordinates (xi, yi, zi) calculated by the coordinate transformation as follows. .. However, when xi + 1> Xie, V100 = 0, when xi-1 <Xis, V200 = 0, when yi + 1> Yie, V010 = 0, when y-1 <Yis, V020 = 0, and when zi + 1 <Zis, V001 = 0. , Zi-1 <Zis, V002 = 0. That is, when the adjacent voxels are in the clipping range, the opacity is treated as 0.

(式39)
V100=Cmap(Do(xi+1、yi、zi)、3)・Mask(xi+1、yi、zi)
V200=Cmap(Do(xi−1、yi、zi)、3)・Mask(xi−1、yi、zi)
V010=Cmap(Do(xi、yi+1、zi)、3)・Mask(xi、yi+1、zi)
V020=Cmap(Do(xi、yi−1、zi)、3)・Mask(xi、yi−1、zi)
V001=Cmap(Do(xi、yi、zi+1)、3)・Mask(xi、yi、zi+1)
V002=Cmap(Do(xi、yi、zi−1)、3)・Mask(xi、yi、zi−1)
(Equation 39)
V100 = Cmap (Do (xi + 1, y, zi), 3) · Mask (xi + 1, y, zi)
V200 = Cmap (Do (xi-1, yi, zi), 3), Mask (xi-1, yi, zi)
V010 = Cmap (Do (xi, y + 1, zi), 3) · Mask (xi, y + 1, zi)
V020 = Cmap (Do (xi, y-1, zi), 3) · Mask (xi, y-1, zi)
V001 = Cmap (Do (xi, y, zi + 1), 3) · Mask (xi, y, zi + 1)
V002 = Cmap (Do (xi, y, zi-1), 3) · Mask (xi, y, zi-1)

続いて、制御部11は、座標変換により算出された3次元座標(xi、yi、zi)における勾配ベクトル(Gx、Gy、Gz)を、以下の式で算出する。 Subsequently, the control unit 11 calculates the gradient vector (Gx, Gy, Gz) in the three-dimensional coordinates (xi, yi, zi) calculated by the coordinate transformation by the following formula.

(式40)
Gx=(V100−V200)・Scx
Gy=(V010−V020)・Scy
Gz=(V001−V002)・Scz
G={Gx+Gy+Gz1/2
(Equation 40)
Gx = (V100-V200) · Scx
Gy = (V010-V020) · Scy
Gz = (V001-V002) · Scz
G = {Gx 2 + Gy 2 + Gz 2 } 1/2

続いて、G≧1の場合、制御部11は、輝度値(陰影値)S(0≦S≦1)として拡散反射成分を算出し、 Subsequently, when G ≧ 1, the control unit 11 calculates the diffuse reflection component as the luminance value (shadow value) S (0 ≦ S ≦ 1).

(式41)
S=(1−Ab)|Gx・Lx+Gy・Ly+Gz・Lz|/G+Ab
(Equation 41)
S = (1-Ab) | Gx · Lx + Gy · Ly + Gz · Lz | / G + Ab

を与える。G<1の場合(αが変化しない場合)、制御部11は、輝度値(陰影値)Sとして、S=0を与える。 give. When G <1 (when α does not change), the control unit 11 gives S = 0 as the luminance value (shadow value) S.

そして、制御部11は、 Then, the control unit 11

(式42)
Vc’(n)=S・Vc(n)
(Equation 42)
Vc'(n) = S · Vc (n)

とし、算出されたRGB値Vc(n)(0≦n≦2)の成分を改変する。 Then, the component of the calculated RGB value Vc (n) (0 ≦ n ≦ 2) is modified.

以上、図25〜図33を参照しながら、ボリュームレンダリング画像を生成する処理を説明した。マスクデータMaskに基づいて断層画像群Doの各ボクセルの不透明度に対するマスク値を設定したうえで、断層画像群Doの各ボクセルにカラーマップCmap(オパシティカーブ)を適用して、ボクセルα値を取得(補間計算)することで、マスクデータMaskの描画・非描画情報が反映されたボリュームレンダリング画像を生成することができる。 The process of generating the volume rendered image has been described above with reference to FIGS. 25 to 33. After setting the mask value for the opacity of each voxel of the tomographic image group Do based on the mask data Mask, apply the color map Cmap (opacity curve) to each voxel of the tomographic image group Do to obtain the voxel α value. By (interpolation calculation), it is possible to generate a volume rendering image in which the drawing / non-drawing information of the mask data Mask is reflected.

(12.MIP画像の生成)
次に、図34〜図40を参照しながら、MIP画像を生成する処理を説明する。
(12. Generation of MIP image)
Next, the process of generating the MIP image will be described with reference to FIGS. 34 to 40.

図34は、MIP画像を生成する処理の全体の流れを示すフローチャートである。 FIG. 34 is a flowchart showing the entire flow of the process of generating the MIP image.

まず、制御部11は、必要に応じて、ユーザからクリッピング領域ROI((式22)参照)の設定を受け付ける(ステップS161)。 First, the control unit 11 receives a setting of the clipping region ROI (see (Equation 22)) from the user as needed (step S161).

続いて、制御部11は、有効ボクセル領域Vrを算出する(ステップS162)。具体的には、図35に示すように、制御部11は、信号値が所定の閾値以上(例えば、空気でない信号値以上)であるボクセルを有効ボクセルとし、これらの有効ボクセルを全て含み、かつ有効ボクセルに外接する直方体を有効ボクセル領域Vrとして算出する。クリッピング領域ROIやマスクデータMaskが設定されている場合は、制御部11は、クリッピングROIやマスクデータMaskにより規定された描画範囲内において、信号値が所定の閾値以上(例えば、空気でない信号値以上)であるボクセルを有効ボクセルとし、これらの有効ボクセルを全て含み、かつ有効ボクセルに外接する直方体を有効ボクセル領域Vrとして算出する。 Subsequently, the control unit 11 calculates the effective voxel region Vr (step S162). Specifically, as shown in FIG. 35, the control unit 11 sets voxels whose signal values are equal to or higher than a predetermined threshold value (for example, equal to or higher than non-air signal values) as effective voxels, includes all of these effective voxels, and The rectangular parallelepiped circumscribing the effective voxel is calculated as the effective voxel region Vr. When the clipping region ROI and the mask data Mask are set, the control unit 11 sets the signal value to be equal to or higher than a predetermined threshold value (for example, equal to or higher than the non-air signal value) within the drawing range defined by the clipping ROI or the mask data Mask. ) Is defined as an effective voxel, and a rectangular body including all of these effective voxels and circumscribing the effective voxel is calculated as an effective voxel region Vr.

そして、制御部11は、ステップS71(図24)において取得した断層画像群Do(3次元ボクセル)、ステップS73(図24)において生成されたマスクデータMask、ステップS161(図34)において設定されたクリッピング領域ROI、ステップS162(図34)において算出された有効ボクセル領域Vrを参照して、MIP画像ImageMIPを生成する(ステップS163)。 Then, the control unit 11 is set in the tomographic image group Do (three-dimensional voxel) acquired in step S71 (FIG. 24), the mask data Mask generated in step S73 (FIG. 24), and step S161 (FIG. 34). The MIP image ImageMIP is generated with reference to the clipping region ROI and the effective voxel region Vr calculated in step S162 (FIG. 34) (step S163).

特に本開示では、制御部11は、レイキャスティング処理において、マスクデータMaskに基づいて断層画像群Doの各ボクセルの信号値に対するマスク値を設定したうえで(後述する図40のステップS224)、断層画像群Doの各ボクセルの信号値を取得(補間計算)し(後述する図40のステップS225)、MIP画像ImageMIPを生成する。これにより、被写体形状(幾何形状)に基づいて生成したマスクデータMaskの描画・非描画情報が反映されたMIP画像が生成される。 In particular, in the present disclosure, in the ray casting process, the control unit 11 sets the mask value for the signal value of each voxel of the tomographic image group Do based on the mask data Mask (step S224 in FIG. 40 described later), and then the fault. The signal value of each voxel of the image group Do is acquired (interpolation calculation) (step S225 in FIG. 40 described later), and a MIP image ImageMIP is generated. As a result, a MIP image that reflects the drawing / non-drawing information of the mask data Mask generated based on the subject shape (geometric shape) is generated.

図36は、ステップS163において実行される、MIP画像ImageMIPを生成する具体的な処理の流れを示す。
まず、制御部11は、座標変換パラメータを設定する(ステップS171)。座標変換パラメータの設定は、前記した図27のステップS91と同様である。
FIG. 36 shows a specific flow of processing for generating a MIP image ImageMIP, which is executed in step S163.
First, the control unit 11 sets the coordinate conversion parameters (step S171). The setting of the coordinate conversion parameter is the same as in step S91 of FIG. 27 described above.

続いて、制御部11は、レイキャスティング処理(各座標(x、y)毎に代表信号値を算出する処理)を実行する(ステップS172)。 Subsequently, the control unit 11 executes a ray casting process (a process of calculating a representative signal value for each coordinate (x, y)) (step S172).

<レイキャスティング処理>
図37のフローチャートを参照して、レイキャスティング処理について説明する。生成するMIP画像ImageMIP(x、y)は断層画像群Doの階調に基づいてモノクロ8ビットまたは16ビットの値をもつが、図24のステップS71において断層画像群Doに対する階調圧縮処理を施さない場合が多く、その場合はモノクロ16ビットになる。以下、モノクロ(16ビット)のMIP画像ImageMIP(x、y)を生成する場合について説明する。
<Ray casting process>
The ray casting process will be described with reference to the flowchart of FIG. 37. The generated MIP image ImageMIP (x, y) has a monochrome 8-bit or 16-bit value based on the gradation of the tomographic image group Do, and the tomographic image group Do is subjected to gradation compression processing in step S71 of FIG. In many cases, it is monochrome 16-bit. Hereinafter, a case where a monochrome (16-bit) MIP image ImageMIP (x, y) is generated will be described.

制御部11は、まず、生成するモノクロ(16ビット)のMIP画像ImageMIP(x、y)の初期値を全て0に設定する(ImageMIP(x、y)=0)。また、代表信号値算出モードmode(0:MIP、1:MinIP、2:RaySum)を設定し、各2次元座標(x、y)(0≦x≦Size−1、0≦y≦Size−1)に対して、以下の処理を実行する。 First, the control unit 11 sets all the initial values of the monochrome (16-bit) MIP image ImageMIP (x, y) to be generated to 0 (ImageMIP (x, y) = 0). Further, the representative signal value calculation mode mode (0: MIP, 1: MinIP, 2: RaySum) is set, and the two-dimensional coordinates (x, y) (0 ≦ x ≦ Size-1, 0 ≦ y ≦ Size-1) are set. ), The following processing is executed.

制御部11は、x=0、y=0と設定し(ステップS181)、有効ボクセル領域Vrと仮想光線との交点のZ座標(Zc)を算出する(ステップS182)。交点のZ座標を算出する処理は、前記した図28のステップS103の処理と同様である(「11−1.交点算出処理」参照)。 The control unit 11 sets x = 0 and y = 0 (step S181), and calculates the Z coordinate (Zc) of the intersection of the effective voxel region Vr and the virtual ray (step S182). The process of calculating the Z coordinate of the intersection is the same as the process of step S103 of FIG. 28 described above (see “11-1. Intersection calculation process”).

続いて、制御部11は、代表信号値算出モードmodeに応じて、代表信号値Vmとカウンタcntを以下のように初期化し、Zst=Zcとする(ステップS183)。 Subsequently, the control unit 11 initializes the representative signal value Vm and the counter ct as follows according to the representative signal value calculation mode mode, and sets Zst = Zc (step S183).

(式43)
mode=0(MIP):Vm=−32768(最小値を設定)
mode=1(MinIP):Vm=32767(最大値を設定)
mode=2(RaySum):Vm=0、cnt=0
(Equation 43)
mode = 0 (MIP): Vm = -32768 (set the minimum value)
mode = 1 (MinIP): Vm = 32767 (set the maximum value)
mode = 2 (RaySum): Vm = 0, ct = 0

続いて、制御部11は、Zstから後続する先頭の有効ボクセル(信号値が所定の閾値以上のボクセル)のZ座標z(起点座標)を探索する(ステップS184)。すなわち、ステップS182において算出された交点から視線方向に向かってレイキャスティング計算を開始する起点座標を探索する。起点座標を探索する処理については後述する(「12−1.起点座標探索処理」、図38参照)。 Subsequently, the control unit 11 searches for the Z coordinate z (starting point coordinate) of the leading effective voxel (the voxel whose signal value is equal to or higher than a predetermined threshold value) following Zst (step S184). That is, the starting point coordinates for starting the ray casting calculation from the intersection calculated in step S182 toward the line of sight are searched for. The process of searching for the starting point coordinates will be described later (see “12-1. Starting point coordinate search processing”, FIG. 38).

z<0の場合、ステップS189へ移行する。 If z <0, the process proceeds to step S189.

一方、z≧0の場合、制御部11は、3次元座標(x、y、z)を座標変換してボクセル信号値Vsを取得する(ステップS185)。ボクセル信号値Vsを取得する処理については後述する(「12−3.ボクセル信号値Vsを取得(補間あり)」参照)。 On the other hand, when z ≧ 0, the control unit 11 transforms the three-dimensional coordinates (x, y, z) to acquire the voxel signal value Vs (step S185). The process of acquiring the voxel signal value Vs will be described later (see "12-3. Acquiring the voxel signal value Vs (with interpolation)").

ステップS185において取得したボクセル信号値VsがVs=−32769の場合(有効ボクセル領域Vrを通過した場合)、ステップS189へ移行する。これにより、有効ボクセル領域Vrを通過している場合(Vs=−32769)は、その先に描画対象のボクセルは存在しないため、レイキャスティング処理を早期に打ち切り、冗長な処理を省略する。 When the voxel signal value Vs acquired in step S185 is Vs = -327769 (when passing through the effective voxel region Vr), the process proceeds to step S189. As a result, when the voxel region Vr has passed (Vs = -327769), the voxel to be drawn does not exist after that, so the ray casting process is terminated early and redundant processing is omitted.

ステップS185において取得したボクセル信号値VsがVs<−32769の場合(無効値の場合)、Zst=z−1としたうえで(ステップS186)、ステップS184に戻り、起点座標を再度探索する。 When the voxel signal value Vs acquired in step S185 is Vs <-32769 (in the case of an invalid value), Zst = z-1 is set (step S186), the process returns to step S184, and the starting point coordinates are searched again.

ステップS185において取得したボクセル信号値VsがVs≧−32768の場合(有効値の場合)、制御部11は、代表信号値算出モードmodeに応じて、以下のように代表信号値Vmを算出する(ステップS187)。 When the voxel signal value Vs acquired in step S185 is Vs ≧ -32768 (when it is an effective value), the control unit 11 calculates the representative signal value Vm as follows according to the representative signal value calculation mode mode (when it is a valid value). Step S187).

(式44)
mode=0(MIP mode):
Vs>VmならばVm=Vs
mode=1(MinIP mode):
Vs<VmならばVm=Vs
mode=2(RaySum mode):
Vm←Vm+Vs、cnt←cnt+1
(Equation 44)
mode = 0 (MIP mode):
If Vs> Vm, then Vm = Vs
mode = 1 (MinIP mode):
If Vs <Vm, then Vm = Vs
mode = 2 (RaySum mode):
Vm ← Vm + Vs, ct ← cnt + 1

z=z−1に更新し(ステップS188)、z≧0の場合、ステップS185に戻り、z<0の場合、ステップS189へ移行する。 It is updated to z = z-1 (step S188), and if z ≧ 0, the process returns to step S185, and if z <0, the process proceeds to step S189.

ステップ189において、mode=0、1の場合(ステップS189;mode<2)には、制御部11は、ステップS187で得られた代表信号値Vmを画素値として記録する(ImageMIP(x、y)=Vm、ステップS191)。一方、mode=2(RaySum mode)の場合(ステップS189;mode=2)には、制御部11は、Vm←Vm/cntのように信号値の平均を計算したうえで(ステップS190)、代表信号値Vmを画素値として記録する(ImageMIP(x、y)=Vm、ステップS191)。 In step 189, when mode = 0 and 1 (step S189; mode <2), the control unit 11 records the representative signal value Vm obtained in step S187 as a pixel value (ImageMIP (x, y). = Vm, step S191). On the other hand, in the case of mode = 2 (RaySum mode) (step S189; mode = 2), the control unit 11 calculates the average of the signal values as Vm ← Vm / ct (step S190), and then represents the representative. The signal value Vm is recorded as a pixel value (ImageMIP (x, y) = Vm, step S191).

続いて、制御部11は、x←x+1に更新し(ステップS192)、x<Sizeの場合、ステップS182に戻り、次の画素xの代表信号値Vmを求める処理(ステップS182〜S191)を実行する。x≧Sizeの場合、y←y+1に更新し(ステップS193)、y≦Sizeの場合、x=0としたうえで、ステップS182に戻り、y行目の画素(x、y)の代表信号値Vmを求める処理(ステップS182〜S191)を繰り返す。y>Sizeの場合、制御部11は、処理を終了する。
すなわち、画素領域の全画素の代表信号値Vmが得られるまで(ステップS192;x≧Size、かつ、ステップS193;y>Size)、ステップS182〜S191の処理を繰り返す。
Subsequently, the control unit 11 updates to x ← x + 1 (step S192), and if x <Size, returns to step S182 and executes a process (steps S182 to S191) for obtaining the representative signal value Vm of the next pixel x. To do. If x ≧ Size, update to y ← y + 1 (step S193), if y ≦ Size, set x = 0, return to step S182, and return to the representative signal value of the pixel (x, y) on the y-th row. The process of obtaining Vm (steps S182 to S191) is repeated. When y> Size, the control unit 11 ends the process.
That is, the processing of steps S182 to S191 is repeated until the representative signal values Vm of all the pixels in the pixel region are obtained (step S192; x ≧ Size and step S193; y> Size).

図36のフローチャートに戻る。
制御部11は、ステップS172において生成したMIP画像ImageMIPを出力する(ステップS173)。
Return to the flowchart of FIG.
The control unit 11 outputs the MIP image ImageMIP generated in step S172 (step S173).

(12−1.起点座標探索処理)
図38のフローチャートを参照して、図37のステップS184において実行される、起点座標を探索する処理について説明する。
(12-1. Origin coordinate search process)
The process of searching for the starting point coordinates, which is executed in step S184 of FIG. 37, will be described with reference to the flowchart of FIG. 38.

まず、制御部11は、zをz=Zstと初期化し、探索対象画素(x、y)を入力する(ステップS201)。続いて、制御部11は、3次元座標(x、y、z)に対して座標変換を行い、ボクセル信号値Vsを取得する(ステップS202)。ボクセル信号値Vsを取得する処理は後述する(「12−2.ボクセル信号値Vsを取得(補間なし)」参照)。 First, the control unit 11 initializes z to z = Zst and inputs the search target pixels (x, y) (step S201). Subsequently, the control unit 11 performs coordinate conversion on the three-dimensional coordinates (x, y, z) and acquires the voxel signal value Vs (step S202). The process of acquiring the voxel signal value Vs will be described later (see "12-2. Acquiring the voxel signal value Vs (without interpolation)").

ステップS202において取得したボクセル信号値VsがVs=−32769の場合(有効ボクセル領域Vrを通過した場合)、制御部11は、z=−1(起点座標が存在しないことを示す値)を返し(ステップS204)、処理を終了する。 When the voxel signal value Vs acquired in step S202 is Vs = -32769 (when passing through the effective voxel region Vr), the control unit 11 returns z = -1 (a value indicating that the starting coordinate does not exist) (a value indicating that the starting coordinate does not exist). Step S204), the process is terminated.

一方、ステップS202において取得したボクセル信号値Vs<−32769の場合(無効値の場合)は、制御部11は、z←z−1に更新する(ステップS203)。 On the other hand, when the voxel signal value Vs <-327769 acquired in step S202 (in the case of an invalid value), the control unit 11 updates to z ← z-1 (step S203).

ステップS203において更新したzがz<0の場合、制御部11は、z=−1(起点座標が存在しないことを示す値)を返し(ステップS204)、処理を終了する。z≧0の場合、制御部11は、ステップS202に戻る。 When z <0 is updated in step S203, the control unit 11 returns z = -1 (a value indicating that the starting point coordinates do not exist) (step S204), and ends the process. When z ≧ 0, the control unit 11 returns to step S202.

一方、ステップS202において取得したボクセル信号値VsがVs≧−32768の場合(有効ボクセルの場合)、制御部11は、zを起点座標として出力する。 On the other hand, when the voxel signal value Vs acquired in step S202 is Vs ≧ -32768 (in the case of an effective voxel), the control unit 11 outputs z as the starting coordinate.

(12−2.ボクセル信号値Vsを取得(補間なし))
図39のフローチャートを参照して、起点座標探索処理(図38)のステップS202において実行される、ボクセル信号値Vsを取得する処理について説明する。
(12-2. Acquire voxel signal value Vs (without interpolation))
The process of acquiring the voxel signal value Vs, which is executed in step S202 of the origin coordinate search process (FIG. 38), will be described with reference to the flowchart of FIG. 39.

まず、制御部11は、図32のステップS131と同様の方法で、視点座標系の3次元座標値(x、y、z)(整数値)に対して座標変換を行い、ボクセルの実数の座標値(xr、yr、zr)を算出し(ステップS211)、図32のステップS132と同様の方法で、算出したボクセルの実数の座標値(xr、yr、zr)(実数値)を整数の座標値(xi、yi、zi)に変換する(ステップS212)。 First, the control unit 11 performs coordinate conversion on the three-dimensional coordinate values (x, y, z) (integer values) of the viewpoint coordinate system in the same manner as in step S131 of FIG. 32, and coordinates the real numbers of the boxel. The values (xr, yr, zr) are calculated (step S211), and the calculated real number coordinate values (xr, yr, zr) (real values) of the boxel are converted into integer coordinates in the same manner as in step S132 of FIG. Convert to a value (xi, yi, zi) (step S212).

そして、制御部11は、有効ボクセル領域Vr、マスクデータMaskを考慮して、以下のようにボクセル信号値Vsを取得する(ステップS213)。 Then, the control unit 11 acquires the voxel signal value Vs as follows in consideration of the effective voxel region Vr and the mask data Mask (step S213).

(式45)
1)xi<Xis、xi>Xie、yi<Yis、yi>Yie、zi<Zis、又はzi>Zieのいずれかを満たす場合(有効ボクセル領域Vr外の場合)
Vs=−32769
2)上記1)を満たさず、Mask(x、y、z)=0の場合(無効値)
Vs=−99999
3)上記1)2)を満たさない場合(有効値)
Vs=Do(xi、yi、zi)
(Equation 45)
1) When any of xi <Xis, xi> Xie, y <Yis, y> Yie, zi <Zis, or zi> Zie is satisfied (when outside the effective voxel region Vr)
Vs = -32769
2) When Mask (x, y, z) = 0 without satisfying 1) above (invalid value)
Vs = -99999
3) When the above 1) and 2) are not satisfied (valid value)
Vs = Do (xi, yi, zi)

(12−3.ボクセル信号値Vsの取得(補間あり))
図40のフローチャートを参照して、レイキャスティング処理(図37)のステップS185において実行される、ボクセル信号値Vsを取得する処理を説明する。
(12-3. Acquisition of voxel signal value Vs (with interpolation))
The process of acquiring voxel signal values Vs, which is executed in step S185 of the ray casting process (FIG. 37), will be described with reference to the flowchart of FIG. 40.

まず、制御部11は、図33のステップS141と同様の方法で、視点座標系の3次元座標値(x、y、z)(整数値)に対して座標変換を行い、ボクセルの実数の座標値(xr、yr、zr)を算出し(ステップS221)、図33のステップS142と同様の方法で、算出したボクセルの実数の座標値(xr、yr、zr)(実数値)を、小数点以下を切り捨て整数化した座標値(xi、yi、zi)に変換する(ステップS222)。切り捨てた小数点以下の端数を(wx、wy、wz)(0≦wx、wy、wz<1)とする(すなわち、xr=xi+wx、yr=yi+wy、zr=zi+wz)。 First, the control unit 11 performs coordinate conversion on the three-dimensional coordinate values (x, y, z) (integer values) of the viewpoint coordinate system in the same manner as in step S141 of FIG. 33, and coordinates the real numbers of the boxel. The values (xr, yr, zr) are calculated (step S221), and the calculated coordinate values (xr, yr, zr) (real values) of the real numbers of the boxel are calculated in the same manner as in step S142 of FIG. Is converted into a coordinate value (xi, yi, zi) converted into an integer by truncating (step S222). The truncated fraction after the decimal point is (wx, wy, wz) (0 ≦ wx, wy, wz <1) (that is, xr = xi + wx, yr = yi + wy, zr = zi + wz).

続いて、制御部11は、以下のように、視点座標系の3次元座標値(x、y、z)(整数値)に対応する補間対象のボクセルの信号値D000、D100、D010、D001、D101、D011、D111を抽出する(ステップS223)。 Subsequently, the control unit 11 sets the signal values D000, D100, D010, D001, of the voxel to be interpolated corresponding to the three-dimensional coordinate values (x, y, z) (integer values) of the viewpoint coordinate system as follows. D101, D011, and D111 are extracted (step S223).

(式46)
1)xi<Xis、xi>Xie、yi<Yis、yi>Yie、zi<Zis、又はzi>Zieのいずれかを満たす場合(有効ボクセル領域Vr外)
D000=−32769(無効の値)
2)上記1)の条件を満たさない場合において、xi+1>Xie、yi+1>Yie、又はzi+1>Zieのいずれかを満たす場合(中央ボクセルを抽出)
D000=Do(xi、yi、zi)
3)上記1)2)の条件を満たさない場合(8近傍ボクセルの信号値を抽出)
D000=Do(xi、yi、zi)
D100=Do(xi+1、yi、zi)
D010=Do(xi、yi+1、zi)
D110=Do(xi+1、yi+1、zi)
D001=Do(xi、yi、zi+1)
D101=Do(xi+1、yi、zi+1)
D011=Do(xi、yi+1、zi+1)
D111=Do(xi+1、yi+1、zi+1)
(Equation 46)
1) When any of xi <Xis, xi> Xie, y <Yis, y> Yie, zi <Zis, or zi> Zie is satisfied (outside the effective voxel region Vr)
D000 = -32769 (invalid value)
2) When the condition of 1) above is not satisfied and either xi + 1> Xie, yi + 1> Yie, or zi + 1> Zie is satisfied (central voxel is extracted).
D000 = Do (xi, yi, zi)
3) When the conditions of 1) and 2) above are not satisfied (signal values of voxels in the vicinity of 8 are extracted).
D000 = Do (xi, yi, zi)
D100 = Do (xi + 1, yi, zi)
D010 = Do (xi, yi + 1, zi)
D110 = Do (xi + 1, yi + 1, zi)
D001 = Do (xi, yi, zi + 1)
D101 = Do (xi + 1, yi, zi + 1)
D011 = Do (xi, yi + 1, zi + 1)
D111 = Do (xi + 1, yi + 1, zi + 1)

続いて、制御部11は、マスクデータMaskに基づいて、抽出した補間対象の各ボクセルの信号値に対するマスク値S000〜S111(0または1)を以下のように設定する(ステップS224)。すなわち、各ボクセルの信号値を計算に用いるか否かを設定する。 Subsequently, the control unit 11 sets the mask values S000 to S111 (0 or 1) for the signal value of each voxel to be extracted based on the mask data Mask as follows (step S224). That is, it is set whether or not the signal value of each voxel is used for the calculation.

(式47)
1)1)xi<Xis、xi>Xie、yi<Yis、yi>Yie、zi<Zis、又はzi>Zieのいずれかを満たす場合(有効ボクセル領域Vr外)
S000=0
2)上記1)の条件を満たさない場合において、xi+1>Xie、yi+1>Yie、又はzi+1>Zieのいずれかを満たす場合(中央ボクセルのマスク値を設定)
S000=Mask(xi、yi、zi)
3)上記1)2)の条件を満たさない場合(8近傍ボクセルのマスク値を設定)
S000=Mask(xi、yi、zi)
S100=Mask(xi+1、yi、zi)
S010=Mask(xi、yi+1、zi)
S110=Mask(xi+1、yi+1、zi)
S001=Mask(xi、yi、zi+1)
S101=Mask(xi+1、yi、zi+1)
S011=Mask(xi、yi+1、zi+1)
S111=Mask(xi+1、yi+1、zi+1)
(Equation 47)
1) 1) When any of xi <Xis, xi> Xie, y <Yis, y> Yie, zi <Zis, or zi> Zie is satisfied (outside the effective voxel region Vr)
S000 = 0
2) When the condition of 1) above is not satisfied and either xi + 1> Xie, yi + 1> Yie, or zi + 1> Zie is satisfied (the mask value of the central voxel is set).
S000 = Mask (xi, yi, zi)
3) When the conditions of 1) and 2) above are not satisfied (set the mask value of 8 voxels in the vicinity).
S000 = Mask (xi, yi, zi)
S100 = Mask (xi + 1, yi, zi)
S010 = Mask (xi, yi + 1, zi)
S110 = Mask (xi + 1, y + 1, zi)
S001 = Mask (xi, yi, zi + 1)
S101 = Mask (xi + 1, yi, zi + 1)
S011 = Mask (xi, yi + 1, zi + 1)
S111 = Mask (xi + 1, yi + 1, zi + 1)

そして、制御部11は、抽出した補間対象ボクセルの信号値に基づいて、視点座標系の3次元座標値(x、y、z)(整数値)に対応するボクセル信号値Vsを以下のように取得する(ステップS225)。 Then, the control unit 11 sets the voxel signal values Vs corresponding to the three-dimensional coordinate values (x, y, z) (integer values) of the viewpoint coordinate system based on the extracted signal values of the voxels to be interpolated as follows. Acquire (step S225).

(式48)
1)xi<Xis、xi>Xie、yi<Yis、yi>Yie、zi<Zis、又はzi>Zieのいずれかを満たす場合(有効ボクセル領域Vr外)
Vs=−32769
2)上記1)の条件を満たさず、S000=0の場合(無効値)
Vs=−99999
3)上記1)2)を満たさない場合において、
xi+1>Xie、yi+1>Yie、またはzi+1>Zieのいずれかを満たすか、或いはS000、S100、S010、S110、S001、S101、S011、S111のいずれかが0の場合(補間しない)
Vs=D000
4)上記1)2)3)の条件を満たさない場合(補間する)
Vs=(1−wz)(1−wy)(1−wx)・D000+(1−wz)(1−wy)・wx・D100+(1−wz)・wy・(1−wx)・D010+(1−wz)・wy・wx・D110+wz・(1−wy)(1−wx)・D001+wz・(1−wy)・wx・D100+wz・wy・(1−wx)・D011+wz・wy・wx・D111
(Equation 48)
1) When any of xi <Xis, xi> Xie, y <Yis, y> Yie, zi <Zis, or zi> Zie is satisfied (outside the effective voxel region Vr)
Vs = -32769
2) When the condition of 1) above is not satisfied and S000 = 0 (invalid value)
Vs = -99999
3) When the above 1) and 2) are not satisfied
If either xi + 1> Xie, y + 1> Yie, or zi + 1> Zie is satisfied, or if any of S000, S100, S010, S110, S001, S101, S011, and S111 is 0 (no interpolation).
Vs = D000
4) When the above conditions 1) 2) 3) are not satisfied (interpolate)
Vs = (1-wz) (1-wy) (1-wx) · D000 + (1-wz) (1-wy) · wx · D100 + (1-wz) · wy · (1-wx) · D010 + (1 -Wz), wy, wx, D110 + wz, (1-wy) (1-wx), D001 + wz, (1-wy), wx, D100 + wz, wy, (1-wx), D011 + wz, wy, wx, D111

以上、モノクロ(16ビット)のMIP画像ImageMIP(x、y)を生成する場合について説明したが、制御部11は、生成されたMIP画像ImageMIP(x、y)を8ビットに変換したうえで、表示する。具体的には、DICOM規格のWindow Width(ウィンドウ幅:WW)、Window Level(ウィンドウレベル:WL)を設定し、上限値Lmax=WL+WW/2、下限値Lmin=WL−WW/2に変換し、以下のようにMIP画像ImageMIP(x、y)を8ビットに変換する。 The case of generating a monochrome (16-bit) MIP image ImageMIP (x, y) has been described above, but the control unit 11 converts the generated MIP image ImageMIP (x, y) into 8 bits and then converts the generated MIP image ImageMIP (x, y) into 8 bits. indicate. Specifically, the DICOM standard Window Width (window width: WW) and Window Level (window level: WL) are set, and the upper limit value Lmax = WL + WW / 2 and the lower limit value Lmin = WL-WW / 2 are converted. The MIP image ImageMIP (x, y) is converted into 8 bits as follows.

ImageMIP‘(x、y)=(ImageMIP(x、y)−Lmin)・255/(Lmax−Lmin)
ImageMIP‘(x、y)<0の場合、ImageMIP‘(x、y)=0とする。
ImageMIP‘(x、y)>255の場合、ImageMIP‘(x、y)=255とする。
ImageMIP'(x, y) = (ImageMIP (x, y) -Lmin) · 255 / (Lmax-Lmin)
If ImageMIP'(x, y) <0, then ImageMIP'(x, y) = 0.
When ImageMIP'(x, y)> 255, ImageMIP'(x, y) = 255.

以上、図34〜図40を参照しながら、MIP画像を生成する処理を説明した。マスクデータMaskに基づいて断層画像群Doの各ボクセルの信号値に対するマスク値を設定したうえで(図40のステップS224)、断層画像群Doの各ボクセルの信号値を取得(補間計算)することで(図40のステップS225)、マスクデータMaskの描画・非描画情報が反映されたMIP画像を生成することができる。 The process of generating the MIP image has been described above with reference to FIGS. 34 to 40. After setting the mask value for the signal value of each boxel of the tomographic image group Do based on the mask data Mask (step S224 in FIG. 40), the signal value of each boxel of the tomographic image group Do is acquired (interpolation calculation). (Step S225 in FIG. 40), a MIP image reflecting the drawing / non-drawing information of the mask data Mask can be generated.

(13.MPR画像の生成)
次に、図41、図42を参照しながら、MPR画像を生成する処理を説明する。
(13. Generation of MPR image)
Next, the process of generating the MPR image will be described with reference to FIGS. 41 and 42.

図41は、MPR画像を生成する処理の流れを示すフローチャートである。 FIG. 41 is a flowchart showing a flow of processing for generating an MPR image.

まず、断層画像群Doの信号値が16ビットの場合((式1)参照)には、制御部11は、断層画像群Doを8ビットに変換する(ステップS241)。具体的には、制御部11は、断層画像群Do(−32768≦Do(x、y、z)≦32767、0≦x≦Sx−1、0≦y≦Sy−1、0≦z≦Sz−1;3方向の変倍率(Scx、Scy、Scz))に対して、DICOM規格のWindow Width(ウィンドウ幅:WW)、Window Level(ウィンドウレベル:WL)を設定し、上限値Lmax=WL+WW/2、下限値Lmin=WL−WW/2に変換し、以下のように断層画像群Doを8ビットに変換する。 First, when the signal value of the tomographic image group Do is 16 bits (see (Equation 1)), the control unit 11 converts the tomographic image group Do into 8 bits (step S241). Specifically, the control unit 11 controls the tomographic image group Do (-32768 ≦ Do (x, y, z) ≦ 32767, 0 ≦ x ≦ Sx-1, 0 ≦ y ≦ Sy-1, 0 ≦ z ≦ Sz. -1; Set DICOM standard Window Width (window width: WW) and Window Level (window level: WL) for the variable magnifications (Scx, Scy, Scz) in three directions, and set the upper limit value Lmax = WL + WW /. 2. Convert to the lower limit value Lmin = WL-WW / 2, and convert the tomographic image group Do to 8 bits as follows.

(式49)
Do(x、y、z)=(Do(x、y、z)−Lmin)・255/(Lmax−Lmin)
Do(x、y、z)<0の場合、Do(x、y、z)=0とする。
Do(x、y、z)>255の場合、Do(x、y、z)=255とする。
(Equation 49)
Do (x, y, z) = (Do (x, y, z) -Lmin) · 255 / (Lmax-Lmin)
When Do (x, y, z) <0, Do (x, y, z) = 0.
When Do (x, y, z)> 255, Do (x, y, z) = 255.

続いて、制御部11は、8ビットの断層画像群Doに基づいて、任意断面のMPR画像ImageMPRを生成する(ステップS242)。例えば、図42に示すように、XY平面に平行な体軸断面(アキシャル(Axial)断面)の場合、指定されたスライス位置zにおけるXY平面上のボクセルに対して(Scx、Scy)変倍を加えながら各画素(x、y)を取得して2次元画像を再構成する。XZ平面に平行な冠状断面(コロナル(Coronal)断面)の場合、指定されたスライス位置yにおけるXZ平面上のボクセルに対して(Scx、Scz)変倍を加えながら各画素(x、z)を取得して2次元画像を再構成する。ZY平面に平行な矢状断面(サジタル(Sagittal)断面)の場合、指定されたスライス位置xにおけるZY平面上のボクセルに対して(Scz、Scy)変倍を加えながら各画素(z、y)を取得して2次元画像を再構成する。このようにして3方向のMPR画像を生成する。 Subsequently, the control unit 11 generates an MPR image ImageMPR of an arbitrary cross section based on the 8-bit tomographic image group Do (step S242). For example, as shown in FIG. 42, in the case of a body axis cross section (Axial cross section) parallel to the XY plane, the (Scx, Scy) scaling is applied to the voxels on the XY plane at the specified slice position z. In addition, each pixel (x, y) is acquired to reconstruct a two-dimensional image. In the case of a coronal section parallel to the XZ plane, each pixel (x, z) is multiplied by (Scx, Scz) scaling for the voxels on the XZ plane at the specified slice position y. Acquire and reconstruct the two-dimensional image. In the case of a sagittal section parallel to the ZY plane (Sagittal section), each pixel (z, y) is multiplied by (Scz, Scy) with respect to the voxels on the ZY plane at the specified slice position x. To reconstruct the two-dimensional image. In this way, MPR images in three directions are generated.

また、XYZ空間を斜めに切断した斜断面(オブリーク(Oblique)断面)のMPR画像を生成する場合は、3方向のMPR画像のいずれかを2次元上で回転させながら3次元空間における回転を指示し、生成される回転行列に基づいて前記8ビットの断層画像群Doに対して3次元空間で回転を加えた上で、各2次元画像の再構成を行う。更に、スラブ厚を指定して体軸断面(アキシャル(Axial)断面)のMPR像を生成する場合は、指定されたスライス位置zの近傍で指定された厚み(スライス枚数)だけスライス位置を微小に移動させて、XY平面上のボクセルに対して(Scx、Scy)変倍を加えながら各画素(x、y)を複数通り取得して、各画素が複数個の信号値の代表信号値で構成される2次元画像を再構成する。複数個の信号値から代表信号値を算出する方法として、前述のMIP像を生成する場合と同様に、最大値(MIP)、最小値(MinIP)、平均値(RaySum)のいずれかを設定できる。 Further, when generating an MPR image of an oblique cross section (Oblique cross section) obtained by diagonally cutting the XYZ space, an instruction to rotate in the three-dimensional space is instructed while rotating one of the MPR images in three directions in two dimensions. Then, based on the generated rotation matrix, the 8-bit tomographic image group Do is rotated in a three-dimensional space, and then each two-dimensional image is reconstructed. Further, when the MPR image of the body axis cross section (axial cross section) is generated by specifying the slab thickness, the slice position is made minute by the specified thickness (number of slices) in the vicinity of the specified slice position z. By moving, each pixel (x, y) is acquired in multiple ways while applying (Scx, Scy) scaling to the voxel on the XY plane, and each pixel is composed of representative signal values of a plurality of signal values. The resulting two-dimensional image is reconstructed. As a method of calculating the representative signal value from a plurality of signal values, any one of the maximum value (MIP), the minimum value (MinIP), and the average value (RaySum) can be set as in the case of generating the MIP image described above. ..

そして、制御部11は、ステップS242において生成されたMPR画像ImageMPRにマスクデータMaskに基づいて生成されたマスク画像を合成(重畳)して出力する(ステップS243)。例えば、制御部11は、MPR画像ImageMPRに合成(重畳)するマスク画像として、Mask(x、y、z)=0(非描画対象)の画素またはMask(x、y、z)=1(描画対象)の画素を所定の色で塗りつぶした画像、或いはMask(x、y、z)=0(非描画対象)の画素とMask(x、y、z)=1(描画対象)の画素を異なる色で色分けした画像を生成し、MPR画像に合成する。 Then, the control unit 11 synthesizes (superimposes) the mask image generated based on the mask data Mask on the MPR image ImageMPR generated in step S242 and outputs the mask image (step S243). For example, the control unit 11 has Mask (x, y, z) = 0 (non-drawing target) pixels or Mask (x, y, z) = 1 (drawing) as a mask image to be combined (superimposed) with the MPR image ImageMPR. An image in which the pixels of the target) are filled with a predetermined color, or the pixels of Mask (x, y, z) = 0 (non-drawing target) and the pixels of Mask (x, y, z) = 1 (drawing target) are different. A color-coded image is generated and combined with an MPR image.

以上、図41、図42を参照しながら、MPR画像を生成する処理を説明した。なお、上記の例では、MPR画像にマスクデータMaskに基づいて生成したマスク画像を合成するようにしたが、ボリュームレンダリング画像やMIP画像の場合と同様に、マスクデータMaskにより規定される描画対象の画素のみを表示したMPR画像を生成してもよい。 The process of generating the MPR image has been described above with reference to FIGS. 41 and 42. In the above example, the mask image generated based on the mask data Mask is combined with the MPR image, but as in the case of the volume rendered image and the MIP image, the drawing target defined by the mask data Mask is used. An MPR image displaying only pixels may be generated.

以上、マスクデータMaskの適用例として、マスクデータMaskを用いて3次元再構成像(ボリュームレンダリング画像/MIP画像/MPR画像)を生成する例を説明した。 As described above, as an application example of the mask data Mask, an example of generating a three-dimensional reconstructed image (volume rendering image / MIP image / MPR image) using the mask data Mask has been described.

(14.3次元再構成像の表示例)
最後に、本開示の3次元再構成像生成装置2により生成された3次元再構成像(ボリュームレンダリング画像、MIP画像、MPR画像)の表示例を示す。
(Display example of 14.3D reconstruction image)
Finally, a display example of the three-dimensional reconstruction image (volume rendering image, MIP image, MPR image) generated by the three-dimensional reconstruction image generation device 2 of the present disclosure is shown.

図43は、本開示の3次元再構成像生成装置2により生成された胸腹部のボリュームレンダリング画像の表示例を示す図である。
図43(a)は正面から観察したボリュームレンダリング画像であり、図43(b)は左側面から観察したボリュームレンダリング画像である。
肋骨、胸骨を含む全ての骨領域が十分に除去され、肺・心臓・血管・肝臓・腎臓などの診断上重要な内臓領域等が鮮明に可視化されていることが分かる。
FIG. 43 is a diagram showing a display example of a volume-rendered image of the thoracoabdominal region generated by the three-dimensional reconstructed image generation device 2 of the present disclosure.
FIG. 43 (a) is a volume-rendered image observed from the front, and FIG. 43 (b) is a volume-rendered image observed from the left side.
It can be seen that all bone regions including ribs and sternum are sufficiently removed, and visceral regions such as lungs, heart, blood vessels, liver, and kidneys, which are important for diagnosis, are clearly visualized.

図44は、本開示の3次元再構成像生成装置2により生成された胸腹部のMIP画像の表示例を示す図である。
図44(a)は正面から観察したMIP画像であり、図45(b)は左側面から観察したMIP画像である。
図43のボリュームレンダリング画像と同様に、肋骨、胸骨を含む全ての骨領域が十分に除去され、肺・心臓・血管・肝臓・腎臓などの診断上重要な内臓領域等が鮮明に可視化されていることが確認できる。
FIG. 44 is a diagram showing a display example of a MIP image of the thoracoabdominal region generated by the three-dimensional reconstruction image generation device 2 of the present disclosure.
FIG. 44 (a) is a MIP image observed from the front, and FIG. 45 (b) is a MIP image observed from the left side.
Similar to the volume rendered image of FIG. 43, all bone regions including ribs and sternum are sufficiently removed, and visceral regions important for diagnosis such as lungs, heart, blood vessels, liver, and kidneys are clearly visualized. Can be confirmed.

図45は、本開示の3次元再構成像生成装置2により生成された胸腹部のMPR画像の表示例を示す図である。図に示すように、Axial(体軸断面)、Coronal(冠状断面)、Sagittal(矢状断面)の各断面についてマスク画像が合成(重畳)されたMPR画像が表示される。図のマスク画像は、非描画対象を「赤色」(図はグレースケール画像のため「グレー」で表示されている)で塗りつぶした画像である。このように、マスク画像がMPR画像に合成表示されるので、ユーザは断層画像中の描画・非描画領域を容易に把握することができる。 FIG. 45 is a diagram showing a display example of an MPR image of the thoracoabdominal region generated by the three-dimensional reconstruction image generator 2 of the present disclosure. As shown in the figure, an MPR image in which mask images are combined (superimposed) for each cross section of Axial (body axis cross section), Coronal (coronal section), and Sagittal (sagittal section) is displayed. The mask image in the figure is an image in which the non-drawing target is filled with "red" (the figure is displayed in "gray" because it is a grayscale image). In this way, since the mask image is compositely displayed on the MPR image, the user can easily grasp the drawn / non-drawn area in the tomographic image.

比較例として、図46に、本発明者が既に提案している特願2018−124125における不透明度の制御手法を用いて生成した胸腹部のボリュームレンダリング画像の表示例を示しておく。図44(a)は正面から観察したボリュームレンダリング画像であり、図44(b)は左側面から観察したボリュームレンダリング画像である。特願2018−124125は、被写体領域の外郭を幾何形状で近似し、当該幾何形状を規定するパラメータから各画素の補正倍率を求め、ボリュームレンダリング(レイキャスティング処理)の過程で、各画素の信号値をオパシティカーブに通して得られる各画素の不透明度に対して前記補正倍率を乗算することで、不透明度を制御する方法である。 As a comparative example, FIG. 46 shows a display example of a volume-rendered image of the thoracoabdominal region generated by using the opacity control method in Japanese Patent Application No. 2018-124125 already proposed by the present inventor. FIG. 44 (a) is a volume-rendered image observed from the front, and FIG. 44 (b) is a volume-rendered image observed from the left side. Japanese Patent Application No. 2018-124125 approximates the outline of the subject area with a geometric shape, obtains the correction magnification of each pixel from the parameters defining the geometric shape, and obtains the correction magnification of each pixel, and in the process of volume rendering (raycasting processing), the signal value of each pixel. Is a method of controlling the opacity by multiplying the opacity of each pixel obtained by passing through the opacity curve by the correction magnification.

本開示の方法により得られるボリュームレンダリング画像(図43)のほうが、骨領域が十分に除去され、骨領域の内側の内臓領域等が鮮明に可視化されていることが確認できる。
特願2018−124125の方法は、ユーザが設定するオパシティカーブに補正を施すため、オパシティカーブが変更されると、CT画像の変更と同様に骨除去の形態が変わり、パラメータ調整をやり直す必要があった。また、オパシティカーブが変更されると、観察対象の臓器の不透明度に補正倍率が乗算され、ユーザの意図とは異なって臓器が半透明(不鮮明)になることがあり、このように半透明になるとレイキャスティング法では処理負担の増大につながるという問題があった。
In the volume rendered image (FIG. 43) obtained by the method of the present disclosure, it can be confirmed that the bone region is sufficiently removed and the internal organ region and the like inside the bone region are clearly visualized.
Since the method of Japanese Patent Application No. 2018-124125 corrects the opacity curve set by the user, when the opacity curve is changed, the form of bone removal changes as in the case of changing the CT image, and it is necessary to redo the parameter adjustment. It was. In addition, when the capacity curve is changed, the opacity of the organ to be observed is multiplied by the correction magnification, and the organ may become translucent (blurred) unlike the user's intention. In that case, the ray casting method has a problem that it leads to an increase in processing load.

これに対し、本開示の方法では、ボリュームレンダリングの過程で不透明度を制御する方法をとらず、重み値(特願2018−124125の補正倍率に相当する値)に基づいて直接マスクデータを生成し、一般的なマスク参照によるレンダリング処理を実行するので、オパシティカーブが変更されることによるパラメータ調整の必要はなくなり、また、ユーザの意図とは異なって臓器が半透明(不鮮明)になることがなくなり、さらに、ボリュームレンダリングの過程で補正倍率を乗算する必要がないため処理負担も軽減される。 On the other hand, in the method of the present disclosure, the opacity is not controlled in the process of volume rendering, and the mask data is directly generated based on the weight value (value corresponding to the correction magnification of Japanese Patent Application No. 2018-124125). Since the rendering process is performed by general mask reference, there is no need to adjust parameters due to changes in the opacity curve, and the organs are not translucent (blurred) unlike the user's intention. Furthermore, since it is not necessary to multiply the correction magnification in the process of volume rendering, the processing load is reduced.

また、特願2018−124125の方法は、カラーマップ(オパシティカーブ)に補正を施すため、カラーマップを使用しないMIP画像やMPR画像には適用できなかった。一方、本開示の方法では、前記したように、ボリュームレンダリングの過程で不透明度を制御する方法をとらず、重み値(特願2018−124125の補正倍率に相当する値)に基づいて直接マスクデータを生成し、一般的なマスク参照による3次元再構成像生成処理を実行するため、カラーマップを使用しないMIP画像やMPR画像の生成処理にも適用可能となる。 Further, since the method of Japanese Patent Application No. 2018-124125 corrects the color map (opacity curve), it cannot be applied to MIP images and MPR images that do not use the color map. On the other hand, in the method of the present disclosure, as described above, the method of controlling the opacity in the process of volume rendering is not adopted, and the mask data is directly based on the weight value (value corresponding to the correction magnification of Japanese Patent Application No. 2018-124125). Is generated, and a three-dimensional reconstructed image generation process is executed by a general mask reference. Therefore, it can be applied to a MIP image or MPR image generation process that does not use a color map.

また、特願2018−124125の方法では、信号値が所定の閾値より大きい全ての画素領域に基づいて被写体領域(図5の矩形領域41)を算出していたため、被写体領域に寝台・ヘッドレストなどが含まれる場合があった。これに対し、本開示の方法では、信号値分布を考慮して被写体領域(図5の矩形領域42)を算出するので、寝台・ヘッドレストなどを含まない領域を被写体領域として高精度に抽出することができる。 Further, in the method of Japanese Patent Application No. 2018-124125, since the subject area (rectangular area 41 in FIG. 5) is calculated based on all the pixel areas where the signal value is larger than the predetermined threshold value, the bed, headrest, etc. are included in the subject area. It was sometimes included. On the other hand, in the method of the present disclosure, the subject area (rectangular area 42 in FIG. 5) is calculated in consideration of the signal value distribution, so that the area not including the bed, headrest, etc. is extracted with high accuracy as the subject area. Can be done.

また特願2018−124125の方法では、3つの楕円で被写体領域の外郭を近似するが、椎骨を除去するための中央の楕円の径が小さめに設定されるため、近傍の大動脈などが同時に削られやすいという問題があった。また、設定パラメータが増え、パラメータ調整に手間がかかり、種々のCT画像に適合させるのが困難な場合があった。これに対し、本開示の方法では、被写体領域の外郭を、胸骨側と椎骨側で楕円の径を変えることが可能な1つの変形楕円で近似することで、設定パラメータ数が抑えられるとともに、肋骨、胸骨を含む全ての骨領域を自動除去し、肺、心臓、血管、肝臓、腎臓などの診断上重要な内臓領域等を高精度に自動抽出することが可能となる。 Further, in the method of Japanese Patent Application No. 2018-124125, the outer contour of the subject area is approximated by three ellipses, but since the diameter of the central ellipse for removing the vertebra is set to be small, the nearby aorta and the like are simultaneously removed. There was a problem that it was easy. In addition, the number of setting parameters increases, it takes time and effort to adjust the parameters, and it may be difficult to adapt them to various CT images. On the other hand, in the method of the present disclosure, the number of setting parameters can be suppressed and the ribs can be suppressed by approximating the outer shell of the subject area with one deformed ellipse whose diameter can be changed between the sternum side and the vertebrae side. , All bone regions including the sternum can be automatically removed, and visceral regions important for diagnosis such as lungs, heart, blood vessels, liver, and kidneys can be automatically extracted with high accuracy.

以上、添付図面を参照しながら、本開示に係る好適な実施形態について説明したが、本開示はかかる例に限定されない。当業者であれば、本願で開示した技術的思想の範疇内において、各種の変更例又は修正例に想到し得ることは明らかであり、それらについても当然に本開示の技術的範囲に属するものと了解される。 Although the preferred embodiments according to the present disclosure have been described above with reference to the accompanying drawings, the present disclosure is not limited to such examples. It is clear that a person skilled in the art can come up with various modifications or modifications within the scope of the technical ideas disclosed in the present application, and these also naturally belong to the technical scope of the present disclosure. Understood.

なお、断層画像から被写体領域を算出する処理を実行する被写体領域算出装置を構成することもできる。この被写体領域算出装置は、図1の画像取得部21、被写体領域算出部31、被写体領域補正部32を備え、図2と同様のハードウェア構成で実現される。そして、被写体領域算出装置の制御部が、図3のステップS1、図4のステップS21、ステップS22の処理を実行することで、断層画像から被写体領域を算出する。 It is also possible to configure a subject area calculation device that executes a process of calculating a subject area from a tomographic image. This subject area calculation device includes the image acquisition unit 21, the subject area calculation unit 31, and the subject area correction unit 32 of FIG. 1, and is realized by the same hardware configuration as that of FIG. Then, the control unit of the subject area calculation device calculates the subject area from the tomographic image by executing the processes of step S1 in FIG. 3, step S21 in FIG. 4, and step S22.

1・・・・・・マスク作成装置
2・・・・・・3次元再構成像生成装置
21・・・・・画像取得部
22・・・・・描画重みテーブル作成部
23・・・・・マスクデータ生成部
24・・・・・クリッピング領域設定部
25・・・・・有効ボクセル領域算出部
26・・・・・3次元再構成像生成部
27・・・・・3次元再構成像表示部
31・・・・・被写体領域算出部
32・・・・・被写体領域補正部
33・・・・・被写体形状算出部
34・・・・・重み値算出部
41・・・・・矩形領域(第1の矩形領域)
42・・・・・矩形領域(第2の矩形領域)
50・・・・・被写体候補領域
51・・・・・ボリュームレンダリング画像生成部
52・・・・・MIP画像生成部
53・・・・・MPR画像生成部
510・・・・カラーマップ設定部
1 ... Mask creation device 2 ... 3D reconstruction image generation device 21 ... Image acquisition unit 22 ... Drawing weight table creation unit 23 ... Mask data generation unit 24: Clipping area setting unit 25: Effective rectangle area calculation unit 26: 3D reconstruction image generation unit 27: 3D reconstruction image display Part 31: Subject area calculation unit 32: Subject area correction unit 33: Subject shape calculation unit 34: Weight value calculation unit 41: Rectangular area ( 1st rectangular area)
42 ... Rectangular area (second rectangular area)
50 ... Subject candidate area 51 ... Volume rendering image generation unit 52 ... MIP image generation unit 53 ... MPR image generation unit 510 ... Color map setting unit

Claims (24)

複数の断層画像を取得する画像取得手段と、
断層画像毎に、各画素の信号値に基づいて被写体領域を算出する被写体領域算出手段と、
断層画像毎に、算出された被写体領域の外郭を所定の幾何形状で近似し、当該幾何形状のパラメータを算出する被写体形状算出手段と、
断層画像毎に、断層画像の各画素が前記幾何形状の内部か外部のいずれに含まれるかを定義したマスク値を算出し、各画素に対するマスク値を保持するマスクデータを生成するマスクデータ生成手段と、
を備えるマスク生成装置。
Image acquisition means for acquiring multiple tomographic images,
A subject area calculation means that calculates a subject area based on the signal value of each pixel for each tomographic image,
For each tomographic image, a subject shape calculation means that approximates the calculated outline of the subject area with a predetermined geometric shape and calculates the parameters of the geometric shape,
A mask data generation means that calculates a mask value that defines whether each pixel of the tomographic image is included inside or outside the geometric shape for each tomographic image, and generates mask data that holds the mask value for each pixel. When,
A mask generator comprising.
前記断層画像毎に、前記幾何形状のパラメータに基づいて断層画像の各画素を描画対象とする重み値を算出する重み値算出手段を更に備え、
前記マスクデータ生成手段は、前記断層画像毎に、各画素に対して重み値算出手段により算出された重み値を所定の閾値で二値化したマスク値を算出し、各画素に対するマスク値を保持するマスクデータを生成するようにしている請求項1に記載のマスク生成装置。
For each tomographic image, a weight value calculating means for calculating a weight value for drawing each pixel of the tomographic image based on the parameter of the geometric shape is further provided.
The mask data generation means calculates a mask value obtained by binarizing the weight value calculated by the weight value calculation means for each pixel with a predetermined threshold value for each tomographic image, and holds the mask value for each pixel. The mask generation device according to claim 1, wherein the mask data to be generated is generated.
前記被写体領域算出手段は、前記被写体領域として、信号値が所定の閾値より大きい画素が存在する領域の最外側を囲う矩形領域である第1の矩形領域を算出する、
請求項1または請求項2に記載のマスク生成装置。
The subject area calculation means calculates, as the subject area, a first rectangular area which is a rectangular area surrounding the outermost region in which pixels having a signal value larger than a predetermined threshold value exist.
The mask generator according to claim 1 or 2.
前記被写体領域算出手段は、前記被写体領域として、信号値が所定の閾値より大きい画素が存在する領域の最外側を囲う矩形領域である第1の矩形領域の内部に定義される第2の矩形領域を算出する、
請求項1または請求項2に記載のマスク生成装置。
The subject area calculation means is a second rectangular area defined inside a first rectangular area which is a rectangular area surrounding the outermost side of a region in which pixels having a signal value larger than a predetermined threshold value exist as the subject area. To calculate,
The mask generator according to claim 1 or 2.
前記被写体領域算出手段は、前記第2の矩形領域の中心座標が、前記第1の矩形領域内の信号値が前記所定の閾値より大きい画素の信号値で重み付けした重心座標となるように、前記第2の矩形領域を算出する、
請求項4に記載のマスク生成装置。
The subject area calculation means said that the center coordinates of the second rectangular area are barycentric coordinates weighted by the signal values of pixels whose signal values in the first rectangular area are larger than the predetermined threshold value. Calculate the second rectangular area,
The mask generator according to claim 4.
前記被写体領域算出手段は、
前記第2の矩形領域の中心座標を起点に上下左右の4方向に前記第1の矩形領域の範囲で信号値が前記所定の閾値より大きい画素の信号値で重み付けした重心座標である第2重心を4箇所算出し、
算出された左方向の第2重心と右方向の第2重心に基づいて前記第2の矩形領域の横方向のサイズを算出し、
算出された上方向の第2重心と下方向の第2重心に基づいて前記第2の矩形領域の縦方向のサイズを算出する、
請求項5に記載のマスク生成装置。
The subject area calculation means
The second center of gravity, which is the coordinates of the center of gravity weighted by the signal values of pixels whose signal values are larger than the predetermined threshold value in the range of the first rectangular area in four directions of up, down, left, and right starting from the center coordinates of the second rectangular area. Is calculated in 4 places,
The lateral size of the second rectangular area is calculated based on the calculated second center of gravity in the left direction and the second center of gravity in the right direction.
The vertical size of the second rectangular region is calculated based on the calculated second center of gravity in the upward direction and the second center of gravity in the downward direction.
The mask generator according to claim 5.
前記被写体領域算出手段は、
前記算出した4個の第2重心を起点に更に上下左右の4方向に前記第1の矩形領域の範囲で信号値が前記所定の閾値より大きい画素の信号値で重み付けした重心座標である第3重心を4箇所算出し、
算出された左方向の第3重心と右方向の第3重心に基づいて前記第2の矩形領域の横方向のサイズを算出し、
算出された上方向の第3重心と下方向の第3重心に基づいて前記第2の矩形領域の縦方向のサイズを算出する、
請求項6に記載のマスク生成装置。
The subject area calculation means
A third barycentric coordinate whose signal value is weighted by the signal value of a pixel whose signal value is larger than the predetermined threshold value in the range of the first rectangular region in four directions of up, down, left, and right starting from the calculated four second centers of gravity. Calculate the center of gravity at 4 points
The lateral size of the second rectangular area is calculated based on the calculated third center of gravity in the left direction and the third center of gravity in the right direction.
The vertical size of the second rectangular region is calculated based on the calculated upper third center of gravity and the lower third center of gravity.
The mask generator according to claim 6.
前記被写体領域算出手段は、
算出された左方向の第2重心または第3重心から前記第2の矩形領域の中心座標までの距離である第1の横方向サイズを算出し、
算出された右方向の第2重心または第3重心から前記第2の矩形領域の中心座標までの距離である第2の横方向サイズを算出し、
算出された上方向の第2重心または第3重心から前記第2の矩形領域の中心座標までの距離である第1の縦方向サイズを算出し、
算出された下方向の第2重心または第3重心から前記第2の矩形領域の中心座標までの距離である第2の縦方向サイズを算出する、
請求項6または請求項7に記載のマスク生成装置。
The subject area calculation means
The first lateral size, which is the distance from the calculated second center of gravity or the third center of gravity in the left direction to the center coordinates of the second rectangular region, is calculated.
The second lateral size, which is the distance from the calculated second center of gravity or the third center of gravity in the right direction to the center coordinates of the second rectangular region, is calculated.
The first vertical size, which is the distance from the calculated upper second center of gravity or the third center of gravity to the center coordinates of the second rectangular region, is calculated.
The second vertical size, which is the distance from the calculated downward second center of gravity or the third center of gravity to the center coordinates of the second rectangular region, is calculated.
The mask generator according to claim 6 or 7.
幾何形状は、中心座標、横方向のサイズ、および縦方向のサイズによって規定される幾何形状であり、
前記被写体形状算出手段は、
前記幾何形状の中心座標として、前記第1または前記第2の矩形領域の中心座標を算出し、
前記幾何形状の横方向のサイズとして、前記第1または前記第2の矩形領域の横方向のサイズを算出し、
前記幾何形状の縦方向のサイズとして、前記第1または前記第2の矩形領域の縦方向のサイズを算出し、
前記重み値算出手段は、算出した前記幾何形状の中心座標、横方向のサイズ、および縦方向のサイズに基づいて、前記重み値を算出する、
請求項3および請求項4が請求項2を引用する場合における、請求項3から請求項7のいずれかに記載のマスク生成装置。
A geometry is a geometry defined by center coordinates, horizontal size, and vertical size.
The subject shape calculation means
As the center coordinates of the geometric shape, the center coordinates of the first or second rectangular region are calculated.
As the horizontal size of the geometric shape, the horizontal size of the first or second rectangular region is calculated.
As the vertical size of the geometric shape, the vertical size of the first or second rectangular region is calculated.
The weight value calculating means calculates the weight value based on the calculated center coordinates of the geometric shape, the size in the horizontal direction, and the size in the vertical direction.
The mask generator according to any one of claims 3 to 7, wherein claims 3 and 4 cite claim 2.
前記被写体形状算出手段は、算出した前記幾何形状の横方向のサイズおよび縦方向のサイズに所定の横方向のサイズに対する倍率および縦方向のサイズに対する倍率を乗算して前記横方向のサイズおよび前記縦方向のサイズを補正する、
請求項9に記載のマスク生成装置。
The subject shape calculating means multiplies the calculated horizontal size and vertical size of the geometric shape by a magnification with respect to a predetermined horizontal size and a magnification with respect to the vertical size to obtain the horizontal size and the vertical size. Correct the size of the direction,
The mask generator according to claim 9.
幾何形状は、中心座標、中心座標から左端までの距離である第1の横方向のサイズ、中心座標から右端までの距離である第2の横方向のサイズ、中心座標から上端までの距離である第1の縦方向のサイズ、および中心座標から下端までの距離である第2の縦方向のサイズによって規定される幾何形状であり、
前記被写体形状算出手段は、
前記幾何形状の中心座標として、前記第2の矩形領域の中心座標を算出し、
前記幾何形状の第1の横方向のサイズとして、前記第2の矩形領域の第1の横方向のサイズを算出し、
前記幾何形状の第2の横方向のサイズとして、前記第2の矩形領域の第2の横方向のサイズを算出し、
前記幾何形状の第1の縦方向のサイズとして、前記第2の矩形領域の第1の縦方向のサイズを算出し、
前記幾何形状の第2の縦方向のサイズとして、前記第2の矩形領域の第2の縦方向のサイズを算出し、
前記重み値算出手段は、算出した前記幾何形状の中心座標、第1の横方向サイズ、第2の横方向サイズ、第1の縦方向サイズ、および第2の縦方向サイズに基づいて、前記重み値を算出する、
請求項4が請求項2を引用する場合における、請求項8に記載のマスク生成装置。
The geometric shape is the center coordinate, the first horizontal size which is the distance from the center coordinate to the left end, the second horizontal size which is the distance from the center coordinate to the right end, and the distance from the center coordinate to the upper end. It is a geometric shape defined by the first vertical size and the second vertical size, which is the distance from the center coordinate to the lower end.
The subject shape calculation means
As the center coordinates of the geometric shape, the center coordinates of the second rectangular region are calculated.
As the first lateral size of the geometric shape, the first lateral size of the second rectangular region is calculated.
As the second lateral size of the geometric shape, the second lateral size of the second rectangular region is calculated.
As the first vertical size of the geometric shape, the first vertical size of the second rectangular region is calculated.
As the second vertical size of the geometric shape, the second vertical size of the second rectangular region is calculated.
The weight value calculating means is based on the calculated center coordinates of the geometric shape, the first horizontal size, the second horizontal size, the first vertical size, and the second vertical size. Calculate the value,
The mask generator according to claim 8, wherein claim 4 cites claim 2.
前記被写体形状算出手段は、
算出した前記幾何形状の第1の横方向のサイズおよび第2の横方向のサイズに互いに異なる横方向のサイズに対する倍率を乗算して前記第1の横方向のサイズおよび前記第2の横方向のサイズを補正し、
算出した前記幾何形状の第1の縦方向のサイズおよび第2の縦方向のサイズに互いに異なる縦方向のサイズに対する倍率を乗算して前記第1の縦方向のサイズおよび前記第2の縦方向のサイズを補正する、
請求項11に記載のマスク生成装置。
The subject shape calculation means
Multiplying the calculated first lateral size and second lateral size of the geometric shape by a magnification for different lateral sizes to obtain the first lateral size and the second lateral size. Correct the size and
The calculated first vertical size and second vertical size of the geometric shape are multiplied by a magnification for different vertical sizes to obtain the first vertical size and the second vertical size. Correct the size,
The mask generator according to claim 11.
断層画像毎に、前記被写体領域算出手段により算出された被写体領域の縦方向のサイズと横方向のサイズの比率に応じた補正方法により該被写体領域を補正する被写体領域補正手段と、を更に備える、
請求項1から請求項12のいずれかに記載のマスク生成装置。
For each tomographic image, a subject area correction means for correcting the subject area by a correction method according to the ratio of the vertical size and the horizontal size of the subject area calculated by the subject area calculation means is further provided.
The mask generator according to any one of claims 1 to 12.
前記被写体領域補正手段は、前記被写体領域算出手段により算出された前記第2の矩形領域の縦方向のサイズを横方向のサイズで除算した縦横比率を算出し、
算出された前記縦横比率が所定の閾値より小さい場合、前記被写体領域算出手段により算出された前記第2の矩形領域の横方向のサイズおよび縦方向のサイズの各々に前記縦横比率を乗算して補正し、
算出された前記縦横比率が前記所定の閾値以上の場合、前記第1の矩形領域の内部で信号値が前記所定の閾値より大きい画素の個数を前記第2の矩形領域の面積で除算した面積比率を算出し、前記被写体領域算出手段により算出された前記第2の矩形領域の横方向のサイズおよび縦方向のサイズの各々に前記面積比率を乗算して補正する、
請求項13が請求項4〜7のいずれかを引用する場合における、請求項12に記載のマスク生成装置。
The subject area correction means calculates an aspect ratio obtained by dividing the vertical size of the second rectangular area calculated by the subject area calculation means by the horizontal size.
When the calculated aspect ratio is smaller than a predetermined threshold value, the aspect ratio is corrected by multiplying each of the horizontal size and the vertical size of the second rectangular area calculated by the subject area calculation means by the aspect ratio. And
When the calculated aspect ratio is equal to or greater than the predetermined threshold value, the area ratio obtained by dividing the number of pixels whose signal value is larger than the predetermined threshold value inside the first rectangular region by the area of the second rectangular region. Is calculated, and the area ratio is multiplied by each of the horizontal size and the vertical size of the second rectangular area calculated by the subject area calculation means to correct the problem.
The mask generator according to claim 12, wherein claim 13 cites any of claims 4 to 7.
前記被写体領域補正手段は、前記被写体領域算出手段により算出された前記第2の矩形領域の縦方向のサイズを横方向のサイズで除算した縦横比率を算出し、
算出された前記縦横比率が所定の閾値より小さい場合、前記被写体形状算出手段により算出された前記第2の矩形領域の第1の横方向のサイズ、第2の横方向のサイズ、第1の縦方向のサイズ、および第2の縦方向のサイズの各々に前記縦横比率を乗算して補正し、
算出された前記縦横比率が前記所定の閾値以上の場合、前記第1の矩形領域の内部で信号値が前記所定の閾値より大きい画素の個数を前記第2の矩形領域の面積で除算した面積比率を算出し、前記被写体領域算出手段により算出された前記第2の矩形領域の第1の横方向のサイズ、第2の横方向のサイズ、第1の縦方向のサイズ、および第2の縦方向のサイズの各々に前記面積比率を乗算して補正する、
請求項13が請求項8を引用する場合における、請求項12に記載のマスク生成装置。
The subject area correction means calculates an aspect ratio obtained by dividing the vertical size of the second rectangular area calculated by the subject area calculation means by the horizontal size.
When the calculated aspect ratio is smaller than a predetermined threshold value, the first horizontal size, the second horizontal size, and the first vertical of the second rectangular region calculated by the subject shape calculating means. The size in the direction and the size in the second vertical direction are each multiplied by the aspect ratio to be corrected.
When the calculated aspect ratio is equal to or greater than the predetermined threshold value, the area ratio obtained by dividing the number of pixels whose signal value is larger than the predetermined threshold value inside the first rectangular region by the area of the second rectangular region. The first horizontal size, the second horizontal size, the first vertical size, and the second vertical direction of the second rectangular area calculated by the subject area calculation means. The area ratio is multiplied by each of the sizes of
The mask generator according to claim 12, wherein claim 13 cites claim 8.
前記重み値算出手段は、前記重み値を、前記幾何形状の中心が最大となり、前記幾何形状の外部が最小となり、前記幾何形状の内部は前記中心から遠ざかるにつれ小さくなるように算出する、
請求項2に記載のマスク生成装置。
The weight value calculating means calculates the weight value so that the center of the geometric shape is the maximum, the outside of the geometric shape is the minimum, and the inside of the geometric shape becomes smaller as the distance from the center increases.
The mask generator according to claim 2.
前記重み値算出手段は、断層画像のスライス位置が中央から末端に位置するほど当該断層画像に対応する前記重み値が小さくなるように補正する、
請求項2に記載のマスク生成装置。
The weight value calculating means corrects so that the weight value corresponding to the tomographic image becomes smaller as the slice position of the tomographic image is located from the center to the end.
The mask generator according to claim 2.
前記マスクデータ生成手段は、断層画像毎に、前記重み値により重み付けされた各画素の信号値を所定の閾値で二値化したマスク値を算出し、各画素のマスク値を保持するマスクデータを生成する、
請求項2に記載のマスク生成装置。
The mask data generation means calculates a mask value obtained by binarizing the signal value of each pixel weighted by the weight value with a predetermined threshold value for each tomographic image, and obtains mask data holding the mask value of each pixel. Generate,
The mask generator according to claim 2.
複数の断層画像を取得する画像取得手段と、
断層画像毎に、各画素の信号値に基づいて被写体領域を算出する被写体領域算出手段と、
断層画像毎に、算出された被写体領域の外郭を所定の幾何形状で近似し、当該幾何形状のパラメータを算出する被写体形状算出手段と、
断層画像毎に、断層画像の各画素が前記幾何形状の内部か外部のいずれに含まれるかを定義したマスク値を算出し、各画素のマスク値を保持するマスクデータを生成するマスクデータ生成手段と、
前記断層画像の各画素をボクセル空間に配置して構成される3次元ボクセルと前記マスクデータに基づいて3次元再構成像を生成する3次元再構成像生成手段と、
を備える3次元再構成像生成装置。
Image acquisition means for acquiring multiple tomographic images,
A subject area calculation means that calculates a subject area based on the signal value of each pixel for each tomographic image,
For each tomographic image, a subject shape calculation means that approximates the calculated outline of the subject area with a predetermined geometric shape and calculates the parameters of the geometric shape,
A mask data generation means that calculates a mask value that defines whether each pixel of the tomographic image is included inside or outside the geometric shape for each tomographic image, and generates mask data that holds the mask value of each pixel. When,
A three-dimensional voxel formed by arranging each pixel of the tomographic image in a voxel space, a three-dimensional reconstructed image generating means for generating a three-dimensional reconstructed image based on the mask data, and a three-dimensional reconstructed image generating means.
A three-dimensional reconstructed image generator including.
前記3次元再構成像生成手段は、前記マスクデータに基づいて各ボクセルの不透明度を計算に用いるか否かを設定する、
請求項19に記載の3次元再構成像生成装置。
The three-dimensional reconstructed image generation means sets whether or not to use the opacity of each voxel in the calculation based on the mask data.
The three-dimensional reconstructed image generator according to claim 19.
前記3次元再構成像生成手段は、前記マスクデータに基づいて各ボクセルの信号値を計算に用いるか否かを設定する、
請求項19に記載の3次元再構成像生成装置。
The three-dimensional reconstruction image generation means sets whether or not to use the signal value of each voxel in the calculation based on the mask data.
The three-dimensional reconstructed image generator according to claim 19.
前記3次元再構成像生成手段は、前記3次元再構成像として、前記断層画像に基づいて生成された3次元再構成像に前記マスクデータに基づいて生成されたマスク画像を合成した画像を生成する、
請求項19に記載の3次元再構成像生成装置。
The three-dimensional reconstructed image generating means generates an image obtained by synthesizing the three-dimensional reconstructed image generated based on the tomographic image with the mask image generated based on the mask data as the three-dimensional reconstructed image. To do,
The three-dimensional reconstructed image generator according to claim 19.
コンピュータが、
複数の断層画像を取得する画像取得ステップと、
断層画像毎に、各画素の信号値に基づいて被写体領域を算出する被写体領域算出ステップと、
断層画像毎に、算出された被写体領域の外郭を所定の幾何形状で近似し、当該幾何形状のパラメータを算出する被写体形状算出ステップと、
断層画像毎に、断層画像の各画素が前記幾何形状の内部か外部のいずれに含まれるかを定義したマスク値を算出し、各画素のマスク値を保持するマスクデータを生成するマスクデータ生成ステップと、
を実行するマスク生成方法。
The computer
Image acquisition steps to acquire multiple tomographic images and
For each tomographic image, a subject area calculation step that calculates the subject area based on the signal value of each pixel, and
For each tomographic image, the subject shape calculation step of approximating the calculated outline of the subject area with a predetermined geometric shape and calculating the parameters of the geometric shape,
For each tomographic image, a mask data generation step of calculating a mask value that defines whether each pixel of the tomographic image is included inside or outside the geometric shape and generating mask data that holds the mask value of each pixel. When,
How to generate a mask to perform.
コンピュータを、
複数の断層画像を取得する画像取得手段、
断層画像毎に、各画素の信号値に基づいて被写体領域を算出する被写体領域算出手段、
断層画像毎に、算出された被写体領域の外郭を所定の幾何形状で近似し、当該幾何形状のパラメータを算出する被写体形状算出手段、
断層画像毎に、断層画像の各画素が前記幾何形状の内部か外部のいずれに含まれるかを定義したマスク値を算出し、各画素のマスク値を保持するマスクデータを生成するマスクデータ生成手段、
として機能させるプログラム。
Computer,
Image acquisition means for acquiring multiple tomographic images,
Subject area calculation means that calculates the subject area based on the signal value of each pixel for each tomographic image,
A subject shape calculation means that approximates the calculated outline of the subject area with a predetermined geometric shape for each tomographic image and calculates the parameters of the geometric shape.
A mask data generation means that calculates a mask value that defines whether each pixel of the tomographic image is included inside or outside the geometric shape for each tomographic image, and generates mask data that holds the mask value of each pixel. ,
A program that functions as.
JP2019042820A 2019-03-08 2019-03-08 Mask generation device, three-dimensional reconstruction image generation device, mask generation method, and program Active JP7275669B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019042820A JP7275669B2 (en) 2019-03-08 2019-03-08 Mask generation device, three-dimensional reconstruction image generation device, mask generation method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019042820A JP7275669B2 (en) 2019-03-08 2019-03-08 Mask generation device, three-dimensional reconstruction image generation device, mask generation method, and program

Publications (2)

Publication Number Publication Date
JP2020142003A true JP2020142003A (en) 2020-09-10
JP7275669B2 JP7275669B2 (en) 2023-05-18

Family

ID=72354997

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019042820A Active JP7275669B2 (en) 2019-03-08 2019-03-08 Mask generation device, three-dimensional reconstruction image generation device, mask generation method, and program

Country Status (1)

Country Link
JP (1) JP7275669B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220180577A1 (en) * 2020-12-09 2022-06-09 Raytheon Company System and method for generating and displaying contours
CN117079080A (en) * 2023-10-11 2023-11-17 青岛美迪康数字工程有限公司 Training optimization method, device and equipment for coronary artery CTA intelligent segmentation model
CN117576124A (en) * 2024-01-15 2024-02-20 福建智康云医疗科技有限公司 Abdominal ct image liver segmentation method and system based on artificial intelligence

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6757415B1 (en) * 1999-06-23 2004-06-29 Qualia Computing, Inc. Method for determining features from detections in a digital image using a bauer-fisher ratio
WO2007015365A1 (en) * 2005-08-01 2007-02-08 National University Corporation NARA Institute of Science and Technology Information processing device and program
JP2007135858A (en) * 2005-11-18 2007-06-07 Hitachi Medical Corp Image processor
JP2009022307A (en) * 2007-07-17 2009-02-05 Hitachi Medical Corp Medical image display device and its program
WO2012073769A1 (en) * 2010-11-29 2012-06-07 株式会社 日立メディコ Image processing device and image processing method
US20130281819A1 (en) * 2011-11-02 2013-10-24 Seno Medical Instruments, Inc. Noise suppression in an optoacoustic system
JP2018157982A (en) * 2017-03-23 2018-10-11 株式会社日立製作所 Ultrasonic diagnosis apparatus and program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6757415B1 (en) * 1999-06-23 2004-06-29 Qualia Computing, Inc. Method for determining features from detections in a digital image using a bauer-fisher ratio
WO2007015365A1 (en) * 2005-08-01 2007-02-08 National University Corporation NARA Institute of Science and Technology Information processing device and program
JP2007135858A (en) * 2005-11-18 2007-06-07 Hitachi Medical Corp Image processor
JP2009022307A (en) * 2007-07-17 2009-02-05 Hitachi Medical Corp Medical image display device and its program
WO2012073769A1 (en) * 2010-11-29 2012-06-07 株式会社 日立メディコ Image processing device and image processing method
US20130281819A1 (en) * 2011-11-02 2013-10-24 Seno Medical Instruments, Inc. Noise suppression in an optoacoustic system
JP2018157982A (en) * 2017-03-23 2018-10-11 株式会社日立製作所 Ultrasonic diagnosis apparatus and program

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220180577A1 (en) * 2020-12-09 2022-06-09 Raytheon Company System and method for generating and displaying contours
WO2022125335A1 (en) * 2020-12-09 2022-06-16 Raytheon Company System and method for generating and displaying contours
US11562512B2 (en) 2020-12-09 2023-01-24 Raytheon Company System and method for generating and displaying contours
CN117079080A (en) * 2023-10-11 2023-11-17 青岛美迪康数字工程有限公司 Training optimization method, device and equipment for coronary artery CTA intelligent segmentation model
CN117079080B (en) * 2023-10-11 2024-01-30 青岛美迪康数字工程有限公司 Training optimization method, device and equipment for coronary artery CTA intelligent segmentation model
CN117576124A (en) * 2024-01-15 2024-02-20 福建智康云医疗科技有限公司 Abdominal ct image liver segmentation method and system based on artificial intelligence
CN117576124B (en) * 2024-01-15 2024-04-30 福建智康云医疗科技有限公司 Abdominal ct image liver segmentation method and system based on artificial intelligence

Also Published As

Publication number Publication date
JP7275669B2 (en) 2023-05-18

Similar Documents

Publication Publication Date Title
US11017568B2 (en) Apparatus and method for visualizing digital breast tomosynthesis and other volumetric images
US7529396B2 (en) Method, computer program product, and apparatus for designating region of interest
US7450749B2 (en) Image processing method for interacting with a 3-D surface represented in a 3-D image
US6461298B1 (en) Three-dimensional imaging system
US7502025B2 (en) Image processing method and program for visualization of tubular tissue
US7424140B2 (en) Method, computer program product, and apparatus for performing rendering
JP2007537770A (en) A dynamic crop box determination method for display optimization of luminal structures in endoscopic images
JP7275669B2 (en) Mask generation device, three-dimensional reconstruction image generation device, mask generation method, and program
US7310095B2 (en) Method, computer program product, and device for projecting an exfoliated picture
JP4122314B2 (en) Projection image processing method, projection image processing program, and projection image processing apparatus
JP7180123B2 (en) Medical image processing apparatus, medical image processing method, program, and data creation method
JP6544472B1 (en) Rendering device, rendering method, and program
JP7247577B2 (en) 3D reconstructed image display device, 3D reconstructed image display method, program, and image generation method
JP7003635B2 (en) Computer program, image processing device and image processing method
US20060103678A1 (en) Method and system for interactive visualization of locally oriented structures
JP7155670B2 (en) Medical image processing apparatus, medical image processing method, program, and data creation method
KR100466409B1 (en) System and method for displaying a virtual endoscopy and computer-readable recording medium having virtual endoscopy displaying program recorded thereon
JP7095409B2 (en) Medical image processing device, medical image processing method, program, and MPR image generation method
US20110122134A1 (en) Image display of a tubular structure
JP7205189B2 (en) Rendering device, rendering method, and program
JPH0728976A (en) Picture display device
JP5245811B2 (en) Voxel array visualization device
JP7167699B2 (en) volume rendering device
JP4572401B2 (en) Automatic optimization of medical 3D visualization images
JP2020038592A (en) Volume rendering apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220128

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230301

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230404

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230417

R150 Certificate of patent or registration of utility model

Ref document number: 7275669

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150