JP2019205796A - Medical image processing apparatus, medical image processing method, program, and MPR image generation method - Google Patents

Medical image processing apparatus, medical image processing method, program, and MPR image generation method Download PDF

Info

Publication number
JP2019205796A
JP2019205796A JP2018103905A JP2018103905A JP2019205796A JP 2019205796 A JP2019205796 A JP 2019205796A JP 2018103905 A JP2018103905 A JP 2018103905A JP 2018103905 A JP2018103905 A JP 2018103905A JP 2019205796 A JP2019205796 A JP 2019205796A
Authority
JP
Japan
Prior art keywords
tomographic image
image
ellipse
correction
signal value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018103905A
Other languages
Japanese (ja)
Other versions
JP7095409B2 (en
Inventor
茂出木 敏雄
Toshio Modegi
敏雄 茂出木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2018103905A priority Critical patent/JP7095409B2/en
Publication of JP2019205796A publication Critical patent/JP2019205796A/en
Application granted granted Critical
Publication of JP7095409B2 publication Critical patent/JP7095409B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)

Abstract

To provide a medical image processing apparatus, etc. capable of clearly visualizing a specific region.SOLUTION: A medical image processing apparatus 1 includes: an image acquisition unit 21 for acquiring a plurality of tomographic images; a geometric information acquisition unit for approximating the outline of a subject region in the tomographic image by a predetermined geometric shape for each tomographic image, and acquiring information on the geometric shape; and an MPR image generation unit 24 for correcting a signal value of each pixel of the tomographic image on the basis of the information on a geometric shape corresponding to the tomographic image, and generating an MPR image on the basis of all the tomographic images whose signal values are corrected.SELECTED DRAWING: Figure 2

Description

本開示は、医用画像処理装置、医用画像処理方法、プログラム、及びMPR像生成方法に関する。   The present disclosure relates to a medical image processing apparatus, a medical image processing method, a program, and an MPR image generation method.

医用画像診断において、特定の被写体(人体組織)の観察に適したMPR像を得たい場面がある。例えば、胸部や頭部にある内臓や脳等の所定の人体組織の観察を行いたい場合に、内臓や脳等は骨に囲まれており、骨領域はむしろ診断の妨げになる。CT画像から生成されるMPR像では一般に骨が鮮明に描写され、内臓や血管は隠れてしまうことがあるため、可視化にあたっては切断を行うなど工夫が必要となることがある。   In medical image diagnosis, there is a scene where it is desired to obtain an MPR image suitable for observation of a specific subject (human body tissue). For example, when it is desired to observe a predetermined human body tissue such as the internal organs and brain in the chest and head, the internal organs and brain are surrounded by bones, and the bone region rather hinders diagnosis. In an MPR image generated from a CT image, bones are generally clearly depicted, and internal organs and blood vessels may be hidden. Therefore, it may be necessary to devise such as cutting for visualization.

たとえば、下記の特許文献1では、CT画像の信号値に基づいて領域の抽出とラベリングを行い、ラベリングされた各肋骨領域が適正か否かを、別途構築した統計上の肋骨の体軸方向の高さ幅情報を有する統計データベースを用いた手法が開示されている。これにより、骨領域(肋骨領域)を検出して除去させることができるが、特許文献1の方法では、肋骨に先天性の奇形があったり、骨折を伴う場合には判定誤りが発生し、適切に除去できなくなる。   For example, in Patent Document 1 below, extraction and labeling of regions is performed based on signal values of CT images, and whether or not each labeled rib region is appropriate is determined in the body axis direction of a separately constructed statistical rib. A technique using a statistical database having height width information is disclosed. Thereby, the bone region (rib region) can be detected and removed. However, in the method of Patent Document 1, a determination error occurs when the rib has a congenital malformation or is accompanied by a fracture. Cannot be removed.

また、領域拡張法(リージョングローイング法)を用いて非観察対象としたい骨領域を抽出した3次元マスクを作成し、3次元マスクを参照しながらマスク処理により非観察対象としたい骨領域を除去する方法が開示されている(特許文献2、3参照)。領域拡張法とは、非観察対象領域の画素を指定し、その画素を開始点(拡張開始点)として、近傍画素を次々と抽出する方法である。   In addition, a 3D mask is created by extracting the bone region to be unobserved using the region expansion method (region growing method), and the bone region to be unobserved is removed by mask processing while referring to the 3D mask. A method is disclosed (see Patent Documents 2 and 3). The region expansion method is a method of designating pixels in a non-observation target region and extracting neighboring pixels one after another using that pixel as a start point (expansion start point).

特開2009−240569号公報JP 2009-240569 A 特許4087517号公報Japanese Patent No. 4087517 特許5257958号公報Japanese Patent No. 5257958

しかしながら、領域拡張法を用いた3次元マスクの作成は、ユーザによる複数の拡張開始点の指示が必須で、拡張の打ち切り段階もユーザが指示する必要があるため、自動化が難しく、ユーザごとに結果にバラつきが発生するという問題がある。また領域拡張法に限らず、3次元マスクの作成は、ユーザのスキルや経験が必要であり、その作成に時間や手間がかかる。   However, the creation of a three-dimensional mask using the region expansion method requires a user to specify a plurality of expansion start points, and the user also has to indicate the expansion termination point. There is a problem that variations occur. In addition to the region expansion method, creation of a three-dimensional mask requires user skill and experience, and the creation takes time and effort.

本開示は、前述した問題点に鑑みてなされたものであり、その目的とすることは、特定の領域を鮮明に可視化することが可能な、医用画像処理装置等を提供することである。   The present disclosure has been made in view of the above-described problems, and an object of the present disclosure is to provide a medical image processing apparatus that can clearly visualize a specific area.

本開示の一実施形態によると、複数の断層画像を取得する画像取得手段と、前記断層画像毎に、断層画像の被写体領域の外郭を所定の幾何形状で近似し、当該幾何形状の情報を取得する幾何情報取得手段と、前記断層画像の各画素の信号値を、当該断層画像に対応する幾何形状の情報に基づいて補正し、信号値が補正された全ての前記断層画像に基づいてMPR像を生成するMPR像生成手段と、を備える医用画像処理装置が提供される。   According to an embodiment of the present disclosure, image acquisition means for acquiring a plurality of tomographic images, and for each of the tomographic images, an outline of a subject area of the tomographic image is approximated with a predetermined geometric shape, and information on the geometric shape is acquired. And a geometric information acquisition means for correcting the signal value of each pixel of the tomographic image based on information of a geometric shape corresponding to the tomographic image, and an MPR image based on all the tomographic images whose signal values are corrected. And an MPR image generation means for generating a medical image processing apparatus.

本開示の一実施形態によれば、断層画像の各画素の信号値を、断層画像の被写体領域の外郭を近似した幾何形状の情報に基づいて補正し、信号値が補正された断層画像に基づいてMPR像を生成する。このように、被写体形状(幾何形状)に基づいて信号値をコントロールすることで、容易に特定の領域を鮮明に可視化させたMPR像を得ることができる。   According to an embodiment of the present disclosure, the signal value of each pixel of the tomographic image is corrected based on geometric shape information that approximates the outline of the subject area of the tomographic image, and the signal value is corrected based on the tomographic image. To generate an MPR image. Thus, by controlling the signal value based on the subject shape (geometric shape), it is possible to easily obtain an MPR image in which a specific area is clearly visualized.

また、前記断層画像毎に、断層画像の各画素に対応する補正倍率を、当該断層画像に対応する幾何形状の情報に基づいて算出する補正倍率算出手段と、を更に備え、前記MPR像生成手段は、前記断層画像の各画素の信号値に対して、前記補正倍率算出手段により算出された補正倍率を乗算するようにしても良い。これにより、断層画像の各画素の信号値に対して、幾何形状の情報に基づいて算出された補正倍率を乗算することで、信号値を補正することができる。   Further, the MPR image generation means further comprises correction magnification calculation means for calculating a correction magnification corresponding to each pixel of the tomographic image for each of the tomographic images based on information on a geometric shape corresponding to the tomographic image. May multiply the signal value of each pixel of the tomographic image by the correction magnification calculated by the correction magnification calculation means. Thus, the signal value can be corrected by multiplying the signal value of each pixel of the tomographic image by the correction magnification calculated based on the geometric information.

また、前記補正倍率算出手段は、算出した補正倍率を格納する補正テーブルを作成するテーブル作成手段と、を更に備え、前記MPR生成手段は、前記断層画像の各画素の信号値に対して、前記補正テーブルを参照して得られる補正倍率を乗算するようにしても良い。これにより、補正倍率を格納した補正テーブルを参照して、信号値を補正することができる。   Further, the correction magnification calculation means further includes a table creation means for creating a correction table for storing the calculated correction magnification, and the MPR generation means is configured to output the signal value of each pixel of the tomographic image with respect to the signal value. You may make it multiply the correction magnification obtained with reference to a correction table. Thereby, the signal value can be corrected with reference to the correction table storing the correction magnification.

また、前記補正倍率算出手段は、前記補正倍率を、前記幾何形状の幾何中心から遠ざかるにつれ小さくするようにしても良い。これにより、被写体領域の中心から遠ざかるにつれ信号値が減衰するので、被写体領域の中心部から離れた骨領域や体表が不可視となり、被写体領域の中心部に近い臓器等が鮮明に可視化される。   Further, the correction magnification calculation means may reduce the correction magnification as the distance from the geometric center of the geometric shape increases. As a result, the signal value is attenuated as the distance from the center of the subject area becomes invisible, so that the bone area and the body surface away from the center of the subject area become invisible, and an organ or the like near the center of the subject area is clearly visualized.

また、前記幾何形状は楕円であり、前記幾何情報取得手段は、前記幾何形状の情報として、楕円の中心座標、楕円の横方向のサイズ、及び楕円の縦方向のサイズを取得し、前記補正倍率算出手段は、前記中心座標、前記横方向のサイズ、及び前記縦方向のサイズに基づいて、前記補正倍率を算出するようにしても良い。これにより、被写体領域の外郭を楕円で近似し、楕円パラメータ(中心座標、横方向のサイズ、縦方向のサイズ)に基づいて、補正倍率を算出することができる。なお本開示において、横方向とは、断層画像の座標系を規定する2つの座標軸方向(X軸方向、Y軸方向)のうち、該断層画像に映る被写体の左右軸の方向と近いほうの座標軸方向のことを指す。また、縦方向とは、断層画像の座標系を規定する2つの座標軸方向(X軸方向、Y軸方向)のうち、該断層画像に映る被写体の背腹軸(前後軸)の方向と近いほうの座標軸方向のことを指す。ここで、断層画像のX軸およびY軸は、例えば、モダリティでの撮影時に適宜設定されるが、本開示では、被写体の左右軸と方向が近いほうの座標軸をX軸、被写体の背腹軸(前後軸)と方向が近いほうの座標軸をY軸とする。すなわち、本開示では、横方向は断層画像のX軸方向に相当し、縦方向は断層画像のY軸方向に相当するものとして説明する。   The geometric shape is an ellipse, and the geometric information acquisition means acquires, as the geometric information, the center coordinates of the ellipse, the horizontal size of the ellipse, and the vertical size of the ellipse, and the correction magnification. The calculating means may calculate the correction magnification based on the center coordinates, the horizontal size, and the vertical size. Thereby, the outline of the subject region can be approximated by an ellipse, and the correction magnification can be calculated based on the ellipse parameters (center coordinates, horizontal size, vertical size). In the present disclosure, the horizontal direction is a coordinate axis that is closer to the left-right axis direction of the subject shown in the tomographic image among the two coordinate axis directions (X-axis direction and Y-axis direction) that define the coordinate system of the tomographic image. It refers to the direction. The vertical direction is the closer to the dorsoventral axis (front-rear axis) of the subject shown in the tomographic image among the two coordinate axis directions (X-axis direction and Y-axis direction) that define the coordinate system of the tomographic image. This refers to the direction of the coordinate axis. Here, the X axis and the Y axis of the tomographic image are appropriately set, for example, when photographing with a modality. In the present disclosure, the coordinate axis that is closer to the left and right axes of the subject is the X axis, and the subject's dorsoventral axis The coordinate axis whose direction is closer to the (front-rear axis) is taken as the Y-axis. That is, in the present disclosure, the horizontal direction corresponds to the X-axis direction of the tomographic image, and the vertical direction corresponds to the Y-axis direction of the tomographic image.

また、前記補正倍率算出手段は、前記中心座標における前記補正倍率を最大とし、前記中心座標と前記横方向のサイズ及び前記縦方向のサイズの比が同一となる前記楕円内部の各同心楕円上の前記補正倍率を、各同心楕円の横方向のサイズ及び縦方向のサイズが大きくなるにつれ小さくするようにしても良い。これにより、楕円内部の補正倍率が好適に算出される。   Further, the correction magnification calculation means maximizes the correction magnification in the center coordinates, and the ratio of the central coordinates to the horizontal size and the vertical size is the same on each concentric ellipse inside the ellipse. The correction magnification may be decreased as the horizontal size and the vertical size of each concentric ellipse increase. Thereby, the correction magnification inside the ellipse is suitably calculated.

また、前記補正倍率算出手段は、前記中心座標に所定のオフセットを加算して前記中心座標を補正し、前記横方向のサイズ及び前記縦方向のサイズに所定の横方向のサイズに対する倍率及び縦方向のサイズに対する倍率を乗算して前記横方向のサイズ及び前記縦方向のサイズを補正し、補正された前記中心座標、前記横方向のサイズ、及び前記縦方向のサイズに基づいて、前記補正倍率を算出するようにしても良い。これにより、楕円パラメータ(中心座標、横方向のサイズ、縦方向のサイズ)を補正したうえで、補正倍率を算出することができる。   Further, the correction magnification calculation means corrects the center coordinate by adding a predetermined offset to the center coordinate, and the magnification and the vertical direction with respect to the predetermined horizontal size to the horizontal size and the vertical size. The horizontal size and the vertical size are corrected by multiplying the magnification with respect to the size of the image, and the correction magnification is calculated based on the corrected center coordinates, the horizontal size, and the vertical size. It may be calculated. Thereby, the correction magnification can be calculated after correcting the ellipse parameters (center coordinates, horizontal size, vertical size).

また、前記オフセット、前記横方向のサイズに対する倍率、及び前記縦方向のサイズに対する倍率をユーザに調整させる調整手段と、を更に備えるようにしても良い。これにより、楕円パラメータの補正量をユーザが調整することができる。   The image forming apparatus may further include an adjusting unit that allows a user to adjust the offset, the magnification with respect to the horizontal size, and the magnification with respect to the vertical size. Thereby, the user can adjust the correction amount of the ellipse parameter.

また、前記MPR生成手段は、前記断層画像の各画素の信号値を、当該断層画像に対応する幾何形状の情報、及び当該断層画像のスライス位置の情報に基づいて補正するようにしても良い。これにより、断層画像の幾何形状の情報(幾何パラメータ)に加え、断層画像のスライス位置の情報(スライスパラメータ)を考慮して信号値を補正することができる。   Further, the MPR generation unit may correct the signal value of each pixel of the tomographic image based on information on a geometric shape corresponding to the tomographic image and information on a slice position of the tomographic image. Accordingly, the signal value can be corrected in consideration of the slice position information (slice parameter) of the tomographic image in addition to the geometric shape information (geometric parameter) of the tomographic image.

前記断層画像毎に、断層画像の各画素に対応する補正倍率を、当該断層画像に対応する幾何形状の情報、及び当該断層画像のスライス位置の情報に基づいて算出する補正倍率算出手段と、を更に備え、前記MPR像生成手段は、前記断層画像の各画素の信号値に対して、前記補正倍率算出手段により算出された補正倍率を乗算するようにしても良い。これにより、断層画像の各画素の信号値に対して、幾何形状の情報及びスライス位置の情報に基づいて算出された補正倍率を乗算することで、信号値を補正することができる。   Correction magnification calculating means for calculating, for each tomographic image, a correction magnification corresponding to each pixel of the tomographic image based on information on a geometric shape corresponding to the tomographic image and information on a slice position of the tomographic image; Further, the MPR image generation means may multiply the signal value of each pixel of the tomographic image by the correction magnification calculated by the correction magnification calculation means. Thus, the signal value can be corrected by multiplying the signal value of each pixel of the tomographic image by the correction magnification calculated based on the geometric shape information and the slice position information.

また、前記補正倍率算出手段は、算出した補正倍率を格納する補正テーブルを作成するテーブル作成手段と、を更に備え、前記MPR生成手段は、前記断層画像の各画素の信号値に対して、前記補正テーブルを参照して得られる補正倍率を乗算するようにしても良い。これにより、補正倍率を格納した補正テーブルを参照して、信号値を補正することができる。   Further, the correction magnification calculation means further includes a table creation means for creating a correction table for storing the calculated correction magnification, and the MPR generation means is configured to output the signal value of each pixel of the tomographic image with respect to the signal value. You may make it multiply the correction magnification obtained with reference to a correction table. Thereby, the signal value can be corrected with reference to the correction table storing the correction magnification.

また、前記補正倍率算出手段は、前記補正倍率を、前記幾何形状の幾何中心から遠ざかるにつれ小さくし、かつ、スライス位置が中央から末端に位置するほど小さくするようにしても良い。これにより、被写体領域の中心から遠ざかるつれ信号値が減衰するので、被写体領域の中心部から離れた骨領域や体表が不可視となり、被写体領域の中心部に近い臓器等が鮮明に可視化される。また、スライス位置が中央から遠ざかるにつれ信号値が減衰するので、特にスライス末端近くで被写体領域に占める骨領域(頭頂骨や顎骨)が増大する頭部CTにおいて、骨領域を効果的に除去することができる。   Further, the correction magnification calculation means may decrease the correction magnification as the distance from the geometric center of the geometric shape decreases, and decrease as the slice position is located from the center to the end. As a result, the signal value that decays away from the center of the subject region is attenuated, so that the bone region and the body surface away from the central portion of the subject region become invisible, and an organ or the like near the central portion of the subject region is clearly visualized. Further, since the signal value attenuates as the slice position moves away from the center, the bone region can be effectively removed particularly in the head CT in which the bone region (parietal bone or jaw bone) occupying the subject region increases near the end of the slice. Can do.

また、前記幾何形状は楕円であり、前記幾何情報取得手段は、前記幾何形状の情報として、楕円の中心座標、楕円の横方向のサイズ、及び楕円の縦方向のサイズを取得し、前記スライス位置の情報は、スライス総数、及びスライス順位であり、前記補正倍率算出手段は、前記中心座標、前記横方向のサイズ、前記縦方向のサイズ、前記スライス総数、及び前記スライス順位に基づいて、補正倍率を算出するようにしても良い。これにより、楕円パラメータ(中心座標、横方向のサイズ、縦方向のサイズ)、及びスライスパラメータ(スライス総数、スライス順位)に基づいて、補正倍率を算出することができる。   The geometric shape is an ellipse, and the geometric information acquisition unit acquires, as the geometric information, an ellipse center coordinate, a horizontal size of the ellipse, and a vertical size of the ellipse, and the slice position Is the total number of slices and the slice order, and the correction magnification calculation means determines the correction magnification based on the center coordinates, the horizontal size, the vertical size, the total number of slices, and the slice order. May be calculated. Accordingly, the correction magnification can be calculated based on the ellipse parameters (center coordinates, horizontal size, vertical size) and slice parameters (total number of slices, slice rank).

また、前記補正倍率算出手段は、前記中心座標における前記補正倍率を最大とし、前記中心座標と前記横方向のサイズ及び前記縦方向のサイズの比が同一となる前記楕円内部の各同心楕円上の前記補正倍率を、各同心楕円の横方向のサイズ及び縦方向のサイズが大きくなるにつれ小さくし、かつ、前記スライス総数/2とスライス順位との差が大きくなるにつれ前記補正倍率を小さくするようにしても良い。これにより、楕円内部の補正倍率がスライス方向を考慮して好適に算出される。   Further, the correction magnification calculation means maximizes the correction magnification in the center coordinates, and the ratio of the central coordinates to the horizontal size and the vertical size is the same on each concentric ellipse inside the ellipse. The correction magnification is decreased as the horizontal size and the vertical size of each concentric ellipse are increased, and the correction magnification is decreased as the difference between the total number of slices / 2 and the slice order is increased. May be. Thereby, the correction magnification inside the ellipse is suitably calculated in consideration of the slice direction.

また、前記補正倍率算出手段は、前記中心座標に所定のオフセットを加算して前記中心座標を補正し、前記横方向のサイズ及び前記縦方向のサイズに所定の横方向のサイズに対する倍率及び縦方向のサイズに対する倍率を乗算して前記横方向のサイズ及び前記縦方向のサイズを補正し、前記スライス総数に所定のスライス総数に対する倍率を乗算して補正し、前記スライス順位を所定のスライスオフセットを加算して補正し、補正された前記中心座標、前記横方向のサイズ、前記縦方向のサイズ、前記スライス総数、及び前記スライス順位に基づいて、前記補正倍率を算出するようにしても良い。これにより、楕円パラメータ(中心座標、横方向のサイズ、縦方向のサイズ)、及びスライスパラメータ(スライス総数、スライス順位)を補正したうえで、補正倍率を算出することができる。   Further, the correction magnification calculation means corrects the center coordinate by adding a predetermined offset to the center coordinate, and the magnification and the vertical direction with respect to the predetermined horizontal size to the horizontal size and the vertical size. The horizontal size and the vertical size are corrected by multiplying by a magnification with respect to the size of the image, the total number of slices is corrected by multiplying by a magnification with respect to the predetermined total number of slices, and the slice order is added with a predetermined slice offset. The correction magnification may be calculated based on the corrected center coordinates, the horizontal size, the vertical size, the total number of slices, and the slice order. Thus, the correction magnification can be calculated after correcting the ellipse parameters (center coordinates, horizontal size, vertical size) and slice parameters (total number of slices, slice order).

また、前記オフセット、前記横方向のサイズに対する倍率、前記縦方向のサイズに対する倍率、前記スライス総数に対する倍率、及び前記スライスオフセットをユーザに調整させる調整手段と、を更に備えるようにしても良い。これにより、楕円パラメータ(中心座標、横方向のサイズ、縦方向のサイズ)、及びスライスパラメータ(スライス総数、スライス順位)の補正量をユーザが調整することができる。   The image processing apparatus may further include adjustment means for allowing a user to adjust the offset, a magnification with respect to the horizontal size, a magnification with respect to the vertical size, a magnification with respect to the total number of slices, and the slice offset. Thereby, the user can adjust the correction amounts of the ellipse parameters (center coordinates, horizontal size, vertical size) and slice parameters (total number of slices, slice order).

また、前記断層画像の幾何形状の近似精度を所定の基準で判断し、所定の基準に満たない前記断層画像の幾何形状の情報を、所定の基準を満たす他の前記断層画像の幾何形状の情報に基づいて補正する幾何情報補正手段と、を更に備えるようにしても良い。これにより、近似精度が良好でない断層画像の幾何形状の情報(幾何パラメータ)を補正することができる。   In addition, the approximate accuracy of the geometric shape of the tomographic image is determined based on a predetermined criterion, and information on the geometric shape of the tomographic image that does not satisfy the predetermined criterion is used as information on the geometric shape of the other tomographic image that satisfies the predetermined criterion. And geometric information correction means for correcting based on the above. Thereby, it is possible to correct the information (geometric parameters) of the geometric shape of the tomographic image with poor approximation accuracy.

また、前記幾何形状は楕円であり、前記幾何情報取得手段は、前記幾何形状の情報として、楕円の中心座標、楕円の横方向のサイズ及び楕円の縦方向のサイズを取得し、前記幾何情報補正手段は、楕円の横方向のサイズが画像の横方向のサイズと一致する前記断層画像における楕円の横方向のサイズを、楕円の横方向のサイズが画像の横方向のサイズより小さい他の前記断層画像における楕円の横方向のサイズ及び縦方向のサイズの比と同一となるように、補正するようにしても良い。これにより、被写体領域が画像範囲に収まらない断層画像であっても、幾何パラメータ(楕円パラメータ)を良好に算出することができる。   In addition, the geometric shape is an ellipse, and the geometric information acquisition unit acquires, as the geometric information, the center coordinates of the ellipse, the horizontal size of the ellipse, and the vertical size of the ellipse, and corrects the geometric information. Means for determining the horizontal size of the ellipse in the tomographic image in which the horizontal size of the ellipse matches the horizontal size of the image, and the other tomographic image in which the horizontal size of the ellipse is smaller than the horizontal size of the image; You may make it correct | amend so that it may become the same as the ratio of the size of the ellipse in the horizontal direction of the image, and the size of the vertical direction. Thereby, even if the tomographic image does not fit in the image range, the geometric parameter (ellipse parameter) can be calculated satisfactorily.

また、信号値と色値及び不透明度との対応関係を定義するカラーマップを取得するカラーマップ取得手段と、前記カラーマップを参照することで、前記断層画像の各画素の信号値を、信号値に応じた色値及び不透明度に変換し、色値及び不透明度を保持するボクセルの集合であるボクセルデータを作成するボクセル作成手段と、前記ボクセルデータに基づいてボリュームレンダリング像を生成するレンダリング手段と、を備えるようにしても良い。これにより、断層画像に基づいてボリュームレンダリング像を生成することができる。   Further, a color map acquisition unit that acquires a color map that defines a correspondence relationship between the signal value, the color value, and the opacity, and the signal value of each pixel of the tomographic image is obtained by referring to the color map. Voxel creation means for creating voxel data that is a set of voxels that convert the color value and opacity according to the color value and retain the color value and opacity, and rendering means for generating a volume rendering image based on the voxel data May be provided. Thereby, a volume rendering image can be generated based on the tomographic image.

また、前記ボクセル作成手段は、前記断層画像の各画素の信号値に応じた前記不透明度を、当該断層画像に対応する幾何形状の情報に基づいて補正するようにしても良い。これにより、カラーマップを参照して断層画像の各画素の信号値を色値及び不透明度に変換してボクセルデータを作成する際、カラーマップ(オパシティカーブ)に定義された不透明度を、断層画像の被写体領域の外郭を近似した幾何形状の情報に基づいて補正する。このように、被写体形状(幾何形状)に基づいて不透明度をコントロールすることで、容易に特定の領域を鮮明に可視化させたレンダリング像を得ることができる。   Further, the voxel creating means may correct the opacity according to the signal value of each pixel of the tomographic image based on information on a geometric shape corresponding to the tomographic image. As a result, when the voxel data is created by converting the signal value of each pixel of the tomographic image into a color value and opacity with reference to the color map, the opacity defined in the color map (opacity curve) is converted to the tomographic image. Is corrected based on information on a geometric shape approximating the outline of the subject area. Thus, by controlling the opacity based on the subject shape (geometric shape), it is possible to easily obtain a rendered image in which a specific area is clearly visualized.

また、前記ボクセル作成手段は、前記断層画像の各画素の信号値に応じた前記不透明度を、更に、当該断層画像のスライス位置の情報に基づいて補正するようにしても良い。これにより、断層画像のスライス位置の情報を更に考慮して不透明度を補正することができる。   Further, the voxel creating means may further correct the opacity according to the signal value of each pixel of the tomographic image based on information on a slice position of the tomographic image. Thereby, the opacity can be corrected by further considering the slice position information of the tomographic image.

また、信号値と所定の閾値との差分値に応じて当該信号値に対応する不透明度を減衰させるように前記カラーマップを調整するカラーマップ調整手段と、を更に備え、前記ボクセル作成手段は、調整された前記カラーマップを参照して、ボクセルデータを作成するようにしても良い。これにより、カラーマップ(オパシティカーブ)の不透明度を信号値に応じて調整することができる。   The voxel creating means further includes color map adjusting means for adjusting the color map so as to attenuate opacity corresponding to the signal value according to a difference value between the signal value and a predetermined threshold value. Voxel data may be created by referring to the adjusted color map. Thereby, the opacity of the color map (opacity curve) can be adjusted according to the signal value.

また、代表的な信号値と色値及び不透明度との対応関係に基づいて、所定範囲の信号値と色値及び不透明度との対応関係を定義するカラーマップを作成するカラーマップ作成手段と、を更に備え、前記カラーマップ取得手段は、作成した前記カラーマップを取得するようにしても良い。これにより、例えば、代表的な信号値(例えば、10箇所程度の特徴的な信号値)と当該信号値に対する色値及び不透明度をユーザが設定するだけで、自動でカラーマップを作成することができる。   A color map creating means for creating a color map that defines the correspondence between the signal value of a predetermined range, the color value, and the opacity based on the correspondence between the representative signal value, the color value, and the opacity; The color map acquisition unit may acquire the created color map. Thereby, for example, a user can set a representative signal value (for example, characteristic signal values of about 10 locations), a color value and an opacity for the signal value, and a color map can be automatically created. it can.

また、本開示の一実施形態によると、コンピュータの制御部が、複数の断層画像を取得する画像取得ステップと、前記断層画像毎に、断層画像の被写体領域の外郭を所定の幾何形状で近似し、当該幾何形状の情報を取得する幾何情報取得ステップと、前記断層画像の各画素の信号値を、当該断層画像に対応する幾何形状の情報に基づいて補正し、信号値が補正された全ての前記断層画像に基づいてMPR像を生成するMPR像生成ステップと、を含む医用画像処理方法が提供される。   According to an embodiment of the present disclosure, the control unit of the computer acquires an image acquisition step of acquiring a plurality of tomographic images, and approximates the outline of the subject area of the tomographic image with a predetermined geometric shape for each of the tomographic images. A geometric information acquisition step of acquiring information of the geometric shape, and correcting the signal value of each pixel of the tomographic image based on the information of the geometric shape corresponding to the tomographic image, and all the signal values corrected An MPR image generation step for generating an MPR image based on the tomographic image is provided.

本開示の一実施形態によれば、断層画像の各画素の信号値を、断層画像の被写体領域の外郭を近似した幾何形状の情報に基づいて補正し、信号値が補正された断層画像に基づいてMPR像を生成する。このように、被写体形状(幾何形状)に基づいて信号値をコントロールすることで、容易に特定の領域を鮮明に可視化させたMPR像を得ることができる。   According to an embodiment of the present disclosure, the signal value of each pixel of the tomographic image is corrected based on geometric shape information that approximates the outline of the subject area of the tomographic image, and the signal value is corrected based on the tomographic image. To generate an MPR image. Thus, by controlling the signal value based on the subject shape (geometric shape), it is possible to easily obtain an MPR image in which a specific area is clearly visualized.

また、本開示の一実施形態によると、コンピュータを、複数の断層画像を取得する画像取得手段、前記断層画像毎に、断層画像の被写体領域の外郭を所定の幾何形状で近似し、当該幾何形状の情報を取得する幾何情報取得手段、前記断層画像の各画素の信号値を、当該断層画像に対応する幾何形状の情報に基づいて補正し、信号値が補正された全ての前記断層画像に基づいてMPR像を生成するMPR像生成手段、として機能させるプログラムが提供される。本開示の一実施形態に係るプログラムを汎用のコンピュータにインストールすることによって、本開示の一実施形態に係る医用画像処理装置を得ることができる。   Further, according to an embodiment of the present disclosure, the computer has an image acquisition unit that acquires a plurality of tomographic images, and for each of the tomographic images, the outline of the subject area of the tomographic image is approximated by a predetermined geometric shape, and the geometric shape Geometric information acquisition means for acquiring the information of the pixel, the signal value of each pixel of the tomographic image is corrected based on information of the geometric shape corresponding to the tomographic image, and based on all the tomographic images whose signal values are corrected A program that functions as MPR image generation means for generating an MPR image is provided. A medical image processing apparatus according to an embodiment of the present disclosure can be obtained by installing a program according to an embodiment of the present disclosure on a general-purpose computer.

また、本開示の一実施形態によると、断層画像に基づいてMPR像を生成するMPR像生成装置が実行するMPR像生成方法であって、複数の断層画像を取得する画像取得ステップと、前記断層画像毎に、断層画像の被写体領域の外郭を所定の幾何形状で近似し、当該幾何形状の情報を取得する幾何情報取得ステップと、前記断層画像の各画素の信号値を、当該断層画像に対応する幾何形状の情報に基づいて補正し、信号値が補正された前記断層画像に基づいてMPR像を生成するMPR像生成ステップと、を含むMPR像生成方法が提供される。   Further, according to an embodiment of the present disclosure, there is provided an MPR image generation method executed by an MPR image generation apparatus that generates an MPR image based on a tomographic image, the image acquiring step for acquiring a plurality of tomographic images, and the tomographic image For each image, a geometric information acquisition step for approximating the outline of the subject area of the tomographic image with a predetermined geometric shape and acquiring information on the geometric shape, and the signal value of each pixel of the tomographic image corresponding to the tomographic image An MPR image generation method including: an MPR image generation step of generating an MPR image based on the tomographic image corrected based on information on the geometric shape to be corrected and the signal value corrected.

本開示の一実施形態によれば、断層画像の各画素の信号値を、断層画像の被写体領域の外郭を近似した幾何形状の情報に基づいて補正し、信号値が補正された断層画像に基づいてMPR像を生成する。このように、被写体形状(幾何形状)に基づいて信号値をコントロールすることで、容易に特定の領域を鮮明に可視化させたMPR像を得ることができる。   According to an embodiment of the present disclosure, the signal value of each pixel of the tomographic image is corrected based on geometric shape information that approximates the outline of the subject area of the tomographic image, and the signal value is corrected based on the tomographic image. To generate an MPR image. Thus, by controlling the signal value based on the subject shape (geometric shape), it is possible to easily obtain an MPR image in which a specific area is clearly visualized.

本開示により、特定の領域を鮮明に可視化させることできる。   According to the present disclosure, a specific area can be clearly visualized.

医用画像処理装置1のハードウェア構成を示す図The figure which shows the hardware constitutions of the medical image processing apparatus 1. 医用画像処理装置1の機能構成を示す図The figure which shows the function structure of the medical image processing apparatus 1. 補正テーブル作成部23の内部構成を示す図The figure which shows the internal structure of the correction table preparation part 23. 体軸断面、冠状断面、矢状断面について説明する図The figure explaining a body axis section, a coronal section, and a sagittal section 医用画像処理装置1の全体動作を示すフローチャートFlowchart showing the overall operation of the medical image processing apparatus 1 補正テーブル作成処理を示すフローチャートFlow chart showing correction table creation processing 楕円パラメータP(z)を取得する処理を説明する図The figure explaining the process which acquires the ellipse parameter P (z) 楕円パラメータP(z)の補正について説明する図The figure explaining correction | amendment of the ellipse parameter P (z) 断層画像Do(z)毎に、被写体形状の外郭が楕円形状で近似されていく様子を示す図The figure which shows a mode that the outline of a to-be-photographed object shape is approximated by the ellipse shape for every tomographic image Do (z). 補正倍率Sの分布パターンを示す図The figure which shows the distribution pattern of the correction magnification S XY方向の振幅倍率と補正倍率との関係を示す図The figure which shows the relationship between the amplitude magnification of XY direction and correction magnification MPR像の表示例を示す図The figure which shows the example of a display of MPR image MPR像の表示例を示す図The figure which shows the example of a display of MPR image 第2の実施の形態における補正倍率S(x、y、z)の分布パターンを示す図The figure which shows the distribution pattern of correction magnification S (x, y, z) in 2nd Embodiment. XYZ方向の振幅倍率と補正倍率との関係を示す図The figure which shows the relationship between the amplitude magnification of a XYZ direction, and correction magnification. 第3の実施形態における医用画像処理装置1の機能構成を示す図The figure which shows the function structure of the medical image processing apparatus 1 in 3rd Embodiment. 第3の実施形態における医用画像処理装置1aの全体動作を示すフローチャートThe flowchart which shows the whole operation | movement of the medical image processing apparatus 1a in 3rd Embodiment. パラメータ調整画面40の表示例を示す図The figure which shows the example of a display of the parameter adjustment screen 40 第4の実施形態における医用画像処理装置1bの機能構成を示す図The figure which shows the function structure of the medical image processing apparatus 1b in 4th Embodiment. レンダリング部32の内部構成を示す図The figure which shows the internal structure of the rendering part 32 第4の実施形態における医用画像処理装置1bの全体動作を示すフローチャートThe flowchart which shows the whole operation | movement of the medical image processing apparatus 1b in 4th Embodiment. 調整されたカラーマップCmapの性質を示す図The figure which shows the property of the adjusted color map Cmap ボクセル作成処理を示すフローチャートFlow chart showing voxel creation processing レイキャスティング法の概要を示す図Diagram showing the outline of the ray casting method レイキャスティング法によるレンダリング処理を示すフローチャートFlow chart showing rendering process by ray casting method 探索制御マスク算出処理を示すフローチャートFlowchart showing search control mask calculation processing 探索制御マスク算出処理を説明する図The figure explaining search control mask calculation processing 不透明ボクセル探索処理を示すフローチャートFlow chart showing opaque voxel search process レイキャスティング処理を示すフローチャートFlow chart showing ray casting process 3Dテクスチャマッピング法ついて説明する図Diagram explaining 3D texture mapping method 色補正処理を示すフローチャートFlow chart showing color correction processing 3Dテクスチャマッピング法によるレンダリング処理を示すフローチャートFlow chart showing rendering processing by 3D texture mapping method 投影画面設定処理を示すフローチャートFlow chart showing the projection screen setting process レンダリング処理を示すフローチャートFlow chart showing the rendering process 従来手法により生成したレンダリング像(正面)Rendered image generated by the conventional method (front) 提案手法により生成したレンダリング像(正面)Rendered image generated by the proposed method (front) 提案手法により生成したレンダリング像(背面)Rendered image generated by the proposed method (back) 提案手法により生成したレンダリング像(側面)Rendered image generated by the proposed method (side view)

以下図面に基づいて、本開示の実施の形態を詳細に説明する。本実施の形態では、X線CT装置により撮影されたCT画像に基づいてMPR像を生成する場合について説明するが、本開示はCT画像以外の医用画像(MRI画像やPET画像等)に基づいてMPR像を生成する場合にも適用可能である。   Hereinafter, embodiments of the present disclosure will be described in detail based on the drawings. In the present embodiment, a case where an MPR image is generated based on a CT image taken by an X-ray CT apparatus will be described. However, the present disclosure is based on a medical image (such as an MRI image or a PET image) other than a CT image. The present invention is also applicable when generating an MPR image.

[第1の実施の形態] [First Embodiment]

図1は、本実施の形態における医用画像処理装置1(MPR像生成装置)のハードウェア構成を示すブロック図である。図1に示すように、医用画像処理装置1は、制御部11、記憶部12、メディア入出力部13、通信制御部14、入力部15、表示部16、周辺機器I/F部17等が、バス18を介して接続される汎用のコンピュータで実現される。但し、これに限ることなく、用途、目的に応じて様々な構成を採ることが可能である。   FIG. 1 is a block diagram showing a hardware configuration of a medical image processing apparatus 1 (MPR image generation apparatus) in the present embodiment. As shown in FIG. 1, the medical image processing apparatus 1 includes a control unit 11, a storage unit 12, a media input / output unit 13, a communication control unit 14, an input unit 15, a display unit 16, a peripheral device I / F unit 17, and the like. And a general-purpose computer connected via the bus 18. However, the present invention is not limited to this, and various configurations can be adopted depending on the application and purpose.

制御部11は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、ROM(Read Only
Memory)、RAM(Random Access Memory)、フレームメモリ(Frame Memory)等によって構成される。CPU、GPUは、記憶部12、ROM、記録媒体等に格納されるプログラムをRAM、フレームメモリ上のワークメモリ領域に呼び出して実行し、バス18を介して接続された各装置を駆動制御し、医用画像処理装置1が行う後述する処理を実現する。
The control unit 11 includes a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), and a ROM (Read Only).
Memory, RAM (Random Access Memory), frame memory, etc. The CPU and GPU call and execute a program stored in the storage unit 12, ROM, recording medium, etc. to a work memory area on the RAM or frame memory, and drive and control each device connected via the bus 18. The later-described processing performed by the medical image processing apparatus 1 is realized.

GPU及びフレームメモリは、医用画像処理装置1のビデオカードに搭載されている。ROMは、不揮発性メモリであり、コンピュータのブートプログラムやBIOS等のプログラム、データ等を恒久的に保持している。RAM、フレームメモリは、揮発性メモリであり、記憶部12、ROM、記録媒体等からロードしたプログラム、データ等を一時的に保持するとともに、制御部11が各種処理を行う為に使用するワークエリアを備える。   The GPU and the frame memory are mounted on the video card of the medical image processing apparatus 1. The ROM is a non-volatile memory and permanently holds a computer boot program, a program such as BIOS, data, and the like. The RAM and frame memory are volatile memories, and temporarily store programs, data, etc. loaded from the storage unit 12, ROM, recording medium, etc., and work areas used by the control unit 11 to perform various processes. Is provided.

記憶部12は、HDD(Hard Disk Drive)等であり、制御部11が実行するプログラム、プログラム実行に必要なデータ、OS(Operating System)等が格納される。プログラムに関しては、OSに相当する制御プログラムや、後述する処理をコンピュータに実行させるためのアプリケーションプログラムが格納されている。これらの各プログラムコードは、制御部11により必要に応じて読み出されてRAM、フレームメモリに移され、CPU、GPUに読み出されて各種の手段として実行される。   The storage unit 12 is an HDD (Hard Disk Drive) or the like, and stores a program executed by the control unit 11, data necessary for program execution, an OS (Operating System), and the like. As for the program, a control program corresponding to the OS and an application program for causing a computer to execute processing to be described later are stored. Each of these program codes is read by the control unit 11 as necessary, transferred to the RAM and frame memory, read to the CPU and GPU, and executed as various means.

メディア入出力部13(ドライブ装置)は、データの入出力を行い、例えば、CDドライブ(−ROM、−R、−RW等)、DVDドライブ(−ROM、−R、−RW等)等のメディア入出力装置を有する。通信制御部14は、通信制御装置、通信ポート等を有し、コンピュータとネットワーク間の通信を媒介する通信インタフェースであり、ネットワークを介して、他のコンピュータ間との通信制御を行う。ネットワークは、有線、無線を問わない。   The media input / output unit 13 (drive device) inputs / outputs data, for example, media such as a CD drive (-ROM, -R, -RW, etc.), DVD drive (-ROM, -R, -RW, etc.) Has input / output devices. The communication control unit 14 includes a communication control device, a communication port, and the like, and is a communication interface that mediates communication between a computer and a network, and performs communication control between other computers via the network. The network may be wired or wireless.

入力部15は、データの入力を行い、例えば、キーボード、マウス等のポインティングデバイス、テンキー等の入力装置を有する。入力部15を介して、コンピュータに対して、操作指示、動作指示、データ入力等を行うことができる。表示部16は、液晶パネル等のディスプレイ装置、ディスプレイ装置と連携してコンピュータのビデオ機能を実現するための論理回路等(ビデオアダプタ等)を有する。なお、入力部15及び表示部16は、タッチパネルディスプレイのように、一体となっていてもよい。   The input unit 15 inputs data and includes, for example, a keyboard, a pointing device such as a mouse, and an input device such as a numeric keypad. An operation instruction, an operation instruction, data input, and the like can be performed on the computer via the input unit 15. The display unit 16 includes a display device such as a liquid crystal panel, and a logic circuit or the like (video adapter or the like) for realizing a video function of the computer in cooperation with the display device. The input unit 15 and the display unit 16 may be integrated like a touch panel display.

周辺機器I/F(Interface)部17は、コンピュータに周辺機器を接続させるためのポートであり、周辺機器I/F部17を介してコンピュータは周辺機器とのデータの送受信を行う。周辺機器I/F部17は、USB(Universal Serial Bus)やIEEE1394やRS−232C等によって構成されており、通常複数の周辺機器I/Fを有する。周辺機器との接続形態は有線、無線を問わない。バス18は、各装置間の制御信号、データ信号等の授受を媒介する経路である。   The peripheral device I / F (Interface) unit 17 is a port for connecting a peripheral device to the computer, and the computer transmits and receives data to and from the peripheral device via the peripheral device I / F unit 17. The peripheral device I / F unit 17 is configured by USB (Universal Serial Bus), IEEE 1394, RS-232C, or the like, and usually includes a plurality of peripheral devices I / F. The connection form with the peripheral device may be wired or wireless. The bus 18 is a path that mediates transmission / reception of control signals, data signals, and the like between the devices.

医用画像処理装置1は、1台のコンピュータで構成されてもよいし、複数のコンピュータがネットワークを介して構成されてもよい。例えば、医用画像処理装置1が、サーバとクライアント端末で構成される場合、クライアント端末においてデータの入力を受け付けて、サーバが各種の処理を行い、クライアント端末が処理結果を表示するようにしてもよい。以下の説明では、簡素な構成例として、医用画像処理装置1が1台のコンピュータで構成された例を説明する。   The medical image processing apparatus 1 may be configured by a single computer, or a plurality of computers may be configured via a network. For example, when the medical image processing apparatus 1 includes a server and a client terminal, data input may be received at the client terminal, the server may perform various processes, and the client terminal may display the processing results. . In the following description, an example in which the medical image processing apparatus 1 is configured by one computer will be described as a simple configuration example.

図2は、医用画像処理装置1の機能構成を示す図である。図2に示すように、医用画像処理装置1は、画像取得部21、階調圧縮部22、補正テーブル作成部23、MPR生成部24、MPR表示部25、及びデータ出力部26を備える。   FIG. 2 is a diagram illustrating a functional configuration of the medical image processing apparatus 1. As illustrated in FIG. 2, the medical image processing apparatus 1 includes an image acquisition unit 21, a gradation compression unit 22, a correction table creation unit 23, an MPR generation unit 24, an MPR display unit 25, and a data output unit 26.

画像取得部21は、CT装置により撮影された断層画像群Doを取得する。断層画像群Doは、被写体(人体)を頭尾軸に沿って所定のスライス間隔で連続的に撮影した複数の断層画像(CT画像)からなる。各断層画像はDICOM形式の2次元の画像データである。DICOM形式は、1ファイルにヘッダ部と画像データ部を含む医療画像で一般的に用いられる画像フォーマットであり、画像撮影時のパラメータや診断情報を保存しておくことができる。   The image acquisition unit 21 acquires a tomographic image group Do photographed by the CT apparatus. The tomographic image group Do includes a plurality of tomographic images (CT images) obtained by continuously photographing a subject (human body) at a predetermined slice interval along the head-to-tail axis. Each tomographic image is two-dimensional image data in DICOM format. The DICOM format is an image format generally used for medical images including a header portion and an image data portion in one file, and can store parameters and diagnostic information at the time of image capturing.

1つの断層画像は、例えば、512×512ピクセルの画像(CT画像)である。断層画像の各画素には、信号値vが付与されており、CT画像の場合、信号値vはCT値である。本実施の形態では、信号値v(CT値)は16ビット(−32768≦v≦32767)のデータとする(但し、信号値vのビット数は特に限定されない)。   One tomographic image is, for example, an image (CT image) of 512 × 512 pixels. Each pixel of the tomographic image is given a signal value v. In the case of a CT image, the signal value v is a CT value. In this embodiment, the signal value v (CT value) is 16-bit (−32768 ≦ v ≦ 32767) data (however, the number of bits of the signal value v is not particularly limited).

CT値は、水を基準として表現した組織のX線減弱係数であり、CT値により組織や病変の種類等が判断できるようになっている(単位はHU(Hounsfield Unit))。CT値は、水と空気のX線減弱係数で標準化されており、水のCT値は0、空気のCT値を−1000である。また、脂肪のCT値は−120〜−100程度であり、通常組織のCT値は0〜120程度であり、骨のCT値は1000前後を示す。   The CT value is an X-ray attenuation coefficient of tissue expressed with water as a reference, and the type of tissue or lesion can be determined by the CT value (unit: HU (Hounsfield Unit)). The CT value is standardized by the X-ray attenuation coefficient of water and air. The CT value of water is 0 and the CT value of air is -1000. The CT value of fat is about -120 to -100, the CT value of normal tissue is about 0 to 120, and the CT value of bone is about 1000.

断層画像群Doは、XYの2次元データである断層画像をZ軸方向に積層したものであり、XYZの3次元データとして表現可能である。例えば断層画像群Doは、以下のように、XYZの3次元データ(Do(x、y、z))として定義される。尚、本開示において、X軸は人体の左右軸、Y軸は人体の背腹軸(前後軸)、Z軸は人体の頭尾軸(上下軸)に相当するものとする。   The tomographic image group Do is obtained by stacking tomographic images, which are XY two-dimensional data, in the Z-axis direction, and can be expressed as XYZ three-dimensional data. For example, the tomographic image group Do is defined as XYZ three-dimensional data (Do (x, y, z)) as follows. In the present disclosure, the X axis corresponds to the left and right axis of the human body, the Y axis corresponds to the dorso-abdominal axis (front-rear axis) of the human body, and the Z axis corresponds to the head-tail axis (vertical axis) of the human body.

(式1)
−32768≦Do(x、y、z)≦32767
0≦x≦Sx−1、0≦y≦Sy−1、0≦z≦Sz−1
解像度:Rxy、解像度Rz
(Formula 1)
−32768 ≦ Do (x, y, z) ≦ 32767
0 ≦ x ≦ Sx−1, 0 ≦ y ≦ Sy−1, 0 ≦ z ≦ Sz−1
Resolution: Rxy, Resolution Rz

(式1)において、Sxは断層画像の横方向(X軸方向)の画素数、Syは断層画像の縦方向(Y軸方向)の画素数、Szはスライス枚数(断層画像の枚数)を表す。RxyはX軸方向及びY軸方向の断層画像の解像度であり、画素の間隔の逆数、すなわち単位距離あたりの画素数を示す。Rzはスライスの解像度であり、断層画像のスライス間隔(例えば、0.5mmや1mm)の逆数、すなわち単位距離あたりのスライス枚数を表す。   In (Expression 1), Sx represents the number of pixels in the horizontal direction (X-axis direction) of the tomographic image, Sy represents the number of pixels in the vertical direction (Y-axis direction) of the tomographic image, and Sz represents the number of slices (the number of tomographic images). . Rxy is the resolution of the tomographic image in the X-axis direction and Y-axis direction, and indicates the reciprocal of the pixel interval, that is, the number of pixels per unit distance. Rz is the resolution of the slice, and represents the reciprocal of the slice interval (for example, 0.5 mm or 1 mm) of the tomographic image, that is, the number of slices per unit distance.

尚、断層画像群Doのうち、所定のz番目(0≦z≦Sz−1)の断層画像を表す場合は、「断層画像Do(z)」と表記することがある。   In addition, when representing a predetermined z-th (0 ≦ z ≦ Sz−1) tomographic image in the tomographic image group Do, it may be expressed as “tomographic image Do (z)”.

階調圧縮部22は、画像取得部21により取得した断層画像群Doの信号値を、必要に応じて8ビットに階調圧縮する(後述の(式6)参照)。8ビットに階調圧縮された断層画像Do(x、y、z)は以下のように定義される。   The gradation compression unit 22 performs gradation compression on the signal value of the tomographic image group Do acquired by the image acquisition unit 21 to 8 bits as necessary (see (Expression 6) described later). A tomographic image Do (x, y, z) that has been tone-compressed to 8 bits is defined as follows.

(式2)
0≦Do(x、y、z)≦255
0≦x≦Sx−1、0≦y≦Sy−1、0≦z≦Sz−1
解像度:Rxy、解像度Rz
(Formula 2)
0 ≦ Do (x, y, z) ≦ 255
0 ≦ x ≦ Sx−1, 0 ≦ y ≦ Sy−1, 0 ≦ z ≦ Sz−1
Resolution: Rxy, Resolution Rz

補正テーブル作成部23は、断層画像群Doの各画素に対応する補正倍率を格納した補正テーブルSを作成し、ボクセル作成部31に出力する。   The correction table creation unit 23 creates a correction table S that stores the correction magnification corresponding to each pixel of the tomographic image group Do, and outputs the correction table S to the voxel creation unit 31.

補正テーブル作成部23は、図3に示すように、幾何情報取得部23a、幾何情報補正部23b、及び補正倍率算出部23cから構成される。
幾何情報取得部23aは、断層画像Do(z)毎に、断層画像Do(z)の被写体領域の外郭を所定の幾何形状で近似し、幾何形状の情報(幾何パラメータP(z)、後述の(式4)参照)を取得する。
As shown in FIG. 3, the correction table creation unit 23 includes a geometric information acquisition unit 23a, a geometric information correction unit 23b, and a correction magnification calculation unit 23c.
For each tomographic image Do (z), the geometric information acquisition unit 23a approximates the outline of the subject area of the tomographic image Do (z) with a predetermined geometric shape, and obtains geometric information (geometric parameter P (z), which will be described later). (Refer to (Formula 4)).

幾何情報補正部23bは、幾何形状の近似精度を所定の基準で判断し、近似精度が良好でない断層画像Do(z)の幾何パラメータP(z)を、近似精度が良好な他の断層画像Do(z)の幾何パラメータP(z)に基づいて補正する(後述の(式5)参照)。   The geometric information correction unit 23b determines the approximate accuracy of the geometric shape based on a predetermined standard, and uses the geometric parameter P (z) of the tomographic image Do (z) whose approximation accuracy is not good to another tomographic image Do with good approximation accuracy. Correction is performed based on the geometric parameter P (z) of (z) (see (Expression 5) described later).

補正倍率算出部23cは、断層画像Do(z)毎に、断層画像Do(z)に対応する幾何パラメータP(z)に基づいて、断層画像Do(z)の各画素(x、y、z)に対応する補正倍率S(x、y、z)を算出し、補正倍率S(x、y、z)を格納した3次元の補正テーブルSを作成する(後述の(式6)参照)。   For each tomographic image Do (z), the correction magnification calculator 23c calculates each pixel (x, y, z) of the tomographic image Do (z) based on the geometric parameter P (z) corresponding to the tomographic image Do (z). ) Is calculated, and a three-dimensional correction table S storing the correction magnification S (x, y, z) is created (see (Expression 6) described later).

この際、補正倍率S(x、y、z)は、断層画像Do(z)の被写体領域の外郭を近似した幾何形状の幾何中心(後述する実施例では、楕円の中心)から遠ざかるにつれその倍率が小さくなるように算出される。   At this time, the correction magnification S (x, y, z) is the magnification as the distance from the geometric center of the geometric shape approximating the outline of the subject area of the tomographic image Do (z) (the center of the ellipse in the embodiment described later) increases. Is calculated to be small.

尚、補正倍率S(x、y、z)は3次元のデータ配列であり、そのままデータテーブル(補正テーブル)として扱えるため、補正倍率と補正テーブルは実質的に同一である。このため、補正倍率と補正テーブルは同一の符号「S」で表す。   The correction magnification S (x, y, z) is a three-dimensional data array and can be handled as it is as a data table (correction table), so the correction magnification and the correction table are substantially the same. For this reason, the correction magnification and the correction table are represented by the same symbol “S”.

MPR生成部24は、断層画像群Doに基づいて、任意断面の画像を生成し表示する。例えば、図4に示すように、XY平面に平行な体軸断面(アキシャル(Axial)断面)、XZ平面に平行な冠状断面(コロナル(Coronal)断面)、ZY平面に平行な矢状断面(サジタル(Sagittal)断面)のMPR像を生成する。また、XYZ空間を斜めに切断した斜断面(オブリーク(Oblique)断面)のMPR像を生成しても良い。   The MPR generation unit 24 generates and displays an image of an arbitrary cross section based on the tomographic image group Do. For example, as shown in FIG. 4, a body axis section (axial section) parallel to the XY plane, a coronal section (coronal section) parallel to the XZ plane, and a sagittal section (sagittal section) parallel to the XY plane (Sagital cross section) MPR image is generated. Further, an MPR image of an oblique section (oblique section) obtained by obliquely cutting the XYZ space may be generated.

特に本開示では、MPR生成部24は、断層画像群Doの各画素(x、y、z)の信号値vに対して、各画素(x、y、z)に対応する補正倍率S(x、y、z)を乗算することで信号値vを補正し、補正された信号値vに基づいてMPR像を生成する。   In particular, in the present disclosure, the MPR generation unit 24 performs the correction magnification S (x) corresponding to each pixel (x, y, z) with respect to the signal value v of each pixel (x, y, z) of the tomographic image group Do. , Y, z) is multiplied to correct the signal value v, and an MPR image is generated based on the corrected signal value v.

前述したように、補正倍率S(x、y、z)は、被写体領域の外郭を近似した幾何形状の幾何中心(重心)から遠ざかるにつれ倍率が小さくなるので、被写体領域の中心から離れた画素ほど信号値が減衰する。これにより、骨領域(胸骨や頭蓋骨)や皮膚、外部の寝台、固定用治具等が不可視となり、被写体領域の中心付近にある臓器等が鮮明に可視化されたMPR像を得ることができる。   As described above, the correction magnification S (x, y, z) decreases as the distance from the geometric center (center of gravity) of the geometric shape approximating the outline of the subject region decreases. The signal value is attenuated. As a result, the bone region (sternum and skull), skin, external bed, fixing jig, etc. become invisible, and an MPR image in which an organ near the center of the subject region is clearly visualized can be obtained.

MPR表示部25は、MPR生成部24により生成されたMPR像を表示部16に表示する。また、信号値補正前と補正後の結果を比較するために、補正前の断層画像群Do(原画像)に基づいて生成したMPR像を併せて表示しても良い。   The MPR display unit 25 displays the MPR image generated by the MPR generation unit 24 on the display unit 16. Further, in order to compare the results before and after signal value correction, MPR images generated based on the tomographic image group Do (original image) before correction may be displayed together.

データ出力部26は、ユーザからデータの保存操作を受け付けることによって、各種データを出力して記憶部12に保存する。例えば、データ出力部26は、MPR生成部24、MPR表示部25により生成し表示されたMPR像を出力して保存する。   The data output unit 26 outputs various data and stores the data in the storage unit 12 by receiving a data saving operation from the user. For example, the data output unit 26 outputs and stores the MPR image generated and displayed by the MPR generation unit 24 and the MPR display unit 25.

次に、図5〜図13を参照しながら、医用画像処理装置1の動作について説明する。
図5は、医用画像処理装置1の全体動作を示すフローチャートである。
Next, the operation of the medical image processing apparatus 1 will be described with reference to FIGS.
FIG. 5 is a flowchart showing the overall operation of the medical image processing apparatus 1.

まず、医用画像処理装置1の制御部11(画像取得部21)は、MPR像の生成対象となるDICOM形式の複数の断層画像(断層画像群)Doを取得する(図5のステップS1)。断層画像群Doの取得方法は任意であるが、例えば、断層画像群Doが予め記憶部12に記憶されている場合は、制御部11は、記憶部12から断層画像群Doを読込み取得することができる。   First, the control unit 11 (image acquisition unit 21) of the medical image processing apparatus 1 acquires a plurality of tomographic images (tomographic image groups) Do in the DICOM format, which are MPR image generation targets (step S1 in FIG. 5). Although the acquisition method of the tomographic image group Do is arbitrary, for example, when the tomographic image group Do is stored in the storage unit 12 in advance, the control unit 11 reads and acquires the tomographic image group Do from the storage unit 12. Can do.

また、断層画像群DoがUSB等の記憶媒体に記憶されている場合は、制御部11は、周辺機器I/F部17に接続した当該記憶媒体から断層画像群Doを読込み取得することができる。或いは、サーバに断層画像群Doが記憶されている場合は、制御部11は、通信制御部14を介して当該サーバから断層画像群Doをダウンロードして取得することができる。   When the tomographic image group Do is stored in a storage medium such as a USB, the control unit 11 can read and acquire the tomographic image group Do from the storage medium connected to the peripheral device I / F unit 17. . Alternatively, when the tomographic image group Do is stored in the server, the control unit 11 can download and acquire the tomographic image group Do from the server via the communication control unit 14.

続いて、制御部11(階調圧縮部22)は、必要に応じて、断層画像群Doに対して階調圧縮処理を施す(図5のステップS2)。具体的には、制御部11は、以下の手順で16ビットの断層画像群Do((式1)参照)を8ビットの断層画像群Do((式2)参照)に変換する。   Subsequently, the control unit 11 (gradation compression unit 22) performs gradation compression processing on the tomographic image group Do as necessary (step S2 in FIG. 5). Specifically, the control unit 11 converts the 16-bit tomographic image group Do (see (Equation 1)) into an 8-bit tomographic image group Do (see (Equation 2)) in the following procedure.

(式3)
(1)断層画像群DoのSz/2番目の中間スライスDo(z/2)における全ての画素の最小値Dmin、最大値Dmaxを算出する。
(2)下限値Lmin=(Dmax−Dmin)・γ+Dmin、上限値Lmax=(Dmax−Dmin)・(1−γ)+Dminを設定する。ここで、γは階調圧縮画像のコントラスト調整幅で、0に近いほどコントラストが増大する(但し、輝度が小さくなる)。通常はγ=0.1に設定する。
(3)断層画像群Doを以下の計算式で8ビットの断層画像群Doに変換する(下限値Lmin〜上限値Lmaxの範囲で256段階に圧縮する)。
Do(x、y、z)
=(Do(x、y、z)−Lmin)・255/(Lmax−Lmin)
但し、Do(x、y、z)>255の場合はDo(x、y、z)=255、Do(x、y、z)<0の場合はDo(x、y、z)=0に飽和させる。
(Formula 3)
(1) The minimum value Dmin and the maximum value Dmax of all pixels in the Sz / 2-th intermediate slice Do (z / 2) of the tomographic image group Do are calculated.
(2) The lower limit value Lmin = (Dmax−Dmin) · γ + Dmin and the upper limit value Lmax = (Dmax−Dmin) · (1−γ) + Dmin are set. Here, γ is the contrast adjustment width of the gradation-compressed image, and the contrast increases as it approaches 0 (however, the luminance decreases). Normally, γ = 0.1 is set.
(3) The tomographic image group Do is converted into an 8-bit tomographic image group Do by the following calculation formula (compressed to 256 levels within the range from the lower limit value Lmin to the upper limit value Lmax).
Do (x, y, z)
= (Do (x, y, z) -Lmin) .255 / (Lmax-Lmin)
However, when Do (x, y, z)> 255, Do (x, y, z) = 255, and when Do (x, y, z) <0, Do (x, y, z) = 0. Saturate.

続いて、制御部11(補正テーブル作成部23)は、断層画像群Doの各画素に対応する補正倍率を格納した補正テーブルSを作成する(図5のステップS3)。
ここで、図6〜図11を参照して、ステップS3における補正テーブルSを作成する処理について説明する。
Subsequently, the control unit 11 (correction table creating unit 23) creates a correction table S storing the correction magnification corresponding to each pixel of the tomographic image group Do (step S3 in FIG. 5).
Here, the process of creating the correction table S in step S3 will be described with reference to FIGS.

図6は、補正テーブルSを作成する処理を示すフローチャートである。
まず、制御部11(幾何情報取得部23a)は、断層画像Do(z)(0≦z≦Sz−1)毎に、断層画像Do(z)の被写体形状の外郭を所定の幾何形状で近似し、幾何パラメータP(z)を取得する(図6のステップS21)。本実施の形態では、被写体形状の外郭を楕円で近似し、幾何パラメータP(z)として楕円のパラメータ(楕円パラメータP(z))を取得するものとする。
FIG. 6 is a flowchart showing a process for creating the correction table S.
First, the control unit 11 (geometric information acquisition unit 23a) approximates the outline of the subject shape of the tomographic image Do (z) with a predetermined geometric shape for each tomographic image Do (z) (0 ≦ z ≦ Sz−1). Then, the geometric parameter P (z) is acquired (step S21 in FIG. 6). In the present embodiment, the outline of the subject shape is approximated by an ellipse, and an ellipse parameter (ellipse parameter P (z)) is acquired as the geometric parameter P (z).

図7は、断層画像Do(z)の楕円パラメータP(z)を取得する処理を説明する図である。
制御部11は、図7(a)に示すように、断層画像Do(z)に対して、信号値が所定の閾値以上の画素を「白」、閾値未満の画素を「黒」で塗りつぶして2値化し、被写体領域を抽出する。図7(a)の例では、2値化された断層画像Do(z)の「白」の領域が被写体領域である。閾値としては、例えば、空気以外を被写体領域として抽出する場合には、信号値vが16ビットの場合は「−700」、信号値vが8ビットの場合には「10」などに設定する。
FIG. 7 is a diagram for explaining processing for acquiring the elliptic parameter P (z) of the tomographic image Do (z).
As illustrated in FIG. 7A, the control unit 11 fills the tomographic image Do (z) with pixels that have a signal value equal to or greater than a predetermined threshold value “white” and pixels that are less than the threshold value “black”. Binarize and extract the subject area. In the example of FIG. 7A, the “white” area of the binarized tomographic image Do (z) is the subject area. For example, when extracting a subject area other than air, “−700” is set when the signal value v is 16 bits, and “10” is set when the signal value v is 8 bits.

続いて、制御部11は、図7(b)に示すように、抽出した被写体領域(白領域)を全て含む最小の矩形領域R(z)を特定し、図7(c)のように、矩形領域R(z)に内接する楕円E(z)を、被写体形状の外郭を近似する楕円として求める。そして、制御部11は、図7(c)に示すように、楕円E(z)の楕円パラメータP(z)として、楕円E(z)の中心座標(Cx(z)、Cy(z))、横方向のサイズW(z)、及び縦方向のサイズH(z)を以下のように算出する。尚、図7(c)に示すように、矩形領域R(z)の最小座標を(Xmin、Ymin)、最大座標を(Xmax、Ymax)とする。   Subsequently, as shown in FIG. 7B, the control unit 11 specifies the minimum rectangular area R (z) including all the extracted subject areas (white areas), and as shown in FIG. An ellipse E (z) inscribed in the rectangular region R (z) is obtained as an ellipse that approximates the outline of the subject shape. Then, as shown in FIG. 7C, the control unit 11 uses the center coordinates (Cx (z), Cy (z)) of the ellipse E (z) as the ellipse parameter P (z) of the ellipse E (z). The horizontal size W (z) and the vertical size H (z) are calculated as follows. As shown in FIG. 7C, the minimum coordinates of the rectangular region R (z) are (Xmin, Ymin) and the maximum coordinates are (Xmax, Ymax).

(式4)
中心座標Cx(z)=(Xmax+Xmin)/2
Cy(z)=(Ymax+Ymin)/2
横方向のサイズW(z)=Xmax−Xmin+1
縦方向のサイズH(z)=Ymax−Ymin+1
(Formula 4)
Center coordinates Cx (z) = (Xmax + Xmin) / 2
Cy (z) = (Ymax + Ymin) / 2
Horizontal size W (z) = Xmax−Xmin + 1
Vertical size H (z) = Ymax−Ymin + 1

制御部11は、全ての断層画像Do(z)(0≦z≦Sz−1)について、被写体領域の外郭を近似する楕円E(z)を求め、楕円パラメータP(z)を算出する。   The control unit 11 obtains an ellipse E (z) that approximates the outline of the subject region for all tomographic images Do (z) (0 ≦ z ≦ Sz−1), and calculates an ellipse parameter P (z).

続いて、制御部11(幾何情報補正部23b)は、幾何形状(楕円)の近似精度が良好でない断層画像Do(z)について、幾何パラメータP(z)(楕円パラメータP(z))の補正を行う(図6のステップS22)。   Subsequently, the control unit 11 (geometric information correction unit 23b) corrects the geometric parameter P (z) (elliptical parameter P (z)) for the tomographic image Do (z) whose approximation accuracy of the geometric shape (ellipse) is not good. (Step S22 in FIG. 6).

図8は、断層画像Do(z)の楕円パラメータP(z)の補正について説明する図である。図8(a)の断層画像Do(z)は、楕円近似が良好に行えない断層画像の例である。図8(a)の断層画像は、被写体領域(幅方向)の両端が切れており、被写体領域が画像範囲に収まっていない(撮影時の条件によってこのような画像が得られる場合がある)。このような場合、被写体領域を正確に楕円近似できない。   FIG. 8 is a diagram for explaining correction of the elliptic parameter P (z) of the tomographic image Do (z). A tomographic image Do (z) in FIG. 8A is an example of a tomographic image in which the elliptical approximation cannot be satisfactorily performed. In the tomographic image in FIG. 8A, both ends of the subject area (width direction) are cut off, and the subject area does not fall within the image range (such an image may be obtained depending on conditions at the time of photographing). In such a case, the subject area cannot be accurately approximated to an ellipse.

すなわち、図8(b)に示すように、断層画像から得られる楕円E(z)の横方向のサイズW(z)が、断層画像の横方向のサイズSxと同一となり(W(z)=Sx)、実際の被写体領域の幅(Sxより大きい幅)を正確に反映したものでなくなる。このため、本実施の形態では、被写体領域(幅方向)の両端が切れた断層画像Do(z)について横方向のサイズW(z)の補正を行う。   That is, as shown in FIG. 8B, the horizontal size W (z) of the ellipse E (z) obtained from the tomographic image is the same as the horizontal size Sx of the tomographic image (W (z) = Sx) does not accurately reflect the actual width of the subject area (width greater than Sx). For this reason, in the present embodiment, the lateral size W (z) is corrected for the tomographic image Do (z) in which both ends of the subject region (width direction) are cut.

具体的には、制御部11は、まず、ステップS21により取得された楕円の横方向のサイズW(z)がW(z)=Sxとなる1以上の断層画像Do(z)を、被写体領域の両端が切れた断層画像(幾何形状の近似精度が良好でない断層画像)として特定する。   Specifically, the control unit 11 first displays one or more tomographic images Do (z) in which the horizontal size W (z) of the ellipse acquired in step S21 is W (z) = Sx, Is specified as a tomographic image in which both ends of the image are cut off (a tomographic image in which the approximation accuracy of the geometric shape is not good).

次に、制御部11は、特定された断層画像Do(z)毎に、断層画像Do(z)とスライス位置が最も近く、かつ、ステップS21により取得された楕円の横方向のサイズW(z)がW(z)<Sxを満たす断層画像(「断層画像Do(z’)」と表記)を特定する。   Next, for each specified tomographic image Do (z), the control unit 11 has the slice position closest to the tomographic image Do (z) and the horizontal size W (z) of the ellipse acquired in step S21. ) Specifies a tomographic image satisfying W (z) <Sx (denoted as “tomographic image Do (z ′)”).

断層画像Do(z’)は、楕円E(z’)の横方向のサイズW(z’)が画像サイズSxより小さいため、被写体領域(幅方向)が画像範囲に収まっている断層画像(幾何形状の近似精度が良好な断層画像)である。そして、制御部11は、被写体領域の両端が切れた断層画像Do(z)から得られる楕円E(z)の横方向のサイズW(z)を、断層画像Do(z’) から得られる楕円E(z’)の横方向のサイズW(z’)及び縦方向のサイズH(z’)の比と同一となるように、以下の式で補正する。   In the tomographic image Do (z ′), the horizontal size W (z ′) of the ellipse E (z ′) is smaller than the image size Sx, and therefore the tomographic image (geometrical) in which the subject region (width direction) is within the image range. A tomographic image with good shape approximation accuracy). Then, the control unit 11 calculates the horizontal size W (z) of the ellipse E (z) obtained from the tomographic image Do (z) with both ends of the subject region cut from the tomographic image Do (z ′). Correction is performed by the following expression so that the ratio of the horizontal size W (z ′) and the vertical size H (z ′) of E (z ′) is the same.

(式5)
W(z)=H(z)・W(z’)/H(z’)
(Formula 5)
W (z) = H (z) · W (z ′) / H (z ′)

これにより、図8(c)に示すように、横方向のサイズW(z)が、真の被写体領域の外郭を近似するような楕円E(z)の横方向のサイズW(z)に補正され、被写体領域(幅方向)が画像範囲に収まらない場合でも、楕円パラメータP(z)を良好に算出することができる。   Thus, as shown in FIG. 8C, the horizontal size W (z) is corrected to the horizontal size W (z) of the ellipse E (z) that approximates the outline of the true subject area. Even when the subject region (width direction) does not fit within the image range, the ellipse parameter P (z) can be calculated satisfactorily.

以上、図6のステップS21及びS22の処理により、図9に示すように、断層画像Do(z)毎に、被写体形状の外郭が楕円形状で近似され、全ての断層画像Do(z)(0≦z≦Sz−1)について楕円パラメータP(z)(0≦z≦Sz−1)が得られる。   As described above, by the processes in steps S21 and S22 in FIG. 6, the outline of the subject shape is approximated by an elliptical shape for each tomographic image Do (z) as shown in FIG. 9, and all tomographic images Do (z) (0 An elliptic parameter P (z) (0 ≦ z ≦ Sz−1) is obtained for ≦ z ≦ Sz−1).

そして、制御部11(補正倍率算出部23c)は、断層画像Do(z)毎に、断層画像Do(z)に対応する幾何パラメータP(z)(楕円パラメータP(z))に基づいて、断層画像Do(z)の各画素(x、y、z)に対応する補正倍率S(x、y、z)を算出し、補正テーブルSを作成する(図6のステップS23)。
例えば、z番目の断層画像Do(z)の各画素(x、y、z)の補正倍率S(x、y、z)は、以下のように算出される。
Then, the control unit 11 (correction magnification calculating unit 23c), for each tomographic image Do (z), based on the geometric parameter P (z) (elliptical parameter P (z)) corresponding to the tomographic image Do (z). A correction magnification S (x, y, z) corresponding to each pixel (x, y, z) of the tomographic image Do (z) is calculated, and a correction table S is created (step S23 in FIG. 6).
For example, the correction magnification S (x, y, z) of each pixel (x, y, z) of the zth tomographic image Do (z) is calculated as follows.

(式6)
S(x、y、z)=1−k・r(x、y、z)amp
但し、0≦S(x、y、z)≦1
r(x、y、z)={(x−Cx(z)−xoffset)/(a・W(z)/2)}+{(y−Cy(z)−yoffset)/(b・H(z)/2)}
(Formula 6)
S (x, y, z) = 1−k · r (x, y, z) amp
However, 0 ≦ S (x, y, z) ≦ 1
r (x, y, z) = {(x−Cx (z) −xoffset) / (a · W (z) / 2)} 2 + {(y−Cy (z) −yoffset) / (b · H (Z) / 2)} 2

(式6)において、kは減衰係数であり初期値は1.0である。k=1.0の場合、骨及び寝台が不可視となる。aは横方向のサイズW(z)の補正係数、bは縦方向のサイズH(z)の補正係数である。補正しない場合はa=b=1.0に設定する。
xoffset、yoffsetはXY面におけるオフセット値であり、初期値はxoffset=yoffset=0(単位:ボクセル)である。
In (Expression 6), k is an attenuation coefficient, and the initial value is 1.0. When k = 1.0, the bones and the bed become invisible. a is a correction coefficient for the horizontal size W (z), and b is a correction coefficient for the vertical size H (z). If not corrected, a = b = 1.0 is set.
xoffset and yoffset are offset values in the XY plane, and the initial value is xoffset = yoffset = 0 (unit: voxel).

図10は、(式6)により算出される補正倍率S(x、y、z)の分布パターン(同心楕円分布)を示す図である。図に示すように、楕円の中心(Cx(z)、Cy(z))の補正倍率Sは1(最大)となり、楕円内部は中心から遠ざかるにつれ補正倍率Sが小さくなる。具体的には、楕円の中心(Cx(z)、Cy(z))と横方向のサイズW(z)及び縦方向のサイズH(z)の比が同一となる各同心楕円上の補正倍率Sが、各同心楕円の径(横方向のサイズ及び縦方向のサイズ)が大きい程小さくなる(径の2乗に反比例して小さくなる)。楕円外部の補正倍率Sは一律に0とする。   FIG. 10 is a diagram showing a distribution pattern (concentric elliptic distribution) of the correction magnification S (x, y, z) calculated by (Equation 6). As shown in the figure, the correction magnification S at the center of the ellipse (Cx (z), Cy (z)) is 1 (maximum), and the correction magnification S decreases as the distance from the center increases. Specifically, the correction magnification on each concentric ellipse in which the ratio of the center of the ellipse (Cx (z), Cy (z)) to the horizontal size W (z) and the vertical size H (z) is the same. S decreases as the diameter (lateral size and vertical size) of each concentric ellipse increases (decreases in inverse proportion to the square of the diameter). The correction magnification S outside the ellipse is uniformly 0.

尚、(式6)のampはXY平面の振幅倍率であり、初期値はamp=1.0である。図11に示すように、被写体中心部の補正倍率を平坦にし、飽和領域を広くしたい場合は、amp>1.0に設定する(但し、陰影感が弱くなる)。   In addition, amp in (Expression 6) is an amplitude magnification on the XY plane, and an initial value is amp = 1.0. As shown in FIG. 11, when it is desired to flatten the correction magnification at the center of the subject and widen the saturation region, amp> 1.0 is set (however, shading is weakened).

制御部11は、全ての断層画像Do(z)について、補正倍率S(x、y、z)(0≦x≦Sx−1、0≦y≦Sy−1、0≦z≦Sz−1)を算出し、算出された補正倍率S(x、y、z)を格納する3次元の補正テーブルSを作成する。尚、前述したように、補正倍率S(x、y、z)は3次元のデータ配列であり、そのままデータテーブル(補正テーブル)として扱えるため、補正倍率と補正テーブルは実質的に同一である。   The control unit 11 corrects the magnification S (x, y, z) (0 ≦ x ≦ Sx−1, 0 ≦ y ≦ Sy−1, 0 ≦ z ≦ Sz−1) for all tomographic images Do (z). And a three-dimensional correction table S for storing the calculated correction magnification S (x, y, z) is created. As described above, the correction magnification S (x, y, z) is a three-dimensional data array and can be handled as it is as a data table (correction table), so the correction magnification and the correction table are substantially the same.

以上、図6〜図11を参照して、補正テーブルSを作成する処理について説明した。
図5のフローチャートの説明に戻る。
The processing for creating the correction table S has been described above with reference to FIGS.
Returning to the flowchart of FIG.

続いて、制御部11(MPR生成部24、MPR表示部25)は、MPR像を生成し表示部16に表示する(図5のステップS4)。具体的には、以下のように、断層画像群Doの信号値v(=Do(x、y、z))を補正したうえで、MPR像を生成し表示する。   Subsequently, the control unit 11 (MPR generation unit 24, MPR display unit 25) generates an MPR image and displays it on the display unit 16 (step S4 in FIG. 5). Specifically, the MPR image is generated and displayed after correcting the signal value v (= Do (x, y, z)) of the tomographic image group Do as follows.

断層画像群Doの信号値が16ビットの場合((式1)参照)には、制御部11は、次の手順で断層画像群Doの信号値v(=Do(x、y、z))を補正する。   When the signal value of the tomographic image group Do is 16 bits (see (Equation 1)), the control unit 11 performs the following procedure to obtain the signal value v (= Do (x, y, z)) of the tomographic image group Do. Correct.

(式7)
(1)断層画像群Doの中で、Sz/2番目の中間スライスDo(z/2)における全ての画素の最小値Dmin、最大値Dmaxを算出する。
(2)下限値Lmin=(Dmax−Dmin)・γ+Dminを設定する。ここで、γは階調圧縮画像のコントラスト調整幅で、0に近いほどコントラストが増大するが輝度が小さくなる。通常はγ=0.1に設定する。
(3)次のように、断層画像群Doの信号値v(=Do(x、y、z))を補正する。
Do(x、y、z)≧Lminの場合:
Do(x、y、z)=(Do(x、y、z)−Lmin)・S(x、y、z)+Lmin
Do(x、y、z)≦Lminの場合:
Do(x、y、z)=Lmin
(Formula 7)
(1) In the tomographic image group Do, the minimum value Dmin and the maximum value Dmax of all pixels in the Sz / 2-th intermediate slice Do (z / 2) are calculated.
(2) The lower limit value Lmin = (Dmax−Dmin) · γ + Dmin is set. Here, γ is the contrast adjustment width of the gradation-compressed image. The closer the value is to 0, the greater the contrast but the lower the luminance. Normally, γ = 0.1 is set.
(3) The signal value v (= Do (x, y, z)) of the tomographic image group Do is corrected as follows.
If Do (x, y, z) ≧ Lmin:
Do (x, y, z) = (Do (x, y, z) −Lmin) · S (x, y, z) + Lmin
When Do (x, y, z) ≦ Lmin:
Do (x, y, z) = Lmin

一方、断層画像群Doの信号値が8ビットの場合((式2)参照)には、制御部11は、次のように信号値v(Do(x、y、z))を補正する。   On the other hand, when the signal value of the tomographic image group Do is 8 bits (see (Equation 2)), the control unit 11 corrects the signal value v (Do (x, y, z)) as follows.

(式8)
Do(x、y、z)=Do(x、y、z)・S(x、y、z)
(Formula 8)
Do (x, y, z) = Do (x, y, z) · S (x, y, z)

(式7)のDo(x、y、z)=(Do(x、y、z)−Lmin)・S(x、y、z)+Lmin、及び(式8)のDo(x、y、z)=Do(x、y、z)・S(x、y、z)は、本開示の要旨に係る処理であり、これにより、断層画像群Doの各画素の信号値に対して補正倍率Sが乗算され、信号値が補正される。特に、補正倍率S(x、y、z)は、被写体領域の外郭を近似した楕円の中心から遠ざかるにつれその倍率が小さくなるので、被写体領域の中心から離れた画素ほど信号値が減衰する。   Do (x, y, z) of (Expression 7) = (Do (x, y, z) −Lmin) · S (x, y, z) + Lmin, and Do (x, y, z of (Expression 8)) ) = Do (x, y, z) · S (x, y, z) is a process according to the gist of the present disclosure, whereby the correction magnification S with respect to the signal value of each pixel of the tomographic image group Do. Is multiplied to correct the signal value. In particular, the correction magnification S (x, y, z) decreases as the distance from the center of the ellipse approximating the outline of the subject region decreases, so that the signal value decreases as the pixel is farther from the center of the subject region.

図12、図13は、頭部CT画像に基づいて生成されたMPR像の表示例を示す図である。図12、図13は、補正前の断層画像群Do(原画像)に基づいて生成されたMPR像と、補正後の断層画像Doに基づいて生成されたMPR像と、を体軸断面、冠状断面、矢状断面の各断面について比較表示した例である。図に示すように、補正倍率Sにより信号値vを補正することによって、頭蓋領域の信号値が顕著に減衰する。   12 and 13 are diagrams illustrating display examples of MPR images generated based on the head CT image. 12 and 13 show the MPR image generated based on the tomographic image group Do (original image) before correction and the MPR image generated based on the tomographic image Do after correction. It is the example comparatively displayed about each cross section of a cross section and a sagittal cross section. As shown in the figure, by correcting the signal value v with the correction magnification S, the signal value in the skull region is significantly attenuated.

制御部11(データ出力部26)は、ユーザからデータの保存操作を受け付けることによって、各種データを出力して記憶部12に保存することができる(図5のステップS5)。例えば、制御部11は、ステップS4において生成し表示されたMPR像(3次元画像)を出力して保存する。   The control part 11 (data output part 26) can output various data and can preserve | save in the memory | storage part 12 by receiving the preservation | save operation of data from a user (step S5 of FIG. 5). For example, the control unit 11 outputs and stores the MPR image (three-dimensional image) generated and displayed in step S4.

以上、本開示の第1の実施の形態について説明した。第1の実施の形態によれば、断層画像群Doの各画素(x、y、z)の信号値vを、被写体領域の外郭を近似した楕円の情報(楕円パラメータP(z))に基づいて算出された補正倍率S(x、y、z)を乗算することで信号値を補正する((式7)(式8)参照)。そして、信号値が補正された断層画像群Doに基づいてMPR像を生成し表示する。これにより、従来のように3次元マスクを作成することなく、特定の領域を鮮明に可視化させたMPR像を得ることができる。従来の3次元マスクの代わりに、本開示では補正倍率S(x、y、z)に関する補正テーブルの作成を必要とするが、これらは前述のように事前に補正テーブルを作成する方法をとらず、断層画像群Doの各画素ごとに(式6)で都度算出する方法をとることもでき、3次元マスクのようにメモリ上に確保する必要はない。   Heretofore, the first embodiment of the present disclosure has been described. According to the first embodiment, the signal value v of each pixel (x, y, z) of the tomographic image group Do is based on ellipse information (ellipse parameter P (z)) approximating the outline of the subject area. The signal value is corrected by multiplying the calculated correction magnification S (x, y, z) (see (Expression 7) and (Expression 8)). Then, an MPR image is generated and displayed based on the tomographic image group Do whose signal values are corrected. Thereby, an MPR image in which a specific area is clearly visualized can be obtained without creating a three-dimensional mask as in the prior art. In this disclosure, it is necessary to create a correction table related to the correction magnification S (x, y, z) in place of the conventional three-dimensional mask. However, these methods do not take a method of creating a correction table in advance as described above. In addition, it is possible to use a method of calculating for each pixel of the tomographic image group Do each time according to (Equation 6), and it is not necessary to ensure on the memory as in the case of a three-dimensional mask.

また、補正倍率Sは、被写体領域の外郭を近似した楕円の中心から遠ざかるにつれその倍率が小さくなるので、被写体領域の中心から外側にいくにつれ信号値が減衰し、骨領域(胸骨や頭蓋骨)や皮膚、外部の寝台、固定用治具等が不可視となり、被写体領域の中心付近にある臓器等が鮮明に可視化される。   The correction magnification S decreases as the distance from the center of the ellipse approximating the outline of the subject region decreases, so that the signal value decreases as the distance from the center of the subject region increases, and the bone region (sternum or skull) or Skin, an external bed, a fixing jig, etc. become invisible, and an organ near the center of the subject area is clearly visualized.

また、補正倍率Sは、被写体領域の外郭の形状を少数の変数で表現可能な楕円パラメータP(z)(中心座標、横方向のサイズ、縦方向のサイズ)に基づいて解析的に算出されるので、複雑な処理を伴わずに、信号値の制御を行える。   The correction magnification S is analytically calculated based on an ellipse parameter P (z) (center coordinate, horizontal size, vertical size) that can express the outline shape of the subject region with a small number of variables. Therefore, the signal value can be controlled without complicated processing.

また、楕円の近似精度が良好でない断層画像Do(z)の楕円パラメータP(z)を、近似精度が良好な他の断層画像Do(z)の楕円パラメータP(z)に基づいて補正することで、撮影条件等によって楕円近似が良好に行えない場合でも、楕円パラメータP(z)を良好に算出することができる。   In addition, the ellipse parameter P (z) of the tomographic image Do (z) whose ellipse approximation accuracy is not good is corrected based on the ellipse parameter P (z) of another tomographic image Do (z) with good approximation accuracy. Thus, the ellipse parameter P (z) can be calculated satisfactorily even when the ellipse approximation cannot be satisfactorily performed due to shooting conditions or the like.

[第2の実施の形態]
頭部は球形状に近いため、胸部に比べ、被写体領域に占める骨領域の面積比がスライス方向(Z軸方向)に大きく変化する。特にスライス末端近くでは被写体領域に占める骨領域(頭頂骨や顎骨)の面積比が増大するため、骨領域(頭頂骨や顎骨)の信号値を減衰させて脳の頭頂領域や脳幹領域を精度よく可視化することが困難となる場合がある。例えば、頭頂部では断層像の中心領域も骨領域であるため、同心楕円のパターンでは骨領域を不可視とすることはできない。そこで、第2の実施の形態では、断層画像のスライス位置を更に考慮して補正倍率Sを算出することで、特に頭部CTにおけるMPR像の精度向上を図る。
[Second Embodiment]
Since the head is nearly spherical, the area ratio of the bone region occupying the subject region is greatly changed in the slice direction (Z-axis direction) as compared to the chest. In particular, the area ratio of the bone area (parietal bone and jawbone) occupying the subject area increases near the end of the slice. It may be difficult to visualize. For example, since the central region of the tomographic image is also a bone region at the top of the head, the bone region cannot be made invisible with a concentric ellipse pattern. Therefore, in the second embodiment, the correction magnification S is calculated further considering the slice position of the tomographic image, thereby improving the accuracy of the MPR image particularly in the head CT.

第2の実施の形態では、第1の実施形態における図6のステップS23の処理(補正テーブルSを作成する処理)が次のように変わる。すなわち、図6のステップS23において、制御部11(補正倍率算出部23c)は、断層画像Do(z)毎に、断層画像Do(z)に対応する幾何パラメータP(z)(楕円パラメータP(z))及び断層画像Do(z)のスライス位置の情報(以下、「スライスパラメータPs(z)」と表記)に基づいて、断層画像Do(z)の各画素(x、y)に対応する補正倍率S(x、y、z)を算出し、算出した補正倍率S(x、y、z)が格納された3次元の補正テーブルSを作成する。
例えば、z番目の断層画像Do(z)の各画素(x、y)の補正倍率S(x、y、z)は、以下のように算出される。
In the second embodiment, the process in step S23 of FIG. 6 in the first embodiment (process for creating the correction table S) is changed as follows. That is, in step S23 of FIG. 6, the control unit 11 (correction magnification calculation unit 23c) for each tomographic image Do (z), the geometric parameter P (z) (elliptical parameter P ( z)) and slice position information of the tomographic image Do (z) (hereinafter referred to as “slice parameter Ps (z)”), corresponding to each pixel (x, y) of the tomographic image Do (z). A correction magnification S (x, y, z) is calculated, and a three-dimensional correction table S in which the calculated correction magnification S (x, y, z) is stored is created.
For example, the correction magnification S (x, y, z) of each pixel (x, y) of the z-th tomographic image Do (z) is calculated as follows.

まず、図6のステップS23の(式6)と同様に、制御部11は、断層画像Do(z)に対応する幾何パラメータP(z)(楕円パラメータP(z))に基づいて、補正倍率S(x、y、z)を、次のように算出する。   First, similarly to (Expression 6) in step S23 of FIG. 6, the control unit 11 corrects the correction magnification based on the geometric parameter P (z) (ellipse parameter P (z)) corresponding to the tomographic image Do (z). S (x, y, z) is calculated as follows.

(式9)
S(x、y、z)=1−k・r(x、y、z)・amp
但し、0≦S(x、y、z)≦1
r(x、y、z)={(x−Cx(z)−xoffset)/(a・W(z)/2)}+{(y−Cy(z)−yoffset)/(b・H(z)/2)}2s
(Formula 9)
S (x, y, z) = 1−k · r (x, y, z) · amp
However, 0 ≦ S (x, y, z) ≦ 1
r (x, y, z) = {(x−Cx (z) −xoffset) / (a · W (z) / 2)} 2 + {(y−Cy (z) −yoffset) / (b · H (Z) / 2)} 2s

更に第2の実施の形態では、制御部11は、次のように、スライスパラメータPs(z)に基づいて、Z方向の補正倍率Sz(z)を算出し、S(x、y、z)に乗算する。ここで、スライスパラメータPs(z)とは、スライス総数Sz及びスライス順位zのことを言う。   Furthermore, in the second embodiment, the control unit 11 calculates the correction magnification Sz (z) in the Z direction based on the slice parameter Ps (z) as follows, and S (x, y, z) Multiply by. Here, the slice parameter Ps (z) refers to the total number of slices Sz and the slice order z.

(式10)
Sz(z)=1.0−kz・{(z−Sz/2−zoffset)/Sz・c/2}}・ampz
S(x、y、z)=S(x、y、z)・Sz(z)
但し、0≦S(x、y、z)、Sz(z)≦1
(Formula 10)
Sz (z) = 1.0−kz · {(z−Sz / 2−zoffset) / Sz · c / 2}} 2 · ampz
S (x, y, z) = S (x, y, z) · Sz (z)
However, 0 ≦ S (x, y, z), Sz (z) ≦ 1

(式9)(式10)において、kはXY平面、kzはZ方向の減衰係数である。初期値はk=1.0、kz=0.0であり、この場合、骨及び寝台が不可視となる。頭部CTの場合はkz>0.0に設定する。
a、bはそれぞれ横方向のサイズW(z)、縦方向のサイズH(z)の補正係数であり、cはZ方向幅Sz/2の補正係数(スライス総数倍率)である。補正しない場合はa=b=
c=1.0に設定する。
xoffset、yoffsetはXY面、zoffsetはZ方向のオフセット値であり、初期値はxoffset=yoffset=zoffset=0(単位:ボクセル)である。
In (Expression 9) and (Expression 10), k is an XY plane, and kz is an attenuation coefficient in the Z direction. The initial values are k = 1.0 and kz = 0.0. In this case, the bone and the bed are invisible. In the case of the head CT, kz> 0.0 is set.
a and b are correction coefficients of the horizontal size W (z) and the vertical size H (z), respectively, and c is a correction coefficient (slice total magnification) of the Z-direction width Sz / 2. If not corrected, a = b =
Set c = 1.0.
xoffset and yoffset are XY planes, zoffset is an offset value in the Z direction, and an initial value is xoffset = yoffset = 0 (unit: voxel).

(式10)によって、断層画像Do(z)のスライス位置が中央から末端に位置するにつれ(スライス総数Sz/2とスライス順位zとの差が大きくなるにつれ)、補正倍率S(x、y、z)が一律に減衰し、楕円の中心であってもS(x、y、z)は1未満の値をとる。これによって、スライス末端近くの骨領域(頭頂骨や顎骨)の信号値を効果的に減衰させることができる。   According to (Equation 10), as the slice position of the tomographic image Do (z) is located from the center to the end (as the difference between the total number of slices Sz / 2 and the slice order z increases), the correction magnification S (x, y, z) is uniformly attenuated, and S (x, y, z) takes a value of less than 1 even at the center of the ellipse. As a result, the signal value of the bone region (parietal bone or jaw bone) near the end of the slice can be effectively attenuated.

図14は、補正倍率S(x、y、z)の分布パターンを示す図である。
図14の上図は、(式9)で算出される楕円パラメータP(z)のみに基づいた補正倍率S(x、y、z)の分布パターン(同心楕円分布)を示し、図14の下図は、(式10)で算出される楕円パラメータP(z)及びスライスパラメータPs(z)に基づいた補正倍率S(x、y、z)の分布パターン(同心楕円分布)を示す。図14に示すように、Z方向の補正倍率Sz(z)が乗算されることによって、補正倍率S(x、y、z)がスライス位置に応じて一律に減衰する。すなわち、補正倍率Sの分布パターンが、第1の実施の形態では2次元の同心楕円分布であったのに対し、第2の実施の形態では3次元の同心楕円体分布に拡張される。
FIG. 14 is a diagram showing a distribution pattern of the correction magnification S (x, y, z).
The upper diagram of FIG. 14 shows the distribution pattern (concentric ellipse distribution) of the correction magnification S (x, y, z) based only on the ellipse parameter P (z) calculated by (Equation 9). Indicates a distribution pattern (concentric elliptic distribution) of the correction magnification S (x, y, z) based on the ellipse parameter P (z) and the slice parameter Ps (z) calculated by (Equation 10). As shown in FIG. 14, by multiplying by the Z-direction correction magnification Sz (z), the correction magnification S (x, y, z) is uniformly attenuated according to the slice position. That is, the distribution pattern of the correction magnification S is a two-dimensional concentric ellipsoid distribution in the first embodiment, but is expanded to a three-dimensional concentric ellipsoid distribution in the second embodiment.

尚、(式9)のampはXY面、(式10)のampzはZ方向の振幅倍率であり、初期値はamp=ampz=1.0である。図15に示すように、被写体中心部の補正倍率を平坦にし、飽和領域を広くしたい場合は、amp、ampz>1.0に設定する(但し、陰影感が弱くなる)。   In addition, amp in (Expression 9) is the XY plane, ampz in (Expression 10) is the amplitude magnification in the Z direction, and the initial value is amp = ampz = 1.0. As shown in FIG. 15, when the correction magnification at the center of the subject is flattened and the saturation region is to be widened, amp and ampz> 1.0 are set (however, shading is weakened).

制御部11は、全ての断層画像Do(z)について、(式9)(式10)によりZ方向の補正倍率Sz(z)を乗算した補正倍率S(x、y、z)(0≦x≦Sx−1、0≦y≦Sy−1、0≦z≦Sz−1)を算出し、算出された補正倍率S(x、y、z)を格納する3次元の補正テーブルSを作成する。   The control unit 11 calculates the correction magnification S (x, y, z) (0 ≦ x) obtained by multiplying the correction magnification Sz (z) in the Z direction by (Equation 9) and (Equation 10) for all tomographic images Do (z). ≦ Sx−1, 0 ≦ y ≦ Sy−1, 0 ≦ z ≦ Sz−1) is calculated, and a three-dimensional correction table S for storing the calculated correction magnification S (x, y, z) is created. .

以上のように第2の実施の形態によれば、断層画像のスライス位置を考慮して補正倍率Sを算出するので、更に柔軟な信号値の制御を行うことができる。特に、頭部CT画像に基づいてMPR像を生成する際に有効である。頭部は球形状に近いため、胸部に比べ、被写体領域に占める骨領域の面積比がスライス方向(Z軸方向)に大きく変化し、特に骨領域の面積比が大きくなるスライス末端近くの頭頂骨や顎骨の領域の信号値を減衰させて脳の頭頂領域や脳幹領域を精度よく可視化することが困難となる場合がある。第2の実施の形態によれば、断層画像のスライス位置が中央から末端に位置するにつれ、当該断層画像の全画素に対応する補正倍率Sを一律に小さくするので、スライス末端近くで被写体領域に占める骨領域(頭頂骨や顎骨)が増大する頭部においても、骨領域の信号値を効果的に減衰させることができる。   As described above, according to the second embodiment, the correction magnification S is calculated in consideration of the slice position of the tomographic image, so that more flexible signal value control can be performed. This is particularly effective when generating an MPR image based on a head CT image. Since the head is close to a sphere, the area ratio of the bone region occupying the subject region changes greatly in the slice direction (Z-axis direction) compared to the chest, and especially the parietal bone near the end of the slice where the area ratio of the bone region increases In some cases, it is difficult to accurately visualize the parietal region and the brain stem region of the brain by attenuating signal values of the region of the jaw and the jawbone. According to the second embodiment, as the slice position of the tomographic image is located from the center to the end, the correction magnification S corresponding to all the pixels of the tomographic image is uniformly reduced. Even in the head where the occupying bone area (the parietal bone or the jaw bone) increases, the signal value of the bone area can be effectively attenuated.

[第3の実施の形態]
第3の実施の形態は、GUI上で、補正テーブルSを作成する際の各種パラメータをユーザが調整できるようにしたものである。
[Third Embodiment]
In the third embodiment, the user can adjust various parameters when creating the correction table S on the GUI.

図16は、第3の実施の形態における医用画像処理装置1aの機能構成を示す図である。図16に示すように、第3の実施形態では、第1の実施の形態における医用画像処理装置1の機能構成(図2参照)に加え、パラメータ調整部27を更に備える。   FIG. 16 is a diagram illustrating a functional configuration of the medical image processing apparatus 1a according to the third embodiment. As shown in FIG. 16, the third embodiment further includes a parameter adjustment unit 27 in addition to the functional configuration of the medical image processing apparatus 1 in the first embodiment (see FIG. 2).

パラメータ調整部27は、パラメータ調整画面40を表示し、補正倍率Sを算出する際の各種パラメータをユーザに調整させる。具体的には、補正倍率Sが(式6)に示したように楕円パラメータP(z)に基づいて算出される場合(第1の実施の形態の場合)には、楕円の横方向のサイズの補正係数a、縦方向のサイズの補正係数b、X方向のオフトセットxoffset、Y方向のオフセットyoffset、XY平面の減衰係数kを調整させる。   The parameter adjustment unit 27 displays the parameter adjustment screen 40 and allows the user to adjust various parameters when the correction magnification S is calculated. Specifically, when the correction magnification S is calculated based on the ellipse parameter P (z) as shown in (Equation 6) (in the case of the first embodiment), the size of the ellipse in the horizontal direction is calculated. Correction coefficient a, vertical size correction coefficient b, X-direction offset xoffset, Y-direction offset yoffset, and XY plane attenuation coefficient k.

一方、補正倍率Sが(式9)(式10)に示したように楕円パラメータP(z)及びスライスパラメータPs(z)に基づいて算出される場合(第2の実施の形態の場合)には、上記パラメータに加え、スライス総数倍率c、及びZ方向のオフセットzoffset、Z方向の減衰係数kzを更に調整可能とする。   On the other hand, when the correction magnification S is calculated based on the ellipse parameter P (z) and the slice parameter Ps (z) as shown in (Equation 9) and (Equation 10) (in the case of the second embodiment). In addition to the above parameters, the slice total magnification c, the Z-direction offset zoffset, and the Z-direction attenuation coefficient kz can be further adjusted.

図17は、第3の実施の形態における医用画像処理装置1aの全体動作を示すフローチャートである。MPR像を生成し表示する処理(ステップS31〜ステップS34)は、図5の第1の実施の形態のステップS1〜ステップS4と同様である。第3の実施の形態では、ステップS34においてMPR像を生成し表示部16に表示した後、ユーザがパラメータの調整が必要と判断した場合(ステップS35;「Yes」)、パラメータ調整画面40においてパラメータをユーザに調整させる(ステップS36)。   FIG. 17 is a flowchart showing the overall operation of the medical image processing apparatus 1a according to the third embodiment. The process of generating and displaying the MPR image (Steps S31 to S34) is the same as Steps S1 to S4 of the first embodiment in FIG. In the third embodiment, after the MPR image is generated and displayed on the display unit 16 in step S34, when the user determines that the parameter needs to be adjusted (step S35; “Yes”), the parameter adjustment screen 40 displays the parameter. Is adjusted by the user (step S36).

図18は、パラメータ調整画面40の例を示す。図に示すように、パラメータ調整画面40において、XY平面の減衰係数k(図のXY方向減衰[%])、Z方向の減衰係数kz(図のZ方向減衰[%])、横方向のサイズの補正係数a(図の楕円倍率X)、縦方向のサイズの補正係数b(図の楕円倍率Y)、スライス総数倍率c(図の楕円倍率Z)、X方向のオフトセットxoffset(図の中心オフセットX)、Y方向のオフセットyoffset(図の中心オフセットY)、Z方向のオフセットzoffset(図の中心オフセットZ)を調整することができる。   FIG. 18 shows an example of the parameter adjustment screen 40. As shown in the figure, in the parameter adjustment screen 40, the XY plane attenuation coefficient k (XY direction attenuation [%] in the figure), the Z direction attenuation coefficient kz (Z direction attenuation [%] in the figure), and the horizontal size are shown. Correction coefficient a (elliptical magnification X in the figure), vertical size correction coefficient b (elliptical magnification Y in the figure), total slice number magnification c (elliptical magnification Z in the figure), offset offset xoffset in the X direction (center of the figure) Offset X), Y direction offset yoffset (center offset Y in the figure), and Z direction offset zoffset (center offset Z in the figure) can be adjusted.

パラメータの調整が終了すると(パラメータ調整画面40の「OK」ボタンを押下すると)、ステップS33に戻り、制御部11は、ステップS33〜ステップS34の処理を再度実行する。すなわち、制御部11は、調整されたパラメータに基づいて、再度、補正テーブルSを作成し直した上で(ステップS33)、MPR像を生成し表示する(ステップS34)。ステップS33〜ステップS34の処理は、ステップS34において生成し表示されるMPR像を確認しながら、ユーザがパラメータの調整が十分と判断するまで(ステップS35;「No」)、繰り返し実行する。良好なMPR像の結果が得られ、ユーザがパラメータの調整が十分と判断すると(ステップS35;「No」)、制御部11は、必要に応じてMPR像等のデータを出力し(ステップS37)、処理を終了する。ステップS37のデータの出力処理は、図5の第1の実施の形態のステップS5と同様である。   When the parameter adjustment is completed (when the “OK” button on the parameter adjustment screen 40 is pressed), the process returns to step S33, and the control unit 11 executes the processes of steps S33 to S34 again. That is, the control unit 11 creates the correction table S again based on the adjusted parameters (step S33), and generates and displays an MPR image (step S34). The processing of step S33 to step S34 is repeatedly executed until the user determines that the parameter adjustment is sufficient (step S35; “No”) while checking the MPR image generated and displayed in step S34. When a good MPR image result is obtained and the user determines that the parameter adjustment is sufficient (step S35; “No”), the control unit 11 outputs data such as an MPR image as necessary (step S37). The process is terminated. The data output process in step S37 is the same as step S5 in the first embodiment in FIG.

以上、第3の実施の形態によれば、補正テーブルSを作成する際の各種パラメータをGUI上でユーザが調整できる。特に、被写体領域に撮影治具(寝台、固定具等)が映りこむと、被写体領域の外郭を近似する楕円の径が実際の被写体幅(頭幅や胸幅)より大きめに算出されたり、楕円の中心位置がズレたりし、楕円の近似精度が悪化する場合がある。第3の実施の形態によれば、GUI上で楕円の径や中心位置等を適宜調整することができるので、上記のような場合でも、良好なMPR像を得ることができる。   As described above, according to the third embodiment, the user can adjust various parameters when creating the correction table S on the GUI. In particular, when a shooting jig (bed, fixture, etc.) is reflected in the subject area, the diameter of the ellipse that approximates the outline of the subject area is calculated to be larger than the actual subject width (head width or chest width) The center position of the ellipse may shift, and the approximation accuracy of the ellipse may deteriorate. According to the third embodiment, the ellipse diameter, center position, and the like can be adjusted as appropriate on the GUI, so that a good MPR image can be obtained even in the above case.

尚、本実施の形態では、MPR像を見ながらパラメータの調整が行えるよう、MPR像表示後にパラメータを調整可能とする例を説明したが、パラメータはMPR表示後だけでなく、補正テーブルSを作成する前の任意の段階で調整可能である。また、ステップS33における調整されたパラメータに基づく補正テーブルSの再作成を行わずに、ステップS34におけるMPR像の再生成の段階で、(式9)(式10)に基づいて補正倍率を断層画像群Doの各画素ごとに都度算出する方法をとることもできる。   In the present embodiment, an example has been described in which parameters can be adjusted after displaying the MPR image so that the parameters can be adjusted while viewing the MPR image. However, the correction table S is created not only after the MPR image is displayed. It can be adjusted at any stage prior to. Further, the correction magnification S is calculated based on (Equation 9) and (Equation 10) at the stage of regeneration of the MPR image in step S34 without re-creating the correction table S based on the adjusted parameter in step S33. A method of calculating each pixel of the group Do every time can also be used.

[第4の実施の形態]
第4の実施の形態は、更にボリュームレンダリング像を生成し表示することを特徴とする。
[Fourth Embodiment]
The fourth embodiment is further characterized in that a volume rendering image is generated and displayed.

図19は、第4の実施の形態における医用画像処理装置1bの機能構成を示す図である。図19に示すように、第4の実施の形態では、第3の実施の形態における医用画像処理装置1aの機能構成(図16参照)に加え、領域指定部28、カラーマップ取得部29、カラーマップ調整部30、ボクセル作成部31、レンダリング部32の構成を更に備える。   FIG. 19 is a diagram illustrating a functional configuration of the medical image processing apparatus 1b according to the fourth embodiment. As shown in FIG. 19, in the fourth embodiment, in addition to the functional configuration of the medical image processing apparatus 1a in the third embodiment (see FIG. 16), an area designating unit 28, a color map acquisition unit 29, a color The map adjustment unit 30, the voxel creation unit 31, and the rendering unit 32 are further provided.

領域指定部28は、ユーザから被写体の関心領域(ROI:Region of
Interest)の指定を受け付ける。例えば、関心領域ROIを直方体で指定する場合は、以下のように、X方向ROI(X方向の開区間)、Y方向ROI(Y方向の開区間)、Z方向ROI(Z方向の開区間)を指定する。
The region specifying unit 28 receives a region of interest (ROI) from the user.
(Interest) is accepted. For example, when the region of interest ROI is designated by a rectangular parallelepiped, the X direction ROI (X direction open section), the Y direction ROI (Y direction open section), and the Z direction ROI (Z direction open section) are as follows. Is specified.

(式11)
X方向ROI=(Xs、Xe)
Y方向ROI=(Ys、Ye)
Z方向ROI=(Zs、Ze)
尚、関心領域を指定しない場合は、Xs=0、Xe=Sx−1、Ys=0、Ye=Sy−1、Zs=0、Ze=Sz−1となる。
(Formula 11)
X direction ROI = (Xs, Xe)
Y direction ROI = (Ys, Ye)
Z direction ROI = (Zs, Ze)
When the region of interest is not designated, Xs = 0, Xe = Sx-1, Ys = 0, Ye = Sy-1, Zs = 0, Ze = Sz-1.

カラーマップ取得部29は、断層画像群Doに適用するカラーマップCmapを取得する。カラーマップ取得部29は、取得したカラーマップCmapを更に調整する場合には、カラーマップ調整部30に出力し、カラーマップCmapの調整を行わない場合には、ボクセル作成部31に出力する。   The color map acquisition unit 29 acquires a color map Cmap to be applied to the tomographic image group Do. The color map acquisition unit 29 outputs the acquired color map Cmap to the color map adjustment unit 30 when further adjusting, and outputs the color map Cmap to the voxel creation unit 31 when the color map Cmap is not adjusted.

カラーマップCmapは、信号値vと色値(具体的にはRGB値)及び不透明度(α値)との対応関係を定義するものであり、信号値vを24ビットの色値(RGB値)及び8ビットの不透明度(α値)に変換する関数(実体的には2次元のデータテーブル)として表現可能である。例えば、16ビットの断層画像群Do((式1)参照)に適用されるカラーマップCmapは次のように定義される。   The color map Cmap defines the correspondence between the signal value v, the color value (specifically, RGB value), and the opacity (α value), and the signal value v is converted into a 24-bit color value (RGB value). And a function (substantially a two-dimensional data table) for converting to 8-bit opacity (α value). For example, a color map Cmap applied to a 16-bit tomographic image group Do (see (Expression 1)) is defined as follows.

(式12)
0≦Cmap(v、n)≦255
−32768≦v≦32767
n=0(R)、1(G)、2(B)、3(α)
(Formula 12)
0 ≦ Cmap (v, n) ≦ 255
-32768 ≦ v ≦ 32767
n = 0 (R), 1 (G), 2 (B), 3 (α)

また、8ビットの断層画像群Do((式2)参照)に適用されるカラーマップCmap(v、n)は次のように定義される。   The color map Cmap (v, n) applied to the 8-bit tomographic image group Do (see (Expression 2)) is defined as follows.

(式13)
0≦Cmap(v、n)≦255
0≦v≦255
n=0(R)、1(G)、2(B)、3(α)
(Formula 13)
0 ≦ Cmap (v, n) ≦ 255
0 ≦ v ≦ 255
n = 0 (R), 1 (G), 2 (B), 3 (α)

(式12)、(式13)に示すカラーマップCmap(v、n)(0≦n≦3)のうち、特にカラーマップCmap(v、n)(0≦n≦2)は、信号値vを色値(RGB値)に変換する関数に相当する。本開示では、信号値vを色値に変換するカラーマップCmap(v、n)(0≦n≦2)を「カラーパレット」と称する。   Among the color maps Cmap (v, n) (0 ≦ n ≦ 3) shown in (Expression 12) and (Expression 13), in particular, the color map Cmap (v, n) (0 ≦ n ≦ 2) has a signal value v. Corresponds to a function for converting the color value into a color value (RGB value). In the present disclosure, a color map Cmap (v, n) (0 ≦ n ≦ 2) that converts the signal value v into a color value is referred to as a “color palette”.

また、(式12)、(式13)に示すカラーマップCmap(v、n)(0≦n≦3)のうち、特にカラーマップCmap(v、3)は、信号値vを不透明度に変換する関数に相当し、一般的に「オパシティカーブ」と呼ばれる。   Of the color maps Cmap (v, n) (0 ≦ n ≦ 3) shown in (Equation 12) and (Equation 13), in particular, the color map Cmap (v, 3) converts the signal value v into opacity. It is generally called an “opacity curve”.

カラーマップCmap(v、3)(オパシティカーブ)は、例えば、通常組織(16ビットの信号値v=0〜120程度)の不透明度が255に設定(不透明度=255は不透明(光がすべて反射)であることを示す)され、骨領域(16ビットの信号値v=1000前後)の不透明度が1〜254の中間値に設定(不透明度=1〜254は半透明(入射光の一部が反射され、その他は透過)であることを示す)され、その他の組織等の部位を不透明度が0に設定(不透明度=0は透明(入射光の全てが透過)であることを示す)される。   In the color map Cmap (v, 3) (opacity curve), for example, the opacity of a normal tissue (16-bit signal value v = 0 to about 120) is set to 255 (opacity = 255 is opaque (all light is reflected) ), And the opacity of the bone region (16-bit signal value v = around 1000) is set to an intermediate value of 1 to 254 (opacity = 1 to 254 is translucent (part of incident light) Is reflected and others are transmitted), and the opacity is set to 0 for other tissues and the like (opacity = 0 is transparent (all incident light is transmitted)) Is done.

カラーマップ調整部30は、必要に応じて、カラーマップCmap(v、n)のうち、信号値vと不透明度との対応関係を定義するCmap(v、3)(オパシティカーブともいう)を信号値に応じて調整し(後述の(式14)(式15)参照)、調整したカラーマップCmapをボクセル作成部31に出力する。   The color map adjusting unit 30 signals Cmap (v, 3) (also referred to as an opacity curve) that defines the correspondence between the signal value v and the opacity in the color map Cmap (v, n) as necessary. Adjustment is performed according to the value (see (Expression 14) and (Expression 15) described later), and the adjusted color map Cmap is output to the voxel creation unit 31.

ボクセル作成部31は、断層画像群Do、カラーマップ取得部29により取得されたカラーマップCmap(又はカラーマップ調整部30により調整されたカラーマップCmap)、補正テーブル作成部23により作成された補正テーブルS、及び領域指定部28により指定された関心領域ROIに基づいて、ボクセル構造体V(ボクセルデータ)を作成し、レンダリング部32に出力する。   The voxel creation unit 31 includes the tomographic image group Do, the color map Cmap acquired by the color map acquisition unit 29 (or the color map Cmap adjusted by the color map adjustment unit 30), and the correction table created by the correction table creation unit 23. Based on S and the region of interest ROI specified by the region specifying unit 28, a voxel structure V (voxel data) is created and output to the rendering unit 32.

具体的には、ボクセル作成部31は、カラーマップCmapを参照することで、断層画像群Doの各画素(x、y、z)の信号値vを、信号値vに応じた色値及び不透明度に変換し、色値及び不透明度を保持するボクセルの集合であるボクセル構造体V(ボクセルデータ)を作成する。   Specifically, the voxel creation unit 31 refers to the color map Cmap, and converts the signal value v of each pixel (x, y, z) of the tomographic image group Do into a color value and an undefined value corresponding to the signal value v. A voxel structure V (voxel data) that is a set of voxels that convert to transparency and retain color values and opacity is created.

特に本実施の形態では、ボクセル作成部31は、カラーマップCmapを参照して断層画像群Doの各画素(x、y、z)の信号値vを色値及び不透明度に変換してボクセル構造体V(ボクセルデータ)を作成する際、カラーマップCmap(v、3)(オパシティカーブ)に定義された不透明度をそのまま用いるのではなく、各画素(x、y、z)に対応する補正倍率S(x、y、z)を乗算することで不透明度を補正する(後述の(式17)参照)。   In particular, in the present embodiment, the voxel creation unit 31 converts the signal value v of each pixel (x, y, z) of the tomographic image group Do into a color value and opacity by referring to the color map Cmap to generate a voxel structure. When creating the body V (voxel data), the opacity defined in the color map Cmap (v, 3) (opacity curve) is not used as it is, but the correction magnification corresponding to each pixel (x, y, z). Opacity is corrected by multiplying S (x, y, z) (see (Equation 17) described later).

前述したように、補正倍率S(x、y、z)は、被写体領域の外郭を近似した幾何形状の幾何中心(重心)から遠ざかるにつれ倍率が小さくなるので、被写体領域の中心から離れたボクセルほど不透明度が減衰する。これにより、骨領域(胸骨や頭蓋骨)や皮膚、外部の寝台、固定用治具等が透明化され、被写体領域の中心付近にある臓器等が鮮明に可視化されたレンダリング像を得ることができる。   As described above, the correction magnification S (x, y, z) decreases as the distance from the geometric center (center of gravity) of the geometric shape approximating the outline of the subject region decreases. Opacity is attenuated. As a result, the bone region (the sternum and skull), the skin, the external bed, the fixing jig, and the like are made transparent, and a rendering image in which an organ near the center of the subject region is clearly visualized can be obtained.

レンダリング部32は、ボクセル作成部31により作成されたボクセル構造体V(ボクセルデータ)に基づいて、ボリュームレンダリング処理を実行し、ボリュームレンダリング像(3次元画像)を生成し表示する。レンダリング部32は、ボリュームレンダリング像として、遠位の視点から被写体を観察する全体レンダリング像や視点を被写体内に自由に移動させて気管支や大腸等を観察する仮想内視鏡像を生成する。   The rendering unit 32 executes volume rendering processing based on the voxel structure V (voxel data) created by the voxel creation unit 31, and generates and displays a volume rendering image (three-dimensional image). The rendering unit 32 generates, as a volume rendering image, a virtual rendering image for observing the bronchi, the large intestine, and the like by freely moving the entire rendering image for observing the subject from a distal viewpoint and the viewpoint to the subject.

レンダリング部32は、図20に示すように、第1レンダリング部32a及び第2レンダリング部32bを含む。
第1レンダリング部32aは、CPUによりレンダリング処理を実行するレンダリング部であり、第2レンダリング部32bは、コンピュータグラフィックスAPIのオープン標準規格であるOpenGL(Open Graphics Library)を用いてGPUによりレンダリング処理を実行するレンダリング部である。レンダリング処理は、第1レンダリング部32a又は第2レンダリング部32bにより実行される。
As shown in FIG. 20, the rendering unit 32 includes a first rendering unit 32a and a second rendering unit 32b.
The first rendering unit 32a is a rendering unit that executes rendering processing by the CPU, and the second rendering unit 32b performs rendering processing by the GPU using the OpenGL (Open Graphics Library) that is an open standard of computer graphics API. A rendering unit to be executed. The rendering process is executed by the first rendering unit 32a or the second rendering unit 32b.

図21は、第4の実施の形態における医用画像処理装置1bの全体動作を示すフローチャートである。ステップS41〜ステップS46の処理は、図17の第3の実施の形態のステップS31〜ステップS36と同様であるので、ステップS47以降から説明する。   FIG. 21 is a flowchart showing the overall operation of the medical image processing apparatus 1b according to the fourth embodiment. Since the processing of step S41 to step S46 is the same as step S31 to step S36 of the third embodiment in FIG. 17, it will be described from step S47 onward.

制御部11(領域指定部28)は、必要に応じて、ユーザから被写体の関心領域ROIの指定を受け付ける(図21のステップS47)。例えば、前記した(式11)のように、関心領域ROIを直方体等で指定する。   The control unit 11 (region specifying unit 28) receives the specification of the region of interest ROI of the subject from the user as necessary (step S47 in FIG. 21). For example, the region of interest ROI is specified by a rectangular parallelepiped or the like, as described above (Formula 11).

続いて、制御部11(カラーマップ取得部29)は、断層画像群Doに適用するカラーマップCmapを取得する(図21のステップS48)。ここで、断層画像群Doの信号値が16ビットの場合((式1)参照)は、16ビット対応のカラーマップCmap((式12)参照)を取得し、断層画像群Doの信号値が8ビットに圧縮されている場合((式2)参照)は、8ビット対応のカラーマップCmap((式13)参照)を取得する。   Subsequently, the control unit 11 (color map acquisition unit 29) acquires a color map Cmap to be applied to the tomographic image group Do (step S48 in FIG. 21). Here, when the signal value of the tomographic image group Do is 16 bits (see (Equation 1)), a 16-bit color map Cmap (see (Equation 12)) is acquired, and the signal value of the tomographic image group Do is When compressed to 8 bits (see (Expression 2)), a color map Cmap (see (Expression 13)) corresponding to 8 bits is acquired.

カラーマップCmapの取得方法は特に限定されず、例えば、制御部11は、予め用意されている複数のカラーマップCmapの中から、断層画像群Doに適用するカラーマップCmapをユーザに選択させることで取得することができる。また、制御部11は、前回レンダリング時に使用したカラーマップCmapを記憶部12から読込み、断層画像群Doに適用するカラーマップCmapとして取得しても良い。   The acquisition method of the color map Cmap is not particularly limited. For example, the control unit 11 allows the user to select a color map Cmap to be applied to the tomographic image group Do from a plurality of color maps Cmap prepared in advance. Can be acquired. Further, the control unit 11 may read the color map Cmap used at the time of previous rendering from the storage unit 12 and acquire it as a color map Cmap to be applied to the tomographic image group Do.

また、制御部11は、カラーマップ作成画面(不図示)においてユーザが作成したカラーマップCmapを取得しても良い。この場合、制御部11は、カラーマップ作成画面において、代表的な信号値v(例えば、10箇所程度の特徴的な信号値)と当該信号値vに対する色値(RGB値)及び不透明度(α値)をユーザに設定させ、ユーザが設定した代表的な信号値vと色値及び不透明度との対応関係に基づいて所定範囲の信号値vを色値及び不透明度に変換するカラーマップCmapを自動生成する。   Further, the control unit 11 may acquire a color map Cmap created by the user on a color map creation screen (not shown). In this case, the control unit 11 displays, on the color map creation screen, representative signal values v (for example, characteristic signal values at about 10 locations), color values (RGB values) for the signal values v, and opacity (α Value) is set by the user, and a color map Cmap for converting the signal value v in a predetermined range into the color value and the opacity based on the correspondence between the representative signal value v set by the user and the color value and the opacity. Generate automatically.

続いて、制御部11は、ステップS48において取得したカラーマップCmapを更に調整する場合(ステップS49;「Yes」)、ステップS50へ移行し、カラーマップCmapの調整を行う。具体的には、制御部11(カラーマップ調整部30)は、以下のように、カラーマップCmap(v、n)のうち、信号値vと不透明度との対応関係を定義するカラーマップCmap(v、3)(オパシティカーブ)を調整する。   Subsequently, when the color map Cmap acquired in step S48 is further adjusted (step S49; “Yes”), the control unit 11 proceeds to step S50 and adjusts the color map Cmap. Specifically, the control unit 11 (color map adjustment unit 30), as described below, out of the color map Cmap (v, n), a color map Cmap (defining the correspondence between the signal value v and the opacity. v, 3) Adjust the opacity curve.

断層画像群Doの信号値が16ビットの場合((式1)参照)は、制御部11は、次の手順で、16ビット対応のカラーマップCmap(v、3)((式12)参照)を調整する。   When the signal value of the tomographic image group Do is 16 bits (see (Expression 1)), the control unit 11 performs a 16-bit color map Cmap (v, 3) (see (Expression 12)) by the following procedure. Adjust.

(式14)
(1)断層画像群Doの中で、Sz/2番目の中間スライスDo(z/2)における全ての画素の最小値Dmin、最大値Dmaxを算出する。
(2)下限値Lmin=(Dmax−Dmin)・γ+Dmin、上限値Lmax=(Dmax−Dmin)・(1−γ)+Dminを設定する。ここで、γは階調圧縮画像のコントラスト調整幅で、0に近いほどコントラストが増大する(但し、輝度が小さくなる)。通常はγ=0.1に設定する。
(3)16ビットの信号値vを以下の計算式で8ビットの信号値v8に変換する(下限値Lmin〜上限値Lmaxの範囲で256段階に圧縮する)。
v8=(v−Lmin)・255/(Lmax−Lmin)
但し、v8>255の場合はv8=255、v8<0の場合はv8=0に飽和させる。
(4)次のように、16ビット対応のカラーマップCmap(v、3)((式12)参照)を調整する。
v8>Svの場合:Cmap(v、3)←Cmap(v、3)(v8−Sv)δv8≦Svの場合:調整しない
(Formula 14)
(1) In the tomographic image group Do, the minimum value Dmin and the maximum value Dmax of all pixels in the Sz / 2-th intermediate slice Do (z / 2) are calculated.
(2) The lower limit value Lmin = (Dmax−Dmin) · γ + Dmin and the upper limit value Lmax = (Dmax−Dmin) · (1−γ) + Dmin are set. Here, γ is the contrast adjustment width of the gradation-compressed image, and the contrast increases as it approaches 0 (however, the luminance decreases). Normally, γ = 0.1 is set.
(3) The 16-bit signal value v is converted into the 8-bit signal value v8 by the following calculation formula (compressed in 256 stages within the range from the lower limit value Lmin to the upper limit value Lmax).
v8 = (v−Lmin) · 255 / (Lmax−Lmin)
However, when v8> 255, it is saturated to v8 = 255, and when v8 <0, it is saturated to v8 = 0.
(4) The 16-bit color map Cmap (v, 3) (see (Equation 12)) is adjusted as follows.
When v8> Sv: Cmap (v, 3) ← Cmap (v, 3) (v8−Sv) δ When v8 ≦ Sv: No adjustment

尚、Cmap(v、n)(0≦Cmap(v、n)≦255、−32768≦v≦32767、n=0(R)、1(G)、2(B)、3(α))であり、8ビット換算の閾値をSvとし、減衰係数をδとする(δは負の実数で、通常はδ=−0.5)。閾値Svは、不透明度を減衰させる信号値の閾値であり、骨領域を減衰させる場合には、Sv=128程度に設定する。   Cmap (v, n) (0 ≦ Cmap (v, n) ≦ 255, −32768 ≦ v ≦ 32767, n = 0 (R), 1 (G), 2 (B), 3 (α)) Yes, the 8-bit equivalent threshold is Sv, and the attenuation coefficient is δ (δ is a negative real number, usually δ = −0.5). The threshold value Sv is a threshold value of a signal value for attenuating the opacity, and is set to about Sv = 128 when the bone region is attenuated.

一方、断層画像群Doの信号値が8ビットの場合((式2)参照)は、制御部11は、次のように、8ビット対応のカラーマップCmap((式13)参照)を調整する。   On the other hand, when the signal value of the tomographic image group Do is 8 bits (see (Expression 2)), the control unit 11 adjusts the 8-bit color map Cmap (see (Expression 13)) as follows. .

(式15)
v>Svの場合:Cmap(v、3)←Cmap(v、3)(v−Sv)δ
v≦Svの場合:調整しない
(Formula 15)
When v> Sv: Cmap (v, 3) ← Cmap (v, 3) (v−Sv) δ
When v ≦ Sv: No adjustment

尚、Cmap(v、n)(0≦Cmap(v、n)≦255、0≦v≦255、n=0(R)、1(G)、2(B)、3(α))であり、閾値をSvとし、減衰係数をδとする(δは負の実数で、通常はδ=−0.5)。閾値Svは、不透明度を減衰させる信号値の閾値であり、骨領域を減衰させる場合には、Sv=128程度に設定する。   Note that Cmap (v, n) (0 ≦ Cmap (v, n) ≦ 255, 0 ≦ v ≦ 255, n = 0 (R), 1 (G), 2 (B), 3 (α)). The threshold value is Sv, and the attenuation coefficient is δ (δ is a negative real number, usually δ = −0.5). The threshold value Sv is a threshold value of a signal value for attenuating the opacity, and is set to about Sv = 128 when the bone region is attenuated.

図22(a)は、(式14)においてCmap(v、3)(オパシティカーブ)に乗算される(v8−Sv)δの減衰特性を示す図である。図に示すように、信号値v8>閾値Svの場合、信号値v8と閾値Svとの差分値(v8−Sv)に応じた減衰比率(v8−Sv)δで不透明度が減衰する。例えば、図22(b)に示すように、内臓領域と骨領域の中心からの距離に差が無い場合、両者の不透明度に対して後述のステップS51の補正テーブルに基づく補正を加えても、内臓領域は骨領域に被ってしまう。そこで同図に示すように、内臓領域と骨領域の信号値の差を利用し、閾値Svを内臓領域と骨領域の信号値の境界に設定することで、骨領域の不透明度を効果的に減衰させることができ、内臓領域が鮮明に可視化される。 FIG. 22A is a diagram illustrating an attenuation characteristic of (v8−Sv) δ multiplied by Cmap (v, 3) (opacity curve) in (Expression 14). As shown in the figure, when the signal value v8> the threshold value Sv, the opacity is attenuated by the attenuation ratio (v8−Sv) δ corresponding to the difference value (v8−Sv) between the signal value v8 and the threshold value Sv. For example, as shown in FIG. 22B, when there is no difference in the distance from the center of the visceral region and the bone region, even if correction based on the correction table in step S51 described later is added to the opacity of both, The visceral region covers the bone region. Therefore, as shown in the figure, the opacity of the bone region is effectively reduced by using the difference between the signal values of the visceral region and the bone region and setting the threshold value Sv at the boundary between the signal values of the visceral region and the bone region. It can be attenuated and the visceral area is clearly visible.

一方、カラーマップCmapを調整しない場合には(ステップS49;「No」)、制御部11は、上記したカラーマップCmapの調整を省略し、ステップS51へ移行する。   On the other hand, when the color map Cmap is not adjusted (step S49; “No”), the control unit 11 omits the above-described adjustment of the color map Cmap, and proceeds to step S51.

制御部11(ボクセル作成部31)は、ステップS41において取得された断層画像群Do(又はステップS42において階調圧縮された断層画像群Do)、ステップS48において取得されたカラーマップCmap(又はステップS50において調整されたカラーマップCmap)、ステップS43において作成された補正テーブルS、及びステップS47において指定された関心領域ROIに基づいて、ボクセル構造体V(ボクセルデータ)を作成する(図21のステップS51)。   The control unit 11 (voxel creation unit 31) obtains the tomographic image group Do acquired in step S41 (or the tomographic image group Do compressed in gradation in step S42) and the color map Cmap acquired in step S48 (or step S50). The voxel structure V (voxel data) is created based on the color map Cmap adjusted in step S43, the correction table S created in step S43, and the region of interest ROI specified in step S47 (step S51 in FIG. 21). ).

本実施の形態では、ボクセル構造体V(ボクセルデータ)は、24ビットの色値(RGB値)を保持するボクセル構造体Vcと、8ビットの不透明度(α値)を保持するボクセル構造体Vαとの2つのボクセル構造体から構成されるものとする。このようにボクセル構造体を2つに分けて作成することで、色値及び不透明度に関するボクセル処理を個別に実行できるため、メモリアクセス等の向上が図られる。   In the present embodiment, the voxel structure V (voxel data) includes a voxel structure Vc that holds a 24-bit color value (RGB value) and a voxel structure Vα that holds an 8-bit opacity (α value). And two voxel structures. By creating the voxel structure in two as described above, the voxel processing relating to the color value and the opacity can be individually executed, so that the memory access and the like can be improved.

図23は、ボクセル構造体V(Vc、Vα)を作成する処理を示すフローチャートである。
まず、制御部11は、カラーマップCmap(v、n)(0≦n≦2)(=カラーパレット)、及び関心領域ROIに基づいて、24ビットのRGB値を保持するボクセル構造体Vc(x、y、z、n)(0≦V(x、y、z、n)≦255、0≦n≦2、0≦x≦Sx−1、0≦y≦Sy−1、0≦z≦Sz−1;解像度:Rxy、Rz)を以下のように作成する(図23のステップS61)。
FIG. 23 is a flowchart showing a process for creating the voxel structure V (Vc, Vα).
First, based on the color map Cmap (v, n) (0 ≦ n ≦ 2) (= color palette) and the region of interest ROI, the control unit 11 stores a voxel structure Vc (x , Y, z, n) (0 ≦ V (x, y, z, n) ≦ 255, 0 ≦ n ≦ 2, 0 ≦ x ≦ Sx−1, 0 ≦ y ≦ Sy−1, 0 ≦ z ≦ Sz -1; Resolution: Rxy, Rz) is created as follows (step S61 in FIG. 23).

(式16)
(1)Xs<x<Xe、Ys<y<Ye、及びZs<z<Zeを全て満たす場合(関心領域ROI内の場合)
Vc(x、y、z、n)=Cmap(Do(x、y、z)、n) (0≦n≦2)
(2)x≦Xs、x≧Xe、y≦Ys、y≧Ye、z≦Zs、又はz≧Zeのいずれかを満たす場合(関心領域ROI外の場合)
Vc(x、y、z、n)=0 (0≦n≦2)
(Formula 16)
(1) When Xs <x <Xe, Ys <y <Ye, and Zs <z <Ze are all satisfied (in the region of interest ROI)
Vc (x, y, z, n) = Cmap (Do (x, y, z), n) (0 ≦ n ≦ 2)
(2) When x ≦ Xs, x ≧ Xe, y ≦ Ys, y ≧ Ye, z ≦ Zs, or z ≧ Ze (when outside the region of interest ROI)
Vc (x, y, z, n) = 0 (0 ≦ n ≦ 2)

次に、制御部11は、カラーマップCmap(v、3)(=オパシティカーブ)、補正テーブルS、及び関心領域ROIに基づいて、8ビットの不透明度を保持するボクセル構造体Vα(x、y、z)(0≦Vα(x、y、z)≦255、0≦x≦Sx−1、0≦y≦Sy−1、0≦z≦Sz−1;解像度:Rxy、Rz)を以下のように作成する(図23のステップS62)。   Next, based on the color map Cmap (v, 3) (= opacity curve), the correction table S, and the region of interest ROI, the control unit 11 stores a voxel structure Vα (x, y) that holds 8-bit opacity. , Z) (0 ≦ Vα (x, y, z) ≦ 255, 0 ≦ x ≦ Sx−1, 0 ≦ y ≦ Sy−1, 0 ≦ z ≦ Sz−1; resolution: Rxy, Rz) (Step S62 in FIG. 23).

(式17)
(1)Xs<x<Xe、Ys<y<Ye、及びZs<z<Zeを全て満たす場合(関心領域ROI内の場合)
Vα(x、y、z)=Cmap(Do(x、y、z)、3)
Vα(x、y、z)=Vα(x、y、z)・S(x、y、z)
(2)x≦Xs、x≧Xe、y≦Ys、y≧Ye、z≦Zs、又はz≧Zeのいずれかを満たす場合(関心領域ROI外の場合)
Vα(x、y、z)=0
(Formula 17)
(1) When Xs <x <Xe, Ys <y <Ye, and Zs <z <Ze are all satisfied (in the region of interest ROI)
Vα (x, y, z) = Cmap (Do (x, y, z), 3)
Vα (x, y, z) = Vα (x, y, z) · S (x, y, z)
(2) When x ≦ Xs, x ≧ Xe, y ≦ Ys, y ≧ Ye, z ≦ Zs, or z ≧ Ze (when outside the region of interest ROI)
Vα (x, y, z) = 0

(式17)のVα(x、y、z)=Vα(x、y、z)・S(x、y、z)の処理より、カラーマップCmapに定義された不透明度に対して補正倍率Sが乗算され、不透明度が補正される。特に、補正倍率S(x、y、z)は、被写体領域の外郭を近似した楕円の中心から遠ざかるにつれその倍率が小さくなるので、被写体領域の中心から離れたボクセルほど不透明が減衰する。   From the processing of Vα (x, y, z) = Vα (x, y, z) · S (x, y, z) in (Equation 17), the correction magnification S with respect to the opacity defined in the color map Cmap. Is multiplied to correct the opacity. In particular, the correction magnification S (x, y, z) decreases as the distance from the center of the ellipse approximating the outline of the subject region decreases, and thus the opacity of the voxel farther from the center of the subject region attenuates.

尚、メモリアクセスの向上等を目的に、32ビットのボクセル構造体Vを色値を保持するボクセル構造体Vcと不透明度を保持するボクセル構造体Vαとに分けているが、ボクセル構造体を分けなくてもよい。この場合、制御部11は、以下のように、32ビットの色値及び不透明度を保持する1つのボクセル構造体V(x、y、z、n)(0≦V(x、y、z、n)≦255、0≦n≦3、0≦x≦Sx−1、0≦y≦Sy−1、0≦z≦Sz−1;解像度:Rxy、Rz)を作成する。   For the purpose of improving memory access, the 32-bit voxel structure V is divided into a voxel structure Vc that holds color values and a voxel structure Vα that holds opacity. It does not have to be. In this case, the control unit 11 has one voxel structure V (x, y, z, n) (0 ≦ V (x, y, z, n) that holds a 32-bit color value and opacity as follows. n) ≦ 255, 0 ≦ n ≦ 3, 0 ≦ x ≦ Sx−1, 0 ≦ y ≦ Sy−1, 0 ≦ z ≦ Sz−1; resolution: Rxy, Rz).

(式18)
(1)Xs<x<Xe、Ys<y<Ye、及びZs<z<Zeを全て満たす場合(関心領域ROI内の場合)
V(x、y、z、n)=Cmap(Do(x、y、z)、n) (0≦n≦3)
V(x、y、z、3)=V(x、y、z、3)・S(x、y、z)
(2)x≦Xs、x≧Xe、y≦Ys、y≧Ye、z≦Zs、又はz≧Zeのいずれかを満たす場合(関心領域ROI外の場合)
V(x、y、z、n)=0 (0≦n≦3)
(Formula 18)
(1) When Xs <x <Xe, Ys <y <Ye, and Zs <z <Ze are all satisfied (in the region of interest ROI)
V (x, y, z, n) = Cmap (Do (x, y, z), n) (0 ≦ n ≦ 3)
V (x, y, z, 3) = V (x, y, z, 3) · S (x, y, z)
(2) When x ≦ Xs, x ≧ Xe, y ≦ Ys, y ≧ Ye, z ≦ Zs, or z ≧ Ze (when outside the region of interest ROI)
V (x, y, z, n) = 0 (0 ≦ n ≦ 3)

上記した(式16)〜(式18)に示すボクセル構造体を作成する処理は、断層画像群Doの信号値が16ビット((式1)参照)の場合は、16ビット対応のカラーマップCmap((式12)参照)を用いて実行され、断層画像群Doの信号値が8ビット((式2)参照)に階調圧縮されている場合は、8ビット対応のカラーマップCmap((式13)参照)を用いて実行される。   The processing for creating the voxel structure shown in (Expression 16) to (Expression 18) described above is performed when the signal value of the tomographic image group Do is 16 bits (see (Expression 1)), and the color map Cmap corresponding to 16 bits is used. (Refer to (Expression 12)), and when the signal value of the tomographic image group Do is gradation-compressed to 8 bits (refer to (Expression 2)), a color map Cmap corresponding to 8 bits ((Expression 12)). 13)).

制御部11は、ボクセル構造体V(Vc、Vα)を作成した後、必要に応じてボクセル構造体V(Vc、Vα)に対して、公知のスムーシング処理を施したり、公知の陰影処理を施しても良い。   After creating the voxel structure V (Vc, Vα), the control unit 11 performs a known smoothing process or a known shadow process on the voxel structure V (Vc, Vα) as necessary. May be.

続いて、制御部11(レンダリング部32)は、ボクセル構造体Vに基づいて、ボリュームレンダリング像を生成する(図21のステップS52)。以降、CPU(第1レンダリング部32a)により実行されるレイキャスティング法によるレンダリング処理と、GPU(第2レンダリング部32b)により実行される3Dテクスチャマッピング法によるレンダリング処理について順に説明する。   Subsequently, the control unit 11 (rendering unit 32) generates a volume rendering image based on the voxel structure V (step S52 in FIG. 21). Hereinafter, a rendering process by the ray casting method executed by the CPU (first rendering unit 32a) and a rendering process by the 3D texture mapping method executed by the GPU (second rendering unit 32b) will be described in order.

最初に、図24〜図29を参照しながら、レイキャスティング法によるレンダリング処理について説明する。
図24は、レイキャスティング法の概要を示す図である。図24(a)に示すように、投影面(レンダリング像)の各点からボクセルデータに対して任意の方向にレイを発射し、最深点(レイ方向で光が届く最も深い点)よりその軌跡を逆にたどり、投影面上の点の輝度値を算出する。
また、図24(b)に示すように、計算を簡単にするため、ボクセルデータに座標変換を施し、投影面の各点よりZ軸負方向の最深点までレイを進め、同時に累積輝度計算を行う。
First, a rendering process by the ray casting method will be described with reference to FIGS.
FIG. 24 is a diagram showing an outline of the ray casting method. As shown in FIG. 24A, a ray is emitted from each point on the projection plane (rendered image) in an arbitrary direction with respect to the voxel data, and its trajectory from the deepest point (the deepest point where light reaches in the ray direction). Is reversed, and the luminance value of the point on the projection plane is calculated.
Also, as shown in FIG. 24 (b), in order to simplify the calculation, the voxel data is subjected to coordinate transformation, the ray is advanced from each point on the projection plane to the deepest point in the negative Z-axis direction, and the cumulative luminance calculation is simultaneously performed. Do.

図25は、レンダリング処理を示すフローチャートである。まず、制御部11は、座標変換パラメータを設定する(ステップS71)。後述する探索制御マスクの算出(ステップS72)、レイキャスティング処理(ステップS73)の各処理で、視点座標系からボクセル座標系への座標変換処理を行う。そのため、制御部11は、以下のように、座標変換処理に共通する座標変換パラメータを事前に設定・算出しておく。   FIG. 25 is a flowchart showing the rendering process. First, the control unit 11 sets coordinate conversion parameters (step S71). A coordinate conversion process from the viewpoint coordinate system to the voxel coordinate system is performed in each process of a search control mask calculation (step S72) and a ray casting process (step S73) described later. Therefore, the control unit 11 sets and calculates in advance coordinate conversion parameters common to the coordinate conversion processing as follows.

<座標変換パラメータ>
回転パラメータ行列R:
R=[R11 R12 R13;
R21 R22 R23;
R31 R32 R33]
(ボクセル座標系から視点座標系への座標変換を行うための3×3の行列の逆行列、GUI側はボクセル座標系から視点座標系への座標変換を指示するが、レンダリング側は視点座標系からボクセル座標系に座標変換を行う。)
X軸方向のオフセットXoff
Y軸方向のオフセットYoff
Z軸方向のオフセットZoff
X軸方向のROI:Xs−Xe(0≦Xs、Xe≦Sx−1)
Y軸方向のROI:Ys−Ye(0≦Ys、Ye≦Sy−1)
Z軸方向のROI:Zs−Ze(0≦Zs、Ze≦Sz−1)
透視変換パラメータ:原点からZ軸方向の距離Dist(正の実数値、平行投影の場合はDist=0)
拡大縮小倍率Scale(XYZ軸方向で同一)
Z方向変倍率Scz=Rxy/Rz
Z方向変倍後のZ方向サイズSz’=Sz・Scz
座標変換サブサンプル・オフセット:X軸方向dx、Y軸方向dy、Z軸方向dz
<Coordinate transformation parameters>
Rotation parameter matrix R:
R = [R11 R12 R13;
R21 R22 R23;
R31 R32 R33]
(An inverse matrix of a 3 × 3 matrix for performing coordinate conversion from the voxel coordinate system to the viewpoint coordinate system. The GUI side instructs coordinate conversion from the voxel coordinate system to the viewpoint coordinate system. (Converts coordinates from to the voxel coordinate system.)
X-axis offset Xoff
Y-axis offset Yoff
Z-axis offset Zoff
ROI in the X-axis direction: Xs-Xe (0 ≦ Xs, Xe ≦ Sx−1)
ROI in the Y-axis direction: Ys−Ye (0 ≦ Ys, Ye ≦ Sy−1)
ROI in the Z-axis direction: Zs-Ze (0 ≦ Zs, Ze ≦ Sz−1)
Perspective transformation parameter: distance Dist in the Z-axis direction from the origin (positive real value, Dist = 0 for parallel projection)
Enlargement / reduction ratio Scale (same in XYZ axis direction)
Z-direction variable magnification Scz = Rxy / Rz
Z direction size after zooming in the Z direction Sz ′ = Sz · Scz
Coordinate transformation subsample offset: X-axis direction dx, Y-axis direction dy, Z-axis direction dz

制御部11は、上記した回転パラメータ行列Rに対して、初期値として単位行列を設定する。すなわち、R11=1、R12=0、R13=0、R21=0、R22=1、R23=0、R31=0、R32=0、R33=1と設定する。
そして、GUIの指示に従い、X軸中心回転Rx、Y軸中心回転Ry、Z軸中心回転Rz(角度単位:ラジアン)のいずれかを逐次指定し、以下のように、各々回転行列Aを生成して回転パラメータ行列Rに右から乗算して、回転パラメータ行列Rを更新する。これにより、GUIの指示により生成されるボクセル座標系から視点座標系への回転行列の逆行列が算出される。
The control unit 11 sets a unit matrix as an initial value for the rotation parameter matrix R described above. That is, R11 = 1, R12 = 0, R13 = 0, R21 = 0, R22 = 1, R23 = 0, R31 = 0, R32 = 0, and R33 = 1.
Then, according to the instruction of the GUI, any one of the X-axis center rotation Rx, the Y-axis center rotation Ry, and the Z-axis center rotation Rz (angle unit: radians) is sequentially specified, and a rotation matrix A is generated as follows. Then, the rotation parameter matrix R is multiplied from the right to update the rotation parameter matrix R. As a result, the inverse matrix of the rotation matrix from the voxel coordinate system to the viewpoint coordinate system generated by the GUI instruction is calculated.

回転行列Aを
A=[A11 A12 A13;
A21 A22 A23;
A31 A32 A33]
とすると、
X軸中心回転Rxの場合の回転行列Aの各要素は、
A11=1、A12=0、A13=0
A21=0、A22=cosRx、A23=sinRx
A31=0、A32=sinRx、A33=cosRx
Y軸中心回転Ryの場合の回転行列Aの各要素は、
A11=cosRy、A12=0、A13=sinRy
A21=0、A22=1、A23=0
A31=−sinRy、A32=0、A33=cosRy
Z軸中心回転Rzの場合の回転行列Aの各要素は、
A11=cosRz、A12=sinRz、A13=0
A21=−sinRz、A22=cosRz、A23=0
A31=0、A32=0、A33=1
となる。
回転パラメータ行列Rは、R←R×Aと更新される。
Rotation matrix A
A = [A11 A12 A13;
A21 A22 A23;
A31 A32 A33]
Then,
Each element of the rotation matrix A in the case of the X-axis center rotation Rx is
A11 = 1, A12 = 0, A13 = 0
A21 = 0, A22 = cosRx, A23 = sinRx
A31 = 0, A32 = sinRx, A33 = cosRx
Each element of the rotation matrix A in the case of the Y-axis center rotation Ry is
A11 = cosRy, A12 = 0, A13 = sinRy
A21 = 0, A22 = 1, A23 = 0
A31 = −sinRy, A32 = 0, A33 = cosRy
Each element of the rotation matrix A in the case of the Z-axis center rotation Rz is
A11 = cosRz, A12 = sinRz, A13 = 0
A21 = −sinRz, A22 = cosRz, A23 = 0
A31 = 0, A32 = 0, A33 = 1
It becomes.
The rotation parameter matrix R is updated as R ← R × A.

以上の座標変換処理は、探索制御マスクの算出(ステップS72)、レイキャスティング処理(ステップS73)の各処理の中で逐次実行される。   The coordinate conversion process described above is sequentially executed in each process of the search control mask calculation (step S72) and the ray casting process (step S73).

次に、図26のフローチャートを参照して、図25のステップS72における探索制御マスクの算出処理について説明する。
探索制御マスクM(x、y、l)(0≦x≦Sx−1、0≦y≦Sy−1、0≦l≦L−1)は、算出するレンダリング像の画素(x、y)毎に先頭の不透明ボクセルのZ座標を記憶したものである。座標変換時にサブサンプリング(ボリュームレンダリング像のジャギーを除去するため、アンチエリアシングともいわれる)を行う場合は、制御部11は、以下の処理をL回(0≦l≦L−1)実行する。
Next, the search control mask calculation process in step S72 of FIG. 25 will be described with reference to the flowchart of FIG.
The search control mask M (x, y, l) (0 ≦ x ≦ Sx−1, 0 ≦ y ≦ Sy−1, 0 ≦ l ≦ L−1) is calculated for each pixel (x, y) of the rendering image to be calculated. Stores the Z coordinate of the leading opaque voxel. When performing sub-sampling (also referred to as anti-aliasing in order to remove jaggies in the volume rendering image) at the time of coordinate conversion, the control unit 11 performs the following processing L times (0 ≦ l ≦ L−1).

まず、制御部11は、処理回数l=0とし、サブサンプル・オフセット値をdx=dy=dz=0と初期化する(ステップS81)。   First, the control unit 11 initializes the subsample offset value as dx = dy = dz = 0 by setting the number of times of processing to 1 = 0 (step S81).

続いて、制御部11は、x=2m及びy=2n(m、nは整数)の値をとる画素(x、y)に対して、Zs=Sz’−1から座標変換を行いながら先頭の不透明ボクセルを探索し、そのZ座標をM(x、y、l)に記録する。x=Sx−1又はy=Sy−1のいずれかの値をもつ画素(x、y)に対しても同様の探索を行う(ステップS82)。これにより、図27(a)のように、縦横偶数番目の画素について不透明ボクセルのZ座標が算出される。不透明度ボクセルを探索する処理は、図28にて後述する。   Subsequently, the control unit 11 performs the coordinate conversion from Zs = Sz′−1 to the pixel (x, y) having the values of x = 2m and y = 2n (m and n are integers). Search for an opaque voxel and record its Z coordinate in M (x, y, l). A similar search is performed for a pixel (x, y) having a value of either x = Sx-1 or y = Sy-1 (step S82). Thereby, as shown in FIG. 27A, the Z coordinate of the opaque voxel is calculated for the even-numbered pixels in the vertical and horizontal directions. The process for searching for opacity voxels will be described later with reference to FIG.

続いて、制御部11は、x=2m+1(x<Sx−1)及びy=2n(m、nは整数)の値をとる画素(x、y)に対して、M(x−1、y、l)=M(x+1、y、l)の場合、M(x、y、l)=M(x−1、y、l)を与え、M(x−1、y、l)≠M(x+1、y、l)の場合、上記同様Zs=Sz’−1から座標変換を行いながら先頭の不透明ボクセルを探索(図28参照)し、そのZ座標をM(x、y、l)に記録する(ステップS83)。これにより、図27(b)のように、X方向に奇数番目の画素について不透明ボクセルのZ座標が算出される。隣接する左右画素の不透明ボクセルのZ座標が同一の場合、そのZ座標で補間する(不透明ボクセルの探索は行わない)。   Subsequently, the control unit 11 performs M (x−1, y) on a pixel (x, y) having values of x = 2m + 1 (x <Sx−1) and y = 2n (m and n are integers). , L) = M (x + 1, y, l), M (x, y, l) = M (x−1, y, l) is given, and M (x−1, y, l) ≠ M ( In the case of x + 1, y, l), the top opaque voxel is searched while performing coordinate conversion from Zs = Sz′−1 as described above (see FIG. 28), and the Z coordinate is recorded in M (x, y, l). (Step S83). Thereby, as shown in FIG. 27B, the Z coordinate of the opaque voxel is calculated for the odd-numbered pixels in the X direction. When the Z coordinates of the opaque voxels of the adjacent left and right pixels are the same, interpolation is performed using the Z coordinates (search for opaque voxels is not performed).

続いて、制御部11は、全てのx(0≦x≦Sx−1)及びy=2n+1(nは整数)の値をとる画素(x、y)に対して、M(x、y−1、l)=M(x、y+1、l)の場合、M(x、y、l)=M(x、y−1、l)を与え、M(x、y−1、l)≠M(x、y+1、l)の場合、上記同様Zs=Sz’−1から座標変換を行いながら先頭の不透明ボクセルを探索(図28参照)し、そのZ座標をM(x、y、l)に記録する(ステップS84)。これにより、図27(c)のように、Y方向に奇数番目の画素について不透明ボクセルのZ座標が算出される。隣接する上下画素の不透明ボクセルのZ座標が同一の場合、そのZ座標で補間する(不透明ボクセルの探索は行わない)。   Subsequently, the control unit 11 performs M (x, y−1) on all the pixels (x, y) having values of x (0 ≦ x ≦ Sx−1) and y = 2n + 1 (n is an integer). , L) = M (x, y + 1, l), M (x, y, l) = M (x, y−1, l) is given, and M (x, y−1, l) ≠ M ( In the case of x, y + 1, l), the top opaque voxel is searched while performing coordinate conversion from Zs = Sz′-1 as described above (see FIG. 28), and the Z coordinate is recorded in M (x, y, l). (Step S84). Thereby, as shown in FIG. 27C, the Z coordinate of the opaque voxel is calculated for the odd-numbered pixels in the Y direction. When the Z coordinate of the opaque voxel of the adjacent upper and lower pixels is the same, interpolation is performed with the Z coordinate (the search for the opaque voxel is not performed).

続いて、制御部11は、処理回数をl←l+1に更新し、サブサンプル・オフセット値を、dx←dx+1/L、dy←dy+1/L、dz←dz+1/Lに更新する(ステップS85)。
制御部11は、処理回数l=L−1となるまで(ステップS86;Yes)、上記したステップS82〜S85の処理を繰り返す。
Subsequently, the control unit 11 updates the processing count to l ← l + 1, and updates the subsample offset values to dx ← dx + 1 / L, dy ← dy + 1 / L, and dz ← dz + 1 / L (step S85).
The control part 11 repeats the process of above-described step S82-S85 until it becomes the process frequency l = L-1 (step S86; Yes).

次に、図28のフローチャートを参照して、探索制御マスク算出処理(図26)において実行される不透明度ボクセルの探索処理について説明する。
まず、制御部11は、zをz=Zsと初期化し、探索対象画素(x、y)を入力する(ステップS91)。続いて、制御部11は、3次元座標(x、y、z)に対して座標変換を行い、ボクセルα値(n=3)を算出する(ステップS92)。座標変換を行い、ボクセルα値を算出する処理(座標変換処理)は後述する。
Next, the opacity voxel search process executed in the search control mask calculation process (FIG. 26) will be described with reference to the flowchart of FIG.
First, the control unit 11 initializes z to z = Zs and inputs a search target pixel (x, y) (step S91). Subsequently, the control unit 11 performs coordinate conversion on the three-dimensional coordinates (x, y, z), and calculates a voxel α value (n = 3) (step S92). Processing (coordinate conversion processing) for performing coordinate conversion and calculating the voxel α value will be described later.

ステップS92において算出されたボクセルα値がα=0の場合、制御部11は、z←z−m(例えばm=8)に更新する(ステップS93)。そして、z<0の場合、制御部11は、M(x、y、l)=−1に設定し(ステップS94)、処理を終了する。z≧0の場合、制御部11は、ステップS92に戻る。   When the voxel α value calculated in step S92 is α = 0, the control unit 11 updates z ← z−m (for example, m = 8) (step S93). If z <0, the control unit 11 sets M (x, y, l) = − 1 (step S94) and ends the process. If z ≧ 0, the control unit 11 returns to step S92.

一方、ステップS92において算出されたボクセルα値がα>0の場合、制御部11は、まず、iをi=0と初期化する(ステップS95)。続いて、制御部11は、i←i+1に更新し(ステップS96)、i<mかつz+i<Zsの場合、3次元座標(x、y、z+i)に対して座標変換を行い、ボクセルα値を算出する(ステップS97)。座標変換を行い、ボクセルα値を算出する処理(座標変換処理)は後述する。   On the other hand, when the voxel α value calculated in step S92 is α> 0, the control unit 11 first initializes i to i = 0 (step S95). Subsequently, the control unit 11 updates i ← i + 1 (step S96). When i <m and z + i <Zs, the control unit 11 performs coordinate conversion on the three-dimensional coordinates (x, y, z + i), and calculates the voxel α value. Is calculated (step S97). A process (coordinate conversion process) for performing the coordinate conversion and calculating the voxel α value will be described later.

一方、i≧mまたはz+i≧Zsの場合、制御部11は、M(x、y、l)=z+i−1に設定し(ステップS98)、処理を終了する。   On the other hand, if i ≧ m or z + i ≧ Zs, the control unit 11 sets M (x, y, l) = z + i−1 (step S98), and ends the process.

また、ステップS97において算出されたボクセルα値がα=0の場合、制御部11は、M(x、y、l)=z+i−1に設定し(ステップS98)、処理を終了する。   When the voxel α value calculated in step S97 is α = 0, the control unit 11 sets M (x, y, l) = z + i−1 (step S98) and ends the process.

一方、ステップS97において算出されたボクセルα値がα>0の場合、ステップS96に戻り、ステップS98において不透明ボクセルのZ座標が設定されるまで、ステップS96〜S97の処理を繰り返す。   On the other hand, when the voxel α value calculated in step S97 is α> 0, the process returns to step S96, and the processes in steps S96 to S97 are repeated until the Z coordinate of the opaque voxel is set in step S98.

不透明度ボクセル探索処理(図28)のステップS92及びステップS97において実行される座標変換処理について説明する。
座標変換処理は、視点座標系をボクセル座標系に変換する処理であり、GUI側の変換処理とは逆になる。GUI側では関心領域ROIによるクリッピング、スケーリング、Z方向変倍処理、オフセット(XYZ方向同時)、回転、透視変換の順に行うものと仮定し、制御部11は、与えられた視点座標系の3次元座標値(x、y、z)(整数値)に対応する8ビットのボクセル構造体Vα(x、y、z)又は24ビットのボクセル構造体Vc(x、y、z、n)の実数の座標値(xr、yr、zr)を以下のように算出する。
The coordinate conversion process executed in steps S92 and S97 of the opacity voxel search process (FIG. 28) will be described.
The coordinate conversion process is a process of converting the viewpoint coordinate system to the voxel coordinate system, and is the reverse of the conversion process on the GUI side. On the GUI side, it is assumed that clipping, scaling, Z-direction scaling processing, offset (simultaneously in the XYZ directions), rotation, and perspective transformation are performed in order of the ROI of interest, and the control unit 11 performs the three-dimensional view coordinate system given. The real number of the 8-bit voxel structure Vα (x, y, z) or 24-bit voxel structure Vc (x, y, z, n) corresponding to the coordinate value (x, y, z) (integer value) Coordinate values (xr, yr, zr) are calculated as follows.

制御部11は、視点座標系の座標値(x、y、z)(整数値)を次のように実数値(xx、yy、zz)に変換する。
xx=x−Sx/2+dx
yy=y−Sy/2+dy
zz=z−Sz’/2+dz
The control unit 11 converts the coordinate value (x, y, z) (integer value) of the viewpoint coordinate system into a real value (xx, yy, zz) as follows.
xx = x-Sx / 2 + dx
yy = y-Sy / 2 + dy
zz = z−Sz ′ / 2 + dz

続いて、原点からZ軸方向の距離Dist>0の場合、制御部11は、以下のように透視変換を行う。
zz’=Dist・zz/(Dist+zz)
xx’=xx・(Dist−zz’)/Dist
yy’=yy・(Dist−zz’)/Dist
透視変換後の(xx’、yy’、zz’)を(xx、yy、zz)とする。
Subsequently, when the distance Dist> 0 in the Z-axis direction from the origin, the control unit 11 performs perspective transformation as follows.
zz ′ = Dist · zz / (Dist + zz)
xx ′ = xx · (Dist−zz ′) / Dist
yy '= yy. (Dist-zz') / Dist
Let (xx ′, yy ′, zz ′) after perspective transformation be (xx, yy, zz).

続いて、制御部11は、以下のように、回転パラメータ行列Rを用いて回転処理を行う。
xx’=R11・xx+R12・yy+R13・zz
yy’=R21・xx+R22・yy+R23・zz
zz’=R31・xx+R32・yy+R33・zz
回転処理後の(xx’、yy’、zz’)を(xx、yy、zz)とする。
Subsequently, the control unit 11 performs a rotation process using the rotation parameter matrix R as follows.
xx ′ = R11 · xx + R12 · yy + R13 · zz
yy ′ = R21 · xx + R22 · yy + R23 · zz
zz ′ = R31 · xx + R32 · yy + R33 · zz
Let (xx ′, yy ′, zz ′) after the rotation process be (xx, yy, zz).

制御部11は、スケーリング、Z方向変倍処理、及びオフセット(XYZ方向同時)を同時に行い、次のようにボクセル構造体の対応するボクセルの座標値(xr、yr、zr)(実数値)を取得する。
xr=xx/Scale+Sx/2−Xoff
yr=yy/Scale+Sy/2−Yoff
zr=zz/Scale/Scz+Sz/2−Zoff
The control unit 11 simultaneously performs scaling, Z-direction scaling processing, and offset (simultaneously in the XYZ directions), and calculates the coordinate values (xr, yr, zr) (real values) of the corresponding voxels of the voxel structure as follows. get.
xr = xx / Scale + Sx / 2−Xoff
yr = yy / Scale + Sy / 2-Yoff
zr = zz / Scale / Scz + Sz / 2−Zoff

続いて、制御部11は、算出したボクセルの座標値(xr、yr、zr)(実数値)に対して、小数点以下を切り捨て整数化した座標値を(xi、yi、zi)(整数値)とし、切り捨てた小数点以下の端数を(wx、wy、wz)(0≦wx、wy、wz<1)とする(すなわち、xr=xi+wx、yr=yi+wy、zr=zi+wz)。   Subsequently, the control unit 11 converts the coordinate value (xi, yi, zi) (integer value) by rounding off the decimal point to the calculated coordinate value (xr, yr, zr) (real value) of the voxel. And the fractions after the decimal point rounded down are (wx, wy, wz) (0 ≦ wx, wy, wz <1) (that is, xr = xi + wx, yr = yi + wy, zr = zi + wz).

そして、制御部11は、X軸・Y軸・Z軸方向のROIを考慮して、視点座標系の3次元座標値(x、y、z)(整数値)に対応するボクセルのα値(Vα)を次のように3通りの場合に分けて決定する。   Then, the control unit 11 considers the ROI in the X-axis / Y-axis / Z-axis directions, and the voxel α value corresponding to the three-dimensional coordinate value (x, y, z) (integer value) of the viewpoint coordinate system ( Vα) is determined in three cases as follows.

1)xi<Xs、xi>Xe、yi<Ys、yi>Ye、zi<Zs、又はzi>Zeのいずれかを満たす場合(クリッピング範囲)
Vα=0
2)上記1)の条件を満たさない場合において、xi+1>Xe、yi+1>Ye、又はzi+1>Zeのいずれかを満たす場合(補間しない)
Vα=Vα(xi、yi、zi)
1) When xi <Xs, xi> Xe, yi <Ys, yi> Ye, zi <Zs, or zi> Ze is satisfied (clipping range)
Vα = 0
2) When the above condition 1) is not satisfied, xi + 1> Xe, yi + 1> Ye, or zi + 1> Ze is satisfied (no interpolation)
Vα = Vα (xi, yi, zi)

3)上記1)2)の条件を満たさない場合(補間する)
Vα=(1−wz)(1−wy)(1−wx)・Vα(xi、yi、zi)+(1−wz)(1−wy)・wx・Vα(xi+1、yi、zi)+(1−wz)・wy・(1−wx)・Vα(xi、yi+1、zi)+(1−wz)・wy・wx・Vα(xi+1、yi+1、zi)+wz・(1−wy)(1−wx)・Vα(xi、yi、zi+1)+wz・(1−wy)・wx・Vα(xi+1、yi、zi+1)+wz・wy・(1−wx)・Vα(xi、yi+1、zi+1)+wz・wy・wx・Vα(xi+1、yi+1、zi+1)
3) When the above conditions 1) and 2) are not satisfied (interpolate)
Vα = (1-wz) (1-wy) (1-wx) · Vα (xi, yi, zi) + (1-wz) (1-wy) · wx · Vα (xi + 1, yi, zi) + ( 1-wz) * wy * (1-wx) * V [alpha] (xi, yi + 1, zi) + (1-wz) * wy * wx * V [alpha] (xi + 1, yi + 1, zi) + wz * (1-wy) (1- wx) · Vα (xi, yi, zi + 1) + wz · (1-wy) · wx · Vα (xi + 1, yi, zi + 1) + wz · wy · (1-wx) · Vα (xi, yi + 1, zi + 1) + wz · wy・ Wx ・ Vα (xi + 1, yi + 1, zi + 1)

尚、後述するレイキャスティング処理(図29参照)のようにボクセルのRGB値を取得する場合は、制御部11は、視点座標系の3次元座標値(x、y、z)(整数値)に対応するボクセルのRGB値(Vc(n))(0≦n≦2)を次のように3通りの場合に分けて決定する。   Note that when the RGB value of the voxel is acquired as in a ray casting process (see FIG. 29) described later, the control unit 11 sets the three-dimensional coordinate value (x, y, z) (integer value) of the viewpoint coordinate system. The RGB values (Vc (n)) (0 ≦ n ≦ 2) of the corresponding voxels are determined in three cases as follows.

1)xi<Xs、xi>Xe、yi<Ys、yi>Ye、zi<Zs、又はzi>Zeのいずれかを満たす場合(クリッピング範囲)
Vc(n)=0 (0≦n≦2)
2)上記1)の条件を満たさない場合において、xi+1>Xe、yi+1>Ye、又はzi+1>Zeのいずれかを満たす場合(補間しない)
Vc(n)=Vc(xi、yi、zi、n) (0≦n≦2)
1) When xi <Xs, xi> Xe, yi <Ys, yi> Ye, zi <Zs, or zi> Ze is satisfied (clipping range)
Vc (n) = 0 (0 ≦ n ≦ 2)
2) When the above condition 1) is not satisfied, xi + 1> Xe, yi + 1> Ye, or zi + 1> Ze is satisfied (no interpolation)
Vc (n) = Vc (xi, yi, zi, n) (0 ≦ n ≦ 2)

3)上記1)2)の条件を満たさない場合(補間する)
Vc(n)=(1−wz)(1−wy)(1−wx)・Vc(xi、yi、zi、n)+(1−wz)(1−wy)・wx・Vc(xi+1、yi、zi、n)+(1−wz)・wy・(1−wx)・Vc(xi、yi+1、zi、n)+(1−wz)・wy・wx・Vc(xi+1、yi+1、zi、n)+wz・(1−wy)(1−wx)・Vc(xi、yi、zi+1、n)+wz・(1−wy)・wx・Vc(xi+1、yi、zi+1、n)+wz・wy・(1−wx)・Vc(xi、yi+1、zi+1、n)+wz・wy・wx・Vc(xi+1、yi+1、zi+1、n) (0≦n≦2)
3) When the above conditions 1) and 2) are not satisfied (interpolate)
Vc (n) = (1-wz) (1-wy) (1-wx) .Vc (xi, yi, zi, n) + (1-wz) (1-wy) .wx.Vc (xi + 1, yi , Zi, n) + (1-wz) · wy · (1-wx) · Vc (xi, yi + 1, zi, n) + (1-wz) · wy · wx · Vc (xi + 1, yi + 1, zi, n ) + Wz · (1−wy) (1−wx) · Vc (xi, yi, zi + 1, n) + wz · (1−wy) · wx · Vc (xi + 1, yi, zi + 1, n) + wz · wy · (1 −wx) · Vc (xi, yi + 1, zi + 1, n) + wz · wy · wx · Vc (xi + 1, yi + 1, zi + 1, n) (0 ≦ n ≦ 2)

次に、図29のフローチャートを参照して、図25のステップS73におけるレイキャスティング処理について説明する。
制御部11は、まず、生成する24ビット(RGB)のレンダリング画像Image(x、y、n)の初期値を全て0に設定する(Image(x、y、n)=0、n=0(R)、1(G)、2(B))。そして、サブサンプル回数Lとして、各2次元座標(x、y)(0≦x≦Sx−1、0≦y≦Sy−1)に対して、以下の処理を実行する。
Next, the ray casting process in step S73 of FIG. 25 will be described with reference to the flowchart of FIG.
First, the control unit 11 sets all initial values of the generated 24-bit (RGB) rendered image Image (x, y, n) to 0 (Image (x, y, n) = 0, n = 0 ( R), 1 (G), 2 (B)). Then, the following processing is executed for each two-dimensional coordinate (x, y) (0 ≦ x ≦ Sx−1, 0 ≦ y ≦ Sy−1) as the number of subsamples L.

まず、制御部11は、光源Light(n)(n=0(R)、1(G)、2(B)、0≦Light(n)≦255)を設定し、サブサンプル・オフセット値をdx=dy=dz=0、処理回数l=0に初期化する(ステップS101)。   First, the control unit 11 sets the light source Light (n) (n = 0 (R), 1 (G), 2 (B), 0 ≦ Light (n) ≦ 255), and sets the subsample offset value to dx. = Dy = dz = 0 and the number of processing times 1 = 0 is initialized (step S101).

続いて、制御部11は、z=M(x、y、l)とし(ステップS102)、z<0の場合、ステップS110へ移行し、画素(x、y)におけるRGB画素値を決定する。   Subsequently, the control unit 11 sets z = M (x, y, l) (step S102). When z <0, the control unit 11 proceeds to step S110 and determines the RGB pixel value at the pixel (x, y).

一方、z≧0の場合、制御部11は、仮想光強度Trans=1.0、累積輝度値Energy(n)=0.0(0≦n≦2)に初期化し(ステップS103)、3次元座標(x、y、z)を座標変換してボクセルα値(Vα)を取得し、Alpha=Vα/255を算出する(ステップS104)。   On the other hand, if z ≧ 0, the control unit 11 initializes the virtual light intensity Trans = 1.0 and the accumulated luminance value Energy (n) = 0.0 (0 ≦ n ≦ 2) (step S103) and three-dimensional The coordinates (x, y, z) are transformed to obtain the voxel α value (Vα), and Alpha = Vα / 255 is calculated (step S104).

ステップS104において算出したAlphaがAlpha=0かつz=0の場合、ステップS110へ移行し、画素(x、y)におけるRGB画素値を決定する。   When Alpha calculated in step S104 is Alpha = 0 and z = 0, the process proceeds to step S110, and the RGB pixel value in the pixel (x, y) is determined.

一方、ステップS104において算出したAlphaがAlpha>0の場合、制御部11は、3次元座標(x、y、z)を座標変換してボクセルRGB値Vc(n)を取得する(ステップS107)。ボクセルのRGB値Vc(n)を取得は、前述した座標変換処理により行われる。   On the other hand, when the Alpha calculated in Step S104 is Alpha> 0, the control unit 11 performs coordinate conversion on the three-dimensional coordinates (x, y, z) to obtain the voxel RGB value Vc (n) (Step S107). The RGB value Vc (n) of the voxel is acquired by the coordinate conversion process described above.

続いて、制御部11は、累積輝度をEnergy(n)=Energy(n)+Trans/Alpha・Vc(n)/255、透過光強度をTrans=Trans・(1.0−Alpha)と更新する(ステップS108)。Alpha=1.0又はTrans<0.001の場合、ステップS110へ移行し、画素(x、y)におけるRGB画素値を決定する。それ以外の場合、制御部11は、z=z−1に更新し(ステップS109)、z≧0の場合、ステップS104に戻り、z≦0の場合、ステップS110へ移行し、画素(x、y)におけるRGB画素値を決定する。   Subsequently, the control unit 11 updates the accumulated luminance as Energy (n) = Energy (n) + Trans / Alpha · Vc (n) / 255 and the transmitted light intensity as Trans = Trans · (1.0−Alpha) ( Step S108). When Alpha = 1.0 or Trans <0.001, the process proceeds to step S110, and the RGB pixel value at the pixel (x, y) is determined. Otherwise, the control unit 11 updates z = z−1 (step S109). If z ≧ 0, the control unit 11 returns to step S104. If z ≦ 0, the control unit 11 proceeds to step S110, and the pixel (x, Determine RGB pixel values in y).

一方、ステップS104において算出したAlphaがAlpha=0かつz>0の場合、制御部11は、Zs=z−1から座標変換して先頭の不透明ボクセルのZ座標z’を探索する(ステップS105)。不透明ボクセルの探索は、前述した不透明ボクセル探索処理(図28参照)により実行される。   On the other hand, when the Alpha calculated in Step S104 is Alpha = 0 and z> 0, the control unit 11 performs coordinate conversion from Zs = z−1 and searches for the Z coordinate z ′ of the leading opaque voxel (Step S105). . The search for opaque voxels is executed by the above-described opaque voxel search process (see FIG. 28).

探索されたz’がz’<0の場合、ステップS110へ移行し、画素(x、y)におけるRGB画素値を決定する。z’≧0の場合、制御部11は、z=z'に更新し(ステップS106)、ステップS104の処理に戻る。   When the searched z ′ is z ′ <0, the process proceeds to step S110, and the RGB pixel value at the pixel (x, y) is determined. When z ′ ≧ 0, the control unit 11 updates z = z ′ (step S106) and returns to the process of step S104.

ステップS110において、制御部11は、画素(x、y)におけるRGB画素値を次のように決定する。
Image(x、y、n)=Image(x、y、n)+k・Energy(n)・Light(n)/L
ここで、kは強度倍率であり、初期値はk=1.0に設定される。
In step S110, the control unit 11 determines the RGB pixel value in the pixel (x, y) as follows.
Image (x, y, n) = Image (x, y, n) + k · Energy (n) · Light (n) / L
Here, k is an intensity magnification, and an initial value is set to k = 1.0.

続いて、制御部11は、処理回数をl←l+1に更新し、サブサンプル・オフセット値を、dx←dx+1/L、dy←dy+1/L、dz←dz+1/Lに更新する(ステップS111)。制御部11は、処理回数l=L−1となるまで(ステップS112;Yes)、上記したステップS102〜S111の処理を繰り返し、最終的なレンダリング画像Image(x、y、n)(n≦0≦2)を得る。   Subsequently, the control unit 11 updates the number of processes to l ← l + 1, and updates the subsample offset values to dx ← dx + 1 / L, dy ← dy + 1 / L, and dz ← dz + 1 / L (step S111). The control unit 11 repeats the processing of steps S102 to S111 described above until the number of processing times l = L−1 (step S112; Yes), and the final rendered image Image (x, y, n) (n ≦ 0). ≦ 2) is obtained.

以上、図24〜図29を参照しながら、CPU(第1レンダリング部32a)により実行されるレイキャスティング法によるレンダリング処理について説明した。   The rendering process by the ray casting method executed by the CPU (first rendering unit 32a) has been described above with reference to FIGS.

次に、図30〜図34を参照しながら、GPU(第2レンダリング部32b)により実行される3Dテクスチャマッピング法によるレンダリング処理について説明する。   Next, a rendering process by the 3D texture mapping method executed by the GPU (second rendering unit 32b) will be described with reference to FIGS.

GPUによるレンダリングはOpenGLシステムを用いて実行するため、制御部11は、作成したボクセル構造体Vを3DテクスチャとしてOpenGLシステムへ登録する。具体的には、制御部11は、24ビットのボクセル構造体Vc((式16)参照)と8ビットのボクセル構造体Vα(式(17)参照)を32ビットのボクセル構造体V((式18)参照)に統合し、glTexImage3D関数を用いて3Dテクスチャを生成し、3DテクスチャをOpenGLシステムに登録する。   Since rendering by the GPU is performed using the OpenGL system, the control unit 11 registers the created voxel structure V as a 3D texture in the OpenGL system. Specifically, the control unit 11 converts the 24-bit voxel structure Vc (see (Expression 16)) and the 8-bit voxel structure Vα (see Expression (17)) into a 32-bit voxel structure V ((Expression 16). 18), 3D texture is generated using the glTexImage3D function, and the 3D texture is registered in the OpenGL system.

また、制御部11は、図30に示すように、3Dテクスチャを構成する各スライスを四角形で定義し、3次元空間のXY座標面上のZ軸方向に並べた積層四角形を設定し、テクスチャ座標と四角形座標との対応付けを行い、3Dテクスチャを各四角形に貼り付ける。3Dテクスチャマッピング法では、四角形に貼り付けた3Dテクスチャマップを視線方向に合わせて座標変換することで、任意方向のレンダリング像を生成する。   In addition, as shown in FIG. 30, the control unit 11 defines each slice constituting the 3D texture as a rectangle, sets a stacked rectangle arranged in the Z-axis direction on the XY coordinate plane of the three-dimensional space, and sets the texture coordinates. And 3D texture are pasted on each square. In the 3D texture mapping method, a rendering image in an arbitrary direction is generated by performing coordinate conversion on a 3D texture map attached to a quadrangle in accordance with the line-of-sight direction.

尚、GPU(第2レンダリング部32b)によるレンダリング処理では、レンダリング時にモアレが発生する場合がある。制御部11は、レンダリング時のモアレの発生を抑えるため、次のように、関心領域ROI境界面の透明ボクセルの色補正処理を事前に行う。   In the rendering process by the GPU (second rendering unit 32b), moire may occur during rendering. In order to suppress the occurrence of moire during rendering, the control unit 11 performs in advance color correction processing of transparent voxels on the ROI boundary surface of the region of interest as follows.

図31は色補正処理のフローチャートである。制御部11は、境界面ボクセル(x、y、z)を抽出する(ステップS121)。境界面ボクセル(x、y、z)とは、x=Xs、x=Xe、y=Ys、y=Ye、z=Zs、又はz=Zeのいずれかを満たすボクセルである。   FIG. 31 is a flowchart of the color correction process. The control unit 11 extracts boundary surface voxels (x, y, z) (step S121). The boundary surface voxel (x, y, z) is a voxel satisfying any of x = Xs, x = Xe, y = Ys, y = Ye, z = Zs, or z = Ze.

続いて、制御部11は、抽出した境界面ボクセルの27近傍ボクセルより、不透明ボクセルを抽出し、抽出した不透明ボクセルの平均色(Ra、Ga、Ba)を算出する(ステップS122)。不透明ボクセルとは、Vα(x+i、y+j、z+k)>0(−1≦i≦1、−1≦j≦1、−1≦k≦1)の条件を満たすボクセルである。尚、不透明ボクセルが抽出されない場合は、制御部11は、Ra=Ga=Ba=0とする。   Subsequently, the control unit 11 extracts opaque voxels from 27 neighboring voxels of the extracted boundary surface voxels, and calculates the average colors (Ra, Ga, Ba) of the extracted opaque voxels (step S122). An opaque voxel is a voxel that satisfies the condition of Vα (x + i, y + j, z + k)> 0 (−1 ≦ i ≦ 1, −1 ≦ j ≦ 1, −1 ≦ k ≦ 1). Note that, when an opaque voxel is not extracted, the control unit 11 sets Ra = Ga = Ba = 0.

そして、制御部11は、以下のように、境界面ボクセルの不透明度を0に設定し、RGB値を算出した不透明ボクセルの平均色に設定する(ステップS123)。
Vα(x、y、z)=0
Vc(x、y、z、1)=Ra、Vc(x、y、z、2)=Ga、Vc(x、y、z、3)=Ba
Then, the control unit 11 sets the opacity of the boundary surface voxel to 0 and sets the RGB value to the average color of the opaque voxels as described below (step S123).
Vα (x, y, z) = 0
Vc (x, y, z, 1) = Ra, Vc (x, y, z, 2) = Ga, Vc (x, y, z, 3) = Ba

制御部11は、全ての境界面ボクセル(x、y、z)について、上記した色補正処理(ステップS121〜123)を実行する。   The control unit 11 executes the color correction process (steps S121 to S123) described above for all the boundary surface voxels (x, y, z).

次に、図32のフローチャートを参照して、3Dテクスチャマッピング法によるレンダリング処理の流れを説明する。まず、制御部11は、OpenGLの透視変換パラメータを設定する(ステップS131)。仮想内視鏡モードでレンダリングを行う場合は、制御部11は、OpenGLシステムに対して、次の透視変換パラメータを設定する。   Next, the flow of rendering processing by the 3D texture mapping method will be described with reference to the flowchart of FIG. First, the control unit 11 sets an OpenGL perspective transformation parameter (step S131). When rendering is performed in the virtual endoscope mode, the control unit 11 sets the following perspective transformation parameters for the OpenGL system.

<透視変換パラメータ>
・カメラの視野角度(単位:度、平行投影の場合は0、焦点距離に相当)
・視点座標(カメラの位置、通常はZ軸上に設定)
・注視点座標(被写体の凝視点、通常はZ軸上で原点z=0に固定)
・近方クリッピング位置(視点からの距離、視点より若干距離を置く)
・遠方クリッピング位置(視点からの距離、通常は1000など無限大に固定しクリッピングしない)
<Transparent transformation parameters>
-Camera viewing angle (unit: degrees, 0 for parallel projection, equivalent to focal length)
-Viewpoint coordinates (camera position, usually set on the Z axis)
・ Gaze point coordinates (fixed point of the subject, usually fixed at z = 0 on the Z axis)
・ Near clipping position (distance from viewpoint, slightly distance from viewpoint)
-Far clipping position (distance from viewpoint, usually fixed at infinity such as 1000 and not clipped)

一方、通常のレンダリングを行う際は、カメラの視野角度を0に設定し、平行投影モードに設定する。   On the other hand, when normal rendering is performed, the viewing angle of the camera is set to 0 and the parallel projection mode is set.

続いて、制御部11は、OpenGLの投影画面設定を行う(ステップS132)。
図33は、投影画面設定の処理を示すフローチャートである。図33に示すように、制御部11は、レンダリング画像のスクリーンサイズ(縦横画素数、縦横アスペクト比率)を設定し(ステップS141)、平行投影(通常の外観レンダリング)又は透視投影(内視鏡モード)の設定を行う(ステップS142)。そして、透視投影が設定された場合は、制御部11は、透視投影パラメータ(カメラの視野角度(焦点距離)、視点座標、注視点座標、近方クリッピング位置、遠方クリッピング位置)の設定を行う(ステップS143)。
Subsequently, the control unit 11 performs OpenGL projection screen setting (step S132).
FIG. 33 is a flowchart showing a projection screen setting process. As shown in FIG. 33, the control unit 11 sets the screen size (number of vertical and horizontal pixels, vertical and horizontal aspect ratio) of the rendered image (step S141), and performs parallel projection (normal appearance rendering) or perspective projection (endoscopic mode). ) Is set (step S142). When the perspective projection is set, the control unit 11 sets the perspective projection parameters (camera viewing angle (focal length), viewpoint coordinates, gazing point coordinates, near clipping position, far clipping position) ( Step S143).

図32のフローチャートの説明に戻る。
続いて、制御部11は、以下のように、OpenGLの座標変換パラメータ(回転、スケール、移動、Z方向変倍パラメータRxy/Rz)を設定する(ステップS133)。
Returning to the flowchart of FIG.
Subsequently, the control unit 11 sets OpenGL coordinate conversion parameters (rotation, scale, movement, Z-direction scaling parameter Rxy / Rz) as follows (step S133).

<OpenGLの座標変換パラメータ>
回転パラメータ行列R:
R=[R11 R12 R13 R14;
R21 R22 R23 R24;
R31 R32 R33 R34;
R41 R42 R43 R44]
(ボクセル座標系から視点座標系への座標変換を行うための4×4の行列で、レンダリング側もGUI側と同一方向の座標変換をOpenGLに指示する。実際は3×3の座標変換行列で定義できるが、OpenGLの仕様上、4×4の座標変換行列に拡張)
X軸方向のオフセットXoff
Y軸方向のオフセットYoff
Z軸方向のオフセットZoff
拡大縮小倍率Scale(XYZ軸方向で同一)
Z方向変倍率Scz=Rxy/Rz
Z方向変倍後のZ方向サイズSz’=Sz・Scz
<OpenGL coordinate conversion parameters>
Rotation parameter matrix R:
R = [R11 R12 R13 R14;
R21 R22 R23 R24;
R31 R32 R33 R34;
R41 R42 R43 R44]
(This is a 4 × 4 matrix for coordinate conversion from the voxel coordinate system to the viewpoint coordinate system, and the rendering side also instructs OpenGL to perform coordinate conversion in the same direction as the GUI side. Actually, it is defined by a 3 × 3 coordinate conversion matrix. Yes, but extended to 4 × 4 coordinate transformation matrix due to OpenGL specifications)
X-axis offset Xoff
Y-axis offset Yoff
Z-axis offset Zoff
Enlargement / reduction ratio Scale (same in XYZ axis direction)
Z-direction variable magnification Scz = Rxy / Rz
Z direction size after zooming in the Z direction Sz ′ = Sz · Scz

制御部11は、上記した回転パラメータ行列Rに対して、初期値として単位行列を設定する。すなわち、R11=1、R12=0、R13=0、R14=0、R21=0、R22=1、R23=0、R24=0、R31=0、R32=0、R33=1、R41=0、R42=0、R43=0、R44=1と設定する。
そして、GUIの指示に従い、X軸中心回転Rx、Y軸中心回転Ry、Z軸中心回転Rz(角度単位:ラジアン)のいずれかを逐次指定し、以下のように、各々回転行列Aを生成して回転パラメータ行列Rに左から乗算して、回転パラメータ行列Rを更新する。
The control unit 11 sets a unit matrix as an initial value for the rotation parameter matrix R described above. That is, R11 = 1, R12 = 0, R13 = 0, R14 = 0, R21 = 0, R22 = 1, R23 = 0, R24 = 0, R31 = 0, R32 = 0, R33 = 1, R41 = 0, R42 = 0, R43 = 0, and R44 = 1 are set.
Then, according to the instruction of the GUI, any one of the X-axis center rotation Rx, the Y-axis center rotation Ry, and the Z-axis center rotation Rz (angle unit: radians) is sequentially specified, and a rotation matrix A is generated as follows. Then, the rotation parameter matrix R is multiplied from the left to update the rotation parameter matrix R.

回転行列Aを
A=[A11 A12 A13 A14;
A21 A22 A23 A24;
A31 A32 A33 A34;
A41 A42 A43 A44]
とすると、
X軸中心回転Rxの場合の回転行列Aの各要素は、
A11=1、A12=0、A13=0、A14=0
A21=0、A22=cosRx、A23=sinRx、A24=0
A31=0、A32=sinRx、A33=cosRx、A34=0
A41=0、A42=0、A43=0、A44=1
Y軸中心回転Ryの場合の回転行列Aの各要素は、
A11=cosRy、A12=0、A13=sinRy、A14=0
A21=0、A22=1、A23=0、A24=0
A31=−sinRy、A32=0、A33=cosRy、A34=0
A41=0、A42=0、A43=0、A44=1
Z軸中心回転Rzの場合の回転行列Aの各要素は、
A11=cosRz、A12=sinRz、A13=0、A14=0
A21=−sinRz、A22=cosRz、A23=0、A24=0
A31=0、A32=0、A33=1、A34=0
A41=0、A42=0、A43=0、A44=1
となる。
回転パラメータ行列Rは、R←A×Rと更新される。
Rotation matrix A
A = [A11 A12 A13 A14;
A21 A22 A23 A24;
A31 A32 A33 A34;
A41 A42 A43 A44]
Then,
Each element of the rotation matrix A in the case of the X-axis center rotation Rx is
A11 = 1, A12 = 0, A13 = 0, A14 = 0
A21 = 0, A22 = cosRx, A23 = sinRx, A24 = 0
A31 = 0, A32 = sinRx, A33 = cosRx, A34 = 0
A41 = 0, A42 = 0, A43 = 0, A44 = 1
Each element of the rotation matrix A in the case of the Y-axis center rotation Ry is
A11 = cosRy, A12 = 0, A13 = sinRy, A14 = 0
A21 = 0, A22 = 1, A23 = 0, A24 = 0
A31 = −sinRy, A32 = 0, A33 = cosRy, A34 = 0
A41 = 0, A42 = 0, A43 = 0, A44 = 1
Each element of the rotation matrix A in the case of the Z-axis center rotation Rz is
A11 = cosRz, A12 = sinRz, A13 = 0, A14 = 0
A21 = −sinRz, A22 = cosRz, A23 = 0, A24 = 0
A31 = 0, A32 = 0, A33 = 1, A34 = 0
A41 = 0, A42 = 0, A43 = 0, A44 = 1
It becomes.
The rotation parameter matrix R is updated as R ← A × R.

図32のフローチャートの説明に戻る。
制御部11は、OpenGLによるレンダリング処理を実行する(ステップS134)。
図34は、OpenGLによるレンダリング処理を示すフローチャートである。図34に示すように、制御部11は、拡大縮小倍率Scale(XYZ軸方向で同一)、及びZ方向変倍率Sczに基づいて3Dテクスチャマップに対してスケーリング、及びZ方向変倍処理を施し(ステップS151)、回転パラメータ行列Rに基づいて3Dテスチャマップに対して回転処理を施し(ステップS152)、X軸方向のオフセットXoff、Y軸方向のオフセットYoff、及びZ軸方向のオフセットZoffに基づいて3Dテスチャマップに対してオフセット処理を施すことで(ステップS153)、3Dテクスチャマップに対して所定の座標変換を行う。
Returning to the flowchart of FIG.
The control unit 11 executes rendering processing using OpenGL (step S134).
FIG. 34 is a flowchart showing rendering processing by OpenGL. As shown in FIG. 34, the control unit 11 performs scaling and Z-direction scaling processing on the 3D texture map based on the enlargement / reduction ratio Scale (same in the XYZ-axis directions) and the Z-direction scaling ratio Scz ( In step S151), a rotation process is performed on the 3D texture map based on the rotation parameter matrix R (step S152), and based on the offset Xoff in the X-axis direction, the offset Yoff in the Y-axis direction, and the offset Zoff in the Z-axis direction. By performing offset processing on the 3D texture map (step S153), predetermined coordinate transformation is performed on the 3D texture map.

続いて、制御部11は、3次元空間のXY座標面上の四角形をZ軸方向に並べた積層四角形をOpenGLで設定し、3Dテスクチャマップの対応付けを行う(ステップS154、図30参照)。そして、制御部11は、OpenGLによるレンダリング処理を実行し、積層四角形に3Dテクスチャマップを貼り付けながらスキャンコンバージョンし、フレームメモリ上で奥からZ方向(視点方向)にアルファブレンディング処理を行う(ステップS155)。すなわち、所定の視点からZ軸方向に平行な視線上の四角形のXY座標に対応する座標変換後の3Dテスクチャマップのボクセルの色値(RGB値)を、ボクセルの不透明度(α値)に基づいて視点から遠い四角形の順にアルファブレンディングして取得し、ボリュームレンダリング像の画素値として与える。   Subsequently, the control unit 11 sets a stacked quadrangle in which quadrangles on the XY coordinate plane of the three-dimensional space are arranged in the Z-axis direction, and associates the 3D texture map (see step S154 and FIG. 30). Then, the control unit 11 performs rendering processing using OpenGL, performs scan conversion while pasting the 3D texture map on the stacked quadrangle, and performs alpha blending processing from the back to the Z direction (viewpoint direction) on the frame memory (step S155). ). That is, the color value (RGB value) of the voxel of the 3D texture map after coordinate conversion corresponding to the rectangular XY coordinates on the line of sight parallel to the Z-axis direction from a predetermined viewpoint is based on the opacity (α value) of the voxel. Are obtained by alpha blending in the order of a rectangle far from the viewpoint and given as a pixel value of a volume rendering image.

以上、図30〜図34を参照しながら、GPU(第2レンダリング部32b)により実行される3Dテクスチャマッピング法によるレンダリング処理について説明した。   The rendering process by the 3D texture mapping method executed by the GPU (second rendering unit 32b) has been described above with reference to FIGS.

制御部11は、CPU(第1レンダリング部32a)により実行されるレイキャスティング法によるレンダリング処理(図25)、又はGPU(第2レンダリング部32b)により実行される3Dテクスチャマッピング法によるレンダリング処理(図32)によりボリュームレンダリング像を生成し、生成したボリュームレンダリング像を表示部16に表示する。   The control unit 11 performs a rendering process based on the ray casting method (FIG. 25) executed by the CPU (first rendering unit 32a) or a rendering process based on the 3D texture mapping method (FIG. 25) executed by the GPU (second rendering unit 32b). 32), a volume rendering image is generated, and the generated volume rendering image is displayed on the display unit 16.

図21のフローチャートの説明に戻る。
制御部11(データ出力部26)は、ユーザからデータの保存操作を受け付けることによって、各種データを出力して記憶部12に保存することができる(図21のステップS53)。例えば、制御部11は、ステップS44において生成し表示されたMPR像、ステップS52において生成し表示されたボリュームレンダリング像(3次元画像)を出力して保存する。
Returning to the flowchart of FIG.
The control unit 11 (data output unit 26) can output various data and store it in the storage unit 12 by receiving a data storage operation from the user (step S53 in FIG. 21). For example, the control unit 11 outputs and stores the MPR image generated and displayed in step S44 and the volume rendering image (three-dimensional image) generated and displayed in step S52.

[実施例]
最後に、従来手法と提案手法により生成されるレンダリング像の比較を行う。従来手法とは、図21のステップS48において取得したカラーマップCmapを断層画像群Doにそのまま適用してボクセル構造体V(Vc、Vα)を作成し、レンダリング像を生成する手法である。すなわち、従来手法では、以下の(式19)に基づいてボクセル構造体V(Vc、Vα)を作成する。
[Example]
Finally, the rendered images generated by the conventional method and the proposed method are compared. The conventional method is a method of creating a voxel structure V (Vc, Vα) by applying the color map Cmap acquired in step S48 of FIG. 21 as it is to the tomographic image group Do and generating a rendering image. That is, in the conventional method, the voxel structure V (Vc, Vα) is created based on the following (Equation 19).

(式19)
(1)Xs<x<Xe、Ys<y<Ye、及びZs<z<Zeを全て満たす場合(関心領域ROI内の場合)
Vc(x、y、z、n)=Cmap(Do(x、y、z)、n)(0≦n≦2)
Vα(x、y、z)=Cmap(Do(x、y、z)、3)
(2)x≦Xs、x≧Xe、y≦Ys、y≧Ye、z≦Zs、又はz≧Zeのいずれかを満たす場合(関心領域ROI外の場合)
Vc(x、y、z、n)=0 (0≦n≦2)
Vα(x、y、z)=0
(Formula 19)
(1) When Xs <x <Xe, Ys <y <Ye, and Zs <z <Ze are all satisfied (in the region of interest ROI)
Vc (x, y, z, n) = Cmap (Do (x, y, z), n) (0 ≦ n ≦ 2)
Vα (x, y, z) = Cmap (Do (x, y, z), 3)
(2) When x ≦ Xs, x ≧ Xe, y ≦ Ys, y ≧ Ye, z ≦ Zs, or z ≧ Ze (when outside the region of interest ROI)
Vc (x, y, z, n) = 0 (0 ≦ n ≦ 2)
Vα (x, y, z) = 0

提案手法は、本実施の形態に基づいてレンダリング像を生成する方法(図21の処理によりレンダリング像を生成する方法)である。ここで、補正倍率S((式9)(式10)参照)を算出する際のパラメータを、k=1.1(XY平面の減衰係数)、kz=0.0(Z方向の減衰係数)、amp=ampz=1.0(振幅倍率)、xoffset=2(X方向のオフセット)、yoffset=5(Y方向のオフセット)、xoffset=0(Z方向のオフセット)、a=0.58(横方向のサイズの補正係数)、b=0.58(縦方向のサイズの補正係数)、c=1.0(スライス総数倍率)と設定した。
また、提案手法、従来手法の双方ともカラーマップCmapの調整(図21のステップS50の処理)は行わないものとし、双方とも第1レンダリング部32aを用いてレンダリングを実行した(第2レンダリング部32bを用いても殆ど同様なレンダリング像が得られる)。
The proposed method is a method of generating a rendering image based on the present embodiment (a method of generating a rendering image by the processing of FIG. 21). Here, parameters for calculating the correction magnification S (see (Equation 9) (Equation 10)) are k = 1.1 (attenuation coefficient in the XY plane), kz = 0.0 (attenuation coefficient in the Z direction). , Amp = ampz = 1.0 (amplification magnification), xoffset = 2 (offset in the X direction), yoffset = 5 (offset in the Y direction), xoffset = 0 (offset in the Z direction), a = 0.58 (horizontal) Direction size correction coefficient), b = 0.58 (vertical size correction coefficient), and c = 1.0 (slice total magnification).
In addition, neither the proposed method nor the conventional method performs the adjustment of the color map Cmap (the process of step S50 in FIG. 21), and both perform rendering using the first rendering unit 32a (second rendering unit 32b). Can be used to obtain almost the same rendered image).

図35は、従来手法により生成したレンダリング像を正面から観察した画像であり、図36は、提案手法により生成したレンダリング像を正面から観察した画像である。図35(従来手法)では、肋骨及び胸骨の透明化が不十分であり、内部の臓器等を観察することが困難であるのに対し、図36(提案手法)では、胸骨は多少残るものの肋骨全体が透明化され、内部の臓器等を良好に観察することができる。図37、図38は、それぞれ提案手法により生成したレンダリング像を背面、側面から観察した画像である。図37、図38に示すように、椎骨は残るものの、図36と同様に肋骨が良好に透明化されていることが分かる。   FIG. 35 is an image obtained by observing the rendered image generated by the conventional method from the front, and FIG. 36 is an image obtained by observing the rendered image generated by the proposed method from the front. In FIG. 35 (conventional technique), the ribs and sternum are not sufficiently transparent, and it is difficult to observe internal organs and the like, whereas in FIG. The whole is transparent, and internal organs and the like can be observed well. FIG. 37 and FIG. 38 are images obtained by observing the rendered images generated by the proposed method from the back and side surfaces, respectively. As shown in FIGS. 37 and 38, although the vertebra remains, it can be seen that the rib is satisfactorily transparent as in FIG.

以上、第4の実施の形態について説明した。第4の実施の形態によれば、断層画像群Doに基づいてボリュームレンダリング像を生成し表示する。特に、カラーマップCmapを参照して断層画像群Doの各画素(x、y、z)の信号値vを色値及び不透明度に変換してボクセル構造体V(ボクセルデータ)を作成する際、カラーマップCmap(v、3)(オパシティカーブ)に定義された不透明度をそのまま用いるのではなく、被写体領域の外郭を近似した楕円の情報(楕円パラメータP(z))に基づいて算出された補正倍率S(x、y、z)を乗算することで不透明度を補正する((式17)参照)。そして、補正された不透明度を用いてボクセル構造体(ボクセルデータ)を作成し、レンダリング像を生成する。これにより、従来のように3次元マスクを作成することなく、特定の領域を鮮明に可視化させたレンダリング像を得ることができる。従来の3次元マスクの代わりに、本開示では補正倍率S(x、y、z)に関する補正テーブルの作成を必要とするが、これらは前述のように事前に補正テーブルを作成する方法をとらず、ボクセル作成時に各ボクセルごとに(式9)(式10)で都度算出する方法をとることもでき、3次元マスクのようにメモリ上に確保する必要はない。   The fourth embodiment has been described above. According to the fourth embodiment, a volume rendering image is generated and displayed based on the tomographic image group Do. In particular, when the voxel structure V (voxel data) is created by converting the signal value v of each pixel (x, y, z) of the tomographic image group Do into color values and opacity with reference to the color map Cmap. Rather than using the opacity defined in the color map Cmap (v, 3) (opacity curve) as it is, correction calculated based on ellipse information (ellipse parameter P (z)) approximating the outline of the subject area The opacity is corrected by multiplying by the magnification S (x, y, z) (see (Equation 17)). Then, a voxel structure (voxel data) is created using the corrected opacity, and a rendering image is generated. Thereby, it is possible to obtain a rendering image in which a specific area is clearly visualized without creating a three-dimensional mask as in the conventional case. In this disclosure, it is necessary to create a correction table for the correction magnification S (x, y, z) in place of the conventional three-dimensional mask. However, these methods do not take a method of creating a correction table in advance as described above. In addition, a method of calculating each of the voxels by (Equation 9) and (Equation 10) can be taken at the time of voxel creation, and it is not necessary to secure them in the memory like a three-dimensional mask.

また、カラーマップCmap(v、3)(オパシティカーブ)を信号値に応じて調整することで、骨領域をより効果的に減衰させることができる(図21参照)。   Further, the bone region can be attenuated more effectively by adjusting the color map Cmap (v, 3) (opacity curve) according to the signal value (see FIG. 21).

また、従来のマスク処理のように、各ボクセルの可視/不可視の制御(オン/オフの制御)では、単一のボクセルに可視の内臓領域と不可視の骨領域が混在する境界領域を表現することができず、自然なレンダリング像が得られない場合があった。これに対して、本実施の形態では、マスク処理のようなオン/オフの制御でなく、被写体領域の外部に向かって不透明度を徐々に減衰させ、オンとオフの中間状態をもたせながら滑らかな制御を行うことで、自然なレンダリング像を得ることができる。   In addition, as in conventional mask processing, in the visible / invisible control (on / off control) of each voxel, a boundary region in which a visible internal region and an invisible bone region are mixed in a single voxel is expressed. In some cases, a natural rendered image could not be obtained. On the other hand, in the present embodiment, the opacity is gradually attenuated toward the outside of the subject area instead of the on / off control as in the mask process, and a smooth state is obtained while providing an intermediate state between on and off. By performing the control, a natural rendered image can be obtained.

以上、添付図面を参照しながら、本開示に係る医用画像処理装置等の好適な実施形態について説明したが、本開示はかかる例に限定されない。当業者であれば、本願で開示した技術的思想の範疇内において、各種の変更例又は修正例に想到し得ることは明らかであり、それらについても当然に本開示の技術的範囲に属するものと了解される。   The preferred embodiments of the medical image processing apparatus and the like according to the present disclosure have been described above with reference to the accompanying drawings, but the present disclosure is not limited to such examples. It will be apparent to those skilled in the art that various changes and modifications can be made within the scope of the technical idea disclosed in the present application, and these naturally belong to the technical scope of the present disclosure. Understood.

1、1a、1b:医用画像処理装置
21:画像取得部
22:階調圧縮部
23:補正テーブル作成部
23a:幾何情報取得部
23b:幾何情報補正部
23c:補正倍率算出部
24:MPR生成部
25:MPR表示部
26:データ出力部
27:パラメータ調整部
28:領域指定部
29:カラーマップ取得部
30:カラーマップ調整部
31:ボクセル作成部
32:レンダリング部
32a:第1レンダリング部
32b:第2レンダリング部
40:パラメータ調整画面
S:補正倍率、補正テーブル
1, 1a, 1b: medical image processing device 21: image acquisition unit 22: gradation compression unit 23: correction table creation unit 23a: geometric information acquisition unit 23b: geometric information correction unit 23c: correction magnification calculation unit 24: MPR generation unit 25: MPR display unit 26: data output unit 27: parameter adjustment unit 28: area designation unit 29: color map acquisition unit 30: color map adjustment unit 31: voxel creation unit 32: rendering unit 32a: first rendering unit 32b: first 2 Rendering unit 40: Parameter adjustment screen S: Correction magnification, correction table

Claims (26)

複数の断層画像を取得する画像取得手段と、
前記断層画像毎に、断層画像の被写体領域の外郭を所定の幾何形状で近似し、当該幾何形状の情報を取得する幾何情報取得手段と、
前記断層画像の各画素の信号値を、当該断層画像に対応する幾何形状の情報に基づいて補正し、信号値が補正された前記断層画像に基づいてMPR像を生成するMPR像生成手段と、を備える
医用画像処理装置。
Image acquisition means for acquiring a plurality of tomographic images;
Geometric information acquisition means for approximating the outline of the subject area of the tomographic image with a predetermined geometric shape for each tomographic image, and acquiring information on the geometric shape;
MPR image generation means for correcting a signal value of each pixel of the tomographic image based on information on a geometric shape corresponding to the tomographic image and generating an MPR image based on the tomographic image whose signal value is corrected; A medical image processing apparatus comprising:
前記断層画像毎に、断層画像の各画素に対応する補正倍率を、当該断層画像に対応する幾何形状の情報に基づいて算出する補正倍率算出手段と、を更に備え、
前記MPR像生成手段は、前記断層画像の各画素の信号値に対して、前記補正倍率算出手段により算出された補正倍率を乗算する
請求項1に記載の医用画像処理装置。
Correction magnification calculating means for calculating, for each tomographic image, a correction magnification corresponding to each pixel of the tomographic image based on information on a geometric shape corresponding to the tomographic image;
The medical image processing apparatus according to claim 1, wherein the MPR image generation unit multiplies the signal value of each pixel of the tomographic image by the correction magnification calculated by the correction magnification calculation unit.
前記補正倍率算出手段は、算出した補正倍率を格納する補正テーブルを作成するテーブル作成手段と、を更に備え、
前記MPR生成手段は、前記断層画像の各画素の信号値に対して、前記補正テーブルを参照して得られる補正倍率を乗算する
請求項2に記載の医用画像処理装置。
The correction magnification calculation means further comprises table creation means for creating a correction table for storing the calculated correction magnification,
The medical image processing apparatus according to claim 2, wherein the MPR generation unit multiplies a signal value of each pixel of the tomographic image by a correction magnification obtained by referring to the correction table.
前記補正倍率算出手段は、前記補正倍率を、前記幾何形状の幾何中心から遠ざかるにつれ小さくする
請求項2または請求項3に記載の医用画像処理装置。
The medical image processing apparatus according to claim 2, wherein the correction magnification calculation unit decreases the correction magnification as the distance from the geometric center of the geometric shape increases.
前記幾何形状は楕円であり、
前記幾何情報取得手段は、前記幾何形状の情報として、楕円の中心座標、楕円の横方向のサイズ、及び楕円の縦方向のサイズを取得し、
前記補正倍率算出手段は、前記中心座標、前記横方向のサイズ、及び前記縦方向のサイズに基づいて、前記補正倍率を算出する
請求項2から請求項4のいずれかに記載の医用画像処理装置。
The geometric shape is an ellipse;
The geometric information acquisition means acquires the center coordinates of the ellipse, the horizontal size of the ellipse, and the vertical size of the ellipse as the geometric shape information,
5. The medical image processing apparatus according to claim 2, wherein the correction magnification calculation unit calculates the correction magnification based on the center coordinate, the horizontal size, and the vertical size. 6. .
前記補正倍率算出手段は、前記中心座標における前記補正倍率を最大とし、前記中心座標と前記横方向のサイズ及び前記縦方向のサイズの比が同一となる前記楕円内部の各同心楕円上の前記補正倍率を、各同心楕円の横方向のサイズ及び縦方向のサイズが大きくなるにつれ小さくする
請求項5に記載の医用画像処理装置。
The correction magnification calculation means maximizes the correction magnification in the center coordinate, and the correction on each concentric ellipse inside the ellipse in which the ratio of the central coordinate to the horizontal size and the vertical size is the same. The medical image processing apparatus according to claim 5, wherein the magnification is reduced as the horizontal size and the vertical size of each concentric ellipse increase.
前記補正倍率算出手段は、前記中心座標に所定のオフセットを加算して前記中心座標を補正し、前記横方向のサイズ及び前記縦方向のサイズに所定の横方向のサイズに対する倍率及び縦方向のサイズに対する倍率を乗算して前記横方向のサイズ及び前記縦方向のサイズを補正し、補正された前記中心座標、前記横方向のサイズ、及び前記縦方向のサイズに基づいて、前記補正倍率を算出する
請求項5または請求項6に記載の医用画像処理装置。
The correction magnification calculation means corrects the center coordinates by adding a predetermined offset to the center coordinates, and the horizontal size and the vertical size to the predetermined horizontal size and the vertical size. The horizontal size and the vertical size are corrected by multiplying by the magnification with respect to, and the correction magnification is calculated based on the corrected center coordinates, the horizontal size, and the vertical size. The medical image processing apparatus according to claim 5 or 6.
前記オフセット、前記横方向のサイズに対する倍率、及び前記縦方向のサイズに対する倍率をユーザに調整させる調整手段と、を更に備える
請求項7に記載の医用画像処理装置。
The medical image processing apparatus according to claim 7, further comprising an adjustment unit that allows a user to adjust the offset, the magnification with respect to the size in the horizontal direction, and the magnification with respect to the size in the vertical direction.
前記MPR生成手段は、前記断層画像の各画素の信号値を、当該断層画像に対応する幾何形状の情報、及び当該断層画像のスライス位置の情報に基づいて補正する
請求項1に記載の医用画像処理装置。
2. The medical image according to claim 1, wherein the MPR generation unit corrects the signal value of each pixel of the tomographic image based on information on a geometric shape corresponding to the tomographic image and information on a slice position of the tomographic image. Processing equipment.
前記断層画像毎に、断層画像の各画素に対応する補正倍率を、当該断層画像に対応する幾何形状の情報、及び当該断層画像のスライス位置の情報に基づいて算出する補正倍率算出手段と、を更に備え、
前記MPR像生成手段は、前記断層画像の各画素の信号値に対して、前記補正倍率算出手段により算出された補正倍率を乗算する
請求項9に記載の医用画像処理装置。
Correction magnification calculating means for calculating, for each tomographic image, a correction magnification corresponding to each pixel of the tomographic image based on information on a geometric shape corresponding to the tomographic image and information on a slice position of the tomographic image; In addition,
The medical image processing apparatus according to claim 9, wherein the MPR image generation unit multiplies the signal value of each pixel of the tomographic image by the correction magnification calculated by the correction magnification calculation unit.
前記補正倍率算出手段は、算出した補正倍率を格納する補正テーブルを作成するテーブル作成手段と、を更に備え、
前記MPR生成手段は、前記断層画像の各画素の信号値に対して、前記補正テーブルを参照して得られる補正倍率を乗算する
請求項10に記載の医用画像処理装置。
The correction magnification calculation means further comprises table creation means for creating a correction table for storing the calculated correction magnification,
The medical image processing apparatus according to claim 10, wherein the MPR generation unit multiplies a signal value of each pixel of the tomographic image by a correction magnification obtained by referring to the correction table.
前記補正倍率算出手段は、前記補正倍率を、前記幾何形状の幾何中心から遠ざかるにつれ小さくし、かつ、スライス位置が中央から末端に位置するほど小さくする
請求項10または請求項11に記載の医用画像処理装置。
12. The medical image according to claim 10, wherein the correction magnification calculation unit decreases the correction magnification as the distance from the geometric center of the geometric shape decreases, and decreases as the slice position is located closer to the end from the center. Processing equipment.
前記幾何形状は楕円であり、
前記幾何情報取得手段は、前記幾何形状の情報として、楕円の中心座標、楕円の横方向のサイズ、及び楕円の縦方向のサイズを取得し、
前記スライス位置の情報は、スライス総数、及びスライス順位であり、
前記補正倍率算出手段は、前記中心座標、前記横方向のサイズ、前記縦方向のサイズ、前記スライス総数、及び前記スライス順位に基づいて、補正倍率を算出する
請求項10から請求項12のいずれかに記載の医用画像処理装置。
The geometric shape is an ellipse;
The geometric information acquisition means acquires the center coordinates of the ellipse, the horizontal size of the ellipse, and the vertical size of the ellipse as the geometric shape information,
The information of the slice position is the total number of slices and the slice order,
The correction magnification calculation unit calculates the correction magnification based on the center coordinates, the horizontal size, the vertical size, the total number of slices, and the slice order. The medical image processing apparatus described in 1.
前記補正倍率算出手段は、前記中心座標における前記補正倍率を最大とし、前記中心座標と前記横方向のサイズ及び前記縦方向のサイズの比が同一となる前記楕円内部の各同心楕円上の前記補正倍率を、各同心楕円の横方向のサイズ及び縦方向のサイズが大きくなるにつれ小さくし、かつ、前記スライス総数/2とスライス順位との差が大きくなるにつれ前記補正倍率を小さくする
請求項13に記載の医用画像処理装置。
The correction magnification calculation means maximizes the correction magnification in the center coordinate, and the correction on each concentric ellipse inside the ellipse in which the ratio of the central coordinate to the horizontal size and the vertical size is the same. The magnification is decreased as the horizontal size and vertical size of each concentric ellipse are increased, and the correction magnification is decreased as the difference between the total number of slices / 2 and the slice rank is increased. The medical image processing apparatus described.
前記補正倍率算出手段は、前記中心座標に所定のオフセットを加算して前記中心座標を補正し、前記横方向のサイズ及び前記縦方向のサイズに所定の横方向のサイズに対する倍率及び縦方向のサイズに対する倍率を乗算して前記横方向のサイズ及び前記縦方向のサイズを補正し、前記スライス総数に所定のスライス総数に対する倍率を乗算して補正し、前記スライス順位を所定のスライスオフセットを加算して補正し、補正された前記中心座標、前記横方向のサイズ、前記縦方向のサイズ、前記スライス総数、及び前記スライス順位に基づいて、前記補正倍率を算出する
請求項13または請求項14に記載の医用画像処理装置。
The correction magnification calculation means corrects the center coordinates by adding a predetermined offset to the center coordinates, and the horizontal size and the vertical size to the predetermined horizontal size and the vertical size. The horizontal size and the vertical size are corrected by multiplying by the magnification with respect to, and the total number of slices is corrected by multiplying by the magnification with respect to the predetermined total number of slices, and the slice order is added with a predetermined slice offset The correction magnification is calculated based on the corrected center coordinates, the horizontal size, the vertical size, the total number of slices, and the slice order. Medical image processing apparatus.
前記オフセット、前記横方向のサイズに対する倍率、前記縦方向のサイズに対する倍率、前記スライス総数に対する倍率、及び前記スライスオフセットをユーザに調整させる調整手段と、を更に備える
請求項15に記載の医用画像処理装置。
The medical image processing according to claim 15, further comprising: an adjustment unit that allows a user to adjust the offset, a magnification with respect to the horizontal size, a magnification with respect to the vertical size, a magnification with respect to the total number of slices, and the slice offset. apparatus.
前記断層画像の幾何形状の近似精度を所定の基準で判断し、所定の基準に満たない前記断層画像の幾何形状の情報を、所定の基準を満たす他の前記断層画像の幾何形状の情報に基づいて補正する幾何情報補正手段と、を更に備える
請求項1から請求項16のいずれかに記載の医用画像処理装置。
The approximate accuracy of the geometric shape of the tomographic image is determined based on a predetermined criterion, and the geometric shape information of the tomographic image that does not satisfy the predetermined criterion is based on the geometric shape information of the other tomographic image that satisfies the predetermined criterion. The medical image processing apparatus according to claim 1, further comprising: a geometric information correcting unit that corrects the information.
前記幾何形状は楕円であり、
前記幾何情報取得手段は、前記幾何形状の情報として、楕円の中心座標、楕円の横方向のサイズ及び楕円の縦方向のサイズを取得し、
前記幾何情報補正手段は、楕円の横方向のサイズが画像の横方向のサイズと一致する前記断層画像における楕円の横方向のサイズを、楕円の横方向のサイズが画像の横方向のサイズより小さい他の前記断層画像における楕円の横方向のサイズ及び縦方向のサイズの比と同一となるように、補正する
請求項17に記載の医用画像処理装置。
The geometric shape is an ellipse;
The geometric information acquisition means acquires the center coordinates of the ellipse, the horizontal size of the ellipse, and the vertical size of the ellipse as the geometric shape information,
The geometric information correcting unit is configured to reduce the horizontal size of the ellipse in the tomographic image in which the horizontal size of the ellipse matches the horizontal size of the image, and the horizontal size of the ellipse is smaller than the horizontal size of the image. The medical image processing apparatus according to claim 17, wherein correction is performed so as to be equal to a ratio of a horizontal size and a vertical size of an ellipse in the other tomographic image.
信号値と色値及び不透明度との対応関係を定義するカラーマップを取得するカラーマップ取得手段と、
前記カラーマップを参照することで、前記断層画像の各画素の信号値を、信号値に応じた色値及び不透明度に変換し、色値及び不透明度を保持するボクセルの集合であるボクセルデータを作成するボクセル作成手段と、
前記ボクセルデータに基づいてボリュームレンダリング像を生成するレンダリング手段と、を備える
請求項1から請求項18のいずれかに記載の医用画像処理装置。
Color map acquisition means for acquiring a color map that defines the correspondence between signal values, color values, and opacity;
By referring to the color map, the signal value of each pixel of the tomographic image is converted into a color value and opacity corresponding to the signal value, and voxel data that is a set of voxels that retain the color value and opacity is obtained. Voxel creation means to create,
The medical image processing apparatus according to claim 1, further comprising: a rendering unit that generates a volume rendering image based on the voxel data.
前記ボクセル作成手段は、前記断層画像の各画素の信号値に応じた前記不透明度を、当該断層画像に対応する幾何形状の情報に基づいて補正する
請求項19に記載の医用画像処理装置。
The medical image processing apparatus according to claim 19, wherein the voxel creation unit corrects the opacity according to a signal value of each pixel of the tomographic image based on information on a geometric shape corresponding to the tomographic image.
前記ボクセル作成手段は、前記断層画像の各画素の信号値に応じた前記不透明度を、更に、当該断層画像のスライス位置の情報に基づいて補正する
請求項20に記載の医用画像処理装置。
21. The medical image processing apparatus according to claim 20, wherein the voxel creation unit further corrects the opacity according to a signal value of each pixel of the tomographic image based on information on a slice position of the tomographic image.
信号値と所定の閾値との差分値に応じて当該信号値に対応する不透明度を減衰させるように前記カラーマップを調整するカラーマップ調整手段と、を更に備え、
前記ボクセル作成手段は、調整された前記カラーマップを参照して、ボクセルデータを作成する
請求項19から請求項21のいずれかに記載の医用画像処理装置。
Color map adjusting means for adjusting the color map so as to attenuate the opacity corresponding to the signal value according to a difference value between the signal value and a predetermined threshold;
The medical image processing apparatus according to any one of claims 19 to 21, wherein the voxel creation unit creates voxel data with reference to the adjusted color map.
代表的な信号値と色値及び不透明度との対応関係に基づいて、所定範囲の信号値と色値及び不透明度との対応関係を定義するカラーマップを作成するカラーマップ作成手段と、を更に備え、
前記カラーマップ取得手段は、作成した前記カラーマップを取得する
請求項19から請求項22のいずれかに記載の医用画像処理装置。
Color map creating means for creating a color map that defines the correspondence between the signal value of a predetermined range, the color value, and the opacity based on the correspondence between the representative signal value, the color value, and the opacity. Prepared,
The medical image processing apparatus according to any one of claims 19 to 22, wherein the color map acquisition unit acquires the created color map.
コンピュータの制御部が、
複数の断層画像を取得する画像取得ステップと、
前記断層画像毎に、断層画像の被写体領域の外郭を所定の幾何形状で近似し、当該幾何形状の情報を取得する幾何情報取得ステップと、
前記断層画像の各画素の信号値を、当該断層画像に対応する幾何形状の情報に基づいて補正し、信号値が補正された前記断層画像に基づいてMPR像を生成するMPR像生成ステップと、を含む
医用画像処理方法。
The computer controller
An image acquisition step of acquiring a plurality of tomographic images;
For each tomographic image, a geometric information acquisition step of approximating the outline of the subject area of the tomographic image with a predetermined geometric shape, and acquiring information on the geometric shape;
An MPR image generation step of correcting a signal value of each pixel of the tomographic image based on information on a geometric shape corresponding to the tomographic image and generating an MPR image based on the tomographic image in which the signal value is corrected; A medical image processing method.
コンピュータを、
複数の断層画像を取得する画像取得手段、
前記断層画像毎に、断層画像の被写体領域の外郭を所定の幾何形状で近似し、当該幾何形状の情報を取得する幾何情報取得手段、
前記断層画像の各画素の信号値を、当該断層画像に対応する幾何形状の情報に基づいて補正し、信号値が補正された前記断層画像に基づいてMPR像を生成するMPR像生成手段、
として機能させるプログラム。
Computer
Image acquisition means for acquiring a plurality of tomographic images;
Geometric information acquisition means for approximating the outline of the subject area of the tomographic image with a predetermined geometric shape for each tomographic image, and acquiring information on the geometric shape;
An MPR image generating unit that corrects the signal value of each pixel of the tomographic image based on information on a geometric shape corresponding to the tomographic image, and generates an MPR image based on the tomographic image in which the signal value is corrected;
Program to function as.
断層画像に基づいてMPR像を生成するMPR像生成装置が実行するMPR像生成方法であって、
複数の断層画像を取得する画像取得ステップと、
前記断層画像毎に、断層画像の被写体領域の外郭を所定の幾何形状で近似し、当該幾何形状の情報を取得する幾何情報取得ステップと、
前記断層画像の各画素の信号値を、当該断層画像に対応する幾何形状の情報に基づいて補正し、信号値が補正された前記断層画像に基づいてMPR像を生成するMPR像生成ステップと、
を含むMPR像生成方法。
An MPR image generation method executed by an MPR image generation device that generates an MPR image based on a tomographic image,
An image acquisition step of acquiring a plurality of tomographic images;
For each tomographic image, a geometric information acquisition step of approximating the outline of the subject area of the tomographic image with a predetermined geometric shape, and acquiring information on the geometric shape;
An MPR image generation step of correcting a signal value of each pixel of the tomographic image based on information on a geometric shape corresponding to the tomographic image and generating an MPR image based on the tomographic image in which the signal value is corrected;
An MPR image generation method including:
JP2018103905A 2018-05-30 2018-05-30 Medical image processing device, medical image processing method, program, and MPR image generation method Active JP7095409B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018103905A JP7095409B2 (en) 2018-05-30 2018-05-30 Medical image processing device, medical image processing method, program, and MPR image generation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018103905A JP7095409B2 (en) 2018-05-30 2018-05-30 Medical image processing device, medical image processing method, program, and MPR image generation method

Publications (2)

Publication Number Publication Date
JP2019205796A true JP2019205796A (en) 2019-12-05
JP7095409B2 JP7095409B2 (en) 2022-07-05

Family

ID=68766938

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018103905A Active JP7095409B2 (en) 2018-05-30 2018-05-30 Medical image processing device, medical image processing method, program, and MPR image generation method

Country Status (1)

Country Link
JP (1) JP7095409B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021253599A1 (en) * 2020-06-17 2021-12-23 南京安科医疗科技有限公司 Self-calibration method for head movement ct detector, and scanning system

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04183446A (en) * 1990-11-19 1992-06-30 Res Dev Corp Of Japan Operation arrangement aided with image synthesis
JP2003265475A (en) * 2002-03-19 2003-09-24 Toshiba Medical System Co Ltd Ultrasonograph, image processor and image processing program
US20090135191A1 (en) * 2007-07-12 2009-05-28 Siemens Corporate Research, Inc. Coregistration and analysis of multi-modal images obtained in different geometries
JP2010505558A (en) * 2006-10-10 2010-02-25 セダラ ソフトウェア コーポレイション System and method for segmenting regions in medical images
JP2013026736A (en) * 2011-07-19 2013-02-04 Toshiba Corp Image processing system, device, method, and program
JP2014113481A (en) * 2012-11-16 2014-06-26 Toshiba Corp Ultrasound diagnostic apparatus and image processing method
JP2017176380A (en) * 2016-03-29 2017-10-05 ザイオソフト株式会社 Apparatus, method, and program for processing medical image

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04183446A (en) * 1990-11-19 1992-06-30 Res Dev Corp Of Japan Operation arrangement aided with image synthesis
JP2003265475A (en) * 2002-03-19 2003-09-24 Toshiba Medical System Co Ltd Ultrasonograph, image processor and image processing program
JP2010505558A (en) * 2006-10-10 2010-02-25 セダラ ソフトウェア コーポレイション System and method for segmenting regions in medical images
US20090135191A1 (en) * 2007-07-12 2009-05-28 Siemens Corporate Research, Inc. Coregistration and analysis of multi-modal images obtained in different geometries
JP2013026736A (en) * 2011-07-19 2013-02-04 Toshiba Corp Image processing system, device, method, and program
JP2014113481A (en) * 2012-11-16 2014-06-26 Toshiba Corp Ultrasound diagnostic apparatus and image processing method
JP2017176380A (en) * 2016-03-29 2017-10-05 ザイオソフト株式会社 Apparatus, method, and program for processing medical image

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021253599A1 (en) * 2020-06-17 2021-12-23 南京安科医疗科技有限公司 Self-calibration method for head movement ct detector, and scanning system

Also Published As

Publication number Publication date
JP7095409B2 (en) 2022-07-05

Similar Documents

Publication Publication Date Title
US8939892B2 (en) Endoscopic image processing device, method and program
US7529396B2 (en) Method, computer program product, and apparatus for designating region of interest
US20050116957A1 (en) Dynamic crop box determination for optimized display of a tube-like structure in endoscopic view (&#34;crop box&#34;)
US7424140B2 (en) Method, computer program product, and apparatus for performing rendering
JP5562339B2 (en) Medical image display device and medical image display method
US20090003668A1 (en) Image processing method, image processing program, and image processing device
JPS6237782A (en) Apparatus and method for displaying 3-d surface structure
JP6215057B2 (en) Visualization device, visualization program, and visualization method
JP4122314B2 (en) Projection image processing method, projection image processing program, and projection image processing apparatus
JP7275669B2 (en) Mask generation device, three-dimensional reconstruction image generation device, mask generation method, and program
US10891776B2 (en) Imaging system and method
JP7095409B2 (en) Medical image processing device, medical image processing method, program, and MPR image generation method
JP7180123B2 (en) Medical image processing apparatus, medical image processing method, program, and data creation method
JP7013849B2 (en) Computer program, image processing device and image processing method
JP7155670B2 (en) Medical image processing apparatus, medical image processing method, program, and data creation method
Higuera et al. Automatic adjustment of bidimensional transfer functions for direct volume visualization of intracranial aneurysms
JP7003635B2 (en) Computer program, image processing device and image processing method
JP7131080B2 (en) volume rendering device
JP7223312B2 (en) volume rendering device
US11259782B2 (en) Medical imaging data processing apparatus and method
JP7283603B2 (en) COMPUTER PROGRAM, IMAGE PROCESSING APPARATUS AND IMAGE PROCESSING METHOD
JP6436258B1 (en) Computer program, image processing apparatus, and image processing method
JP6035057B2 (en) 3D image display apparatus and 3D image display method
CN112907718A (en) Ultrasonic three-dimensional volume rendering method and device
Zhang et al. High-quality cardiac image dynamic visualization with feature enhancement and virtual surgical tool inclusion

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210323

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220427

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220524

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220606

R150 Certificate of patent or registration of utility model

Ref document number: 7095409

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150