JP2003153894A - Method, device and program for processing three- dimensional image - Google Patents

Method, device and program for processing three- dimensional image

Info

Publication number
JP2003153894A
JP2003153894A JP2001359259A JP2001359259A JP2003153894A JP 2003153894 A JP2003153894 A JP 2003153894A JP 2001359259 A JP2001359259 A JP 2001359259A JP 2001359259 A JP2001359259 A JP 2001359259A JP 2003153894 A JP2003153894 A JP 2003153894A
Authority
JP
Japan
Prior art keywords
area
region
seed
image processing
dimensional image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001359259A
Other languages
Japanese (ja)
Other versions
JP3516942B2 (en
Inventor
Kazuhiko Matsumoto
和彦 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ziosoft Inc
Original Assignee
Ziosoft Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ziosoft Inc filed Critical Ziosoft Inc
Priority to JP2001359259A priority Critical patent/JP3516942B2/en
Publication of JP2003153894A publication Critical patent/JP2003153894A/en
Application granted granted Critical
Publication of JP3516942B2 publication Critical patent/JP3516942B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To extract a region of interest (ROI) without damage by correctly and efficiently removing an unnecessary region in an image which is obtained by performing volume rendering in voxel data from which an effective region is extracted. SOLUTION: The effective region is extracted from voxel data (S101 and S102), a seed region is set in ROI in the effective region (S103 and S104) and an expansion degree is designated (S105). The seed region is expanded in response to the expansion degree in a connection region in the effective region (S106) and the expanded seed region is removed or extracted from the effective region (S113).

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明はボクセルデータに基
づくボリュームレンダリングに係り、特に、ある関心領
域に他の関心領域が連結している場合に、他の関心領域
を除去あるいは抽出する3次元画像処理方法、装置およ
びプログラムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to volume rendering based on voxel data, and particularly to three-dimensional image processing for removing or extracting another region of interest when another region of interest is connected to the region of interest. A method, an apparatus and a program.

【0002】[0002]

【従来の技術】コンピュータを用いた画像処理技術の進
展により人体の内部構造を直接観測することを可能にし
たCT(Computed Tomography)、MRI(Magnetic Re
sonance Imaging)の出現は医療分野に革新をもたらし
た技術であり、生体の断層画像を用いた医療診断が広く
行われている。さらに近年は、断層画像だけではわかり
難い物体内部の3次元構造を可視化する技術として、C
T等により得られる物体の3次元デジタルデータから3
次元構造のイメージを直接描画するボリュームレンダリ
ングが多方面に活用されている。
2. Description of the Related Art CT (Computed Tomography) and MRI (Magnetic Resonance) have made it possible to directly observe the internal structure of the human body by the progress of image processing technology using a computer.
The emergence of sonance imaging is a technology that has brought innovation to the medical field, and medical diagnosis using tomographic images of living bodies is widely performed. Furthermore, in recent years, as a technique for visualizing a three-dimensional structure inside an object that is difficult to understand only with a tomographic image, C
3 from 3D digital data of the object obtained by T etc.
Volume rendering, which directly draws an image of a three-dimensional structure, is widely used.

【0003】ボリュームレンダリングの優れた手法とし
てレイキャスティングが知られている。レイキャスティ
ングは、仮想始点から物体に対して仮想光線(レイ)を
照射し、物体内部からの仮想反射光の画像を仮想投影面
に形成することにより、物体内部の3次元構造を透視す
るイメージ画像を形成する手法である。レイキャスティ
ングについては、例えば、「新世代3次元CT診断」
(1995年11月1日、株式会社南江堂発行)に基本
的な理論が述べられている。
Ray casting is known as an excellent technique for volume rendering. Ray casting is an image image that sees through a three-dimensional structure inside an object by irradiating an object with a virtual ray (ray) and forming an image of virtual reflected light from the inside of the object on a virtual projection plane. Is a method of forming. Regarding ray casting, for example, “New Generation 3D CT Diagnosis”
(November 1, 1995, published by Nankodo Co., Ltd.), the basic theory is described.

【0004】レイキャスティングの要点を説明する。物
体の3次元領域の構成単位となる微小単位領域をボクセ
ルと称し、ボクセルの濃度値等の特性を表わす固有のデ
ータをボクセル値と称する。物体全体はボクセル値の3
次元配列であるボクセルデータで表現される。通常、C
T等により得られる2次元の断層画像データを断層面に
垂直な方向に沿って積層し、必要な補間を行うことによ
り3次元配列のボクセルデータが得られる。
The main points of ray casting will be described. A minute unit area that is a constituent unit of a three-dimensional area of an object is called a voxel, and unique data representing characteristics such as a voxel density value is called a voxel value. The whole object has a voxel value of 3
It is represented by voxel data that is a dimensional array. Usually C
By stacking the two-dimensional tomographic image data obtained by T or the like along the direction perpendicular to the tomographic plane and performing necessary interpolation, three-dimensional array voxel data can be obtained.

【0005】仮想始点から物体に対して照射された仮想
光線に対する仮想反射光は、ボクセル値に対して人為的
に設定される不透明度(オパシティ値)に応じて生ずる
ものとする。通常オパシティ値は0から1までの値を取
り、値が0の場合は透明、1の場合は不透明、その間の
値は半透明に対応する。さらに、仮想的な表面を捕捉す
るためにボクセルデータのグラディエントすなわち法線
ベクトルを求め、仮想光線と法線ベクトルのなす角の余
弦から陰影付けのシェーディング係数を計算する。仮想
反射光は、ボクセルに照射される仮想光線の強度にボク
セルの不透明度とシェーディング係数を乗じて算出され
る。この仮想反射光を仮想光線に沿って積算することに
より、仮想投影面に物体内部の3次元構造を透視するイ
メージ画像が得られる。
It is assumed that the virtual reflected light with respect to the virtual ray emitted from the virtual start point to the object is generated according to the opacity (opacity value) artificially set with respect to the voxel value. Normally, the opacity value takes a value from 0 to 1, and when the value is 0, it is transparent, when it is 1, it is opaque, and the value in between is opaque. Furthermore, to capture the virtual surface, the gradient of voxel data, that is, the normal vector is obtained, and the shading coefficient for shading is calculated from the cosine of the angle formed by the virtual ray and the normal vector. The virtual reflected light is calculated by multiplying the intensity of the virtual light ray applied to the voxel by the opacity of the voxel and the shading coefficient. By accumulating the virtual reflected light along the virtual light ray, an image image through which the three-dimensional structure inside the object is seen is obtained on the virtual projection plane.

【0006】医療診断においてボリュームレンダリング
を用いる場合、例えば人体内の血管についてボリューム
レンダリングを行う場合には、まず、ボクセルデータか
ら対象とする血管組織を含む有効領域の抽出を行う。対
象とする人体組織に対応するボクセル値の範囲を指定
(スレッショルド指定)することにより、特定の範囲の
ボクセル値を有するボクセルのみを有効とすることがで
きる。抽出されたボクセルにおけるオパシティ値を得る
場合、有効領域内のボクセルのオパシティ値は正の値と
し、有効領域外を0とする。ボクセルのオパシティ値が
0の場合、そのボクセルは透明であると解釈され、ボリ
ュームレンダリングには反映されない。
When using volume rendering in medical diagnosis, for example, when performing volume rendering on a blood vessel in a human body, first, an effective region including a target vascular tissue is extracted from voxel data. By specifying (threshold specification) the range of voxel values corresponding to the target human body tissue, only voxels having voxel values in a specific range can be validated. When obtaining the opacity value in the extracted voxel, the opacity value of the voxel in the effective area is set to a positive value, and 0 is set outside the effective area. If the opacity value of a voxel is 0, the voxel is interpreted as transparent and is not reflected in the volume rendering.

【0007】このように有効領域が抽出されたボクセル
データに対してボリュームレンダリングを行うときに、
個々の人体組織が有するボクセル値の範囲に広がりがあ
るために、必ずしも関心領域だけが抽出されるとは限ら
ず、他の領域が連結して抽出されることがある。その結
果、医療診断の対象としたい人体組織を見るときに、他
の領域に邪魔されて観察しにくくなる。
When performing volume rendering on the voxel data from which the effective area is extracted as described above,
Since the range of the voxel value of each human body tissue is wide, not only the region of interest is necessarily extracted, but other regions may be connected and extracted. As a result, when the human body tissue to be the target of medical diagnosis is viewed, it is difficult to observe because it is obstructed by other regions.

【0008】図12は、有効領域が抽出されたボクセル
データに対してボリュームレンダリングを行って得られ
た画像例で、血管組織に骨がわずかに連結している。こ
こで、血管組織のみを観察して医療診断を行いたい場合
に、このボクセルデータにおいて骨の部分のみをカット
することが望ましいが、血管組織に骨が3次元形状で連
結しているため、骨の部分のみをカットする処理は一般
に困難な作業を伴う。
FIG. 12 shows an example of an image obtained by performing volume rendering on voxel data in which an effective area is extracted, and bone is slightly connected to blood vessel tissue. Here, when observing only vascular tissue to make a medical diagnosis, it is desirable to cut only the bone part in this voxel data, but since the bone is connected to the vascular tissue in a three-dimensional shape, The process of cutting only the part of is generally accompanied by difficult work.

【0009】従来、このようなボクセルデータにおける
連結領域の除去処理として、図13に示すような手法が
ある。図13(a)は人体組織が重なって見えても実際
には連結していない場合で、カットしたい骨の内部の1
点を指定し、この点を含む連結領域を削除することによ
り、骨の部分のみがカットされて血管組織のボクセルデ
ータが得られる。これに対して、図13(b)は血管組
織に骨が実際に連結している場合で、カットしたい骨の
内部の1点を指定し、この点を含む連結領域を削除する
と、連結している血管組織もすべて削除されてしまう。
Conventionally, there is a method as shown in FIG. 13 as a processing for removing a connected area in such voxel data. FIG. 13 (a) shows a case where human tissues appear to overlap but are not actually connected.
By specifying a point and deleting the connected area including this point, only the bone part is cut and voxel data of the vascular tissue is obtained. On the other hand, FIG. 13B shows a case where the bone is actually connected to the blood vessel tissue. When one point inside the bone to be cut is designated and the connection area including this point is deleted, the bone is connected. All existing vascular tissue is also deleted.

【0010】この対策手法として、図13(c)に示す
スレッショルド指定を変更する方法がある。これは、有
効領域を抽出するボクセル値の範囲を狭くすることによ
り、人体組織が分離されて抽出されるようにし、それに
対して対象領域のカットを行うものである。
As a countermeasure against this, there is a method of changing the threshold designation shown in FIG. 13 (c). This narrows the range of the voxel value for extracting the effective area so that the human body tissue is separated and extracted, and the target area is cut therefrom.

【0011】例えば、図13(c)において、スレッシ
ョルド指定の変更により分離されて抽出された人体組織
に対して、501に示すようにカットしたい骨の内部の
1点を指定し、この点を含む連結領域を削除すると、5
02に示すように骨の部分のみがカットされる。その
後、503に示すようにスレッショルド指定を元に戻す
と所望の血管組織は元に復元される。このときカットさ
れた領域以外の骨の部分も復元される。首尾よく連結部
分がカットされている場合は復元された骨の部分のカッ
トが可能であるが、復元結果で連結部分が残っている場
合は骨の部分のみのカットは達成されない。
For example, in FIG. 13 (c), one point inside the bone to be cut is designated as shown in 501 for the human body tissue separated and extracted by changing the threshold designation, and this point is included. 5 when you delete the connected area
As shown in 02, only the bone part is cut. Thereafter, as shown by 503, when the threshold designation is restored, the desired vascular tissue is restored. At this time, the bone part other than the cut region is also restored. It is possible to cut the restored bone part if the connecting part is successfully cut, but if the connecting part remains as a result of the restoration, cutting of only the bone part is not achieved.

【0012】このように、スレッショルド指定を変更す
ることのみで不要な領域を除去して目的とする領域を形
成することは困難であり、所望の結果を得るまで作業を
繰り返し行うことになり、所望の結果が得られない可能
性も高く、この手法は大変効率が悪い。
As described above, it is difficult to remove an unnecessary area to form a desired area only by changing the threshold designation, and the work is repeated until a desired result is obtained, which is desirable. It is highly possible that this result will not be obtained, and this method is very inefficient.

【0013】他の手法として、3次元図形を用いてボク
セルデータに対する演算を行い、3次元図形の領域を除
去する方法がある。図14はこのような3次元図形を用
いた領域除去の手法例を示すもので、3次元図形として
は、平面、曲面、球、多角形などが用いられる。
As another method, there is a method of performing an operation on voxel data using a three-dimensional figure and removing the area of the three-dimensional figure. FIG. 14 shows an example of a method of area removal using such a three-dimensional figure. As the three-dimensional figure, a plane, a curved surface, a sphere, a polygon, or the like is used.

【0014】図15は、図12の画像に対して、平面を
用いて領域除去を行う例を示したものである。レイキャ
スティングの始点を変えてボリュームレンダリングを行
い、連結部分を把握した上で、702に示すようにこの
連結部分に平面の位置を合わせて領域をカットする演算
を行う。その後、703に示すようにカットしたい骨の
内部の1点を指定し、この点を含む連結領域を削除する
と、704に示すように骨の部分のみがカットされて所
望の血管組織が得られる。
FIG. 15 shows an example of performing area removal on the image of FIG. 12 using a plane. Volume rendering is performed by changing the starting point of ray casting, and after the connected portion is grasped, the calculation is performed by aligning the plane position with the connected portion and cutting the area as shown in 702. Thereafter, as shown at 703, one point inside the bone to be cut is designated, and the connecting region including this point is deleted. As shown at 704, only the bone portion is cut, and the desired vascular tissue is obtained.

【0015】しかしながら、インタラクティブに位置合
わせをした平面で連結部分をカットしたため、得られた
血管組織の連結部分であった箇所は領域が変形されてい
る恐れがある。このように、この手法は既存の3次元図
形を用いるため、連結領域の認識をするものではなく、
物体の形状に関わらず領域がカットされてしまう欠点が
ある。
However, since the connecting portion is cut by a plane which is interactively aligned, the area of the obtained connecting portion of the vascular tissue may be deformed. In this way, since this method uses existing 3D figures, it does not recognize connected areas,
There is a drawback that the area is cut regardless of the shape of the object.

【0016】さらに他の手法として、領域のマスク演算
を行う手法がある。これは、有効領域に対して領域の加
算、減算、アンド演算、膨張、収縮などの演算を行うも
のである。この手法も連結領域の認識をするものではな
く、機械的な演算であるため使用法が難しく、物体の本
来の形状が変形してしまう場合があるのが短所である。
As another method, there is a method of performing a mask calculation of a region. This is for performing operations such as addition, subtraction, AND operation, expansion, and contraction of the area on the effective area. This method also has a disadvantage that it is difficult to use because it is a mechanical calculation and does not recognize the connected region, and the original shape of the object may be deformed.

【0017】上述した手法を組み合わせて、例えば、3
次元図形による領域除去と領域のマスク演算を用いて連
結領域を分割した後に、スレッショルド指定を変更する
手法を用いて対象領域を除去することも可能である。し
かしながら、手順が複雑で熟練が必要であり、手間と時
間がかかり、残したい物体の本来の形状が操作の途中で
変形してしまう場合があるなどの欠点がある。
By combining the above-mentioned techniques, for example, 3
It is also possible to remove the target region by using a method of changing the threshold designation after dividing the connected region by using the region removal by the three-dimensional figure and the mask calculation of the region. However, there are drawbacks that the procedure is complicated, skill is required, labor and time are required, and the original shape of the object to be left may be deformed during the operation.

【0018】図16は、図12の画像に対して、スレッ
ショルド指定を変更する手法と、膨張によるマスク演算
手法を組み合わせて使用する例を示したものである。ま
ず、スレッショルド指定の変更により分離されて抽出さ
れた人体組織に対して、802に示すようにカットした
い骨の内部の1点を指定し、この点を含む連結領域を削
除すると、803に示すように骨の内部部分のみがカッ
トされる。その後、得られた血管領域に対して膨張演算
を行い、804に示すようにマスク領域を形成する。最
後に、元の有効領域に対して前記マスク領域を用いてマ
スク演算を行うことにより、805に示すようにマスク
領域外の領域がカットされて所望の領域を得る。
FIG. 16 shows an example in which a method of changing the threshold designation and a mask calculation method by dilation are used in combination for the image of FIG. First, as shown in 802, one point inside the bone to be cut is designated for the human body tissue separated and extracted by the change of the threshold designation, and the connected region including this point is deleted, as shown in 803. Only the inner part of the bone is cut. After that, expansion calculation is performed on the obtained blood vessel region to form a mask region as indicated by 804. Finally, a mask operation is performed on the original effective area using the mask area, so that the area outside the mask area is cut as shown by 805 to obtain a desired area.

【0019】しかしながら、805に示すように、形成
されたマスク領域は連結領域の認識をするものではな
く、マスク領域は純粋に膨張により形成されたため、最
後に得られた領域には一部の骨の部分がマスク領域に取
り込まれてしまい、カットしたい部分が残ってしまう可
能性が高い。
However, as shown at 805, the formed mask region does not recognize the connecting region, and the mask region is formed by pure expansion, so that the finally obtained region has some bones. There is a high possibility that the portion of will be taken into the mask area and the portion to be cut remains.

【0020】[0020]

【発明が解決しようとする課題】本発明は上記事情に鑑
みてなされたもので、有効領域が抽出されたボクセルデ
ータに基づくボリュームレンダリングにおいて、医療診
断の対象としたい人体組織に対象外の人体組織が連結し
ている場合に、不要な人体組織の領域を正確に効率よく
削除し、人体組織の関心領域を損なわずに抽出すること
ができる3次元画像処理方法、装置およびプログラムを
提供することを目的とする。
SUMMARY OF THE INVENTION The present invention has been made in view of the above circumstances, and in volume rendering based on voxel data in which an effective area is extracted, a human tissue that is not a target of a medical diagnosis is targeted. It is possible to provide a three-dimensional image processing method, device, and program capable of accurately and efficiently deleting an unnecessary region of human body tissue when connected to each other and extracting the region without damaging the region of interest of the human body tissue. To aim.

【0021】[0021]

【課題を解決するための手段】本発明の請求項1に記載
の3次元画像処理方法は、ボクセルデータに対してレイ
キャスティングによりボリュームレンダリングを行う3
次元画像処理方法において、ボクセルデータの有効領域
を抽出し(図1:S101、S102)、前記有効領域
中の関心領域内にシード領域を設定し(図1:S10
3、S104)、膨張度を指定し(図1:S105)、
前記シード領域を前記有効領域中の連結領域内で前記膨
張度に従って変形させ(図1:S106)、前記変形さ
せたシード領域を前記有効領域から除去あるいは抽出す
る(図1:S113)、ことを含むものである。
The three-dimensional image processing method according to claim 1 of the present invention performs volume rendering by ray casting on voxel data.
In the three-dimensional image processing method, the effective region of voxel data is extracted (FIG. 1: S101, S102), and the seed region is set in the region of interest in the effective region (FIG. 1: S10).
3, S104), and specify the degree of expansion (Fig. 1: S105),
Deforming the seed region according to the expansion degree in the connection region in the effective region (FIG. 1: S106), and removing or extracting the deformed seed region from the effective region (FIG. 1: S113). It includes.

【0022】また、請求項11に記載の3次元画像処理
プログラムは、ボクセルデータに対してレイキャスティ
ングによりボリュームレンダリングを行う3次元画像処
理プログラムにおいて、コンピュータを、ボクセルデー
タから抽出した有効領域中の関心領域内に設定したシー
ド領域を前記有効領域中の連結領域内で、予め指定した
膨張度に従って変形させた後、前記有効領域から除去あ
るいは抽出する手段、として機能させるものである。
The three-dimensional image processing program according to the eleventh aspect is a three-dimensional image processing program for performing volume rendering on voxel data by ray casting, in which the computer extracts interest in the effective area extracted from the voxel data. The seed region functioning as a means for removing or extracting from the effective region after the seed region set in the region is deformed in the connection region in the effective region according to a predetermined expansion degree.

【0023】請求項1および11に係る発明によれば、
関心領域内にシード領域を設定し、これを指定された膨
張度に従って有効領域中の連結領域内で変形させること
により、変形させたシード領域の形状を最も適切なもの
に容易に調節することができるため、有効領域から除去
あるいは抽出する適切な形状の連結領域を正確かつ容易
に得ることができる。また、この方法では、操作により
物体の形状が変形することはない。
According to the inventions of claims 1 and 11,
By setting the seed region in the region of interest and deforming it in the connected region in the effective region according to the specified expansion degree, the shape of the deformed seed region can be easily adjusted to the most suitable one. Therefore, it is possible to accurately and easily obtain a connected region having an appropriate shape to be removed or extracted from the effective region. Moreover, in this method, the shape of the object is not deformed by the operation.

【0024】本発明の請求項2に記載の3次元画像処理
方法は、請求項1記載の3次元画像処理方法において、
前記有効領域をボリュームレンダリングにより確認し
(図1:S107)、前記膨張度および前記シード領域
の設定をインタラクティブに指定し(図1:S108、
S109)、前記シード領域を前記有効領域中の連結領
域内で前記膨張度に従って変形させ(図1:S10
6)、前記変形させたシード領域を前記有効領域から除
去あるいは抽出した結果をボリュームレンダリングによ
り確認する(図1:S107)、ことを同順に繰り返す
ものである。
A three-dimensional image processing method according to a second aspect of the present invention is the three-dimensional image processing method according to the first aspect,
The effective area is confirmed by volume rendering (FIG. 1: S107), and the setting of the expansion degree and the seed area is interactively specified (FIG. 1: S108,
S109), and deform the seed region according to the expansion degree in the connection region in the effective region (FIG. 1: S10).
6), the result of removing or extracting the deformed seed region from the effective region is confirmed by volume rendering (FIG. 1: S107), and this is repeated in the same order.

【0025】請求項2に係る発明によれば、膨張度およ
びシード領域の設定、有効領域中の連結領域内でのシー
ド領域の変形、ボリュームレンダリングによる確認から
なる一連の処理をインタラクティブに行うことができる
ため、有効領域から除去あるいは抽出する連結領域の形
状を評価しながら作業を行うことができ、より正確な結
果を容易に得ることができる。
According to the second aspect of the invention, a series of processes including the setting of the expansion degree and the seed area, the deformation of the seed area in the connected area in the effective area, and the confirmation by the volume rendering can be interactively performed. Therefore, the work can be performed while evaluating the shape of the connected region to be removed or extracted from the effective region, and a more accurate result can be easily obtained.

【0026】本発明の請求項3に記載の3次元画像処理
方法は、請求項2記載の3次元画像処理方法において、
前記変形させたシード領域を前記有効領域から除去した
結果を、前記有効領域と前記変形させたシード領域との
境界を強調表示して確認するものである。
A three-dimensional image processing method according to a third aspect of the present invention is the three-dimensional image processing method according to the second aspect.
The result of removing the deformed seed region from the effective region is confirmed by highlighting the boundary between the effective region and the deformed seed region.

【0027】また、請求項12に記載の3次元画像処理
プログラムは、請求項11記載の3次元画像処理プログ
ラムにおいて、前記変形させたシード領域を前記有効領
域から除去した結果を、前記有効領域と前記変形させた
シード領域との境界を強調して画面に表示する手段とし
て機能させるものである。
A three-dimensional image processing program according to a twelfth aspect is the three-dimensional image processing program according to the eleventh aspect, wherein a result obtained by removing the deformed seed area from the effective area is defined as the effective area. The boundary with the deformed seed region is emphasized and displayed on the screen.

【0028】請求項3および12に係る発明によれば、
有効領域からの除去により更新した部分を強調表示する
ことで、除去したい部分が全て除去されたか、また、除
去したくない部分が除去されてないかを容易に認識する
ことができる。
According to the inventions of claims 3 and 12,
By highlighting the portion updated by the removal from the effective area, it is possible to easily recognize whether all the portions to be removed are removed or whether the portions to be removed are not removed.

【0029】本発明の請求項4に記載の3次元画像処理
方法は、請求項2記載の3次元画像処理方法において、
前記変形させたシード領域を前記有効領域から除去ある
いは抽出した結果を、画面上の更新領域のみのボリュー
ムレンダリングにより確認するものである。
A three-dimensional image processing method according to a fourth aspect of the present invention is the three-dimensional image processing method according to the second aspect.
The result of removing or extracting the deformed seed area from the effective area is confirmed by volume rendering of only the update area on the screen.

【0030】また、請求項13に記載の3次元画像処理
プログラムは、請求項11に記載の3次元画像処理プロ
グラムにおいて、前記変形させたシード領域を前記有効
領域から除去あるいは抽出した結果を、画面上の更新領
域のみのボリュームレンダリングにより画像に表示する
手段として機能させるものである。
A three-dimensional image processing program according to a thirteenth aspect is the three-dimensional image processing program according to the eleventh aspect, in which a result obtained by removing or extracting the deformed seed area from the effective area is displayed on a screen. This is to function as means for displaying on the image by volume rendering of only the upper update area.

【0031】請求項4および13に係る発明によれば、
画面上で更新が必要な領域のみ局所的にボリュームレン
ダリング処理を行うことで、計算負荷が軽減され画面を
迅速に更新することができる。画面全体を高画質のまま
でリアルタイムで更新することができる。
According to the inventions of claims 4 and 13,
By locally performing the volume rendering process only on the area that needs to be updated on the screen, the calculation load is reduced and the screen can be updated quickly. The entire screen can be updated in real time with high image quality.

【0032】本発明の請求項5に記載の3次元画像処理
方法は、請求項1記載の3次元画像処理方法において、
ボリュームレンダリングにより得られた画像上で、任意
の点、線または形状を指定し、視点方向から奥行き方向
へレイのトレースを行い、最初に到達したボクセルデー
タ上の対応する点、線または形状と連結する投影領域内
の領域を対象表面のシード領域として設定するものであ
る(図5、6参照)。
A three-dimensional image processing method according to a fifth aspect of the present invention is the three-dimensional image processing method according to the first aspect,
On the image obtained by volume rendering, specify an arbitrary point, line or shape, trace the ray from the viewpoint direction to the depth direction, and connect it to the corresponding point, line or shape on the voxel data that arrived first An area within the projected area is set as a seed area on the target surface (see FIGS. 5 and 6).

【0033】また、請求項14に記載の3次元画像処理
プログラムは、請求項11記載の3次元画像処理プログ
ラムにおいて、ボリュームレンダリングにより得られた
画像上で指定した任意の点、線または形状を開始位置と
し、視点方向から奥行き方向へレイのトレースを行い最
初に到達したボクセルデータ上の対応する点、線または
形状と連結する投影領域内の領域を対象表面のシード領
域として設定する手段として機能させるものである。
A three-dimensional image processing program according to a fourteenth aspect is the three-dimensional image processing program according to the eleventh aspect, in which an arbitrary point, line or shape designated on the image obtained by volume rendering is started. A ray is traced from the viewpoint direction to the depth direction as a position, and it functions as a means for setting the area in the projection area that connects with the corresponding point, line, or shape on the voxel data that arrives first as the seed area on the target surface. It is a thing.

【0034】請求項5および14に係る発明によれば、
物体表面の一部領域を指定することで連結した表面全体
をシード領域として設定することができる。そのため、
関心対象となる物体表面を簡単にかつ正確にシード領域
とすることができる。
According to the inventions of claims 5 and 14,
By designating a partial area of the object surface, the entire connected surface can be set as the seed area. for that reason,
The object surface of interest can be simply and accurately used as the seed area.

【0035】本発明の請求項6に記載の3次元画像処理
方法は、請求項1記載の3次元画像処理方法において、
ボリュームレンダリングにより得られた画像上で、任意
の点、線または形状を指定し、視点方向から奥行き方向
へレイのトレースを行い、最初に到達したボクセルデー
タ上の対応する点、線または形状を対象表面のシード領
域として設定するものである。
A three-dimensional image processing method according to a sixth aspect of the present invention is the three-dimensional image processing method according to the first aspect,
Specify an arbitrary point, line, or shape on the image obtained by volume rendering, perform ray tracing from the viewpoint direction to the depth direction, and target the corresponding point, line, or shape on the voxel data that arrived first It is set as a seed region on the surface.

【0036】また、請求項15に記載の3次元画像処理
プログラムは、請求項11記載の3次元画像処理プログ
ラムにおいて、ボリュームレンダリングにより得られた
画像上で指定した任意の点、線または形状を開始位置と
し、視点方向から奥行き方向へレイのトレースを行い、
最初に到達したボクセルデータ上の対応する点、線また
は形状を対象表面のシード領域として設定する手段とし
て機能させるものである。
A three-dimensional image processing program according to a fifteenth aspect is the three-dimensional image processing program according to the eleventh aspect, in which an arbitrary point, line or shape designated on an image obtained by volume rendering is started. Set the position, trace the ray from the viewpoint direction to the depth direction,
It serves as a means for setting a corresponding point, line, or shape on the voxel data that reaches first as a seed region on the target surface.

【0037】請求項6および15に係る発明によれば、
物体表面上に任意の点、線または形状をシード領域とし
て設定することができるため、医療診断の対象としたい
人体組織の状況に応じてシード領域の設定を様々に変え
て結果を確認することができ、より適切な結果を容易に
得ることができる。請求項6および14に係る発明で
は、ボリュームレンダリングにより得られた画像上で指
定した任意の2次元図形に対応するボクセルデータ上の
領域をそのままシード領域とするため、物体表面上のシ
ード領域の形状を正確に指定することができる。
According to the inventions of claims 6 and 15,
Since any point, line or shape can be set as the seed area on the surface of the object, it is possible to confirm the result by changing the setting of the seed area variously according to the situation of the human body tissue to be the target of medical diagnosis. It is possible to obtain a more appropriate result easily. In the inventions according to claims 6 and 14, since the area on the voxel data corresponding to an arbitrary two-dimensional figure designated on the image obtained by volume rendering is directly used as the seed area, the shape of the seed area on the object surface Can be specified exactly.

【0038】本発明の請求項7に記載の3次元画像処理
方法は、請求項1記載の3次元画像処理方法において、
前記シード領域を対象内部に設定するものである。ま
た、請求項15に記載の発明は、請求項11記載の3次
元画像処理プログラムにおいて、前記シード領域が対象
内部に設定されたものである。
A three-dimensional image processing method according to a seventh aspect of the present invention is the three-dimensional image processing method according to the first aspect.
The seed area is set inside the target. According to a fifteenth aspect of the invention, in the three-dimensional image processing program according to the eleventh aspect, the seed area is set inside the target.

【0039】請求項7および16に係る発明によれば、
既存の手法を用いることで物体内部にシード領域を設定
することができる。例えば、血管の中心線を得る既存ア
ルゴリズムを用いることで、血管の正確な中心線をシー
ド領域に設定することができる。
According to the inventions of claims 7 and 16,
The seed area can be set inside the object by using the existing method. For example, an existing algorithm for obtaining the center line of the blood vessel can be used to set the accurate center line of the blood vessel in the seed region.

【0040】本発明の請求項8に記載の3次元画像処理
方法は、請求項1記載の3次元画像処理方法において、
ボリュームレンダリングにより得られた画像上で、任意
の点、線または形状を指定し、視点方向から奥行き方向
へレイのトレースを行い、対象の奥行き中心を対象内部
のシード領域として設定するものである。
The three-dimensional image processing method according to claim 8 of the present invention is the three-dimensional image processing method according to claim 1, wherein
An arbitrary point, line or shape is specified on the image obtained by volume rendering, ray tracing is performed from the viewpoint direction to the depth direction, and the depth center of the target is set as a seed region inside the target.

【0041】また、請求項17に記載の3次元画像処理
プログラムは、請求項11記載の3次元画像処理プログ
ラムにおいて、ボリュームレンダリングにより得られた
画像上で指定した任意の点、線または形状を開始位置と
し、視点方向から奥行き方向へレイのトレースを行い、
対象の奥行き中心を対象内部のシード領域として設定す
る手段として機能させるものである。
A three-dimensional image processing program according to a seventeenth aspect is the three-dimensional image processing program according to the eleventh aspect, in which an arbitrary point, line or shape designated on an image obtained by volume rendering is started. Set the position, trace the ray from the viewpoint direction to the depth direction,
It serves as a means for setting the depth center of the target as a seed region inside the target.

【0042】請求項8および17に係る発明によれば、
対象の奥行き中心にシード領域を指定することで、物体
内部のおおよその中心部分にシード領域を設定すること
ができる。
According to the inventions of claims 8 and 17,
By designating the seed area at the center of the depth of the object, the seed area can be set at an approximate central portion inside the object.

【0043】本発明の請求項9に記載の3次元画像処理
方法は、請求項5から8のいずれか一項記載の3次元処
理方法において、前記シード領域を、ボクセルデータ上
で、視点方向からの奥行き、深さ方向へ展開し、指定し
た奥行き、深さの範囲内の領域をシード領域として再設
定するものである(図9参照)。
A three-dimensional image processing method according to a ninth aspect of the present invention is the three-dimensional processing method according to any one of the fifth to eighth aspects, in which the seed region is on the voxel data from the viewpoint direction. Is expanded in the depth and depth directions, and an area within the specified depth and depth is reset as a seed area (see FIG. 9).

【0044】また、請求項18に記載の3次元画像処理
プログラムは、請求項14から17のいずれか一項記載
の3次元画像処理プログラムにおいて、前記シード領域
を、ボクセルデータ上で、視点方向からの奥行き、深さ
方向へ展開し、指定した奥行き、深さの範囲内の領域を
シード領域として再設定する手段として機能させるもの
である(図9参照)。
A three-dimensional image processing program according to a eighteenth aspect is the three-dimensional image processing program according to any one of the fourteenth to seventeenth aspects, wherein the seed area is on the voxel data from a viewpoint direction. Is developed in the depth direction and the depth direction, and functions as a means for resetting a region within the specified depth and depth range as a seed region (see FIG. 9).

【0045】請求項9および18に係る発明によれば、
シード領域を奥行き、深さ方向へ展開することができる
ため、医療診断の対象としたい人体組織の奥行き、深さ
方向の形状に合わせて任意の形状のシード領域を設定す
ることができる。
According to the inventions of claims 9 and 18,
Since the seed region can be expanded in the depth direction and the depth direction, it is possible to set the seed region having an arbitrary shape according to the shape of the human body tissue to be subjected to medical diagnosis in the depth direction and the depth direction.

【0046】[0046]

【発明の実施の形態】以下、本発明の実施の形態につい
て図面を参照して説明する。図1は本発明の一実施の形
態に係る3次元画像処理技術を示すフローチャートであ
る。図2および図3は、本発明の一実施の形態に係る3
次元画像処理技術に従って、人体組織のボクセルデータ
に対する画像処理を進める様子を説明する図である。な
お、以下に説明する画像処理は、各工程をコンピュータ
で処理させるためのプログラムによっても提供すること
ができる。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a flowchart showing a three-dimensional image processing technique according to an embodiment of the present invention. 2 and 3 show a third embodiment of the present invention.
It is a figure explaining a mode that image processing to voxel data of a human body tissue is advanced according to a three-dimensional image processing technology. The image processing described below can also be provided by a program for causing a computer to process each step.

【0047】図1において、まず、ボクセルデータから
医療診断の対象としたい人体組織が適切に表示されるよ
うに、ボリュームレンダリングを行いながら、有効領域
を抽出するためのボクセル値の範囲を指定し、ボリュー
ムレンダリングのパラメータ(オパシティ値、色、拡大
率、角度など)を設定する(S101)。
In FIG. 1, first, while performing volume rendering, a range of voxel values for extracting an effective region is designated so that the human tissue to be targeted for medical diagnosis is appropriately displayed from the voxel data. Volume rendering parameters (opacity value, color, enlargement ratio, angle, etc.) are set (S101).

【0048】次に、抽出された有効領域に対応するマス
クデータを生成する(S102)。以降は、このマスク
データが示すマスク領域をカットすることにより、所望
の関心領域が得られるようにする。マスクデータを生成
する時点では、通常はオパシティ値が0でない領域をマ
スク領域とする。
Next, mask data corresponding to the extracted effective area is generated (S102). After that, a desired region of interest is obtained by cutting the mask region indicated by the mask data. At the time of generating the mask data, a region where the opacity value is not 0 is usually set as the mask region.

【0049】本実施の形態の手法は、人体組織内でカッ
トしたい連結領域内に処理の開始点となるシード領域を
設定し、これをインタラクティブな手法で漸次変形させ
てカットしたい連結領域が得られるようにするもので、
あたかも虫食い領域が次第に広がるように捉えることが
できるので、この手法を虫食いカットと名付ける。
According to the method of this embodiment, a seed region as a starting point of processing is set in a connected region to be cut in human tissue, and this is gradually transformed by an interactive method to obtain a connected region to be cut. Is something that
Since it can be considered as if the worm-eating area gradually expands, this method is called worm-eating cut.

【0050】これを行うために、シード領域の形状を決
定し(S103)、シード領域を配置する位置を指定す
る(S104)。図2の201には、連結領域内でシー
ド領域が設定された様子が示されている。
In order to do this, the shape of the seed region is determined (S103), and the position where the seed region is arranged is designated (S104). Reference numeral 201 in FIG. 2 shows a state in which the seed area is set in the connected area.

【0051】次に、虫食いカットをコントロールするた
めに膨張度を指定する(S105)。膨張度はシード領
域を開始領域とする変形の程度を正(膨張)から負(収
縮)の範囲でコントロールするもので、シード領域に対
する変形の割合(体積)やボクセルを単位とする絶対
値、その他の指定方法でもよい。以下の説明では膨張度
としてシード領域に対する膨張倍率を用いる。
Next, the degree of expansion is designated to control the worm-eating cut (S105). The degree of expansion controls the degree of deformation with the seed region as the starting region in the range from positive (expansion) to negative (contraction). The ratio of deformation (volume) to the seed region, the absolute value in units of voxels, etc. May be specified. In the following description, the expansion ratio for the seed region is used as the expansion degree.

【0052】以上の準備の上で、膨張度に従い有効領域
中の連結領域内でシード領域を変形させ、変形させたシ
ード領域を有効領域からカットする(S106)。この
結果をボリュームレンダリングにより確認する(S10
7)。図2の202、203には異なる膨張度による結
果が示されている。なお、カットした部分を容易に確認
するために、カットによる切り口を画面上で強調して表
示することもできる。有効領域と変形させたシード領域
との境界を得、境界を強調(着色、点滅、アニメーショ
ン等)して画面に描画することでどこをカットしたのか
を一目で確認することができる。
With the above preparation, the seed region is deformed in the connection region in the effective region according to the expansion degree, and the deformed seed region is cut from the effective region (S106). This result is confirmed by volume rendering (S10).
7). The results at different degrees of expansion are shown at 202 and 203 in FIG. In addition, in order to easily confirm the cut portion, the cut edge may be emphasized and displayed on the screen. By obtaining a boundary between the effective area and the deformed seed area, and emphasizing (coloring, blinking, animation, etc.) the boundary and drawing it on the screen, it is possible to confirm at a glance what was cut.

【0053】この結果により、S108では膨張度の指
定、S109ではシード領域の位置、S110ではカッ
トされた領域を評価し、条件を満たさなければ、それぞ
れ、S105の膨張度の指定、S104シード領域の配
置、S103のシード領域の形状の決定に戻り、再び虫
食いカットの一連の処理をやり直す。
From this result, the expansion degree is designated in S108, the seed area position is evaluated in S109, and the cut area is evaluated in S110. If the conditions are not satisfied, the expansion degree is designated in S105 and the seed area in the S104 seed area is evaluated. Returning to the arrangement and the determination of the shape of the seed region in S103, a series of processing for worm-eating cutting is performed again.

【0054】S110で条件を満たす場合は、カットさ
れた領域に従って、マスクデータを更新し(S11
1)、医療診断対象の人体組織が適切に抽出されたかを
総合的に判定する(S112)。ここで条件を満たさな
い場合は、S103から虫食いカットの一連の処理を繰
り返す。
If the condition is satisfied in S110, the mask data is updated according to the cut area (S11
1), it is comprehensively determined whether the human tissue to be medically diagnosed is properly extracted (S112). If the condition is not satisfied here, a series of processes for worm-eaten cutting is repeated from S103.

【0055】図3は、図4の血管組織に骨がわずかに連
結している画像例において、本実施の形態の手法により
連結部分を的確に捉えることができる様子を示してい
る。図3の301において、まず、血管組織との連結部
分に対する骨の反対側の面全体にシード領域を設定す
る。これを回転させて側面から観察した画像を302に
示す。
FIG. 3 shows that in the image example in which bones are slightly connected to the blood vessel tissue of FIG. 4, the connected portion can be accurately captured by the method of the present embodiment. In 301 of FIG. 3, first, a seed region is set on the entire surface on the side opposite to the bone with respect to the connecting portion with the vascular tissue. An image 302 viewed from the side by rotating it is shown.

【0056】骨の表面部分全体に設定するシード領域
は、視点方向からのボリュームレンダリングにより得ら
れた画像上から設定される(図4参照)。シード領域を
設定する手法として、(1)ボリュームレンダリングに
より得られた画像上で、任意の点を指定し、視点方向か
ら奥行き方向へレイのトレースを行い最初に到達したボ
クセルデータ上の点と連結する領域をシード領域として
設定する(点指定:図5参照)、(2)ボリュームレン
ダリングにより得られた画像上で、任意の形状の領域を
指定し、視点方向から奥行き方向へレイのトレースを行
い最初に到達したボクセルデータ上の領域と連結する領
域をシード領域として設定する(領域指定:図6参
照)、または(3)ボリュームレンダリングにより得ら
れた画像上で、任意の形状の領域を指定し、視点方向か
ら奥行き方向へレイのトレースを行い最初に到達したボ
クセルデータ上の領域をシード領域として設定する(囲
い込み:図7参照)。
The seed area set on the entire surface of the bone is set on the image obtained by volume rendering from the viewpoint direction (see FIG. 4). As a method of setting the seed area, (1) an arbitrary point is specified on the image obtained by volume rendering, and ray tracing is performed from the viewpoint direction to the depth direction to connect it with the point on the voxel data that reaches first. The area to be set is set as a seed area (point designation: see FIG. 5). (2) The area of any shape is designated on the image obtained by volume rendering, and ray tracing is performed from the viewpoint direction to the depth direction. A region that is connected to the region on the voxel data that reaches first is set as a seed region (region designation: see FIG. 6), or (3) a region of any shape is designated on the image obtained by volume rendering. , The ray is traced from the viewpoint direction to the depth direction, and the area on the voxel data that reaches first is set as the seed area (enclosure: See 7).

【0057】(1)の手法では、指定した点とつながっ
ている物体表面がシード領域となる。従って、分離した
物体表面や、同一物体であっても視点方向から奥行きに
ギャップがあり、つながらない物体表面はシード領域に
ならない。
In the method (1), the surface of the object connected to the designated point becomes the seed area. Therefore, the separated object surface or even the same object has a gap in the depth from the viewpoint direction, and the object surface that is not connected does not become the seed region.

【0058】(2)および(3)の方法は、ボリューム
レンダリングにより得られた画像上で任意の形状の領域
を指定する点で共通するが、(2)の方法では参照画像
が物体に投影された物体表面部分を越えてシード領域が
設定されるのに対し(図8(a)参照)、(3)の方法
ではボリュームレンダリングにより得られた画像上の領
域とボクセルデータ上の領域とを一致させ、ボリューム
レンダリングにより得られた画像上で指定した領域外に
シード領域を変形させないようにしている(図8(b)
参照)。(2)および(3)の方法でも、(1)の方法
と同様に、分離した物体表面や、同一物体であっても視
点方向から奥行きにギャップがあり、つながらない物体
表面はシード領域にならない。
The methods (2) and (3) are common in that a region having an arbitrary shape is designated on an image obtained by volume rendering, but the method (2) projects a reference image onto an object. While the seed area is set beyond the object surface portion (see FIG. 8A), the method (3) matches the area on the image obtained by volume rendering with the area on the voxel data. The seed area is prevented from being deformed outside the area designated on the image obtained by the volume rendering (FIG. 8B).
reference). Also in the methods (2) and (3), as in the method (1), the separated object surface or even the same object has a gap in the depth from the viewpoint direction, and the object surface that is not connected does not become a seed region.

【0059】なお、上記(1)、(2)および(3)で
は、シード領域を骨等の対象の表面に設定する場合を説
明しているが、対象の内部にシード領域を設定すること
もできる。対象内部にシード領域を設定する手法とし
て、ボリュームレンダリングにより得られた画像上で、
任意の点、線または形状を指定した後、視点方向から奥
行き方向へレイのトレースを行い、対象の奥行き中心を
対象内部のシード領域として設定する。対象の奥行き中
心は、ボリュームレンダリングにより得られた画像上
で、任意の点、線または形状を指定し、視点方向から奥
行き方向へレイのトレースを行い最初に到達したボクセ
ルデータ上の点等と最初に対象を通過した点等との中間
位置で特定することができる。
In the above (1), (2) and (3), the case where the seed region is set on the surface of the target such as bone has been described, but the seed region may be set inside the target. it can. As a method to set the seed area inside the target, on the image obtained by volume rendering,
After designating an arbitrary point, line, or shape, ray tracing is performed from the viewpoint direction to the depth direction, and the depth center of the target is set as the seed area inside the target. For the depth center of the target, specify an arbitrary point, line, or shape on the image obtained by volume rendering, trace the ray from the viewpoint direction to the depth direction, and then first reach the point on the voxel data etc. Can be specified at an intermediate position with respect to a point that has passed through the object.

【0060】これらの手法によれば、関心領域の形状が
複雑でも、形状に合わせた任意のシード領域を設定する
ことができる。なお、ボリュームレンダリングにより得
られた画像上の任意の形状は、指定領域をペイントする
方法、閉曲線を描くことで実質的に閉曲線内部の領域全
てをペイントする方法等により特定することができる。
また、上記(1)、(2)および(3)の方法におい
て、各ボクセルが視点方向からの奥行き、深さ情報を持
っているものとし、シード領域を、ボクセルデータ上
で、視点方向からの奥行き、深さ方向へ展開し、指定し
た奥行き、深さの範囲内の領域をシード領域として再設
定することで、奥行き、深さ方向の形状に合わせて任意
の形状のシード領域を設定することができる(深さによ
る調節:図9参照)。
According to these methods, even if the region of interest has a complicated shape, it is possible to set an arbitrary seed region according to the shape. An arbitrary shape on the image obtained by volume rendering can be specified by a method of painting a designated area, a method of drawing a closed curve to paint substantially the entire area inside the closed curve, or the like.
In addition, in the above methods (1), (2) and (3), it is assumed that each voxel has depth and depth information from the viewpoint direction, and the seed region on the voxel data from the viewpoint direction. By expanding in the depth and depth directions and resetting the area within the specified depth and depth range as the seed area, it is possible to set the seed area of any shape according to the shape in the depth and depth directions. (Adjustment by depth: see FIG. 9).

【0061】次に、図3において、(1)、(2)また
は(3)の方法によって設定したシード領域を骨の連結
領域内でインタラクティブな作業で漸次変形させ、ボリ
ュームレンダリングを行いながら結果を確認し、303
に示すように変形させたシード領域が血管組織との連結
部分に達したときに変形を停止させる。この変形させた
シード領域を有効領域からカットすることにより、所望
の血管組織の良好な画像を得ることができる。
Next, in FIG. 3, the seed area set by the method (1), (2) or (3) is gradually deformed by interactive work within the bone connecting area, and the result is obtained while performing volume rendering. Check, 303
The deformation is stopped when the deformed seed region reaches the connecting portion with the vascular tissue as shown in FIG. By cutting this deformed seed region from the effective region, a good image of the desired vascular tissue can be obtained.

【0062】上述のようにシード領域を用いて有効領域
をカットし、有効領域が更新される度にボリュームレン
ダリング処理を行うことで(コンピュータ画面上に反映
させることで)、カットの様子を確認しながらインタラ
クティブに虫食いカットを行うことができる。しかし、
ボリュームレンダリング処理の負荷が大きいことから、
ボリュームレンダリング処理を行う範囲を画面上の更新
領域に限定することで、計算負荷を減らし迅速な画面更
新を行うことができる。
As described above, the effective area is cut using the seed area, and the volume rendering processing is performed every time the effective area is updated (reflected on the computer screen) to confirm the cutting state. While you can interactively cut worms. But,
Since the volume rendering processing load is large,
By limiting the range in which the volume rendering process is performed to the update area on the screen, the calculation load can be reduced and the screen can be quickly updated.

【0063】図10はボリュームレンダリング処理の対
象となる部分を算出する様子を示しており、(a)から
(c)の順に処理を進める。なお、併せて対応する処理
フローを図11に示すステップS401からステップS
407を参照して説明する。まず、虫食いカットに先立
ち、虫食いカット前のマスクデータをM1、M2にコピ
ーしておき(S402)、その後、虫食いカットを開始
する。虫食いカット後は、マスクデータM2を更新して
おく(S403)。
FIG. 10 shows how to calculate a portion to be subjected to volume rendering processing, and the processing proceeds in the order of (a) to (c). The corresponding processing flow is also shown in FIG. 11 from step S401 to step S401.
This will be described with reference to 407. First, prior to the worm-eating cut, the mask data before the worm-eating cut is copied to M1 and M2 (S402), and then the worm-eating cut is started. After the worm-eating cut, the mask data M2 is updated (S403).

【0064】図10(b)において、虫食いカット後の
ボクセルデータ上のカット部分を特定するために、マス
クデータM1、M2を比較し、更新された各ボクセルの
3次元座標を得る(S404)。得られた各ボクセルの
3次元座標から対応する画面上の各ピクセルの2次元座
標を計算し、更新領域を得る(S405)。なお、上記
手法は更新された各ボクセルから画面上の更新領域を計
算するが、画面上の全ピクセルからレイのトレースを行
い画面上の更新領域を直接得る手法も考えられる。後者
の手法では、レイが更新ボクセルにあたった場合、その
レイに対応するピクセルが更新領域となる。
In FIG. 10B, in order to specify the cut portion on the voxel data after the worm-eating cut, the mask data M1 and M2 are compared and the updated three-dimensional coordinates of each voxel are obtained (S404). Two-dimensional coordinates of each pixel on the corresponding screen are calculated from the obtained three-dimensional coordinates of each voxel to obtain an updated area (S405). Note that the above method calculates the update area on the screen from each updated voxel, but it is also possible to directly obtain the update area on the screen by tracing the ray from all pixels on the screen. In the latter method, when a ray hits an update voxel, the pixel corresponding to that ray becomes the update area.

【0065】次に、図10(c)において、画面上の更
新領域からレイキャストし、更新領域のみボリュームレ
ンダリング処理を行い(S406)、ボリュームレンダ
リング処理結果を画面に反映させる(S407)。
Next, in FIG. 10C, raycasting is performed from the update area on the screen, volume rendering processing is performed only on the update area (S406), and the volume rendering processing result is reflected on the screen (S407).

【0066】以上の処理により、ボリュームレンダリン
グ処理が画面上の更新領域にのみ限定され(図10
(c))、画面全体をボリュームレンダリング処理する
場合(図10(d))に比べて計算負荷を減らすことが
できる。
Through the above processing, the volume rendering processing is limited to the update area on the screen (see FIG. 10).
(C)), the calculation load can be reduced as compared with the case of performing volume rendering processing on the entire screen (FIG. 10D).

【0067】このように、本実施の形態の手法によれ
ば、インタラクティブに画面で確認しながら不要な人体
組織をカットすることができ、膨張度の指定とシード領
域の形状の調整によりカット領域の形状を調節できるた
め、連結部分を正確に効率よくカットすることができ
る。また、本実施の形態の手法においては、カット操作
により物体の形状が変形することはない。
As described above, according to the method of the present embodiment, unnecessary human tissue can be cut while confirming interactively on the screen, and the cut area can be adjusted by designating the degree of expansion and adjusting the shape of the seed area. Since the shape can be adjusted, the connecting portion can be cut accurately and efficiently. Moreover, in the method of the present embodiment, the shape of the object is not deformed by the cutting operation.

【0068】なお、以上の説明において、医療診断の対
象としたい人体組織に連結している不要な人体組織の領
域をカットする場合を取り上げたが、医療診断の対象と
したい人体組織を関心領域として抽出する場合にも、本
実施の形態の手法を同様に適用することが可能なことは
明らかである。
In the above description, the case where the unnecessary human body tissue region connected to the human body tissue to be the target of medical diagnosis is cut is taken up, but the human body tissue to be the target of medical diagnosis is set as the region of interest. It is obvious that the method of the present embodiment can be similarly applied to the extraction.

【0069】[0069]

【発明の効果】以上説明したように、本発明によれば、
ボクセルデータに対してレイキャスティングによりボリ
ュームレンダリングを行う3次元画像処理方法におい
て、関心領域内にシード領域を設定し、これを指定され
た膨張度に従って有効領域中の連結領域内で変形させる
手法により、変形させたシード領域の形状を容易にコン
トロールすることができ、物体の形状を変形させること
もなく、対象の連結領域を正確かつ容易に有効領域から
除去あるいは抽出することができるという有利な効果を
有する。
As described above, according to the present invention,
In a three-dimensional image processing method of performing volume rendering on voxel data by ray casting, a seed region is set in a region of interest, and a seed region is deformed in a connected region in an effective region according to a designated expansion degree. It is possible to easily control the shape of the deformed seed area, and it is possible to accurately and easily remove or extract the connected area of the target from the effective area without deforming the shape of the object. Have.

【0070】さらに本発明によれば、膨張度およびシー
ド領域の設定、有効領域中の連結領域内でのシード領域
の変形、ボリュームレンダリングによる確認からなる一
連の処理をインタラクティブに行うことができるため、
有効領域から除去あるいは抽出する連結領域の形状を評
価しながら作業を行うことができ、より正確な結果を容
易に得ることができるという有利な効果を有する。
Further, according to the present invention, since a series of processes including the setting of the expansion degree and the seed area, the deformation of the seed area in the connected area in the effective area, and the confirmation by the volume rendering can be interactively performed.
This has an advantageous effect that the work can be performed while evaluating the shape of the connected region to be removed or extracted from the effective region, and a more accurate result can be easily obtained.

【0071】さらに本発明によれば、シード領域として
任意の点、線または形状を設定することができるため、
医療診断の対象としたい人体組織の状況に応じてシード
領域の設定を様々に変えて結果を確認することができ、
より適切な結果を容易に得ることができる。
Further, according to the present invention, since any point, line or shape can be set as the seed region,
Depending on the condition of the human tissue that you want to make a medical diagnosis, you can change the setting of the seed area variously and check the result,
More appropriate results can be easily obtained.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施の形態に係る3次元画像処理技
術を示すフローチャートである。
FIG. 1 is a flowchart showing a three-dimensional image processing technique according to an embodiment of the present invention.

【図2】本発明の一実施の形態において人体組織のボク
セルデータに対する画像処理を進める様子を説明する図
である。
FIG. 2 is a diagram illustrating how image processing is performed on voxel data of human body tissue according to an embodiment of the present invention.

【図3】本発明の一実施の形態において人体組織のボク
セルデータに対する画像処理を進める様子を説明する図
である。
FIG. 3 is a diagram illustrating a state in which image processing is performed on voxel data of human body tissue according to an embodiment of the present invention.

【図4】シード領域を説明する図である。FIG. 4 is a diagram illustrating a seed region.

【図5】シード領域の指定方法を示す図である(点指
定)。
FIG. 5 is a diagram showing a method of specifying a seed area (point specification).

【図6】シード領域の指定方法を示す図である(領域指
定)。
FIG. 6 is a diagram showing a method of specifying a seed area (area specification).

【図7】シード領域の指定方法を示す図である(囲い込
み)。
FIG. 7 is a diagram showing a method of specifying a seed area (enclosing).

【図8】(a)は領域指定による設定されたシード領
域、(b)は囲い込みにより設定されたシード領域を示
す図である。
FIG. 8A is a diagram showing a seed region set by region designation, and FIG. 8B is a diagram showing a seed region set by enclosing.

【図9】シード領域の指定方法を示す図である(深さに
よる調節)。
FIG. 9 is a diagram showing a method of specifying a seed region (adjustment by depth).

【図10】ボリュームレンダリング処理の処理範囲を算
出する様子を示す図である。
FIG. 10 is a diagram showing how a processing range of volume rendering processing is calculated.

【図11】ボリュームレンダリング処理の処理範囲を算
出する処理を示すフローチャートである。
FIG. 11 is a flowchart showing a process of calculating a processing range of a volume rendering process.

【図12】有効領域が抽出されたボクセルデータに対し
てボリュームレンダリングを行って得られた画像例であ
る。
FIG. 12 is an image example obtained by performing volume rendering on voxel data in which an effective area is extracted.

【図13】ボクセルデータにおける連結領域の除去を行
う従来の手法例である。
FIG. 13 is an example of a conventional method for removing a connected region in voxel data.

【図14】3次元図形を用いて連結領域の除去を行う従
来の手法例である。
FIG. 14 is an example of a conventional method for removing a connected region using a three-dimensional figure.

【図15】平面を用いて連結領域の除去を行う従来の手
法例である。
FIG. 15 is an example of a conventional method for removing a connected region using a plane.

【図16】スレッショルド指定を変更する手法とマスク
演算手法を組み合わせて使用する従来の手法例である。
FIG. 16 is an example of a conventional method in which a method of changing a threshold designation and a mask calculation method are used in combination.

【符号の説明】[Explanation of symbols]

201〜203、301〜303、501〜503、7
01〜704、801〜805 画像
201-203, 301-303, 501-503, 7
01-704, 801-805 images

フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) A61B 5/055 G06T 15/00 200 G01R 33/32 G01N 24/02 520Y G06T 15/00 200 A61B 5/05 380 Fターム(参考) 4C093 AA22 AA26 CA01 CA17 CA18 CA50 DA02 DA10 EE01 FF12 FF13 FF15 FF16 FF28 FF43 FG01 FG05 FG20 4C096 AB36 AB44 AD14 AD15 DC18 DC28 DC36 DC40 DD08 5B080 AA17 Front page continuation (51) Int.Cl. 7 Identification code FI theme code (reference) A61B 5/055 G06T 15/00 200 G01R 33/32 G01N 24/02 520Y G06T 15/00 200 A61B 5/05 380 F term (Reference) 4C093 AA22 AA26 CA01 CA17 CA18 CA50 DA02 DA10 EE01 FF12 FF13 FF15 FF16 FF28 FF43 FG01 FG05 FG20 4C096 AB36 AB44 AD14 AD15 DC18 DC28 DC36 DC40 DD08 5B080 AA17

Claims (19)

【特許請求の範囲】[Claims] 【請求項1】 ボクセルデータに対してレイキャスティ
ングによりボリュームレンダリングを行う3次元画像処
理方法において、 ボクセルデータの有効領域を抽出し、 前記有効領域中の関心領域内にシード領域を設定し、 膨張度を指定し、 前記シード領域を前記有効領域中の連結領域内で前記膨
張度に従って変形させ、 前記変形させたシード領域を前記有効領域から除去ある
いは抽出する、ことを含むことを特徴とする3次元画像
処理方法。
1. A three-dimensional image processing method for performing volume rendering on voxel data by ray casting, extracting an effective region of voxel data, setting a seed region in a region of interest in the effective region, and expanding the degree of expansion. And deforming the seed region according to the degree of expansion in a connection region in the effective region, and removing or extracting the deformed seed region from the effective region. Image processing method.
【請求項2】 前記有効領域をボリュームレンダリング
により確認し、前記膨張度および前記シード領域の設定
をインタラクティブに指定し、前記シード領域を前記有
効領域中の連結領域内で前記膨張度に従って変形させ、
前記変形させたシード領域を前記有効領域から除去ある
いは抽出した結果をボリュームレンダリングにより確認
すること、を同順に繰り返すことを特徴とする請求項1
記載の3次元画像処理方法。
2. The effective area is confirmed by volume rendering, the expansion degree and the setting of the seed area are interactively specified, and the seed area is deformed in the connection area in the effective area according to the expansion degree.
The process of removing or extracting the deformed seed region from the effective region and confirming the result by volume rendering is repeated in the same order.
The described three-dimensional image processing method.
【請求項3】 前記変形させたシード領域を前記有効領
域から除去した結果を、前記有効領域と前記変形させた
シード領域との境界を強調表示して確認することを特徴
とする請求項2記載の3次元画像処理方法。
3. The result of removing the deformed seed region from the effective region is confirmed by highlighting a boundary between the effective region and the deformed seed region. 3D image processing method.
【請求項4】 前記変形させたシード領域を前記有効領
域から除去あるいは抽出した結果を、画面上の更新領域
のみのボリュームレンダリングにより確認することを特
徴とする請求項2記載の3次元画像処理方法。
4. The three-dimensional image processing method according to claim 2, wherein the result of removing or extracting the deformed seed area from the effective area is confirmed by volume rendering of only the update area on the screen. .
【請求項5】 ボリュームレンダリングにより得られた
画像上で、任意の点、線または形状を指定し、視点方向
から奥行き方向へレイのトレースを行い、最初に到達し
たボクセルデータ上の対応する点、線または形状と連結
する投影領域内の領域を対象表面のシード領域として設
定することを特徴とする請求項1記載の3次元画像処理
方法。
5. An arbitrary point, line, or shape is designated on an image obtained by volume rendering, ray tracing is performed from the viewpoint direction to the depth direction, and the corresponding point on the voxel data that first arrives, The three-dimensional image processing method according to claim 1, wherein an area within the projection area connected to the line or the shape is set as a seed area on the target surface.
【請求項6】 ボリュームレンダリングにより得られた
画像上で、任意の点、線または形状を指定し、視点方向
から奥行き方向へレイのトレースを行い、最初に到達し
たボクセルデータ上の対応する点、線または形状を対象
表面のシード領域として設定することを特徴とする請求
項1記載の3次元画像処理方法。
6. An arbitrary point, line, or shape is designated on an image obtained by volume rendering, a ray is traced from the viewpoint direction to the depth direction, and the corresponding point on the voxel data that first arrives, The three-dimensional image processing method according to claim 1, wherein a line or a shape is set as a seed region on the target surface.
【請求項7】 前記シード領域を対象内部に設定するこ
とを特徴とする請求項1記載の3次元画像処理方法。
7. The three-dimensional image processing method according to claim 1, wherein the seed area is set inside the object.
【請求項8】 ボリュームレンダリングにより得られた
画像上で、任意の点、線または形状を指定し、視点方向
から奥行き方向へレイのトレースを行い、対象の奥行き
中心を対象内部のシード領域として設定することを特徴
とする請求項1記載の3次元画像処理方法。
8. An arbitrary point, line or shape is designated on an image obtained by volume rendering, ray tracing is performed from the viewpoint direction to the depth direction, and the depth center of the target is set as a seed region inside the target. The three-dimensional image processing method according to claim 1, further comprising:
【請求項9】 前記シード領域を、ボクセルデータ上
で、視点方向からの奥行き、深さ方向へ展開し、指定し
た奥行き、深さの範囲内の領域をシード領域として再設
定することを特徴とする請求項5から8のいずれか一項
記載の3次元画像処理方法。
9. The voxel data, wherein the seed region is expanded in the depth direction from the viewpoint direction and the depth direction, and a region within the specified depth and depth range is reset as a seed region. The three-dimensional image processing method according to any one of claims 5 to 8.
【請求項10】 請求項1から9のいずれか一項記載の
3次元画像処理方法を実施するための3次元画像処理装
置。
10. A three-dimensional image processing device for carrying out the three-dimensional image processing method according to claim 1.
【請求項11】 ボクセルデータに対してレイキャステ
ィングによりボリュームレンダリングを行う3次元画像
処理プログラムにおいて、コンピュータを、 ボクセルデータから抽出した有効領域中の関心領域内に
設定したシード領域を前記有効領域中の連結領域内で、
予め指定した膨張度に従って変形させた後、前記有効領
域から除去あるいは抽出する手段、として機能させるこ
とを特徴とする3次元画像処理プログラム。
11. A three-dimensional image processing program for performing volume rendering on voxel data by ray casting, wherein a computer sets a seed area in a region of interest in the effective region extracted from the voxel data in the effective region. Within the connected area,
A three-dimensional image processing program, which functions as means for removing or extracting from the effective area after deforming in accordance with a degree of expansion designated in advance.
【請求項12】 前記変形させたシード領域を前記有効
領域から除去した結果を、前記有効領域と前記変形させ
たシード領域との境界を強調して画面に表示する手段と
して機能させることを特徴とする請求項11記載の3次
元画像処理プログラム。
12. A method of displaying the result of removing the deformed seed area from the effective area as a means for displaying on a screen by emphasizing the boundary between the effective area and the deformed seed area. The three-dimensional image processing program according to claim 11.
【請求項13】 前記変形させたシード領域を前記有効
領域から除去あるいは抽出した結果を、画面上の更新領
域のみのボリュームレンダリングにより画面に表示する
手段として機能させることを特徴とする請求項11記載
の3次元画像処理プログラム。
13. The method according to claim 11, wherein the result obtained by removing or extracting the deformed seed area from the effective area is caused to function as means for displaying on the screen by volume rendering only the update area on the screen. 3D image processing program.
【請求項14】 ボリュームレンダリングにより得られ
た画像上で指定した任意の点、線または形状を開始位置
とし、視点方向から奥行き方向へレイのトレースを行い
最初に到達したボクセルデータ上の対応する点、線また
は形状と連結する投影領域内の領域を対象表面のシード
領域として設定する手段として機能させることを特徴と
する請求項11記載の3次元画像処理プログラム。
14. A corresponding point on voxel data which reaches first after performing ray tracing from the viewpoint direction to the depth direction, with an arbitrary point, line or shape designated on the image obtained by volume rendering as a starting position. The three-dimensional image processing program according to claim 11, characterized in that the program functions as a means for setting an area in a projection area connected to a line or a shape as a seed area of a target surface.
【請求項15】 ボリュームレンダリングにより得られ
た画像上で指定した任意の点、線または形状を開始位置
とし、視点方向から奥行き方向へレイのトレースを行
い、最初に到達したボクセルデータ上の対応する点、線
または形状を対象表面のシード領域として設定する手段
として機能させることを特徴とする請求項11記載の3
次元画像処理プログラム。
15. A ray trace is performed from a viewpoint direction to a depth direction with an arbitrary point, line, or shape designated on an image obtained by volume rendering as a start position, and the ray is traced corresponding to the voxel data which reaches first. 13. The device according to claim 11, which functions as a means for setting a point, a line, or a shape as a seed region on the target surface.
Dimensional image processing program.
【請求項16】 前記シード領域が対象内部に設定され
たものであることを特徴とする請求項11記載の3次元
画像処理プログラム。
16. The three-dimensional image processing program according to claim 11, wherein the seed area is set inside the object.
【請求項17】 ボリュームレンダリングにより得られ
た画像上で指定した任意の点、線または形状を開始位置
とし、視点方向から奥行き方向へレイのトレースを行
い、対象の奥行き中心を対象内部のシード領域として設
定する手段として機能させることを特徴とする請求項1
1記載の3次元画像処理プログラム。
17. A seed region inside a target is centered on the depth center of a target, with a ray traced from the viewpoint direction to the depth direction, with an arbitrary point, line, or shape designated on the image obtained by volume rendering as the starting position. 2. The function as a means for setting as
The three-dimensional image processing program according to 1.
【請求項18】 前記シード領域を、ボクセルデータ上
で、視点方向からの奥行き、深さ方向へ展開し、指定し
た奥行き、深さの範囲内の領域をシード領域として再設
定する手段として機能させることを特徴とする請求項1
4から17のいずれか一項記載の3次元画像処理プログ
ラム。
18. The seed area is expanded on the voxel data in the depth direction and the depth direction from the viewpoint direction, and is made to function as a means for resetting the area within the specified depth and depth range as the seed area. Claim 1 characterized by the above.
The three-dimensional image processing program according to any one of 4 to 17.
【請求項19】 請求項11から18のいずれか一項記
載の3次元処理プログラムを実行するための3次元画像
処理装置。
19. A three-dimensional image processing apparatus for executing the three-dimensional processing program according to claim 11.
JP2001359259A 2001-11-26 2001-11-26 Three-dimensional image processing method, apparatus and program Expired - Lifetime JP3516942B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001359259A JP3516942B2 (en) 2001-11-26 2001-11-26 Three-dimensional image processing method, apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001359259A JP3516942B2 (en) 2001-11-26 2001-11-26 Three-dimensional image processing method, apparatus and program

Publications (2)

Publication Number Publication Date
JP2003153894A true JP2003153894A (en) 2003-05-27
JP3516942B2 JP3516942B2 (en) 2004-04-05

Family

ID=19170301

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001359259A Expired - Lifetime JP3516942B2 (en) 2001-11-26 2001-11-26 Three-dimensional image processing method, apparatus and program

Country Status (1)

Country Link
JP (1) JP3516942B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006238938A (en) * 2005-02-28 2006-09-14 Ziosoft Inc Image processing method
JP2007135699A (en) * 2005-11-15 2007-06-07 Toshiba Corp X-ray ct apparatus, image data area extraction system, and image data area extraction program
JP2008253547A (en) * 2007-04-05 2008-10-23 Toshiba Corp Image processor and image processing method
JP2008307145A (en) * 2007-06-13 2008-12-25 Hitachi Medical Corp X-ray ct system
WO2009145170A1 (en) * 2008-05-26 2009-12-03 株式会社 日立メディコ Medical image processing device, medical image processing method, and medical image processing program
US7738701B2 (en) 2003-12-25 2010-06-15 Ziosoft, Incorporated Medical image processing apparatus, ROI extracting method and program
JP2011525831A (en) * 2008-06-25 2011-09-29 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Localization apparatus and method for object of interest in subject
JP2013206244A (en) * 2012-03-29 2013-10-07 Fujifilm Corp Two-dimensional image generation device and its operation control method and its operation control program
KR20180035869A (en) * 2015-08-03 2018-04-06 바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드 Method, device, terminal device and storage medium
CN109350099A (en) * 2018-09-13 2019-02-19 中山市明峰医疗器械有限公司 A kind of chance event removal processing method applied to clinical PET system

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4910478B2 (en) * 2006-05-24 2012-04-04 コニカミノルタエムジー株式会社 Modeling apparatus, modeling method and program

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7738701B2 (en) 2003-12-25 2010-06-15 Ziosoft, Incorporated Medical image processing apparatus, ROI extracting method and program
JP2006238938A (en) * 2005-02-28 2006-09-14 Ziosoft Inc Image processing method
JP2007135699A (en) * 2005-11-15 2007-06-07 Toshiba Corp X-ray ct apparatus, image data area extraction system, and image data area extraction program
JP4660356B2 (en) * 2005-11-15 2011-03-30 株式会社東芝 X-ray CT apparatus, image data area extraction system, and image data area extraction program
JP2008253547A (en) * 2007-04-05 2008-10-23 Toshiba Corp Image processor and image processing method
JP2008307145A (en) * 2007-06-13 2008-12-25 Hitachi Medical Corp X-ray ct system
WO2009145170A1 (en) * 2008-05-26 2009-12-03 株式会社 日立メディコ Medical image processing device, medical image processing method, and medical image processing program
US8503746B2 (en) 2008-05-26 2013-08-06 Hitachi Medical Corporation Medical image processing device, medical image processing method, and medical image processing program
JP5536644B2 (en) * 2008-05-26 2014-07-02 株式会社日立メディコ Medical image processing apparatus, medical image processing method, and medical image processing program
JP2011525831A (en) * 2008-06-25 2011-09-29 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Localization apparatus and method for object of interest in subject
JP2013206244A (en) * 2012-03-29 2013-10-07 Fujifilm Corp Two-dimensional image generation device and its operation control method and its operation control program
KR20180035869A (en) * 2015-08-03 2018-04-06 바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드 Method, device, terminal device and storage medium
KR102033262B1 (en) * 2015-08-03 2019-10-16 바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드 Canonical reconstruction method, apparatus, terminal device and storage medium
US10467800B2 (en) 2015-08-03 2019-11-05 Baidu Online Network Technology (Beijing) Co., Ltd. Method and apparatus for reconstructing scene, terminal device, and storage medium
CN109350099A (en) * 2018-09-13 2019-02-19 中山市明峰医疗器械有限公司 A kind of chance event removal processing method applied to clinical PET system

Also Published As

Publication number Publication date
JP3516942B2 (en) 2004-04-05

Similar Documents

Publication Publication Date Title
KR102018565B1 (en) Method, apparatus and program for constructing surgical simulation information
CN108369736B (en) Method and apparatus for calculating the volume of resected tissue from an intra-operative image stream
JP2001283191A (en) Method and device for extracting and displaying specific area of organ
KR20140096919A (en) Method and Apparatus for medical image registration
Chang et al. 3D segmentation of maxilla in cone-beam computed tomography imaging using base invariant wavelet active shape model on customized two-manifold topology
JP3516942B2 (en) Three-dimensional image processing method, apparatus and program
TW201725554A (en) Single chamber mapization system and method for cardiac medical image reconstructing a sequential sectional image of this chamber and performing mapization expansion
JP4675509B2 (en) Apparatus and method for extracting and displaying specific region of organ
US9019272B2 (en) Curved planar reformation
US11037672B2 (en) Medical image processing apparatus, medical image processing method, and system
WO2009145170A1 (en) Medical image processing device, medical image processing method, and medical image processing program
JP2013236750A (en) Image processing apparatus, imaging system and program
JP2006167169A (en) Medical image display device and method
JP2001118058A (en) Image processor and radiation medical treatment planning system
Abdolali et al. Mandibular canal segmentation using 3D Active Appearance Models and shape context registration
JP2010201089A (en) Method of automatically deleting artifact in medical three-dimensional image, automatic deletion device, and automatic deletion program
KR101540402B1 (en) Method for generating insertion trajectory of surgical needle
WO2016131955A1 (en) Automatic 3d model based tracking of deformable medical devices with variable appearance
JP7172086B2 (en) Surgery simulation device and surgery simulation program
JP2018512188A (en) Segment objects in image data using channel detection
US11657547B2 (en) Endoscopic surgery support apparatus, endoscopic surgery support method, and endoscopic surgery support system
JPH0855210A (en) Method and processor for image processing
JPH0721351A (en) Image processing method and image processor
JP5846368B2 (en) Medical image processing apparatus, method, and program
Young et al. 3D vessel axis extraction using 2D calibrated x-ray projections for coronary modeling

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040121

R150 Certificate of patent or registration of utility model

Ref document number: 3516942

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090130

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090130

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100130

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110130

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110130

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120130

Year of fee payment: 8

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120130

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130130

Year of fee payment: 9

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130130

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140130

Year of fee payment: 10

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term