JP2001216517A - Object recognition method - Google Patents

Object recognition method

Info

Publication number
JP2001216517A
JP2001216517A JP2000028292A JP2000028292A JP2001216517A JP 2001216517 A JP2001216517 A JP 2001216517A JP 2000028292 A JP2000028292 A JP 2000028292A JP 2000028292 A JP2000028292 A JP 2000028292A JP 2001216517 A JP2001216517 A JP 2001216517A
Authority
JP
Japan
Prior art keywords
voxel
volume data
value
recognition method
corrected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000028292A
Other languages
Japanese (ja)
Inventor
Hidesuke Kayano
秀介 茅野
Kazuhiko Matsumoto
和彦 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ZIO SOFTWARE Inc
Original Assignee
ZIO SOFTWARE Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ZIO SOFTWARE Inc filed Critical ZIO SOFTWARE Inc
Priority to JP2000028292A priority Critical patent/JP2001216517A/en
Publication of JP2001216517A publication Critical patent/JP2001216517A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Generation (AREA)
  • Image Analysis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve the recognition precision of an object when recognizing the object in another object by volume data. SOLUTION: In an object recognition method which discriminates a voxel having a specific voxel value in volume data to discriminate a subject material in a three-dimensional object 100, an average value of voxel values of plural voxels placed in three-dimensional areas 113, 115, and 117 in the neighborhood of one voxel 111 in volume data is obtained, and a corrected voxel value of this voxel is obtained in accordance with the average value, and corrected volume data is obtained by a three-dimensional data array consisting of corrected voxel values of individual voxels in volume data, and this corrected volume data is used to discriminate the subject material inside the object.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、ボリュームデータ
として表現された物体内部の対象物体を高い精度で識別
できる物体認識方法に関する。更に、本発明は対象物体
の3次元構造の透視イメージを高いコントラストで表示
する画像形成、及び、対象物体の形状情報を高い精度で
抽出する形状認識に係わる。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an object recognition method capable of identifying a target object inside an object expressed as volume data with high accuracy. Further, the present invention relates to image formation for displaying a perspective image of a three-dimensional structure of a target object with high contrast, and shape recognition for extracting shape information of the target object with high accuracy.

【0002】[0002]

【従来の技術】コンピュータを用いた画像処理技術の進
展にともない、3次元物体の内部を可視化する技術が活
用されている。なかでも、医療分野では、生体内部を可
視化することにより病巣を早期に発見するこができ、C
T(Computed Tomography)装置もしくはMRI(Magne
tic Resonance Imaging)装置により得られる生体の断
層画像を用いた医療診断が広く行われている。
2. Description of the Related Art With the development of image processing technology using a computer, a technology for visualizing the inside of a three-dimensional object has been utilized. Above all, in the medical field, lesions can be found at an early stage by visualizing the inside of a living body.
T (Computed Tomography) device or MRI (Magne
Medical diagnosis using a tomographic image of a living body obtained by a tic resonance imaging apparatus is widely performed.

【0003】さらに近年は、断層画像だけでは判り難い
物体内部の対象物体の3次元構造の透視イメージを得る
手法として、物体の3次元データから直接描画するボリ
ュームレンダリングが注目されている。
[0003] In recent years, as a technique for obtaining a perspective image of a three-dimensional structure of a target object inside an object that is difficult to understand only with a tomographic image, volume rendering for directly drawing from three-dimensional data of the object has been attracting attention.

【0004】物体の3次元領域の構成単位となる微小単
位領域をボクセルと称し、ボクセルの特性を表す固有の
データをボクセル値と称する。物体全体はボクセル値の
3次元データ配列で表現され、これをボリュームデータ
と称する。ボリュームレンダリングに用いるボリューム
データは、物体の断層面に垂直な方向に沿って順次得ら
れる2次元の断層画像データを積層することにより得ら
れる。特にCT画像の場合は、ボクセル値は当該ボクセ
ルが物体中に占める位置における放射線の吸収度を表
し、CT値と称する。
[0004] A minute unit area that is a constituent unit of a three-dimensional area of an object is called a voxel, and unique data representing the characteristics of the voxel is called a voxel value. The whole object is represented by a three-dimensional data array of voxel values, which is called volume data. Volume data used for volume rendering is obtained by stacking two-dimensional tomographic image data sequentially obtained along a direction perpendicular to the tomographic plane of the object. In particular, in the case of a CT image, the voxel value indicates the degree of radiation absorption at a position occupied by the voxel in the object, and is referred to as a CT value.

【0005】ボリュームレンダリングの優れた手法とし
てレイキャスティングが知られている。レイキャスティ
ングは、物体に対して投影面から仮想的な光線を照射
し、物体内部からの仮想的な反射光の画像を形成するこ
とにより、投影面に物体内部の3次元構造を透視するイ
メージ画像を形成する手法である。
[0005] Ray casting is known as an excellent technique for volume rendering. Ray casting is an image image in which a three-dimensional structure inside an object is seen through the projection surface by irradiating the object with virtual light rays from a projection plane and forming an image of virtual reflected light from inside the object. Is a method of forming

【0006】投影面に形成される画像は、投影面からボ
クセルに仮想的に照射された光線に対して、ボクセル固
有のボクセル値に対して設定する不透明度に応じて生ず
る仮想的な反射光を投影面に集積したものである。
[0006] An image formed on the projection plane is a virtual reflected light generated according to the opacity set for the voxel value unique to the voxel with respect to the light beam virtually illuminated from the projection plane to the voxel. These are integrated on the projection surface.

【0007】物体内部の対象物体の形状情報を得るため
に、ボリュームデータを用いて特定の連続物体の抽出を
行うことができる。注目する対象物体のボクセル値を有
するボクセルをボリュームデータから抽出し、更にそれ
らのボクセルの中から、ボクセル相互の位置関係におい
て面をもって接するボクセル群を抽出することにより、
注目する対象物体の形状情報が得られる。これにより注
目物体の長さ、径、体積、面積等を計測することができ
る。
In order to obtain shape information of a target object inside the object, a specific continuous object can be extracted using volume data. By extracting voxels having the voxel value of the target object of interest from the volume data, and further extracting voxels that are in contact with each other in a voxel positional relationship from among the voxels,
Shape information of the target object of interest can be obtained. Thus, the length, diameter, volume, area, and the like of the target object can be measured.

【0008】[0008]

【発明が解決しようとする課題】ボリュームレンダリン
グは、ボリュームデータから直接物体構造を描画するこ
とができるため、特に、人体において、骨、内臓等の組
織が複雑に入り組んでいる場合にあっても、これらをほ
ぼ明確に分離描画することができるという利点がある。
In volume rendering, an object structure can be drawn directly from volume data. Therefore, even in a case where a tissue such as a bone or an internal organ is complicated in a human body, the volume rendering can be performed. There is an advantage that these can be almost clearly separated and drawn.

【0009】一方、計測値から得られるボリュームデー
タには、測定原理に基く重畳ノイズあるいは計測手法に
由来するばらつきやゆらぎが内在するという固有の欠点
がある。この欠点は、特にボリュームレンダリングによ
り人体の内部組織を描画する場合に、描画された画像の
コントラストを低下させ、対象物体の識別を困難にする
という好ましくない結果を生じさせる。
On the other hand, the volume data obtained from the measured values has an inherent disadvantage that there is inherent superimposition noise based on the measurement principle or variation or fluctuation due to the measurement method. This drawback has the undesired consequence of reducing the contrast of the rendered image and making it difficult to identify the target object, especially when rendering internal tissues of the human body by volume rendering.

【0010】例えば、人体組織の表面を詳細に観察する
必要がある場合、特に、臓器表面に発生した腫瘍を観察
する場合に、描画された画像のコントラストが低下し腫
瘍を識別できないことがある。
For example, when it is necessary to observe the surface of a human body tissue in detail, particularly when observing a tumor generated on the surface of an organ, the contrast of a drawn image may be reduced and the tumor may not be identified.

【0011】医療分野では、ボリュームレンダリングに
より描画される画像のコントラストを高める手段とし
て、造影剤を投与することが知られている。しかし、こ
れは患者に負担をかけることになる。また、内臓には造
影剤の効果が得にくいものもある。
In the medical field, it is known to administer a contrast agent as a means for increasing the contrast of an image drawn by volume rendering. However, this puts a burden on the patient. In addition, some of the internal organs are difficult to obtain the effect of the contrast agent.

【0012】ボリュームデータを用いた物体の形状情報
抽出においても、上記ボリュームデータに内在するばら
つきやゆらぎは、注目する対象物体のボクセル値を有す
るボクセルの抽出において誤ったボクセルの抽出を招
き、結果として注目対象物体の認識精度を低下させる。
[0012] Even in the extraction of shape information of an object using volume data, the variation and fluctuation inherent in the volume data lead to erroneous voxel extraction in the extraction of voxels having the voxel value of the target object of interest. The recognition accuracy of the target object is reduced.

【0013】本発明は上記事情に鑑みてなされたもの
で、ボリュームデータにより物体内部の対象物体を識別
する精度を高めることができる物体認識方法を提供する
ことを目的とする。更に、本発明はボリュームレンダリ
ングにより描画される物体内部の対象物体の透視画像の
コントラストを高めることができる物体認識方法を提供
することを目的とする。更に、本発明はボリュームデー
タを用いた物体内部の対象物体の形状情報抽出の精度を
高めることができる物体認識方法を提供することを目的
とする。
The present invention has been made in view of the above circumstances, and an object of the present invention is to provide an object recognition method capable of improving the accuracy of identifying a target object inside an object by volume data. Still another object of the present invention is to provide an object recognition method capable of increasing the contrast of a perspective image of a target object inside an object drawn by volume rendering. A further object of the present invention is to provide an object recognition method capable of improving the accuracy of extracting shape information of a target object inside an object using volume data.

【0014】[0014]

【課題を解決するための手段】本発明の請求項1に係わ
る物体認識方法は、ボリュームデータ中の特定のボクセ
ル値を有するボクセルを識別することにより、物体内部
の対象物体を識別する物体認識方法において、前記ボリ
ュームデータの一のボクセルについて、該ボクセルの3
次元近傍領域内に位置する複数のボクセルの各ボクセル
値の平均値を得、該平均値により前記一のボクセルの修
正ボクセル値を得、前記ボリュームデータの各ボクセル
の修正ボクセル値からなる3次元データ配列により修正
ボリュームデータを得、該修正ボリュームデータを利用
して物体内部の対象物体を識別するものである。
According to the first aspect of the present invention, there is provided an object recognition method for identifying a target object inside an object by identifying a voxel having a specific voxel value in volume data. In one of the voxels of the volume data, 3
Three-dimensional data consisting of a corrected voxel value of each voxel of the volume data, obtaining an average value of each voxel value of a plurality of voxels located in the dimension neighboring area, obtaining a corrected voxel value of the one voxel by the average value; Corrected volume data is obtained from the array, and a target object inside the object is identified using the corrected volume data.

【0015】請求項1に記載の物体認識方法によれば、
前記平均値算出がフィルタリング効果をもたらしボリュ
ームデータに内在するばらつきやゆらぎを抑制すること
ができるため、注目するボクセル値を有するボクセルの
識別の正確度を高めることができ、もって物体内部の対
象物体の識別の精度を高めることができる。
According to the object recognition method of the first aspect,
Since the average value calculation provides a filtering effect and can suppress variations and fluctuations inherent in the volume data, it is possible to increase the accuracy of identification of a voxel having a voxel value of interest, and thereby to improve the accuracy of a target object inside an object. Accuracy of identification can be improved.

【0016】本発明の請求項2に係わる物体認識方法
は、さらに、前記3次元近傍領域内に位置する複数のボ
クセルの各ボクセル値に対して所定の係数値により重み
付けを行うことにより該複数のボクセルのボクセル値の
加重平均値を得、前記平均値に代えて該加重平均値によ
り前記修正ボクセル値を得るものである。
The object recognition method according to a second aspect of the present invention further comprises the step of weighting each voxel value of the plurality of voxels located in the three-dimensional neighborhood by a predetermined coefficient value. A weighted average value of voxel values of voxels is obtained, and the modified voxel value is obtained by the weighted average value instead of the average value.

【0017】請求項2に記載の物体認識方法によれば、
3次元近傍領域内のボクセルの影響の大きさに応じて重
み付けすることにより、より効果的に修正ボリュームデ
ータを得ることができる。
According to the object recognition method of the second aspect,
By weighting according to the magnitude of the effect of the voxel in the three-dimensional neighborhood, modified volume data can be obtained more effectively.

【0018】本発明の請求項3に係わる物体認識方法
は、さらに、前記ボリュームデータの各ボクセルのボク
セル値をそれぞれ不透明度に変換することにより注目す
る物体のボクセル値を有するボクセル群を抽出し、ボリ
ュームレンダリングにより物体内部の対象物体の透視画
像を形成する物体認識方法において、予めボリュームデ
ータに請求項1又は請求項2に記載の処理を施して得ら
れる修正ボリュームデータを利用して透視画像形成を行
うものである。
In the object recognition method according to a third aspect of the present invention, a voxel group having a voxel value of an object of interest is extracted by converting voxel values of each voxel of the volume data into opacity. In an object recognition method for forming a perspective image of a target object inside an object by volume rendering, a perspective image is formed by using modified volume data obtained by previously performing processing according to claim 1 or 2 on volume data. Is what you do.

【0019】請求項3に記載の物体認識方法によれば、
修正ボリュームデータを利用して透視画像を形成するこ
とにより、ボリュームデータに内在するばらつきやゆら
ぎを抑制することができるため、ボリュームレンダリン
グにより物体内部の透視画像を形成する際に画像のコン
トラストを高めることができる。ここで、修正ボリュー
ムデータを利用した透視画像形成とは、修正前のボリュ
ームデータと修正ボリュームデータとを適応的に選択し
て画像形成を実行するものであり、その結果、画像形成
においては、全て修正ボリュームデータを用いる他、一
部で修正前のボリュームデータを用いるとともに一部で
修正ボリュームデータを用いる態様をも含む。
According to the object recognition method of the third aspect,
By forming a perspective image using the modified volume data, it is possible to suppress variations and fluctuations inherent in the volume data, and thus to enhance the contrast of the image when forming a perspective image inside the object by volume rendering. Can be. Here, the fluoroscopic image formation using the corrected volume data is to adaptively select the volume data before correction and the corrected volume data to execute the image formation, and as a result, in the image formation, In addition to using the corrected volume data, the present invention also includes a mode in which the volume data before correction is partially used and the corrected volume data is partially used.

【0020】本発明の請求項4に係わる物体認識方法
は、さらに、前記3次元近傍領域内に位置する複数のボ
クセルの数及び前記係数値の少なくとも一方を、ボリュ
ームレンダリングにより形成する物体内部の物体の透視
画像に応じて可変するものである。
According to a fourth aspect of the present invention, in the object recognition method, the number of the plurality of voxels located in the three-dimensional neighborhood and at least one of the coefficient values are formed by volume rendering. Is changed in accordance with the perspective image.

【0021】請求項4に記載の物体認識方法によれば、
認識される物体内部の対象物体の透視画像に応じて修正
ボリュームデータを得ることができ、例えば、レイキャ
スティングによる透視画像をモニタしながら、前記3次
元近傍領域内に位置する複数のボクセルの数あるいは前
記係数値を可変設定することができる。
According to the object recognition method of the fourth aspect,
Corrected volume data can be obtained according to the perspective image of the target object inside the object to be recognized. For example, while monitoring the perspective image by ray casting, the number of voxels located in the three-dimensional neighborhood or the number of voxels The coefficient value can be variably set.

【0022】本発明の請求項5に係わる物体認識方法
は、ボリュームデータ中の特定のボクセル値を有するボ
クセル群を抽出することにより物体内部の特定の物体の
形状情報抽出を行う物体認識において、予めボリューム
データに請求項1又は請求項2に記載の処理を施して得
られる修正ボリュームデータを利用して物体の形状情報
抽出を行うものである。
According to a fifth aspect of the present invention, there is provided an object recognition method for extracting shape information of a specific object inside an object by extracting a voxel group having a specific voxel value from volume data. The object shape information is extracted by using the modified volume data obtained by performing the processing according to claim 1 or 2 on the volume data.

【0023】請求項5に記載の物体認識方法によれば、
ボリュームデータに内在するばらつきやゆらぎを抑制す
ることができるため、ボリュームデータを用いた物体内
部の対象物体の形状情報抽出を行う際に抽出情報の精度
を高めることができる。
According to the object recognition method of the fifth aspect,
Since the variation and fluctuation inherent in the volume data can be suppressed, the accuracy of the extracted information can be improved when extracting the shape information of the target object inside the object using the volume data.

【0024】[0024]

【発明の実施の形態】以下、本発明の実施の形態を図面
を参照して説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0025】図1は本発明の一実施の形態を示してい
る。図1(a)は、3次元物体100と、3次元物体1
00の任意の断面110と、断面110の任意のボクセ
ル111を示している。以下、座標の単位は便宜上ボク
セルを単位として用い、座標(x,y,z)に位置する
ボクセルのボクセル値をV(x,y,z)で表す。V
(x,y,z)の3次元配列が物体100を表現するボ
リュームデータである。座標軸の任意の回転に対してボ
リュームデータは座標変換可能であるので、物体100
の任意の断面を特定の座標軸に対して垂直にとっても以
下の説明は一般性を失わない。
FIG. 1 shows an embodiment of the present invention. FIG. 1A shows a three-dimensional object 100 and a three-dimensional object 1.
1 shows an arbitrary cross-section 110 of FIG. 00 and an arbitrary voxel 111 of the cross-section 110. Hereinafter, for the sake of convenience, voxels are used as units, and voxel values of voxels located at coordinates (x, y, z) are represented by V (x, y, z). V
The three-dimensional array of (x, y, z) is volume data representing the object 100. Since the volume data can be coordinate-transformed for any rotation of the coordinate axes, the object 100
The following description does not lose generality even if an arbitrary cross section of is perpendicular to a specific coordinate axis.

【0026】図1(b)は、座標(x,y,z)に位置
するボクセル111およびボクセル111の26近傍の
ボクセルを示している。座標(x,y,z)に位置する
ボクセルの26近傍とは、X座標(x−1)〜(x+
1)、Y座標(y−1)〜(y+1)、Z座標(z−
1)〜(z+1)で囲まれる立方体領域内のボクセルか
ら、座標(x,y,z)に位置する当のボクセルを除い
た領域である。図1(b)において、113はボクセル
111の26近傍のX座標xにおける断面とボクセル1
11を示し、115と117はそれぞれ該26近傍のX
座標x−1およびx+1における断面を示している。
FIG. 1B shows a voxel 111 located at coordinates (x, y, z) and a voxel near 26 of the voxel 111. The neighborhood of 26 of the voxel located at the coordinates (x, y, z) means the X coordinates (x-1) to (x +
1), Y coordinates (y-1) to (y + 1), Z coordinates (z-
This is an area obtained by removing the voxel located at the coordinates (x, y, z) from the voxels in the cubic area surrounded by 1) to (z + 1). In FIG. 1B, reference numeral 113 denotes a cross section of the voxel 111 at the X coordinate x near 26 and the voxel 1
11 and 115 and 117 indicate X near the 26, respectively.
A cross section at coordinates x-1 and x + 1 is shown.

【0027】物体100の内部においてボクセル111
に着目し、そのボクセル値からボクセル111の物体を
識別する場合に、ボクセル111のボクセル値V(x,
y,z)は計測値から得られた値であるため、その値に
は固有のばらつきやゆらぎが内在する。
The voxel 111 inside the object 100
, And when the object of the voxel 111 is identified from the voxel value, the voxel value V (x,
Since (y, z) is a value obtained from the measurement value, the value has inherent variations and fluctuations.

【0028】図2はボクセル値に内在する固有のばらつ
きやゆらぎの様子を示している。図2(a)は、ボクセ
ル値が互いに近接する物体A及び物体Bのボクセル値の
ヒストグラムを示している。図2(a)において、21
0は物体Aのボクセル値がとる値域v1〜v2におけるヒ
ストグラムであり、220は物体Bのボクセル値がとる
値域v2〜v3におけるヒストグラムである。しかしなが
ら、計測値から得られるボリュームデータにはばらつき
やゆらぎが内在するために、実際のボクセル値のヒスト
グラムは図2(a)に示すようにならない。
FIG. 2 shows a state of inherent variation and fluctuation inherent in voxel values. FIG. 2A shows a histogram of voxel values of an object A and an object B whose voxel values are close to each other. In FIG. 2A, 21
0 is the histograms in range v 1 to v 2 in which voxel values of the object A takes, 220 is a histogram of bins v 2 to v 3 taking the voxel values of the object B. However, the actual voxel value histogram does not become as shown in FIG. 2A because the volume data obtained from the measured values has variations and fluctuations.

【0029】図2(b)は、実際の計測値から得られる
物体Aと物体Bのボクセル値のヒストグラムを示してい
る。230は物体Aのボクセル値がとるヒストグラムで
あり、220は物体Bのボクセル値がとるヒストグラム
である。ボリュームデータに内在するばらつきやゆらぎ
のために、例えば物体Aのボクセル値は本来の値域v 1
〜v2に収まらない。いま、物体Bに着目すると、物体
Bのボクセル値の値域v 2〜v3においてボクセル値が近
接する物体Aのボクセルが観測されることがわかる。
FIG. 2B is obtained from actual measured values.
The histogram of the voxel values of the object A and the object B is shown.
You. 230 is a histogram of the voxel value of the object A
And 220 is a histogram of the voxel values of the object B
It is. Fluctuations and fluctuations inherent in volume data
For example, the voxel value of the object A is the original range v 1
~ VTwoDoes not fit. Now, paying attention to the object B, the object
Range v of voxel values of B Two~ VThreeVoxel values are near
It can be seen that a voxel of the touching object A is observed.

【0030】図1において着目するボクセル111が物
体Bであるかどうかを識別する場合に、そのボクセル値
V(x,y,z)が値域v2〜v3にあるかどうかを検証
する。しかしながら上記の理由により、ある程度の確率
で、ボクセル111が物体Aであるのに誤って物体Bで
あると認識する可能性がある。
In FIG. 1, when it is determined whether or not the voxel 111 of interest is the object B, it is verified whether or not the voxel value V (x, y, z) is in the range v 2 to v 3 . However, for the above reason, there is a possibility that the voxel 111 is erroneously recognized as the object B even though the voxel 111 is the object A with a certain probability.

【0031】上記の問題を解決するために、ボクセル1
11のボクセル値V(x,y,z)に対して、以下のよ
うにフィルタリング処理を行い修正ボクセル値V1
(x,y,z)を得る。図1(b)において、式に示す
ように、ボクセル111の26近傍にあるボクセルのボ
クセル値およびボクセル111自身のボクセル値を合わ
せた27個のボクセル値の合計を得、この合計値を27
で除することにより、ボクセル111の3次元近傍領域
内のボクセル値の平均値が得られる。この平均値をボク
セル111の修正ボクセル値V1(x,y,z)とし、
物体100の全てのボクセルに対して、この処理を実行
することにより、物体100の修正ボリュームデータが
得られる。
To solve the above problem, voxel 1
The voxel value V1 (x, y, z) is filtered as follows to obtain a modified voxel value V1
(X, y, z) is obtained. In FIG. 1B, as shown in the equation, a total of 27 voxel values obtained by adding the voxel values of the voxels in the vicinity of 26 of the voxel 111 and the voxel values of the voxel 111 itself is obtained.
, An average value of voxel values in the three-dimensional vicinity area of the voxel 111 is obtained. This average value is defined as a modified voxel value V1 (x, y, z) of the voxel 111,
By executing this process for all voxels of the object 100, corrected volume data of the object 100 can be obtained.

【0032】修正ボリュームデータでは、上記処理のフ
ィルタリング効果により、計測値から得られるボリュー
ムデータに比べてばらつきやゆらぎが抑制されるため、
物体Aおよび物体Bのボクセル値のヒストグラムは図2
(a)に近づくことになり、ボクセル111が物体Bで
あると認識したときに、実際には物体Aであることの可
能性を著しく減少させる。
In the modified volume data, variations and fluctuations are suppressed by the filtering effect of the above processing as compared with volume data obtained from measured values.
The histogram of the voxel values of the objects A and B is shown in FIG.
(A), and when the voxel 111 recognizes the object B, the possibility that the voxel 111 is actually the object A is significantly reduced.

【0033】なお、上述の実施の形態では、着目するボ
クセルの3次元近傍として26近傍を用いて説明した
が、これは3次元近傍の設定を限定するものではなく、
目的に応じて様々な3次元近傍を選択することができ
る。例えば、座標(x,y,z)に位置するボクセルに
対して、座標(x−1,y,z)、(x+1,y,
z)、(x,y−1,z)、(x,y+1,z)、
(x,y,z−1)、(x,y,z+1)に位置する6
個のボクセルを選ぶ6近傍は最も小さな3次元近傍の一
例である。あるいは逆に、26近傍よりも更に領域を拡
大した3次元近傍を選択することもできる。また、近傍
領域のうち、注目点に近い点の影響が大きいとして各点
の重みを考慮して加重平均値を得て、これを修正ボクセ
ル値とすることもできる。
In the above-described embodiment, the description has been made using 26 neighborhoods as the three-dimensional neighborhood of the voxel of interest. However, this does not limit the setting of the three-dimensional neighborhood.
Various three-dimensional neighborhoods can be selected according to the purpose. For example, for a voxel located at coordinates (x, y, z), coordinates (x-1, y, z), (x + 1, y,
z), (x, y-1, z), (x, y + 1, z),
6 located at (x, y, z-1), (x, y, z + 1)
The six neighborhoods for selecting the voxels are an example of the smallest three-dimensional neighborhood. Or, conversely, a three-dimensional neighborhood in which the area is further enlarged than the neighborhood of 26 can be selected. In addition, it is also possible to obtain a weighted average value in consideration of the weight of each point, assuming that the influence of a point close to the point of interest in the neighboring area is large, and use this as a corrected voxel value.

【0034】図3は、レイキャスティングによりボリュ
ームレンダリングを行うために、ボリュームデータの各
ボクセル値を不透明度に変換する変換関数の一例を示し
ている。図3の変換関数は、物体100の内部に物体
A、物体B、物体C、物体Dが存在するときに、物体A
および物体Dのみを選択するものであり、310は物体
Aのボクセル値の値域に適当な不透明度を対応させ、3
20は物体Dのボクセル値の値域に適当な不透明度を対
応させている。物体Bおよび物体Cは描画対象としない
ため透明体として扱い、不透明度を零にしている。この
ようにして、レイキャスティングにより描画する物体を
変換関数により抽出し、描画目的に応じた不透明度を与
えることができる。
FIG. 3 shows an example of a conversion function for converting each voxel value of volume data into opacity in order to perform volume rendering by ray casting. When the object A, the object B, the object C, and the object D exist inside the object 100, the conversion function of FIG.
And object D only, and 310 corresponds to an appropriate opacity to the range of the voxel value of object A, and 3
Reference numeral 20 denotes an appropriate opacity corresponding to the range of the voxel value of the object D. Since the objects B and C are not to be drawn, they are treated as transparent bodies, and the opacity is set to zero. In this way, an object to be drawn by ray casting can be extracted by the conversion function, and opacity according to the purpose of drawing can be given.

【0035】図4はレイキャスティングの実施の形態を
説明するものであり、物体100にX軸方向から仮想光
線を照射し、各ボクセルで反射された仮想的な反射光線
を集めている様子を示している。反射光線は反射光線と
直交する図示しない投影面に画像を形成する。前述した
ように座標軸の回転によるボリュームデータの座標変換
が可能なので、仮想光線の方向をX軸方向とすることで
一般性を失うことはない。なお、座標軸を回転させる代
りに、任意の方向から照射される光線について、その光
線上にボクセル単位のピッチで設定される反射光線の計
算点において、周囲のボクセルとの距離に応じて各ボク
セル値に係数を与えて補間計算を行っても同じ結果が得
られる。
FIG. 4 is a view for explaining an embodiment of ray casting, in which a virtual ray is irradiated on the object 100 from the X-axis direction, and a virtual reflected ray reflected by each voxel is collected. ing. The reflected light beam forms an image on a projection surface (not shown) orthogonal to the reflected light beam. As described above, since the coordinate conversion of the volume data can be performed by rotating the coordinate axes, the generality is not lost by setting the direction of the virtual ray to the X-axis direction. Instead of rotating the coordinate axes, for the light beam irradiated from any direction, at the calculation point of the reflected light beam set at a pitch of voxel unit on the light beam, each voxel value is calculated according to the distance from the surrounding voxel. The same result can be obtained by performing interpolation calculation by giving a coefficient to.

【0036】図4において、410、420、430は
それぞれ一の仮想光線上にあるX座標x−1、x、x+
1に位置するボクセルであり、そえぞれ不透明度、K
x-1、Kx、Kx+1が与えられている。不透明度Kは0か
ら1の間の値(0≦K≦1)である。411、421、
431はそれぞれボクセル410、420、430に入
射する光線Ix-1、Ix、Ix+1であり、413、42
3、433はそれぞれボクセル410、420、430
から反射される反射光線Rx-1、Rx、Rx+1である。い
ま、ボクセル420に注目すると、入射光線Ixに対し
て、反射光線はIx x、ボクセル420を通過して次の
ボクセル430に入射する光線Ix+1はIx(1−Kx
となる。ボクセル420に入力する入力光線Ixはボク
セル420の不透明度Kxに基づいて遮光される。遮光
された光が反射される割合は0〜1の値をとり、従っ
て、ボクセル420で反射される上記反射光線は、Ix
xに上記割合を乗じたものである。反射光線Ix
xは、上記割合を”1”として表したものである。な
お、これについては、さらに、後述するシェーディング
係数において説明する。上記結果から、ボクセル430
の反射光線は、入射光線がボクセル430に到達する以
前に通過した全てのボクセルの不透明度の影響を受け
る。このようにして反射光線の計算を繰り返すことによ
り、物体内部に物体がある場合に、外側の半透明な物体
を透かして内側の半透明な物体を見るような効果を得る
ことができ、半透明な3次元物体を透視して見るような
透視画像を形成することができる。
In FIG. 4, 410, 420 and 430 are
X coordinates x-1, x, x + on one virtual ray respectively
Voxels located at 1 and their opacity, K
x-1, Kx, Kx + 1Is given. Opacity K is 0
It is a value between 0 and 1 (0 ≦ K ≦ 1). 411, 421,
431 enters voxels 410, 420, and 430, respectively.
Ray of Light Ix-1, Ix, Ix + 1413, 42
3, 433 are voxels 410, 420, 430, respectively.
Ray R reflected fromx-1, Rx, Rx + 1It is. I
Focusing on voxel 420, the incident light IxAgainst
And the reflected light is IxK xPasses through voxel 420 and
Ray I incident on voxel 430x + 1Is Ix(1-Kx)
Becomes Input ray I input to voxel 420xIs me
Opacity K of cell 420xIs shielded based on the Shading
The ratio of the reflected light takes a value of 0 to 1,
Thus, the reflected light reflected by the voxel 420 is Ix
KxIs multiplied by the above ratio. Reflected ray IxK
xRepresents the above ratio as “1”. What
Contact us for further details on the shading described later.
This will be described in terms of coefficients. From the above results, voxel 430
The reflected light of
Affected by the opacity of all voxels that passed before
You. By repeating the calculation of reflected light in this way,
When there is an object inside the object, the outer translucent object
The effect of seeing through the translucent object inside
Can see through a translucent 3D object
A fluoroscopic image can be formed.

【0037】ボクセル410、420、430の面の法
線と反射光線Rx-1、Rx、Rx+1の方向ベクトルとのな
す角のコサイン値(0〜1)に、反射光線の最大輝度を
乗じることにより、その面の輝度(明るさ)が得られ
る。従って、見る角度が変わればコサイン値が変化し、
最大輝度(コサイン値1)から最小輝度(コサイン値
0)の範囲で、明るさが変化することになる。あるボク
セルの明るさは、そのボクセルの近傍に位置する複数の
ボクセルが互いに影響を及ぼす。従って、通常、あるボ
クセル及びその近傍ボクセルから各種グラディエント法
により求められる面の法線と反射光線の方向ベクトルと
のなす角のコサイン値に基づいて、あるボクセルの明る
さを得る。このときのコサイン値をシェーディング係数
と称し、あるボクセルで遮光された光が反射光線として
反射する割合を表す。
The maximum cosine value (0-1) of the angle formed between the normal to the surface of voxel 410, 420, 430 and the direction vector of reflected light rays R x−1 , R x , R x + 1 is obtained. By multiplying the luminance, the luminance (brightness) of the surface can be obtained. Therefore, if the viewing angle changes, the cosine value changes,
The brightness changes in the range from the maximum luminance (cosine value 1) to the minimum luminance (cosine value 0). The brightness of a voxel is influenced by a plurality of voxels located near the voxel. Therefore, usually, the brightness of a certain voxel is obtained based on the cosine value of the angle between the normal line of the surface and the direction vector of the reflected light beam, which is obtained from a certain voxel and its neighboring voxels by various gradient methods. The cosine value at this time is referred to as a shading coefficient, and represents a rate at which light blocked by a certain voxel is reflected as a reflected light beam.

【0038】透視画像の形成において、レイキャスティ
ングに使用するボリュームデータは、通常、計測値であ
るため前述したように固有のばらつきやゆらぎが内在
し、投影する画像のコントラストを低下させることにな
る。図4において注目するボクセル420が物体Aであ
った場合に、ボクセル420のボクセル値が図2(b)
に示すヒストグラムの周辺部にあり、例えばv2よりも
大きな値であった場合には、図3の変換関数の310の
範囲から外れるために抽出されず、不透明度0が与えら
れ透明体となってしまうために、結果としてレイキャス
ティングによる透視画像に描画されない。この問題を解
決するために、本発明の一は、レイキャスティングを行
う際に、ボリュームデータV(x,y,z)に予め前述
したフィルタリング処理を施し修正ボリュームデータV
1(x,y,z)を得、この修正ボリュームデータを利
用して上述のレイキャスティングを行うものである。修
正ボリュームデータでは、フィルタリング効果により、
計測値から得られるボリュームデータに比べてばらつき
やゆらぎが抑制されるため、物体Aのボクセル値のヒス
トグラムは図2(a)に近づくことになり、ボクセル4
20が抽出されない可能性を著しく減少させる。
In the formation of a fluoroscopic image, the volume data used for ray casting is usually a measured value, and therefore inherent variations and fluctuations are inherent therein as described above, which lowers the contrast of the projected image. In the case where the voxel 420 of interest in FIG. 4 is the object A, the voxel value of the voxel 420 is as shown in FIG.
A regional portion of the histogram shown in, for example, if a value greater than v 2 is not extracted to outside from 310 range of conversion functions of Figure 3, opacity 0 is given a transparent body As a result, the image is not drawn on the perspective image by ray casting. In order to solve this problem, one aspect of the present invention is to perform the above-described filtering process on the volume data V (x, y, z) in advance when performing ray casting,
1 (x, y, z) is obtained, and the above-described ray casting is performed using the modified volume data. In the modified volume data, due to the filtering effect,
Since the variation and the fluctuation are suppressed as compared with the volume data obtained from the measured value, the histogram of the voxel value of the object A approaches that of FIG.
20 significantly reduces the likelihood of not being extracted.

【0039】なお、上述の実施の形態において、投影画
像を観察しながら、ボリュームデータのフィルタリング
を行う3次元近傍領域を可変したり、近傍領域の各ボク
セルの重みを可変するようにしても良い。
In the above-described embodiment, the three-dimensional neighboring area for filtering the volume data may be varied while observing the projected image, or the weight of each voxel of the neighboring area may be varied.

【0040】図5は、ボリュームデータ中の注目するボ
クセル値を有するボクセル群を抽出する変換関数の一例
を示している。図5において、510は物体100の内
部の物体Bのみを抽出する関数で、ボクセル値v2〜v3
を有するボクセルに存在点を判定するための判定値”
1”を与え、それ以外のボクセルには判定値”0”を与
える(図6参照)。ボリュームデータにこの変換を適用
することにより、物体Bのボクセル値を有するボクセル
が抽出できる。
FIG. 5 shows an example of a conversion function for extracting a voxel group having a voxel value of interest in volume data. 5, 510 is a function for extracting only an object B within the object 100, the voxel value v 2 to v 3
Judgment value for judging existence point in voxel having
1 is given, and the other voxels are given a judgment value “0” (see FIG. 6) By applying this conversion to the volume data, voxels having the voxel value of the object B can be extracted.

【0041】図6は、上記により抽出されたボクセル集
合から連続物体を抽出する手続きの一例を示している。
説明の便宜上、図6は2次元で図示している。図6にお
いて、610、620、630、640は例示した領域
における連続物体抽出手続きの過程を示し、610〜6
40において、記号600は抽出手続き開始点のボクセ
ルを示し、記号601は次の抽出手続きの継続点になる
ボクセルを示し、記号602は抽出手続き処理の終了し
たボクセルを示す。
FIG. 6 shows an example of a procedure for extracting a continuous object from the voxel set extracted as described above.
For convenience of explanation, FIG. 6 is shown in two dimensions. In FIG. 6, reference numerals 610, 620, 630, and 640 denote the steps of a continuous object extraction procedure in the illustrated region.
At 40, a symbol 600 indicates a voxel at the starting point of the extraction procedure, a symbol 601 indicates a voxel that is a continuation point of the next extraction procedure, and a symbol 602 indicates a voxel for which the extraction procedure processing has been completed.

【0042】いま、過程610において記号600で示
されるボクセル611から処理を開始する。連続物体の
抽出においては、現在抽出手続きを行っているボクセル
に3次元空間において面をもって接するボクセルの内か
ら、存在点を判定するための判定値”1”を有するボク
セルを次の抽出手続きの継続点とする。過程610にお
いては、先ず手続き開始点のボクセル611が判定値”
1”であることを確認して手続きが開始される。次に、
手続き開始点のボクセル611に面を持って接し、かつ
判定値”1”を有するボクセル613、615、617
が次の抽出手続きの継続点となり、記号601を付す
る。これにてボクセル611における手続きが終了した
のでボクセル611には記号602を付する。次に抽出
手続きの継続点となったボクセルについて順次、上記連
続物体の抽出手続きを行う。
Now, in step 610, processing is started from the voxel 611 indicated by the symbol 600. In the extraction of a continuous object, a voxel having a judgment value “1” for judging an existing point is selected from voxels that are in contact with a voxel currently being subjected to the extraction procedure with a surface in a three-dimensional space, and the next extraction procedure is continued. Point. In step 610, the voxel 611 at the start of the procedure first determines the judgment value "
After confirming that it is 1 ", the procedure starts.
Voxels 613, 615, and 617 that touch face-to-face with voxel 611 at the procedure start point and have determination value "1"
Is a continuation point of the next extraction procedure, and is denoted by a symbol 601. Thus, the procedure for the voxel 611 has been completed, and the symbol 602 is assigned to the voxel 611. Next, the continuous object extraction procedure is sequentially performed on the voxels that have become the continuation points of the extraction procedure.

【0043】過程620においてはボクセル613、6
15、617に対して手続きを行った結果、新たに次の
抽出手続きの継続点623、625、627が得られた
ことが示されている。ボクセル613、615、617
は手続きを終了したので記号602が付される。このよ
うにして過程630を経て、最終結果640を得る。6
40において記号602を付されたボクセルの集合が抽
出されたボクセル値Bを有する連続物体である。
In step 620, voxels 613 and 6
It is shown that, as a result of performing the procedures for Nos. 15 and 617, new continuation points 623, 625 and 627 of the next extraction procedure are newly obtained. Voxels 613, 615, 617
Is completed, the symbol 602 is added. Thus, the final result 640 is obtained through the step 630. 6
The set of voxels labeled 602 at 40 is a continuous object having an extracted voxel value B.

【0044】しかしながら、計測値から得られるボリュ
ームデータには固有のばらつきやゆらぎが内在し、前記
の図5における不透明度への変換関数を適用する段階で
物体B以外のボクセルが混入することになる。結果とし
て抽出される連続物体Bの形状情報に誤りを生ずること
になる。本発明は、上記連続物体の抽出を行う際に、ボ
リュームデータV(x,y,z)に予め前述したフィル
タリング処理を施し修正ボリュームデータV1(x,
y,z)を得、この修正ボリュームデータを利用して上
述の連続物体の抽出を行うものである。修正ボリューム
データでは、フィルタリング効果により、計測値から得
られるボリュームデータに比べてばらつきやゆらぎが抑
制されるため、抽出される連続物体の形状情報の精度を
著しく高めることができる。
However, the volume data obtained from the measured values has inherent variations and fluctuations, and voxels other than the object B are mixed in at the stage of applying the conversion function to opacity in FIG. . As a result, errors occur in the shape information of the continuous object B extracted. According to the present invention, when the continuous object is extracted, the volume data V (x, y, z) is subjected to the above-described filtering processing in advance, and the modified volume data V1 (x,
y, z), and the above-described continuous object is extracted using the modified volume data. In the modified volume data, the filtering effect suppresses variations and fluctuations as compared with the volume data obtained from the measured values, so that the accuracy of the shape information of the extracted continuous object can be significantly improved.

【0045】[0045]

【発明の効果】以上説明したように、この発明によれ
ば、ボリュームデータ中の特定のボクセル値を有するボ
クセルを識別することにより、物体内部の対象物体を識
別する物体認識方法において、前記ボリュームデータの
一のボクセルについて、該ボクセルの3次元近傍領域内
に位置する複数のボクセルの各ボクセル値の平均値を
得、該平均値により前記一のボクセルの修正ボクセル値
を得、前記ボリュームデータの各ボクセルの修正ボクセ
ル値からなる3次元データ配列により修正ボリュームデ
ータを得、該修正ボリュームデータを利用して物体内部
の対象物体を識別するため、平均値算出がもたらすフィ
ルタリング効果によりボリュームデータに内在するばら
つきやゆらぎを抑制することができることにより、物体
内部の注目するボクセル値を有する対象物体の識別の精
度を高めることができる。
As described above, according to the present invention, in the object recognition method for identifying a target object inside an object by identifying a voxel having a specific voxel value in the volume data, For one voxel, obtain an average value of each voxel value of a plurality of voxels located in a three-dimensional vicinity area of the voxel, obtain a corrected voxel value of the one voxel by the average value, and obtain each voxel value of the voxel. Corrected volume data is obtained from a three-dimensional data array composed of corrected voxel values of voxels, and the target object inside the object is identified using the corrected volume data. By suppressing fluctuations and fluctuations, it is possible to It is possible to improve the accuracy of the identification of the object with value.

【0046】更に本発明によれば、レイキャスティング
により物体内部の注目する対象物体の3次元構造の透視
画像を形成する物体認識方法において、予めボリューム
データに上記の処理を施して得られる修正ボリュームデ
ータを利用することにより、ボリュームデータに内在す
るばらつきやゆらぎを抑制することができるため、ボリ
ュームレンダリングにより物体内部の透視画像を形成す
る際に画像のコントラストを高めることができる。
According to the present invention, there is further provided an object recognition method for forming a perspective image of a three-dimensional structure of an object of interest inside an object by ray casting. Is used, it is possible to suppress variations and fluctuations inherent in the volume data. Therefore, when forming a perspective image inside the object by volume rendering, the contrast of the image can be increased.

【0047】更に本発明によれば、ボリュームデータ中
の注目するボクセル値を有するボクセル群を抽出するこ
とにより物体内部の特定の対象物体の形状情報抽出を行
う物体認識において、予めボリュームデータに上記の処
理を施して得られる修正ボリュームデータを利用するこ
とにより、ボリュームデータに内在するばらつきやゆら
ぎを抑制することができるため、ボリュームデータを用
いた物体内部の対象物体の形状情報抽出を行う際に抽出
情報の精度を高めることができる。
Furthermore, according to the present invention, in object recognition for extracting shape information of a specific target object inside an object by extracting a voxel group having a voxel value of interest from the volume data, By using the modified volume data obtained by performing the processing, it is possible to suppress the variation and fluctuation inherent in the volume data, so it is extracted when extracting the shape information of the target object inside the object using the volume data The accuracy of information can be improved.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施の形態に係わる、物体内部の物
体の識別を行う様子を示す図。
FIG. 1 is a diagram showing a state in which an object inside an object is identified according to an embodiment of the present invention.

【図2】物体内部の物体の識別に係わるボクセル値のヒ
ストグラムを示す図。
FIG. 2 is a diagram showing a histogram of voxel values related to identification of an object inside the object.

【図3】ボクセル値をレイキャスティングに係わる不透
明度に変換する変換関数を示す図。
FIG. 3 is a view showing a conversion function for converting voxel values into opacity related to ray casting.

【図4】本発明の一実施の形態に係わる、レイキャステ
ィングを行う様子を示す図。
FIG. 4 is a diagram showing a state of performing ray casting according to an embodiment of the present invention.

【図5】ボクセル値を物体内部の物体の抽出に係わる不
透明度に変換する変換関数を示す図。
FIG. 5 is a diagram showing a conversion function for converting voxel values into opacity related to extraction of an object inside the object.

【図6】本発明の一実施の形態に係わる、物体内部の連
続物体を抽出を行う様子を示す図。
FIG. 6 is a view showing a state of extracting a continuous object inside the object according to the embodiment of the present invention.

【符号の説明】[Explanation of symbols]

100 3次元物体 110 3次元物体の断面 111 ボクセル 113,115,117 3次元近傍の断面 210,220,230,240 ボクセル値のヒスト
グラム 310,320 変換関数 410,420,430 ボクセル 411,421,431 入射光線 413,423,433 反射光線 510 変換関数 610,620,630,640 ボリュームデータの
一領域 611,613,615,617,623,625,6
27 ボクセル
100 3D object 110 Cross section of 3D object 111 Voxel 113, 115, 117 Cross section near 3D 210, 220, 230, 240 Histogram of voxel values 310, 320 Conversion function 410, 420, 430 Voxel 411, 421, 431 Incident Rays 413, 423, 433 Reflected rays 510 Conversion function 610, 620, 630, 640 One area of volume data 611, 613, 615, 617, 623, 625, 6
27 Voxel

───────────────────────────────────────────────────── フロントページの続き (72)発明者 松本 和彦 東京都中野区新井町2丁目7番地2 ラフ ィーネメゾン中野B1 株式会社ザイオソ フトウエア内 Fターム(参考) 4C096 AB04 AB44 AD12 AD14 DA11 DA15 DC18 DC29 DC36 DC37 DC40 5B057 AA09 BA03 BA07 DA06 DB03 DC19 5B080 GA06 5L096 AA05 BA06 BA13 FA35 GA55 ────────────────────────────────────────────────── ─── Continuing on the front page (72) Inventor Kazuhiko Matsumoto 2-7-2 Araicho, Nakano-ku, Tokyo Raffine Maison Nakano B1 Zioso Software Co., Ltd. F-term (reference) 4C096 AB04 AB44 AD12 AD14 DA11 DA15 DC18 DC29 DC36 DC37 DC40 5B057 AA09 BA03 BA07 DA06 DB03 DC19 5B080 GA06 5L096 AA05 BA06 BA13 FA35 GA55

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 ボリュームデータ中の特定のボクセル値
を有するボクセルを識別することにより、物体内部の対
象物体を識別する物体認識方法において、 前記ボリュームデータの一のボクセルについて、該ボク
セルの3次元近傍領域内に位置する複数のボクセルの各
ボクセル値の平均値を得、該平均値により前記一のボク
セルの修正ボクセル値を得、前記ボリュームデータの各
ボクセルの修正ボクセル値からなる3次元データ配列に
より修正ボリュームデータを得、該修正ボリュームデー
タを利用して物体内部の対象物体を識別する物体認識方
法。
1. An object recognition method for identifying a target object inside an object by identifying a voxel having a specific voxel value in volume data, wherein one voxel of the volume data has a three-dimensional neighborhood of the voxel. An average value of each voxel value of a plurality of voxels located in the region is obtained, a corrected voxel value of the one voxel is obtained from the average value, and a three-dimensional data array including a corrected voxel value of each voxel of the volume data is obtained. An object recognition method for obtaining corrected volume data and identifying a target object inside the object using the corrected volume data.
【請求項2】 前記3次元近傍領域内に位置する複数の
ボクセルの各ボクセル値に対して所定の係数値により重
み付けを行うことにより該複数のボクセルのボクセル値
の加重平均値を得、前記平均値に代えて該加重平均値に
より前記修正ボクセル値を得る請求項1に記載の物体認
識方法。
2. A weighted average value of the voxel values of the plurality of voxels is obtained by weighting each voxel value of the plurality of voxels located in the three-dimensional neighborhood region with a predetermined coefficient value, and 2. The object recognition method according to claim 1, wherein the modified voxel value is obtained by the weighted average value instead of the value.
【請求項3】 前記ボリュームデータの各ボクセルのボ
クセル値をそれぞれ不透明度に変換することにより注目
する物体のボクセル値を有するボクセル群を抽出し、ボ
リュームレンダリングにより物体内部の対象物体の透視
画像を形成する物体認識方法において、 予めボリュームデータに請求項1又は請求項2に記載の
処理を施して得られる修正ボリュームデータを利用して
透視画像形成を行う物体認識方法。
3. A voxel group having a voxel value of an object of interest is extracted by converting voxel values of each voxel of the volume data into opacity, and a perspective image of a target object inside the object is formed by volume rendering. An object recognition method for forming a perspective image using corrected volume data obtained by subjecting volume data to the processing according to claim 1 or 2 in advance.
【請求項4】 前記3次元近傍領域内に位置する複数の
ボクセルの数及び前記係数値の少なくとも一方を、ボリ
ュームレンダリングにより形成する物体内部の物体の透
視画像に応じて可変する請求項3に記載の物体認識方
法。
4. The apparatus according to claim 3, wherein at least one of the number of voxels located in the three-dimensional neighborhood and the coefficient value is changed according to a perspective image of an object inside the object formed by volume rendering. Object recognition method.
【請求項5】 ボリュームデータ中の特定のボクセル値
を有するボクセル群を抽出することにより物体内部の特
定の物体の形状情報抽出を行う物体認識において、 予めボリュームデータに請求項1又は請求項2に記載の
処理を施して得られる修正ボリュームデータを利用して
物体の形状情報抽出を行う物体認識方法。
5. An object recognition method for extracting shape information of a specific object inside an object by extracting a voxel group having a specific voxel value from the volume data, wherein the volume data is previously stored in the volume data. An object recognition method for extracting shape information of an object using modified volume data obtained by performing the described processing.
JP2000028292A 2000-02-04 2000-02-04 Object recognition method Pending JP2001216517A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000028292A JP2001216517A (en) 2000-02-04 2000-02-04 Object recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000028292A JP2001216517A (en) 2000-02-04 2000-02-04 Object recognition method

Publications (1)

Publication Number Publication Date
JP2001216517A true JP2001216517A (en) 2001-08-10

Family

ID=18553723

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000028292A Pending JP2001216517A (en) 2000-02-04 2000-02-04 Object recognition method

Country Status (1)

Country Link
JP (1) JP2001216517A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004215846A (en) * 2003-01-14 2004-08-05 Ziosoft Inc Method and device for volume rendering image processing and program therefor
JP2005131287A (en) * 2003-10-31 2005-05-26 Toshiba Corp Radiation ct equipment, image processing equipment and image processing method
JP2007522826A (en) * 2004-02-18 2007-08-16 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Volume visualization method using tissue mixing
JP2009518143A (en) * 2005-12-09 2009-05-07 ブラウン ユニバーシティ Method and apparatus for identifying an object of interest in display data
JP2010530777A (en) * 2007-06-22 2010-09-16 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ System and method for labeling a three-dimensional volume image on a two-dimensional display of an ultrasound imaging system
JP2013039344A (en) * 2011-08-15 2013-02-28 Toshiba Corp Apparatus and method for medical image processing and program for detecting abnormality
JP6443574B1 (en) * 2018-03-20 2018-12-26 大日本印刷株式会社 Ray casting program, search control data, search control data generation method, and ray casting apparatus

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004215846A (en) * 2003-01-14 2004-08-05 Ziosoft Inc Method and device for volume rendering image processing and program therefor
JP4653938B2 (en) * 2003-01-14 2011-03-16 ザイオソフト株式会社 Volume rendering image processing method, volume rendering image processing apparatus, and program
JP2005131287A (en) * 2003-10-31 2005-05-26 Toshiba Corp Radiation ct equipment, image processing equipment and image processing method
JP4559723B2 (en) * 2003-10-31 2010-10-13 株式会社東芝 Radiation CT apparatus, image processing apparatus, and image processing method
JP2007522826A (en) * 2004-02-18 2007-08-16 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Volume visualization method using tissue mixing
JP2009518143A (en) * 2005-12-09 2009-05-07 ブラウン ユニバーシティ Method and apparatus for identifying an object of interest in display data
JP2010530777A (en) * 2007-06-22 2010-09-16 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ System and method for labeling a three-dimensional volume image on a two-dimensional display of an ultrasound imaging system
JP2013039344A (en) * 2011-08-15 2013-02-28 Toshiba Corp Apparatus and method for medical image processing and program for detecting abnormality
JP6443574B1 (en) * 2018-03-20 2018-12-26 大日本印刷株式会社 Ray casting program, search control data, search control data generation method, and ray casting apparatus

Similar Documents

Publication Publication Date Title
EP0760624B1 (en) Automated detection of lesions in computed tomography
JP5260892B2 (en) Method of processing radiographic images in tomosynthesis for detection of radiological signs
US8233692B2 (en) Method of suppressing obscuring features in an image
US7564998B2 (en) Image processing apparatus and method, and program
US6983063B1 (en) Computer-aided diagnosis method for aiding diagnosis of three dimensional digital image data
CN111340827A (en) Lung CT image data processing and analyzing method and system
JPH1156828A (en) Abnormal shadow candidate detecting method and its device
JPH09167238A (en) Abnormal shadow detection method
CN111415404B (en) Positioning method and device for intraoperative preset area, storage medium and electronic equipment
Mayer et al. Hybrid segmentation and virtual bronchoscopy based on CT images1
EP3971830B1 (en) Pneumonia sign segmentation method and apparatus, medium and electronic device
JP2004174241A (en) Image forming method
EP2052363A2 (en) A method, apparatus, graphical user interface, computer-readable medium, and use for quantification of a structure in an object of an image dataset
CN111899850A (en) Medical image information processing method, display method and readable storage medium
CN111563876A (en) Medical image acquisition method and display method
Ropinski et al. Multimodal vessel visualization of mouse aorta PET/CT scans
JP2001216517A (en) Object recognition method
CN116580037B (en) Nasopharyngeal carcinoma image segmentation method and system based on deep learning
CN109087357A (en) Scan orientation method, apparatus, computer equipment and computer readable storage medium
JP2000350722A (en) Arrangement of notable elements of organs and three- dimensional expression method thereof
CN108876783B (en) Image fusion method and system, medical equipment and image fusion terminal
CN112137693B (en) Imaging method and device for four-dimensional ultrasonic guided puncture
US20040171931A1 (en) Method to produce a volume data set
WO2021081839A1 (en) Vrds 4d-based method for analysis of condition of patient, and related products
CN111563877A (en) Medical image generation method and device, display method and storage medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20031219

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20060425

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060810

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060816

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060929

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070829