WO2005009240A1 - 画像処理方法及び画像処理プログラムを記録したコンピュータ読取可能な記録媒体 - Google Patents

画像処理方法及び画像処理プログラムを記録したコンピュータ読取可能な記録媒体 Download PDF

Info

Publication number
WO2005009240A1
WO2005009240A1 PCT/JP2004/010618 JP2004010618W WO2005009240A1 WO 2005009240 A1 WO2005009240 A1 WO 2005009240A1 JP 2004010618 W JP2004010618 W JP 2004010618W WO 2005009240 A1 WO2005009240 A1 WO 2005009240A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
dimensional
value
voxel
image processing
Prior art date
Application number
PCT/JP2004/010618
Other languages
English (en)
French (fr)
Other versions
WO2005009240A9 (ja
Inventor
Hitoshi Tsunashima
Ayuta Yamada
Hozumi Kanari
Yoshinori Arai
Original Assignee
Nihon University
Matsumoto Dental University
J. Morita Manufacturing Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nihon University, Matsumoto Dental University, J. Morita Manufacturing Corporation filed Critical Nihon University
Priority to EP04770929A priority Critical patent/EP1649810A4/en
Priority to US10/565,895 priority patent/US7460700B2/en
Publication of WO2005009240A1 publication Critical patent/WO2005009240A1/ja
Publication of WO2005009240A9 publication Critical patent/WO2005009240A9/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/94Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/30Noise filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • G06T2207/20012Locally adaptive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30036Dental; Teeth

Definitions

  • the present invention relates to an image processing method and a computer readable recording medium recording an image processing program.
  • CT Computer Tomography
  • MRI Magnetic
  • a three-dimensional projection data (FIG. 1 (B)) is cut out into a two-dimensional image from multiple directions centered on the Z axis (FIG. C)).
  • Image segmentation is the reverse algorithm to the method of layering tomographic images.
  • moving average processing is performed to include noise reduction processing that is not simply cut out at a spatial resolution of 0.125 (one button cell), and an image of a woman is obtained by averaging the values of eight images in the depth direction. Cut out the image to be
  • volume data of collected coordinates is divided along a plane defined based on a predetermined gaze direction.
  • a technique of generating slice data for generating a plurality of slice data, obtaining an intermediate image corresponding to each of the plurality of slice planes, and generating a display image by cumulatively adding the intermediate images Japanese Patent Laid-Open No. 2003- 65956).
  • the present invention has been made in view of the above problems, and it is an image capable of rapidly generating a clear image using original image data obtained from CT without estimating the defect portion. It is an object of the present invention to provide a computer readable recording medium in which a processing method and an image processing program are recorded.
  • the present invention adopts means for solving the problems having the following features.
  • the invention described in claim 1 is an image processing method for correcting the value of three-dimensional CT data obtained from a three-dimensional object, further comprising the three-dimensional object obtained from the three-dimensional object.
  • An average value calculation procedure for finding an average value of a three-dimensional CT data block consisting of three-dimensional CT data of an elephant and a plurality of three-dimensional CT data around the three-dimensional CT data to be corrected It is an image processing method characterized by having a correction procedure which corrects a value of said three-dimensional CT data using a threshold value and an average value obtained by said average value calculation procedure.
  • the invention recited in claim 5 is an image processing method for processing three-dimensional CT data obtained from a three-dimensional object, and focusing on the three-dimensional CT data as a starting point.
  • the integration value calculation procedure for calculating the integration value of a predetermined number of continuous three-dimensional CT data starting from the three-dimensional CT data of interest for each of a plurality of directions to be calculated
  • the integrated value is greater than the threshold value by comparing the sum calculation procedure for obtaining the sum of the upper predetermined number of integrated values among the integrated values with the predetermined threshold value and the integrated value integrated in the above-mentioned sum calculation procedure.
  • the image processing method is characterized by having a determination procedure of determining that the three-dimensional CT data in question is to be processed data, and a determination procedure.
  • the invention recited in claim 7 relates to an image processing method for processing three-dimensional CT data obtained from a three-dimensional object, focusing attention on the three-dimensional CT data as a starting point.
  • the integration value calculation procedure for calculating the integration value of a predetermined number of continuous three-dimensional CT data starting from the three-dimensional CT data of interest for each of a plurality of directions to be calculated Among the integrated values, a sum calculation procedure for obtaining the sum of the upper predetermined number of integrated values and the lower predetermined number of integrated values, and the 3-dimensional CT data being focused on, the sum of the upper predetermined number of integrated values and the lower
  • the correction procedure to be corrected, the 3D CT data value corrected in the correction procedure and the predetermined threshold value are compared, and the corrected 3D CT data value is If it is larger than the threshold value, the 3D CT data in focus is taken as the data to be processed.
  • the image processing method characterized by having a determining procedure that.
  • the invention recited in claim 8 is a computer-readable recording medium recording an image processing program that causes a computer to execute the image processing method recited in any one of claims 1 to 7.
  • an image for correcting the value of three-dimensional CT data obtained from a three-dimensional object In the processing, an image processing method and computer readable recording medium recording an image processing program capable of generating a clear image at high speed using original image data obtained from CT without estimating a defective portion can be provided.
  • FIG. 1 is a view for explaining an outline of processing of a conventional image processing method.
  • FIG. 3 is a view for explaining an example of a 3DX device to which the present invention is applied.
  • FIG. 4 is a diagram for explaining three-dimensional projection data.
  • FIG. 5 is a diagram for explaining a histogram emphasis method.
  • FIG. 6 is a diagram for explaining neighboring pixels.
  • FIG. 7 A diagram for comparison of discrimination processing.
  • FIG. 9 This is an image when density correction is performed by the conventional method.
  • FIG. 10 is an image when density correction is performed by the method of the present embodiment.
  • FIG. 11 is a diagram (part 1) for explaining the direction of [26].
  • FIG. 12 is a diagram (part 2) for explaining the direction of [26].
  • FIG. 13 is a processing flow of an image processing method for correcting the value of 3D CT data obtained from a 3D object.
  • FIG. 14 This is a processing flow for determining whether or not the three-dimensional CT data of interest is to be processed data in the three-dimensional CT data obtained from the three-dimensional object.
  • FIG. 3 shows an example of a 3DX apparatus (three-dimensional X-ray CT apparatus) to which the present invention is applied.
  • the imaging device 1 is a 3DX device, and includes a radiation (X-ray) source 11, a detector 12, an analog-digital converter 13, and a general-purpose computer 14.
  • the radiation source 11 emits radiation (X-ray), and the radiation emitted from the radiation source 11 is irradiated to the imaging target 21. Radiation from the radiation source 11 passes through the imaging object 21 and is incident on a detector (image 'intensifier) 12.
  • the detector 12 outputs a detection signal according to the intensity of the incident radiation.
  • the general-purpose computer 14 has a data processing unit 141 and a storage unit 142.
  • the storage unit 142 stores an image processing program that causes the computer to execute an image processing method.
  • the data processing unit 141 performs data processing on data obtained from the analog-to-digital converter 13 based on an image processing program.
  • An image processing program recorded on a recording medium such as a CD_ROM, a CD-R, an FDD, etc. may be installed in the storage unit 142.
  • the processing of the analog-to-digital converter 13 may be performed by the data processing unit 141 of the general-purpose computer 14. In that case, the analog-to-digital converter 13 is missing.
  • the radiation source 11 and the detector 12 are disposed to face each other with the imaging target 21 in between, and are rotated 360 degrees around one Z-axis (a vertical line passing through the center of the object). A total of 512 pieces of projection data are collected from.
  • a detection signal (analog signal) detected by the detector 12 is supplied to an analog-to-digital converter 13 and converted into digital data.
  • the data converted into digital data by the analog-digital converter 13 is supplied to the general-purpose computer 14 and subjected to image processing, whereby three-dimensional data of the imaging target 21 can be obtained.
  • the three-dimensional projection data obtained by the 3DX apparatus has a height 4 as shown in FIG. 4 (B). It has a cylindrical imaging area of O mm, diameter of 30 mm and diameter of 30 mm. Also, as shown in Fig. 4 (A) and described in Fig. 4 (A), 1 Bota cenole is 0.125 X 0. 125 X 0. 125, so the cylindrical image shown in Fig. 4 (B) is , 240 ⁇ ⁇ ⁇ (320/2) 2 has a botacell. (Density correction)
  • the histogram enhancement method applies the following equation (6) to the image and, as shown in FIG. 5 (B), It emphasizes only the histogram in the ab interval.
  • Pixel indicates an input pixel value before correction
  • Pixel indicates an output pixel value after correction
  • a concentration value interval (a, b) containing many contours of the temporomandibular joint is found, and then the concentration value a b is remapped to the concentration value c d to perform partial emphasis.
  • this method corrects all pixels using the same processing parameters (a, b, c, d) for all pixels, it is difficult to effectively remove all noise.
  • Met For example, in the case of FIG. 9 in which the image of FIG. 8 is subjected to density correction by this method, the lower half of the image has an overall low density value (dark image) and the upper half has a high density value (bright image) distribution. Is shown. This means that the density value of the noise component in the upper half of the image is different from the density value of the noise component in the upper half of the image, and the noise components distributed in both areas with different density values are the same. It is difficult to remove with processing parameters ( a , b, c, d).
  • this linear density conversion can improve the contrast and reduce the noise, it focuses only on the histogram of the entire image and does not include the position information of the object in the image.
  • the simple linear density conversion processing has a large trade-off with respect to the noise component of the object and there is a limit to noise removal. Therefore, adaptive density conversion was performed to adaptively change the parameter according to each pixel on the three-dimensional projection data while considering the position information.
  • the density correction method according to the present embodiment uses the same processing parameters for all areas of the image, and thus effectively removes noise components by adaptively changing the processing parameters for each pixel. .
  • the optimum threshold Thr is not limited to this, and can be set arbitrarily.
  • the value of ⁇ was set to 21 and the average pixel value in the vicinity of 21 ⁇ 21 ⁇ 21 of the pixel of interest (Voxel (x, y, z)) was calculated.
  • Other values such as 27 may be used as N.
  • this neighborhood average value is calculated independently for each pixel, and the following correction processing is performed.
  • Voxel Voxel (x, y, z)-Thr (Thr> A) ⁇ ⁇ ⁇ (8)
  • Voxel Voxel (x, y, z) -A (Thr ⁇ A) (9)
  • Voxel denotes the output pixel value after correction.
  • a threshold value Thr for generating a correction value from the average pixel value A is set.
  • an optimal value is set in advance based on past data. Also, set kl every time.
  • Voxel Voxel – C ⁇ ⁇ ⁇ (12)
  • Voxel indicates the input pixel value before correction, and Voxel indicates the output pixel value after correction.
  • Voxel indicates the input pixel value before correction
  • Voxel indicates the output pixel value after correction. In this case, in out
  • Density values are corrected in the direction of increase (the image becomes brighter).
  • This processing can reduce the variation in the position of the density value distribution of the noise component by discriminating the information of the whole image and the information on the position of the local region (in this case, the average value). It is.
  • FIG. 10 shows the density corrected by the present method.
  • the neighborhood average value of the close part is a value lower than the optimal threshold value by the discriminant analysis method. For this reason, the processing is performed using information obtained from the density distribution of the entire three-dimensional projection data, and it has been possible to efficiently remove the constant density value region constantly present in the three-dimensional projection data.
  • the present method is a method of adaptively processing while comparing information of the entire three-dimensional image with a local region centered on the focus point of the image.
  • the low density part of the entire image is converted at a constant value
  • the high density part is converted with a variable strongly dependent on the peripheral information of the target point, and the entire image is subjective. It has become possible to convert to
  • the direction from the 3D CT data point of interest can be implemented without being limited to this.
  • it may be the direction of the center of each face of a regular polygon.
  • addition or deletion of the direction may be performed.
  • the number of line integrals is not limited to four and can be implemented.
  • the sum of the values in the top eight directions may be calculated and used.
  • this pixel is regarded as the information of the object and the image is output.
  • the threshold is set based on the maximum value F of 5].
  • the threshold value Thr is determined by the following equation.
  • the edge is sharpened by this method.
  • the difference between “average of values in upper eight directions” and “average of values in lower eight directions” is determined.
  • the correction may be made based on the difference, and if the corrected value is larger than a predetermined value, it may be recognized as the boundary surface.
  • the average value of the values in the upper eight directions is F8max
  • the average value of the values in the lower eight directions is F8min
  • the value Voxel of the three-dimensional CT data point of interest is corrected according to the difference. Based on the magnitude of the correction value, it is judged whether or not it is regarded as the information of the object.
  • the sum of the values in the eight directions may be divided by eight. If the divisor can be regarded as fixed, the sum of the values in the eight directions can be used as the average value.
  • the present invention is not limited to this, and for example, the sum of the values in eight directions may be calculated and the sum may be used.
  • the present method is a process of extracting feature points from an area of 9 ⁇ 9 ⁇ 9 centered on a point of interest 4voxel in each direction.
  • processing all data in the 9 ⁇ 9 ⁇ 9 region and extracting feature points in a large amount of computation is required, and there is a problem in processing time.
  • the line integrals of vectors in the 26 directions from the point of interest are obtained and sorted (sorted) to extract feature points, and it is possible to calculate very efficiently.
  • FIG. 13 shows a processing flow of an image processing method for correcting the value of 3D CT data obtained from a 3D object.
  • three-dimensional CT data is acquired by rotating the three-dimensional object one rotation around a predetermined axis (S10).
  • a threshold used for generating a correction value is set (S 11).
  • a threshold is set based on, for example, an automatic threshold value selection method based on the least-squares criterion proposed by Otsu or equation (10).
  • an average value of three-dimensional CT data to be corrected and a plurality of three-dimensional CT data around the three-dimensional CT data to be corrected and a three-dimensional CT data block that also becomes force is determined (S 12).
  • the average value A of the neighboring pixels is calculated for each pixel using the equation (7).
  • the threshold value set in the threshold value setting procedure and the average value obtained in the average value calculation procedure And correct the value of the three-dimensional CT data (S13).
  • Equation (1) and Equation (2), Equation (3), Equation (4) and Equation (5) The correction of the values of the three-dimensional CT data is performed based on Equation (1) and Equation (2), Equation (3), Equation (4) and Equation (5).
  • FIG. 14 shows three-dimensional images of three-dimensional CT data obtained from three-dimensional objects.
  • a processing flow for determining whether or not CT data is to be processed is shown.
  • a total of 512 pieces of projection data are collected from the direction of 360 degrees by rotating the three-dimensional object one turn around a predetermined axis (S20).
  • a plurality of directions starting from the three-dimensional CT data of interest are set. For example, from the three-dimensional CT data point of interest, the processing direction of the 26 directions shown in FIGS. 11 and 12 is set (S21).
  • the integrated value of a predetermined number of continuous three-dimensional CT data is calculated starting from the focused three-dimensional CT data for each of a plurality of directions. For example, 4 V0 X el is tracked in each direction, and pixel values are added (line integration) (S22). The sum in the 26 directions f [0]-£ 25] is calculated.
  • step S24 it is determined whether or not three-dimensional CT data to be focused on is to be processed data (S24). For example, the average value calculated in step S23 is compared with a predetermined threshold, and if it is larger than a predetermined threshold, the focused three-dimensional CT data is used as the data to be processed.
  • An image is output using the corrected three-dimensional CT data (S 25).
  • the difference between “average of values in upper 8 directions” and “average of values in lower 8 directions” is determined, corrected based on the difference, and the corrected value is larger than a predetermined value.
  • a total of 512 pieces of projection data are collected from the direction of 360 degrees by rotating the three-dimensional object one turn around a predetermined axis (S30).
  • a plurality of directions starting from the three-dimensional CT data of interest are set. For example, from the three-dimensional CT data points of interest, the processing directions in the 26 directions shown in FIG. 11 and FIG. Is set (S31).
  • an integrated value of continuous three-dimensional CT data of a predetermined constant starting from the three-dimensional CT data of interest is calculated for each of a plurality of directions. For example, 4 V 0 X e 1 is tracked in each direction, and pixel values are added (line integral) (S 32). An additional value of 26 directions £ 0]-ft 25] is calculated.
  • An image is output using the corrected three-dimensional CT data (S 36).
  • noise can be reduced effectively by performing discrimination processing using the optimal threshold value of the entire image and the pixel average value in the local region at the time of density conversion. there were.
  • noise removal in a close part such as a joint cavity is remarkable.
  • processing is performed without conversion into two-dimensional data using original image data obtained from CT, so high-speed processing is possible.
  • the present invention is applicable to small-area X-ray CT apparatuses and the like for dental and head and neck.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Image Analysis (AREA)

Abstract

 3次元対象物から得られた3次元CTデータの値を補正する画像処理方法であって、前記3次元対象物から得られた3次元CTデータから、補正値を生成するために用いられる閾値を設定する閾値設定手順と、補正対象の3次元CTデータと補正対象の3次元CTデータの周辺の複数の3次元CTデータとからなる3次元CTデータブロックの平均値を求める平均値算出手順と、前記閾値設定手順で設定された閾値と前記平均値算出手順で求められた平均値とを用いて、前記3次元CTデータの値を補正する補正手順と、を有する画像処理方法である。

Description

明 細 書
画像処理方法及び画像処理プログラムを記録したコンピュータ読取可能 な記録媒体
技術分野
[0001] 本発明は、画像処理方法及び画像処理プログラムを記録したコンピュータ読取可 能な記録媒体に関する。
背景技術
[0002] 医科領域においては CT (Computed Tomography)や MRI (Magnetic
Resonance Imaging)から得られた断層画像を用いた診断が一般的となっている。さら に近年のコンピュータハードウェア技術の発展により、これら断層画像から 3次元画 像を作成することが容易となり、患部の位置や形状のより正確で客観的な把握が可 能となった。また、最近では 3次元画像を用いた骨片の切断、合成シミュレーションや 皮切開部位の距離計測など多くの研究が行われている。
[0003] 歯科領域においては、これまで医科用 CTを流用してきたが装置の規模、画像の解 像度などの点から歯科に最適化されているとは言えなかった。
[0004] これに対し、 日本大学歯学部放射線学教室において新井ら力 3DX (3DX Multi Image Micro CT)を開発した(次の文献参照。)。
[0005] -Arai Y、
Honda K、 Iwai Κ et ai : Practical Model 3DX of Limited し one—Beam
X-ray CT for Dental Use. CARS2001 : 2001、 pp.671- 675
•小照射野 X線 CTの実験機" 3DX
Multi Image Micro CT"の基本性能、 歯科放射.2000;40(2)、 2000、 pp.145-154 この 3DX装置は、撮影領域が局所的であることや装置自体が X線照射線量を低く 抑えていることから、 3DX装置全体で X線被曝線量が低減されている。撮影領域の 濃度範囲は 256階調で表現されるよう量子化されている。この 3DX装置により得られ た 3次元投影データは従来の CTデータと比較して高い解像度を有し、任意方向から の断層像を 3次元的に表示することが可能であり、これまで困難であった顎骨や内耳 の硬組織の微細な観察が可能である。これにより耳鼻科および歯科領域の硬組織診 断での有効性が確認されてレ、る。
[0006] この 3DX装置を用いて、発明者らは、これまでに、 3DXから得られた 3次元投影デ ータを Z軸(対象物の中心を通る鉛直線)を中心に多方向から 2次元画像上に展開 することにより断層像を作製し、そこでノイズ低減、対象物の輪郭抽出を行った後、 3 次元上に再配列を行う方法を考案した。これは 3DXから得られるデータが 3次元上 のボタセルデータであることに着目した手法である。
[0007] 以下、図 1を用いて、その処理概要を説明する。
(画像の切り出し)
まず、図 1 (A)に示されている 3DX装置を用いて、 3次元投影データ(図 1 (B) )に 対して、 Z軸を中心に多方向から 2次元画像に切り出す(図 1 (C) )。画像の切り出し は断層像を積層する方法に対し逆のアルゴリズムである。ここで、単純に空間分解能 である 0. 125(1ボタセル)間隔で切り出すのではなぐノイズ低減処理を含めるため に移動平均処理を行い、切り出す深度方向に 8枚の画像の平均値で 女の画像とな るよう画像を切り出す。
(2次元画像処理)
次に、得られた原画像からノイズを除去する。単なる 2値化処理では対象物を正確 に抽出することが困難であるため、以下で述べる処理を行い、 2値化輪郭画像を得る (図 1 (D) )。
(1)濃度変換によるコントラスト調整
(2)ガウシアンフィルターを用いた輪郭検出
(3) 2値化
(4)細線化処理による輪郭抽出
(3次元画像の再構築)
得られた輪郭画像を 2次元上に画像を切り出す際とは逆に、切り出した順番に各方 向毎に積層させ 3次元上に再配列を行い、方向毎に構築した 3次元画像を 3次元上 において合成する(図 1 (E) )。この際、各方向によって抽出される対象物領域が異な るため、欠落している対象物の輪郭情報も他方向からの処理画像によって補間する こと力 Sできる。
(多軸切り出し)
なお、図 1 (C)のように、 3次元投影データを Z軸を中心に 2次元画像に切り出す以 外に、図 2に示す正四面体 (A)、正六面体 (B)、正八面体 (C)、正一二面体 (D)、正 二十面体(E)の正多面体の各面の中心と正多面体の中心を結ぶ線を軸として 2次元 画像に切り出すようにしてもよい。
[0008] この 3DX装置を用いて、これまでに 5000症例の画像診断を行レ、、その有効性が 確認されている。一方歯科医療も高度化により 3次元画像を用いた診断が要求され ている。 3DXから得られる画像は高解像度であるためにノイズが多ぐ一般に骨領域 の抽出に用いられている 2値化処理では対象物表面が欠落し、良好な 3次元画像を 得ることができなかった。欠落、切断された輪郭線を修復する手法としては欠損部分 または離散点の曲率を用いて滑らかに補間する方法や人間の視覚構造、主観的評 価をもとに輪郭を検出する方法、ハフ変換を用いた補間方法などが提案されている。 また歯科領域においては最適化に基づいたトレース図の生成方法について報告さ れている。
[0009] また、少ないデータ量にて高画質な 3次元画像を生成する超音波診断装置におい て、収集座標のボリュームデータを所定の視線方向に基づいて定義される面に沿つ て分割し、複数のスライスデータを生成するスライスデータ生成し、複数のスライス面 それぞれに対応する中間画像を求め、その中間画像を累積加算することにより表示 画像を生成する技術も知られている(特開 2003—61956号公報参照。)。
[0010] ところで、上記したこれらの手法は滑らかな連続線を検出することが可能であり有効 性が確認されているが、いずれも欠損部分を何らかの方法により推定し、人工的な線 でネ甫間するものである。
[0011] そこで、発明者らはこれまでにノイズを多く含んだ CTデータから対象物を抽出する 新しい手法を考案し、これまでにその有効性について基本的な検討を、次に示す文 献で発表した。
[0012] ·別府嗣信、綱島均、新井嘉則:〇rtho-CTを用いた 3次元モデル構築に関する研 究、 電子情報通信学会技術研究報告 MI2000-75、 2001、 pp.145-149 •綱島均、別府嗣信、新井嘉則:立体画像構成法(特願 2000-358420)、 2000 •Befu Tsunashima
H、 Aral Y: A study m hree-dimensional Image
Processing Method for 3DX Multi Image Micro CT. CARS2001: 2001、 pp.665- 670 •綱島均、別府嗣信、山田鮎太、新井嘉則:歯科用小型 X線 CTにおける 3次元画 像構築法、 Med. Imag. Tech. 21:157-165、 2003
また、医用画像処理装置において、画像再構成されたデータに対して後補正処理 としてマトリックスフィルタをかける際にその画像に適するマトリックスフィルタを自動的 に選択して後補正処理する技術が知られている(特開平 7-385号公報参照。)。 発明の開示
発明が解決しょうとする課題
[0013] し力 ながら、特開平 7—385号公報に記載された発明は、予め、画像に対応した マトリックスフィルタを用意する必要がある。したがって、特殊な画像の場合は、その 画像のために別途、マトリックスフィルタを作成し用意する必要があるという問題があ る。
[0014] また、有効性について基本的な検討を行った上述の文献において、構築した 3次 元画像を検討した結果、切り出し回転中心から外周方向に向かって画像が膨張して レ、ることが確認され、対象物の寸法の再現に問題があることがわかった。
[0015] 本発明は、上記問題に鑑みなされたものであり、欠損部分の推定を行わず、 CTか ら得られる原画像データを用いて、鮮明な画像を高速に生成することが可能な画像 処理方法及び画像処理プログラムを記録したコンピュータ読取可能な記録媒体を提 供することを目的とするものである。
課題を解決するための手段
[0016] 上記課題を解決するために、本件発明は、以下の特徴を有する課題を解決するた めの手段を採用している。
[0017] 請求項 1に記載された発明は、 3次元対象物から得られた 3次元 CTデータの値を 補正する画像処理方法にぉレ、て、前記 3次元対象物から得られた 3次元 CTデータ から、補正値を生成するために用いられる閾値を設定する閾値設定手順と、補正対 象の 3次元 CTデータと補正対象の 3次元 CTデータの周辺の複数の 3次元 CTデー タとからなる 3次元 CTデータブロックの平均値を求める平均値算出手順と、前記閾値 設定手順で設定された閾値と前記平均値算出手順で求められた平均値とを用いて、 前記 3次元 CTデータの値を補正する補正手順とを有することを特徴とする画像処理 方法である。
[0018] 請求項 5に記載された発明は、 3次元対象物から得られた 3次元 CTデータを処理 する画像処理方法にぉレ、て、注目してレ、る 3次元 CTデータを起点とする複数の方向 毎に、注目している 3次元 CTデータを起点として連続した所定数の 3次元 CTデータ の積算値を算出する積算値算出手順と、前記算出手順で算出された方向毎に求め た積算値の内、上位所定数の積算値の和を求める和算出手順と、所定の閾値と前 記和算出手順で積算された積算値とを比較して、前記積算値が前記閾値より大きい 場合に、注目している 3次元 CTデータを処理対象のデータとすることを判定する判 定手順と、判定手順とを有することを特徴とする画像処理方法である。
[0019] 請求項 7に記載された発明は、 3次元対象物から得られた 3次元 CTデータを処理 する画像処理方法にぉレ、て、注目してレ、る 3次元 CTデータを起点とする複数の方向 毎に、注目している 3次元 CTデータを起点として連続した所定数の 3次元 CTデータ の積算値を算出する積算値算出手順と、前記算出手順で算出された方向毎に求め た積算値の内、上位所定数の積算値の和及び下位所定数の積算値の和を求める和 算出手順と、注目している 3次元 CTデータを、上位所定数の積算値の和及び下位 所定数の積算値の和に基づいて、補正する補正手順と、前記補正手順で補正され た 3次元 CTデータ値と所定の閾値とを比較して、前記補正された 3次元 CTデータ値 が前記閾値より大きい場合に、注目している 3次元 CTデータを処理対象のデータと することを判定する判定手順とを有することを特徴とする画像処理方法である。
[0020] 請求項 8に記載された発明は、請求 1ないし 7記載の画像処理方法をコンピュータ に実行させる画像処理プログラムを記録したコンピュータ読取可能な記録媒体である 発明の効果
[0021] 本発明によれば、 3次元対象物から得られた 3次元 CTデータの値を補正する画像 処理において、欠損部分の推定を行わず、 CTから得られる原画像データを用いて、 鮮明な画像を高速に生成することが可能な画像処理方法及び画像処理プログラムを 記録したコンピュータ読取可能な記録媒体を提供するこができる。
図面の簡単な説明
[0022] [図 1]従来の画像処理方法の処理概要を説明するための図である。
[図 2]正多面体である。
[図 3]本発明が適用される 3DX装置の例を説明するための図である。
[図 4]3次元投影データを説明するための図である。
[図 5]ヒストグラム強調法を説明するための図である。
[図 6]近傍画素を説明するための図である。
[図 7]判別処理の比較のための図である。
[図 8]原画像である。
[図 9]従来の方法によって、濃度補正をした場合の画像である。
[図 10]本実施の形態の方法によって、濃度補正をした場合の画像である。
[図 11]26の方向を説明するための図(その 1)である。
[図 12]26の方向を説明するための図(その 2)である。
[図 13]3次元対象物から得られた 3次元 CTデータの値を補正する画像処理方法の 処理フローである。
[図 14]3次元対象物から得られた 3次元 CTデータにおいて、注目している 3次元 CT データを処理対象のデータとするか否かを決定する処理フローである。
[図 15]「上 8方向の値の平均」と「下 8方向の値の平均」の差を求めて、その差に基づ いて補正して、補正した値が所定の値より大きい場合に、境界面として認定する方法 の処理フローである。 符号の説明
[0023] 1 3DX装置
11 放射線源
12 検知器
13 アナログ一ディジタル変換器 14 汎用コンピュータ
21
発明を実施するための最良の形態
[0024] 次に、本発明の実施の形態について図面と共に説明する。
[0025] 図 3に、本発明が適用される 3DX装置(3次元 X線 CT装置)の例を示す。
[0026] 撮像装置 1は、 3DX装置であり、放射線 (X線)源 11、検知器 12、アナ口グーデイジ タル変換器 13、汎用コンピュータ 14から構成されている。放射線源 11は、放射線 (X 線)を出射しており、放射線源 11から出射された放射線は、撮像対象 21に照射され る。放射線源 11からの放射線は、撮像対象 21を透過して検知器 (イメージ 'インテン シファイア) 12に入射される。検知器 12は、入射された放射線の強度に応じた検知 信号を出力する。
[0027] なお、汎用コンピュータ 14は、データ処理部 141と記憶部 142とを有し、記憶部 14 2には、画像処理方法をコンピュータに実行させる画像処理プログラムが記憶されて いる。データ処理部 141は、アナログ一ディジタル変換器 13から得たデータを画像処 理プログラムに基づいてデータ処理を行う。なお、 CD_ROM、 CD-R, FDD等の記 録媒体に記録された画像処理プログラムを、記憶部 142にインストールするようにし てもよい。
[0028] また、アナログ—ディジタル変換器 13の処理を、汎用コンピュータ 14のデータ処理 部 141が行うようにしてもよい。その場合は、アナログ一ディジタル変換器 13が無くて ちょい。
[0029] 放射線源 11と検知器 12とは撮像対象 21を挟んで互いに対向して配置されており 、 Z軸(対象物の中心を通る鉛直線)を中心として、 1回転して 360度方向から計 512 枚の投影データが収集される。検知器 12で検知された検知信号 (アナログ信号)は、 アナログ一ディジタル変換器 13に供給され、ディジタルデータに変換される。アナログ -ディジタル変換器 13でディジタルデータに変換されたデータは、汎用コンピュータ 14に供給されて画像処理が施されて、撮像対象 21の 3次元データを得ることができ る。
[0030] 3DX装置により得られた 3次元投影データは、図 4 (B)に示されているように、高さ 4 Ommで直径 30mm X直径 30mmの円柱型の画像形成領域を有する。また、 1ボタ セノレは、図 4 (A)に示されてレヽるように、 0. 125 X 0. 125 X 0. 125であるので、図 4 (B)に示された円柱型の画像は、 240 X π X (320/2) 2のボタセルを有する。 (濃度補正)
従来の濃度補正は、画像のヒストグラムに注目し、対象物の濃度分布領域を広げる 処理を行っていた(ヒストグラム強調法)。
[0031] 図 5 (Α)のような画像の場合、ヒストグラム強調法は、画像に対して下記の式 (6)を 適用して、図 5 (B)に示されているように、濃度値 a b区間内のヒストグラムのみを強 調するものである。
[0032] Pixel =(d—c) X (Pixel _a)/(b— a) (6)
out in
なお、 Pixelは補正前の入力画素値、 Pixel は補正後の出力画素値を示す。
m out
[0033] この方法では、顎関節の輪郭を多く含む濃度値区間(a、 b)を見つけ、次に、濃度 値 a bを濃度値 c dにマッピングし直し、部分強調を行なう。例えば、濃度値 a ( = 10 0)— b ( = 200)の領域を濃度値 c ( = 0)— d ( = 255)の領域に広げる。
[0034] し力し、この手法は全ての画素に対して同じ処理パラメータ (a、 b、 c、 d)を用いて補 正しているため、全てのノイズを効果的に除去することが困難であった。例えば図 8の 画像をこの方法により濃度補正をした図 9の場合、画像の下半分は全体的に濃度値 が低い (画像が暗い)が、上半分は濃度値が高い (画像が明るい)分布を示している。こ のことは、画像の上半分のノイズ成分の濃度値と、画像上半分のノイズ成分の濃度値 が異なることを意味しており、濃度値の異なる双方の領域に分布するノイズ成分を同 じ処理パラメータ (a、 b、 c、 d)で除去するのは困難である。
[0035] この線形濃度変換はコントラストを向上させノイズを低減することが可能であるが、 画像全体のヒストグラムのみに注目しており、画像内の対象物の位置情報は含まれ ていない。また、 3DXより得られる画像の位置によって対象物の濃度値が変化するた めこのため、単純な線形濃度変換処理では対象物のノイズ成分のトレード 'オフが大 きくノイズ除去に限界がある。そこで、位置情報を加味しながら 3次元投影データ上に おいて各画素毎に応じてパラメータを適応的に変化させる適応型の濃度変換を行つ た。 [0036] 本実施の形態の濃度補正方法は、画像の全ての領域に対して同じ処理パラメータ を用いるのでなぐ画素毎に適応的に処理パラメータを変化させることにより、効果的 にノイズ成分を除去する。
(1)先ず、 3次元投影データ上において大津が提案した判別分析法 (大津展之,判 別および最小 2乗規準に基づく自動しきい値選定法,電子通信学会論文誌 ' 80/4 Vol.J63-D No.4, 1980,
pp.349-356)を用いて、領域分割のための最適閾値 Thr 丄を算出する。
[0037] なお、最適閾値 Thr は、これに限らず、任意に設定することができる。
vol
(2)次に、次式を用いて画素毎に近傍画素の平均値 A _を算出する(図 6参照):
Vn
[0038] [数 1]
N-l N-l
1 Δ Δ ί
AVn = 》 〉 〉 Voxel{x,y^ z) ( 7 )
Ν N-l Ν-1 Ν-1
χ=—- ζ=-
ここでは、 Νの値を 21とし注目画素(Voxel (x,y,z) )の 21 X 21 X 21近傍の平均画素 値を算出した。 Nとして、 27等の他の値を用いてもよい。
[0039] 次いで、この近傍平均値を画素毎に独立に算出し、以下の補正処理を行う。
Voxel = Voxel (x,y,z) -Thr (Thr >A ) · · · (8)
out vol vol Vn
Voxel = Voxel (x,y,z) -A (Thr <A ) …(9)
out Vn vol Vn
なお、 Voxel は補正後の出力画素値を示す。
out
(判別処理の変形)
(1) 3DXから得られた 3次元 CTデータの平均画素値 Aを算出する。
(2)平均画素値 Aから補正値を生成するための閾値 Thr を設定する。
vol
[0040] Thr =kl X A (10)
vol 但し、 0く kl = < l
なお、 klは、過去のデータに基づいて、最適な値を予め設定しておく。また、その 都度、 klを設定するようにしてもよレ、。
(3)次に、上記式(7)を用いて画素毎に近傍画素の平均値 A を算出する.
VN
(4)判別処理
判別処理として、二つの方法を説明する。
(その 1)
近傍画素の平均値 A と CTデータ領域全体の平均値 Aの差 Cを算出する。
VN
A - A=C
VN
Cを濃度補正量として次式を用いて補正する。
[0041] Voxel = Voxel & #8211; C · · · (12)
out in
Voxelは補正前の入力画素値、 Voxel は補正後の出力画素値を示す。
m out
(その 2)
(a)A>A 近傍の平均値 A と CTデータ領域全体の平均値 Aの差 Cを算出する
VN VN
A -A=C · ' · (13)
VN
Cを濃度補正量として次式を用いて補正する。
[0042] Voxel = Voxel & #8211; C · · · (14) out in
Voxelは補正前の入力画素値、 Voxel は補正後の出力画素値を示す。この場合、 in out
濃度値が増加の方向へ補正される (画像が明るくなる)。
[0043] (b) Aく A 濃度値を補正せず、次式の様にそのまま出力する。
VN
[0044] Voxel = Voxel
out in ■ ·■ (lo
この場合、明るい画像が、補正されることなく出力する。
[0045] (その 2)の処理は、図 7 (B)に示されているように、 Aく A の場合は、画像が喑くな
VN
る処理を行わないが、 (その 1)の処理は、図 7 (A)に示されているように、 Aく A の場
VN
合は、画像を暗くする処理を行う。 [0046] この処理は画像全体の情報と、局所領域の位置に関する情報 (今回の場合平均値) とを判別処理することにより、ノイズ成分の濃度値分布の位置におけるバラツキを低 減することが可能である。
[0047] 図 10は、本方法によって、濃度補正されたものである。図 10と図 9とを比較すると、 下顎頭、下顎窩の近接部分のノイズ成分 (左上部の「もやもや」 )を除去することが可 能となることが分かる。これは近接部分の近傍平均値が判別分析法による最適閾値 より値が高いために、注目点の近傍領域の濃度変化に敏感となったためであると考 えられる。
[0048] 一方、画像の背景部分や対象物の領域内においては、近接部分の近傍平均値が 判別分析法による最適閾値より低い値となっている。このため 3次元投影データ全体 の濃度分布から得られた情報を用いた処理となっており、 3次元投影データに定常 的に存在する一定濃度値領域を効率よく除去することが可能であった。
[0049] 本手法は 3次元上の画像全体の情報と、画像の注目点を中心とする局所領域とを 比較しながら適応的に処理する手法である。これによつて画像全体に対し濃度値の 低い部分は一定値で変換し、濃度値の高い部分に対しては、その注目点の周辺情 報に強く依存した変数で変換され画像全体では主観的に良好に変換することが可能 となった。
(境界面の検出)
3DXから得られた 3次元 CTデータ上で、各画素毎にその点が境界点もしくは面の 一部かを判定していく。
(1)注目 3次元 CTデータ点をから、図 11及び図 12に示されている 26方向の処理方 向を設定する。
[0050] なお、図 11及び図 12に示されている 26方向は、注目 3次元 CTデータ点 Pを中心 にした立法体を考えた場合、
(a)注目 3次元 CTデータ点 Pから、 8つの「立法体の角」の方向(1 , 2, 7、 8、 11、 12 、 15、 16)
(b)注目 3次元 CTデータ点 Pから、 12の「辺の中点」の方向(9、 10、 13、 14、 17、 1 8、 19、 20、 21、 22, 23、 24) (c)注目 3次元 CTデータ点 Pから、 6つの「面の中心」の方向(3、 4、 5、 6、 25、 26) である。
なお、注目 3次元 CTデータ点からの方向はこれに限らず実施できる。例えば、正多 角形の各面の中心の方向であってもよい。また、図 11の方向において、方向の付カロ 又は削除を行ってもよい。
(2)各方向毎に 4V0Xelを追跡し画素値を加算 (線積分)する。 26方向の加算値 £0] £25]が算出される。
[0051] なお、線積分の数は、 4に限らず実施することができる。
(3) 26個の加算値1{0]—1{25]を大きぃ順に並び替ぇる。並び替えの後、上位 8方向 の値の平均値を算出する。
[0052] なお、上位 8方向の値の平均値を算出したが、これに限らず実施することができる。
例えば、上位 8方向の値の和を算出して、その合計を用いてもよい。
(4) 8方向の平均値が、閾値よりも高い場合、この画素は対象物の情報とみなし画像 出力する。
[0053] この閾値 Thrとして、前記加算値 f[0]— f[25]の平均値 F と、前記加算値 f[0]— f[2
F AV
5]の最大値 F に基づいて、閾値が設定される。
MAX
[0054] つまり、例えば、次式で閾値 Thrを求める。
F
Thr =k2 X (F — F ) · · · (16)
F MAX AV
本方法により、エッジが鮮明になった。
[0055] なお、上記(3)における「上位 8方向の値の平均」法に代えて、「上位 8方向の値の 平均」と「下位 8方向の値の平均」の差を求めて、その差に基づいて補正して、補正し た値が所定の値より大きい場合に、境界面として認定するようにしてもよい。
[0056] つまり、上位 8方向の値の平均値を F8maxとし、下位 8方向の値の平均値を F8mi nとし、その差に応じて、注目 3次元 CTデータ点の値 Voxelを補正し、その補正値の 大きさに基づいて、対象物の情報とみなすか否力、を判断する。
[0057] 平均値の求め方は、例えば、 8方向の値の和を 8で除すればよい。なお、除数が固 定と見なせる場合は、 8方向の値の和を平均値として、処理することもできる。
[0058] 具体的には、強調係数 K3 (0< k3)を用いて、注目 3次元 CTデータ点の値 Voxel を、次の式(17)に基づいて、強調された補正値 Voxel eを得る。
[0059] Voxel e = Voxel + k3 (F8max-F8min) (17)
この強調された Voxel eが、所定の大きさを超えるか否かで、対象物の情報とみな すか否かを判断する。
[0060] なお、上位及び下位 8方向の平均値を算出したが、これに限らず、例えば、 8方向 の値の和を算出して、その合計を用いてもよい。
[0061] なお、注目 3次元 CTデータ点が、丁度、面の境界上にあるとき、 F8maxは大きな 値を持ち、 F8minは小さな値を持つので、 「F8max— F8min」は、大きな値を持つ。 したがって、式(17)により得られた強調された Voxel eに基づいて、判断することに より、的確な、境界面の判断を行うことができる。
[0062] また、本手法は各方向 4voxel、注目点を中心に 9 X 9 X 9の領域から特徴点を抽出 する処理である。し力し、本来 9 X 9 X 9領域の全てのデータを処理して、特徴点を抽 出するには膨大な計算量を要し、処理時間に課題がある。し力しながら、本手法では 注目点から 26方向のベクトルの線積分を求めソート (並び替え)を行い特徴点を抽出 する処理であり非常に効率よく計算することが可能である。
(画像処理方法)
図 13に、 3次元対象物から得られた 3次元 CTデータの値を補正する画像処理方 法の処理フローを示す。
[0063] 先ず、 3DX装置において、所定の軸を中心として、 3次元対象物を 1回転して 3次 元 CTデータが収集される(S 10)。
[0064] 次いで、 3次元対象物から得られた 3次元 CTデータから、補正値を生成するために 用レヽられる閾値を設定する(S 11 )。
[0065] この手順においては、例えば、大津が提案した最小 2乗規準に基づく自動しきい値 選定法又は式(10)に基づいて、閾値を設定する。
[0066] 次いで、補正対象の 3次元 CTデータと補正対象の 3次元 CTデータの周辺の複数 の 3次元 CTデータと力もなる 3次元 CTデータブロックの平均値を求める(S 12)。
[0067] 式(7)を用いて、画素毎に近傍画素の平均値 A を算出する。
Vn
[0068] 前記閾値設定手順で設定された閾値と前記平均値算出手順で求められた平均値 とを用いて、 3次元 CTデータの値を補正する(S13)。
[0069] 3次元 CTデータの値の補正は、式 (1)及び式 (2)、式 (3)、式 (4)及び式 (5)に基づい て、行う。
その後、補正された 3次元 CTデータを用いて、画像を出力する(S14)。
[0070] 図 14に、 3次元対象物から得られた 3次元 CTデータにおいて、注目している 3次元
CTデータを処理対象のデータとするか否力、を決定する処理フローを示す。
[0071] 先ず、 3DX装置において、所定の軸を中心として、 3次元対象物を 1回転して 360 度方向から計 512枚の投影データが収集される(S20)。
次いで、注目している 3次元 CTデータを起点とする複数の方向を設定する。例えば 、注目 3次元 CTデータ点をから、図 11及び図 12に示されている 26方向の処理方向 を設定する(S21)。
次いで、複数の方向毎に、注目している 3次元 CTデータを起点として連続した所定 数の 3次元 CTデータの積算値を算出する。例えば、各方向毎に 4V0Xelを追跡し画素 値を加算 (線積分)する(S22)。 26方向の加算値 f[0]— £25]が算出される。
[0072] 次いで、 26個の加算値 f[0]— f[25]を大きい順に並び替える。並び替えの後、上 8 方向の値の平均値を算出する(S23)。
[0073] 次レ、で、注目してレ、る 3次元 CTデータを処理対象のデータとするか否かを決定す る(S24)。例えば、ステップ S23で算出された平均値と所定の閾値とを比較して、所 定の閾値より大きい場合に、注目している 3次元 CTデータを処理対象のデータとす る。
[0074] 補正された 3次元 CTデータを用いて、画像を出力する(S25)。
[0075] 図 15に、「上 8方向の値の平均」と「下 8方向の値の平均」の差を求めて、その差に 基づいて補正して、補正した値が所定の値より大きい場合に、境界面として認定する 方法の処理フローを説明する。
[0076] 先ず、 3DX装置において、所定の軸を中心として、 3次元対象物を 1回転して 360 度方向から計 512枚の投影データが収集される(S30)。
次いで、注目している 3次元 CTデータを起点とする複数の方向を設定する。例えば 、注目 3次元 CTデータ点をから、図 11及び図 12に示されている 26方向の処理方向 を設定する(S31)。
[0077] 次いで、複数の方向毎に、注目している 3次元 CTデータを起点として連続した所 定数の 3次元 CTデータの積算値を算出する。例えば、各方向毎に 4V0Xelを追跡し画 素値を加算 (線積分)する(S32)。 26方向の加算値 £0]— ft25]が算出される。
[0078] 次いで、 26個の加算値 f[0]— f[25]を大きい順に並び替える。並び替えの後、上 8 方向の値の平均値と、下 8方向の値の平均を算出し (S33)、注目 3次元 CTデータ点 の値 Voxelを、上記式(16)に基づいて補正し、強調された補正値 Voxel eを得る( S34)。
[0079] 次いで、強調された補正値 Voxel eに基づいて、この注目している 3次元 CTデー タを処理対象のデータとするか否かを決定する(S35)。例えば、所定の閾値より大き レ、場合に、注目してレ、る 3次元 CTデータを処理対象のデータとする。
[0080] 補正された 3次元 CTデータを用いて、画像を出力する(S36)。
[0081] 本実施の形態によれば、濃度変換の際,画像全体の最適しきい値,局所領域での 画素平均値を用い判別処理を行うことにより効果的にノイズを低減することが可能で あった。特に関節腔などの近接部分におけるノイズ除去が顕著である。
[0082] また、本実施の形態によれば、 CTから得られる原画像データを用いて、 2次元デー タに変換することなく処理を行うので、高速な処理が可能である。
産業上の利用可能性
[0083] 本発明は、歯科 ·頭頸部用小照射野 X線 CT装置等に適用可能である。

Claims

請求の範囲
[1] 3次元対象物から得られた 3次元 CTデータの値を補正する画像処理方法において 前記 3次元対象物から得られた 3次元 CTデータから、補正値を生成するために用 いられる閾値を設定する閾値設定手順と、
補正対象の 3次元 CTデータと補正対象の 3次元 CTデータの周辺の複数の 3次元 CTデータとからなる 3次元 CTデータブロックの平均値を求める平均値算出手順と、 前記閾値設定手順で設定された閾値と前記平均値算出手順で求められた平均値 とを用いて、前記 3次元 CTデータの値を補正する補正手順と、
を有することを特徴とする画像処理方法。
[2] 補正される前記 3次元 CTデータの値を Voxel、前記閾値を Thr 、前記平均値を
m vol
A とするとき、補正された前記 3次元 CTデータの値、 Voxel は、
Vn
Voxel = Voxel (x,y,z) -Thr (Thr >A ) (1)
vol vol Vn
Voxel = Voxel (x,y,z) -A (Thr く A ) •(2)
Vn Vn
であることを特徴とする請求項 1記載の画像処理方法。
[3] 補正される前記 3次元 CTデータの値を Voxel、前記閾値を Thr 前記平均値を
in \
A とするとき、補正された前記 3次元 CTデータの値、 Voxel は、
Vn
Voxel = Voxel - (A -Thr ) •••(3)
out in Vn vol
であることを特徴とする請求項 1記載の画像処理方法。
[4] 補正される前記 3次元 CTデータの値を Voxel、前記閾値を Thr 前記平均値を
in \
A とするとき、補正された前記 3次元 CTデータの値、 Voxel は、
Vn out
Thr > =A の場合は、
Vn
Voxel = Voxel -(A -Thr ) (4)
in Vn vol
であり、
Thr <A の場合は、
vol Vn
Voxel = Voxel (5) out in
であることを特徴とする請求項 1記載の画像処理方法。
[5] 3次元対象物から得られた 3次元 CTデータを処理する画像処理方法において、 注目している 3次元 CTデータを起点とする複数の方向毎に、注目している 3次元 C Tデータを起点として連続した所定数の 3次元 CTデータの積算値を算出する積算値 算出手順と、
前記算出手順で算出された方向毎に求めた積算値の内、上位所定数の積算値の 和を求める和算出手順と、
所定の閾値と前記和算出手順で積算された積算値とを比較して、前記積算値が前 記閾値より大きい場合に、注目している 3次元 CTデータを処理対象のデータとするこ とを判定する判定手順と、
を有することを特徴とする画像処理方法。
[6] 閾値設定手順において、前記閾は、前記積算値算出手順で算出された全方向の 積算値の平均値と、前記積算値算出手順で算出された全方向の積算値の最大値に 基づレ、て、設定されることを特徴とする請求項 4記載の画像処理方法。
[7] 3次元対象物から得られた 3次元 CTデータを処理する画像処理方法において、 注目している 3次元 CTデータを起点とする複数の方向毎に、注目している 3次元 C Tデータを起点として連続した所定数の 3次元 CTデータの積算値を算出する積算値 算出手順と、
前記算出手順で算出された方向毎に求めた積算値の内、上位所定数の積算値の 和及び下位所定数の積算値の和を求める和算出手順と、
注目している 3次元 CTデータを、上位所定数の積算値の和及び下位所定数の積 算値の和に基づいて、補正する補正手順と、
前記補正手順で補正された 3次元 CTデータ値と所定の閾値とを比較して、前記補 正された 3次元 CTデータ値が前記閾値より大きい場合に、注目している 3次元 CTデ ータを処理対象のデータとすることを判定する判定手順と、
を有することを特徴とする画像処理方法。
[8] 請求 1ないし 7記載の画像処理方法をコンピュータに実行させる画像処理プロダラ ムを記録したコンピュータ読取可能な記録媒体。
PCT/JP2004/010618 2003-07-24 2004-07-26 画像処理方法及び画像処理プログラムを記録したコンピュータ読取可能な記録媒体 WO2005009240A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP04770929A EP1649810A4 (en) 2003-07-24 2004-07-26 PICTURE PROCESSING METHOD AND COMPUTER-READABLE RECORDING MEDIA WITH PICTURE PROCESSING PROGRAM
US10/565,895 US7460700B2 (en) 2003-07-24 2004-07-26 Image processing method and computer-readable recording medium containing image processing program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003201422A JP4175468B2 (ja) 2003-07-24 2003-07-24 画像処理方法、画像処理プログラム及びコンピュータ読取可能な記録媒体
JP2003-201422 2003-07-24

Publications (2)

Publication Number Publication Date
WO2005009240A1 true WO2005009240A1 (ja) 2005-02-03
WO2005009240A9 WO2005009240A9 (ja) 2005-07-14

Family

ID=34100517

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2004/010618 WO2005009240A1 (ja) 2003-07-24 2004-07-26 画像処理方法及び画像処理プログラムを記録したコンピュータ読取可能な記録媒体

Country Status (4)

Country Link
US (1) US7460700B2 (ja)
EP (1) EP1649810A4 (ja)
JP (1) JP4175468B2 (ja)
WO (1) WO2005009240A1 (ja)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050097046A1 (en) 2003-10-30 2005-05-05 Singfield Joy S. Wireless electronic check deposit scanning and cashing machine with web-based online account cash management computer application system
US8708227B1 (en) 2006-10-31 2014-04-29 United Services Automobile Association (Usaa) Systems and methods for remote deposit of checks
US7873200B1 (en) 2006-10-31 2011-01-18 United Services Automobile Association (Usaa) Systems and methods for remote deposit of checks
US10380559B1 (en) 2007-03-15 2019-08-13 United Services Automobile Association (Usaa) Systems and methods for check representment prevention
US9058512B1 (en) 2007-09-28 2015-06-16 United Services Automobile Association (Usaa) Systems and methods for digital signature detection
US9159101B1 (en) 2007-10-23 2015-10-13 United Services Automobile Association (Usaa) Image processing
US9892454B1 (en) 2007-10-23 2018-02-13 United Services Automobile Association (Usaa) Systems and methods for obtaining an image of a check to be deposited
US10380562B1 (en) 2008-02-07 2019-08-13 United Services Automobile Association (Usaa) Systems and methods for mobile deposit of negotiable instruments
US10504185B1 (en) 2008-09-08 2019-12-10 United Services Automobile Association (Usaa) Systems and methods for live video financial deposit
JP2010178822A (ja) * 2009-02-04 2010-08-19 Panasonic Corp 歯科用パノラマ撮影装置
US8452689B1 (en) 2009-02-18 2013-05-28 United Services Automobile Association (Usaa) Systems and methods of check detection
US10956728B1 (en) 2009-03-04 2021-03-23 United Services Automobile Association (Usaa) Systems and methods of check processing with background removal
US9779392B1 (en) 2009-08-19 2017-10-03 United Services Automobile Association (Usaa) Apparatuses, methods and systems for a publishing and subscribing platform of depositing negotiable instruments
US8977571B1 (en) 2009-08-21 2015-03-10 United Services Automobile Association (Usaa) Systems and methods for image monitoring of check during mobile deposit
US8699779B1 (en) 2009-08-28 2014-04-15 United Services Automobile Association (Usaa) Systems and methods for alignment of check during mobile deposit
US9129340B1 (en) 2010-06-08 2015-09-08 United Services Automobile Association (Usaa) Apparatuses, methods and systems for remote deposit capture with enhanced image detection
US10380565B1 (en) 2012-01-05 2019-08-13 United Services Automobile Association (Usaa) System and method for storefront bank deposits
US9401011B2 (en) * 2012-06-13 2016-07-26 United Services Automobile Association (Usaa) Systems and methods for removing defects from images
US10552810B1 (en) 2012-12-19 2020-02-04 United Services Automobile Association (Usaa) System and method for remote deposit of financial instruments
US11138578B1 (en) 2013-09-09 2021-10-05 United Services Automobile Association (Usaa) Systems and methods for remote deposit of currency
US9286514B1 (en) 2013-10-17 2016-03-15 United Services Automobile Association (Usaa) Character count determination for a digital image
EP2869261B1 (en) 2013-11-04 2018-10-31 Cyrill Gyger Method for processing image data representing a three-dimensional volume
WO2016176410A1 (en) * 2015-04-29 2016-11-03 University Of Pittsburgh - Of The Commonwealth System Of Higher Education Image enhancement using virtual averaging
US10402790B1 (en) 2015-05-28 2019-09-03 United Services Automobile Association (Usaa) Composing a focused document image from multiple image captures or portions of multiple image captures
US11030752B1 (en) 2018-04-27 2021-06-08 United Services Automobile Association (Usaa) System, computing device, and method for document detection
US11900755B1 (en) 2020-11-30 2024-02-13 United Services Automobile Association (Usaa) System, computing device, and method for document detection and deposit processing
CN115954090B (zh) * 2023-03-16 2023-05-16 信艺(广州)义齿研制有限公司 一种基于漫画工艺的假牙制作方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09204513A (ja) * 1996-01-29 1997-08-05 Ge Yokogawa Medical Syst Ltd 投影画像処理方法及び投影画像処理装置
JP2002374418A (ja) * 2001-06-14 2002-12-26 Canon Inc 画像処理装置、画像処理システム、画像処理方法、記憶媒体、及びプログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3064361B2 (ja) * 1990-09-07 2000-07-12 株式会社日立製作所 核磁気共鳴装置
JP3383010B2 (ja) 1993-06-14 2003-03-04 株式会社日立メディコ 医用画像処理装置
US5644646A (en) * 1994-08-05 1997-07-01 University Of Utah Research Foundation Vessel enhancement filtering in magnetic resonance angiography
JP3423828B2 (ja) * 1995-11-30 2003-07-07 株式会社日立メディコ X線画像作成方法およびその装置
US5878108A (en) * 1995-11-30 1999-03-02 Hitachi Medical Corporation Method for generating X-ray image and apparatus therefor
US7068837B2 (en) * 2000-11-24 2006-06-27 Nihon University Image processing method
JP2003061956A (ja) 2001-08-30 2003-03-04 Toshiba Corp 超音波診断装置、医用診断装置及び画像処理方法
JP2004141514A (ja) * 2002-10-28 2004-05-20 Toshiba Corp 画像処理装置及び超音波診断装置
JP2005040239A (ja) * 2003-07-24 2005-02-17 Univ Nihon 画像処理方法、画像処理プログラム及びコンピュータ読取可能な記録媒体
US7248725B2 (en) * 2004-01-07 2007-07-24 Ramot At Tel Avia University Ltd. Methods and apparatus for analyzing ultrasound images
US7236558B2 (en) * 2005-07-07 2007-06-26 Terarecon, Inc. Three-dimensional image display device creating three-dimensional image directly from projection data
US20070091174A1 (en) * 2005-09-30 2007-04-26 Topcon Corporation Projection device for three-dimensional measurement, and three-dimensional measurement system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09204513A (ja) * 1996-01-29 1997-08-05 Ge Yokogawa Medical Syst Ltd 投影画像処理方法及び投影画像処理装置
JP2002374418A (ja) * 2001-06-14 2002-12-26 Canon Inc 画像処理装置、画像処理システム、画像処理方法、記憶媒体、及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1649810A4 *

Also Published As

Publication number Publication date
US7460700B2 (en) 2008-12-02
WO2005009240A9 (ja) 2005-07-14
EP1649810A4 (en) 2009-09-02
JP2005044050A (ja) 2005-02-17
US20070009144A1 (en) 2007-01-11
JP4175468B2 (ja) 2008-11-05
EP1649810A1 (en) 2006-04-26

Similar Documents

Publication Publication Date Title
WO2005009240A1 (ja) 画像処理方法及び画像処理プログラムを記録したコンピュータ読取可能な記録媒体
JP4728627B2 (ja) Ct血管造影法における構造を領域分割する方法及び装置
Wang et al. Spiral CT image deblurring for cochlear implantation
EP1788525B1 (fr) Procédé d&#39;imagerie radiographique pour la reconstruction tridimensionnelle, dispositif et programme d&#39;ordinateur pour mettre en oeuvre ce procédé
WO2019020048A1 (zh) 一种基于超声拓片技术的脊椎图像生成系统以及脊柱手术导航定位系统
Oulbacha et al. MRI to CT synthesis of the lumbar spine from a pseudo-3D cycle GAN
EP2869261B1 (en) Method for processing image data representing a three-dimensional volume
JP2002515772A (ja) 対象の運動を相殺する画像装置および方法
KR20220064408A (ko) 시공간 데이터에 기초하여 의료 이미지를 분석하기 위한 시스템 및 방법
KR20210145003A (ko) 딥러닝을 이용한 짧은 시간 촬영한 뇌 단층 촬영 이미지 복원 장치
JP7164890B2 (ja) 3次元血管認識方法及び3次元血管認識装置
EP3076872B1 (en) Device and method for tomosynthesis imaging
WO2005009241A1 (ja) 画像処理方法及び画像処理プログラムを記録したコンピュータ読取可能な記録媒体
WO2008065394A1 (en) Method and apparatus for reducing distortion in a computed tomography image
KR102664286B1 (ko) 구강 내 단층합성을 위한 다중-시야 합성 치과 방사선 사진들을 생성하기 위한 시스템 및 방법(systems and methods for generating multi-view synthetic dental radiographs for intraoral tomosynthesis)
Zhu et al. An algorithm for automatically extracting dental arch curve
JP5514397B2 (ja) 画像表示装置およびx線断層撮影装置
Chougule et al. Three dimensional point cloud generations from CT scan images for bio-cad modeling
O’Connor et al. Development of an ensemble of digital breast object models
Choi et al. Automatic Detection of Inferior Alveolar Nerve Canal from Cone-Beam Computed Tomography Images for Dental Surgery Planning.
Mahmud et al. Computer-Aided Design on Image Detection: A Chronology Review
Abdo et al. Teeth and Jaw Segmentation from CBCT images Using 3D Deep Learning Models
Javale et al. Reconstruction of Greyscale X-Ray for Boundary Analysis of Anatomical Structure
Stergiopoulos 2 Applications to Medical Data: 7.2. 1 Radiological Data
Yuksel et al. Automatic segmentation of bone tissue in x-ray hand images

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

DPEN Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed from 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
COP Corrected version of pamphlet

Free format text: PAGE 10, DESCRIPTION, REPLACED BY A NEW PAGE 10; AFTER RECTIFICATION OF OBVIOUS ERRORS AUTHORIZED BY THE INTERNATIONAL SEARCH AUTHORITY

WWE Wipo information: entry into national phase

Ref document number: 2004770929

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 2004770929

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2007009144

Country of ref document: US

Ref document number: 10565895

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 10565895

Country of ref document: US