JP4910979B2 - Nuclear medicine diagnostic apparatus and image processing method for nuclear medicine data - Google Patents

Nuclear medicine diagnostic apparatus and image processing method for nuclear medicine data Download PDF

Info

Publication number
JP4910979B2
JP4910979B2 JP2007272468A JP2007272468A JP4910979B2 JP 4910979 B2 JP4910979 B2 JP 4910979B2 JP 2007272468 A JP2007272468 A JP 2007272468A JP 2007272468 A JP2007272468 A JP 2007272468A JP 4910979 B2 JP4910979 B2 JP 4910979B2
Authority
JP
Japan
Prior art keywords
data
sinogram data
sinogram
frequency
noise
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007272468A
Other languages
Japanese (ja)
Other versions
JP2009098100A (en
Inventor
亮宏 石川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shimadzu Corp
Original Assignee
Shimadzu Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shimadzu Corp filed Critical Shimadzu Corp
Priority to JP2007272468A priority Critical patent/JP4910979B2/en
Publication of JP2009098100A publication Critical patent/JP2009098100A/en
Application granted granted Critical
Publication of JP4910979B2 publication Critical patent/JP4910979B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

この発明は、放射性薬剤が投与された被検体から発生した放射線に基づいて被検体の核医学用データを求める核医学診断装置および核医学用データの画像処理方法に関する。 The present invention relates to a nuclear medicine diagnostic apparatus for obtaining nuclear medicine data of a subject based on radiation generated from the subject to which a radiopharmaceutical is administered, and an image processing method of the nuclear medicine data .

上述した核医学診断装置、すなわちECT(Emission Computed Tomography)装置として、PET(Positron Emission Tomography)装置を例に採って説明する。PET装置は、陽電子(Positron)、すなわちポジトロンの消滅によって発生する複数本のγ線を検出して複数個の検出器でγ線を同時に検出したときのみ被検体の断層画像を再構成するように構成されている。   As the above-described nuclear medicine diagnosis apparatus, that is, an ECT (Emission Computed Tomography) apparatus, a PET (Positron Emission Tomography) apparatus will be described as an example. The PET apparatus detects a plurality of gamma rays generated by annihilation of positrons, that is, positrons, and reconstructs a tomographic image of a subject only when the gamma rays are simultaneously detected by a plurality of detectors. It is configured.

再構成する前の投影データの画像には、粒子ノイズが混入している。通常、粒子ノイズに含まれる粒子ノイズ信号は高周波成分に含まれると考えられている。原画像を低周波成分と高周波成分とに分けて、高周波成分の値を±しきい値内の範囲では“0”に落とす、いわゆる「コアリング」と呼ばれる技術が示されている(例えば、特許文献1参照)。   Particle noise is mixed in the image of the projection data before reconstruction. Usually, the particle noise signal included in the particle noise is considered to be included in the high frequency component. A technique called “coring” is shown in which an original image is divided into a low-frequency component and a high-frequency component, and the value of the high-frequency component is reduced to “0” within a range of ± threshold (for example, a patent) Reference 1).

また、それを多重解像度のウェーブレット(Wavelet)変換やラプラシアン・ピラミッド表現への応用に発展させた技術が示されている(例えば、特許文献2,3や非特許文献1〜3参照)。上述した非特許文献1〜3は、ウェーブレット変換係数のハイパス(高周波帯域)成分をしきい値処理ないしは非線形しきい値処理によりコアリングする、いわゆる「ウェーブレット縮退」と呼ばれる技術に相当する。上述した特許文献2,3では、ラプラシアン・ピラミッド表現されたハイパス成分(ガウシアンとラプラシアンとに分解された中のラプラシアン成分)に対して、しきい値近辺をなだらかに扱う非線形しきい値処理によるコアリング技術が開示されている。
米国特許第4523230号明細書 米国特許第5467404号明細書 米国特許第5805721号明細書 J. B. Weaver, X. Yansun, D. M. Healy, Jr. and L. D. Cromwell, ” Filtering Noise from Images with Wavelet Transforms”, Magnetic Resonance in Medicine, vol. 21, no. 2, pp.288-295, 1991. R. A. DeVor and B. J. Lucier, “Fast wavelet techniques for near-optimal image processing”, IEEE Military Communications Conf. Rec. San Diego, Oct.11-14, 1992, vol.3, pp.1129-1135. D. L. Donoho, “De-noising by soft-thresholding”, IEEE. Trans Inform. Theory, Vol.41, pp. 613-627, 1995.
In addition, there are techniques that have been developed for application to multi-resolution wavelet transform and Laplacian pyramid representation (see, for example, Patent Documents 2 and 3 and Non-Patent Documents 1 to 3). Non-Patent Documents 1 to 3 described above correspond to a so-called “wavelet degeneration” technique in which high-pass (high-frequency band) components of wavelet transform coefficients are correlated by threshold processing or nonlinear threshold processing. In the above-mentioned Patent Documents 2 and 3, the core by non-linear threshold processing that gently treats the vicinity of the threshold for the high-pass component expressed in the Laplacian pyramid (the Laplacian component that is decomposed into Gaussian and Laplacian). Ring technology is disclosed.
US Pat. No. 4,523,230 US Pat. No. 5,467,404 US Pat. No. 5,805,721 JB Weaver, X. Yansun, DM Healy, Jr. and LD Cromwell, “Filtering Noise from Images with Wavelet Transforms”, Magnetic Resonance in Medicine, vol. 21, no. 2, pp.288-295, 1991. RA DeVor and BJ Lucier, “Fast wavelet techniques for near-optimal image processing”, IEEE Military Communications Conf. Rec. San Diego, Oct. 11-14, 1992, vol. 3, pp. 1129-1135. DL Donoho, “De-noising by soft-thresholding”, IEEE. Trans Inform. Theory, Vol. 41, pp. 613-627, 1995.

しかしながら、従来の多重解像度変換された高周波サブバンドをノイズ除去する方式を実際の再構成後のディジタル画像に適用した場合、突出状のノイズや筋状構造のノイズが残留するという問題がある。かかるノイズは、検出器に依存し、ポアソン分布に依存する粒子ノイズである。   However, when the conventional method for removing noise from high-frequency subbands subjected to multi-resolution conversion is applied to a digital image after actual reconstruction, there is a problem that protruding noise or streak-like noise remains. Such noise is particle noise that depends on the detector and depends on the Poisson distribution.

この発明は、このような事情に鑑みてなされたものであって、検出器依存のノイズやポアソン分布の粒子ノイズを除去することができる核医学診断装置および核医学用データの画像処理方法を提供することを目的とする。 The present invention has been made in view of such circumstances, and provides a nuclear medicine diagnostic apparatus and an image processing method for nuclear medicine data capable of removing detector-dependent noise and Poisson distribution particle noise. The purpose is to do.

この発明は、このような目的を達成するために、次のような構成をとる。
すなわち、請求項1に記載の発明は、放射性薬剤が投与された被検体から発生した放射線に基づいて被検体の核医学用データを求める核医学診断装置であって、前記放射線を検出して前記核医学用データを検出して収集する各々の検出器で構成される検出手段と、その核医学用データについて、体軸方向の各検出器位置であるスライス方向に、各投影位置であるプロジェクション方向、検出器方向であるチャンネル方向にマッピングされた三次元のサイノグラムデータを用いて画像処理を行う画像処理手段とを備え、前記画像処理手段は、(a)前記三次元のサイノグラムデータの3つの二次元空間のうち、2つ以上の二次元空間ごとに各々の前記二次元空間のサイノグラムデータを分解して、各分解ごとに比較して逐次的に低い解像度を持つ複数の低周波サイノグラムデータと、各分解ごとに比較して逐次的に低い解像度を持つ複数の高周波サイノグラムデータとを前記2つ以上の二次元空間ごとにそれぞれ生成する多重解像度サイノグラム分割手段と、(b)前記低周波サイノグラムデータと前記高周波サイノグラムデータとの各々に対してノイズ除去処理を前記2つ以上の二次元空間ごとにそれぞれ行うノイズ除去処理手段と、(c)前記ノイズ除去された前記低周波サイノグラムデータおよび前記ノイズ除去された前記高周波サイノグラムデータに基づいて、ノイズ除去されたサイノグラムデータに前記2つ以上の二次元空間ごとにそれぞれ合成するサイノグラムデータ合成手段と、(d)前記合成された二次元空間のサイノグラムデータに対して再構成処理を行う再構成処理手段とを備えることを特徴とするものである。
また、請求項2に記載の発明は、放射性薬剤が投与された被検体から発生した放射線に基づく被検体の核医学用データの画像処理方法であって、その核医学用データについて、体軸方向の各検出器位置であるスライス方向に、各投影位置であるプロジェクション方向、検出器方向であるチャンネル方向にマッピングされた三次元のサイノグラムデータを用いて画像処理を行う際に、(A)前記三次元のサイノグラムデータの3つの二次元空間のうち、2つ以上の二次元空間ごとに各々の前記二次元空間のサイノグラムデータを分解して、各分解ごとに比較して逐次的に低い解像度を持つ複数の低周波サイノグラムデータと、各分解ごとに比較して逐次的に低い解像度を持つ複数の高周波サイノグラムデータとを前記2つ以上の二次元空間ごとにそれぞれ生成し、(B)前記低周波サイノグラムデータと前記高周波サイノグラムデータとの各々に対してノイズ除去処理を前記2つ以上の二次元空間ごとにそれぞれ行い、(C)前記ノイズ除去された前記低周波サイノグラムデータおよび前記ノイズ除去された前記高周波サイノグラムデータに基づいて、ノイズ除去されたサイノグラムデータに前記2つ以上の二次元空間ごとにそれぞれ合成し、(D)前記合成された二次元空間のサイノグラムデータに対して再構成処理を行うことを特徴とするものである。
In order to achieve such an object, the present invention has the following configuration.
That is, the invention according to claim 1 is a nuclear medicine diagnostic apparatus for obtaining nuclear medicine data of a subject based on radiation generated from the subject to which a radiopharmaceutical is administered, wherein the radiation is detected to detect the radiation Detection means comprising each detector for detecting and collecting nuclear medicine data, and projection direction that is each projection position for each nuclear medicine data in the slice direction that is each detector position in the body axis direction Image processing means for performing image processing using three-dimensional sinogram data mapped in the channel direction which is a detector direction, and the image processing means includes (a) three two-dimensional sinogram data. In the two-dimensional space, the sinogram data of each two-dimensional space is decomposed into two or more two-dimensional spaces, and a composite having a sequentially lower resolution is compared with each decomposition. Multi-resolution sinogram dividing means for generating the low-frequency sinogram data of each of the two or more two-dimensional spaces, and a plurality of high-frequency sinogram data having successively lower resolution than each decomposition, and (b ) Noise removal processing means for performing noise removal processing on each of the two or more two-dimensional spaces for each of the low-frequency sinogram data and the high-frequency sinogram data; and (c) the noise-removed low frequency Sinogram data synthesis means for synthesizing the noise-removed sinogram data for each of the two or more two-dimensional spaces based on the sinogram data and the noise-removed high-frequency sinogram data, and (d) the synthesized two-phase data. Reconstruction processing means for performing reconstruction processing on sinogram data in a dimensional space It is characterized in.
The invention according to claim 2 is an image processing method for nuclear medical data of a subject based on radiation generated from a subject to which a radiopharmaceutical has been administered. When performing image processing using three-dimensional sinogram data mapped in the slice direction that is each detector position in the projection direction that is each projection position and the channel direction that is the detector direction, (A) the cubic Among the three two-dimensional spaces of the original sinogram data, the two-dimensional space sinogram data is decomposed for each two or more two-dimensional spaces, and sequentially has a lower resolution than each decomposition. A plurality of low-frequency sinogram data and a plurality of high-frequency sinogram data having successively lower resolution than each decomposition are divided into the two or more two-dimensional spaces. (B) noise removal processing is performed for each of the two or more two-dimensional spaces for each of the low-frequency sinogram data and the high-frequency sinogram data, and (C) the noise-removed low Based on the frequency sinogram data and the noise-removed high-frequency sinogram data, the noise-removed sinogram data is synthesized for each of the two or more two-dimensional spaces, and (D) a sinogram of the synthesized two-dimensional space. It is characterized in that a reconstruction process is performed on the data.

[作用・効果]従来のウェーブレット変換などに代表される多重解像度変換では、二次元空間の投影データを分解して多重解像度変換を行って、ノイズ除去処理を行った後にフィルタード・バックプロジェクション(FBP: Filtered Back Projection)を用いて再構成処理を行うので、ノイズはコンボリューション(畳み込み積分)フィルタ特性の影響を受けて、画像データ上の高精度なノイズ除去を困難にしている。そこで、三次元のデータを用いて多重解像度変換を行えば高精度なノイズ除去が行えると考えられる。一方、三次元のデータとして通常のxyzデータを用いる場合には、このxyzデータにノイズが隠れてしまうので、xyzデータを用いて多重解像度変換を行ってもノイズが除去しきれない。そこで、請求項1に記載の発明によれば、体軸方向の各検出器位置であるスライス方向に、各投影位置であるプロジェクション方向、検出器方向であるチャンネル方向にマッピングされた三次元のサイノグラムデータを三次元のデータとして用いて多重解像度変換を行う。具体的には、(a)多重解像度サイノグラム分割手段は、上述した三次元のサイノグラムデータの3つの二次元空間のうち、2つ以上の二次元空間ごとに各々の二次元空間のサイノグラムデータを分解して、各分解ごとに比較して逐次的に低い解像度を持つ複数の低周波サイノグラムデータと、各分解ごとに比較して逐次的に低い解像度を持つ複数の高周波サイノグラムデータとを2つ以上の二次元空間ごとにそれぞれ生成することで、三次元のサイノグラムデータを用いて2つ以上の二次元空間ごとに多重解像度変換をそれぞれ行う。そして、(b)ノイズ除去処理手段は、上述した低周波サイノグラムデータと高周波サイノグラムデータとの各々に対してノイズ除去処理を2つ以上の二次元空間ごとにそれぞれ行う。さらに、(c)サイノグラムデータ合成手段は、上述したノイズ除去された低周波サイノグラムデータおよび同じくノイズ除去された高周波サイノグラムデータに基づいて、ノイズ除去されたサイノグラムデータに2つ以上の二次元空間ごとにそれぞれ合成する。そして、(d)再構成処理手段は、合成された二次元空間のサイノグラムデータに対して再構成処理を行うことで、高精度なノイズ除去を行うことができ、検出器依存のノイズとポアソン分布の粒子ノイズを除去することができる。
また、請求項2に記載の発明によれば、(A)〜(D)のステップを行うことで、検出器依存のノイズとポアソン分布の粒子ノイズを除去することができる。
[Operation / Effect] In conventional multi-resolution conversion such as wavelet transform, two-dimensional space projection data is decomposed, multi-resolution conversion is performed, noise removal processing is performed, and then filtered back projection (FBP) is performed. : Reconstruction processing is performed using Filtered Back Projection), so noise is affected by convolution (convolution integration) filter characteristics, making it difficult to remove noise from image data with high accuracy. Therefore, it is considered that highly accurate noise removal can be performed by performing multi-resolution conversion using three-dimensional data. On the other hand, when normal xyz data is used as three-dimensional data, noise is hidden in the xyz data. Therefore, even if multiresolution conversion is performed using the xyz data, the noise cannot be completely removed. Therefore, according to the first aspect of the present invention, a three-dimensional sinogram mapped in the slice direction that is each detector position in the body axis direction, in the projection direction that is each projection position, and in the channel direction that is the detector direction. Multi-resolution conversion is performed using the data as three-dimensional data. Specifically, (a) the multi-resolution sinogram dividing means decomposes the sinogram data of each two-dimensional space into two or more two-dimensional spaces among the three two-dimensional spaces of the above-described three-dimensional sinogram data. Two or more low-frequency sinogram data having a sequentially lower resolution compared to each decomposition and a plurality of high-frequency sinogram data having a sequentially lower resolution compared to each decomposition. By generating for each two-dimensional space, multi-resolution conversion is performed for each of two or more two-dimensional spaces using three-dimensional sinogram data. Then, (b) the noise removal processing means performs noise removal processing for each of the two or more two-dimensional spaces for each of the above-described low frequency sinogram data and high frequency sinogram data. Further, (c) the sinogram data synthesizing means, based on the noise-removed low-frequency sinogram data and the noise-removed high-frequency sinogram data, the noise-removed sinogram data is divided into two or more two-dimensional spaces. Synthesize each. (D) The reconstruction processing means can perform high-accuracy noise removal by performing reconstruction processing on the combined sinogram data in the two-dimensional space, and detector-dependent noise and Poisson distribution. Particle noise can be removed.
According to the second aspect of the present invention, the detector-dependent noise and the Poisson distribution particle noise can be removed by performing the steps (A) to (D).

上述した核医学用データの画像処理方法の一例はウェーブレット変換によって、上述の二次元空間のサイノグラムデータを分解して、上述の低周波サイノグラムデータと上述の高周波サイノグラムデータとをそれぞれ生成することである(請求項3に記載の発明)。また、上述した核医学用データの画像処理方法の一例は、上述のノイズ除去された上述の低周波サイノグラムデータおよび上述のノイズ除去された上述の高周波サイノグラムデータに基づいて、ノイズ除去されたサイノグラムデータに上述の2つ以上の二次元空間ごとに逆ウェーブレット変換によってそれぞれ合成することである(請求項4に記載の発明)。 An example of an image processing method of the above-mentioned nuclear medicine data, depending wavelet transform to decompose the sinogram data of the above two-dimensional space, the above-mentioned low frequency sinogram data above the high-frequency sinogram data by generating each (Invention of claim 3 ) Further, an example of the above-described image processing method for nuclear medicine data is the noise-removed sinogram data based on the noise-removed low-frequency sinogram data and the noise-removed high-frequency sinogram data. The above-described two or more two-dimensional spaces are combined by inverse wavelet transform (the invention according to claim 4 ).

この発明に係る核医学診断装置によれば、(a)〜(d)の各手段を備えることで、検出器依存のノイズとポアソン分布の粒子ノイズを除去することができる。
また、この発明に係る核医学用データの画像処理方法によれば、(A)〜(D)のステップを行うことで、検出器依存のノイズとポアソン分布の粒子ノイズを除去することができる。
According to the nuclear medicine diagnostic apparatus of the present invention, it is possible to remove detector-dependent noise and Poisson distribution particle noise by providing the means (a) to (d).
According to the nuclear medicine data image processing method of the present invention, the detector-dependent noise and Poisson distribution particle noise can be removed by performing the steps (A) to (D).

以下、図面を参照してこの発明の実施例1を説明する。
図1は、実施例1に係るPET(Positron Emission Tomography)装置の側面図およびブロック図である。なお、後述する実施例2も含めて、本実施例1では、核医学診断装置として、PET装置を例に採って説明する。
Embodiment 1 of the present invention will be described below with reference to the drawings.
FIG. 1 is a side view and block diagram of a PET (Positron Emission Tomography) apparatus according to the first embodiment. In addition, this Example 1 including Example 2 mentioned later demonstrates taking a PET apparatus as an example as a nuclear medicine diagnostic apparatus.

本実施例1に係るPET装置は、図1に示すように、被検体Mを載置する天板1を備えている。この天板1は、上下に昇降移動、被検体Mの体軸Zに沿って平行移動するように構成されている。このように構成することで、天板1に載置された被検体Mは、後述するガントリ2の開口部2aを通って、頭部から順に腹部、足部へと走査されて、被検体Mの投影データや断層画像といった診断データを得る。この診断データは、この発明における核医学用データに相当する。   The PET apparatus according to the first embodiment includes a top plate 1 on which a subject M is placed as shown in FIG. The top plate 1 is configured to move up and down and translate along the body axis Z of the subject M. With this configuration, the subject M placed on the top 1 is scanned from the head to the abdomen and foot sequentially through the opening 2a of the gantry 2, which will be described later. Diagnostic data such as projection data and tomographic images are obtained. This diagnostic data corresponds to nuclear medicine data in the present invention.

天板1の他に、本実施例1に係るPET装置は、開口部2aを有したガントリ2と、互いに近接配置された複数個のシンチレータブロック(図示省略)と複数個のフォトマルチプライヤ(図示省略)とで構成されるγ線検出器3を備えている。γ線検出器3は、被検体Mの体軸Z周りを取り囲むようにしてリング状に配置されており、ガントリ2内に埋設されている。フォトマルチプライヤは、シンチレータブロックよりも外側に配設されている。シンチレータブロックの具体的な配置としては、例えば、被検体Mの体軸Zと平行な方向にはシンチレータブロックが2個並び、被検体Mの体軸Z周りにはシンチレータブロックが多数個並ぶ形態が挙げられる。γ線検出器3は後述するエミッションデータを収集する。γ線検出器3は、この発明における検出手段に相当する。   In addition to the top plate 1, the PET apparatus according to the first embodiment includes a gantry 2 having an opening 2a, a plurality of scintillator blocks (not shown) and a plurality of photomultipliers (not shown). The γ-ray detector 3 is provided. The γ-ray detector 3 is arranged in a ring shape so as to surround the body axis Z of the subject M, and is embedded in the gantry 2. The photomultiplier is disposed outside the scintillator block. As a specific arrangement of the scintillator blocks, for example, two scintillator blocks are arranged in a direction parallel to the body axis Z of the subject M, and many scintillator blocks are arranged around the body axis Z of the subject M. Can be mentioned. The γ-ray detector 3 collects emission data to be described later. The γ-ray detector 3 corresponds to the detection means in this invention.

また、点線源4と後述する吸収補正データ(『トランスミッションデータ』とも呼ばれる)を収集するためのγ線検出器5を備えている。吸収補正データ用のγ線検出器5は、エミッションデータを収集するためのγ線検出器3と同様にシンチレータブロック(図示省略)とフォトマルチプライヤ(図示省略)とで構成されている。点線源4は、被検体Mに投与する放射性薬剤、すなわち放射性同位元素(RI)と同種の放射線(本実施例1ではγ線)を照射させる線源であって、被検体Mの外部に配設されている。点線源4は、ガントリ2内に埋設されている。点線源4は被検体Mの体軸Z周りに回転する。   In addition, a point line source 4 and a γ-ray detector 5 for collecting absorption correction data (also referred to as “transmission data”) to be described later are provided. The γ-ray detector 5 for absorption correction data is composed of a scintillator block (not shown) and a photomultiplier (not shown) in the same manner as the γ-ray detector 3 for collecting emission data. The dotted line source 4 is a radiation source that irradiates a radioactive drug to be administered to the subject M, that is, a radiation of the same kind as the radioisotope (RI) (in this embodiment, γ rays), and is arranged outside the subject M. It is installed. The dotted line source 4 is embedded in the gantry 2. The dotted line source 4 rotates around the body axis Z of the subject M.

その他にも、本実施例1に係るPET装置は、天板駆動部6とコントローラ7と入力部8と出力部9と投影データ導出部10と吸収補正データ導出部11と吸収補正部12と画像処理部13とメモリ部14とを備えている。天板駆動部6は、天板1の上述した移動を行うように駆動する機構であって、図示を省略するモータなどで構成されている。   In addition, the PET apparatus according to the first embodiment includes a top plate driving unit 6, a controller 7, an input unit 8, an output unit 9, a projection data deriving unit 10, an absorption correction data deriving unit 11, an absorption correcting unit 12, and an image. A processing unit 13 and a memory unit 14 are provided. The top plate driving unit 6 is a mechanism for driving the top plate 1 so as to perform the above-described movement, and is configured by a motor or the like not shown.

コントローラ7は、本実施例1に係るPET装置を構成する各部分を統括制御する。コントローラ7は、中央演算処理装置(CPU)などで構成されている。   The controller 7 comprehensively controls each part constituting the PET apparatus according to the first embodiment. The controller 7 includes a central processing unit (CPU).

入力部8は、オペレータが入力したデータや命令をコントローラ7に送り込む。入力部8は、マウスやキーボードやジョイスティックやトラックボールやタッチパネルなどに代表されるポインティングデバイスで構成されている。出力部9はモニタなどに代表される表示部やプリンタなどで構成されている。   The input unit 8 sends data and commands input by the operator to the controller 7. The input unit 8 includes a pointing device represented by a mouse, a keyboard, a joystick, a trackball, a touch panel, and the like. The output unit 9 includes a display unit represented by a monitor, a printer, and the like.

メモリ部14は、ROM(Read-only Memory)やRAM(Random-Access Memory)などに代表される記憶媒体で構成されている。本実施例1では、投影データ導出部10や画像処理部13で処理された診断データや、吸収補正データ導出部11で求められた吸収補正データについてはRAMに書き込んで記憶し、必要に応じてRAMから読み出す。ROMには、各種の核医学診断を行うためのプログラム等を予め記憶しており、そのプログラムをコントローラ7が実行することでそのプログラムに応じた核医学診断をそれぞれ行う。   The memory unit 14 is configured by a storage medium represented by ROM (Read-only Memory), RAM (Random-Access Memory), and the like. In the first embodiment, the diagnostic data processed by the projection data deriving unit 10 and the image processing unit 13 and the absorption correction data obtained by the absorption correction data deriving unit 11 are written and stored in the RAM, and if necessary. Read from RAM. The ROM stores in advance a program for performing various nuclear medicine diagnoses, and the controller 7 executes the program to perform nuclear medicine diagnosis according to the program.

投影データ導出部10と吸収補正データ導出部11と吸収補正部12と画像処理部13とは、例えば上述したメモリ部14などに代表される記憶媒体のROMに記憶されたプログラムあるいは入力部8などに代表されるポインティングデバイスで入力された命令をコントローラ7が実行することで実現される。   The projection data deriving unit 10, the absorption correction data deriving unit 11, the absorption correcting unit 12, and the image processing unit 13 are, for example, a program stored in a ROM of a storage medium represented by the above-described memory unit 14 or the input unit 8 or the like. This is realized by the controller 7 executing a command input by a pointing device represented by.

放射性薬剤が投与された被検体Mから発生したγ線をγ線検出器3のシンチレータブロックが光に変換して、変換されたその光をγ線検出器3のフォトマルチプライヤが光電変換して電気信号に出力する。その電気信号を画像情報(画素)として投影データ導出部10に送り込む。   The γ-rays generated from the subject M to which the radiopharmaceutical is administered are converted into light by the scintillator block of the γ-ray detector 3, and the converted light is photoelectrically converted by the photomultiplier of the γ-ray detector 3. Output to electrical signal. The electric signal is sent to the projection data deriving unit 10 as image information (pixel).

具体的には、被検体Mに放射性薬剤を投与すると、ポジトロン放出型のRIのポジトロンが消滅することにより、2本のγ線が発生する。投影データ導出部10は、シンチレータブロックの位置とγ線の入射タイミングとをチェックし、被検体Mを挟んで互いに対向位置にある2つのシンチレータブロックでγ線が同時に入射したときのみ、送り込まれた画像情報を適正なデータと判定する。一方のシンチレータブロックのみにγ線が入射したときには、投影データ導出部10は、ポジトロンの消滅により生じたγ線ではなくノイズとして扱い、そのときに送り込まれた画像情報もノイズと判定してそれを棄却する。   Specifically, when a radiopharmaceutical is administered to the subject M, two γ rays are generated due to the disappearance of the positron of the positron emission type RI. The projection data deriving unit 10 checks the position of the scintillator block and the incident timing of the γ-ray, and is sent only when the γ-ray is simultaneously incident on two scintillator blocks that are opposed to each other across the subject M. The image information is determined as appropriate data. When γ rays are incident only on one scintillator block, the projection data deriving unit 10 treats the image information sent at that time as noise instead of γ rays generated by annihilation of the positron. Dismiss.

投影データ導出部10に送り込まれた画像情報を投影データ(『エミッションデータ』とも呼ばれる)として、吸収補正部12に送り込む。吸収補正部12に送り込まれた投影データに、吸収補正データ導出部11から吸収補正部12に送り込まれた吸収補正データ(トランスミッションデータ)を作用させて、被検体Mの体内でのγ線の吸収を考慮した投影データに補正する。   The image information sent to the projection data deriving unit 10 is sent to the absorption correction unit 12 as projection data (also referred to as “emission data”). Absorption correction data (transmission data) sent from the absorption correction data derivation unit 11 to the absorption correction unit 12 is applied to the projection data sent to the absorption correction unit 12 to absorb γ rays in the body of the subject M. The projection data is corrected in consideration of the above.

なお、点線源4が被検体Mの体軸Zの周りを回転しながら被検体Mに向けてγ線を照射し、照射されたγ線を吸収補正データ用のγ線検出器5のシンチレータブロック(図示省略)が光に変換して、変換されたその光をγ線検出器5のフォトマルチプライヤ(図示省略)が光電変換して電気信号に出力する。その電気信号を画像情報(画素)として吸収補正データ導出部11に送り込む。   The point source 4 emits γ rays toward the subject M while rotating around the body axis Z of the subject M, and the irradiated γ rays are used as a scintillator block of the γ ray detector 5 for absorption correction data. (Not shown) converts it into light, and the converted light is photoelectrically converted by a photomultiplier (not shown) of the γ-ray detector 5 and output to an electrical signal. The electric signal is sent to the absorption correction data deriving unit 11 as image information (pixel).

吸収補正データ導出部11に送り込まれた画像情報に基づいて吸収補正データを求める。吸収補正データ導出部11は、γ線またはX線の吸収係数とエネルギーとの関係を表す演算を利用することで、CT用の投影データ、すなわちX線吸収係数の分布データをγ線吸収係数の分布データに変換して、γ線吸収係数の分布データを吸収補正データとして求める。導出された吸収補正データは上述した吸収補正部12に送られる。   Absorption correction data is obtained based on the image information sent to the absorption correction data deriving unit 11. The absorption correction data deriving unit 11 uses the calculation representing the relationship between the absorption coefficient of γ-rays or X-rays and the energy, so that the projection data for CT, that is, the distribution data of the X-ray absorption coefficient is converted into the γ-ray absorption coefficient. By converting to distribution data, the distribution data of the γ-ray absorption coefficient is obtained as absorption correction data. The derived absorption correction data is sent to the absorption correction unit 12 described above.

補正後の投影データを画像処理部13に送り込む。画像処理部13がその投影データを再構成して、被検体Mの体内でのγ線の吸収を考慮した断層画像を求める。このように、吸収補正部12、画像処理部13を備えることで、吸収補正データに基づいて投影データを補正するとともに、断層画像を補正する。補正された断層画像を、コントローラ7を介して出力部9やメモリ部14などに送り込む。画像処理部13は、この発明における画像処理手段に相当する。   The corrected projection data is sent to the image processing unit 13. The image processing unit 13 reconstructs the projection data to obtain a tomographic image taking into account the absorption of γ rays in the body of the subject M. Thus, by providing the absorption correction unit 12 and the image processing unit 13, the projection data is corrected based on the absorption correction data, and the tomographic image is corrected. The corrected tomographic image is sent to the output unit 9 and the memory unit 14 via the controller 7. The image processing unit 13 corresponds to the image processing means in this invention.

次に、画像処理部13の具体的な機能について、図2を参照して説明する。図2は、画像処理部13およびその周辺部のブロック図である。画像処理部13は、ウェーブレット変換部13aとノイズ除去処理部13bと逆ウェーブレット変換部13cと再構成処理部13dとを備えている。   Next, specific functions of the image processing unit 13 will be described with reference to FIG. FIG. 2 is a block diagram of the image processing unit 13 and its peripheral part. The image processing unit 13 includes a wavelet transformation unit 13a, a noise removal processing unit 13b, an inverse wavelet transformation unit 13c, and a reconstruction processing unit 13d.

ウェーブレット変換部13aは、各々の二次元空間のサイノグラムデータ(本実施例1ではアキシャル像、コロナル像)に対してウェーブレット変換を行う。具体的には、吸収補正部12によって吸収補正された各々の投影データについて、体軸Z方向の各検出器位置であるスライス方向z(すなわち体軸Zとスライス方向zとは同じ)(図6を参照)に、各投影位置であるプロジェクション方向s(図6を参照)、検出器方向であるチャンネル方向r(図6を参照)にマッピングされた三次元のサイノグラムデータとしてまとめる。その三次元のサイノグラムデータの3つの二次元空間(アキシャル、コロナル、サジタル)のうち、ウェーブレット変換部13aは、2つ以上の二次元空間(本実施例1ではアキシャル、コロナル)ごとに各々の二次元空間のサイノグラムデータに対してウェーブレット変換をそれぞれ行う。   The wavelet transform unit 13a performs wavelet transform on each two-dimensional space sinogram data (axial image and coronal image in the first embodiment). Specifically, with respect to each projection data absorption-corrected by the absorption correction unit 12, the slice direction z (that is, the body axis Z and the slice direction z are the same) that is each detector position in the body axis Z direction (FIG. 6). 3) are collected as three-dimensional sinogram data mapped in the projection direction s (see FIG. 6) that is each projection position and the channel direction r (see FIG. 6) that is the detector direction. Of the three two-dimensional spaces (axial, coronal, sagittal) of the three-dimensional sinogram data, the wavelet transform unit 13a has two each of two or more two-dimensional spaces (axial, coronal in the first embodiment). Wavelet transform is performed on sinogram data in the dimensional space.

ノイズ除去処理部13bは、ウェーブレット変換部13aでウェーブレット変換された低周波サイノグラムデータと高周波サイノグラムデータとの各々に対してノイズ除去処理を上述した2つ以上の二次元空間(本実施例1ではアキシャル、コロナル)ごとにそれぞれ行う。逆ウェーブレット変換部13cは、ノイズ除去された低周波サイノグラムデータおよび同じくノイズ除去された高周波サイノグラムデータに対して逆ウェーブレット変換を行う。再構成処理部13dは、逆ウェーブレット変換された二次元空間のサイノグラムデータに対して再構成処理を行う。   The noise removal processing unit 13b performs the noise removal processing on each of the low-frequency sinogram data and the high-frequency sinogram data wavelet transformed by the wavelet transformation unit 13a. , Each coronal). The inverse wavelet transform unit 13c performs inverse wavelet transform on the noise-removed low-frequency sinogram data and the noise-removed high-frequency sinogram data. The reconstruction processing unit 13d performs reconstruction processing on sinogram data in a two-dimensional space that has been subjected to inverse wavelet transform.

ウェーブレット変換部13aは、この発明における多重解像度サイノグラム分割手段に相当し、ノイズ除去処理部13bは、この発明におけるノイズ除去処理手段に相当し、逆ウェーブレット変換部13cは、この発明におけるサイノグラムデータ合成手段に相当し、再構成処理部13dは、この発明における再構成処理手段に相当する。   The wavelet transform unit 13a corresponds to the multi-resolution sinogram dividing unit in the present invention, the noise removal processing unit 13b corresponds to the noise removal processing unit in the present invention, and the inverse wavelet transform unit 13c is the sinogram data synthesis unit in the present invention. The reconstruction processing unit 13d corresponds to the reconstruction processing means in this invention.

続いて、画像処理部13による具体的な画像処理について、図3〜図13を参照して説明する。図3は、実施例1に係る一連の画像処理の流れを示すフローチャートであり、図4は、実施例1に係る一連のアキシャル像での画像処理の流れを示すフローチャートであり、図5は、実施例1に係る一連のコロナル像での画像処理での流れを示すフローチャートであり、図6は、アキシャル像およびコロナル像での画像処理の流れを模式的に示した図であり、図7は、ハール(Haar)のスケーリング関数およびハールのウェーブレット関数であり、図8は、Daubechie数列を示した図であり、図9は、一次元空間におけるウェーブレット変換の模式的なイメージであり、図10は、二次元空間におけるウェーブレット変換の模式的なイメージであり、図11は、二次元空間におけるウェーブレット変換を実施例1に適用したときのウェーブレット変換での各画像を模式的に示した図であり、図12は、“LL”、“HH”、“LH”の説明に供する模式図であり、図13は、しきい値処理によるノイズ除去処理の説明に供する模式図である。   Next, specific image processing by the image processing unit 13 will be described with reference to FIGS. FIG. 3 is a flowchart illustrating a flow of a series of image processing according to the first embodiment, FIG. 4 is a flowchart illustrating a flow of image processing with a series of axial images according to the first embodiment, and FIG. FIG. 6 is a flowchart showing a flow of image processing with a series of coronal images according to Embodiment 1, FIG. 6 is a diagram schematically showing a flow of image processing with axial images and coronal images, and FIG. FIG. 8 is a diagram showing a Daubechie sequence, FIG. 9 is a schematic image of wavelet transformation in a one-dimensional space, and FIG. FIG. 11 is a schematic image of wavelet transform in a two-dimensional space, and FIG. 11 shows a wavelet transform when the wavelet transform in a two-dimensional space is applied to the first embodiment. FIG. 12 is a schematic diagram for explaining “LL”, “HH”, and “LH”, and FIG. 13 is a diagram of noise removal processing by threshold processing. It is a schematic diagram with which it uses for description.

(ステップS1)アキシャル像での画像処理
吸収補正部12によって吸収補正された各々の投影データは、投影面フォーマットからサイノグラムフォーマットへ変換するフーリエ・リビニング処理により、三次元のデータセットに変換される。この三次元のデータセットでは、プロジェクション方向s(図6を参照)、チャンネル方向r(図6を参照)にマッピングされた二次元のサイノグラムデータがスライス方向z(すなわち体軸Z)に複数枚分に収集されることになる。
(Step S1) Image Processing with Axial Image Each projection data subjected to the absorption correction by the absorption correction unit 12 is converted into a three-dimensional data set by Fourier rebinning processing for converting from the projection plane format to the sinogram format. In this three-dimensional data set, a plurality of pieces of two-dimensional sinogram data mapped in the projection direction s (see FIG. 6) and the channel direction r (see FIG. 6) in the slice direction z (ie, the body axis Z). Will be collected.

本明細書では、図6(a)に示すように、プロジェクション方向s、チャンネル方向rで構成される二次元空間をアキシャル(Axial)(rs平面)とし、そのプロジェクション方向s、チャンネル方向rにマッピングされた二次元のサイノグラムデータをアキシャル像とする。したがって、吸収補正部12によって吸収補正された各々の投影データは、アキシャル像がスライス方向zに複数枚分に収集される。この吸収補正されたアキシャル像を用いて画像処理部13で各種の画像処理を行う。このステップS1は、下記のステップT1〜T4からなる。   In this specification, as shown in FIG. 6A, a two-dimensional space composed of a projection direction s and a channel direction r is defined as an axial (rs plane), and is mapped to the projection direction s and the channel direction r. The obtained two-dimensional sinogram data is used as an axial image. Therefore, for each projection data subjected to the absorption correction by the absorption correction unit 12, an axial image is collected for a plurality of sheets in the slice direction z. The image processing unit 13 performs various types of image processing using the absorption-corrected axial image. This step S1 includes the following steps T1 to T4.

また、本明細書では、図6(b)に示すように、スライス方向z(すなわち体軸Z)、チャンネル方向rで構成される二次元空間をコロナル(coronal)(rz平面)とし、そのスライス方向z、チャンネル方向rにマッピングされた二次元のサイノグラムデータをコロナル像とする。なお、本実施例1では用いないが、スライス方向z(すなわち体軸Z)、プロジェクション方向sで構成される二次元空間をサジタル(sagittal)(sz平面)とし、そのスライス方向z、プロジェクション方向sにマッピングされた二次元のサイノグラムデータをサジタル像とする。   Further, in this specification, as shown in FIG. 6B, a two-dimensional space constituted by a slice direction z (ie, body axis Z) and a channel direction r is defined as a coronal (rz plane), and the slice Two-dimensional sinogram data mapped in the direction z and the channel direction r is defined as a coronal image. Although not used in the first embodiment, a two-dimensional space composed of the slice direction z (that is, the body axis Z) and the projection direction s is defined as sagittal (sz plane), and the slice direction z and the projection direction s. The two-dimensional sinogram data mapped to is defined as a sagittal image.

(ステップT1)ウェーブレット変換
ウェーブレット変換部13aは、各々のスライス方向ごとに吸収補正後のアキシャル像に対してウェーブレット変換をそれぞれ行う。具体的には、1つのスライス方向におけるアキシャル像を分解して、各分解ごとに比較して逐次的に低い解像度を持つ複数の低周波サイノグラムデータ(ステップS1ではアキシャル像)と、各分解ごとに比較して逐次的に低い解像度を持つ複数の高周波サイノグラムデータ(ステップS1ではアキシャル像)とを生成する。
(Step T1) Wavelet Transform The wavelet transform unit 13a performs wavelet transform on the axial image after the absorption correction for each slice direction. Specifically, the axial image in one slice direction is decomposed, and a plurality of low-frequency sinogram data (axial image in step S1) having sequentially lower resolution than each decomposition, and for each decomposition In comparison, a plurality of high-frequency sinogram data (axial images in step S1) having successively lower resolutions are generated.

後述するコロナル像に対してウェーブレット変換を行う場合も含めて、ウェーブレット変換では、多重解像度変換が適用される〔例えば C MAGAZINE、“第40回 画像処理を極める アルゴリズムラボ ウェーブレット変換による圧縮処理(1) ウェーブレット変換の基礎”、[online]、新潟大学医学部保健学科、インターネット< URL : http://www.clg.niigata-u.ac.jp/~tsai/home-page/lecture/Wavelet-Comp1.pdf>(非特許文献)を参照〕。この多重解像度変換は、以下の通りである。なお、連続ウェーブレット変換については説明を省略する。   Multi-resolution transformation is applied in wavelet transformation, including the case where wavelet transformation is performed on a coronal image, which will be described later [for example, C MAGAZINE, “40th Algorithm Lab for Image Processing Extremely Compression Processing by Wavelet Transformation (1) Basics of Wavelet Transform ”, [online], Niigata University School of Medicine, Internet <URL: http://www.clg.niigata-u.ac.jp/~tsai/home-page/lecture/Wavelet-Comp1.pdf > (Non-patent literature)]. This multi-resolution conversion is as follows. Note that description of the continuous wavelet transform is omitted.

[多重解像度分析]
先ず、ウェーブレット変換を説明する前に多重解像度分析について説明する。多重解像度解析とは関数をスケーリング関数φ(t)の総和で表すものである。ここでは、もっとも簡単なスケーリング関数として、図7(a)に示すように、下記(1)式のように定義されるハール(Haar)のスケーリング関数φ(t)がある。
[Multi-resolution analysis]
First, multiresolution analysis will be described before describing wavelet transform. Multiresolution analysis represents a function as the sum of scaling functions φ (t). Here, as the simplest scaling function, there is a Haar scaling function φ (t) defined as the following equation (1), as shown in FIG.

Figure 0004910979
Figure 0004910979

このハールのスケーリング関数φ(t)は、矩形のパルス波となり、このスケーリング関数φ(t)を用いると任意の関数f(t)をf(t)のように近似することができる。このようなハールのスケーリング関数φ(t)をt軸上で平行移動、縮小/拡大したものは、下記(2)式のように表される。 The Haar scaling function φ (t) is a rectangular pulse wave, and when this scaling function φ (t) is used, an arbitrary function f (t) can be approximated as f j (t). Such a Haar scaling function φ (t) translated and reduced / enlarged on the t-axis is expressed by the following equation (2).

Figure 0004910979
Figure 0004910979

上記(2)式において2は拡大/縮小を表すスケールパラメータであり、kは平行移動を表すシフトパラメータである。このφj,kを用いたレベルjの近似をs (j)を用いて、下記(3)式のように定義する。このとき、s (j)を「スケーリング係数」と呼ぶ。 In the above equation (2), 2 j is a scale parameter representing enlargement / reduction, and k is a shift parameter representing translation. An approximation of level j using φ j, k is defined as the following equation (3) using s k (j) . At this time, s k (j) is called a “scaling coefficient”.

Figure 0004910979
Figure 0004910979

上記(3)式において、レベル数であるjが大きくなるとスケーリング関数の幅が大きくなるので、レベル数が大きいほど近似が粗くなり元の関数f(t)からかけ離れたものとなる。すなわち、f(t)はfj−1(t)に比べて情報が欠落している。この欠落分をg(t)とすると、下記(4)式が成立する。 In the above equation (3), since the width of the scaling function increases as j, which is the number of levels, the approximation becomes rougher as the number of levels increases and becomes far from the original function f (t). That is, f j (t) lacks information compared to f j−1 (t). If this missing portion is g j (t), the following equation (4) is established.

Figure 0004910979
Figure 0004910979

このg(t)を「レベルjのウェーブレット成分」と呼ぶ。このg(t)は、正負対称に振動する矩形となり、その構成要素を、ハールのスケーリング関数φ(t)と同じような関数で表すことができる。この関数は、「ハールのウェーブレット関数」と呼ばれ、図7(b)に示すように、下記(5)式のように表される。 This g j (t) is called a “level j wavelet component”. This g j (t) is a rectangle that vibrates positively and negatively, and its constituent elements can be expressed by a function similar to the Haar scaling function φ (t). This function is called a “Haar wavelet function” and is represented by the following equation (5) as shown in FIG.

Figure 0004910979
Figure 0004910979

このハールのウェーブレット関数ψ(t)も、正負対称に振動する矩形のパルス波となり、このハールのウェーブレット関数ψ(t)をt軸上で平行移動、縮小/拡大したものは、下記(6)式のように表される。   This Haar wavelet function ψ (t) is also a rectangular pulse wave oscillating in positive and negative symmetry, and the Haar wavelet function ψ (t) is translated and reduced / enlarged on the t-axis. It is expressed as an expression.

Figure 0004910979
Figure 0004910979

φj,kと同様に、上記(6)式において2は拡大/縮小を表すスケールパラメータであり、kは平行移動を表すシフトパラメータである。このψj,kを用いると、上述したg(t)は、下記(7)式のように表される。このとき、ω (j)を「レベルjのウェーブレット展開係数」と呼ぶ。 Similarly to φ j, k , in the above equation (6), 2 j is a scale parameter representing enlargement / reduction, and k is a shift parameter representing translation. When this ψ j, k is used, g j (t) described above is expressed by the following equation (7). At this time, ω k (j) is referred to as a “level j wavelet expansion coefficient”.

Figure 0004910979
Figure 0004910979

上記(3)、(4)、(7)式をまとめると、下記(8)式のようになる。   The above formulas (3), (4) and (7) can be summarized as the following formula (8).

Figure 0004910979
Figure 0004910979

上記(8)式から、レベル(j−1)の近似関数fj−1(t)はレベルjの近似関数f(t)とレベルjのウェーブレット展開係数で表現される関数g(t)(すなわちレベルjのウェーブレット成分)とに分解される。これを繰り返し利用すると、レベル“0”の近似関数f(t)は、レベル1,2,…,Jの近似関数を用いて、下記(9)式のように表される。 From the above equation (8), the approximate function f j-1 (t) of the level ( j−1 ) is expressed as the function g j (t) expressed by the approximate function f j (t) of the level j and the wavelet expansion coefficient of the level j. ) (That is, wavelet components at level j). When this is used repeatedly, the approximation function f 0 (t) at level “0” is expressed as the following equation (9) using approximation functions at levels 1, 2,.

Figure 0004910979
Figure 0004910979

このように、関数f(t)を、幅の異なる(つまり解像度の異なる)ウェーブレット成分の和で表現できる。このような解析方法を「多重解像度分析」と呼ぶ。 Thus, the function f 0 (t) can be expressed by the sum of wavelet components having different widths (that is, different resolutions). Such an analysis method is called “multi-resolution analysis”.

[ツースケール関係]
実際には関数の形が単純で非連続であることもあり、ハールの関数を用いた処理は実用的でない。実際には、実用されるスケーリング関数となるためには、下記(10)式のような関係式を満たす必要がある。
[Two-scale relationship]
Actually, the shape of the function may be simple and discontinuous, and the processing using the Haar function is not practical. Actually, in order to be a practical scaling function, it is necessary to satisfy a relational expression such as the following expression (10).

Figure 0004910979
Figure 0004910979

上記(10)式は、あるレベルのスケーリング関数が、それよりレベル数の小さいスケーリング関数が導けることを示している。この関係を「ツースケール関係」という。ハールのスケーリング関数におけるツースケール関係を下記(11)式に示す。   The above equation (10) shows that a scaling function with a certain level can derive a scaling function with a smaller number of levels. This relationship is called “two-scale relationship”. The two-scale relationship in the Haar scaling function is shown in the following equation (11).

Figure 0004910979
Figure 0004910979

ただし、上記(11)式のような関係を満たすためには、ハールのスケーリング関数だけでなく、ハールのウェーブレットもそれよりもレベル数の低いスケーリング関係から導ける必要がある。つまり、ハールのウェーブレットの場合にも、上記(10)式のような関係が成立する必要がある。ハールのウェーブレットにおけるツースケール関係を下記(12)式に示す。   However, in order to satisfy the relationship represented by the above equation (11), not only the Haar scaling function but also the Haar wavelet needs to be derived from a scaling relationship having a lower number of levels. That is, even in the case of Haar wavelets, it is necessary to establish a relationship such as the above equation (10). The two-scale relationship in the Haar wavelet is shown in the following equation (12).

Figure 0004910979
Figure 0004910979

[Daubechieのウェーブレット]
上記(12)式のような関係を満たし、多重解像度分析に用いられる関数としては、Daubechieのウェーブレットがある。Daubechieのウェーブレット,スケーリング関数は、概観は三角波のような形状であるが、非常に複雑で既知の関数で表現することができない。Daubechieのウェーブレットを用いる場合には、図8に示すようなツースケール関係の数列p,qを用いて計算を行う。図8では、N=2〜4のものを示しているが、Nの値については特に限定されない。
[Daubechie wavelet]
As a function that satisfies the relationship expressed by the above equation (12) and is used for multiresolution analysis, there is a Daubechie wavelet. Daubechie's wavelet and scaling functions are shaped like a triangular wave, but they are very complex and cannot be expressed with known functions. In the case of using the wavelet Daubechie performs calculation using the sequence p n, q n of to-scale relationship as shown in FIG. In FIG. 8, N = 2 to 4 are shown, but the value of N is not particularly limited.

[離散ウェーブレット展開係数]
図8の数列p,qを用いてスケーリング係数s (j)やウェーブレット展開係数ω (j)を求める。スケーリング係数s (j)は上記(3)式によって求められるが、この式を、ツースケール関係を用いて変形すると、下記(13)式のように表される。
[Discrete wavelet expansion coefficient]
A scaling coefficient s k (j) and a wavelet expansion coefficient ω k (j) are obtained using the sequences p n and q n of FIG. The scaling coefficient s k (j) is obtained by the above equation (3). When this equation is transformed using the two-scale relationship, it is expressed as the following equation (13).

Figure 0004910979
Figure 0004910979

上記(13)式を用いれば、レベル数の小さい(すなわち解像度の高い)スケーリング係数から、レベル数の大きい(すなわち解像度の低い)スケーリング係数を求めることができる。同様に、ウェーブレット展開係数を求める導出式は、下記(14)式のようになる。   By using the above equation (13), a scaling coefficient having a large number of levels (that is, low resolution) can be obtained from a scaling coefficient having a small number of levels (that is, high resolution). Similarly, the derivation formula for obtaining the wavelet expansion coefficient is as shown in the following formula (14).

Figure 0004910979
Figure 0004910979

これとは逆にレベル数の大きいスケーリング係数から、レベル数の小さいスケーリング係数を求めるには、下記(15)式を用いる。これは逆ウェーブレット変換になる。   On the contrary, in order to obtain a scaling coefficient with a small number of levels from a scaling coefficient with a large number of levels, the following equation (15) is used. This is an inverse wavelet transform.

Figure 0004910979
Figure 0004910979

[高速ウェーブレット変換]
レベル数の大きいウェーブレット変換を行う場合、定義の式にしたがって計算する方法がもっとも単純である。一方、レベル数の小さいウェーブレット変換の結果を利用する方法もある。この場合、レベル数の小さいウェーブレット変換のうち、sの部分のみをウェーブレット変換して、レベル数の大きいウェーブレットの結果を得る。さらに、レベル数を上げるには、この変換を繰り返す。この処理のイメージを図9に示す。逆ウェーブレット変換の場合には、図9中の矢印とは逆方向に処理が行われる。この処理を行うためには処理結果が2等分できる必要があり、基本的にデータの大きさが2のN乗である必要がある。この条件を満たす場合に限り、定義の式にしたがって計算するよりも少ない計算量でウェーブレット変換を行うことができるので、この処理を「高速ウェーブレット変換」という。
[High-speed wavelet transform]
When performing a wavelet transform with a large number of levels, the method of calculating according to the definition formula is the simplest. On the other hand, there is a method using the result of wavelet transform with a small number of levels. In this case, of the wavelet transform with a small number of levels, only the portion s is wavelet transformed to obtain a wavelet result with a large number of levels. Further, this conversion is repeated to increase the number of levels. An image of this processing is shown in FIG. In the case of inverse wavelet transform, processing is performed in the direction opposite to the arrow in FIG. In order to perform this processing, it is necessary that the processing result can be divided into two equal parts, and basically the data size needs to be 2 to the Nth power. Only when this condition is satisfied, the wavelet transform can be performed with a smaller amount of calculation than that calculated according to the definition formula, and this processing is called “high-speed wavelet transform”.

[離散ウェーブレット変換の二次元への拡張]
画像データ(本実施例1ではアキシャル像や後述するコロナル像)は二次元空間の拡がりを持つので、これを分析するためには、上記(13)、(14)式に示したウェーブレット変換の式を二次元に拡張する必要がある。すなわち、一方向に対してウェーブレット変換を行い、その結果を別方向から再度変換することで、二次元の離散ウェーブレット変換を完成させる。このイメージを図10に示す。先ず、一方向に対してウェーブレット変換を行った結果は、図10(b)のようになる。これを別方向から、ウェーブレット変換を行うと図10(c)のようになる。図10(c)の左上が低周波成分、左下が水平成分の高周波成分、右上が垂直成分の高周波成分、右下が対角成分の高周波成分を示す。
[Extension of discrete wavelet transform to two dimensions]
Since image data (in the first embodiment, an axial image or a coronal image described later) has a two-dimensional space spread, the wavelet transform equation shown in the above equations (13) and (14) is used to analyze this. Needs to be extended to two dimensions. That is, wavelet transformation is performed for one direction, and the result is transformed again from another direction, thereby completing a two-dimensional discrete wavelet transformation. This image is shown in FIG. First, the result of performing wavelet transform in one direction is as shown in FIG. If this is wavelet transformed from another direction, the result is as shown in FIG. In FIG. 10 (c), the upper left shows a low frequency component, the lower left shows a horizontal high frequency component, the upper right shows a vertical high frequency component, and the lower right shows a diagonal high frequency component.

以上が、一般的なウェーブレット変換の説明である。このウェーブレット変換を本実施例1のアキシャル像に対して適用すると、図10のイメージは図11のようになる。すなわち、アキシャル像の一方向(例えばプロジェクション方向s、チャンネル方向rまたはrs平面内の任意の一方向)に対してウェーブレット変換を行い、その結果を別方向(例えばプロジェクション方向sに直交したチャンネル方向r、チャンネル方向rに直交したプロジェクション方向sまたはrs平面内の任意の一方向に直交した方向)から再度変換することで、図11(a)に示すアキシャル像を分解して、図11(b)に示す1つの低周波サイノグラムデータと、3つの高周波サイノグラムデータとを生成する。   The above is an explanation of general wavelet transform. When this wavelet transform is applied to the axial image of the first embodiment, the image of FIG. 10 becomes as shown in FIG. That is, wavelet transform is performed on one direction of the axial image (for example, the projection direction s, the channel direction r, or any one direction in the rs plane), and the result is converted to another direction (for example, the channel direction r orthogonal to the projection direction s). 11 (a), the axial image shown in FIG. 11 (a) is decomposed by converting again from the projection direction s orthogonal to the channel direction r or the direction orthogonal to any one direction in the rs plane. One low-frequency sinogram data and three high-frequency sinogram data shown in FIG.

図11(b)および図11(c)では、水平方向を、図12に示すようにLとするとともに、垂直方向を、図12に示すようにHとする。また、図11(b)、図11(c)および図12では、ウェーブレット変換を行う方向をハッチングで示す。水平方向Lに関するウェーブレット変換後の画像を“LL”とし、垂直方向Hに関するウェーブレット変換後の“HH”とする。また、対角方向に関するウェーブレット変換後の画像を“LH”とする。すると、1回目のウェーブレット変換後の各画像は、図11(b)に示すように、1つの低周波サイノグラムデータ(図11(b)ではハッチングなし)と、高周波サイノグラムデータLL,HH,LHとを生成する。   11B and 11C, the horizontal direction is L as shown in FIG. 12, and the vertical direction is H as shown in FIG. Moreover, in FIG.11 (b), FIG.11 (c), and FIG. 12, the direction which performs wavelet transformation is shown by hatching. An image after the wavelet transform in the horizontal direction L is “LL”, and an image after the wavelet transform in the vertical direction H is “HH”. Further, an image after wavelet transform in the diagonal direction is assumed to be “LH”. Then, each image after the first wavelet transform has one low frequency sinogram data (not hatched in FIG. 11B) and high frequency sinogram data LL, HH, LH as shown in FIG. Is generated.

図11(a)に示すアキシャル像に対するウェーブレット変換と同様に、図11(b)に示すこの低周波サイノグラムデータの一方向に対してウェーブレット変換を行い、その結果を別方向から再度変換することで、図11(b)に示す低周波サイノグラムデータを分解して、図11(c)に示す1つの低周波サイノグラムデータと、3つの高周波サイノグラムデータとを生成する。図11(b)と同様に、2回目のウェーブレット変換後の各画像も、図11(c)に示すように、1つの低周波サイノグラムデータ(図11(c)ではハッチングなし)と、高周波サイノグラムデータLL,HH,LHとを生成する。   Similar to the wavelet transform for the axial image shown in FIG. 11A, wavelet transform is performed on one direction of the low-frequency sinogram data shown in FIG. 11B, and the result is converted again from another direction. The low-frequency sinogram data shown in FIG. 11 (b) is decomposed to generate one low-frequency sinogram data and three high-frequency sinogram data shown in FIG. 11 (c). Similarly to FIG. 11 (b), each image after the second wavelet transform also includes one low-frequency sinogram data (no hatching in FIG. 11 (c)) and a high-frequency sinogram as shown in FIG. 11 (c). Data LL, HH, and LH are generated.

このように、ウェーブレット変換を複数回繰り返すことで、アキシャル像を分解して、各分解ごとに比較して逐次的に低い解像度を持つ複数の低周波サイノグラムデータと、各分解ごとに比較して逐次的に低い解像度を持つ複数の高周波サイノグラムデータとを生成する。   In this way, the wavelet transform is repeated a plurality of times to decompose the axial image, and a plurality of low-frequency sinogram data having sequentially lower resolution compared to each decomposition, and sequentially compared to each decomposition. A plurality of high-frequency sinogram data having a low resolution.

(ステップT2)ノイズ除去処理
ノイズ除去処理部13bは、ステップT1でウェーブレット変換された低周波サイノグラムデータと高周波サイノグラムデータとの各々に対してノイズ除去処理を行う。具体的には、ウェーブレット変換係数(スケーリング係数)のハイパス成分(高周波成分)をしきい値処理ないしは非線形しきい値処理によりコアリングするウェーブレット縮退法を用いる。例えば、高周波サイノグラムデータLLに対してノイズ除去処理を行う場合には、図12に示すLL空間を、図13に示すように一次元に展開して、ハイパス成分がしきい値より大きければ“0”に落とすことでノイズ除去処理を行う。高周波サイノグラムデータHHや高周波サイノグラムデータLHについても同様である。なお、対角方向(斜め方向)のノイズを低減させる目的で、LH空間でのしきい値の重みを大きく与えて、LH空間でのしきい値を設定する。
(Step T2) Noise Removal Processing The noise removal processing unit 13b performs noise removal processing on each of the low-frequency sinogram data and high-frequency sinogram data that have been wavelet transformed in Step T1. Specifically, a wavelet degeneration method is used in which high-pass components (high-frequency components) of wavelet transform coefficients (scaling coefficients) are correlated by threshold processing or nonlinear threshold processing. For example, when noise removal processing is performed on the high-frequency sinogram data LL, the LL space shown in FIG. 12 is expanded one-dimensionally as shown in FIG. The noise removal processing is performed by dropping it to "". The same applies to the high-frequency sinogram data HH and the high-frequency sinogram data LH. For the purpose of reducing the noise in the diagonal direction (diagonal direction), the threshold value in the LH space is set by giving a large weight to the threshold value in the LH space.

(ステップT3)逆ウェーブレット変換
逆ウェーブレット変換部13cは、ステップT2でノイズ除去された低周波サイノグラムデータおよび同じくノイズ除去された高周波サイノグラムデータに対して逆ウェーブレット変換を行う。具体的には、上記(15)式に代入することで1つのアキシャル像に合成することで逆ウェーブレット変換を行う。
(Step T3) Inverse Wavelet Transform The inverse wavelet transform unit 13c performs inverse wavelet transform on the low-frequency sinogram data from which noise has been removed in step T2 and the high-frequency sinogram data from which noise has also been removed. Specifically, the inverse wavelet transform is performed by synthesizing into one axial image by substituting into the above equation (15).

(ステップT4)全スライス?
このようにステップT1〜T3の処理を行うことで、1つのスライス方向におけるアキシャル像に対するウェーブレット変換、ノイズ除去処理および逆ウェーブレット変換が行われる。そして、これらのステップT1〜T3による処理が全スライスで行われたか否かを判定する。もし、全スライスで行われた場合には、各々のスライス方向ごとにアキシャル像に対するウェーブレット変換、ノイズ除去処理および逆ウェーブレット変換が全て行われたとして、ステップT1〜T4からなるステップS1を終了して、次のステップS2に進む。もし、全スライスで行われなかった場合には、次のスライス方向におけるアキシャル像に対するウェーブレット変換、ノイズ除去処理および逆ウェーブレット変換を行うために、ステップT1に戻ってステップT1〜T3による処理を行う。
(Step T4) All slices?
By performing the processing in steps T1 to T3 in this way, wavelet transformation, noise removal processing, and inverse wavelet transformation are performed on an axial image in one slice direction. Then, it is determined whether or not the processing in these steps T1 to T3 has been performed on all slices. If all slices have been performed, assuming that wavelet transformation, noise removal processing, and inverse wavelet transformation are all performed on the axial image for each slice direction, step S1 including steps T1 to T4 is completed. The process proceeds to the next step S2. If not performed in all slices, the process returns to step T1 and performs the processes in steps T1 to T3 in order to perform wavelet transform, noise removal processing, and inverse wavelet transform on the axial image in the next slice direction.

このようにステップT4で全スライスで行われたと判定した場合には、ノイズ除去処理されたアキシャル像が得られる。なお、図6(a)は、ノイズ除去処理前のアキシャル像であり、ステップS1(T1,T2,T3,T4)の処理を経ることで、図6(b)に示すように、ノイズ除去処理後のアキシャル像が得られる。このノイズ除去処理後のアキシャル像を次のステップS2でのコロナル像での画像処理のために用いる。したがって、図6(b)は、ノイズ除去処理後のアキシャル像を用いたノイズ除去処理前のコロナル像である。   In this way, when it is determined in step T4 that the processing has been performed for all slices, an axial image subjected to noise removal processing is obtained. FIG. 6A shows an axial image before the noise removal process. As shown in FIG. 6B, the noise removal process is performed after the process of step S1 (T1, T2, T3, T4). A later axial image is obtained. The axial image after this noise removal processing is used for image processing with a coronal image in the next step S2. Therefore, FIG. 6B is a coronal image before noise removal processing using an axial image after noise removal processing.

(ステップS2)コロナル像での画像処理
ステップS1で画像処理されたノイズ除去処理後のスライス方向zごとのアキシャル像を、プロジェクション方向sごとのコロナル像にして、このコロナル画像を用いて画像処理部13で各種の画像処理を行う。このステップS2は、下記のステップU1〜U4からなる。
(Step S2) Image Processing with Coronal Image The axial image for each slice direction z after the noise removal processing that has been subjected to the image processing in step S1 is made a coronal image for each projection direction s, and an image processing unit is used by using this coronal image. 13 performs various image processing. Step S2 includes the following steps U1 to U4.

(ステップU1)ウェーブレット変換
ウェーブレット変換部13aは、各々のプロジェクション方向sごとにコロナル像に対してウェーブレット変換をそれぞれ行う。具体的には、1つのプロジェクション方向におけるコロナル像を分解して、各分解ごとに比較して逐次的に低い解像度を持つ複数の低周波サイノグラムデータ(ステップS2ではコロナル像)と、各分解ごとに比較して逐次的に低い解像度を持つ複数の高周波サイノグラムデータ(ステップS2ではコロナル像)とを生成する。具体的なウェーブレット変換については、ステップT1でも述べたのでその説明を省略する。
(Step U1) Wavelet Transform The wavelet transform unit 13a performs wavelet transform on the coronal image for each projection direction s. Specifically, a coronal image in one projection direction is decomposed, a plurality of low frequency sinogram data (coronal image in step S2) having sequentially lower resolution than each decomposition, and each decomposition. In comparison, a plurality of high-frequency sinogram data (coronal images in step S2) having successively lower resolutions are generated. Since the specific wavelet transform has been described in step T1, the description thereof will be omitted.

(ステップU2)ノイズ除去処理
ノイズ除去処理部13bは、ステップU1でウェーブレット変換された低周波サイノグラムデータと高周波サイノグラムデータとの各々に対してノイズ除去処理を行う。具体的なノイズ除去処理については、ステップT2でも述べたのでその説明を省略する。
(Step U2) Noise Removal Processing The noise removal processing unit 13b performs noise removal processing on each of the low frequency sinogram data and the high frequency sinogram data that have been wavelet transformed in Step U1. Since the specific noise removal processing has been described in step T2, the description thereof will be omitted.

(ステップU3)逆ウェーブレット変換
逆ウェーブレット変換部13cは、ステップU2でノイズ除去された低周波サイノグラムデータおよび同じくノイズ除去された高周波サイノグラムデータに対して逆ウェーブレット変換を行う。具体的な逆ウェーブレット変換については、ステップT3でも述べたのでその説明を省略する。
(Step U3) Inverse Wavelet Transformation The inverse wavelet transformation unit 13c performs inverse wavelet transformation on the low-frequency sinogram data from which noise has been removed in step U2 and the high-frequency sinogram data from which noise has been removed. Since the specific inverse wavelet transform has been described in step T3, the description thereof is omitted.

(ステップU4)全プロジェクション?
このようにステップU1〜U3の処理を行うことで、1つのプロジェクション方向におけるコロナル像に対するウェーブレット変換、ノイズ除去処理および逆ウェーブレット変換が行われる。そして、これらのステップU1〜U3による処理が全プロジェクションで行われたか否かを判定する。もし、全プロジェクションで行われた場合には、各々のプロジェクションごとにコロナル像に対するウェーブレット変換、ノイズ除去処理および逆ウェーブレット変換が全て行われたとして、ステップU1〜U4からなるステップS2を終了して、次のステップS3に進む。もし、全プロジェクションで行われなかった場合には、次のプロジェクション方向におけるコロナル像に対するウェーブレット変換、ノイズ除去処理および逆ウェーブレット変換を行うために、ステップU1に戻ってステップU1〜U3による処理を行う。
(Step U4) All projections?
By performing the processing of steps U1 to U3 in this way, wavelet transformation, noise removal processing, and inverse wavelet transformation for a coronal image in one projection direction are performed. Then, it is determined whether or not the processing in these steps U1 to U3 has been performed for all projections. If all projections have been performed, assuming that wavelet transformation, noise removal processing, and inverse wavelet transformation for the coronal image have been performed for each projection, step S2 consisting of steps U1 to U4 is terminated. Proceed to the next Step S3. If not performed in all projections, the process returns to step U1 to perform the processes in steps U1 to U3 in order to perform wavelet transformation, noise removal processing, and inverse wavelet transformation on the coronal image in the next projection direction.

このようにステップU4で全スライスで行われたと判定した場合には、ノイズ除去処理されたコロナル像が得られる。なお、図6(c)は、ノイズ除去処理後のコロナル像を用いたノイズ除去処理後のアキシャル像(図6(c)の「Denoized sinogram」を参照)であり、ステップS2(U1,U2,U3,U4)の処理を経ることで、図6(c)に示すように、ノイズ除去処理後のコロナル像が得られる。   As described above, when it is determined in step U4 that the processing has been performed on all slices, a coronal image subjected to noise removal processing is obtained. FIG. 6C shows an axial image after the noise removal process using the coronal image after the noise removal process (see “Denoized sinogram” in FIG. 6C), and step S2 (U1, U2, U2). Through the processing of U3, U4), as shown in FIG. 6C, a coronal image after noise removal processing is obtained.

(ステップS3)再構成処理
ステップS2で画像処理されたノイズ除去処理後のプロジェクション方向sごとのコロナル像を三次元空間に束ねて、再構成処理部13dは再構成処理を行って断層画像を得る。再構成処理については、周知のフィルタード・バックプロジェクション(FBP: Filtered Back Projection)(「フィルタ補正逆投影法」とも呼ばれる)を用いて行えばよい。
(Step S3) Reconstruction Processing The coronal images for each projection direction s after the noise removal processing subjected to image processing in step S2 are bundled in a three-dimensional space, and the reconstruction processing unit 13d performs reconstruction processing to obtain a tomographic image. . The reconstruction process may be performed using a well-known filtered back projection (FBP) (also called “filtered back projection method”).

従来のウェーブレット変換などに代表される多重解像度変換では、二次元空間の投影データを分解して多重解像度変換を行って、ノイズ除去処理を行った後にフィルタード・バックプロジェクションを用いて再構成処理を行うので、ノイズはコンボリューション(畳み込み積分)フィルタ特性の影響を受けて、画像データ上の高精度なノイズ除去を困難にしている。そこで、三次元のデータを用いて多重解像度変換を行えば高精度なノイズ除去が行えると考えられる。一方、三次元のデータとして通常のxyzデータを用いる場合には、このxyzデータにノイズが隠れてしまうので、xyzデータを用いて多重解像度変換を行ってもノイズが除去しきれない。   In multi-resolution conversion represented by the conventional wavelet transform, etc., two-dimensional space projection data is decomposed, multi-resolution conversion is performed, noise removal processing is performed, and then reconstruction processing is performed using filtered back projection. Therefore, the noise is affected by the convolution (convolution integration) filter characteristics, making it difficult to remove noise on the image data with high accuracy. Therefore, it is considered that highly accurate noise removal can be performed by performing multi-resolution conversion using three-dimensional data. On the other hand, when normal xyz data is used as three-dimensional data, noise is hidden in the xyz data. Therefore, even if multiresolution conversion is performed using the xyz data, the noise cannot be completely removed.

そこで、上述の構成を備えた本実施例1に係るPET装置によれば、体軸Z方向の各検出器位置であるスライス方向zに、各投影位置であるプロジェクション方向s、検出器方向であるチャンネル方向rにマッピングされた三次元のサイノグラムデータを三次元のデータとして用いて多重解像度変換を行う。   Therefore, according to the PET apparatus according to the first embodiment having the above-described configuration, the projection direction s and the detector direction are the projection positions in the slice direction z that is the detector position in the body axis Z direction. Multi-resolution conversion is performed using three-dimensional sinogram data mapped in the channel direction r as three-dimensional data.

具体的には、(a) 多重解像度サイノグラム分割手段(本実施例1ではウェーブレット変換部13a)は、上述した三次元のサイノグラムデータの3つの二次元空間(アキシャル、コロナル、サジタル)のうち、2つ以上の二次元空間(本実施例1ではアキシャル、コロナル)ごとに各々の二次元空間のサイノグラムデータを分解して、各分解ごとに比較して逐次的に低い解像度を持つ複数の低周波サイノグラムデータと、各分解ごとに比較して逐次的に低い解像度を持つ複数の高周波サイノグラムデータとを2つ以上の二次元空間ごとにそれぞれ生成することで、三次元のサイノグラムデータを用いて2つ以上の二次元空間ごとに多重解像度変換をそれぞれ行う。   Specifically, (a) the multi-resolution sinogram dividing means (the wavelet transform unit 13a in the first embodiment) is 2 out of the above three two-dimensional spaces (axial, coronal, sagittal) of the three-dimensional sinogram data. A plurality of low-frequency sinograms having a resolution that is sequentially lower than each decomposition is decomposed for each two or more two-dimensional spaces (axial and coronal in the first embodiment). Two or more using three-dimensional sinogram data by generating data and a plurality of high-frequency sinogram data having successively lower resolution than each decomposition for each two or more two-dimensional spaces Multi-resolution conversion is performed for each two-dimensional space.

そして、(b)ノイズ除去処理部13bは、上述した低周波サイノグラムデータと高周波サイノグラムデータとの各々に対してノイズ除去処理を2つ以上の二次元空間ごとにそれぞれ行う。さらに、(c)サイノグラムデータ合成手段(本実施例1では逆ウェーブレット変換部13c)は、上述したノイズ除去された低周波サイノグラムデータおよび同じくノイズ除去された高周波サイノグラムデータに基づいて、ノイズ除去されたサイノグラムデータに2つ以上の二次元空間ごとにそれぞれ合成する。そして、(d)再構成処理部13dは、合成された二次元空間のサイノグラムデータに対して再構成処理を行うことで、高精度なノイズ除去を行うことができ、検出器依存のノイズとポアソン分布の粒子ノイズを除去することができる。   Then, (b) the noise removal processing unit 13b performs noise removal processing for each of the two or more two-dimensional spaces for each of the above-described low frequency sinogram data and high frequency sinogram data. Further, (c) the sinogram data synthesizing means (inverse wavelet transform unit 13c in the first embodiment) is denoised based on the above-described low-frequency sinogram data from which noise has been removed and high-frequency sinogram data from which noise has also been removed. The sinogram data is synthesized for each of two or more two-dimensional spaces. Then, (d) the reconstruction processing unit 13d can perform highly accurate noise removal by performing reconstruction processing on the combined sinogram data of the two-dimensional space, and detector-dependent noise and Poisson. Distribution particle noise can be removed.

本実施例1では、この発明における多重解像度サイノグラム分割手段は、ウェーブレット変換であり、この発明におけるサイノグラムデータ合成手段は、逆ウェーブレット変換である。   In the first embodiment, the multi-resolution sinogram dividing means in this invention is wavelet transform, and the sinogram data synthesizing means in this invention is inverse wavelet transform.

次に、図面を参照してこの発明の実施例2を説明する。
図14は、実施例2に係るPET装置とX線CT装置とを備えたPET−CT装置の側面図およびブロック図である。
Next, Embodiment 2 of the present invention will be described with reference to the drawings.
FIG. 14 is a side view and block diagram of a PET-CT apparatus including a PET apparatus and an X-ray CT apparatus according to the second embodiment.

上述した実施例1では、PET装置が点線源4を備え、点線源4が放射性薬剤と同じγ線を照射して被検体Mを透過して、γ線検出器5がそのγ線を検出することで、その放射線に基づいて形態情報としてトランスミッションデータを収集したが、本実施例2では、X線CT装置から得られたCT用の投影データを形態情報として用いている。X線CT装置は、開口部31aを有したガントリ31とX線管32とX線検出器33とを備えている。X線管32およびX線検出器33は、被検体Mを挟んで互いに対向配置されており、ガントリ31内に埋設されている。X線検出器33を構成する多数個の検出素子は被検体Mの体軸Z周りに扇状に並ぶ。   In the first embodiment described above, the PET apparatus includes the point source 4, the point source 4 emits the same γ-ray as the radiopharmaceutical and passes through the subject M, and the γ-ray detector 5 detects the γ-ray. Thus, transmission data was collected as morphological information based on the radiation, but in the second embodiment, CT projection data obtained from an X-ray CT apparatus is used as morphological information. The X-ray CT apparatus includes a gantry 31 having an opening 31a, an X-ray tube 32, and an X-ray detector 33. The X-ray tube 32 and the X-ray detector 33 are arranged to face each other with the subject M interposed therebetween, and are embedded in the gantry 31. A large number of detection elements constituting the X-ray detector 33 are arranged in a fan shape around the body axis Z of the subject M.

その他にもX線CT装置は、ガントリ駆動部34と高電圧発生部35とコリメータ駆動部36とCT用再構成部37とを備えて構成されている。CT用再構成部37は、例えば上述したメモリ部14などに代表される記憶媒体のROMに記憶されたプログラムあるいは入力部8で入力された命令をコントローラ7が実行することで実現される。なお、後述するCT用の投影データやCT用再構成部37で処理されたCT用の断層画像も、上述した実施例1と同様にメモリ部14ガントリ駆動部34は、互いに対向関係を維持させたままX線管32とX線管検出器33とをガントリ31内で被検体Mの体軸Z周りに回転させるように駆動する機構であって、図示を省略するモータなどで構成されている。   In addition, the X-ray CT apparatus includes a gantry driving unit 34, a high voltage generation unit 35, a collimator driving unit 36, and a CT reconstruction unit 37. The CT reconstruction unit 37 is realized by the controller 7 executing, for example, a program stored in a ROM of a storage medium represented by the above-described memory unit 14 or the like or an instruction input from the input unit 8. Note that the CT projection data and the CT tomographic image processed by the CT reconstruction unit 37, which will be described later, also maintain the facing relationship between the memory unit 14 and the gantry driving unit 34 as in the first embodiment. A mechanism that drives the X-ray tube 32 and the X-ray tube detector 33 to rotate around the body axis Z of the subject M in the gantry 31 with a motor or the like not shown. .

高電圧発生部35は、X線管32の管電圧や管電流を発生させる。コリメータ駆動部36は、X線の照視野を設定し、X線管32に近接されたコリメータ(図示省略)について水平方向の移動を行うように駆動する機構であって、図示を省略するモータなどで構成されている。   The high voltage generator 35 generates a tube voltage or tube current of the X-ray tube 32. The collimator driving unit 36 is a mechanism that sets an X-ray irradiation field and drives the collimator (not shown) adjacent to the X-ray tube 32 to move in the horizontal direction. It consists of

間接変換型のX線検出器33の場合には、X線管32から照射されて被検体Mを透過したX線を、X線検出器33内のシンチレータ(図示省略)が光に変換するとともに、変換された光を光感応膜(図示省略)が光電変換して電気信号に出力する。直接変換型のX線検出器33の場合には、X線を放射線感応膜(図示省略)が電気信号に直接的に変換して出力する。その電気信号を画像情報(画素)として、CT用再構成部37に送り込む。CT用再構成部37に送り込まれる画像情報はCT用の投影データとして伝送される。   In the case of the indirect conversion type X-ray detector 33, the X-ray irradiated from the X-ray tube 32 and transmitted through the subject M is converted into light by a scintillator (not shown) in the X-ray detector 33. The light-sensitive film (not shown) photoelectrically converts the converted light and outputs it as an electrical signal. In the case of the direct conversion type X-ray detector 33, the X-ray is directly converted into an electric signal by a radiation sensitive film (not shown) and output. The electrical signal is sent to the CT reconstruction unit 37 as image information (pixels). The image information sent to the CT reconstruction unit 37 is transmitted as projection data for CT.

CT用の投影データは、実施例1で述べたトランスミッションデータと同じように形態情報を有しており、本実施例2では、CT用の投影データをトランスミッションデータとして用いるために吸収補正データ導出部11に送りこむとともに、CT用再構成部37にも送り込む。   The projection data for CT has the same form information as the transmission data described in the first embodiment. In the second embodiment, the absorption correction data deriving unit is used to use the projection data for CT as transmission data. 11 and the CT reconstruction unit 37 as well.

CT用再構成部37に送り込まれた画像情報(CT用の投影データ)を再構成して、CT用の断層画像を求める。このCT用の断層画像を、コントローラ7を介して出力部9に送り込む。   Image information (CT projection data) sent to the CT reconstruction unit 37 is reconstructed to obtain a CT tomographic image. This CT tomographic image is sent to the output unit 9 via the controller 7.

吸収補正データ導出部11を含むPET装置の後段の処理部(吸収補正部12や画像処理部13)の各機能については、実施例1と同様なので、その説明を省略する。なお、再構成されたPET用の断層画像と、CT用再構成部37で再構成されたCT用の断層画像とを出力部9で重ね合わせて重畳出力してもよい。   The functions of the subsequent processing units (the absorption correction unit 12 and the image processing unit 13) including the absorption correction data deriving unit 11 are the same as those in the first embodiment, and thus the description thereof is omitted. The reconstructed tomographic image for PET and the CT tomographic image reconstructed by the CT reconstruction unit 37 may be superimposed and output by the output unit 9.

このように、本実施例2では、X線CT装置のX線検出器33で検出されて得られたCT用の投影データをCT用再構成部37に送り込むとともに、吸収補正データ導出部11に送り込み、CT用の投影データを吸収補正データとして用いている。   As described above, in the second embodiment, the projection data for CT obtained by being detected by the X-ray detector 33 of the X-ray CT apparatus is sent to the CT reconstruction unit 37, and is also sent to the absorption correction data deriving unit 11. Infeed and CT projection data are used as absorption correction data.

この発明は、上記実施形態に限られることはなく、下記のように変形実施することができる。   The present invention is not limited to the above-described embodiment, and can be modified as follows.

(1)上述した各実施例では、PET装置を例に採って説明したが、この発明は、単一のγ線を検出して被検体の断層画像を再構成するSPECT(Single Photon Emission CT)装置などにも適用することができる。   (1) In each of the above-described embodiments, the PET apparatus has been described as an example. However, the present invention detects a single gamma ray and reconstructs a tomographic image of the subject. It can also be applied to devices.

(2)上述した各実施例では、トランスミッション用のγ線検出器5が静止したままでγ線を検出する静止型であったが、γ線検出器5が被検体Mの周りを回転しながらγ線を検出する回転型でもよい。   (2) In each of the above-described embodiments, the γ-ray detector 5 for transmission is a stationary type that detects γ-rays while still, but the γ-ray detector 5 rotates around the subject M. A rotary type that detects γ rays may be used.

(3)上述した各実施例では、形態情報(実施例1ではトランスミッションデータ、実施例2ではX線CT用データ)は、吸収補正にも用いられていたが、必ずしも吸収補正を行う必要はない。したがって、吸収補正前の投影データについて、スライス方向zに、プロジェクション方向s、チャンネル方向rにマッピングされた三次元のサイノグラムデータとしてまとめてもよい。   (3) In each of the above-described embodiments, the form information (transmission data in the first embodiment and X-ray CT data in the second embodiment) is also used for the absorption correction. However, it is not always necessary to perform the absorption correction. . Therefore, projection data before absorption correction may be collected as three-dimensional sinogram data mapped in the slice direction z, in the projection direction s, and in the channel direction r.

(4)上述した各実施例では、アキシャル像での画像処理を行った後に、その画像処理でノイズ除去処理されたアキシャル像を用いて、コロナル像での画像処理を行って、その画像処理でノイズ除去されたコロナル像を得たが、逆に、コロナル像での画像処理を行った後に、その画像処理でノイズ除去処理されたコロナル像を用いて、アキシャル像での画像処理を行って、その画像処理でノイズ除去されたアキシャル像を得てもよい。したがって、各二次元空間での(a)〜(c)での画像処理の順番については特に限定されない。   (4) In each of the embodiments described above, after performing image processing with an axial image, image processing with a coronal image is performed using the axial image that has been subjected to noise removal processing with the image processing. The noise-removed coronal image was obtained, but conversely, after performing image processing with the coronal image, using the coronal image subjected to noise removal processing with the image processing, performing image processing with the axial image, An axial image from which noise has been removed by the image processing may be obtained. Accordingly, the order of image processing in (a) to (c) in each two-dimensional space is not particularly limited.

(5)上述した各実施例では、アキシャル像およびコロナル像を例に採って説明したが、アキシャル像およびサジタル像、またはコロナル像およびサジタル像に適用してもよい。すなわち、アキシャル像での画像処理を行った後に、その画像処理でノイズ除去処理されたアキシャル像を用いて、サジタル像での画像処理を行って、その画像処理でノイズ除去処理されたサジタル像を得てもよいし、コロナル像での画像処理を行った後に、その画像処理でノイズ除去処理されたコロナル像を用いて、サジタル像での画像処理を行って、その画像処理でノイズ除去処理されたサジタル像を得てもよい。逆に、サジタル像での画像処理を行った後に、その画像処理でノイズ除去処理されたサジタル像を用いて、アキシャル像での画像処理を行って、その画像処理でノイズ除去されたアキシャル像を得てもよいし、サジタル像での画像処理を行った後に、その画像処理でノイズ除去処理されたサジタル像を用いて、コロナル像での画像処理を行って、その画像処理でノイズ除去されたコロナル像を得てもよい。この変形例(5)においても、各二次元空間での(a)〜(c)での画像処理の順番については特に限定されない。   (5) In each of the above-described embodiments, an axial image and a coronal image have been described as examples. However, the present invention may be applied to an axial image and a sagittal image, or a coronal image and a sagittal image. That is, after performing image processing with an axial image, using the axial image subjected to noise removal processing with the image processing, performing image processing with a sagittal image, the sagittal image subjected to noise removal processing with the image processing is processed. After performing image processing with a coronal image, the image processing with a sagittal image is performed using the coronal image that has been subjected to noise removal processing with the image processing, and noise removal processing is performed with the image processing. Sagittal images may be obtained. Conversely, after performing image processing with a sagittal image, the sagittal image that has been subjected to noise removal processing by the image processing is used to perform image processing with an axial image, and the axial image that has undergone noise removal through the image processing is processed. After performing image processing with a sagittal image, image processing with a coronal image was performed using a sagittal image that had been subjected to noise removal processing with the image processing, and noise was removed with the image processing. A coronal image may be obtained. Also in this modification (5), the order of image processing in (a) to (c) in each two-dimensional space is not particularly limited.

(6)上述した各実施例では、三次元のサイノグラムデータの3つの二次元空間(アキシャル、コロナル、サジタル)のうち、2つ二次元空間(実施例1ではアキシャル、コロナル)ごとに(a)〜(c)での画像処理をそれぞれ行ったが、3つの二次元空間を全て用いてアキシャル、コロナル、サジタルごとに(a)〜(c)での画像処理をそれぞれ行ってもよい。したがって、2つ以上の二次元空間ごとに(a)〜(c)での画像処理をそれぞれ行うのであれば、二次元空間の組み合わせについては特に限定されない。この変形例(6)においても、各二次元空間での(a)〜(c)での画像処理の順番については特に限定されない。   (6) In each of the above-described embodiments, out of three two-dimensional spaces (axial, coronal, sagittal) of three-dimensional sinogram data, two (2) two-dimensional spaces (axial, coronal in the first embodiment) are (a) Although the image processing in (c) is performed, the image processing in (a) to (c) may be performed for each of the axial, coronal, and sagittal using all three two-dimensional spaces. Therefore, as long as the image processing in (a) to (c) is performed for each of two or more two-dimensional spaces, the combination of the two-dimensional spaces is not particularly limited. Also in the modification (6), the order of image processing in (a) to (c) in each two-dimensional space is not particularly limited.

(7)上述した各実施例では、この発明における多重解像度サイノグラム分割手段として、ウェーブレット変換を例に採るとともに、この発明におけるサイノグラムデータ合成手段として、逆ウェーブレット変換を例に採って説明したが、通常において用いられる多重解像度サイノグラム分割手段であれば、ウェーブレット変換に限定されないし、通常において用いられるサイノグラムデータ合成手段であれば、逆ウェーブレット変換に限定されない。   (7) In each of the embodiments described above, the wavelet transform is taken as an example of the multi-resolution sinogram dividing means in the present invention, and the inverse wavelet transform is taken as an example as the sinogram data synthesizing means in the present invention. The multi-resolution sinogram dividing means used in the present invention is not limited to the wavelet transform, and the sinogram data synthesizing means normally used is not limited to the inverse wavelet transform.

実施例1に係るPET(Positron Emission Tomography)装置の側面図およびブロック図である。1 is a side view and block diagram of a PET (Positron Emission Tomography) apparatus according to Embodiment 1. FIG. 画像処理部およびその周辺部のブロック図である。It is a block diagram of an image processing part and its peripheral part. 実施例1に係る一連の画像処理の流れを示すフローチャートである。3 is a flowchart illustrating a flow of a series of image processing according to the first embodiment. 実施例1に係る一連のアキシャル像での画像処理の流れを示すフローチャートである。3 is a flowchart illustrating a flow of image processing with a series of axial images according to the first embodiment. 実施例1に係る一連のコロナル像での画像処理での流れを示すフローチャートである。6 is a flowchart illustrating a flow of image processing with a series of coronal images according to the first embodiment. アキシャル像およびコロナル像での画像処理の流れを模式的に示した図であり、(a)はノイズ除去処理前のアキシャル像、(b)は、ノイズ除去処理後のアキシャル像を用いたノイズ除去処理前のコロナル像、(c)は、ノイズ除去処理後のコロナル像を用いたノイズ除去処理後のアキシャル像である。It is the figure which showed typically the flow of the image processing in an axial image and a coronal image, (a) is an axial image before a noise removal process, (b) is the noise removal using the axial image after a noise removal process A coronal image before processing, (c) is an axial image after noise removal processing using the coronal image after noise removal processing. (a)は、ハール(Haar)のスケーリング関数、(b)は、ハールのウェーブレット関数である。(A) is a Haar scaling function, and (b) is a Haar wavelet function. Daubechie数列を示した図である。It is the figure which showed the Daubechie number sequence. 一次元空間におけるウェーブレット変換の模式的なイメージである。It is a schematic image of wavelet transform in a one-dimensional space. (a)〜(c)は、二次元空間におけるウェーブレット変換の模式的なイメージである。(A)-(c) is a schematic image of the wavelet transformation in a two-dimensional space. (a)〜(c)は、二次元空間におけるウェーブレット変換を実施例1に適用したときのウェーブレット変換での各画像を模式的に示した図である。(A)-(c) is the figure which showed typically each image in wavelet transformation when the wavelet transformation in two-dimensional space is applied to Example 1. FIG. “LL”、“HH”、“LH”の説明に供する模式図である。It is a schematic diagram for description of “LL”, “HH”, and “LH”. しきい値処理によるノイズ除去処理の説明に供する模式図である。It is a schematic diagram with which it uses for description of the noise removal process by threshold value process. 実施例2に係るPET装置とX線CT装置とを備えたPET−CT装置の側面図およびブロック図である。It is the side view and block diagram of PET-CT apparatus provided with the PET apparatus and X-ray CT apparatus which concern on Example 2. FIG.

符号の説明Explanation of symbols

3 … γ線検出器
13 … 画像処理部
13a … ウェーブレット変換部
13b … ノイズ除去処理部
13c … 逆ウェーブレット変換部
13d … 再構成処理部
z … スライス方向
s … プロジェクション方向
r … チャンネル方向
M … 被検体
DESCRIPTION OF SYMBOLS 3 ... Gamma ray detector 13 ... Image processing part 13a ... Wavelet transformation part 13b ... Noise removal processing part 13c ... Inverse wavelet transformation part 13d ... Reconstruction processing part z ... Slice direction s ... Projection direction r ... Channel direction M ... Subject

Claims (4)

放射性薬剤が投与された被検体から発生した放射線に基づいて被検体の核医学用データを求める核医学診断装置であって、前記放射線を検出して前記核医学用データを検出して収集する各々の検出器で構成される検出手段と、その核医学用データについて、体軸方向の各検出器位置であるスライス方向に、各投影位置であるプロジェクション方向、検出器方向であるチャンネル方向にマッピングされた三次元のサイノグラムデータを用いて画像処理を行う画像処理手段とを備え、前記画像処理手段は、(a)前記三次元のサイノグラムデータの3つの二次元空間のうち、2つ以上の二次元空間ごとに各々の前記二次元空間のサイノグラムデータを分解して、各分解ごとに比較して逐次的に低い解像度を持つ複数の低周波サイノグラムデータと、各分解ごとに比較して逐次的に低い解像度を持つ複数の高周波サイノグラムデータとを前記2つ以上の二次元空間ごとにそれぞれ生成する多重解像度サイノグラム分割手段と、(b)前記低周波サイノグラムデータと前記高周波サイノグラムデータとの各々に対してノイズ除去処理を前記2つ以上の二次元空間ごとにそれぞれ行うノイズ除去処理手段と、(c)前記ノイズ除去された前記低周波サイノグラムデータおよび前記ノイズ除去された前記高周波サイノグラムデータに基づいて、ノイズ除去されたサイノグラムデータに前記2つ以上の二次元空間ごとにそれぞれ合成するサイノグラムデータ合成手段と、(d)前記合成された二次元空間のサイノグラムデータに対して再構成処理を行う再構成処理手段とを備えることを特徴とする核医学診断装置。   A nuclear medicine diagnostic apparatus for obtaining nuclear medicine data of a subject based on radiation generated from a subject to which a radiopharmaceutical is administered, each detecting and collecting the nuclear medicine data by detecting the radiation The detection means comprising the detectors and the nuclear medicine data are mapped in the slice direction, which is each detector position in the body axis direction, in the projection direction, which is each projection position, and in the channel direction, which is the detector direction. Image processing means for performing image processing using the three-dimensional sinogram data, wherein the image processing means is (a) two or more two-dimensional of the three two-dimensional spaces of the three-dimensional sinogram data. Each of the two-dimensional space sinogram data is decomposed for each space, and a plurality of low frequency sinogram data having sequentially lower resolution than each decomposition, and each Multi-resolution sinogram dividing means for generating a plurality of high-frequency sinogram data having successively lower resolutions for each solution for each of the two or more two-dimensional spaces; (b) the low-frequency sinogram data and the Noise removal processing means for performing noise removal processing on each of the two or more two-dimensional spaces with respect to each of the high-frequency sinogram data, and (c) the noise-removed low-frequency sinogram data and the noise-removed Sinogram data synthesizing means for synthesizing the noise-removed sinogram data for each of the two or more two-dimensional spaces based on the high-frequency sinogram data, and (d) for the synthesized two-dimensional space sinogram data A nuclear medicine diagnosis apparatus comprising a reconstruction processing means for performing a reconstruction process. 放射性薬剤が投与された被検体から発生した放射線に基づく被検体の核医学用データの画像処理方法であって、その核医学用データについて、体軸方向の各検出器位置であるスライス方向に、各投影位置であるプロジェクション方向、検出器方向であるチャンネル方向にマッピングされた三次元のサイノグラムデータを用いて画像処理を行う際に、(A)前記三次元のサイノグラムデータの3つの二次元空間のうち、2つ以上の二次元空間ごとに各々の前記二次元空間のサイノグラムデータを分解して、各分解ごとに比較して逐次的に低い解像度を持つ複数の低周波サイノグラムデータと、各分解ごとに比較して逐次的に低い解像度を持つ複数の高周波サイノグラムデータとを前記2つ以上の二次元空間ごとにそれぞれ生成し、(B)前記低周波サイノグラムデータと前記高周波サイノグラムデータとの各々に対してノイズ除去処理を前記2つ以上の二次元空間ごとにそれぞれ行い、(C)前記ノイズ除去された前記低周波サイノグラムデータおよび前記ノイズ除去された前記高周波サイノグラムデータに基づいて、ノイズ除去されたサイノグラムデータに前記2つ以上の二次元空間ごとにそれぞれ合成し、(D)前記合成された二次元空間のサイノグラムデータに対して再構成処理を行うことを特徴とする核医学用データの画像処理方法。  A method for image processing of nuclear medical data of a subject based on radiation generated from a subject to which a radiopharmaceutical is administered, wherein the nuclear medical data is sliced at each detector position in the body axis direction, When performing image processing using three-dimensional sinogram data mapped in the projection direction that is each projection position and the channel direction that is the detector direction, (A) in the three two-dimensional spaces of the three-dimensional sinogram data, Among the two or more two-dimensional spaces, each of the two-dimensional space sinogram data is decomposed, and a plurality of low-frequency sinogram data having lower resolution sequentially than each decomposition, and each decomposition A plurality of high-frequency sinogram data having successively lower resolution than each of the two or more two-dimensional spaces, (B) A noise removal process is performed on each of the two or more two-dimensional spaces for each of the wave sinogram data and the high frequency sinogram data, and (C) the low frequency sinogram data from which the noise has been removed and the noise removed Based on the high-frequency sinogram data, the noise-removed sinogram data is synthesized for each of the two or more two-dimensional spaces, and (D) reconstructing processing is performed on the synthesized two-dimensional space sinogram data. An image processing method for nuclear medicine data. 請求項2に記載の核医学用データの画像処理方法においてウェーブレット変換によって、前記二次元空間のサイノグラムデータを分解して、前記低周波サイノグラムデータと前記高周波サイノグラムデータとをそれぞれ生成することを特徴とする核医学用データの画像処理方法Wherein in the image processing method for nuclear medicine data according to claim 2, the wavelet transform decomposes the sinogram data of the two-dimensional space, to generate the low frequency sinogram data the high-frequency sinogram data and respectively An image processing method for nuclear medicine data . 請求項2または請求項3に記載の核医学用データの画像処理方法において、前記ノイズ除去された前記低周波サイノグラムデータおよび前記ノイズ除去された前記高周波サイノグラムデータに基づいて、ノイズ除去されたサイノグラムデータに前記2つ以上の二次元空間ごとに逆ウェーブレット変換によってそれぞれ合成することを特徴とする核医学用データの画像処理方法 4. The image processing method for nuclear medicine data according to claim 2 , wherein noise-removed sinogram data based on the noise-removed low-frequency sinogram data and the noise-removed high-frequency sinogram data. An image processing method for nuclear medicine data , wherein each of the two or more two-dimensional spaces is synthesized by inverse wavelet transform.
JP2007272468A 2007-10-19 2007-10-19 Nuclear medicine diagnostic apparatus and image processing method for nuclear medicine data Expired - Fee Related JP4910979B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007272468A JP4910979B2 (en) 2007-10-19 2007-10-19 Nuclear medicine diagnostic apparatus and image processing method for nuclear medicine data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007272468A JP4910979B2 (en) 2007-10-19 2007-10-19 Nuclear medicine diagnostic apparatus and image processing method for nuclear medicine data

Publications (2)

Publication Number Publication Date
JP2009098100A JP2009098100A (en) 2009-05-07
JP4910979B2 true JP4910979B2 (en) 2012-04-04

Family

ID=40701235

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007272468A Expired - Fee Related JP4910979B2 (en) 2007-10-19 2007-10-19 Nuclear medicine diagnostic apparatus and image processing method for nuclear medicine data

Country Status (1)

Country Link
JP (1) JP4910979B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5600946B2 (en) * 2010-01-28 2014-10-08 株式会社島津製作所 Tomography equipment
CN104812293B (en) * 2012-11-20 2018-07-13 东芝医疗系统株式会社 Image processing apparatus, image processing method and radiographic apparatus
KR102554220B1 (en) * 2020-02-28 2023-07-12 가천대학교 산학협력단 System and method for registrating multiple images

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002133399A (en) * 2000-10-23 2002-05-10 Hitachi Medical Corp Image processor and x-ray ct apparatus using it
JP2006133204A (en) * 2004-10-07 2006-05-25 Fujita Gakuen Spect device
US7498581B2 (en) * 2005-10-05 2009-03-03 Koninklijke Philips Electronics N.V. Distributed iterative image reconstruction
DE102006005804A1 (en) * 2006-02-08 2007-08-09 Siemens Ag Method for noise reduction in tomographic image data sets

Also Published As

Publication number Publication date
JP2009098100A (en) 2009-05-07

Similar Documents

Publication Publication Date Title
JP7234064B2 (en) Iterative image reconstruction framework
US10713823B2 (en) Image reconstructing apparatus and image reconstructing method
US8971599B2 (en) Tomographic iterative reconstruction
JP5508667B2 (en) Method for forming a multispectral image of an object
JP5023281B2 (en) Image processing method, apparatus and tomography apparatus
US9025838B2 (en) Apparatus and method for hybrid reconstruction of an object from projection data
EP3447721A1 (en) A method of generating an enhanced tomographic image of an object
JP2008062035A5 (en)
KR20100133950A (en) Dose reduction and image enhancement in tomography through the utilization of the object&#39;s surroundings as dynamic constraints
JP2018057867A (en) Medical image processing device, x-ray computer tomographic imaging device and medical image processing method
EP3447731A1 (en) A method of generating an enhanced tomographic image of an object
Melot et al. Some proximal methods for Poisson intensity CBCT and PET
JP6615509B2 (en) Reconstruction apparatus, X-ray computed tomography apparatus and reconstruction method
EP3673457A1 (en) A method of generating an enhanced tomographic image of an object
Gong et al. Image reconstruction model for limited-angle CT based on prior image induced relative total variation
JP5600946B2 (en) Tomography equipment
JP4910979B2 (en) Nuclear medicine diagnostic apparatus and image processing method for nuclear medicine data
Bousse et al. Systematic review on learning-based spectral CT
Anthoine et al. Some proximal methods for CBCT and PET tomography
US8571171B2 (en) Reconstructing a tomographic image with reduced artifacts
JP6052425B2 (en) Contour image generating device and nuclear medicine diagnostic device
US9558569B2 (en) Method and system for substantially reducing cone beam artifacts based upon image domain differentiation in circular computer tomography (CT)
Hyun et al. Deep learning for dental cone-beam computed tomography
Ding et al. Image-domain multi-material decomposition for dual-energy ct based on correlation and sparsity of material images
Cong et al. Effects of slice thickness filter in filtered backprojection reconstruction with the parallel breast tomosynthesis imaging configuration

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110816

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111014

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111220

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120102

R151 Written notification of patent or utility model registration

Ref document number: 4910979

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150127

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees