JP2013116213A - X-ray ct apparatus - Google Patents

X-ray ct apparatus Download PDF

Info

Publication number
JP2013116213A
JP2013116213A JP2011264890A JP2011264890A JP2013116213A JP 2013116213 A JP2013116213 A JP 2013116213A JP 2011264890 A JP2011264890 A JP 2011264890A JP 2011264890 A JP2011264890 A JP 2011264890A JP 2013116213 A JP2013116213 A JP 2013116213A
Authority
JP
Japan
Prior art keywords
ray
image
projection data
fov
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011264890A
Other languages
Japanese (ja)
Other versions
JP5858760B2 (en
Inventor
Keisuke Yamakawa
恵介 山川
Hironori Ueki
広則 植木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Healthcare Manufacturing Ltd
Original Assignee
Hitachi Medical Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Medical Corp filed Critical Hitachi Medical Corp
Priority to JP2011264890A priority Critical patent/JP5858760B2/en
Publication of JP2013116213A publication Critical patent/JP2013116213A/en
Application granted granted Critical
Publication of JP5858760B2 publication Critical patent/JP5858760B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an X-ray CT apparatus that can obtain a high-precision CT image by a successive approximation reconfiguration method with a small amount of calculation.SOLUTION: The X-ray CT apparatus sequentially performs: a step for identifying at least two types of projection data of a subject from projection data detected by an X-ray detection unit; a step for calculating a region including a predetermined subject among the at least two types of subjects from the identified projection data; and a step for producing a CT image in the region including the predetermined subject.

Description

本発明はX線CT装置に関し,測定した測定投影データとCT画像を順投影処理した計算投影データが等しくなるように,CT画像を逐次的に修正する画像生成技術に係る。   The present invention relates to an X-ray CT apparatus, and relates to an image generation technique for sequentially correcting CT images so that measured measurement projection data and calculated projection data obtained by subjecting CT images to forward projection processing are equal.

X線CT(Computed Tomography)装置は,被写体を多方向から撮影して得た測定投影データから各点のX線吸収率を算出し,被写体の断層像として,複数の画素からなるX線吸収率分布画像(以下,CT画像と称する)を得る装置である。本装置より取得したCT画像は,医療現場において,正確かつ即時に患者の病状を診断でき,臨床上有用である。しかし,医師の診断に必要な高い画質の画像を取得するためには,一定量の被曝を伴う。一方、低被曝化を実現するために照射する線量を低くすると、信号に対するノイズの比率が増加し,誤診断の原因になるライン状のアーチファクトや粒状性のノイズが多く発生する。そのため、低線量撮影時にアーチファクトやノイズを低減し、良質な診断と低被曝化を両立させることが望まれている。   An X-ray CT (Computed Tomography) apparatus calculates an X-ray absorption rate at each point from measurement projection data obtained by imaging a subject from multiple directions, and forms an X-ray absorption rate composed of a plurality of pixels as a tomographic image of the subject. This is an apparatus for obtaining a distribution image (hereinafter referred to as a CT image). CT images acquired from this device can diagnose a patient's medical condition accurately and immediately in a medical field, and are clinically useful. However, in order to obtain high-quality images necessary for doctors' diagnosis, a certain amount of exposure is involved. On the other hand, if the dose to be irradiated is lowered in order to realize low exposure, the ratio of noise to the signal increases, and a lot of line-like artifacts and graininess noise that cause misdiagnosis are generated. For this reason, it is desired to reduce artifacts and noise during low-dose imaging so that both high-quality diagnosis and low exposure can be achieved.

そこで特許文献1のように,測定投影データと計算投影データが等しくなるように,CT画像を逐次的に修正することによりノイズを低減する逐次近似再構成手法が知られている。逐次近似再構成手法では,照射したX線が被写体を透過した範囲の投影データを再構成して画像化し、再構成画像から再び投影データを生成し、先の投影データと比較してCT画像を修正する動作を繰り返す。これにより、被写体を包含する再構成領域(以下,FOVとする)の全体の精度を向上させ、高分解能に画像化する。   Therefore, as in Patent Document 1, a successive approximation reconstruction method is known in which noise is reduced by sequentially correcting CT images so that measured projection data and calculation projection data are equal. In the successive approximation reconstruction method, projection data in a range where irradiated X-rays pass through the subject is reconstructed and imaged, and projection data is generated again from the reconstructed image, and the CT image is compared with the previous projection data. Repeat the corrective action. Thereby, the accuracy of the entire reconstruction area (hereinafter referred to as FOV) including the subject is improved, and the image is formed with high resolution.

通常のCT画像の再構成時には、診断に必要な局所領域のみを拡大した高分解能な画像を得るために、拡大再構成手法が用いられている。しかし、逐次近似再構成手法は、その原理上、寝台や固定具等を含む全被写体が含まれる条件でFOVを設定しなければ、精度向上の効果が得られない。拡大再構成画像は、全被写体の局所領域であるため、通常の逐次近似再構成手法を適用して高精度化することができない。   At the time of normal CT image reconstruction, an enlarged reconstruction technique is used to obtain a high-resolution image in which only a local region necessary for diagnosis is enlarged. However, according to the principle of the successive approximation reconstruction method, the effect of improving the accuracy cannot be obtained unless the FOV is set under the condition that all subjects including the bed and the fixture are included. Since the enlarged reconstructed image is a local region of all subjects, it cannot be improved in accuracy by applying a normal successive approximation reconstruction method.

そこで、非特許文献1に開示されている技術では,始めに全被写体が含まれる条件でCT画像(以下,大FOV像とする)を再構成し、次に,大FOV像のうち局所領域以外の背景領域の画像を順投影計算し,背景投影データを求める。求めた背景投影データを測定投影データから減算することにより、局所領域のCT画像(以下,小FOV像とする)の測定投影データを得ている。この小FOV像の測定投影データは、局所領域全体の測定投影データ(以下,局所測定投影データとする)を包含するため、逐次近似再構成の手法を適用することができ、小FOV像を高精度化することができる。   Therefore, in the technique disclosed in Non-Patent Document 1, a CT image (hereinafter referred to as a large FOV image) is first reconstructed under the condition that all subjects are included, and then, in the large FOV image, other than the local region. The background projection data is obtained by forward-projecting the image of the background area. By subtracting the obtained background projection data from the measurement projection data, measurement projection data of a CT image of a local region (hereinafter referred to as a small FOV image) is obtained. Since the measurement projection data of the small FOV image includes the measurement projection data of the entire local region (hereinafter referred to as local measurement projection data), it is possible to apply the successive approximation reconstruction method, and to increase the small FOV image. It can be made accurate.

特開2006−25868号公報JP 2006-25868 A

Andy Ziegler,et al.,“Iterative reconstruction of a region of interest for transmission tomography”,Med.phys.35(4),p1317−1327,2008Andy Ziegler, et al. , “Iterative restructuring of a region of interest for transmission tomography”, Med. phys. 35 (4), p1317-1327, 2008

逐次近似再構成手法は、上述のように被写体全体の画像を対象としなければ、精度向上の効果が得られない。しかし、撮影前に被写体の位置,大きさを正確に知る事は困難であるため、全被写体が包含されるようにFOVを十分大きく設定しておく必要がある。このため、大きなFOV全体に、画像再構成と再投影の処理を繰り返すため、メモリの大容量化や計算量増加等の課題があった。   As described above, the successive approximation reconstruction method cannot obtain the effect of improving accuracy unless the entire subject image is targeted. However, since it is difficult to accurately know the position and size of the subject before shooting, it is necessary to set the FOV sufficiently large so that all subjects are included. For this reason, since image reconstruction and reprojection processing are repeated over the entire large FOV, there are problems such as an increase in memory capacity and an increase in calculation amount.

また、CT画像は、一部の投影角度においてX線が計測されない不完全な収集領域の投影データから再構成されることがあるが、不完全な収集領域の投影データは、全被写体の情報を包含していないため、そのままでは逐次近似再構成手法を適用することができない。   In addition, a CT image may be reconstructed from projection data of an incomplete acquisition area where X-rays are not measured at some projection angles. Since it is not included, the successive approximation reconstruction method cannot be applied as it is.

非特許文献1の技術は,拡大再構成画像に逐次近似再構成手法の適用を可能にするが、全被写体が包含されるように大FOVを十分大きく設定しておく必要があり、メモリの大容量化や計算量増加という問題は、通常の逐次近似再構成手法と同様に生じる。また、大FOV像が、上記のように一部の投影角度においてX線が計測されない不完全な収集領域の投影データから再構成される場合には、拡大再構成画像を生成することはできないという問題も、通常の逐次近似再構成画像と同様である。   The technique of Non-Patent Document 1 makes it possible to apply a successive approximation reconstruction method to an enlarged reconstructed image, but it is necessary to set a large FOV sufficiently large so that all subjects are included, and a large memory is required. The problem of increasing the capacity and increasing the amount of calculation occurs in the same way as the normal successive approximation reconstruction method. In addition, when a large FOV image is reconstructed from projection data of an incomplete collection area where X-rays are not measured at some projection angles as described above, an enlarged reconstructed image cannot be generated. The problem is the same as that of a normal successive approximation reconstructed image.

本発明の目的は,少ない計算量で、逐次近似再構成手法により高精度なCT画像を得ることができるX線CT装置を提供することにある。   An object of the present invention is to provide an X-ray CT apparatus capable of obtaining a highly accurate CT image by a successive approximation reconstruction method with a small amount of calculation.

上記の目的を達成するため,本発明においては,以下のようなX線CT装置が提供される。すなわち、X線を発生するX線発生部と,被写体を透過後のX線を検出するX線検出部と,X線発生部とX線検出部とを搭載して被写体の周囲を回転する回転板と、X線検出部が検出した被写体の投影データからCT画像を再構成する画像生成部と、逐次近似再構成部とを有するX線CT装置である。逐次近似再構成部は、CT画像を計算により投影して求めた計算投影データと、X線検出部が検出した投影データとが等しくなるように逐次的に前記CT画像を修正する。画像生成部は、X線検出部が検出した投影データから、少なくとも2種類の被写体の投影データを判別し、判別した投影データから少なくとも2種類の被写体のうち所定の被写体を包含する領域を計算により求め、所定の被写体を包含する領域内についてCT画像を生成する。本発明において、X線検出部は複数の検出素子を備えたものと定義する。   In order to achieve the above object, the following X-ray CT apparatus is provided in the present invention. That is, an X-ray generator that generates X-rays, an X-ray detector that detects X-rays that have passed through the subject, an X-ray generator and an X-ray detector, and a rotation that rotates around the subject An X-ray CT apparatus having a plate, an image generation unit for reconstructing a CT image from projection data of an object detected by an X-ray detection unit, and a successive approximation reconstruction unit. The successive approximation reconstruction unit sequentially corrects the CT image so that the calculated projection data obtained by projecting the CT image is equal to the projection data detected by the X-ray detection unit. The image generation unit discriminates projection data of at least two types of subjects from the projection data detected by the X-ray detection unit, and calculates a region including a predetermined subject among at least two types of subjects from the discriminated projection data. In other words, a CT image is generated for a region including a predetermined subject. In the present invention, the X-ray detection unit is defined as including a plurality of detection elements.

本発明では,少なくとも2種類の被写体のうち所定の被写体を包含する領域を計算により求め、この領域内についてCT画像を生成するため、少ない計算量で、逐次近似再構成手法により高精度なCT画像を得ることができる。   In the present invention, a region including a predetermined subject among at least two types of subjects is obtained by calculation, and a CT image is generated in this region. Therefore, a high-accuracy CT image can be obtained by a successive approximation reconstruction method with a small amount of calculation. Can be obtained.

実施例1における,CT装置各部のハードウェアの構成を説明するブロック図である。FIG. 2 is a block diagram illustrating a hardware configuration of each part of the CT apparatus in the first embodiment. 実施例1における,撮影の流れを説明するための機能ブロック図である。FIG. 3 is a functional block diagram for explaining a flow of photographing in the first embodiment. 実施例1における,撮影条件入力部の画面例を説明するための図である。6 is a diagram for explaining an example of a screen of an imaging condition input unit in Embodiment 1. FIG. 実施例1における,再構成処理部136の機能を説明する機能ブロック図である。6 is a functional block diagram illustrating functions of a reconstruction processing unit 136 in Embodiment 1. FIG. 実施例1における,境界判定機能161の処理動作を説明するための図である。FIG. 6 is a diagram for explaining a processing operation of a boundary determination function 161 in the first embodiment. (a)は実施例1における,測定投影データを示す図であり、(b)は閾値処理による境界判定を説明するためのグラフである。(A) is a figure which shows the measurement projection data in Example 1, (b) is a graph for demonstrating the boundary determination by a threshold value process. 実施例1における,判定した境界による投影角度と境界位置の定式化を説明するための図である。FIG. 6 is a diagram for explaining formulation of a projection angle and a boundary position based on a determined boundary in the first embodiment. 実施例1における,画像計算機能152の各機能を説明するための図である。FIG. 6 is a diagram for explaining each function of an image calculation function 152 in the first embodiment. 実施例1における,画像計算機能152の計算手順を説明するための図である。FIG. 10 is a diagram for explaining a calculation procedure of an image calculation function 152 in the first embodiment. (a)は、実施例1における,FOVを説明する図であり、(b)はFOV内の再構成画像の計算結果を説明する図である。(A) is a figure explaining FOV in Example 1, (b) is a figure explaining the calculation result of the reconstructed image in FOV. (a)〜(d)は実施例1における,複数のFOVの計算方法を説明する為の図である。(A)-(d) is a figure for demonstrating the calculation method of several FOV in Example 1. FIG. 実施例4における,再構成処理部136の各機能を説明するための図である。FIG. 10 is a diagram for explaining each function of a reconstruction processing unit 136 according to a fourth embodiment. 実施例4における,画像識別処理後の効果を説明するための図であり、(a)は画像識別処理前、(b)は画像識別処理後である。It is a figure for demonstrating the effect after an image identification process in Example 4, (a) is before an image identification process, (b) is after an image identification process. 実施例5における,再構成処理部136の各機能を説明するための図である。FIG. 10 is a diagram for explaining each function of a reconstruction processing unit 136 in the fifth embodiment. (a)〜(c)は、実施例5における,FOVの計算方法を説明する為の図である。(A)-(c) is a figure for demonstrating the calculation method of FOV in Example 5. FIG. (a)〜(e)は、実施例6における,寝台推定後の測定投影データを説明するための図である。(A)-(e) is a figure for demonstrating the measurement projection data after the bed estimation in Example 6. FIG. 実施例7における,画像計算機能および拡大再構成処理の各機能を説明するための図である。FIG. 20 is a diagram for explaining each function of an image calculation function and an enlargement reconstruction process in the seventh embodiment. (a)〜(e)は、実施例7における,画像計算機能および拡大再構成処理の各機能を説明するための図である。(A)-(e) is a figure for demonstrating each function of the image calculation function in an Example 7, and an expansion reconstruction process.

本発明のX線CT装置は、X線を発生するX線発生部と,被写体を透過後のX線を検出するX線検出部と,回転板と、画像生成部と、逐次近似再構成部とを備えている。回転板は、X線発生部とX線検出部とを搭載して被写体の周囲を回転する。画像生成部は、X線検出部が検出した被写体の投影データからCT画像を再構成する。逐次近似再構成は、CT画像を計算により投影して求めた計算投影データとX線検出部が検出した投影データとが等しくなるように逐次的にCT画像を修正する。画像生成部は、X線検出部が検出した投影データから、少なくとも2種類の被写体の投影データを判別し、判別した投影データから少なくとも2種類の被写体のうち所定の被写体を包含する領域を計算により求め、所定の被写体を包含する領域内についてCT画像を生成する。   An X-ray CT apparatus of the present invention includes an X-ray generation unit that generates X-rays, an X-ray detection unit that detects X-rays after passing through an object, a rotating plate, an image generation unit, and a successive approximation reconstruction unit And. The rotating plate includes an X-ray generation unit and an X-ray detection unit and rotates around the subject. The image generation unit reconstructs a CT image from the projection data of the subject detected by the X-ray detection unit. In the successive approximation reconstruction, the CT image is sequentially corrected so that the calculated projection data obtained by projecting the CT image by calculation is equal to the projection data detected by the X-ray detection unit. The image generation unit discriminates projection data of at least two types of subjects from the projection data detected by the X-ray detection unit, and calculates a region including a predetermined subject among at least two types of subjects from the discriminated projection data. In other words, a CT image is generated for a region including a predetermined subject.

これにより、少ない計算量で、逐次近似再構成手法により高精度なCT画像を得ることができる。   As a result, a high-accuracy CT image can be obtained by a successive approximation reconstruction method with a small amount of calculation.

上述の2種類の被写体とは、例えば、所定の被写体である撮影対象と、撮影対象の周りの空気である。この場合、撮影対象は、被検体と、被検体を支える寝台とを含む。   The above-described two types of subjects are, for example, a photographing target that is a predetermined subject and air around the photographing target. In this case, the imaging target includes a subject and a bed that supports the subject.

例えば、画像生成部は、X線検出部を構成する複数の検出素子がそれぞれ検出した投影データの値を予め定めた閾値と比較することにより、少なくとも2種類の被写体の投影データを判別する構成とする。   For example, the image generation unit determines the projection data of at least two types of subjects by comparing the values of projection data detected by a plurality of detection elements constituting the X-ray detection unit with predetermined threshold values. To do.

また例えば、画像生成部は、回転板によるX線発生部およびX線検出部の回転角度と,判別した少なくとも2種類の被写体の境界との関係を表す関数を求め、関数を用いて所定の被写体を包含する領域を求める構成にする。   In addition, for example, the image generation unit obtains a function representing a relationship between the rotation angle of the X-ray generation unit and the X-ray detection unit by the rotating plate and the boundary between at least two types of determined subjects, and uses the function to determine a predetermined subject. To obtain a region including.

また、画像生成部は、X線検出部を構成する、チャネル方向の検出素子両端部を起点として、チャネル方向の内側の検出素子に向かって、順に各検出素子の検出した投影データを閾値と比較し、2種類の被写体の境界を判定することができる。   In addition, the image generation unit compares the projection data detected by each detection element with the threshold value in order toward the detection element inside the channel direction starting from both ends of the detection element in the channel direction, which constitutes the X-ray detection unit. Thus, the boundary between two types of subjects can be determined.

また、画像生成部は、X線検出部を構成する、複数の検出素子の投影データを前記閾値と比較することにより、回転板のある角度において、少なくとも2種類の被写体の境界の検出素子を判定した後、判定した境界の検出素子の周囲の所定範囲の検出素子について、回転板の別の角度における投影データを閾値と比較することにより、別の角度における境界の検出素子を判定する構成としてもよい。   In addition, the image generation unit determines the detection elements of at least two types of subject boundaries at an angle of the rotating plate by comparing projection data of a plurality of detection elements constituting the X-ray detection unit with the threshold value. After that, for a detection element in a predetermined range around the detection element at the determined boundary, the detection data at the boundary at another angle may be determined by comparing projection data at another angle of the rotating plate with a threshold value. Good.

画像生成部は,X線検出部を構成する複数の検出素子がそれぞれ検出した投影データの値に平滑化処理を施し、平滑化処理を施した投影データを用いて、少なくとも2種類の被写体の投影データを判別する構成としてもよい。   The image generation unit performs smoothing processing on the values of the projection data detected by the plurality of detection elements constituting the X-ray detection unit, and projects at least two types of subjects using the smoothed projection data. A configuration for discriminating data may be employed.

操作者から所定の被写体を包含する領域の形状の選択を受け付ける入力部を有する構造とすることも可能である。この場合、画像生成部は、入力部が操作者から受け付けた形状の,所定の被写体を包含する領域を生成する。   It is also possible to adopt a structure having an input unit that accepts selection of the shape of a region including a predetermined subject from the operator. In this case, the image generation unit generates a region including a predetermined subject having a shape that the input unit has received from the operator.

また、画像生成部は,所定の被写体を包含する領域内について生成したCT画像内に含まれる、所定の被写体とは異なる被写体を判別し、所定の被写体とは異なる被写体を排除するように前記領域の外形を調整する構成としてもよい。   Further, the image generation unit discriminates a subject different from the predetermined subject included in the CT image generated for the region including the predetermined subject, and excludes the subject different from the predetermined subject. It is good also as a structure which adjusts the external shape.

撮像対象を透過したX線の一部がX線検出部の外側に到達し、X線検出部では一部の投影データが検出されない不完全な投影データがある場合、画像生成部は、不完全な投影データを計算により推定し、推定した投影データと、X線検出部が検出した投影データとを用いて、被写体を包含する領域を計算により求めてもよい。   If some of the X-rays that have passed through the imaging target reach the outside of the X-ray detection unit and there is incomplete projection data that cannot be detected by the X-ray detection unit, the image generation unit Projection data may be estimated by calculation, and a region including the subject may be calculated by using the estimated projection data and the projection data detected by the X-ray detection unit.

例えば、画像生成部は、X線検出部が検出した投影データから再構成したCT画像から、X線検出部で検出されない不完全な投影データを計算により推定することができる。また例えば、画像生成部は、予め求めておいた寝台の形状データおよび撮影時の寝台の位置から、X線検出部で検出されない不完全な投影データを計算により推定することも可能である。予め求めておいた寝台の形状データとしては、予め撮影しておいた寝台のCT画像を用いることができる。   For example, the image generation unit can estimate by calculation the incomplete projection data that is not detected by the X-ray detection unit from the CT image reconstructed from the projection data detected by the X-ray detection unit. Further, for example, the image generation unit can also estimate incomplete projection data that is not detected by the X-ray detection unit by calculation from the bed shape data obtained in advance and the bed position at the time of imaging. As the bed shape data obtained in advance, a CT image of the bed taken in advance can be used.

所定の被写体を包含する領域について生成したCT像の内部の局所領域について拡大再構成画像を生成する拡大再構成画像生成部をさらに有する構成とすることもできる。この拡大再構成画像生成部は、画像生成部が生成した、所定の被写体を包含する領域内についてCT画像から局所領域の画素を除いた背景画像を生成し、当該背景画像を計算により投影して背景投影データを求め、X線検出部が検出した投影データから背景投影データを差し引いて得た局所投影データを再構成することにより、局所領域の拡大CT画像を得ることができる。   It may be configured to further include an enlarged reconstructed image generating unit that generates an enlarged reconstructed image for a local region inside a CT image generated for a region including a predetermined subject. The enlarged reconstructed image generation unit generates a background image that is generated by the image generation unit and excludes pixels in the local region from the CT image within the region including the predetermined subject, and projects the background image by calculation. By obtaining the background projection data and reconstructing the local projection data obtained by subtracting the background projection data from the projection data detected by the X-ray detection unit, an enlarged CT image of the local region can be obtained.

局所領域の拡大CT画像を計算により投影して求めた局所計算投影データと、局所投影データとが等しくなるように逐次的に拡大CT画像を修正する局所領域画像逐次近似再構成部をさらに有する構成としてもよい。   A configuration further including a local area image successive approximation reconstructing unit that sequentially corrects the enlarged CT image so that the locally calculated projection data obtained by projecting the enlarged CT image of the local area is equal to the local projection data It is good.

以下,本発明の各種の実施例を図面に従い説明する。なお所定の被写体を包含する領域をFOVとも呼ぶ。   Hereinafter, various embodiments of the present invention will be described with reference to the drawings. Note that a region including a predetermined subject is also called an FOV.

本発明のX線CT装置は、X線を発生するX線発生部と、被写体透過後のX線を検出するX線検出部と、投影データ計測部と、画像生成部と、投影データ計算部と、画像修正部とを備える。投影データ計測部は、X線発生部とX線検出部を回転させて計測したX線検出部の検出信号から投影データを生成する。画像生成部は、測定投影データから画像生成を行う。投影データ計算部は、X線発生部とX線検出部を結ぶ経路上におけるCT画像の投影データを計算する。画像修正部は、投影データ計算部によって得られた計算投影データと測定投影データに基づき,CT画像を逐次的に修正する。   An X-ray CT apparatus of the present invention includes an X-ray generation unit that generates X-rays, an X-ray detection unit that detects X-rays after transmission through a subject, a projection data measurement unit, an image generation unit, and a projection data calculation unit And an image correction unit. The projection data measurement unit generates projection data from the detection signal of the X-ray detection unit measured by rotating the X-ray generation unit and the X-ray detection unit. The image generation unit generates an image from the measurement projection data. The projection data calculation unit calculates the projection data of the CT image on the path connecting the X-ray generation unit and the X-ray detection unit. The image correction unit sequentially corrects the CT image based on the calculated projection data and the measurement projection data obtained by the projection data calculation unit.

画像生成部は,被写体判別部と、生成範囲計算部と、画像計算部とを含む。被写体判別部は、測定投影データから異なる2種類以上の被写体を判別する。生成範囲計算部は、判別した被写体のうち特定の被写体を包含するように前記CT画像の中心およびCT画像を生成する範囲を計算する。画像計算部は、測定投影データから生成範囲のCT画像を計算する。   The image generation unit includes a subject determination unit, a generation range calculation unit, and an image calculation unit. The subject discriminating unit discriminates two or more different types of subjects from the measured projection data. The generation range calculation unit calculates the center of the CT image and a range for generating the CT image so as to include a specific subject among the determined subjects. The image calculation unit calculates a CT image of the generation range from the measurement projection data.

<実施例1>
図面を参照して,実施例1のX線CT装置を詳細に説明する。
<Example 1>
The X-ray CT apparatus according to the first embodiment will be described in detail with reference to the drawings.

図1は,実施例1の逐次近似再構成ソフトウェアを搭載したX線CT装置を実現するハードウェア構成を示す図である。図1の装置は,X線照射条件等の撮影条件や画像再構成の条件を入力する入力部101と,撮影の制御やX線の照射および検出を行う撮影部102と,検出した信号に対して補正や画像再構成を行い,画像を出力する画像生成部103とを備えて構成される。なお,入力部101および画像生成部103は,撮影部102を備える本体装置と一体に構成する必要はなく,撮影部102とは離れた場所に配置し、ネットワークを介して接続してもよい。また,入力部101と画像生成部103は、これらの構成を実現する入出力部や処理部や記憶部などのハードウェアを共用しても良い。   FIG. 1 is a diagram illustrating a hardware configuration for realizing an X-ray CT apparatus equipped with the successive approximation reconstruction software according to the first embodiment. The apparatus of FIG. 1 includes an input unit 101 for inputting imaging conditions such as X-ray irradiation conditions and image reconstruction conditions, an imaging unit 102 for controlling imaging and X-ray irradiation and detection, and for detected signals. And an image generation unit 103 that performs correction and image reconstruction and outputs an image. Note that the input unit 101 and the image generation unit 103 do not need to be configured integrally with the main body device including the imaging unit 102, and may be arranged at a location away from the imaging unit 102 and connected via a network. Further, the input unit 101 and the image generation unit 103 may share hardware such as an input / output unit, a processing unit, and a storage unit that realize these configurations.

入力部101は、撮影条件の入力等を行うためにキーボード111,マウス112,ペンタブレット,タッチパネル等の入力部と、中央処理装置(CPU;Central Processing Unit)114と、メモリ113やHDD(Hard Disk Drive)装置115等の記憶部と、図示を省略したモニタとを備えている。各構成要素はデータバス101aによって接続されている。キーボード111等により入力されたデータは,処理部である中央処理装置114に受け渡される。中央処理装置114は、メモリ113,HDD装置115等に予め格納されている所定のプログラムを展開・起動することで撮影部102に制御信号を送り、撮影を制御する。   The input unit 101 includes an input unit such as a keyboard 111, a mouse 112, a pen tablet, and a touch panel, a central processing unit (CPU) 114, a memory 113, and an HDD (Hard Disk) for inputting shooting conditions and the like. (Drive) device 115 and the like, and a monitor (not shown). Each component is connected by a data bus 101a. Data input from the keyboard 111 or the like is transferred to the central processing unit 114 as a processing unit. The central processing unit 114 controls the photographing by sending a control signal to the photographing unit 102 by developing and starting a predetermined program stored in advance in the memory 113, the HDD device 115, and the like.

図1の撮影部102は、ガントリー3と、被検体6を支える寝台5と、X線制御器117と、ガントリー制御器116と、寝台制御器118とを備えて構成される。ガントリー3は、X線管1とX線検出部2と、これらを搭載する回転板4とを含む。ガントリー3および回転板4の中央には、円形の開口部7が設けられ、寝台5は開口部7内に挿入される。   The imaging unit 102 in FIG. 1 includes a gantry 3, a bed 5 that supports a subject 6, an X-ray controller 117, a gantry controller 116, and a bed controller 118. The gantry 3 includes an X-ray tube 1, an X-ray detector 2, and a rotating plate 4 on which these are mounted. A circular opening 7 is provided at the center of the gantry 3 and the rotating plate 4, and the bed 5 is inserted into the opening 7.

X線の照射および検出は,X線管1とX線検出部2により実現される。X線管1のX線発生点とX線検出部2のX線入力面との距離の代表例は1000[mm]である。開口部7の直径の代表例は700[mm]である。回転板4の1回転の所要時間の代表例は1.0[s]である。X線検出部2にはシンチレータ及びフォトダイオード等から構成される公知のX線検出部が使用される。X線検出部2はX線管1から等距離の円弧状に図示しない多数の検出素子を有しており,その素子数(以下,チャネル数とする)の代表例は950個である。各検出素子のチャネル方向のサイズの代表例は1[mm]である。撮影部102の1回転における撮影回数は900回であり,回転板4が0.4度回転する毎に1回の撮影が行われる。なお前記各仕様はこれらの値に限定されるものはなく,X線CT装置の構成に応じて種々変更可能である。ガントリー制御器116は、回転板4の回転動作を制御する。X線制御器117は、X線管1の動作を制御する。寝台制御器118は、寝台5の位置を制御する。   X-ray irradiation and detection are realized by the X-ray tube 1 and the X-ray detector 2. A typical example of the distance between the X-ray generation point of the X-ray tube 1 and the X-ray input surface of the X-ray detector 2 is 1000 [mm]. A typical example of the diameter of the opening 7 is 700 [mm]. A typical example of the time required for one rotation of the rotating plate 4 is 1.0 [s]. As the X-ray detection unit 2, a known X-ray detection unit including a scintillator and a photodiode is used. The X-ray detection unit 2 has a large number of detection elements (not shown) in an arc shape equidistant from the X-ray tube 1, and a typical example of the number of elements (hereinafter referred to as the number of channels) is 950. A typical example of the size of each detection element in the channel direction is 1 [mm]. The number of times of photographing in one rotation of the photographing unit 102 is 900, and one photographing is performed every time the rotating plate 4 rotates 0.4 degrees. The specifications are not limited to these values, and can be variously changed according to the configuration of the X-ray CT apparatus. The gantry controller 116 controls the rotation operation of the rotating plate 4. The X-ray controller 117 controls the operation of the X-ray tube 1. The bed controller 118 controls the position of the bed 5.

画像生成部103は、データ収集システム(DAS;Data Acquisition System)119、中央処理装置(CPU)121,メモリ120やHDD装置122等の記憶部、モニタ123を備えて構成される。これらはデータバス103aによって接続される。   The image generation unit 103 includes a data collection system (DAS) 119, a central processing unit (CPU) 121, a storage unit such as the memory 120 and the HDD device 122, and a monitor 123. These are connected by a data bus 103a.

撮影部102のX線検出部2で検出された信号は,DAS119によってディジタル信号に変換され、CPU121に受け渡される。CPU121は、メモリ120やHDD装置122に予め格納された所定のプログラムを展開・起動することにより補正や画像再構成を行う。また、HDD装置122等にデータは保存され、必要に応じて、データは外部へ入出力される。画像再構成したCT画像は,表示部である液晶ディスプレイやCRT等のモニタ123により表示される。上述のようにCPU121やメモリ120やモニタ123等は入力部101と共用できる。   A signal detected by the X-ray detection unit 2 of the imaging unit 102 is converted into a digital signal by the DAS 119 and transferred to the CPU 121. The CPU 121 performs correction and image reconstruction by developing and starting a predetermined program stored in advance in the memory 120 and the HDD device 122. Further, data is stored in the HDD device 122 or the like, and data is input / output to / from the outside as necessary. The reconstructed CT image is displayed on a monitor 123 such as a liquid crystal display or a CRT as a display unit. As described above, the CPU 121, the memory 120, the monitor 123, and the like can be shared with the input unit 101.

図2は,実施例1のX線CT装置の機能ブロック図である。図2の入力部101は,撮影条件を入力する撮影条件入力部131として機能する。撮影部102は,撮影条件入力部131で入力された撮影条件に基づき撮影を制御する撮影制御部132と,X線の照射および検出を行う撮影部133として機能する。画像生成部103は,検出した信号をディジタル信号に変換する信号収集部134,前記ディジタル信号に対して補正する補正処理部135,補正した投影データに対して画像再構成する再構成処理部136,および、再構成したCT画像を出力する画像表示部137として機能する。   FIG. 2 is a functional block diagram of the X-ray CT apparatus according to the first embodiment. The input unit 101 in FIG. 2 functions as a shooting condition input unit 131 that inputs shooting conditions. The imaging unit 102 functions as an imaging control unit 132 that controls imaging based on the imaging conditions input by the imaging condition input unit 131 and an imaging unit 133 that performs X-ray irradiation and detection. The image generation unit 103 includes a signal collection unit 134 that converts a detected signal into a digital signal, a correction processing unit 135 that corrects the digital signal, and a reconstruction processing unit 136 that reconstructs an image of the corrected projection data. And it functions as an image display unit 137 that outputs a reconstructed CT image.

次に,実施例1のX線CT装置の撮影動作の流れを図1〜図3を用いて説明する。図3は,撮影条件入力部131のモニタ123のモニタ画面141の一例を示す図である。   Next, the flow of the imaging operation of the X-ray CT apparatus according to the first embodiment will be described with reference to FIGS. FIG. 3 is a diagram illustrating an example of the monitor screen 141 of the monitor 123 of the imaging condition input unit 131.

図2の撮影条件入力部101は、図3のモニタ画面141をモニタ123に表示し、操作者の入力を受け付ける。図3のモニタ画面141は、照射するX線のエネルギー及び出力量に対応する管電圧,及び管電流時間積を設定するためのX線条件142と,再構成画像の条件を設定する画像条件143と,FOVの形状を選択するFOV形状リスト144から構成される。操作者は、モニタ画面141を見ながら、マウス112やキーボード111等を操作して,X線条件,再構成画像の画像条件、FOV形状等を設定する。   The imaging condition input unit 101 in FIG. 2 displays the monitor screen 141 in FIG. 3 on the monitor 123 and accepts input from the operator. The monitor screen 141 in FIG. 3 includes an X-ray condition 142 for setting a tube voltage and a tube current time product corresponding to the energy and output amount of X-rays to be irradiated, and an image condition 143 for setting a reconstructed image condition. And an FOV shape list 144 for selecting the FOV shape. The operator operates the mouse 112 and the keyboard 111 while watching the monitor screen 141 to set the X-ray condition, the image condition of the reconstructed image, the FOV shape, and the like.

図3ではX線条件142の一例として,管電圧値120[kV],管電流時間積200[mAs]が設定されている。本実施例では,1種類のエネルギースペクトルを有するX線を想定したが,2種類以上のX線を用いるマルチエネルギーCTでは,管電圧及び管電流時間積の項目を追加して同様に行うことができる。   In FIG. 3, as an example of the X-ray condition 142, a tube voltage value of 120 [kV] and a tube current time product of 200 [mAs] are set. In the present embodiment, X-rays having one type of energy spectrum are assumed. However, in multi-energy CT using two or more types of X-rays, the items of tube voltage and tube current time product can be added in the same manner. it can.

図3の画像条件143では,操作者が再構成画像の画素サイズを固定する場合,画素サイズ[mm/画素]を入力する。このとき画素数は,本実施例で計算したFOV[mm]から画素サイズを除算して求める。一方,操作者が再構成画像の画素数を固定する場合,X方向,Y方向,Z方向の画素数を入力する。このとき画素サイズ[mm/画素]は,本実施例で算出したFOV[mm]から画素数を除算して求める。   In the image condition 143 in FIG. 3, when the operator fixes the pixel size of the reconstructed image, the pixel size [mm / pixel] is input. At this time, the number of pixels is obtained by dividing the pixel size from the FOV [mm] calculated in this embodiment. On the other hand, when the operator fixes the number of pixels of the reconstructed image, the number of pixels in the X direction, Y direction, and Z direction is input. At this time, the pixel size [mm / pixel] is obtained by dividing the number of pixels from the FOV [mm] calculated in the present embodiment.

図3のFOV形状リスト144では,操作者が円形,正方形,長方形,球,円柱,最適形状等を選択する。最適形状とは,本実施例で説明する測定投影データから計算した最適なFOVである。   In the FOV shape list 144 of FIG. 3, the operator selects a circle, a square, a rectangle, a sphere, a cylinder, an optimum shape, or the like. The optimum shape is an optimum FOV calculated from the measurement projection data described in this embodiment.

本実施例では,再構成するCT画像が1つのFOVからなる場合に限定されることはなく、一つのCT画像が複数のFOVから構成されていてもよい。例えば,腕と胴体が含まれるCT画像において,ある断層面の位置では腕と胴体が空間的に離れており繋がっていない。その場合,腕用のFOVと胴体用のFOVとを分割して設定し、それぞれについて画像再構成を行い、一つのCT画像を得ることが可能である。この方法については後で詳しく説明する。   In the present embodiment, the CT image to be reconstructed is not limited to a single FOV, and one CT image may be composed of a plurality of FOVs. For example, in a CT image including an arm and a torso, the arm and the torso are spatially separated and not connected at a certain tomographic plane position. In that case, it is possible to set the arm FOV and the trunk FOV separately and perform image reconstruction for each to obtain one CT image. This method will be described in detail later.

図3は,X線条件,画像条件,FOV形状リストの一例であり,本発明は、図3の画面構成に限定されるものではない。また事前にX線条件,画像条件,FOV形状リストの設定をHDD装置115に保存することも可能であり、その場合毎回操作者が入力する必要はない。   FIG. 3 is an example of the X-ray condition, the image condition, and the FOV shape list, and the present invention is not limited to the screen configuration of FIG. In addition, the X-ray conditions, image conditions, and FOV shape list settings can be stored in the HDD device 115 in advance, and in this case, the operator does not need to input each time.

次に、図2の撮影部102は、撮影条件入力部131が受け付けた撮影条件に応じて,X線撮影を行う。始めに,操作者はマウス112やキーボード111等を用いて,被検体6の撮影位置を指定した後に撮影開始を指示する。この撮影開始の指示を受けて、撮影制御部132は、寝台制御器118によって寝台5を回転板4の回転軸方向に移動させる。そして被検体6の位置が指定された撮影位置と一致した時点で移動を停止させ,被検体6の配置を終了する。   Next, the imaging unit 102 in FIG. 2 performs X-ray imaging according to the imaging conditions received by the imaging condition input unit 131. First, the operator designates the start of imaging after specifying the imaging position of the subject 6 using the mouse 112, the keyboard 111, or the like. In response to the instruction to start shooting, the shooting control unit 132 moves the bed 5 in the direction of the rotation axis of the rotary plate 4 by the bed controller 118. The movement is stopped when the position of the subject 6 coincides with the designated imaging position, and the placement of the subject 6 is ended.

一方,撮影制御部132は、ガントリー制御器116により,撮影開始が指示されると同時に駆動モーターを介して回転板4の回転を開始させる。回転板4の回転が定速状態に入り,かつ、被検体6の撮影位置への配置が終了した時点で,撮影制御部132は、X線制御器117に撮影部のX線管1のX線照射タイミング,及び、X線検出部2の撮影タイミングを指示し,撮影を開始する。また、X線制御器117は,例えば操作者が設定したX線管1の管電圧および管電流時間積により,照射するX線のエネルギースペクトルと出力量を決定する。これにより、X線管1はX線を被検体に照射し、X線検出部2は,被検体6を透過したX線光子を検出する。
なお,本実施例では,1種類のエネルギースペクトルを有するX線を使用したが,1回転毎または1回転中に管電圧を高速に切り替えて2種類以上のエネルギースペクトルを有するX線を照射し,撮影データを取得するマルチエネルギーCTにも適用できる。
On the other hand, the imaging control unit 132 starts rotation of the rotating plate 4 via the drive motor at the same time when the gantry controller 116 instructs to start imaging. When the rotation of the rotating plate 4 enters a constant speed state and the placement of the subject 6 at the imaging position is completed, the imaging control unit 132 sends an X-ray of the X-ray tube 1 of the imaging unit to the X-ray controller 117. The irradiation timing and the imaging timing of the X-ray detector 2 are instructed to start imaging. The X-ray controller 117 determines the energy spectrum and output amount of the X-ray to be irradiated, for example, based on the tube voltage and tube current time product of the X-ray tube 1 set by the operator. As a result, the X-ray tube 1 irradiates the subject with X-rays, and the X-ray detector 2 detects X-ray photons transmitted through the subject 6.
In this embodiment, X-rays having one type of energy spectrum are used. However, X-rays having two or more types of energy spectra are irradiated by switching the tube voltage at high speed every rotation or during one rotation. It can also be applied to multi-energy CT that acquires imaging data.

X線検出部2の出力信号は、図2の信号収集部134が、DAS119によってディジタル信号に変換する。取得したX線検出データは,メモリ120に保存される。このデータに対し,補正処理部135では,X線の検出信号のゼロ値を較正するオフセット補正や,検出素子間の感度を補正する公知のエアキャリブレーション処理等の補正を行い,被検体6の測定投影データを取得する。この信号収集部134と補正処理部135によって取得された測定投影データは,補正処理部135に続く再構成処理部136に送られる。   The signal collection unit 134 in FIG. 2 converts the output signal of the X-ray detection unit 2 into a digital signal by the DAS 119. The acquired X-ray detection data is stored in the memory 120. For this data, the correction processing unit 135 performs correction such as offset correction for calibrating the zero value of the X-ray detection signal and known air calibration processing for correcting the sensitivity between the detection elements. Acquire measurement projection data. The measurement projection data acquired by the signal collecting unit 134 and the correction processing unit 135 is sent to the reconstruction processing unit 136 following the correction processing unit 135.

図4に、再構成処理部136のさらに詳しい機能構成を示す。再構成処理部136は、FOVを計算するFOV計算機能151と、CT画像を計算する画像計算機能152とを備える。FOV計算機能151は,さらに、測定投影データから異なる2種類以上の被写体間の境界を判定する境界判定機能161と,判定した境界の位置と投影角度の関係に基づき境界を定式化する境界式作成機能162と,定式化した境界式からFOVを換算するFOV換算機能163とを備えている。   FIG. 4 shows a more detailed functional configuration of the reconfiguration processing unit 136. The reconstruction processing unit 136 includes an FOV calculation function 151 that calculates an FOV and an image calculation function 152 that calculates a CT image. The FOV calculation function 151 further includes a boundary determination function 161 that determines the boundary between two or more different types of subjects from the measured projection data, and a boundary expression that formulates the boundary based on the relationship between the determined boundary position and projection angle A function 162 and an FOV conversion function 163 for converting the FOV from the formulated boundary expression are provided.

上記異なる2種類の被写体とは、撮影対象と、その周りの空間を満たす媒体(ここでは空気)である。撮影対象は、被検体6と、被検体6を支える寝台5とを包含する。なお、被検体6は、人体に限らず、ファントムや機械等の検査対象の物体であってもよい。   The two different types of subjects are a subject to be photographed and a medium (here, air) that fills the surrounding space. The imaging target includes a subject 6 and a bed 5 that supports the subject 6. The subject 6 is not limited to a human body, and may be an object to be inspected such as a phantom or a machine.

図2の補正処理部135と再構成処理部136の動作は,上述したCPU121が、予めメモリ120等に格納されたプログラムを実行することによって実現される。以下,図5〜図10を用いて,図4の再構成処理部136について詳述する。ここで図5は、再構成処理部136の境界判定機能161の処理動作を示すフローチャートであり、図6(a)は測定投影データを示す図であり、図6(b)は測定投影データのプロファイルを示すグラフである。図7は、検出された境界位置の関数を示すグラフである。図8は、再構成処理部136の画像計算機能152のさらに詳しい機能を示すブロック図であり、図9は、画像計算機能152の処理動作の示すフローチャートである。図10(a)は、再構成処理部136が求めたFOVを示す図であり、図10(b)は、求めたFOVの内部について再構成したCT像を示す図である。   The operations of the correction processing unit 135 and the reconstruction processing unit 136 in FIG. 2 are realized by the CPU 121 described above executing a program stored in advance in the memory 120 or the like. Hereinafter, the reconstruction processing unit 136 shown in FIG. 4 will be described in detail with reference to FIGS. FIG. 5 is a flowchart showing the processing operation of the boundary determination function 161 of the reconstruction processing unit 136, FIG. 6A is a diagram showing measurement projection data, and FIG. 6B is a diagram showing measurement projection data. It is a graph which shows a profile. FIG. 7 is a graph showing a function of the detected boundary position. FIG. 8 is a block diagram showing further detailed functions of the image calculation function 152 of the reconstruction processing unit 136, and FIG. 9 is a flowchart showing processing operations of the image calculation function 152. FIG. 10A is a diagram showing the FOV obtained by the reconstruction processing unit 136, and FIG. 10B is a diagram showing a CT image reconstructed inside the obtained FOV.

図5に示すように,再構成処理部136の境界判定機能161は,補正処理部135で補正した測定投影データを,設定した閾値を用いて判定することにより、異なる2種類の被写体の境界を求める。具体的には、投影角度θにおける測定投影データR(i,θ)を、閾値Tを用いて判定し、撮影対象(被検体6および寝台)と、その周りの空気との境界を判定する。例えば、閾値T=500[HU]とし,閾値T以下を空気,閾値T以上の領域を空気以外の撮影対象として判定する。   As shown in FIG. 5, the boundary determination function 161 of the reconstruction processing unit 136 determines the measurement projection data corrected by the correction processing unit 135 using a set threshold value, thereby determining the boundary between two different types of subjects. Ask. Specifically, the measurement projection data R (i, θ) at the projection angle θ is determined using the threshold T, and the boundary between the imaging target (the subject 6 and the bed) and the surrounding air is determined. For example, the threshold value T = 500 [HU] is determined, and the area below the threshold value T is determined as air and the area above the threshold value T is determined as an imaging target other than air.

まず、ステップ171において、境界判定機能161は、補正処理部135から取得した測定投影データR(i,θ)について,検出素子番号i=1かつ投影角度θ=0から撮影対象の左側の境界の判定を開始する。本実施例ではX線管1を上部,X線検出部2を下部に固定したとき,左端部のX線検出素子2から順に検出素子番号i=1〜950を付与している。図6(a)はファントム撮影時の測定投影データR(i,θ)の一例であり、横軸は検出素子番号i、縦軸は投影角度θである。図6(b)は、ある投影角度θにおける測定投影データのプロファイル181であり、横軸は検出素子番号i,縦軸はCT値である。 First, in step 171, the boundary determination function 161 determines the left boundary of the object to be imaged from the detection element number i = 1 and the projection angle θ = 0 for the measurement projection data R (i, θ) acquired from the correction processing unit 135. Start judgment. In this embodiment, when the X-ray tube 1 is fixed to the upper part and the X-ray detection part 2 is fixed to the lower part, the detection element numbers i = 1 to 950 are assigned in order from the X-ray detection element 2 at the left end. FIG. 6A is an example of measurement projection data R (i, θ) at the time of phantom imaging, where the horizontal axis is the detection element number i and the vertical axis is the projection angle θ. FIG. 6B shows a profile 181 of the measured projection data at a certain projection angle θ 1 , where the horizontal axis is the detection element number i and the vertical axis is the CT value.

図5のステップ174では,式1が成立する検出素子番号iは、その検出素子番号iよりも左側のX線検出素子2は空気のみを透過したX線を検出し、右側のX線検出素子2は撮影対象の透過したX線を検出していると判定できるため、検出素子番号iを左側の境界と判定する。   In step 174 of FIG. 5, the detection element number i for which Equation 1 is satisfied is detected by the X-ray detection element 2 on the left side of the detection element number i detecting X-rays that have passed through only air, and the right X-ray detection element. 2 can determine that the X-ray transmitted through the object to be detected is detected, and therefore the detection element number i is determined as the left boundary.

ステップ175では,式1を満足しない場合,検出素子番号iはインクリメントされ別の検出素子を探索する。式1を満足する場合,ステップ176では境界位置R(i,θ)をメモリ120等に保存する。境界の位置情報は,図6(a)のように、検出素子番号i,または式2に示す検出部中心との距離DL(θ)を保存してもよい。   In step 175, if the expression 1 is not satisfied, the detection element number i is incremented to search for another detection element. When Expression 1 is satisfied, in step 176, the boundary position R (i, θ) is stored in the memory 120 or the like. As the boundary position information, as shown in FIG. 6A, the detection element number i or the distance DL (θ) from the center of the detection unit shown in Expression 2 may be stored.

ステップ177では,投影角度θに変化量△θを加算し,別の投影角度においてもステップ174〜176の処理を行う。例えば△θ=0.5[度]とする。これを投影角度θが最大値θmaxに達するまで繰り返す(ステップ172)。以上により、撮影対象(被検体6と寝台5)の左側の境界の位置が保存される。   In step 177, the amount of change Δθ is added to the projection angle θ, and the processing in steps 174 to 176 is performed at another projection angle. For example, Δθ = 0.5 [degree]. This is repeated until the projection angle θ reaches the maximum value θmax (step 172). As described above, the position of the left boundary of the imaging target (the subject 6 and the bed 5) is stored.

なお、図5のフローでは、全ての投影角度において境界を判定しているが、投影角度n個毎に判定し、計算量を低減してもよい。   In the flow of FIG. 5, the boundary is determined at all projection angles. However, the determination may be made every n projection angles to reduce the amount of calculation.

次に、図5のフローと同様の手順により、撮影対象の右側の境界を判定する。ただし、図5のステップ171において検出素子番号i=950から開始し,ステップ174において式3が成り立つ検出素子番号iを撮影対象の右側の境界と判定する。   Next, the right boundary of the object to be imaged is determined by the same procedure as the flow of FIG. However, in step 171 of FIG. 5, the detection element number i starts from 950, and in step 174, the detection element number i for which Expression 3 is satisfied is determined as the right boundary of the imaging target.

式3を満足しない場合,ステップ175において検出素子番号iはデクリメントされ別のX線検出素子2を探索する。式3を満足する場合,ステップ176において境界位置R(i,θ)を保存する。   If Equation 3 is not satisfied, the detection element number i is decremented in step 175 and another X-ray detection element 2 is searched. If Expression 3 is satisfied, the boundary position R (i, θ) is stored in step 176.

境界位置の情報は,検出素子番号i,または式2と同様な計算で検出部中心との距離DR(θ)を保存してもよい。ステップ172、173において、投影角度θが、最小値θminに達したか、もしくは、検出素子番号iが1に達したならば終了する。   As the boundary position information, the detection element number i or the distance DR (θ) with respect to the center of the detection unit may be stored by the same calculation as in Expression 2. In steps 172 and 173, if the projection angle θ reaches the minimum value θmin or the detection element number i reaches 1, the process is terminated.

図6(b)により、プロファイル181と閾値T182から,被写体左側の境界183および右側の境界184を判定できたことがわかる。   From FIG. 6B, it can be seen from the profile 181 and the threshold value T182 that the boundary 183 on the left side of the subject and the boundary 184 on the right side can be determined.

なお、図5のフローで用いた式1、式3は、チャネル方向に隣接する検出素子間の測定投影データから境界を判定する。その為,測定投影データに閾値T以上のノイズが混入する場合,ノイズと境界を判定することができず,精度が低下する。精度低下を防止するため,X線検出素子間のノイズ成分はランダムと仮定し,周辺n個のX線検出素子の測定投影データR(i,θ)を平滑化処理することによりノイズを低減させることも可能である。周辺n個のX線検出素子とは,チャネル方向,投影角度方向,スライス方向,時間方向等のことを指す。   Note that Equations 1 and 3 used in the flow of FIG. 5 determine boundaries based on measurement projection data between detection elements adjacent in the channel direction. For this reason, when noise exceeding the threshold value T is mixed in the measured projection data, the noise and the boundary cannot be determined, and the accuracy is lowered. In order to prevent a decrease in accuracy, the noise component between the X-ray detection elements is assumed to be random, and the noise is reduced by smoothing the measurement projection data R (i, θ) of the n neighboring X-ray detection elements. It is also possible. The peripheral n X-ray detection elements indicate a channel direction, a projection angle direction, a slice direction, a time direction, and the like.

次に、図4の境界式作成機能162は,境界判定機能161が求めた左右の境界位置DL(θ),DR(θ)と投影角度θとの関係を関数等により表わす。ここでは、撮影対象の左側の境界位置DL(θ)を投影角度θの変数とする関数FL(θ)で表わし、右側の境界位置DR(θ)を関数FR(θ)で表わす。境界位置DL(θ),DR(θ)から関数FL(θ),FR(θ)を求める計算処理は、最小二乗法,スプライン補間等の多項式を用いて,DL(θ),DR(θ)を近似することにより行う。   Next, the boundary formula creation function 162 in FIG. 4 represents the relationship between the left and right boundary positions DL (θ) and DR (θ) obtained by the boundary determination function 161 and the projection angle θ by a function or the like. Here, the left boundary position DL (θ) to be imaged is represented by a function FL (θ) with the projection angle θ as a variable, and the right boundary position DR (θ) is represented by a function FR (θ). The calculation processing for obtaining the functions FL (θ) and FR (θ) from the boundary positions DL (θ) and DR (θ) is performed using DL (θ) and DR (θ) using polynomials such as the least square method and spline interpolation. Is approximated.

図7は、求めた関数FL(θ)188,FR(θ)189を示すグラフである。投影角度θにおける左側境界位置DL(θ)185,右側境界位置DR(θ)186を図7中に示す。図7において、X線検出部2の中心187より左側を負,右側を正とする。 FIG. 7 is a graph showing the obtained functions FL (θ) 188 and FR (θ) 189. FIG. 7 shows the left boundary position DL (θ 1 ) 185 and the right boundary position DR (θ 1 ) 186 at the projection angle θ 1 . In FIG. 7, the left side of the center 187 of the X-ray detection unit 2 is negative, and the right side is positive.

次に、図4のFOV換算機能163では,CT画像の各位置を式4により回転座標系に変換し、左側境界関数FL(θ)188と右側境界関数FR(θ)189の間の領域をFOV211として決定する。このとき回転板4の回転中心を画像位置(0,0)とすると任意の画像位置(x,y)が第1象限に含まれる時、φ=0[Radian]とし、(x,y)が第2象限および第3象限に含まれる時、φ=π/2[Radian]とし、(x,y)が第4象限に含まれる時、φ=2π[Radian]とする。例えば,任意の画像位置(x,y)では式4を満足する場合,FOV内部と判定する。一方,式4を満足しない場合,FOV外部と判定する。図10(a)では,FOV換算機能163で計算したFOV211を示す。このとき投影角度θ212におけるFR(θ)213は,回転板4の回転中心214を用いて,図10(a)のように表される。 Next, in the FOV conversion function 163 of FIG. 4, each position of the CT image is converted into a rotating coordinate system by Expression 4, and an area between the left boundary function FL (θ) 188 and the right boundary function FR (θ) 189 is determined. It is determined as FOV211. At this time, assuming that the rotation center of the rotating plate 4 is the image position (0, 0), when an arbitrary image position (x 1 , y 1 ) is included in the first quadrant, φ = 0 [Radian] and (x 1 , When y 1 ) is included in the second and third quadrants, φ = π / 2 [Radian], and when (x 1 , y 1 ) is included in the fourth quadrant, φ = 2π [Radian]. . For example, if an arbitrary image position (x 1 , y 1 ) satisfies Expression 4, it is determined that the FOV is inside. On the other hand, if Expression 4 is not satisfied, it is determined that the FOV is outside. FIG. 10A shows the FOV 211 calculated by the FOV conversion function 163. At this time, FR (θ 1 ) 213 at the projection angle θ 1 212 is expressed as shown in FIG. 10A using the rotation center 214 of the rotating plate 4.

また式5により、左側境界関数FL(θ)188と右側境界関数FR(θ)189からFOV211の外周に位置する画素(x,y)を求めることが可能である。式5は左側境界関数FL(θ)の例であり、右側境界関数FR(θ)では式5に示すFL(θ)をFR(θ)に置換すればよい。 Further, from Expression 5, it is possible to obtain the pixel (x 1 , y 1 ) located on the outer periphery of the FOV 211 from the left boundary function FL (θ) 188 and the right boundary function FR (θ) 189. Expression 5 is an example of the left boundary function FL (θ). In the right boundary function FR (θ), FL (θ 1 ) shown in Expression 5 may be replaced with FR (θ 2 ).

左側境界関数FL(θ)188と右側境界関数FR(θ)189は、撮影対象(被検体6と寝台5)の左側境界と右側境界を示す関数であるので、これらの間の領域であるFOV211の内側は、撮影対象全体を包含している(図10(a))。FOV211の外側は、空気の領域である。よって、撮影対象全体を包含するFOV211の内側のみについて以下のように画像再構成を行うことにより、少ないメモリ容量および計算量で画像再構成を行うことができる。このとき、FOV211は、撮影対象全体を包含しているので、逐次近似再構成手法の適用が可能であり、画像のノイズを除去し精度を向上させることができる。これを以下詳しく説明する。   Since the left boundary function FL (θ) 188 and the right boundary function FR (θ) 189 are functions indicating the left boundary and the right boundary of the imaging target (the subject 6 and the bed 5), the FOV 211 that is an area between them. The inside includes the entire object to be photographed (FIG. 10A). The outside of the FOV 211 is an air region. Therefore, image reconstruction can be performed with a small memory capacity and calculation amount by performing image reconstruction only as described below for the inside of the FOV 211 that includes the entire imaging target. At this time, since the FOV 211 includes the entire imaging target, it is possible to apply the successive approximation reconstruction method, and it is possible to remove the noise of the image and improve the accuracy. This will be described in detail below.

図8に示すように、再構成処理部136の画像計算機能152は,解析的再構成機能191,順投影機能192,データ比較機能193,逆投影処理機能194,及び画像更新機能195を備えている。これらの機能により、再構成処理部136は、図9のフローのように、逐次近似再構成手法によりFOV211内の画像再構成を行う。   As shown in FIG. 8, the image calculation function 152 of the reconstruction processing unit 136 includes an analytical reconstruction function 191, a forward projection function 192, a data comparison function 193, a back projection processing function 194, and an image update function 195. Yes. With these functions, the reconstruction processing unit 136 performs image reconstruction in the FOV 211 by a successive approximation reconstruction method as in the flow of FIG.

画像計算機能152の解析的再構成機能191は,図9のステップ201において,測定投影データR(i)に対して公知であるFeldkamp法等の解析的再構成手法を用いて撮影対象のCT値を表すCT画像λk=0(j)を計算する。このときCT画像は,FOV換算機能163で求めたFOV211の内部のみ計算する。 In step 201 of FIG. 9, the analytical reconstruction function 191 of the image calculation function 152 uses a known analytical reconstruction method such as the Feldkamp method for the measured projection data R (i) to obtain the CT value of the object to be imaged. CT image λ k = 0 (j) is calculated. At this time, the CT image is calculated only within the FOV 211 obtained by the FOV conversion function 163.

図10(b)は,解析的再構成機能191により生成された,FOV211の内部のみのCT画像である。境界判定機能161において境界が正確に判定され,かつ境界式作成機能162における多項式の近似精度がよいほど,FOV211外部で撮影対象(被検体6と寝台5)が存在する確率が小さくなる。   FIG. 10B is a CT image only inside the FOV 211 generated by the analytical reconstruction function 191. As the boundary is accurately determined in the boundary determination function 161 and the approximation accuracy of the polynomial in the boundary expression creation function 162 is higher, the probability that the imaging target (the subject 6 and the bed 5) exists outside the FOV 211 is reduced.

次に,取得したCT画像を逐次近似再構成手法の初期画像とし,逐次的に修正する。図9のステップ202において,計算中の更新回数kが設定した更新回数Kより小さいならば,ステップ203〜206の測定投影データR(i)を用いてCT画像を修正する。なお、逐次近似再構成手法は、広く知られた手法であるので、ここでは簡単に説明する。
画像を修正するアルゴリズムとして,例えば逐次近似再構成手法の一つであるASIRT(Additional simultaneous reconstruction technique)は,式6で表される。
Next, the acquired CT image is used as an initial image of the successive approximation reconstruction method, and is sequentially corrected. In step 202 in FIG. 9, if the update count k being calculated is smaller than the set update count K, the CT image is corrected using the measured projection data R (i) in steps 203-206. Note that the successive approximation reconstruction method is a widely known method and will be described briefly here.
As an algorithm for correcting an image, for example, ASIRT (Additional SIMULATION RECONSTRUCTION TECHNIQUE), which is one of successive approximation reconstruction techniques, is expressed by Equation 6.

λ(j)は,計算中の更新回数kにおけるCT画像の画素jの画素値を表し,J個の画素で構成されているものとする。CT画像は,一般的な2次元(x,y方向)の断層像だけでなく,1次元データ(x方向),体軸方向zに像を重ね合わせた3次元データ(x,y,z方向),または3次元に時間方向tを考慮した4次元データ(x,y,z,t)にも適用可能である。RC(i)は更新回数kにおけるCT画像を順投影処理して求めた計算投影データを表す。また緩和係数αは,更新回数kの画素値λ(j)に対して修正する割合を表す。また検出素子は投影方向の区別をつけずに全部でI個あるとし、p(i、j)は、画素jを通過するX線がi番目の検出素子に検出される確率を表す。
次に順投影機能192は,ステップ203において,式7のようにλ(j)を順投影処理し,計算投影データRC(i)を求める。
λ k (j) represents the pixel value of the pixel j of the CT image at the update count k being calculated, and is assumed to be composed of J pixels. The CT image is not only a general two-dimensional (x, y direction) tomographic image, but also one-dimensional data (x direction) and three-dimensional data (x, y, z direction) obtained by superimposing the images in the body axis direction z. ), Or four-dimensional data (x, y, z, t) considering the time direction t in three dimensions. RC k (i) represents calculated projection data obtained by forward projection processing of a CT image at the number of updates k. Further, the relaxation coefficient α represents a ratio of correction with respect to the pixel value λ k (j) of the update count k. Further, it is assumed that there are a total of I detection elements without distinguishing the projection direction, and p (i, j) represents the probability that the X-ray passing through the pixel j is detected by the i-th detection element.
Next, in step 203, the forward projection function 192 performs forward projection processing on λ k (j) as shown in Equation 7 to obtain calculated projection data RC k (i).

すなわち、この順投影機能192は,上述したX線発生部とX線検出部を結ぶ経路上におけるCT画像の画素値を積分し、積分値を投影データRC(i)として求める。 That is, the forward projection function 192 integrates the pixel values of the CT image on the path connecting the above-described X-ray generation unit and X-ray detection unit, and obtains the integration value as projection data RC k (i).

次にデータ比較機能193は,ステップ204において,式8に示すように,計算投影データRC(i)と測定投影データR(i)を比較計算し,更新投影データΔR(i)を求める。 Next, in step 204, the data comparison function 193 compares and calculates the calculated projection data RC k (i) and the measured projection data R (i) as shown in Expression 8 to obtain updated projection data ΔR k (i). .

次に逆投影処理機能194は,ステップ205において,式9に示すように,更新投影データΔR(i)を逆投影処理し,更新画像Δλ(j)を求める。 Next, in step 205, the backprojection processing function 194 performs backprojection processing on the updated projection data ΔR k (i) as shown in Equation 9 to obtain an updated image Δλ k (j).

次に画像更新機能195は,ステップ206において,式10に示すように,更新画像Δλ(j)を用いて修正したCT画像λk+1(j)を求める。例として,α=1.0を設定することとし,早く収束させるならば1.0以上,遅く収束させるならば1.0未満の緩和係数αを用いる。 Next, in step 206, the image update function 195 obtains a corrected CT image λ k + 1 (j) using the updated image Δλ k (j) as shown in Expression 10. As an example, α = 1.0 is set, and a relaxation coefficient α of 1.0 or more is used for early convergence and less than 1.0 for late convergence.

これらデータ比較機能193,逆投影処理機能194,及び画像更新機能195により,上述した計算投影データが測定投影データと等しくなるように,CT画像を逐次的に修正する画像修正部が構成される。   The data comparison function 193, the back projection processing function 194, and the image update function 195 constitute an image correction unit that sequentially corrects the CT image so that the calculated projection data is equal to the measurement projection data.

以上のように,図9のステップ203〜206を終了後,ステップ207において,更新回数kはk+1にインクリメントされ,ステップ202に戻ることによりループ処理が行われる。このとき,インクリメント後の更新回数kは,設定した更新回数Kより大きければ更新終了となり,ステップ208において,画像表示部137は得られたCT画像を表示出力する。   As described above, after completing steps 203 to 206 in FIG. 9, the update count k is incremented to k + 1 in step 207, and loop processing is performed by returning to step 202. At this time, if the updated number of updates k is greater than the set number of updates K, the update ends, and in step 208, the image display unit 137 displays and outputs the obtained CT image.

以上,図9のステップ202〜208では,実施例1の逐次近似再構成手法の計算手順の一例を示した。実施例1の式6で示した逐次近似再構成手法は一例であり,公知であるSPS,OS−SPS,PWLS,OS−PWLS,MSIRT,GRADY,CONGR,ART,SART,ML−EM,OS−EM,FIRA,RAMLA,DRAMA等,他の手法に適用しても構わない。   As described above, steps 202 to 208 in FIG. 9 show an example of the calculation procedure of the successive approximation reconstruction method according to the first embodiment. The successive approximation reconstruction method represented by Equation 6 in the first embodiment is an example, and is known SPS, OS-SPS, PWLS, OS-PWLS, MSIRT, GRADY, CONGR, ART, SART, ML-EM, OS-. You may apply to other methods, such as EM, FIRA, RAMLA, DRAMA.

図2の画像表示部137では,計算したCT画像をモニタ123に表示し,操作者に情報を提供する。なおネットワークアダプタを用いて,ローカルエリアネットワーク,電話回線,インターネット等のネットワークを介して外部の端末と接続し,これら端末との間でCT画像を送受信することも可能である。   The image display unit 137 in FIG. 2 displays the calculated CT image on the monitor 123 to provide information to the operator. A network adapter can be used to connect to an external terminal via a network such as a local area network, a telephone line, or the Internet, and CT images can be transmitted to and received from these terminals.

本実施例では,FOV計算機能151において,撮影対象を包含するFOVを計算する。これにより、逐次近似再構成手法を用いて,空気を除く撮影対象のCT画像を繰り返し修正する為,背景領域である空気の画像領域を計算する時間を削減できる。   In the present embodiment, the FOV calculation function 151 calculates the FOV that includes the object to be imaged. Thus, since the CT image to be imaged excluding air is repeatedly corrected using the successive approximation reconstruction method, it is possible to reduce the time for calculating the air image area as the background area.

これに加えて,ステップ205において,逆投影時の更新画像に対して計算したFOVを適用し、更新範囲をFOV内部に限定している。このため,逐次近似再構成手法の収束速度の向上,および画質向上が期待できる。   In addition, in step 205, the calculated FOV is applied to the updated image at the time of back projection, and the update range is limited to the inside of the FOV. For this reason, improvement in the convergence speed and image quality of the successive approximation reconstruction method can be expected.

本実施例1では,FOV計算機能151が設定するFOV211は、1つのFOVに限定されることはなく,複数のFOVを設定することも可能である。例えば図11(a)に,腕301と胴体302が含まれる撮影対象を示す。この場合,腕301と胴体302が空間的に離れており繋がっていないため、FOVは両腕301の2つのFOVと、胴体302のFOVの3つに分かれる。   In the first embodiment, the FOV 211 set by the FOV calculation function 151 is not limited to one FOV, and a plurality of FOVs can be set. For example, FIG. 11A shows an imaging target including an arm 301 and a torso 302. In this case, since the arm 301 and the body 302 are spatially separated and not connected, the FOV is divided into two FOVs of both arms 301 and the FOV of the body 302.

複数のFOVを設定する場合のFOV計算機能151の動作を説明する。測定投影データ303を図11(b)に示し,図11(c)に示した投影角度θのプロファイルを例に説明する。図11(c)において横軸は検出素子番号i,縦軸はCT値である。 The operation of the FOV calculation function 151 when setting a plurality of FOVs will be described. Measurement projection data 303 shown in FIG. 11 (b), is described as an example profile of a projection angle theta 1 shown in FIG. 11 (c). In FIG. 11C, the horizontal axis represents the detection element number i, and the vertical axis represents the CT value.

まず、FOV計算機能151は、図5のステップ171〜176の処理を行い,式1が成立する検出素子番号iを左側の境界304として判定する。次に,図5のステップ177の処理を行う前に,ステップ173〜175を繰り返し,式3が成立する検出素子番号iを右側の境界305と判定する。以上より,片方の腕301における左側境界304および右側境界305を検出できる。   First, the FOV calculation function 151 performs the processing of Steps 171 to 176 in FIG. 5 and determines the detection element number i that satisfies Equation 1 as the left boundary 304. Next, before performing the processing of step 177 in FIG. 5, steps 173 to 175 are repeated, and the detection element number i for which Equation 3 is satisfied is determined as the right boundary 305. From the above, the left boundary 304 and the right boundary 305 in one arm 301 can be detected.

同様に胴体302のプロファイル306について,ステップ173〜175を繰り返し,左右の境界307を判定する。以上の処理に関して,投影角度θの検出素子番号iを全て検索し,その後ステップ177の処理を行う。これにより、本実施例では,腕と胴体等,複数部位を透過したX線をX線検出素子と、空気のみを透過したX線を検出したX線検出素子とを判定できる。 Similarly, steps 173 to 175 are repeated for the profile 306 of the body 302 to determine the left and right boundaries 307. Regarding the above processing, all the detection element numbers i of the projection angle θ 1 are searched, and then the processing of step 177 is performed. Accordingly, in this embodiment, it is possible to determine an X-ray detection element that detects X-rays transmitted through a plurality of parts such as an arm and a trunk, and an X-ray detection element that detects X-rays transmitted only through air.

次に、空気のみを透過したX線を検出したと判定した検出素子番号iの位置から,公知である逆投影処理により,その検出素子に到達したX線が通過するCT画像の画素の領域308(図11(d))を算出する。図11(d)に示すように,算出した画素は空気308と判定し,その画素のCT値を空気のX線吸収率−1000[HU]で置換する。本実施例において,空気308を隔てて空気以外の領域309が3つに分割される為,腕用のFOVと胴体用のFOVを分けて計算可能になる。   Next, the region 308 of the pixel of the CT image through which the X-rays that have reached the detection element pass through the known back projection process from the position of the detection element number i determined that the X-ray that has transmitted only air has been detected. (FIG. 11D) is calculated. As shown in FIG. 11D, the calculated pixel is determined to be air 308, and the CT value of the pixel is replaced with air X-ray absorption rate −1000 [HU]. In the present embodiment, the non-air region 309 is divided into three parts with the air 308 separated, so that the arm FOV and the trunk FOV can be calculated separately.

求められたFOVごとに、単一FOVの計算と同様にして,境界判定機能161,境界式作成機能162,FOV換算機能163の処理を行い、各FOV内の再構成画像を逐次近似再構成手法により求める。   For each determined FOV, the boundary determination function 161, the boundary expression creation function 162, and the FOV conversion function 163 are processed in the same manner as in the calculation of a single FOV, and the reconstructed images in each FOV are sequentially approximated. Ask for.

本実施例では,一周分の回転から取得した測定投影データを用いて,CT画像を再構成したが,一周に限定されるものではなく、公知であるハーフ再構成にも適用可能である。このとき計測領域は,ハーフ再構成において完全収集条件を満たす回転角度を取得した領域とする。   In the present embodiment, the CT image is reconstructed using the measurement projection data acquired from the rotation for one revolution, but the present invention is not limited to one revolution, and can be applied to a known half reconstruction. At this time, the measurement area is an area where a rotation angle satisfying the complete collection condition in the half reconstruction is acquired.

また,本実施例ではノーマルスキャン方式を想定したが,寝台5の動作,停止の順番に一定間隔で繰り返し,ノーマルスキャンを行うステップアンドシュート方式や,寝台を動かしながら撮影する螺旋スキャン方式に対しても,本発明を適用しても良いことは言うまでも無い。   In this embodiment, the normal scan method is assumed. However, for the step-and-shoot method in which the scan is repeated at regular intervals in the order of operation and stop of the bed 5 and the spiral scan method in which photographing is performed while moving the bed, Needless to say, the present invention may be applied.

<実施例2>
次に実施例2として,実施例1の一部を変更した,逐次近似再構成ソフトウェアを搭載するX線CT装置ついて説明する。
<Example 2>
Next, as Example 2, an X-ray CT apparatus equipped with successive approximation reconstruction software, in which a part of Example 1 is changed, will be described.

実施例2のX線CT装置では、図4の境界判定機能161が、ある投影角度θで境界位置を判定し、その境界位置を保存した場合、次の投影角度θ+Δθにおいて境界位置を探索する際に、角度θで保存した境界位置の周辺の検出素子のみに範囲を限定して境界位置を探索する点が実施例1と異なっている。以下,図5を参照して実施例2のX線CT装置の要部について説明する。その他の構成は実施例1で説明したX線CT装置の構成と同様であるので,ここでは説明を省略する。   In the X-ray CT apparatus according to the second embodiment, when the boundary determination function 161 in FIG. 4 determines a boundary position at a certain projection angle θ and stores the boundary position, the boundary position is searched at the next projection angle θ + Δθ. In addition, the second embodiment is different from the first embodiment in that the boundary position is searched by limiting the range only to the detection elements around the boundary position stored at the angle θ. Hereinafter, the principal part of the X-ray CT apparatus according to the second embodiment will be described with reference to FIG. Other configurations are the same as the configuration of the X-ray CT apparatus described in the first embodiment, and thus the description thereof is omitted here.

実施例1と同様に、実施例2では、境界判定機能161が、図5のステップ171において、図2の補正処理部135から取得した測定投影データR(i,θ)について,検出素子番号i=1かつ投影角度θ=0から撮影対象左側の境界の判定を開始し、ステップ173〜175では,式1が成立する検出素子番号iを境界と判定する。ステップ176では判定した境界位置を保存し,ステップ177では投影角度θに△θを加算する。   Similar to the first embodiment, in the second embodiment, the boundary determination function 161 uses the detection element number i for the measurement projection data R (i, θ) acquired from the correction processing unit 135 in FIG. 2 in step 171 in FIG. = 1 and the projection angle θ = 0, the determination of the boundary on the left side of the object to be imaged is started. In step 176, the determined boundary position is stored, and in step 177, Δθ is added to the projection angle θ.

境界位置は図6に示したように連続しているため、△θを加算した投影角度θ+Δθにおける境界位置は,△θが十分小さければ、投影角度θにおける境界位置の近傍に位置する。   Since the boundary position is continuous as shown in FIG. 6, the boundary position at the projection angle θ + Δθ obtained by adding Δθ is located in the vicinity of the boundary position at the projection angle θ if Δθ is sufficiently small.

そこで、実施例2では、図5のステップ177においてΔθを加算した投影角度θ+△θにおいては、ステップ173〜175を検出素子番号i=1から順に行うのではなく、ステップ176で格納した投影角度θにおける境界位置の検出素子番号iの前後m個のX線検出素子について実行する。ただし、mは予め定めた整数である。これにより、投影角度θ+Δθにおける境界位置を少ない計算量で判定し、ステップ176に進んで保存する。これを投影角度θがθmaxになるまで繰り返す(ステップ172)。   Therefore, in the second embodiment, at the projection angle θ + Δθ obtained by adding Δθ in step 177 in FIG. 5, steps 173 to 175 are not sequentially performed from the detection element number i = 1, but the projection angle stored in step 176 is stored. This is performed for m X-ray detection elements before and after the detection element number i at the boundary position at θ. However, m is a predetermined integer. Thus, the boundary position at the projection angle θ + Δθ is determined with a small amount of calculation, and the process proceeds to step 176 and stored. This is repeated until the projection angle θ reaches θmax (step 172).

本実施例2では,境界位置を検索するX線検出素子の範囲を限定することで計算量低減の効果がある。   In the second embodiment, there is an effect of reducing the amount of calculation by limiting the range of the X-ray detection element that searches the boundary position.

なお、実施例2では投影角度θ方向について説明したが、スライス方向,時間方向に実施例2の構成を適用してもよい。   In the second embodiment, the projection angle θ direction has been described. However, the configuration of the second embodiment may be applied in the slice direction and the time direction.

<実施例3>
次に、実施例3として,実施例1の一部を変更した,逐次近似再構成ソフトウェアを搭載するX線CT装置について説明する。
<Example 3>
Next, as Example 3, an X-ray CT apparatus equipped with successive approximation reconstruction software, in which a part of Example 1 is changed, will be described.

実施例3のX線CT装置では、図4のFOV換算機能163が,FOV形状リスト144において選択された形状に基づいてFOVを計算する点が実施例1と異なっている。その他の構成は実施例1で説明したX線CT装置の構成と同様であるので,ここでは説明を省略する。   The X-ray CT apparatus according to the third embodiment is different from the first embodiment in that the FOV conversion function 163 in FIG. 4 calculates the FOV based on the shape selected in the FOV shape list 144. Other configurations are the same as the configuration of the X-ray CT apparatus described in the first embodiment, and thus the description thereof is omitted here.

FOV形状リスト144で円を選択した場合,式11によりFOVを決定する。式11において、FL(θ)およびFR(θ)は、図4の境界式作成機能162が求めた左右の境界位置の関数である。   When a circle is selected in the FOV shape list 144, the FOV is determined according to Equation 11. In Expression 11, FL (θ) and FR (θ) are functions of the left and right boundary positions obtained by the boundary expression creating function 162 in FIG.

円形の中心位置(Px,Py)は,式11のFOV計算時に用いたFL(θ),FR(θ)から,式12で決定する。   The circular center position (Px, Py) is determined by Expression 12 from FL (θ) and FR (θ) used in the FOV calculation of Expression 11.

また、FOV形状リスト144で長方形を選択した場合,式13によりFOVを決定する。X方向のFOVはFOVx,Y方向のFOVはFOVyとして表す。   Further, when a rectangle is selected in the FOV shape list 144, the FOV is determined by Expression 13. The FOV in the X direction is represented as FOVx, and the FOV in the Y direction is represented as FOVy.

長方形の中心位置(Px,Py)は,式13のFOV計算時に用いたFL(θ),FR(θ)から,式12で決定する。   The center position (Px, Py) of the rectangle is determined by Expression 12 from FL (θ) and FR (θ) used in the FOV calculation of Expression 13.

実施例3では、撮影対象全体が含まれる大きさおよび位置の円形や長方形のFOVを設定することができる。   In the third embodiment, it is possible to set a circular or rectangular FOV having a size and a position including the entire photographing target.

本実施例3において、設定可能なFOVは,円形,長方形に限定されるものではなく、適切な数式を用いることにより正方形,楕円,または任意の形状のFOVを設定できる。   In the third embodiment, the settable FOV is not limited to a circle or a rectangle, and a square, an ellipse, or an arbitrary shape FOV can be set by using an appropriate mathematical expression.

<実施例4>
実施例4として、実施例1の一部を変更した,逐次近似再構成ソフトウェアを搭載したX線CT装置について、図12〜図13を用いて説明する。図12は、FOV計算機能151の機能ブロック図であり、図13(a)は、実施例1で設定したFOV211のCT画像であり、図13(b)は本実施例4で設定したFOV211のCT画像である。
<Example 4>
As a fourth embodiment, an X-ray CT apparatus equipped with successive approximation reconstruction software, which is a part of the first embodiment, will be described with reference to FIGS. 12 is a functional block diagram of the FOV calculation function 151, FIG. 13A is a CT image of the FOV 211 set in the first embodiment, and FIG. 13B is a block diagram of the FOV 211 set in the fourth embodiment. CT image.

実施例4のX線CT装置では、図12のようにFOV計算機能151が、実施例1で説明した境界判定機能161,境界式作成機能162およびFOV換算機能163に加え、画像識別機能164を備える。画像識別機能164は、FOV換算機能163が計算したFOV内部に存在する撮影対象の領域と空気の領域とを識別し、実施例1の構成では原理上除去できなかった被検体6と寝台5との間の空気の領域をできるだけ除去したFOVを設定する。その他の構成は実施例1で説明したX線CT装置の構成と同様であるので,ここでは説明を省略する。   In the X-ray CT apparatus of the fourth embodiment, as shown in FIG. 12, the FOV calculation function 151 includes an image identification function 164 in addition to the boundary determination function 161, the boundary expression creation function 162, and the FOV conversion function 163 described in the first embodiment. Prepare. The image identification function 164 identifies the region to be imaged and the air region existing inside the FOV calculated by the FOV conversion function 163, and the subject 6 and the bed 5 that could not be removed in principle in the configuration of the first embodiment. Set the FOV to remove as much air space as possible. Other configurations are the same as the configuration of the X-ray CT apparatus described in the first embodiment, and thus the description thereof is omitted here.

画像識別機能164の処理動作について説明する。まず、画像識別機能164は、FOV換算機能163が設定したFOV211内について、公知であるFeldkamp法等の解析的再構成手法を用いて、図13(a)のようにCT値を画素値とするCT画像λ(j)を計算する。このとき,計算量を低減することを目的として,画素サイズが大きく,かつ画素数が少ないCT画像を作成してもよい。   The processing operation of the image identification function 164 will be described. First, the image identification function 164 uses a known analytical reconstruction method such as the Feldkamp method for the FOV 211 set by the FOV conversion function 163 and uses the CT value as a pixel value as shown in FIG. Compute the CT image λ (j). At this time, for the purpose of reducing the amount of calculation, a CT image having a large pixel size and a small number of pixels may be created.

つぎに、画像識別機能164は,計算したCT画像λ(j)の画素について、空気の画素と空気以外の撮影対象の画素とに識別する。識別方法は,公知である閾値判定や領域拡張法等の画像処理技術を利用する。例えば,本実施例では、閾値TH=−950[HU]とし、CT値が閾値TH未満の画素をFOV211内の空気の領域215の画素,閾値TH以上を撮影対象(被検体6と寝台5)の画素と判定する。これにより,図13(a)のように被検体6と寝台5の間等,測定投影データからは原理上空気と判別できないFOV211内の領域215を空気領域と判別できる。よって、領域拡張法等により、空気領域215をFOV211の外側領域となるようにFOV211の形状を調整することにより、図13(b)のように空気領域215をできるだけ排除したFOV211を設定でき、FOV211の精度が向上する。   Next, the image identification function 164 identifies the pixel of the calculated CT image λ (j) as an air pixel and a pixel to be imaged other than air. The identification method uses a known image processing technique such as threshold determination or region expansion. For example, in this embodiment, the threshold value TH = −950 [HU], the pixels having a CT value less than the threshold value TH are the pixels in the air region 215 in the FOV 211, and the pixels above the threshold value TH (the subject 6 and the bed 5). This pixel is determined. Thereby, as shown in FIG. 13A, the region 215 in the FOV 211 that cannot be determined as air in principle from the measurement projection data, such as between the subject 6 and the bed 5, can be determined as the air region. Therefore, by adjusting the shape of the FOV 211 so that the air region 215 becomes the outer region of the FOV 211 by the region expansion method or the like, the FOV 211 that eliminates the air region 215 as much as possible can be set as shown in FIG. Improves accuracy.

なお、本実施例では,FOV計算機能151内のFOV換算機能163の後に画像識別機能164を追加したが,この順番に限定されることはなく,図12の画像計算機能152内の図8の解析的再構成機能191の後に画像識別機能164を追加してもよい。   In this embodiment, the image identification function 164 is added after the FOV conversion function 163 in the FOV calculation function 151. However, the order is not limited to this order, and the image calculation function 152 in FIG. An image identification function 164 may be added after the analytical reconstruction function 191.

また、画像識別機能164の識別方法としては、撮影対象(被検体6と寝台5)の形状情報や位置情報等の先験情報と領域拡張法を組み合わす方法を用いることもできる。これにより,撮影対象と空気の境界を判別できる。   Further, as an identification method of the image identification function 164, a method of combining a priori information such as shape information and position information of the imaging target (the subject 6 and the bed 5) and the region expansion method can be used. Thereby, the boundary between the object to be photographed and the air can be determined.

また、本実施例4では,撮影対象と空気を識別対象としたが,空気に限らず、撮影対象内の部位や組織等を識別し、特定の部位や組織がFOV211の外側となるようにFOVを設定することも可能である。これにより、診断に不要な特定の部位や組織をCT画像から除去し、診断に必要な領域のみのCT画像を得ることができる。   In the fourth embodiment, the imaging target and air are the identification targets. However, the present invention is not limited to air, and a site or tissue in the imaging target is identified, and the FOV is such that the specific site or tissue is outside the FOV 211. Can also be set. Thereby, it is possible to remove a specific part or tissue unnecessary for diagnosis from the CT image, and obtain a CT image of only a region necessary for diagnosis.

<実施例5>
実施例5として、実施例1の一部を変更した,逐次近似再構成ソフトウェアを搭載したX線CT装置について、図14〜図15を用いて説明する。図14は、FOV計算機能151の機能ブロック図であり、図15(a)は、測定投影データの分布を示す図であり、図15(b)は、本実施例5の仮想検出素子によるX線検出部の拡張を示す説明図であり、図15(c)は、仮想検出素子を含めたX線検出部により検出された順投影データの分布を示すグラフである。
<Example 5>
As Example 5, an X-ray CT apparatus equipped with successive approximation reconstruction software, in which a part of Example 1 is changed, will be described with reference to FIGS. FIG. 14 is a functional block diagram of the FOV calculation function 151, FIG. 15 (a) is a diagram showing the distribution of measurement projection data, and FIG. 15 (b) is an X diagram of the virtual detection element of the fifth embodiment. FIG. 15C is an explanatory diagram showing the extension of the line detection unit, and FIG. 15C is a graph showing the distribution of forward projection data detected by the X-ray detection unit including the virtual detection element.

実施例5のX線CT装置では、図14のようにFOV計算機能151が、実施例1で説明した境界判定機能161,境界式作成機能162およびFOV換算機能163に加え、撮影対象推定機能165を備える。撮影対象推定機能165は、境界判定機能161の前段に配置される。撮影対象推定機能165は、撮影対象(被検体6と寝台5)がX線検出部2と比べて大きく、撮影対象を透過したX線が、一部の投影角度でX線検出部2に計測されない投影領域(不完全な収集領域)がある場合に,不完全な収集領域の撮影対象を推定する。その他の構成は実施例1で説明したX線CT装置の構成と同様であるので,ここでは説明を省略する。   In the X-ray CT apparatus according to the fifth embodiment, as shown in FIG. 14, the FOV calculation function 151 includes an imaging target estimation function 165 in addition to the boundary determination function 161, the boundary expression creation function 162, and the FOV conversion function 163 described in the first embodiment. Is provided. The shooting target estimation function 165 is arranged in front of the boundary determination function 161. The imaging target estimation function 165 measures the X-rays transmitted through the imaging target to the X-ray detection unit 2 at some projection angles because the imaging target (the subject 6 and the bed 5) is larger than the X-ray detection unit 2. If there is an unprojected projection area (incomplete collection area), the imaging target of the incomplete collection area is estimated. Other configurations are the same as the configuration of the X-ray CT apparatus described in the first embodiment, and thus the description thereof is omitted here.

撮影対象推定機能165は、不完全な収集領域のCT画像を生成することにより、撮影対象を推定する。撮影対象推定機能165の処理動作を以下具体的に説明する。まず、撮影対象推定機能165は,X線検出部2が測定した測定投影データ311(図15(a))を用いて,チャネル方向の検出素子両端部の測定投影データR(i,θ)を,実施例1の境界の判定のための式1および式3の閾値Tと比較する。左または右側の検出素子端部の測定投影データR(i,θ)が閾値T以上の場合,その投影角度では、X線検出部2よりも外側に撮影対象を透過したX線が到達しており、不完全な収集領域に撮影対象が存在することを意味する。   The imaging target estimation function 165 estimates the imaging target by generating a CT image of an incomplete collection area. The processing operation of the imaging target estimation function 165 will be specifically described below. First, the imaging target estimation function 165 uses the measurement projection data 311 (FIG. 15A) measured by the X-ray detection unit 2 to obtain measurement projection data R (i, θ) at both ends of the detection element in the channel direction. Compared with the threshold values T in Equation 1 and Equation 3 for determining the boundary in the first embodiment. When the measurement projection data R (i, θ) at the left or right detection element end is equal to or greater than the threshold value T, X-rays that have passed through the imaging target reach outside the X-ray detection unit 2 at the projection angle. This means that the subject to be imaged exists in an imperfect collection area.

次に,撮影対象推定機能165は、公知であるFeldkamp法等の解析的再構成手法を用いて,図15(a)に示す測定投影データ311から図15(b)に示すCT画像λ(j)312を再構成する。不完全な収集領域がある場合、図15(b)に示すライン313を境界として,全ての投影角度で、透過X線がX線検出部2で計測された完全な計測領域314と、一部の投影角度では透過X線がX線検出部2で計測されなかった不完全な計測領域315に分割される。   Next, the imaging target estimation function 165 uses a known analytical reconstruction method such as the Feldkamp method to measure the CT image λ (j (j) shown in FIG. 15B from the measured projection data 311 shown in FIG. ) 312 is reconfigured. When there is an incomplete collection area, a complete measurement area 314 in which transmitted X-rays are measured by the X-ray detector 2 at all projection angles with a line 313 shown in FIG. At the projection angle, transmitted X-rays are divided into incomplete measurement areas 315 that were not measured by the X-ray detector 2.

撮影対象推定機能165は、実施例1の逐次近似再構成を行う画像再構成機能152内の図8の順投影機能192と同様に、上述の式7を用いてCT画像CT画像λ(j)312をλk=0(j)として順投影処理し,計算投影データRCk=0(i)を求める。このとき,X線検出部2の両外側に、撮影対象の不完全な収集領域315の計算投影データが生じるため、図15(b)に示すようにX線検出部2をチャネル方向に仮想的に拡張し、全ての投影角度において全撮影対象が投影されるようにする(図15(b)に、仮想的に拡張した仮想検出部317を破線で示す)。 Similar to the forward projection function 192 of FIG. 8 in the image reconstruction function 152 that performs the successive approximation reconstruction of the first embodiment, the imaging target estimation function 165 uses the above-described Expression 7 to calculate the CT image CT image λ (j). 312 is subjected to forward projection processing as λ k = 0 (j) to obtain calculated projection data RC k = 0 (i). At this time, calculation projection data of an imperfect acquisition region 315 to be imaged is generated on both outer sides of the X-ray detection unit 2, so that the X-ray detection unit 2 is virtually arranged in the channel direction as shown in FIG. So that all imaging targets are projected at all projection angles (the virtual detection unit 317 virtually expanded in FIG. 15B is indicated by a broken line).

図15(c)に、撮影対象推定機能165が求めた計算投影データ318を示す。仮想検出部317の位置の計算投影データ318に、空気と撮影対象との境界が存在しており、計算投影データ318には撮影対象の全体が投影されていることがわかる。   FIG. 15C shows the calculated projection data 318 obtained by the imaging target estimation function 165. It can be seen that the calculated projection data 318 at the position of the virtual detection unit 317 has a boundary between air and the object to be imaged, and the entire object to be imaged is projected on the calculated projection data 318.

撮影対象推定機能165以降の,境界判定機能161,境界式作成機能162,FOV換算機能163は、撮影対象推定機能165が求めた計算投影データ318(図15(c))を用いて、境界を判定し、FOV211の計算を行う。この処理動作は実施例1で説明した通りである。   The boundary determination function 161, the boundary expression creation function 162, and the FOV conversion function 163 after the shooting target estimation function 165 use the calculated projection data 318 (FIG. 15C) obtained by the shooting target estimation function 165 to determine the boundary. Judgment is made and FOV 211 is calculated. This processing operation is as described in the first embodiment.

本実施例5により,X線検出部2の検出範囲から撮影対象の投影像がはみ出す場合でも,はみ出した投影データを計算により求め、その部分の境界の判定が可能となる。よって、撮像対象全体を包含するFOV211を設定できるため、FOV211内に対して逐次近似再構成を適用して、少ない計算量で画像の精度を向上できる。   According to the fifth embodiment, even when a projection image to be imaged protrudes from the detection range of the X-ray detection unit 2, the protruding projection data is obtained by calculation, and the boundary of the portion can be determined. Therefore, since the FOV 211 that includes the entire imaging target can be set, it is possible to improve the accuracy of the image with a small amount of calculation by applying successive approximation reconstruction within the FOV 211.

なお、撮像対象推定機能は、CT画像312を生成する際に、計算量を低減させるために、画素サイズが大きく,かつ画素数の少ないCT画像312を生成するようにしてもよい。   Note that the imaging target estimation function may generate a CT image 312 having a large pixel size and a small number of pixels in order to reduce the amount of calculation when the CT image 312 is generated.

<実施例6>
実施例6として、実施例1の一部を変更した,逐次近似再構成ソフトウェアを搭載したX線CT装置について、図16を用いて説明する。図16(a)は、撮影対象の寝台5がX線検出部2と比べて大きく、寝台5を透過したX線が、一部の投影角度でX線検出部2に計測されない投影領域(不完全な収集領域)があることを示す説明図であり、図16(b)は、測定投影データの分布を示す図であり、図16(c)は、予め測定しておいた寝台5のCT画像と、それを撮影時の位置にずらすことを示す説明図であり、図16(d)は、図16(c)の寝台5のCT画像の計算投影データであり、図16(e)は、測定投影データと、寝台の計算投影データを加算した投影データを示す図である。
<Example 6>
As the sixth embodiment, an X-ray CT apparatus equipped with successive approximation reconstruction software, in which a part of the first embodiment is changed, will be described with reference to FIG. FIG. 16 (a) shows a projection area (not shown) in which the bed 5 to be imaged is larger than the X-ray detection unit 2 and X-rays transmitted through the bed 5 are not measured by the X-ray detection unit 2 at some projection angles. FIG. 16B is a diagram showing the distribution of the measurement projection data, and FIG. 16C is a CT of the bed 5 that has been measured in advance. It is explanatory drawing which shows shifting to an image and the position at the time of imaging | photography, FIG.16 (d) is calculation projection data of CT image of the bed 5 of FIG.16 (c), FIG.16 (e) is shown. It is a figure which shows the projection data which added measurement projection data and the calculation projection data of a bed.

実施例6のX線CT装置は、実施例5と同様に、撮影対象推定機能165を備える。撮影対象推定機能165は、実施例5と同様に、不完全な収集領域の投影データを計算により求めるが、計算方法は実施例5とは異なる。実施例6では、予め寝台5全体の形状を例えばCT画像として取得しておき、これを計算により順投影することにより投影データを得て、測定投影データを合算することにより、不完全な計測領域の投影データを補う。その他の構成は実施例1で説明したX線CT装置の構成と同様であるので,ここでは説明を省略する。   The X-ray CT apparatus according to the sixth embodiment includes an imaging target estimation function 165 as in the fifth embodiment. The imaging target estimation function 165 obtains projection data of an incomplete collection area by calculation as in the fifth embodiment, but the calculation method is different from that in the fifth embodiment. In Example 6, the shape of the entire bed 5 is acquired in advance as, for example, a CT image, and projection data is obtained by forward projection by calculation, and the measurement projection data is added to obtain an incomplete measurement region. Supplement the projection data. Other configurations are the same as the configuration of the X-ray CT apparatus described in the first embodiment, and thus the description thereof is omitted here.

本実施例6では,図16(a)に示すように,撮影対象の一部である寝台5が、X線検出部2の検出範囲からはみ出す場合に適用可能である。また、寝台5の位置と形状が既知である場合に適用可能である。   In the sixth embodiment, as shown in FIG. 16A, the present invention can be applied to the case where the bed 5 that is a part of the imaging target protrudes from the detection range of the X-ray detection unit 2. Moreover, it is applicable when the position and shape of the bed 5 are known.

まず、撮影対象推定機能165は,実施例5と同様に、X線検出部2が測定した測定投影データ222(図16(b))を用いて,チャネル方向に両端部の検出素子を検索し,式1および式3の閾値Tと比較する。左または右側の検出素子端部の測定投影データR(i,θ)が閾値T以上の場合,その投影角度では、X線検出部2よりも外側に撮影対象を透過したX線が到達しており、不完全な収集領域に撮影対象が存在することを意味する。   First, the imaging target estimation function 165 searches for detection elements at both ends in the channel direction using the measurement projection data 222 (FIG. 16B) measured by the X-ray detection unit 2 as in the fifth embodiment. , Eq. 1 and Eq. When the measurement projection data R (i, θ) at the left or right detection element end is equal to or greater than the threshold value T, X-rays that have passed through the imaging target reach outside the X-ray detection unit 2 at the projection angle. This means that the subject to be imaged exists in an imperfect collection area.

次に撮影対象推定機能165は、図16(c)に示すように,事前に撮影してデータベース等としてHDD装置122等で保存しておいた寝台5のCT画像227を読み出す。CT画像227のデータを読み出す寝台5は、撮影対象を支えている寝台5と同形状のものである。   Next, as shown in FIG. 16C, the imaging target estimation function 165 reads the CT image 227 of the bed 5 that has been previously captured and stored in the HDD device 122 or the like as a database or the like. The bed 5 for reading out the data of the CT image 227 has the same shape as the bed 5 that supports the object to be imaged.

図16(c)に示すように,保存されているCT画像227は、寝台5の位置が、CT装置の回転板4の回転中心にあり、全ての投影角度で寝台5の透過X線が検出されたものである。すなわち、CT画像227は、寝台5が計測領域224からはみ出さないように配置された状態で、撮影されたものである。寝台5の撮影時には、図16(a)の撮像対象の撮影時に用いた管電圧等の撮影条件と同一の撮影条件であることが望ましいが,その条件に限定されるものではない。   As shown in FIG. 16C, in the stored CT image 227, the position of the bed 5 is at the rotation center of the rotating plate 4 of the CT apparatus, and transmitted X-rays of the bed 5 are detected at all projection angles. It has been done. That is, the CT image 227 is taken in a state where the bed 5 is arranged so as not to protrude from the measurement region 224. When photographing the bed 5, it is desirable that the photographing conditions are the same as the photographing conditions such as the tube voltage used when photographing the imaging target in FIG. 16A, but the conditions are not limited thereto.

次に、撮影対象推定機能165は、図16(c)に示すように,回転中心にあるCT画像227の寝台5の画素を図16(a)に示す寝台5と同一の位置に移動させたCT画像227を計算により生成する。(図16(c)に移動した寝台223のCT画像を示す)   Next, as shown in FIG. 16C, the imaging target estimation function 165 moves the pixel of the bed 5 of the CT image 227 at the rotation center to the same position as the bed 5 shown in FIG. A CT image 227 is generated by calculation. (Shows a CT image of the bed 223 moved to FIG. 16C)

次に,撮影対象推定機能165は、図8の順投影機能192と同様に、上述の式7を用いて、寝台5の位置を移動させたCT画像227(図16(c))を順投影処理し,図16(d)に示す計算投影データRCk=0(i)226を求める。このとき,X線検出部2の両外側にも計算投影データが生じるため、図15(b)に示すようにX線検出部2をチャネル方向に仮想的に拡張し、全ての投影角度において寝台5の全体が投影されるようにする。 Next, similarly to the forward projection function 192 in FIG. 8, the imaging target estimation function 165 forward-projects the CT image 227 (FIG. 16C) in which the position of the bed 5 is moved using the above-described Expression 7. The calculated projection data RC k = 0 (i) 226 shown in FIG. At this time, since calculation projection data is also generated on both outer sides of the X-ray detector 2, the X-ray detector 2 is virtually expanded in the channel direction as shown in FIG. The whole of 5 is projected.

次に,撮影対象推定機能165は、図16(b)の測定投影データ222と,図16(d)の寝台の計算投影データ226と加算し,計算投影データ228を生成する。これにより、寝台5の全体と被検体6の全体が投影された計算投影データ228が得られる。   Next, the imaging target estimation function 165 adds the measurement projection data 222 of FIG. 16B and the calculation projection data 226 of the bed of FIG. 16D to generate calculation projection data 228. Thereby, calculation projection data 228 in which the entire bed 5 and the entire subject 6 are projected is obtained.

撮影対象推定機能165以降の,境界判定機能161,境界式作成機能162,FOV換算機能163は、撮影対象推定機能165が求めた計算投影データ228(図16(e))を用いて、境界を判定し、FOV211の計算を行う。この処理動作は実施例1で説明した通りである。   The boundary determination function 161, the boundary formula creation function 162, and the FOV conversion function 163 after the imaging target estimation function 165 use the calculated projection data 228 (FIG. 16 (e)) obtained by the imaging target estimation function 165 to determine the boundary. Judgment is made and FOV 211 is calculated. This processing operation is as described in the first embodiment.

なお、上記説明では、寝台5のCT画像を予め撮影しておいたが、寝台5の形状データから計算により、計算投影データ226(図16(d))を求めることも可能である。   In the above description, a CT image of the bed 5 is taken in advance, but it is also possible to obtain calculated projection data 226 (FIG. 16D) by calculation from the shape data of the bed 5.

本実施例6では、予め形状が既知である寝台5が,X線検出部2の検出範囲からはみ出す場合であっても、測定投影データを計算により求めることができ、境界の判定が可能となる。よって、撮像対象全体を包含するFOVを求めることができ、少ない計算量で、逐次近似再構成により画像の精度を向上させることができる。   In the sixth embodiment, even when the bed 5 whose shape is known in advance protrudes from the detection range of the X-ray detection unit 2, the measurement projection data can be obtained by calculation, and the boundary can be determined. . Therefore, the FOV including the entire imaging target can be obtained, and the accuracy of the image can be improved by successive approximation reconstruction with a small amount of calculation.

<実施例7>
実施例7として、実施例1の一部を変更した,逐次近似再構成ソフトウェアを搭載したX線CT装置について、図17〜図18を用いて説明する。図17は、実施例7の再構成処理部136の一部構成を示す機能ブロック図であり、画像計算機能152の後段に拡大再構成機能171を備えている。図18(a)〜(e)は、拡大再構成機能171の処理動作を示す説明図である。
<Example 7>
As Example 7, an X-ray CT apparatus equipped with successive approximation reconstruction software, in which a part of Example 1 is changed, will be described with reference to FIGS. FIG. 17 is a functional block diagram illustrating a partial configuration of the reconstruction processing unit 136 according to the seventh embodiment, and an enlargement reconstruction function 171 is provided following the image calculation function 152. FIGS. 18A to 18E are explanatory diagrams showing processing operations of the enlargement reconstruction function 171. FIG.

実施例7では、実施例1〜実施例6のいずれか画像計算機能152が生成したCT画像321を大FOV像とし,公知である逐次近似再構成手法の拡大再構成を用いて,大FOV像から小FOV像を作成する拡大再構成機能171を具備する。   In the seventh embodiment, the CT image 321 generated by the image calculation function 152 of any one of the first to sixth embodiments is used as a large FOV image, and a large FOV image is obtained by using an enlarged reconstruction of a known successive approximation reconstruction method. An enlargement reconstruction function 171 for creating a small FOV image from the image is provided.

拡大再構成機能171は、画像計算機能152が生成したCT画像321に対して,小FOV322を設定し、小FOV322内部の画素値を空気のCT値に置換する背景画像作成機能231,順投影機能232,データ比較機能233,解析的再構成機能234,順投影機能235,データ比較機能236,逆投影処理機能237,画像更新機能238を含む。   The enlargement reconstruction function 171 sets a small FOV 322 for the CT image 321 generated by the image calculation function 152, and replaces the pixel value inside the small FOV 322 with the CT value of air, a forward projection function 231 232, a data comparison function 233, an analytical reconstruction function 234, a forward projection function 235, a data comparison function 236, a back projection processing function 237, and an image update function 238.

拡大再構成機能171の処理動作について図18を用いて説明する。画像計算機能152は実施例1〜実施例6で述べたように、図18(d)に示す測定投影データ325からFOV211の内部のCT画像321を生成する。拡大再構成機能171内の背景画像作成機能231は、FOV211のCT画像321を受け取って、FOV211を大FOVとする。次に、図18(a)のように、大FOV211のCT画像(以下、大FOV像と称す)321内の拡大再構成像を得たい領域に、小FOV322を設定し、大FOV像321における小FOV322内の画素を空気のX線吸収率−1000[HU]で置換する。これにより,図18(b)に示すように,小FOV322の外の背景領域にのみX線吸収率が存在する背景画像323が作成される。   The processing operation of the enlargement reconstruction function 171 will be described with reference to FIG. As described in the first to sixth embodiments, the image calculation function 152 generates a CT image 321 inside the FOV 211 from the measurement projection data 325 shown in FIG. The background image creation function 231 in the enlargement reconstruction function 171 receives the CT image 321 of the FOV 211, and makes the FOV 211 a large FOV. Next, as shown in FIG. 18A, a small FOV 322 is set in an area in which a magnified reconstructed image is to be obtained in a CT image (hereinafter referred to as a large FOV image) 321 of the large FOV 211, and the large FOV image 321 The pixels in the small FOV 322 are replaced with air X-ray absorption rate −1000 [HU]. As a result, as shown in FIG. 18B, a background image 323 in which the X-ray absorption rate exists only in the background area outside the small FOV 322 is created.

次に順投影機能232は,図18(b)の背景画像323を、上述の式7により順投影処理し,図18(c)のように背景投影データ324を求める。   Next, the forward projection function 232 performs forward projection processing on the background image 323 of FIG. 18B by the above-described formula 7, and obtains background projection data 324 as shown in FIG.

次にデータ比較機能233は,測定投影データ325から背景投影データ324を減算し,局所投影データ326を求める。   Next, the data comparison function 233 subtracts the background projection data 324 from the measurement projection data 325 to obtain local projection data 326.

解析的再構成機能234は、局所投影データ326に対して公知のFeldkamp法等の解析的再構成手法により小FOV322内の撮影対象のX線吸収率を表すCT画像(以下、小FOV像と称す)327を計算する。図18(f)に小FOV像327を示す。なお、本実施例では,取得した局所投影データ326から小FOV像327を計算したが,図18(d)に示す測定投影データ325から小FOV像327を計算しても構わない。   The analytical reconstruction function 234 uses a CT image (hereinafter referred to as a small FOV image) representing the X-ray absorption rate of the imaging target in the small FOV 322 by using a known analytical method such as the Feldkamp method for the local projection data 326. ) 327 is calculated. FIG. 18F shows a small FOV image 327. In this embodiment, the small FOV image 327 is calculated from the acquired local projection data 326. However, the small FOV image 327 may be calculated from the measurement projection data 325 shown in FIG.

次に,図17に示す順投影機能235、データ比較機能236、逆投影処理機能237および画像更新機能238は,小FOV像327を初期画像λk=0(j)とし,局所投影データ326を測定投影データR(i)として、図9のステップ201〜208と同様の手順により逐次近似再構成手法により修正する。 Next, the forward projection function 235, the data comparison function 236, the back projection processing function 237, and the image update function 238 shown in FIG. 17 use the small FOV image 327 as the initial image λ k = 0 (j), and the local projection data 326 as the local projection data 326. The measurement projection data R (i) is corrected by the successive approximation reconstruction method in the same procedure as steps 201 to 208 in FIG.

具体的には、順投影機能235は,式7のようにλ(j)を順投影処理し,局所領域の計算投影データRC(i)を求める(図9のステップ201、203)。データ比較機能236は,式8のように局所計算投影データRC(i)と局所投影データR(i)を比較計算し,局所更新投影データΔR(i)を求める(ステップ204)。逆投影処理機能237は,式9に示すように,局所更新投影データΔR(i)を逆投影処理し,更新画像Δλ(j)を求める(ステップ205)。 Specifically, the forward projection function 235 forward-projects λ k (j) as shown in Equation 7 to obtain local region calculated projection data RC k (i) (steps 201 and 203 in FIG. 9). The data comparison function 236 compares and calculates the local calculation projection data RC k (i) and the local projection data R (i) as shown in Equation 8 to obtain local update projection data ΔR k (i) (step 204). The backprojection processing function 237 performs backprojection processing on the locally updated projection data ΔR k (i) and obtains an updated image Δλ k (j) as shown in Equation 9 (step 205).

次に画像更新機能238は,式10を用いて,更新画像Δλ(j)を用いて修正した小FOV像λk+1(j)を求める(ステップ206)。 Next, the image update function 238 obtains a small FOV image λ k + 1 (j) corrected using the updated image Δλ k (j) using Equation 10 (step 206).

これらデータ比較機能236,逆投影処理機能237,及び画像更新機能238により,上述した局所計算投影データRC(i)が局所投影データR(i)と等しくなるように,小FOV像327を逐次的に修正することができる。更新回数kは,設定した更新回数Kより大きければ更新終了となり,画像表示部137は得られたCT画像を表示出力する(ステップ202,208)。 By using the data comparison function 236, the back projection processing function 237, and the image update function 238, the small FOV image 327 is sequentially generated so that the above-described local calculation projection data RC k (i) is equal to the local projection data R (i). Can be corrected. If the update count k is larger than the set update count K, the update is completed, and the image display unit 137 displays and outputs the obtained CT image (steps 202 and 208).

以上により、本実施例7では、逐次近似再構成手法により修正した拡大再構成画像(小FOV像)を得ることができる。
なお、実施例7で用いる逐次近似再構成手法としては、上述の手法に限らず、公知であるSPS,OS−SPS,PWLS,OS−PWLS,MSIRT,GRADY,CONGR,ART,SART,ML−EM,OS−EM,FIRA,RAMLA,DRAMA等,他の手法を適用しても構わない。
本実施例7では,画像計算機能152において,逐次近似再構成手法を用いて大FOV像321を繰り返し修正することができるため、偽像やノイズによる誤差を低減した大FOV像322を用いて、拡大再構成を行うことができる。よって、小FOV像327のCT値の精度を向上させることができる。
As described above, in the seventh embodiment, it is possible to obtain an enlarged reconstructed image (small FOV image) corrected by the successive approximation reconstruction method.
Note that the successive approximation reconstruction method used in the seventh embodiment is not limited to the above-described method, and is well-known SPS, OS-SPS, PWLS, OS-PWLS, MSIRT, GRADY, CONGR, ART, SART, ML-EM. , OS-EM, FIRA, RAMLA, DRAMA, and other methods may be applied.
In the seventh embodiment, since the large FOV image 321 can be repeatedly corrected using the successive approximation reconstruction method in the image calculation function 152, the large FOV image 322 in which errors due to false images and noise are reduced is used. Enlargement reconstruction can be performed. Therefore, the accuracy of the CT value of the small FOV image 327 can be improved.

また、本実施例7では,FOV計算機能151で計算した大FOV211に基づき,大FOV像321を生成する。これにより,撮影対象を包含する為のFOV211を最小限に設定でき,メモリの低容量化や計算量低減の効果が得られる。また、大FOV211を求める際に、実施例5,6の構成を適用することが可能である。これにより、一部の投影角度において,X線が計測されない不完全な収集領域の大FOV像321を生成でき,拡大再構成の精度を向上することができる。また、逐次近似再構成手法を用いて,大FOV像321を繰り返し修正することも可能である。   In the seventh embodiment, the large FOV image 321 is generated based on the large FOV 211 calculated by the FOV calculation function 151. Thereby, the FOV 211 for including the object to be photographed can be set to the minimum, and the effect of reducing the memory capacity and reducing the calculation amount can be obtained. Further, when obtaining the large FOV 211, the configurations of the fifth and sixth embodiments can be applied. As a result, it is possible to generate a large FOV image 321 of an incomplete acquisition region where X-rays are not measured at some projection angles, and it is possible to improve the accuracy of enlargement reconstruction. It is also possible to repeatedly correct the large FOV image 321 using the successive approximation reconstruction method.

なお、小FOV像327は,一般的な2次元(x,y方向)の断層像だけでなく,1次元データ(x方向),体軸方向zに像を重ね合わせた3次元データ(x,y,z方向),または3次元に時間方向tを考慮した4次元データ(x,y,z,t)として生成することも可能である。   Note that the small FOV image 327 is not only a general two-dimensional (x, y direction) tomographic image but also one-dimensional data (x direction) and three-dimensional data (x, y) in which the images are superimposed in the body axis direction z. (y, z direction), or four-dimensional data (x, y, z, t) considering the time direction t in three dimensions.

1…X線管,2…X線検出部,3…ガントリー,4…回転板,5…寝台,6…撮影対象,7…円形の開口部,101…入力部,102…撮影部,103…画像生成部,111…キーボード,112…マウス,113…メモリ,114…中央処理装置,115…HDD装置,116…ガントリー制御器,117…X線制御部,118…寝台制御器,119…DAS,120…メモリ,121…中央処理装置,122…HDD装置,123…モニタ,131…撮影条件入力部,132…撮影制御部,133…撮影部,134…信号収集部,135…補正処理部,136…再構成処理部,137…画像表示部,141…モニタ画面,142…X線条件,143…画像条件,144…FOV形状リスト,151…FOV計算機能,152…画像計算機能,161…境界判定機能,162…境界式作成機能,163…FOV換算機能,164…画像識別機能,165…撮影対象推定機能,171〜175…境界判定機能の計算ステップ,181…測定投影データのプロファイル,182…閾値T,183…撮影対象左側の境界,184…撮影対象右側の境界,185…DL(θ),186…DR(θ),187…検出部中心,188…FL(θ),189…FR(θ),191…解析的再構成機能,192…順投影機能,193…データ比較機能,194…逆投影処理機能,195…画像更新機能,201〜208…逐次近似再構成手法の計算ステップ,211…FOV,212…投影角度θ,213…FR(θ),214…回転中心,222…測定投影データ,223…移動後の寝台,224…完全な計測領域,226…寝台の計算投影データ,227…不完全な計測領域,228…加算後の測定投影データ,231…背景画像作成機能,232…順投影機能,233…データ比較機能,234…解析的再構成機能,235…順投影機能,236…データ比較機能,237…逆投影処理機能,238…画像更新機能,301…腕,302…胴体,303…測定投影データ,304〜305…境界,306…胴体のプロファイル,307…境界,308…空気,309…空気以外の領域,311…測定投影データ,312…CT画像,313…完全な計測領域と不完全な計測領域の境界ライン,314…完全な計測領域,315…不完全な計測領域,317…仮想検出部,318…仮想検出部を用いて順投影した計算投影データ,321…大FOV像(CT画像),322…小FOV、323…背景画像、324…背景投影データ、325…測定投影データ、326…局所投影データ、327…小FOV像 DESCRIPTION OF SYMBOLS 1 ... X-ray tube, 2 ... X-ray detection part, 3 ... Gantry, 4 ... Rotating plate, 5 ... Bed, 6 ... Imaging object, 7 ... Circular opening part, 101 ... Input part, 102 ... Imaging part, 103 ... Image generating unit 111 ... Keyboard, 112 ... Mouse, 113 ... Memory, 114 ... Central processing unit, 115 ... HDD device, 116 ... Gantry controller, 117 ... X-ray control unit, 118 ... Bed controller, 119 ... DAS, DESCRIPTION OF SYMBOLS 120 ... Memory, 121 ... Central processing unit, 122 ... HDD apparatus, 123 ... Monitor, 131 ... Shooting condition input part, 132 ... Shooting control part, 133 ... Shooting part, 134 ... Signal collecting part, 135 ... Correction processing part, 136 Reconstruction processing unit 137 Image display unit 141 Monitor screen 142 X-ray condition 143 Image condition 144 FOV shape list 151 FOV calculation function 152 Image calculator , 161 ... boundary determination function, 162 ... boundary expression creation function, 163 ... FOV conversion function, 164 ... image identification function, 165 ... photographing object estimation function, 171 to 175 ... calculation step of boundary determination function, 181 ... measurement projection data Profile, 182 ... Threshold value T, 183 ... Boundary on the left side of the object to be imaged, 184 ... Boundary on the right side of the object to be imaged, 185 ... DL (θ 1 ), 186 ... DR (θ 1 ), 187 ... ), 189... FR (θ), 191... Analytical reconstruction function, 192... Forward projection function, 193... Data comparison function, 194 .. backprojection processing function, 195. Calculation step of method, 211 ... FOV, 212 ... projection angle θ 1 , 213 ... FR (θ 1 ), 214 ... center of rotation, 222 ... measured projection data, 223 ... sleeping after movement Table, 224 ... Complete measurement area, 226 ... Calculation calculation data of bed, 227 ... Incomplete measurement area, 228 ... Measurement projection data after addition, 231 ... Background image creation function, 232 ... Forward projection function, 233 ... Data Comparison function, 234 ... analytical reconstruction function, 235 ... forward projection function, 236 ... data comparison function, 237 ... back projection processing function, 238 ... image update function, 301 ... arm, 302 ... body, 303 ... measurement projection data, 304 to 305 ... boundary, 306 ... body profile, 307 ... boundary, 308 ... air, 309 ... area other than air, 311 ... measurement projection data, 312 ... CT image, 313 ... complete measurement area and incomplete measurement area 314 ... complete measurement region, 315 ... incomplete measurement region, 317 ... virtual detection unit, 318 ... calculated projection data projected forward using the virtual detection unit Motor, 321 ... large FOV images (CT images), 322 ... small FOV, 323 ... background image, 324 ... background projection data, 325 ... Measurement projection data, 326 ... local projection data, 327 ... small FOV image

Claims (15)

X線を発生するX線発生部と,
被写体を透過後の前記X線を検出するX線検出部と,
前記X線発生部と前記X線検出部とを搭載して前記被写体の周囲を回転する回転板と、
前記X線検出部が検出した前記被写体の投影データからCT画像を再構成する画像生成部と、
前記CT画像を計算により投影して求めた計算投影データと、前記X線検出部が検出した投影データとが等しくなるように逐次的に前記CT画像を修正する逐次近似再構成部とを有し、
前記画像生成部は、前記X線検出部が検出した投影データから、少なくとも2種類の被写体の投影データを判別し、判別した前記投影データから前記少なくとも2種類の被写体のうち所定の被写体を包含する領域を計算により求め、前記所定の被写体を包含する領域内について前記CT画像を生成することを特徴とするX線CT装置。
An X-ray generator for generating X-rays;
An X-ray detector for detecting the X-ray after passing through the subject;
A rotating plate that mounts the X-ray generation unit and the X-ray detection unit and rotates around the subject;
An image generator for reconstructing a CT image from the projection data of the subject detected by the X-ray detector;
A successive approximation reconstruction unit that sequentially corrects the CT image so that the calculated projection data obtained by projecting the CT image is equal to the projection data detected by the X-ray detection unit; ,
The image generation unit discriminates projection data of at least two types of subjects from the projection data detected by the X-ray detection unit, and includes a predetermined subject among the at least two types of subjects from the discriminated projection data. An X-ray CT apparatus characterized in that an area is obtained by calculation and the CT image is generated in an area including the predetermined subject.
請求項1に記載のX線CT装置において、前記少なくとも2種類の被写体は、前記所定の被写体である撮影対象と、前記撮影対象の周りの空気であり、前記撮影対象は、被検体と、当該被検体を支える寝台とを含むことを特徴とするX線CT装置。   The X-ray CT apparatus according to claim 1, wherein the at least two types of subjects are an imaging target that is the predetermined subject and air around the imaging target, and the imaging target is a subject, An X-ray CT apparatus comprising a bed for supporting a subject. 請求項1に記載のX線CT装置において、前記画像生成部は、前記X線検出部を構成する複数の検出素子がそれぞれ検出した投影データの値を予め定めた閾値と比較することにより、少なくとも2種類の被写体の投影データを判別することを特徴とするX線CT装置。   2. The X-ray CT apparatus according to claim 1, wherein the image generation unit compares at least a value of projection data detected by a plurality of detection elements constituting the X-ray detection unit with a predetermined threshold value, and An X-ray CT apparatus characterized by determining projection data of two types of subjects. 請求項1に記載のX線CT装置において、前記画像生成部は、前記回転板による前記X線発生部および前記X線検出部の回転角度と,前記判別した少なくとも2種類の被写体の境界との関係を表す関数を求め、前記関数を用いて前記所定の被写体を包含する領域を求めることを特徴とするX線CT装置。   2. The X-ray CT apparatus according to claim 1, wherein the image generation unit includes a rotation angle of the X-ray generation unit and the X-ray detection unit by the rotating plate and a boundary between the determined at least two types of subjects. An X-ray CT apparatus, wherein a function representing a relationship is obtained, and an area including the predetermined subject is obtained using the function. 請求項3に記載のX線CT装置において、前記画像生成部は、前記X線検出部を構成する、チャネル方向に配列された複数の検出素子の両端部からチャネル方向の内側に向かって、順に各検出素子の検出した投影データを前記閾値と比較し、前記少なくとも2種類の被写体の境界を判定することを特徴とするX線CT装置。   4. The X-ray CT apparatus according to claim 3, wherein the image generation unit sequentially forms the X-ray detection unit from both ends of a plurality of detection elements arranged in the channel direction inward in the channel direction. An X-ray CT apparatus, wherein projection data detected by each detection element is compared with the threshold value to determine boundaries between the at least two types of subjects. 請求項3に記載のX線CT装置において、前記画像生成部は、前記X線検出部を構成する、配列された複数の検出素子の投影データを前記閾値と比較することにより、前記回転板のある角度において、前記少なくとも2種類の被写体の境界の検出素子を判定した後、当該判定した境界の検出素子の周囲の所定範囲の検出素子について、前記回転板の別の角度における投影データを前記閾値と比較することにより、当該別の角度における境界の検出素子を判定することを特徴とするX線CT装置。   4. The X-ray CT apparatus according to claim 3, wherein the image generation unit compares the projection data of a plurality of arrayed detection elements that constitute the X-ray detection unit with the threshold value to thereby detect the rotation plate. After determining the detection element at the boundary between the at least two kinds of subjects at a certain angle, the projection data at another angle of the rotating plate is detected as the threshold value for the detection element in a predetermined range around the detection element at the determined boundary. An X-ray CT apparatus characterized by determining a detection element at a boundary at the other angle by comparing with the above. 請求項1に記載のX線CT装置において、前記画像生成部は,前記X線検出部を構成する複数の検出素子がそれぞれ検出した投影データの値に平滑化処理を施し、平滑化処理を施した投影データを用いて、前記少なくとも2種類の被写体の投影データを判別することを特徴とするX線CT装置。   The X-ray CT apparatus according to claim 1, wherein the image generation unit performs a smoothing process on a value of projection data detected by each of a plurality of detection elements constituting the X-ray detection unit, and performs the smoothing process. An X-ray CT apparatus, wherein the projection data of the at least two types of subjects is discriminated using the projected data. 請求項1に記載のX線CT装置において、操作者から前記所定の被写体を包含する領域の形状の選択を受け付ける入力部をさらに有し、
前記画像生成部は、前記入力部が操作者から受け付けた形状の,前記所定の被写体を包含する領域を生成することを特徴とするX線CT装置。
The X-ray CT apparatus according to claim 1, further comprising an input unit that receives selection of a shape of a region including the predetermined subject from an operator,
The X-ray CT apparatus, wherein the image generation unit generates a region including the predetermined subject having a shape received by the input unit from an operator.
請求項1に記載のX線CT装置において、前記画像生成部は,前記所定の被写体を包含する領域内について生成した前記CT画像内に含まれる、前記所定の被写体とは異なる被写体を判別し、当該所定の被写体とは異なる被写体を排除するように前記領域の外形を調整することを特徴とするX線CT装置。   2. The X-ray CT apparatus according to claim 1, wherein the image generation unit determines a subject different from the predetermined subject, which is included in the CT image generated in a region including the predetermined subject, An X-ray CT apparatus, wherein an outer shape of the region is adjusted so as to exclude a subject different from the predetermined subject. 請求項2に記載のX線CT装置において,前記撮像対象を透過したX線の一部が前記X線検出部の外側に到達し、前記X線検出部では一部の投影データが検出されない不完全な投影データがある場合、前記画像生成部は、前記不完全な投影データを計算により推定し、推定した投影データと、前記X線検出部が検出した投影データとを用いて、前記被写体を包含する領域を計算により求めることを特徴とするX線CT装置。   3. The X-ray CT apparatus according to claim 2, wherein a part of the X-ray transmitted through the imaging target reaches the outside of the X-ray detection unit, and the projection data is not detected by the X-ray detection unit. When there is complete projection data, the image generation unit estimates the incomplete projection data by calculation, and uses the estimated projection data and the projection data detected by the X-ray detection unit to detect the subject. An X-ray CT apparatus characterized by obtaining a region to be included by calculation. 請求項10に記載のX線CT装置において、前記画像生成部は、前記X線検出部が検出した投影データから再構成したCT画像から、前記X線検出部で検出されない不完全な投影データを計算により推定することを特徴とするX線CT装置。   The X-ray CT apparatus according to claim 10, wherein the image generation unit generates incomplete projection data that is not detected by the X-ray detection unit from a CT image reconstructed from the projection data detected by the X-ray detection unit. An X-ray CT apparatus characterized by estimation by calculation. 請求項10に記載のX線CT装置において、前記画像生成部は、予め求めておいた寝台の形状データおよび撮影時の寝台の位置から、前記X線検出部で検出されない不完全な投影データを計算により推定することを特徴とするX線CT装置。   The X-ray CT apparatus according to claim 10, wherein the image generation unit generates incomplete projection data that is not detected by the X-ray detection unit from the bed shape data obtained in advance and the bed position at the time of imaging. An X-ray CT apparatus characterized by estimation by calculation. 請求項12に記載のX線CT装置であって、予め求めておいた寝台の形状データは、予め撮影しておいた前記寝台のCT画像であることを特徴とするX線CT装置。   13. The X-ray CT apparatus according to claim 12, wherein the bed shape data obtained in advance is a CT image of the bed imaged in advance. 請求項1に記載のX線CT装置において、前記所定の被写体を包含する領域について生成した前記CT像の内部の局所領域について拡大再構成画像を生成する拡大再構成画像生成部をさらに有し、
前記拡大再構成画像生成部は、前記画像生成部が生成した、前記所定の被写体を包含する領域内について前記CT画像から前記局所領域の画素を除いた背景画像を生成し、当該背景画像を計算により投影して背景投影データを求め、前記X線検出部が検出した投影データから前記背景投影データを差し引いて得た局所投影データを再構成することにより、前記局所領域の拡大CT画像を得ることを特徴とするX線CT装置。
The X-ray CT apparatus according to claim 1, further comprising an enlarged reconstructed image generation unit that generates an enlarged reconstructed image for a local region inside the CT image generated for a region including the predetermined subject,
The enlarged reconstructed image generation unit generates a background image obtained by removing the pixels of the local region from the CT image within the region including the predetermined subject generated by the image generation unit, and calculates the background image To obtain background projection data and reconstruct local projection data obtained by subtracting the background projection data from the projection data detected by the X-ray detection unit, thereby obtaining an enlarged CT image of the local region X-ray CT apparatus characterized by this.
請求項14に記載のX線CT装置において、前記局所領域の拡大CT画像を計算により投影して求めた局所計算投影データと、前記局所投影データとが等しくなるように逐次的に前記拡大CT画像を修正する局所領域画像逐次近似再構成部をさらに有することを特徴とするX線CT装置。   The X-ray CT apparatus according to claim 14, wherein the enlarged CT image is sequentially obtained so that the locally calculated projection data obtained by projecting the enlarged CT image of the local region is equal to the local projection data. An X-ray CT apparatus further comprising a local area image successive approximation reconstruction unit for correcting
JP2011264890A 2011-12-02 2011-12-02 X-ray CT system Active JP5858760B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011264890A JP5858760B2 (en) 2011-12-02 2011-12-02 X-ray CT system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011264890A JP5858760B2 (en) 2011-12-02 2011-12-02 X-ray CT system

Publications (2)

Publication Number Publication Date
JP2013116213A true JP2013116213A (en) 2013-06-13
JP5858760B2 JP5858760B2 (en) 2016-02-10

Family

ID=48711202

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011264890A Active JP5858760B2 (en) 2011-12-02 2011-12-02 X-ray CT system

Country Status (1)

Country Link
JP (1) JP5858760B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013215472A (en) * 2012-04-11 2013-10-24 Shimadzu Corp Radiation tomographic image generating apparatus, radiation tomographic apparatus, and radiation tomographic image generating program
JP2022513799A (en) * 2018-12-12 2022-02-09 コーニンクレッカ フィリップス エヌ ヴェ A system for reconstructing images of objects
CN114813798A (en) * 2022-05-18 2022-07-29 中国工程物理研究院化工材料研究所 CT detection device and imaging method for representing internal structure and composition of material

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0698886A (en) * 1992-09-21 1994-04-12 Hitachi Medical Corp X-ray ct apparatus
JP2002200073A (en) * 2000-12-21 2002-07-16 Ge Medical Systems Global Technology Co Llc X-ray ct system
WO2010016425A1 (en) * 2008-08-07 2010-02-11 株式会社 日立メディコ X-ray ct image formation method and x-ray ct device using same
JP2011177396A (en) * 2010-03-03 2011-09-15 Hitachi Medical Corp X-ray ct apparatus
WO2011122613A1 (en) * 2010-03-30 2011-10-06 株式会社 日立メディコ Reconstruction computing device, reconstruction computing method, and x-ray ct device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0698886A (en) * 1992-09-21 1994-04-12 Hitachi Medical Corp X-ray ct apparatus
JP2002200073A (en) * 2000-12-21 2002-07-16 Ge Medical Systems Global Technology Co Llc X-ray ct system
WO2010016425A1 (en) * 2008-08-07 2010-02-11 株式会社 日立メディコ X-ray ct image formation method and x-ray ct device using same
JP2011177396A (en) * 2010-03-03 2011-09-15 Hitachi Medical Corp X-ray ct apparatus
WO2011122613A1 (en) * 2010-03-30 2011-10-06 株式会社 日立メディコ Reconstruction computing device, reconstruction computing method, and x-ray ct device
US20130028500A1 (en) * 2010-03-30 2013-01-31 Hitachi Medical Corporation, Reconstruction computing device, reconstruction computing method, and x-ray ct apparatus

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013215472A (en) * 2012-04-11 2013-10-24 Shimadzu Corp Radiation tomographic image generating apparatus, radiation tomographic apparatus, and radiation tomographic image generating program
JP2022513799A (en) * 2018-12-12 2022-02-09 コーニンクレッカ フィリップス エヌ ヴェ A system for reconstructing images of objects
JP7479372B2 (en) 2018-12-12 2024-05-08 コーニンクレッカ フィリップス エヌ ヴェ System for reconstructing an image of an object - Patents.com
US11995746B2 (en) 2018-12-12 2024-05-28 Koninklijke Philips N.V. System for reconstructing an image of an object
CN114813798A (en) * 2022-05-18 2022-07-29 中国工程物理研究院化工材料研究所 CT detection device and imaging method for representing internal structure and composition of material

Also Published As

Publication number Publication date
JP5858760B2 (en) 2016-02-10

Similar Documents

Publication Publication Date Title
JP5918374B2 (en) X-ray CT apparatus and X-ray CT image processing method
JP6215449B2 (en) X-ray CT apparatus and processing apparatus
US7912180B2 (en) Scattered radiation correction method and scattered radiation correction apparatus
JP5280450B2 (en) X-ray CT image forming method and X-ray CT apparatus using the same
JP6824633B2 (en) X-ray computed tomography equipment, successive approximation reconstruction method and medical image processing equipment
US20170202534A1 (en) Methods and systems for computed tomography
JP6470837B2 (en) X-ray CT apparatus and sequential correction parameter determination method
JP5726288B2 (en) X-ray CT apparatus and method
JP5976982B1 (en) Repetitive CT image reconstruction of ROI with object outside scan FoV
US10111626B2 (en) X-ray CT apparatus
JP2016126010A (en) CT detection method and CT apparatus
JP6906905B2 (en) X-ray diagnostic equipment
JP2013085955A (en) X-ray computer tomographic imaging apparatus (x-ray ct apparatus) for supplementing detail image in successive multi-scale reconstruction, medical image treatment apparatus and medical image treatment method
JP5588697B2 (en) X-ray CT system
KR101768520B1 (en) A method of integrated operation of chest X-ray digital radiography and chest digital tomosynthesis
JP5858760B2 (en) X-ray CT system
US11417035B2 (en) X-ray tomosynthesis apparatus, image processing apparatus, and program
JP5404767B2 (en) X-ray CT apparatus and image correction program
JP2019010378A (en) X-ray tomosynthesis device
JP6502023B2 (en) X-ray computed tomography apparatus and scan plan setting support apparatus
US6866419B2 (en) Methods and apparatus for motion correction in imaging systems
JP2012055606A (en) X-ray ct device
JP7258474B2 (en) X-ray CT device and radiotherapy system
WO2018116791A1 (en) Medical image processing device and x-ray ct device provided with same, and medical image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140904

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150522

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150602

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150727

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151215

R150 Certificate of patent or registration of utility model

Ref document number: 5858760

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250