JP3748281B2 - Computed tomography equipment - Google Patents

Computed tomography equipment Download PDF

Info

Publication number
JP3748281B2
JP3748281B2 JP20704795A JP20704795A JP3748281B2 JP 3748281 B2 JP3748281 B2 JP 3748281B2 JP 20704795 A JP20704795 A JP 20704795A JP 20704795 A JP20704795 A JP 20704795A JP 3748281 B2 JP3748281 B2 JP 3748281B2
Authority
JP
Japan
Prior art keywords
image
projection
projection data
slice
reconstructed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP20704795A
Other languages
Japanese (ja)
Other versions
JPH0951891A (en
Inventor
昭南 大橋
好男 町田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP20704795A priority Critical patent/JP3748281B2/en
Publication of JPH0951891A publication Critical patent/JPH0951891A/en
Application granted granted Critical
Publication of JP3748281B2 publication Critical patent/JP3748281B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、格子状に2次元配列された複数の検出素子からなる検出器を用いるコンピュータ断層撮影装置に関し、特に、多数のスライスの断層像を連続して再構成するコンピュータ断層撮影装置に関する。
【0002】
【従来の技術】
被検体の断層像を撮影する装置としてX線コンピュータ断層撮影装置(以下、X線CT装置と略称する)は医用のみならず産業用にも広く普及している。特に、医用におけるX線CT装置は画像診断機器として重要な位置を占めている。最近のX線CT装置は初期のものに比較すれば、スキャン速度が非常に早く、全体の撮影時間も短くなっているが、さらに早く撮影を行ないたいという要求がある。これは、例えばダイナミックスキャンと呼ばれる方式の場合に、体内に注入した造影剤の動きを撮影するために短時間の撮影が必要とされること等のためである。そのため、スリップリングを用いて連続スキャンができるX線CT装置が開発されている。特に、X線を被検体の周囲で回転する際に、被検体をスライス方向(体軸方向)に移動させて連続スキャンを行なうヘリカルスキャンによってボリュームスキャンが可能になった。ヘリカルスキャン方式によれば、従来のX線CT装置が断層像を1枚づつスキャンしていたのに比較して、多数枚の断層像を短時間にスキャンできる。
【0003】
また、従来は1列に配列された1組の検出素子アレイを用いて1回のX線照射によって1スライスのビューをスキャンしていたが、最近は格子状に2次元配列されたマルチスライス検出素子アレイを用いて1回のX線照射によって複数のスライスのビューを同時にスキャンすることが行われている。マルチスライス検出器を用いてヘリカルスキャンを行うことにより、さらに多数枚の断層像が短時間に撮影できるようになった。
【0004】
これらの技術によりボリュームスキャンが実用的になった。
以下、本明細書では、X線の回転中は被検体を移動しないで一連のスキャンを行いスライスを1枚づつ撮影する方式を固定位置スキャン方式、被検体を移動しながら1連のスキャンを行うことをヘリカルスキャン方式と称する。また、1列のX線検出素子アレイを用いたスキャンを単セグメントスキャン、格子状のマルチセグメント検出器を用いたスキャンをマルチスキャンと称する。
【0005】
このように多数のスライスを連続的に短時間にスキャンすることができるようになり、再構成も短時間に効率よく行うことが望まれている。ここで、従来の多数のスライスの連続再構成方式について説明する。
【0006】
なお、最も基本的なスキャンは単セグメント・固定位置の1回のスキャンであり、この再構成はコンボリューション・バックプロジェクション法として広く行われている。
【0007】
連続スキャンには次の4種類がある。
第1の連続スキャンは単セグメント・固定位置の連続スキャンである。これは、最近、CT透視あるいはCTフルオログラフィとして実用に供されるようになった。この連続スキャンの場合の効率的な連続再構成法は、同一出願人による特開昭57−134142号(特公平1−23136号)に開示されている。
【0008】
第2の連続スキャンは単セグメント・ヘリカルスキャンである。ヘリカルスキャンでは被検体がZ軸方向に移動するので、投影データの位置は一定ではない。そのため、再構成に必要な360゜の投影データがスライス位置に存在しないので、スライス位置における360゜の仮想の投影データを再構成するスライス位置の前後の位置の投影データから補間により求める必要がある。
【0009】
この補間方法には、
(1) 360゜離れた位置の投影データを用いて補間する360゜補間法
(2) 180゜離れた位置の投影データを用いて補間する180゜補間法
がある。ヘリカルスキャンでは、原理的には任意の位置の画像を再構成できる。したがって、非常に短いピッチのスライス画像を再構成することが可能である。短いピッチのスライス画像はそれをそれぞれに単独で再構成することも可能であるが、効率的ではない。そこで、360゜補間法に関する効率的な連続再構成法が同一出願人による特願平4−168919号に示されている。180゜補間法に関する効率的な連続再構成法は同一出願人による特願平5−141938号に示されている。また、これらの再構成の際に、画像データあるいは投影データを圧縮して少ない記憶容量で記憶する方法も同一出願人による特願平5−141791号に示されている。
【0010】
第3の連続スキャンはマルチセグメント・固定位置の連続スキャンである。固定位置の連続スキャンの一例はダイナミックスキャンがある。マルチセグメント・固定位置の連続スキャンでも第1の連続スキャン(単セグメント・固定位置の連続スキャン)と同様に任意の位置の画像を再構成できる。そこで、単セグメント・固定位置の連続スキャンと同様に、マルチセグメント・固定位置の連続スキャンにおいても、効率的な連続再構成法が望まれている。
【0011】
しかしながら、この第3の連続スキャンに関する効率的な連続再構成法は未だ提案されていない。
第4の連続スキャンはマルチセグメント・ヘリカルスキャンである。マルチセグメント・ヘリカルスキャンでも第2の連続スキャン(単セグメント・ヘリカルスキャン)と同様に任意の位置の画像を再構成できる。そこで、単セグメント・ヘリカルスキャンと同様に、マルチセグメント・ヘリカルスキャンにおいても、効率的な連続再構成法が望まれている。
しかしながら、この第4の連続スキャンに関する効率的な連続再構成法も未だ提案されていない。
【0012】
【発明が解決しようとする課題】
このように従来のマルチセグメント検出器を用いた連続スキャン(固定位置の連続スキャン、ヘリカルスキャンとも)のコンピュータ断層撮影装置においては、多数のスライスの断層像を効率的に連続再構成することができなかった。
【0013】
本発明は上述した事情に対処すべくなされたもので、その目的はマルチセグメント検出器を用いたコンピュータ断層撮影装置において、多数のスライスの断層像を効率的に連続再構成できるコンピュータ断層撮影装置を提供することである。
【0014】
【課題を解決するための手段】
本発明によるコンピュータ断層撮影装置は、スライス方向とそれに直交するチャンネル方向に2次元的に配列された複数の検出素子からなる検出器を具備し、ヘリカルスキャンを行うコンピュータ断層撮影装置において、前記検出素子により得られた投影データをスライス方向の検出素子数と等しい数の投影角度グループに分割し、各グループ毎にスライス位置を挟む2つの投影データから360°の仮想投影データを補間し、該仮想投影データをコンボリューション演算、バックプロジェクション演算することにより各グループ毎の中間画像を得て、該中間画像を合成することにより第1の断層像を求める第1の再構成手段と、各グループ毎の第2スライス位置における中間画像を再構成するために必要な投影データと各グループ毎の第1スライス位置における中間画像を再構成するために必要な投影データとの差分データをコンボリューション演算、バックプロジェクション演算して各グループ毎の差分画像を求める手段と、前記第1スライス位置における中間画像と前記差分画像を合成することにより前記第2スライス位置における第2の断層像を求める手段とを具備するものである。
【0016】
【発明の実施の形態】
以下、図面を参照して本発明によるコンピュータ断層撮影装置の実施形態を説明する。ここでは、検出器、X線管ともに回転するR/R方式、いわゆる第3世代のX線CT装置について説明するが、他の世代、例えばX線管のみ回転し検出器は360゜にわたって設けられており静止しているS/R方式、いわゆる第4世代のX線CT装置についても同様に適用できる。
【0017】
先ず、本発明の原理を説明する。
投影デ−タは固定位置の連続スキャン、あるいはヘリカルスキャンによって収集されるとする。最初に、図1を参照して投影デ−タを定義する。説明の便宜上、複数の検出素子が格子状に2次元配列されてなるX線検出器アレイは、X線管焦点と回転中心とを結ぶ線(以下、中心線と称する)に関して対称に配置されている場合について説明するが、非対称に配置した場合も同様に実施できる。
【0018】
ここでは、断層像に垂直の方向(スライス方向)、すなわち被検体の移動方向をZ軸とする。マルチセグメントX線検出器のZ軸方向をセグメント、Z軸に直交する方向をチャンネルと称する。さらに、1回の投影により1セグメントの全チャンネルで収集される投影データの集合をビューと称する。図1はセグメント数は4としたが、2セグメント以上であれば、何セグメントの検出器であっても同様に実施できる。
【0019】
検出器のセグメント番号をu(u=1〜4)とする。X線ビームのファンの開き角度を2α、1ビューのチャンネル数(検出素子の個数)をN(偶数)とする。したがって、1つの検出素子のビームの開き角ΔαはΔα=2α/Nである。ビューとビューの間のX線の回転角度をΔθ、360゜当たりのビュー数をM(偶数)とする。したがって、M×Δθ=360゜である。検出器のスライス方向(Z方向)の番号をu、同一検出器におけるビューの番号をm(1以上)、検出素子の番号をn(1〜N)、投影デ−タをD(u,m,n)で表す。第mビューの中心線のなす角度を投影角度と称する。ここでは、第mビューの投影角度をm×Δθとする。ヘリカルスキャンの場合は、ビューとビューの間に寝台が移動する距離をd、第mビューの位置(中心線の位置)をm×dとする。スキャンした検出素子u毎の全ビュー数をMMとする。したがって、4検出素子で収集した全ビュー数は4×MMとなる。
【0020】
ここで、説明を簡単にするために、Mはセグメント数(ここでは、4)の整数倍とする。しかし、整数倍でない場合も同様に実施できる。
次に、本明細書で使う式の定義を説明する。
【0021】

Figure 0003748281
は、m=Aのビューについてn=1〜Nのデータと再構成関数とをコンボリューション演算し、その結果をm=Aのビューの投影角度でバックプロジェクション演算することをm=A〜Bまで行うことを意味する。以下、これを便宜上次のように記述する。
【0022】
BP[CONV{D(m,n)}] (2)
:m=A〜B
ただし、この記述においては、変数mを含む項についてのみ和をとるものと約束する。
【0023】
[第1の実施形態]
第1の実施形態は前述した第3の連続スキャンである固定位置の連続スキャンの再構成に関する。
【0024】
uスライスの第j〜第(j+M)投影データを用いて再構成した画像をP(u,j)とする。
P(u,j)=BP[CONV{D(u,m,n)}] (3)
:m=j〜(j+M−1)
同様に、uスライスの第(j+1)〜第(j+1+M)投影データを用いて再構成した画像をP(u,j+1)とする。
【0025】
P(u,j+1)=BP[CONV{D(u,m+1,n)}] (4)
:m=j〜(j+M−1)
ΔP(u,j)=P(u,j+1)−P(u+j) (5)
とすると、次式が得られる。
【0026】
P(u,j+1)=P(u,j)+ΔP(u,j) (6)
同様に、(5)式より次式が得られる。
P(u,j)=P(u,j+1)−ΔP(u,j) (7)
(7)式において、jをj−1に置き換えると、次式が得られる。
【0027】
P(u,j−1)=P(u,j)−ΔP(u,j−1) (8)
(7)式からP(u,j)とΔP(u,j)とからP(u,j+1)が求められることが分かる。そこで、ΔP(u,j)を求める。(5)式に(3)式、(4)式を代入すると、次式が得られる。
【0028】
Figure 0003748281
(9)式は次のように書換えることができる。
【0029】
Figure 0003748281
ここで、(2)式の約束通り、和は変数ma を含む第2項、第3項についてのみとるものとする。
【0030】
(10)式の第1項と第4項のバックプロジェクションの角度は同じであるから、BP・CONVの中をまとめて(10)式は次のように書換えることができる。
【0031】
Figure 0003748281
同様に、次式が得られる。
【0032】
Figure 0003748281
(11)式、(12)式からΔP(u,j)、Δ(u,j−1)は差分したデータを1回だけコンボリューション・バックプロジェクション演算を行えば求められることが分かる。(6)式、(7)式よりP(u,j+1)、P(u,j−1)はP(u,j)にΔP(u,j)またはΔP(u,j−1)を加算、あるいは減算すれば求められることが分かる。したがって、P(u,j)から、それに前後した画像を求めるには、1回のコンボリューション・バックプロジェクション演算と画像の加減算だけで済むことが分かる。P(u,j+1)、P(u,j−1)を新たに再構成するためには、M回のコンボリューション・バックプロジェクション演算が必要になる。コンボリューション・バックプロジェクション演算は演算量が多いので、この方式を用いれば、新たに再構成することに比較して非常に少ない演算量で連続した断層像を再構成することができる。
【0033】
次に、このような原理に基づいた本発明によるコンピュータ断層撮影装置の第1の実施形態の構成を説明する。
図2は本発明の第1の実施形態の概略構成を示すブロック図である。X線管10から放射され被検体12を透過したX線ビームが図1に示すように格子状に2次元配列された検出器アレイ14で検出され、データ収集部16に入力される。データ収集部16で得られた投影データが画像再構成部18に供給される。画像再構成部18で再構成された断層像は表示装置20によって表示されるとともに、画像メモリ22に記憶される。データ収集部16、画像再構成部18、表示装置20、画像メモリ22はバスライン24を介して互いに接続される。バスライン24には操作者が種々の指示を入力する操作卓26が接続される。なお、全体の動作は図示しないコンピュータにより制御される。
【0034】
図3は図2における画像再構成部18の概略構成を示すブロック図である。投影データは前処理回路30に供給され、前処理回路30の出力が生データメモリ32に記憶される。生デ−タメモリ32の出力がコンボリューション(CONV)演算回路42に供給される。さらに、生データメモリ32の出力から差分回路36によって差分ビューが作成され、コンボリューション演算回路42に供給される。前処理回路30、生データメモリ32、差分回路36はCPU34により制御される。CPU34には操作卓26からの指示が入力される。
【0035】
コンボリューション演算回路42の出力をバックプロジェクション(BP)演算回路44がバックプロジェクションすることにより、断層像、あるいは差分画像を再構成する。差分画像は差分画像メモリ46に供給される。差分画像メモリ46の出力が画像合成回路48に供給され、画像が再構成され、断層像メモリ54に供給される。
【0036】
一方、バックプロジェクション演算回路44によって断層像を再構成した場合は、断層像は断層像メモリ54に供給される。コンボリューション演算回路42、バックプロジェクション演算回路44、差分画像メモリ46、画像合成回路48はCPU56によって制御される。また、バックプロジェクション演算回路44には定数設定部58が接続される。断層像メモリ54の出力が表示装置20に供給される。
【0037】
図4、図5に示したフローチャートを参照して第1の実施形態の動作を説明する。
ステップ#10で固定位置の連続スキャンを行い投影データを収集し、投影データを前処理回路30で前処理してから生デ−タメモリ32に格納する。
【0038】
スキャンが終了、あるいは一定以上の生デ−タが収集されたら、ステップ#20で再構成する画像の番号jを指定する。ここでは、ダイナミックスキャンが行われているので、画像の番号は撮影のタイミングを示すものである。
【0039】
ステップ#25で必要な初期化を行う。
ステップ#30でu=1とする。
ステップ#35で(3)式に基づいて第j画像P(u,j)を再構成する。
【0040】
ステップ#40でこの画像を表示する。この場合、例えば、図6に示すように、検出素子の番号uに応じた位置に画像を表示する。
ステップ#45でu←u+1とする。
【0041】
ステップ#47でu≦4か否か判定する。イエスならば、ステップ#35に戻り、ノーならば、ステップ#48に進む。
ステップ#48でu=1とする。
【0042】
ステップ#50で次に再構成する画像の方向を判定する。方向は、例えば3点スイッチなどによって画像番号jの変化方向を指示することにより選択される。スイッチが中立の場合はいずれかの方向が指示されるまで待つ。マイナス方向にjを変化することが指示された場合は、ステップ#52に進み、プラス方向にjを変化することが指示された場合は、ステップ#73に進む。
【0043】
ステップ#50でマイナス方向が選択された場合は、ステップ#52で(12)式に基づいてΔP(u,j−1)を再構成する。
ステップ#55で、(8)式に基づいて1つ前のタイミングの画像P(u,j−1)を再構成する。
【0044】
ステップ#60で、ステップ#55で再構成した画像P(u,j−1)を、ステップ#40と同様に表示する。
ステップ#65でu←u+1とする。
【0045】
ステップ#68でu≦4か否か判定する。イエスならば、ステップ#52に戻り、ノーならば、ステップ#70に進む。
ステップ#70でjから1を減算してステップ#48に戻る。
【0046】
ステップ#50でプラス方向が選択された場合は、ステップ#72で(11)式に基づいて画像ΔP(u,j)を再構成する。
ステップ#75で、(6)式に基づいて1つ後のタイミングの画像P(u,j+1)を再構成する。
【0047】
ステップ#80で、ステップ#75で再構成した画像P(u,j+1)を、ステップ#40と同様に表示する。
ステップ#85でu←u+1とする。
【0048】
ステップ#88でu≦4か否か判定する。イエスならば、ステップ#72に戻り、ノーならば、ステップ#80に進む。
ステップ#80でj←j+1とし、ステップ#48に戻る。
【0049】
以上の動作を繰返すことにより、jを連続して変化させながら、(12)式と(8)式、または(11)式と(6)式により時間的に異なる複数の画像を連続して再構成する。jの変化方向はステップ#50で変更してもよいし、jの変化を終了してもよい。
【0050】
以上説明したように第1の実施形態によれば、最初の断層像はスライス位置の360゜の投影データをコンボリューション演算、バックプロジェクション演算して通常通り再構成するが、それ以降の断層像は、最初の断層像を再構成する際に使ったデータと今回再構成する断層像の通常再構成に必要なデータとの差をコンボリューション演算、バックプロジェクション演算して差分画像を求め、その差分画像を既に再構成されている断層像に合成する(加える)ことにより再構成しているので、多数枚の断層像を短時間に再構成することができ、撮影時間がずれた多数の画像を連続して再構成することができる。
【0051】
第1の実施形態の変形例を説明する。
上述の説明では差分画像を求めて、既に再構成されている断層像に差分画像を合成しているが、差分画像は求めなくてもよい。既に得られた断層像を再構成する際に使ったデータと今回再構成する断層像の通常再構成に必要なデータとの差を既に得られた断層像に重ねる形でコンボリューション演算、バックプロジェクション演算して今回の断層像を求めてもよい。この場合、第(j+1)画像P(u,j+1)、第(j−1)画像P(u,j−1)はそれぞれ次のように表される。
【0052】
Figure 0003748281
また、画質を向上させるために、特願平6−181120号に示されているリカーシブフィルタ手段を用いてもよい。
【0053】
以上、マルチセグメント法において、各第uスライス毎に連続再構成を行う典型例を示した。ここでの固定位置のマルチセグメント連続スキャンの場合、各スライス(第uスライス)に対する連続再構成処理としては、360゜補間法や180゜補間法を含むいずれかの連続再構成法を適用してもよい。
【0054】
[第2の実施形態]
第2の実施形態は、ヘリカルスキャンの360゜補間法に関する。先ず、原理を説明する。
【0055】
図7はマルチセグメント・ヘリカルスキャンにおけるビューの投影角度とZ方向の位置を示したものである。スキャンの開始位置、すなわち第1投影(投影角度=0゜)のu=1の検出素子の位置をZ=0とする。1回転後の投影角度=0゜のu=1の検出素子の位置、すなわちZ=M×dを第1スライスの位置とする。この位置における投影データはD(1,M+1,n)である。第1スライスの位置における断層像をP(1)とする。以下、Z={M+(j−1)}×dの位置の断層像をP(j)とする。
【0056】
360゜の投影データを図7に示すように360゜/4(セグメント数)=90゜毎に4グループ(Gr1 ,Gr2 ,Gr3 ,Gr4 )に分ける。図7からグループGr1 のみを取り出して図8に示す。このビューに図8に示すように新たにビュー番号を付け直して図9に示すように並べ変えて得られたグループGr1 の投影データをD1 (g1 ,n)(g1 =1〜MM)とする。
【0057】
図9はサイノグラム(sinogram)と呼ばれ、横軸が検出素子番号(チャンネル番号)n(1〜N)、縦軸がビュー番号(投影番号)m(1〜MM)を表わし、投影デ−タを模式的に示す図である。なお、同一の投影番号に属する投影デ−タの集まり、すなわちサイノグラムの横線がビューを構成する。
【0058】
同様に、図7からGr2 ,Gr2 ,Gr4 のそれぞれの部分のみを取り出したものを図10、図12、図14に示す。これらのビューに新たにビュー番号を付け直して図11、図13、図15に示すように並べ変えて得られたグループGr2 ,Gr3 ,Gr4 の投影データをそれぞれD2 (g2 ,n)(g2 =1〜MM),D3 (g3 ,n)(g3 =1〜MM),D4 (g4 ,n)(g4 =1〜MM)とする。
【0059】
断層像を再構成するためには、360゜の投影データが必要であるが、ヘリカルスキャンでは図7に示すようにスライス位置に360゜の投影データが存在しない。そこで、360゜補間法では、スライス位置をはさむ同一投影角度における2個の投影データを補間してスライス位置における仮想のビューを作成する。
【0060】
画像P(j)の仮想の投影データを各グループ毎にDF1 (j,g1 ,n),DF2 (j,g2 ,n),DF3 (j,g3 ,n),DF4 (j,g4 ,n)とすると、画像P(1)に関する投影データは次のようになる。
【0061】
Figure 0003748281
ここで、
g1 ={(3×M/4)+1}〜M
n=1〜N
W11,W12は補間係数であり、次式で表される。
【0062】
W11(g1 )=4×{g1 −(3×M/4)−1}/M
W12(g1 )=1−W11(g1 )
同様に、画像P(2)に関する投影データは次のようになる。
【0063】
である。
Figure 0003748281
ここで、
g2 ={(M/2)+1}〜(3×M/4)
n=1〜N
W21,W22は補間係数であり、次式で表される。
【0064】
W21(g2 )=4×{g2 −(M/2)−1}/M
W22(g2 )=1−W21(g2 )
同様に、画像P(3)に関する投影データは次のようになる。
【0065】
Figure 0003748281
ここで、
g3 ={(M/4)+1}〜(M/2)
n=1〜N
W31,W32は補間係数であり、次式で表される。
【0066】
W31(g3 )=4×{g3 −(M/4)−1}/M
W32(g3 )=1−W31(g3 )
さらに、画像P(4)に関する投影データは次のようになる。
【0067】
Figure 0003748281
ここで、
g4 =1〜(M/4)
n=1〜N
W41,W42は補間係数であり、次式で表される。
【0068】
W41(g4 )=4×(g4 −1)/M
W42(g4 )=1−W41(g4 )
これを、一般形に書換えると、画像P(j)に関する各グループ毎の仮想の投影データは次のように表される。
【0069】
Figure 0003748281
ここで、
g1 ={(3×M/4)+j}〜(M+j−1)
n=1〜N
W11,W12は補間係数であり、次式で表される。
【0070】
W11(g1 )=4×{g1 −(3×M/4)−j}/M
W12(g1 )=1−W11(g1 )
また、
Figure 0003748281
ここで、
g2 =[4×{(M/2)+j}]〜{(3×M/4)+j−1}
n=1〜N
W21,W22は補間係数であり、次式で表される。
【0071】
W21(g2 )={g2 −(M/2)−j}/M
W22(g2 )=1−W21(g2 )
さらに、
Figure 0003748281
ここで、
g3 =[4×{(M/4)+j}]〜{(M/2)+j−1}
n=1〜N
W31,W32は補間係数であり、次式で表される。
【0072】
W31(g3 )={g3 −(M/4)−j}/M
W32(g3 )=1−W31(g3 )
さらに、
Figure 0003748281
ここで、
g4 =j〜{(M/4)+j−1}
n=1〜N
W41,W42は補間係数であり、次式で表される。
【0073】
W41(g4 )=4×(g4 −j)/M
W42(g4 )=1−W41(g4 )
画像P(j)は上記の仮想投影データをコンボリューション演算、バックプロジェクション演算することにより再構成できる。このとき、グループGr1 ,Gr2 ,Gr3 ,Gr4 に関するそれぞれのバックプロジェクションの角度をそれぞれθ1 ,θ2 ,θ3 ,θ4 とすると、θ1 ,θ2 ,θ3 ,θ4 は次のように表される。
【0074】
(1) 0゜≦θ1 <90゜の場合:
θ1 ={g1 −(3×4/M)−1}×Δθ (109)
ただし、k×90゜≦θ1 <(k+1)×90゜の場合は
θ1 ←θ1 −(k×90゜)
(2) 90゜≦θ2 <180゜の場合:
θ2 ={g2 −(M/2)−1}×Δθ+90゜ (110)
ただし、k×180゜≦θ2 <(k+1)×180゜の場合は
θ2 ←θ2 −(k×180゜)
(3) 180゜≦θ3 <270゜の場合:
θ3 ={g3 −(M/4)−1}×Δθ+180゜ (111)
ただし、k×180゜≦θ3 <(k+1)×180゜の場合は
θ3 ←θ3 −(k×180゜)
(4) 270゜≦θ4 <360゜の場合:
θ4 =(g4 −1)×Δθ+270゜ (112)
ただし、k×270゜≦θ4 <(k+1)×270゜の場合は
θ4 ←θ4 −(k×270゜)
ここで、次の中間画像P1 (j),P2 (j),P3 (j),P4 (j)を定義する。中間画像とは実際の断層像ではなく、説明のための画像である。
【0075】
Figure 0003748281
したがって、
P(j)=P1 (j)+P2 (j)+P3 (j)+P4 (j) (117)
となる。同じく、
Figure 0003748281
となる。
【0076】
ここで、
ΔP1 (j)=P1 (j+1)−P1 (j) (120)
ΔP2 (j)=P2 (j+1)−P2 (j) (121)
ΔP3 (j)=P3 (j+1)−P3 (j) (122)
ΔP4 (j)=P4 (j+1)−P4 (j) (123)
とすると、次式が得られる。
【0077】
P1 (j+1)=P1 (j)+ΔP1 (j) (124)
P2 (j+1)=P2 (j)+ΔP2 (j) (125)
P3 (j+1)=P3 (j)+ΔP3 (j) (126)
P4 (j+1)=P4 (j)+ΔP4 (j) (127)
同様に、(120)式〜(123)式から次式が得られる。
【0078】
P1 (j)=P1 (j+1)−ΔP1 (j) (128)
P2 (j)=P2 (j+1)−ΔP2 (j) (129)
P3 (j)=P3 (j+1)−ΔP3 (j) (130)
P4 (j)=P4 (j+1)−ΔP4 (j) (131)
(128)式〜(131)式のjをj−1と置き換えると、次式が得られる。
【0079】
P1 (j−1)=P1 (j)−ΔP1 (j−1) (132)
P2 (j−1)=P2 (j)−ΔP2 (j−1) (133)
P3 (j−1)=P3 (j)−ΔP3 (j−1) (134)
P4 (j−1)=P4 (j)−ΔP4 (j−1) (135)
(128)式からP1 (j)とΔP1 (j)とからP1 (j+1)が求められることが分かる。そこで、ΔP1 (j)を求める。(120)式と(113)式により次式が得られる。
【0080】
Figure 0003748281
(136)式は次のように書き換えられる。
【0081】
Figure 0003748281
(137)式の第1項と第4項のバックプロジェクション角度は同じである。また、第2項と第3項の各g1 のバックプロジェクション角度は同じであるので、(137)式は次のように書き換えられる。
【0082】
Figure 0003748281
(138)式の第1項の内部の項は(105)式から次のように書換えることができる。
【0083】
Figure 0003748281
とおくと、(139)式は次のようになる。
【0084】
Figure 0003748281
(139)式の第2項の内部の項は(105)式から次のように書換えることができる。
【0085】
Figure 0003748281
ここで、
g1 ={(3×M/4)+j+1}〜(M+j−1)
(138)式に(140)式、(141)式を代入すると、次式となる。
【0086】
ΔP1 (j)
Figure 0003748281
(142)式は次式のように書換えることができる。
【0087】
Figure 0003748281
ここで、
Figure 0003748281
同様に、次式が得られる。
【0088】
ΔP2 (j)=ΔW×P2A(j) (145)
ΔP3 (j)=ΔW×P3A(j) (146)
ΔP4 (j)=ΔW×P4A(j) (147)
ここで、
Figure 0003748281
同様に、次式が得られる。
【0089】
ΔP1 (j−1)=ΔW×P1A(j−1) (151)
ΔP2 (j−1)=ΔW×P2A(j−1) (152)
ΔP3 (j−1)=ΔW×P3A(j−1) (153)
ΔP4 (j−1)=ΔW×P4A(j−1) (154)
次に、
ΔP1A(j)=P1A(j+1)−P1A(j) (155)
ΔP2A(j)=P2A(j+1)−P2A(j) (156)
ΔP3A(j)=P3A(j+1)−P3A(j) (157)
ΔP4A(j)=P4A(j+1)−P4A(j) (158)
と、おくと、次式が得られる。
【0090】
P1A(j+1)=P1A(j)+ΔP1A(j) (159)
P2A(j+1)=P2A(j)+ΔP2A(j) (160)
P3A(j+1)=P3A(j)+ΔP3A(j) (161)
P4A(j+1)=P4A(j)+ΔP4A(j) (162)
同様に、(155)式〜(158)式から次式が得られる。
【0091】
P1A(j)=P1A(j+1)−ΔP1A(j) (163)
P2A(j)=P2A(j+1)−ΔP2A(j) (164)
P3A(j)=P3A(j+1)−ΔP3A(j) (165)
P4A(j)=P4A(j+1)−ΔP4A(j) (166)
(163)式〜(166)式においてjをj−1と置き換えると、次式が得られる。
【0092】
P1A(j−1)=P1A(j)−ΔP1A(j−1) (167)
P2A(j−1)=P2A(j)−ΔP2A(j−1) (168)
P3A(j−1)=P3A(j)−ΔP3A(j−1) (169)
P4A(j−1)=P4A(j)−ΔP4A(j−1) (170)
次に、ΔP1A(j)を求める。(155)式と(144)式から次式が得られる。
【0093】
Figure 0003748281
(171)式は次のように書換えることができる。
【0094】
Figure 0003748281
(172)式の第1項と第4項のバックプロジェクション角度は同じである。したがって、(172)式を整理すると、次のようになる。
【0095】
Figure 0003748281
同様に、次式が得られる。
【0096】
Figure 0003748281
同様に、次式が得られる。
【0097】
Figure 0003748281
以上説明したように、第2の実施形態においても、既に再構成した画像P(j)に隣接する画像P(j+1)、またはP(j−1)を連続して再構成することができることがわかる。
【0098】
第j画像P(j)を求めるに必要な中間画像P1 (j)〜P4 (j)を求めるための(113)式〜(117)式はコンボリューション演算、バックプロジェクション演算をM回行う必要がある。
【0099】
しかし、差分画像ΔP1A(j),ΔP2A(j),ΔP3A(j),ΔP4A(j)を求める(173)式〜(176)式はコンボリューション演算、バックプロジェクション演算が1回だけ必要である。よって、画像P(j+1)、またはP(j−1)を連続的に求めるためには4回のコンボリューション演算、バックプロジェクション演算が必要である。
【0100】
一般にセグメント数がNsの場合は、画像P(j)から画像P(j+1)または画像P(j−1)を連続的に再構成するためには、Ns回のコンボリューション演算、バックプロジェクション演算が必要である。
【0101】
コンボリューション演算、バックプロジェクション演算以外の演算はコンボリューション演算、バックプロジェクション演算に比べて演算量が非常に少ない。したがって、全体の演算量はコンボリューション演算、バックプロジェクション演算の回数によってほぼ決まる。通常、M(360゜当たりのビュー数)は4よりはるかに大きいので、本実施形態による再構成は(113)式〜(117)式に比べて演算量が非常に少ないことがわかる。
【0102】
以上の説明を以下にまとめる。式の番号は/の左側は上述の説明で用いた番号を示し、右側には整理のために付け直した新しい番号を示す。
検出素子のスライス方向(Z方向)の番号:u(u=1〜4)
ファンの開き角度:2α
1ビューのデータ数:N(偶数), Δα=2α/N
ビューとビューの間の角度:Δθ
360゜当たりのビュー数:M, M×Δθ=360゜
同一検出素子におけるビューの番号:m(1〜)
検出素子の番号:n(1〜N)
投影データ:D(u,m,n)
第mビューの投影角度:m×Δθ
寝台移動距離(ビューとビューとの間):d
第mビューの位置:m×d
スキャンした検出素子u毎の全ビュー数:MM
全ビュー数:4×MM
グループ1の投影データ:D1 (g1 ,n) ここで、g1 =1〜MM
グループ2の投影データ:D2 (g2 ,n) ここで、g2 =1〜MM
グループ3の投影データ:D3 (g1 ,n) ここで、g3 =1〜MM
グループ4の投影データ:D4 (g1 ,n) ここで、g4 =1〜MM
Figure 0003748281
ここで、
g1 ={(3×M/4)+j}〜(M+j−1)
n=1〜N
W11,W12は補間係数であり、次式で表される。
【0103】
Figure 0003748281
ここで、
g2 =[4×{(M/2)+1}]〜{(3×M/4)+j−1}
n=1〜N
W21,W22は補間係数であり、次式で表される。
【0104】
Figure 0003748281
ここで、
g3 =[4×{(M/4)+1}]〜{(M/2)+j−1}
n=1〜N
W31,W32は補間係数であり、次式で表される。
【0105】
Figure 0003748281
ここで、
g4 =j〜{(M/4)+j−1}
n=1〜N
W41,W42は補間係数であり、次式で表される。
【0106】
W41(g4 )=4×(g4 −j)/M
W42(g4 )=1−W41(g4 )
θ1 ={g1 −(3×4/M)−1}×Δθ (109)/(205)
(0゜≦θ1 <90゜の場合。ただし、k×90゜≦θ1 <(k+1)×90゜の場合はθ1 ←θ1 −(k×90゜))
θ2 ={g2 −(M/2)−1}×Δθ+90゜ (110)/(206)
(90゜≦θ2 <180゜の場合。ただし、k×180゜≦θ2 <(k+1)×180゜の場合はθ2 ←θ2 −(k×180゜))
θ3 ={g3 −(M/4)−1}×Δθ+180゜ (111)/(207)
(180゜≦θ3 <270゜の場合。ただし、k×180゜≦θ3 <(k+1)×180゜の場合はθ3 ←θ3 −(k×180゜))
θ4 =(g4 −1)×Δθ+270゜ (112)/(208)
(270゜≦θ4 <360゜の場合。ただし、k×270゜≦θ4 <(k+1)×270゜の場合はθ4 ←θ4 −(k×270゜))
Figure 0003748281
P2 (j+1)=P2 (j)+ΔP2 (j) (125)/(217)
P3 (j+1)=P3 (j)+ΔP3 (j) (126)/(218)
P4 (j+1)=P4 (j)+ΔP4 (j) (127)/(219)
P1 (j−1)=P1 (j)−ΔP1 (j−1) (132)/(220)
P2 (j−1)=P2 (j)−ΔP2 (j−1) (133)/(221)
P3 (j−1)=P3 (j)−ΔP3 (j−1) (134)/(222)
P4 (j−1)=P4 (j)−ΔP4 (j−1) (135)/(223)
ΔP1 (j)=ΔW×P1A(j) (143)/(224)
ΔP2 (j)=ΔW×P2A(j) (145)/(225)
ΔP3 (j)=ΔW×P3A(j) (146)/(226)
ΔP4 (j)=ΔW×P4A(j) (147)/(227)
ここで、
Figure 0003748281
ΔP2 (j−1)=ΔW×P2A(j−1) (152)/(233)
ΔP3 (j−1)=ΔW×P3A(j−1) (153)/(234)
ΔP4 (j−1)=ΔW×P4A(j−1) (154)/(235)
P1A(j+1)=P1A(j)+ΔP1A(j) (159)/(236)
P2A(j+1)=P2A(j)+ΔP2A(j) (160)/(247)
P3A(j+1)=P3A(j)+ΔP3A(j) (161)/(238)
P4A(j+1)=P4A(j)+ΔP4A(j) (162)/(239)
P1A(j−1)=P1A(j)−ΔP1A(j−1) (167)/(240)
P2A(j−1)=P2A(j)−ΔP2A(j−1) (168)/(241)
P3A(j−1)=P3A(j)−ΔP3A(j−1) (169)/(242)
P4A(j−1)=P4A(j)−ΔP4A(j−1) (170)/(243)
Figure 0003748281
Figure 0003748281
次に、このような原理に基づいた本発明によるコンピュータ断層撮影装置の第2の実施形態の構成を説明する。第1の実施形態と対応する部分は同一の参照数字を付けてその詳細な説明は省略する。
【0107】
本実施形態の概略構成は図2に示したものと同じである。ただし、画像再構成部18が第1の実施形態とは異なり、図16に示すように構成される。投影データは前処理回路30に供給され、前処理回路30の出力が生データメモリ32に記憶される。ここで、生データメモリ32には記憶番地制御回路62が接続され、投影データは図9、図11、図13、図15に示すように、グループ毎に記憶される。生データメモリ32の出力が仮想ビュー作成回路61を介して、または直接にコンボリューション(CONV)演算回路42に供給される。前処理回路30、記憶番地制御回路62、生データメモリ32、仮想ビュー作成回路61はCPU34により制御される。CPU34には操作卓26からの指示が入力される。
【0108】
コンボリューション演算回路42の出力がバックプロジェクション(BP)演算回路44を介して差分画像メモリ63、中間画像メモリ66,70に供給される。差分画像メモリ63はΔPiA(j)を記憶する。ここで、i=1〜4である。中間画像メモリ66はPiA(j)を記憶し、中間画像メモリ70はPi (j)を記憶する。差分画像メモリ63の出力が画像合成回路64を介して中間画像メモリ66に供給される。中間画像メモリ66の出力が画像合成回路67に供給され、ΔPi =ΔW×PiAにより画像が合成される。画像合成回路67の出力が差分画像メモリ68に供給される。差分画像メモリ68の出力が画像合成回路69に供給され、Pi (j+1)=Pi (j)+ΔPi (j)により画像が合成される。画像合成回路69の出力が中間画像メモリ70に供給される。中間画像メモリ70の出力が画像合成回路71に供給され、P=P1 +P2 +P3 +P4 により断層像が再構成され、断層像メモリ54に供給され、記憶される。コンボリューション演算回路42、バックプロジェクション演算回路44、差分画像メモリ63,68、画像合成回路64,67,69,71、中間画像メモリ66,70はCPU56によって制御される。また、バックプロジェクション演算回路44には定数設定部58が接続される。断層像メモリ54の出力が表示装置20に供給され、画像として表示される。
【0109】
図17、図18に示したフローチャートを参照して第2の実施形態の動作を説明する。なお、フローチャートの各画像の添字iは1〜4である。
ステップ#110でヘリカルスキャンを行い投影データを収集し、投影データを前処理回路30で前処理してから、図9、図11、図13、図15に示すようにグループ毎に生デ−タメモリ32に格納する。
【0110】
ステップ#120で再構成する画像の番号jを指定する。ここでは、画像の番号はスライスの位置を示すものである。
ステップ#125で必要な初期化を行う。
【0111】
スキャンが終了、あるいは一定以上の生デ−タが収集されたら、ステップ#128で(201)式〜(204)式に基づいて360゜分の仮想データDF1 (j,g1 ,n),DF2 (j,g2 ,n),DF3 (j,g3 ,n),DF4 (j,g4 ,n)を作成する。
【0112】
ステップ#130で360゜分の仮想データを順次コンボリューション演算回路42、バックプロジェクション演算回路44を介して(209)式〜(212)式に基づいて画像P1 (j),P2 (j),P3 (j),P4 (j)を再構成し、中間画像メモリ70に記憶する。
【0113】
ステップ#135で画像合成回路71により(213)式に基づいて第j画像P(j)を再構成し、断層像メモリ54に記憶する。
ステップ#140でこの画像を表示する。
【0114】
ステップ#145で(228)式〜(231)式に基づいてコンボリューション演算、バックプロジェクション演算により中間画像P1A(j),P2A(j),P3A(j),P4A(j)を再構成し、中間画像メモリ66に記憶する。
【0115】
ステップ#150で次に再構成する画像の方向を判定する。方向は、例えば3点スイッチなどによって画像番号jの変化方向を指示することにより選択される。スイッチが中立の場合はいずれかの方向が指示されるまで待つ。マイナス方向にjを変化することが指示された場合は、ステップ#155に進み、プラス方向にjを変化することが指示された場合は、ステップ#175に進む。
【0116】
ステップ#150でマイナス方向が選択された場合は、ステップ#155で(248)式〜(251)式に基づいてΔP1A(j−1),ΔP2A(j−1),ΔP3A(j−1),ΔP4A(j−1)を再構成する。
【0117】
ステップ#156で(240)式〜(243)式に基づいてP1A(j−1),P2A(j−1),P3A(j−1),P4A(j−1)を再構成する。
ステップ#157で(232)式〜(235)式に基づいてΔP1 (j−1),ΔP2 (j−1),ΔP3 (j−1),ΔP4 (j−1)を再構成する。
【0118】
ステップ#158で(220)式〜(223)式に基づいてP1 (j−1),P2 (j−1),P3 (j−1),P4 (j−1)を再構成する。
ステップ#159で、(215)式に基づいて1つ前のスライス位置の画像P(j−1)を再構成する。
【0119】
ステップ#160で、ステップ#159で再構成した画像P(j−1)を表示する。
ステップ#170でjから1を減算してステップ#150に戻る。
【0120】
ステップ#150でプラス方向が選択された場合は、ステップ#175で(224)式〜(227)式に基づいてΔP1 (j),ΔP2 (j),ΔP3 (j),ΔP4 (j)を再構成する。
【0121】
ステップ#176で(216)式〜(219)式に基づいてP1 (j+1),P2 (j+1),P3 (j+1),P4 (j+1)を再構成する。
ステップ#177で(244)式〜(247)式に基づいてΔP1A(j),ΔP2A(j),ΔP3A(j),ΔP4A(j)を再構成する。
【0122】
ステップ#178で(236)式〜(239)式に基づいてP1A(j+1),P2A(j+1),P3A(j+1),P4A(j+1)を再構成する。
ステップ#179で、(214)式に基づいて1つ後のスライス位置の画像P(j+1)を再構成する。
【0123】
ステップ#180で、ステップ#179で再構成した画像P(j+1)を表示する。
ステップ#190でjに1を加算してステップ#150に戻る。
【0124】
以上の動作を繰返すことにより、jを連続して変化させながら、隣接する複数の画像を連続して再構成する。jの変化方向はステップ#150で変更してもよいし、jの変化を終了してもよい。
【0125】
以上説明したように第2の実施形態によれば、最初の断層像は投影データを補間して求めた仮想ビューをコンボリューション演算、バックプロジェクション演算して通常通り再構成するが、それに隣接する断層像は、最初の断層像を再構成する際に使ったデータと今回再構成する断層像の通常再構成に必要なデータとの差をコンボリューション演算、バックプロジェクション演算して差分画像を求め、その差分画像を既に再構成されている断層像に合成する(加える)ことにより再構成しているので、多数枚の断層像を短時間に再構成することができ、撮影場所がずれた多数の画像を連続して再構成することができる。
なお、本発明は上述した実施の形態に限定されず、種々変形して実施可能である。
【0126】
【発明の効果】
以上説明したように本発明によれば、連続スキャンやヘリカルスキャンにより得られた大量の投影データから多数枚の断層像を短時間に再構成できるとともに、再構成に必要なデータの記憶容量を少なく抑えることができるコンピュータ断層撮影装置が提供される。
【図面の簡単な説明】
【図1】本発明によるコンピュータ断層撮影装置に用いられるマルチセグメント検出器の構成を示す図。
【図2】本発明によるコンピュータ断層撮影装置の第1の実施形態の全体構成を示すブロック図。
【図3】図2の画像再構成部の詳細な構成を示すブロック図。
【図4】第1の実施形態の動作を示すフローチャート。
【図5】図4に続いて第1の実施形態の動作を示すフローチャート。
【図6】第1の実施形態の表示の一例を示す図。
【図7】本発明の第2の実施形態におけるビューの投影角度とZ方向の位置関係を示す図。
【図8】図7からグループ1のみを取り出して新しいビュー番号を付して示す図。
【図9】図8のデータを並べ変えて得られたサイノグラム。
【図10】図7からグループ2のみを取り出して新しいビュー番号を付して示す図。
【図11】図10のデータを並べ変えて得られたサイノグラム。
【図12】図7からグループ3のみを取り出して新しいビュー番号を付して示す図。
【図13】図12のデータを並べ変えて得られたサイノグラム。
【図14】図7からグループ4のみを取り出して新しいビュー番号を付して示す図。
【図15】図14のデータを並べ変えて得られたサイノグラム。
【図16】第2の実施形態における画像再構成部の詳細な構成を示すブロック図。
【図17】第2の実施形態の動作を示すフローチャート。
【図18】図17に続いて第2の実施形態の動作を示すフローチャート。
【符号の説明】
10…X線管、12…被検体、14…検出器アレイ,16…データ収集部、18…画像再構成部、20…表示装置、22…画像メモリ、26…操作卓。[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a computer tomography apparatus using a detector composed of a plurality of detection elements arranged two-dimensionally in a lattice shape, and more particularly to a computer tomography apparatus that reconstructs tomographic images of a large number of slices continuously.
[0002]
[Prior art]
An X-ray computed tomography apparatus (hereinafter abbreviated as an X-ray CT apparatus) is widely used not only for medical purposes but also for industrial purposes as an apparatus for taking a tomographic image of a subject. In particular, medical X-ray CT apparatuses occupy an important position as diagnostic imaging equipment. Compared to the initial X-ray CT apparatus, the scanning speed is very fast and the entire imaging time is shortened, but there is a demand to perform imaging faster. This is because, for example, in the case of a method called dynamic scan, it is necessary to perform imaging for a short time in order to image the movement of the contrast medium injected into the body. Therefore, an X-ray CT apparatus capable of continuous scanning using a slip ring has been developed. In particular, when X-rays are rotated around the subject, volume scanning is enabled by helical scanning in which the subject is moved in the slicing direction (body axis direction) to perform continuous scanning. According to the helical scan method, a large number of tomographic images can be scanned in a shorter time than a conventional X-ray CT apparatus scans tomographic images one by one.
[0003]
Conventionally, a single slice view is scanned by one X-ray irradiation using a set of detection element arrays arranged in a single row, but recently, multi-slice detection arranged in a two-dimensional grid Scanning a plurality of slice views simultaneously by one X-ray irradiation using an element array is performed. By performing a helical scan using a multi-slice detector, more tomographic images can be taken in a shorter time.
[0004]
These technologies have made volume scanning practical.
Hereinafter, in the present specification, a method of performing a series of scans without moving the subject while the X-ray is rotating and photographing each slice one by one is a fixed position scan method, and a series of scans is performed while moving the subject. This is called a helical scan method. A scan using one row of X-ray detection element arrays is called a single segment scan, and a scan using a grid-like multi-segment detector is called a multi scan.
[0005]
In this way, a large number of slices can be continuously scanned in a short time, and it is desired that the reconstruction is performed efficiently in a short time. Here, a conventional continuous reconstruction method for a large number of slices will be described.
[0006]
The most basic scan is a single segment / fixed position scan, and this reconstruction is widely performed as a convolution / back projection method.
[0007]
There are the following four types of continuous scanning.
The first continuous scan is a single segment / fixed position continuous scan. This has recently come into practical use as CT fluoroscopy or CT fluorography. An efficient continuous reconstruction method in the case of this continuous scanning is disclosed in Japanese Patent Application Laid-Open No. 57-134142 (Japanese Patent Publication No. 1-23136) by the same applicant.
[0008]
The second continuous scan is a single segment helical scan. In the helical scan, since the subject moves in the Z-axis direction, the position of the projection data is not constant. Therefore, since 360 ° projection data necessary for reconstruction does not exist at the slice position, it is necessary to obtain by interpolation from projection data at positions before and after the slice position at which 360 ° virtual projection data at the slice position is reconstructed. .
[0009]
This interpolation method includes:
(1) 360 ° interpolation method that interpolates using projection data at a position 360 ° apart
(2) 180 ° interpolation method that interpolates using projection data at 180 ° position
There is. In the helical scan, in principle, an image at an arbitrary position can be reconstructed. Therefore, it is possible to reconstruct a slice image with a very short pitch. A short pitch slice image can be reconstructed independently of each other, but is not efficient. Therefore, an efficient continuous reconstruction method relating to the 360 ° interpolation method is shown in Japanese Patent Application No. 4-168919 by the same applicant. An efficient continuous reconstruction method for the 180 ° interpolation method is shown in Japanese Patent Application No. 5-141938 by the same applicant. In addition, a method for compressing image data or projection data and storing them with a small storage capacity at the time of reconfiguration is shown in Japanese Patent Application No. 5-141791 by the same applicant.
[0010]
The third continuous scan is a multi-segment, fixed position continuous scan. An example of continuous scanning at a fixed position is dynamic scanning. Similarly to the first continuous scan (single segment / fixed position continuous scan), an image at an arbitrary position can be reconstructed even in the multi-segment / fixed position continuous scan. Therefore, an efficient continuous reconstruction method is desired also in the multi-segment / fixed position continuous scan as in the single-segment / fixed position continuous scan.
[0011]
However, an efficient continuous reconstruction method for the third continuous scan has not yet been proposed.
The fourth continuous scan is a multi-segment helical scan. In the multi-segment helical scan, an image at an arbitrary position can be reconstructed as in the second continuous scan (single-segment helical scan). Therefore, an efficient continuous reconstruction method is desired in multi-segment helical scan as well as single-segment helical scan.
However, an efficient continuous reconstruction method for the fourth continuous scan has not yet been proposed.
[0012]
[Problems to be solved by the invention]
As described above, in a computer tomography apparatus using a conventional multi-segment detector for continuous scanning (both fixed position continuous scanning and helical scanning), it is possible to efficiently reconstruct tomographic images of a large number of slices. There wasn't.
[0013]
The present invention has been made to cope with the above-described circumstances, and an object of the present invention is to provide a computer tomography apparatus capable of efficiently and continuously reconstructing tomographic images of a large number of slices in a computer tomography apparatus using a multi-segment detector. Is to provide.
[0014]
[Means for Solving the Problems]
  A computer tomography apparatus according to the present invention comprises:In a computed tomography apparatus having a detector composed of a plurality of detection elements arranged two-dimensionally in a slice direction and a channel direction orthogonal to the slice direction, the projection data obtained by the detection element is obtained in the slice direction. Is divided into projection angle groups equal to the number of detection elements, and 360 ° virtual projection data is interpolated from two projection data sandwiching the slice position for each group, and the virtual projection data is subjected to convolution calculation and back projection calculation. To obtain an intermediate image for each group, and combine the intermediate images to obtain a first tomographic image, and reconstruct the intermediate image at the second slice position for each group. To reconstruct the intermediate data at the first slice position for each group Means for obtaining a difference image for each group by performing convolution calculation and back projection calculation on the difference data from the projection data necessary for the above, and synthesizing the intermediate image and the difference image at the first slice position. Means for obtaining a second tomographic image at two slice positions.
[0016]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of a computer tomography apparatus according to the present invention will be described below with reference to the drawings. Here, the R / R method in which both the detector and the X-ray tube rotate, the so-called third-generation X-ray CT apparatus will be described. However, only the other generation, for example, the X-ray tube rotates and the detector is provided over 360 °. The present invention can be similarly applied to a stationary S / R system, so-called fourth generation X-ray CT apparatus.
[0017]
First, the principle of the present invention will be described.
Assume that the projection data is collected by continuous scanning at a fixed position or by helical scanning. First, projection data is defined with reference to FIG. For convenience of explanation, an X-ray detector array in which a plurality of detection elements are two-dimensionally arranged in a grid is arranged symmetrically with respect to a line connecting the X-ray tube focus and the rotation center (hereinafter referred to as a center line). However, the present invention can also be implemented in the same manner when arranged asymmetrically.
[0018]
Here, the direction perpendicular to the tomographic image (slice direction), that is, the moving direction of the subject is defined as the Z axis. The Z-axis direction of the multi-segment X-ray detector is referred to as a segment, and the direction orthogonal to the Z-axis is referred to as a channel. Furthermore, a set of projection data collected in all channels of one segment by one projection is referred to as a view. In FIG. 1, the number of segments is four, but any number of detectors can be used in the same manner as long as the number of segments is two or more.
[0019]
The segment number of the detector is u (u = 1 to 4). The opening angle of the X-ray beam fan is 2α, and the number of channels (number of detection elements) in one view is N (even number). Therefore, the beam opening angle Δα of one detection element is Δα = 2α / N. The rotation angle of X-rays between views is Δθ, and the number of views per 360 ° is M (even number). Therefore, M × Δθ = 360 °. The number in the slice direction (Z direction) of the detector is u, the view number in the same detector is m (1 or more), the number of the detection element is n (1 to N), and the projection data is D (u, m). , N). The angle formed by the center line of the mth view is referred to as a projection angle. Here, the projection angle of the mth view is m × Δθ. In the case of the helical scan, the distance that the bed moves between the views is d, and the position of the mth view (the position of the center line) is m × d. The total number of views for each scanned detection element u is MM. Therefore, the total number of views collected by the four detection elements is 4 × MM.
[0020]
Here, in order to simplify the explanation, M is an integer multiple of the number of segments (here, 4). However, the same operation can be performed when the number is not an integral multiple.
Next, the definition of the formula used in this specification will be described.
[0021]
Figure 0003748281
Performs a convolution operation on the data of n = 1 to N and the reconstruction function for a view of m = A, and performs a back projection operation on the projection angle of the view of m = A from m = A to B. Means to do. Hereinafter, this is described as follows for convenience.
[0022]
BP [CONV {D (m, n)}] (2)
: M = A to B
However, in this description, it is promised that the sum is taken only for the term including the variable m.
[0023]
[First Embodiment]
The first embodiment relates to reconstruction of a fixed position continuous scan, which is the third continuous scan described above.
[0024]
Let P (u, j) be an image reconstructed using the jth to (j + M) projection data of the u slice.
P (u, j) = BP [CONV {D (u, m, n)}] (3)
: M = j to (j + M-1)
Similarly, an image reconstructed using the (j + 1) th to (j + 1 + M) projection data of the u slice is P (u, j + 1).
[0025]
P (u, j + 1) = BP [CONV {D (u, m + 1, n)}] (4)
: M = j to (j + M-1)
ΔP (u, j) = P (u, j + 1) −P (u + j) (5)
Then, the following equation is obtained.
[0026]
P (u, j + 1) = P (u, j) + ΔP (u, j) (6)
Similarly, the following equation is obtained from equation (5).
P (u, j) = P (u, j + 1) −ΔP (u, j) (7)
In the equation (7), when j is replaced with j−1, the following equation is obtained.
[0027]
P (u, j-1) = P (u, j)-. DELTA.P (u, j-1) (8)
It can be seen from equation (7) that P (u, j + 1) is obtained from P (u, j) and ΔP (u, j). Therefore, ΔP (u, j) is obtained. Substituting Equation (3) and Equation (4) into Equation (5) yields the following equation.
[0028]
Figure 0003748281
Equation (9) can be rewritten as follows.
[0029]
Figure 0003748281
Here, as promised by equation (2), the sum is taken only for the second and third terms including the variable ma.
[0030]
Since the back projection angles of the first term and the fourth term in the equation (10) are the same, the equation (10) can be rewritten as follows, collectively in the BP · CONV.
[0031]
Figure 0003748281
Similarly, the following equation is obtained.
[0032]
Figure 0003748281
From equations (11) and (12), it can be seen that ΔP (u, j) and Δ (u, j−1) can be obtained by performing the convolution / backprojection operation on the difference data only once. From Equations (6) and (7), P (u, j + 1) and P (u, j-1) add ΔP (u, j) or ΔP (u, j-1) to P (u, j) It can be seen that it can be obtained by subtracting. Therefore, it can be seen that to obtain an image before and after P (u, j), only one convolution / back projection operation and addition / subtraction of images are required. In order to newly reconstruct P (u, j + 1) and P (u, j−1), M convolution / back projection operations are required. Since the convolution / back projection operation has a large amount of calculation, if this method is used, it is possible to reconstruct a continuous tomographic image with a very small amount of calculation compared to newly reconstructing.
[0033]
Next, the configuration of the first embodiment of the computed tomography apparatus according to the present invention based on such a principle will be described.
FIG. 2 is a block diagram showing a schematic configuration of the first embodiment of the present invention. The X-ray beam emitted from the X-ray tube 10 and transmitted through the subject 12 is detected by the detector array 14 that is two-dimensionally arranged in a grid as shown in FIG. Projection data obtained by the data collection unit 16 is supplied to the image reconstruction unit 18. The tomographic image reconstructed by the image reconstruction unit 18 is displayed by the display device 20 and stored in the image memory 22. The data collection unit 16, the image reconstruction unit 18, the display device 20, and the image memory 22 are connected to each other via a bus line 24. The bus line 24 is connected to a console 26 through which an operator inputs various instructions. The overall operation is controlled by a computer (not shown).
[0034]
FIG. 3 is a block diagram showing a schematic configuration of the image reconstruction unit 18 in FIG. The projection data is supplied to the preprocessing circuit 30, and the output of the preprocessing circuit 30 is stored in the raw data memory 32. The output of the raw data memory 32 is supplied to a convolution (CONV) arithmetic circuit 42. Further, a difference view is created from the output of the raw data memory 32 by the difference circuit 36 and supplied to the convolution operation circuit 42. The preprocessing circuit 30, the raw data memory 32, and the difference circuit 36 are controlled by the CPU 34. An instruction from the console 26 is input to the CPU 34.
[0035]
A back projection (BP) arithmetic circuit 44 back projects the output of the convolution arithmetic circuit 42 to reconstruct a tomographic image or a differential image. The difference image is supplied to the difference image memory 46. The output of the difference image memory 46 is supplied to the image composition circuit 48, and the image is reconstructed and supplied to the tomographic image memory 54.
[0036]
On the other hand, when the tomographic image is reconstructed by the back projection arithmetic circuit 44, the tomographic image is supplied to the tomographic image memory 54. The convolution operation circuit 42, the back projection operation circuit 44, the difference image memory 46, and the image composition circuit 48 are controlled by the CPU 56. A constant setting unit 58 is connected to the back projection arithmetic circuit 44. The output of the tomographic image memory 54 is supplied to the display device 20.
[0037]
The operation of the first embodiment will be described with reference to the flowcharts shown in FIGS.
In step # 10, continuous scanning at a fixed position is performed to collect projection data. The projection data is preprocessed by the preprocessing circuit 30 and then stored in the raw data memory 32.
[0038]
When the scan is completed or a certain amount of raw data is collected, the number j of the image to be reconstructed is designated in step # 20. Here, since dynamic scanning is performed, the image number indicates the shooting timing.
[0039]
In step # 25, necessary initialization is performed.
In step # 30, u = 1.
In step # 35, the j-th image P (u, j) is reconstructed based on the equation (3).
[0040]
In step # 40, this image is displayed. In this case, for example, as shown in FIG. 6, an image is displayed at a position corresponding to the detection element number u.
In step # 45, u ← u + 1 is set.
[0041]
In step # 47, it is determined whether u ≦ 4. If yes, go back to step # 35, if no, go to step # 48.
In step # 48, u = 1 is set.
[0042]
In step # 50, the direction of the next image to be reconstructed is determined. The direction is selected by instructing the changing direction of the image number j using, for example, a three-point switch. If the switch is neutral, wait until either direction is indicated. If it is instructed to change j in the minus direction, the process proceeds to step # 52. If it is instructed to change j in the plus direction, the process proceeds to step # 73.
[0043]
If the minus direction is selected in step # 50, ΔP (u, j−1) is reconstructed based on equation (12) in step # 52.
In step # 55, the image P (u, j-1) at the previous timing is reconstructed based on the equation (8).
[0044]
In step # 60, the image P (u, j-1) reconstructed in step # 55 is displayed in the same manner as in step # 40.
In step # 65, u ← u + 1 is set.
[0045]
In step # 68, it is determined whether u ≦ 4. If yes, return to step # 52; if no, proceed to step # 70.
In step # 70, 1 is subtracted from j, and the process returns to step # 48.
[0046]
If the plus direction is selected in step # 50, the image ΔP (u, j) is reconstructed based on equation (11) in step # 72.
In step # 75, the image P (u, j + 1) at the next timing is reconstructed based on the equation (6).
[0047]
In step # 80, the image P (u, j + 1) reconstructed in step # 75 is displayed in the same manner as in step # 40.
In step # 85, u ← u + 1 is set.
[0048]
In step # 88, it is determined whether u ≦ 4. If yes, return to step # 72; if no, proceed to step # 80.
In step # 80, j ← j + 1 is set, and the process returns to step # 48.
[0049]
By repeating the above operation, while continuously changing j, a plurality of images that are temporally different from each other according to equations (12) and (8) or (11) and (6) are continuously reproduced. Constitute. The change direction of j may be changed in step # 50, or the change of j may be terminated.
[0050]
As described above, according to the first embodiment, the initial tomographic image is reconstructed as usual by performing convolution calculation and back projection calculation on the projection data at 360 ° of the slice position. The difference image is obtained by convolution calculation and back projection calculation of the difference between the data used when reconstructing the first tomogram and the data necessary for normal reconstruction of the tomogram to be reconstructed this time. Since the image is reconstructed by combining (adding) to the already reconstructed tomographic image, a large number of tomographic images can be reconstructed in a short time, and a large number of images with different imaging times can be continuously obtained. And can be reconfigured.
[0051]
A modification of the first embodiment will be described.
In the above description, the difference image is obtained and the difference image is synthesized with the already reconstructed tomographic image. However, the difference image may not be obtained. Convolution calculation and back projection in the form that the difference between the data used when reconstructing the tomographic image already obtained and the data necessary for normal reconstruction of the tomographic image reconstructed this time is superimposed on the already obtained tomographic image The current tomographic image may be obtained by calculation. In this case, the (j + 1) th image P (u, j + 1) and the (j−1) th image P (u, j−1) are respectively expressed as follows.
[0052]
Figure 0003748281
In order to improve the image quality, a recursive filter means disclosed in Japanese Patent Application No. 6-181120 may be used.
[0053]
The typical example in which the continuous reconstruction is performed for each u-th slice in the multi-segment method has been described above. In the case of multi-segment continuous scanning at a fixed position here, any continuous reconstruction method including 360 ° interpolation method and 180 ° interpolation method is applied as continuous reconstruction processing for each slice (uth slice). Also good.
[0054]
[Second Embodiment]
The second embodiment relates to a helical scan 360 ° interpolation method. First, the principle will be described.
[0055]
FIG. 7 shows the projection angle of the view and the position in the Z direction in the multi-segment helical scan. The scan start position, that is, the position of the detection element with u = 1 in the first projection (projection angle = 0 °) is set to Z = 0. The position of the detection element of u = 1 where the projection angle after one rotation = 0 °, that is, Z = M × d is set as the position of the first slice. The projection data at this position is D (1, M + 1, n). Let the tomographic image at the position of the first slice be P (1). Hereinafter, a tomographic image at a position of Z = {M + (j−1)} × d is P (j).
[0056]
As shown in FIG. 7, 360 ° projection data is divided into 4 groups (Gr 1, Gr 2, Gr 3, Gr 4) every 360 ° / 4 (number of segments) = 90 °. Only the group Gr1 is extracted from FIG. 7 and shown in FIG. The projection data of the group Gr1 obtained by assigning a new view number to this view and rearranging the views as shown in FIG. 9 is defined as D1 (g1, n) (g1 = 1 to MM). .
[0057]
FIG. 9 is called a sinogram, in which the horizontal axis represents detection element numbers (channel numbers) n (1 to N) and the vertical axis represents view numbers (projection numbers) m (1 to MM). FIG. A collection of projection data belonging to the same projection number, that is, a horizontal line of the sinogram constitutes a view.
[0058]
Similarly, FIGS. 10, 12 and 14 show only Gr2, Gr2 and Gr4 extracted from FIG. The projection data of the groups Gr2, Gr3, and Gr4 obtained by reassigning the view numbers to these views and rearranging them as shown in FIGS. 11, 13, and 15 are respectively D2 (g2, n) (g2 = 1 to MM), D3 (g3, n) (g3 = 1 to MM), D4 (g4, n) (g4 = 1 to MM).
[0059]
In order to reconstruct a tomographic image, 360 ° projection data is required, but in the helical scan, there is no 360 ° projection data at the slice position as shown in FIG. Therefore, in the 360 ° interpolation method, a virtual view at the slice position is created by interpolating two pieces of projection data at the same projection angle sandwiching the slice position.
[0060]
The virtual projection data of the image P (j) is converted into DF1 (j, g1, n), DF2 (j, g2, n), DF3 (j, g3, n), DF4 (j, g4, n) for each group. Then, the projection data regarding the image P (1) is as follows.
[0061]
Figure 0003748281
here,
g1 = {(3 * M / 4) +1} to M
n = 1 to N
W11 and W12 are interpolation coefficients and are expressed by the following equations.
[0062]
W11 (g1) = 4 × {g1− (3 × M / 4) −1} / M
W12 (g1) = 1-W11 (g1)
Similarly, the projection data relating to the image P (2) is as follows.
[0063]
It is.
Figure 0003748281
here,
g2 = {(M / 2) +1} to (3 * M / 4)
n = 1 to N
W21 and W22 are interpolation coefficients and are expressed by the following equations.
[0064]
W21 (g2) = 4 * {g2-(M / 2) -1} / M
W22 (g2) = 1-W21 (g2)
Similarly, the projection data related to the image P (3) is as follows.
[0065]
Figure 0003748281
here,
g3 = {(M / 4) +1} to (M / 2)
n = 1 to N
W31 and W32 are interpolation coefficients and are expressed by the following equations.
[0066]
W31 (g3) = 4 * {g3-(M / 4) -1} / M
W32 (g3) = 1-W31 (g3)
Further, the projection data relating to the image P (4) is as follows.
[0067]
Figure 0003748281
here,
g4 = 1 to (M / 4)
n = 1 to N
W41 and W42 are interpolation coefficients and are expressed by the following equations.
[0068]
W41 (g4) = 4 * (g4-1) / M
W42 (g4) = 1-W41 (g4)
When this is rewritten into a general form, virtual projection data for each group relating to the image P (j) is expressed as follows.
[0069]
Figure 0003748281
here,
g1 = {(3 * M / 4) + j} to (M + j-1)
n = 1 to N
W11 and W12 are interpolation coefficients and are expressed by the following equations.
[0070]
W11 (g1) = 4 × {g1− (3 × M / 4) −j} / M
W12 (g1) = 1-W11 (g1)
Also,
Figure 0003748281
here,
g2 = [4 * {(M / 2) + j}] to {(3 * M / 4) + j-1}
n = 1 to N
W21 and W22 are interpolation coefficients and are expressed by the following equations.
[0071]
W21 (g2) = {g2- (M / 2) -j} / M
W22 (g2) = 1-W21 (g2)
further,
Figure 0003748281
here,
g3 = [4 * {(M / 4) + j}] to {(M / 2) + j-1}
n = 1 to N
W31 and W32 are interpolation coefficients and are expressed by the following equations.
[0072]
W31 (g3) = {g3-(M / 4) -j} / M
W32 (g3) = 1-W31 (g3)
further,
Figure 0003748281
here,
g4 = j to {(M / 4) + j-1}
n = 1 to N
W41 and W42 are interpolation coefficients and are expressed by the following equations.
[0073]
W41 (g4) = 4 × (g4 -j) / M
W42 (g4) = 1-W41 (g4)
The image P (j) can be reconstructed by performing convolution calculation and back projection calculation on the virtual projection data. At this time, if the back projection angles for the groups Gr1, Gr2, Gr3, and Gr4 are θ1, θ2, θ3, and θ4, respectively, θ1, θ2, θ3, and θ4 are expressed as follows.
[0074]
(1) When 0 ° ≦ θ1 <90 °:
θ1 = {g1− (3 × 4 / M) −1} × Δθ (109)
However, if k × 90 ° ≦ θ1 <(k + 1) × 90 °
θ1 ← θ1 − (k × 90 °)
(2) When 90 ° ≦ θ2 <180 °:
θ2 = {g2− (M / 2) −1} × Δθ + 90 ° (110)
However, if k × 180 ° ≦ θ2 <(k + 1) × 180 °
θ2 ← θ2 − (k × 180 °)
(3) When 180 ° ≦ θ3 <270 °:
θ3 = {g3− (M / 4) −1} × Δθ + 180 ° (111)
However, if k × 180 ° ≦ θ3 <(k + 1) × 180 °
θ3 ← θ3 − (k × 180 °)
(4) For 270 ° ≦ θ4 <360 °:
θ4 = (g4 −1) × Δθ + 270 ° (112)
However, if k × 270 ° ≦ θ4 <(k + 1) × 270 °
θ4 ← θ4 − (k × 270 °)
Here, the following intermediate images P1 (j), P2 (j), P3 (j), and P4 (j) are defined. The intermediate image is not an actual tomographic image but an image for explanation.
[0075]
Figure 0003748281
Therefore,
P (j) = P1 (j) + P2 (j) + P3 (j) + P4 (j) (117)
It becomes. Similarly,
Figure 0003748281
It becomes.
[0076]
here,
ΔP1 (j) = P1 (j + 1) −P1 (j) (120)
ΔP2 (j) = P2 (j + 1) −P2 (j) (121)
ΔP3 (j) = P3 (j + 1) −P3 (j) (122)
ΔP4 (j) = P4 (j + 1) −P4 (j) (123)
Then, the following equation is obtained.
[0077]
P1 (j + 1) = P1 (j) + ΔP1 (j) (124)
P2 (j + 1) = P2 (j) +. DELTA.P2 (j) (125)
P3 (j + 1) = P3 (j) +. DELTA.P3 (j) (126)
P4 (j + 1) = P4 (j) +. DELTA.P4 (j) (127)
Similarly, the following equation is obtained from equations (120) to (123).
[0078]
P1 (j) = P1 (j + 1)-. DELTA.P1 (j) (128)
P2 (j) = P2 (j + 1)-. DELTA.P2 (j) (129)
P3 (j) = P3 (j + 1)-. DELTA.P3 (j) (130)
P4 (j) = P4 (j + 1)-. DELTA.P4 (j) (131)
When j in the equations (128) to (131) is replaced with j-1, the following equation is obtained.
[0079]
P1 (j-1) = P1 (j)-. DELTA.P1 (j-1) (132)
P2 (j-1) = P2 (j)-. DELTA.P2 (j-1) (133)
P3 (j-1) = P3 (j)-. DELTA.P3 (j-1) (134)
P4 (j-1) = P4 (j)-. DELTA.P4 (j-1) (135)
From the equation (128), it can be seen that P1 (j + 1) is obtained from P1 (j) and ΔP1 (j). Therefore, ΔP1 (j) is obtained. The following equation is obtained from the equations (120) and (113).
[0080]
Figure 0003748281
Equation (136) can be rewritten as follows.
[0081]
Figure 0003748281
The back projection angles of the first term and the fourth term of the expression (137) are the same. Also, since the back projection angles of each g1 in the second term and the third term are the same, equation (137) can be rewritten as follows.
[0082]
Figure 0003748281
The term inside the first term of the equation (138) can be rewritten from the equation (105) as follows.
[0083]
Figure 0003748281
Then, equation (139) is as follows.
[0084]
Figure 0003748281
The term inside the second term of the equation (139) can be rewritten from the equation (105) as follows.
[0085]
Figure 0003748281
here,
g1 = {(3 * M / 4) + j + 1} to (M + j-1)
Substituting the formulas (140) and (141) into the formula (138) gives the following formula.
[0086]
ΔP1 (j)
Figure 0003748281
Equation (142) can be rewritten as the following equation.
[0087]
Figure 0003748281
here,
Figure 0003748281
Similarly, the following equation is obtained.
[0088]
ΔP2 (j) = ΔW × P2A (j) (145)
ΔP3 (j) = ΔW × P3A (j) (146)
ΔP4 (j) = ΔW × P4A (j) (147)
here,
Figure 0003748281
Similarly, the following equation is obtained.
[0089]
ΔP1 (j−1) = ΔW × P1A (j−1) (151)
ΔP2 (j−1) = ΔW × P2A (j−1) (152)
ΔP3 (j−1) = ΔW × P3A (j−1) (153)
ΔP4 (j−1) = ΔW × P4A (j−1) (154)
next,
ΔP1A (j) = P1A (j + 1) −P1A (j) (155)
ΔP2A (j) = P2A (j + 1) −P2A (j) (156)
ΔP3A (j) = P3A (j + 1) −P3A (j) (157)
ΔP4A (j) = P4A (j + 1) −P4A (j) (158)
Then, the following equation is obtained.
[0090]
P1A (j + 1) = P1A (j) + ΔP1A (j) (159)
P2A (j + 1) = P2A (j) + ΔP2A (j) (160)
P3A (j + 1) = P3A (j) + ΔP3A (j) (161)
P4A (j + 1) = P4A (j) + ΔP4A (j) (162)
Similarly, the following equation is obtained from equations (155) to (158).
[0091]
P1A (j) = P1A (j + 1)-. DELTA.P1A (j) (163)
P2A (j) = P2A (j + 1)-. DELTA.P2A (j) (164)
P3A (j) = P3A (j + 1)-. DELTA.P3A (j) (165)
P4A (j) = P4A (j + 1)-. DELTA.P4A (j) (166)
When j is replaced with j−1 in the equations (163) to (166), the following equation is obtained.
[0092]
P1A (j-1) = P1A (j)-. DELTA.P1A (j-1) (167)
P2A (j-1) = P2A (j)-[Delta] P2A (j-1) (168)
P3A (j-1) = P3A (j)-[Delta] P3A (j-1) (169)
P4A (j-1) = P4A (j)-[Delta] P4A (j-1) (170)
Next, ΔP1A (j) is obtained. The following equation is obtained from the equations (155) and (144).
[0093]
Figure 0003748281
Equation (171) can be rewritten as follows.
[0094]
Figure 0003748281
The back projection angles of the first term and the fourth term of the equation (172) are the same. Therefore, the equation (172) can be summarized as follows.
[0095]
Figure 0003748281
Similarly, the following equation is obtained.
[0096]
Figure 0003748281
Similarly, the following equation is obtained.
[0097]
Figure 0003748281
As described above, also in the second embodiment, the image P (j + 1) or P (j−1) adjacent to the already reconstructed image P (j) can be continuously reconstructed. Recognize.
[0098]
Equations (113) to (117) for obtaining intermediate images P1 (j) to P4 (j) necessary for obtaining the jth image P (j) need to be subjected to convolution calculation and back projection calculation M times. is there.
[0099]
However, the equations (173) to (176) for obtaining the difference images ΔP1A (j), ΔP2A (j), ΔP3A (j), ΔP4A (j) require only one convolution operation and back projection operation. Therefore, in order to obtain the image P (j + 1) or P (j-1) continuously, four times of convolution calculation and back projection calculation are required.
[0100]
In general, when the number of segments is Ns, in order to continuously reconstruct the image P (j + 1) or the image P (j−1) from the image P (j), Ns convolution operations and back projection operations are performed. is necessary.
[0101]
Calculations other than the convolution calculation and the back projection calculation have a very small calculation amount compared to the convolution calculation and the back projection calculation. Therefore, the total calculation amount is substantially determined by the number of convolution calculations and back projection calculations. Since M (the number of views per 360 °) is usually much larger than 4, it can be seen that the reconstruction according to the present embodiment has a very small amount of calculation compared to the equations (113) to (117).
[0102]
The above description is summarized below. As for the number of the formula, the left side of / indicates the number used in the above description, and the right side indicates a new number re-assigned for the sake of organization.
Number of detecting element in slice direction (Z direction): u (u = 1 to 4)
Fan opening angle: 2α
Number of data per view: N (even number), Δα = 2α / N
Angle between views: Δθ
Number of views per 360 °: M, M × Δθ = 360 °
Number of views in the same detection element: m (1 to)
Number of detecting element: n (1 to N)
Projection data: D (u, m, n)
Projection angle of the mth view: m × Δθ
Sleeper travel distance (between views): d
Position of the mth view: m × d
Total number of views per scanned detection element u: MM
Total number of views: 4 x MM
Group 1 projection data: D1 (g1, n) where g1 = 1 to MM
Group 2 projection data: D2 (g2, n) where g2 = 1 to MM.
Group 3 projection data: D3 (g1, n) where g3 = 1 to MM
Projection data of group 4: D4 (g1, n) where g4 = 1 to MM
Figure 0003748281
here,
g1 = {(3 * M / 4) + j} to (M + j-1)
n = 1 to N
W11 and W12 are interpolation coefficients and are expressed by the following equations.
[0103]
Figure 0003748281
here,
g2 = [4 * {(M / 2) +1}] to {(3 * M / 4) + j-1}
n = 1 to N
W21 and W22 are interpolation coefficients and are expressed by the following equations.
[0104]
Figure 0003748281
here,
g3 = [4 * {(M / 4) +1}] to {(M / 2) + j-1}
n = 1 to N
W31 and W32 are interpolation coefficients and are expressed by the following equations.
[0105]
Figure 0003748281
here,
g4 = j to {(M / 4) + j-1}
n = 1 to N
W41 and W42 are interpolation coefficients and are expressed by the following equations.
[0106]
W41 (g4) = 4 × (g4 -j) / M
W42 (g4) = 1-W41 (g4)
θ1 = {g1− (3 × 4 / M) −1} × Δθ (109) / (205)
(When 0 ° ≦ θ1 <90 °, but when k × 90 ° ≦ θ1 <(k + 1) × 90 °, θ1 ← θ1− (k × 90 °))
θ2 = {g2− (M / 2) −1} × Δθ + 90 ° (110) / (206)
(When 90 ° ≦ θ2 <180 °, but when k × 180 ° ≦ θ2 <(k + 1) × 180 °, θ2 ← θ2− (k × 180 °))
θ3 = {g3− (M / 4) −1} × Δθ + 180 ° (111) / (207)
(When 180 ° ≦ θ3 <270 °, but when k × 180 ° ≦ θ3 <(k + 1) × 180 °, θ3 ← θ3− (k × 180 °))
θ4 = (g4 −1) × Δθ + 270 ° (112) / (208)
(When 270 ° ≦ θ4 <360 °, but when k × 270 ° ≦ θ4 <(k + 1) × 270 °, θ4 ← θ4− (k × 270 °))
Figure 0003748281
P2 (j + 1) = P2 (j) +. DELTA.P2 (j) (125) / (217)
P3 (j + 1) = P3 (j) + ΔP3 (j) (126) / (218)
P4 (j + 1) = P4 (j) + ΔP4 (j) (127) / (219)
P1 (j-1) = P1 (j)-. DELTA.P1 (j-1) (132) / (220)
P2 (j-1) = P2 (j)-. DELTA.P2 (j-1) (133) / (221)
P3 (j-1) = P3 (j)-. DELTA.P3 (j-1) (134) / (222)
P4 (j-1) = P4 (j)-. DELTA.P4 (j-1) (135) / (223)
ΔP1 (j) = ΔW × P1A (j) (143) / (224)
ΔP2 (j) = ΔW × P2A (j) (145) / (225)
ΔP3 (j) = ΔW × P3A (j) (146) / (226)
ΔP4 (j) = ΔW × P4A (j) (147) / (227)
here,
Figure 0003748281
ΔP2 (j−1) = ΔW × P2A (j−1) (152) / (233)
ΔP3 (j−1) = ΔW × P3A (j−1) (153) / (234)
ΔP4 (j−1) = ΔW × P4A (j−1) (154) / (235)
P1A (j + 1) = P1A (j) + ΔP1A (j) (159) / (236)
P2A (j + 1) = P2A (j) + ΔP2A (j) (160) / (247)
P3A (j + 1) = P3A (j) + ΔP3A (j) (161) / (238)
P4A (j + 1) = P4A (j) + ΔP4A (j) (162) / (239)
P1A (j-1) = P1A (j)-[Delta] P1A (j-1) (167) / (240)
P2A (j-1) = P2A (j)-[Delta] P2A (j-1) (168) / (241)
P3A (j-1) = P3A (j)-[Delta] P3A (j-1) (169) / (242)
P4A (j-1) = P4A (j)-[Delta] P4A (j-1) (170) / (243)
Figure 0003748281
Figure 0003748281
Next, the configuration of the second embodiment of the computed tomography apparatus according to the present invention based on such a principle will be described. Parts corresponding to those in the first embodiment are denoted by the same reference numerals, and detailed description thereof is omitted.
[0107]
The schematic configuration of the present embodiment is the same as that shown in FIG. However, unlike the first embodiment, the image reconstruction unit 18 is configured as shown in FIG. The projection data is supplied to the preprocessing circuit 30, and the output of the preprocessing circuit 30 is stored in the raw data memory 32. Here, a storage address control circuit 62 is connected to the raw data memory 32, and projection data is stored for each group as shown in FIG. 9, FIG. 11, FIG. 13, and FIG. The output of the raw data memory 32 is supplied to the convolution (CONV) arithmetic circuit 42 via the virtual view creation circuit 61 or directly. The preprocessing circuit 30, the storage address control circuit 62, the raw data memory 32, and the virtual view creation circuit 61 are controlled by the CPU. An instruction from the console 26 is input to the CPU 34.
[0108]
The output of the convolution operation circuit 42 is supplied to the difference image memory 63 and the intermediate image memories 66 and 70 via the back projection (BP) operation circuit 44. The difference image memory 63 stores ΔPiA (j). Here, i = 1 to 4. The intermediate image memory 66 stores PiA (j), and the intermediate image memory 70 stores Pi (j). The output of the difference image memory 63 is supplied to the intermediate image memory 66 via the image composition circuit 64. The output of the intermediate image memory 66 is supplied to the image composition circuit 67, and the image is synthesized by ΔPi = ΔW × PiA. The output of the image composition circuit 67 is supplied to the difference image memory 68. The output of the difference image memory 68 is supplied to the image composition circuit 69, and the image is synthesized by Pi (j + 1) = Pi (j) + ΔPi (j). The output of the image composition circuit 69 is supplied to the intermediate image memory 70. The output of the intermediate image memory 70 is supplied to the image composition circuit 71, and a tomogram is reconstructed by P = P1 + P2 + P3 + P4, and supplied to the tomogram memory 54 and stored therein. The convolution operation circuit 42, the back projection operation circuit 44, the difference image memories 63 and 68, the image composition circuits 64, 67, 69 and 71, and the intermediate image memories 66 and 70 are controlled by the CPU 56. A constant setting unit 58 is connected to the back projection arithmetic circuit 44. The output of the tomographic image memory 54 is supplied to the display device 20 and displayed as an image.
[0109]
The operation of the second embodiment will be described with reference to the flowcharts shown in FIGS. The subscript i of each image in the flowchart is 1 to 4.
In step # 110, a helical scan is performed to collect projection data, and the projection data is preprocessed by the preprocessing circuit 30, and then, as shown in FIGS. 9, 11, 13, and 15, a raw data memory for each group. 32.
[0110]
In step # 120, the number j of the image to be reconstructed is designated. Here, the image number indicates the position of the slice.
In step # 125, necessary initialization is performed.
[0111]
When the scan is completed or a certain amount of raw data is collected, in step # 128, the virtual data DF1 (j, g1, n), DF2 (360 °) for 360 ° is calculated based on the equations (201) to (204). j, g2, n), DF3 (j, g3, n), and DF4 (j, g4, n) are created.
[0112]
In step # 130, the virtual data for 360 ° is sequentially sent to the images P1 (j), P2 (j), P3 based on the equations (209) to (212) via the convolution operation circuit 42 and the back projection operation circuit 44. (J), P4 (j) are reconstructed and stored in the intermediate image memory 70.
[0113]
In step # 135, the image composition circuit 71 reconstructs the jth image P (j) based on the equation (213) and stores it in the tomographic image memory 54.
In step # 140, this image is displayed.
[0114]
In step # 145, the intermediate images P1A (j), P2A (j), P3A (j), and P4A (j) are reconstructed based on the convolution calculation and the back projection calculation based on the expressions (228) to (231). Stored in the intermediate image memory 66.
[0115]
In step # 150, the direction of the image to be reconstructed next is determined. The direction is selected by instructing the changing direction of the image number j using, for example, a three-point switch. If the switch is neutral, wait until either direction is indicated. If it is instructed to change j in the minus direction, the process proceeds to step # 155, and if it is instructed to change j in the plus direction, the process proceeds to step # 175.
[0116]
If the negative direction is selected in step # 150, ΔP1A (j−1), ΔP2A (j−1), ΔP3A (j−1), based on equations (248) to (251) in step # 155, Reconstruct ΔP4A (j-1).
[0117]
In step # 156, P1A (j-1), P2A (j-1), P3A (j-1), and P4A (j-1) are reconfigured based on the equations (240) to (243).
In step # 157, .DELTA.P1 (j-1), .DELTA.P2 (j-1), .DELTA.P3 (j-1) and .DELTA.P4 (j-1) are reconfigured based on the equations (232) to (235).
[0118]
In step # 158, P1 (j-1), P2 (j-1), P3 (j-1), and P4 (j-1) are reconfigured based on the equations (220) to (223).
In step # 159, the image P (j-1) at the previous slice position is reconstructed based on the equation (215).
[0119]
In step # 160, the image P (j-1) reconstructed in step # 159 is displayed.
In step # 170, 1 is subtracted from j, and the process returns to step # 150.
[0120]
If the plus direction is selected in step # 150, ΔP1 (j), ΔP2 (j), ΔP3 (j), ΔP4 (j) are re-calculated based on equations (224) to (227) in step # 175. Constitute.
[0121]
In step # 176, P1 (j + 1), P2 (j + 1), P3 (j + 1), and P4 (j + 1) are reconfigured based on the equations (216) to (219).
In step # 177, ΔP1A (j), ΔP2A (j), ΔP3A (j), and ΔP4A (j) are reconfigured based on the equations (244) to (247).
[0122]
In step # 178, P1A (j + 1), P2A (j + 1), P3A (j + 1), and P4A (j + 1) are reconfigured based on the equations (236) to (239).
In step # 179, the image P (j + 1) at the next slice position is reconstructed based on the equation (214).
[0123]
In step # 180, the image P (j + 1) reconstructed in step # 179 is displayed.
In step # 190, 1 is added to j, and the process returns to step # 150.
[0124]
By repeating the above operation, a plurality of adjacent images are continuously reconstructed while continuously changing j. The change direction of j may be changed in step # 150, or the change of j may be terminated.
[0125]
As described above, according to the second embodiment, the first tomographic image is reconstructed as usual by performing a convolution operation and a back projection operation on the virtual view obtained by interpolating the projection data. The difference between the data used when reconstructing the first tomographic image and the data necessary for normal reconstruction of the tomographic image to be reconstructed this time is obtained by convolution and backprojection. Since the difference image is reconstructed by combining (adding) to the already reconstructed tomographic image, a large number of tomographic images can be reconstructed in a short time, and a large number of images with different imaging locations Can be reconstructed continuously.
The present invention is not limited to the above-described embodiments, and can be implemented with various modifications.
[0126]
【The invention's effect】
As described above, according to the present invention, a large number of tomographic images can be reconstructed in a short time from a large amount of projection data obtained by continuous scanning or helical scanning, and the storage capacity of data necessary for reconstruction is reduced. A computer tomography apparatus that can be suppressed is provided.
[Brief description of the drawings]
FIG. 1 is a diagram showing the configuration of a multi-segment detector used in a computed tomography apparatus according to the present invention.
FIG. 2 is a block diagram showing the overall configuration of the first embodiment of the computed tomography apparatus according to the present invention.
FIG. 3 is a block diagram showing a detailed configuration of an image reconstruction unit in FIG. 2;
FIG. 4 is a flowchart showing the operation of the first embodiment.
FIG. 5 is a flowchart showing the operation of the first embodiment following FIG. 4;
FIG. 6 is a diagram showing an example of display according to the first embodiment.
FIG. 7 is a view showing a positional relationship between a projection angle of a view and a Z direction according to the second embodiment of the present invention.
8 is a diagram showing only group 1 extracted from FIG. 7 and given a new view number.
FIG. 9 is a sinogram obtained by rearranging the data of FIG.
10 is a diagram showing only group 2 extracted from FIG. 7 and given a new view number.
11 is a sinogram obtained by rearranging the data of FIG.
12 is a diagram showing only group 3 extracted from FIG. 7 and given a new view number.
FIG. 13 is a sinogram obtained by rearranging the data of FIG.
14 is a diagram showing only group 4 extracted from FIG. 7 and given a new view number.
FIG. 15 is a sinogram obtained by rearranging the data of FIG.
FIG. 16 is a block diagram showing a detailed configuration of an image reconstruction unit in the second embodiment.
FIG. 17 is a flowchart showing the operation of the second embodiment.
FIG. 18 is a flowchart showing the operation of the second embodiment following FIG. 17;
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 10 ... X-ray tube, 12 ... Subject, 14 ... Detector array, 16 ... Data acquisition part, 18 ... Image reconstruction part, 20 ... Display apparatus, 22 ... Image memory, 26 ... Console.

Claims (1)

スライス方向とそれに直交するチャンネル方向に2次元的に配列された複数の検出素子からなる検出器を具備し、ヘリカルスキャンを行うコンピュータ断層撮影装置において、In a computer tomography apparatus that includes a detector composed of a plurality of detection elements arranged two-dimensionally in a slice direction and a channel direction orthogonal to the slice direction, and performs a helical scan,
前記検出素子により得られた投影データをスライス方向の検出素子数と等しい数の投影角度グループに分割し、各グループ毎にスライス位置を挟む2つの投影データから360°の仮想投影データを補間し、該仮想投影データをコンボリューション演算、バックプロジェクション演算することにより各グループ毎の中間画像を得て、該中間画像を合成することにより第1の断層像を求める第1の再構成手段と、  The projection data obtained by the detection element is divided into a number of projection angle groups equal to the number of detection elements in the slice direction, and 360 ° virtual projection data is interpolated from two projection data sandwiching the slice position for each group, A first reconstruction unit that obtains an intermediate image for each group by performing a convolution operation and a back projection operation on the virtual projection data, and obtaining a first tomographic image by combining the intermediate images;
各グループ毎の第2スライス位置における中間画像を再構成するために必要な投影データと各グループ毎の第1スライス位置における中間画像を再構成するために必要な投影データとの差分データをコンボリューション演算、バックプロジェクション演算して各グループ毎の差分画像を求める手段と、  Convolution of difference data between projection data necessary for reconstructing the intermediate image at the second slice position for each group and projection data necessary for reconstructing the intermediate image at the first slice position for each group Means for calculating a difference image for each group by calculating and back projecting,
前記第1スライス位置における中間画像と前記差分画像を合成することにより前記第2スライス位置における第2の断層像を求める手段と、  Means for obtaining a second tomographic image at the second slice position by combining the intermediate image at the first slice position and the difference image;
を具備するコンピュータ断層撮影装置。  A computer tomography apparatus comprising:
JP20704795A 1995-08-14 1995-08-14 Computed tomography equipment Expired - Fee Related JP3748281B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP20704795A JP3748281B2 (en) 1995-08-14 1995-08-14 Computed tomography equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP20704795A JP3748281B2 (en) 1995-08-14 1995-08-14 Computed tomography equipment

Publications (2)

Publication Number Publication Date
JPH0951891A JPH0951891A (en) 1997-02-25
JP3748281B2 true JP3748281B2 (en) 2006-02-22

Family

ID=16533332

Family Applications (1)

Application Number Title Priority Date Filing Date
JP20704795A Expired - Fee Related JP3748281B2 (en) 1995-08-14 1995-08-14 Computed tomography equipment

Country Status (1)

Country Link
JP (1) JP3748281B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4346677B2 (en) * 1997-09-09 2009-10-21 株式会社東芝 X-ray CT system

Also Published As

Publication number Publication date
JPH0951891A (en) 1997-02-25

Similar Documents

Publication Publication Date Title
US5825842A (en) X-ray computed tomographic imaging device and x-ray computed tomographic method
US5170439A (en) Cone beam reconstruction using combined circle and line orbits
JP4360817B2 (en) Radiation tomography equipment
US6628742B2 (en) Cardiac helical half scan reconstructions for multiple detector row CT
JP3950782B2 (en) Three-dimensional backprojection method and X-ray CT apparatus
IL116258A (en) Image reconstruction apparatus and method for helical scanning
JP2007000408A (en) X-ray ct apparatus
JPH08263638A (en) System and method for creation of tomographic image of object
KR20070054131A (en) X-ray ct apparatus
JP2009538205A (en) Dynamic computed tomography
JPH11253435A (en) Computed tomograph
US6339632B1 (en) Multi slice single filtering helical weighting method and apparatus to use the same
JPH1080419A (en) Method for reconstituting image in image reconstituting processor
JP4040873B2 (en) Computed tomography equipment
JPH07250832A (en) Method to create tomogram image
JP2009089810A (en) X-ray ct system
JP3917684B2 (en) Method and apparatus for creating a tomographic image of an object
JP3748281B2 (en) Computed tomography equipment
JPH09192126A (en) Image reconstitution processor
JP2001346794A (en) Multisilicing x-ray ct device
JP3636545B2 (en) Imaging condition calculation method and X-ray CT apparatus
WO2000062675A1 (en) Optimized ct protocol
JPH0767868A (en) Computer tomograph
JP4551612B2 (en) Computed tomography equipment
JP3285944B2 (en) Computer tomography equipment

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040430

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050418

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20051122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20051125

LAPS Cancellation because of no payment of annual fees