JP5737725B2 - Localization and highly limited image reconstruction methods - Google Patents

Localization and highly limited image reconstruction methods Download PDF

Info

Publication number
JP5737725B2
JP5737725B2 JP2013128305A JP2013128305A JP5737725B2 JP 5737725 B2 JP5737725 B2 JP 5737725B2 JP 2013128305 A JP2013128305 A JP 2013128305A JP 2013128305 A JP2013128305 A JP 2013128305A JP 5737725 B2 JP5737725 B2 JP 5737725B2
Authority
JP
Japan
Prior art keywords
image
image frame
acquired
space
projection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013128305A
Other languages
Japanese (ja)
Other versions
JP2013208504A (en
Inventor
エイ. ミストレッタ チャールズ
エイ. ミストレッタ チャールズ
ヴェリキナ ジュリア
ヴェリキナ ジュリア
マイケル ジョンソン ケビン
マイケル ジョンソン ケビン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wisconsin Alumni Research Foundation
Original Assignee
Wisconsin Alumni Research Foundation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wisconsin Alumni Research Foundation filed Critical Wisconsin Alumni Research Foundation
Publication of JP2013208504A publication Critical patent/JP2013208504A/en
Application granted granted Critical
Publication of JP5737725B2 publication Critical patent/JP5737725B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/006Inverse problem, transformation from projection-space into object-space, e.g. transform methods, back-projection, algebraic methods

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Algebra (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Physics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

An image reconstruction method includes reconstructing a composite image of a subject using a conventional reconstruction method. The composite image employs the best information available regarding the subject of the scan and this information is used to constrain the reconstruction of a highly undersampled image frames or improve the SNR of image frames. A blurred and normalized weighting image is produced from image frame data, and this normalized weighting image is multiplied by the composite image.

Description

(関連出願の相互参照)
本出願は、2007年2月19日付で出願された、発明の名称が「局所化および高度に限定された画像再構成法(Localized and Highly constrained Image Reconstruction Method)」の米国特許仮出願第60/901,728号に基づく。
(Cross-reference of related applications)
This application is filed on Feb. 19, 2007, and is entitled US Patent Provisional Application No. 60/60, entitled “Localized and Highly Constrained Image Reconstruction Method”. Based on 901,728.

(連邦政府の委託研究の記載)
本発明は、米国国立衛生研究所によって認められた認可番号第HL72260に基づいて、政府の支援でなされた。米国政府は、本発明に一定の権利を有する。
(Federal government commissioned study)
This invention was made with government support under grant number HL72260 approved by the National Institutes of Health. The US government has certain rights in the invention.

(発明の背景)
本発明の分野は、医用イメージング法であり、特に取得画像データから画像を再構成する方法である。
(Background of the Invention)
The field of the invention is medical imaging methods, in particular methods for reconstructing images from acquired image data.

磁気共鳴イメージング法(MRI)は、核磁気共鳴(NMR)現象を利用して画像を作成する。ヒト組織等の物質が均一な磁場(分極磁場B0)に晒されると、その組織内におけるスピンの個々の磁気モーメントは、この分極磁場によって整列しようとするが、その周囲ではそれらの固有のラーモア周波数で、でたらめな順序に歳差運動を行う。この物質すなわちこの組織が、x−y平面にあり、かつ、ラーモア周波数に近い磁場(励起磁場B1)に晒されると、ネット整列モーメントMzは、そのx−y平面に対して回転し、あるいは「傾いて」、ネット横磁気モーメントMtを作り出す。信号がその励起されたスピンによって出力され、励起信号B1が終了した後で、この信号が受信及び処理されて画像を形成することができる。 Magnetic resonance imaging (MRI) creates images using the nuclear magnetic resonance (NMR) phenomenon. When a substance such as human tissue is exposed to a uniform magnetic field (polarizing magnetic field B 0 ), the individual magnetic moments of the spins within the tissue attempt to align with this polarizing magnetic field, but around it their inherent Larmor Precess in random order with frequency. When this material or tissue is exposed to a magnetic field (excitation magnetic field B 1 ) in the xy plane and close to the Larmor frequency, the net alignment moment M z rotates with respect to the xy plane, Or “tilt” to create a net transverse magnetic moment M t . After the signal is output by the excited spin and the excitation signal B 1 is finished, this signal can be received and processed to form an image.

これらの信号を利用して画像を作成する際、磁場勾配(Gx、Gy、及びGz)が用いられる。典型的には、撮像すべき領域は、使用される特定の位置決定法に従ってこれらの勾配が変動する連続的な測定サイクルにより走査される。当業界では各測定を「ビュー(view)」と呼び、このビューの個数がその画像の品質を決定する。結果として生じる受信NMR信号またはビューまたはk空間サンプル数のセットはデジタル化され、処理されて、広く知られた多くの再構成技術の一つを用いて画像が再構成される。合計走査時間は、一部には、各測定サイクルの長さすなわち「パルスシーケンス」により、また一部には、一つの画像に対して取得される測定サイクル数またはビューの個数により決定される。所定の分解能とSNRのイメージに対する合計走査時間が重要である臨床用途は数多くあり、その結果、この目的を考慮に入れて多くの改良がなされてきた。 When creating an image using these signals, magnetic field gradients (G x , G y , and G z ) are used. Typically, the area to be imaged is scanned by successive measurement cycles in which these gradients vary according to the particular positioning method used. In the industry, each measurement is called a “view”, and the number of views determines the quality of the image. The resulting received NMR signal or set of views or k-space sample numbers is digitized and processed to reconstruct the image using one of many well-known reconstruction techniques. The total scan time is determined in part by the length of each measurement cycle or “pulse sequence” and in part by the number of measurement cycles or views acquired for an image. There are many clinical applications where the total scan time for a given resolution and SNR image is important, and as a result, many improvements have been made to take this objective into account.

MRAデータを取得するために投影再構成法を用いる研究が行われており、この方法は、米国特許第6,487,435号明細書に開示されているように再び使用されている。投影再構成法は、フーリエ・イメージング法で為されるような図2Aに示されている如き直線(デカルト)走査パターンでk空間をサンプリングするのではなく、図2Bに示されている如く、k空間の中央から外向きに伸びる半径方向の線をサンプリングする一連のビューを伴ってk空間をサンプリングする。k空間をサンプリングするのに必要なビューの個数は、その走査の長さを決定し、もし不十分な個数のビューが取得された場合には、その再構成画像にストリーク(streak)・アーチファクトが作成される。米国特許第6,487,435号明細書に開示されている技術は、連続的にアンダーサンプリングされた画像を、インタリーブビュー(interleaved view)で取得し、周囲のk空間データを連続画像間で共有することによって、このようなストリーキング(streaking)を低減している。   Work has been done using projection reconstruction methods to acquire MRA data, and this method has been used again as disclosed in US Pat. No. 6,487,435. The projection reconstruction method does not sample k-space with a linear (Cartesian) scan pattern as shown in FIG. 2A as is done in the Fourier imaging method, but as shown in FIG. Sample k-space with a series of views that sample radial lines extending outwardly from the center of the space. The number of views required to sample the k-space determines the length of the scan, and if an insufficient number of views are acquired, streak artifacts are present in the reconstructed image. Created. The technique disclosed in US Pat. No. 6,487,435 obtains continuously undersampled images in an interleaved view and shares surrounding k-space data between successive images. By doing so, such streaking is reduced.

コンピュータ断層撮影(「CT」)システムでは、X線源が扇形ビームを投影し、そのビームが、「撮像平面」と呼ばれるデカルト座標系のX−Y平面の内部に位置するように平行化(コリメート)される。このX線ビームは、医療患者のような撮像対象を透過して放射線検出器アレイに衝突する。透過放射線の強度はその対象によるX線ビームの減衰量に依存し、また、それぞれの検出器は、ビーム減衰量の測定値である個別電気信号を作成する。全ての検出器からの減衰量測定値は、いわゆる「透過プロファイル」を作成するために個別に取得される。   In a computed tomography (“CT”) system, an X-ray source projects a fan beam and is collimated (collimated) so that the beam lies within the XY plane of a Cartesian coordinate system called the “imaging plane”. ) The X-ray beam passes through an imaging target such as a medical patient and strikes the radiation detector array. The intensity of the transmitted radiation depends on the attenuation of the X-ray beam by the object, and each detector produces a separate electrical signal that is a measurement of the beam attenuation. The attenuation measurements from all detectors are obtained individually to create a so-called “transmission profile”.

従来のCTシステムにおけるX線源および検出器アレイは、X線ビームがその対象に交差する角度が常に変化するように、撮像平面の内部および対象の周りにおいてガントリーの上を回転する。所与角度における検出器アレイからの透過プロファイルは、対象の「ビュー(view)」および「走査(scan)」と呼ばれており、X線源および検出器の一回転の間における相異なる角度方位で作られた1セットのビューを含んでなる。2次元走査では、データはその対象を通して得られた2次元スライスに対応する画像を構成するように処理される。   The x-ray source and detector array in a conventional CT system rotates over the gantry in and around the imaging plane so that the angle at which the x-ray beam intersects the object always changes. The transmission profile from the detector array at a given angle is called the “view” and “scan” of the object, with different angular orientations during one revolution of the x-ray source and detector. Comprises a set of views made in In a two-dimensional scan, the data is processed to construct an image that corresponds to the two-dimensional slice obtained through the object.

MRIと同様に、走査時間が重要であるX線CTに対する多くの臨床用途がある。例えば、時間分解血管造影法においては、造影剤が関心領域に流れ込むときに一連の画像フレーム(イメージフレーム)が取得される。各画像は、造影剤の流入を描写するスナップショットを得るために可能な限り高速で取得される。この臨床用途は、モーションアーチファクトを抑制するために心拍ゲーティングを必要とする冠動脈または他の血管を画像化する際に、特に能力が試される。   Similar to MRI, there are many clinical applications for X-ray CT where scan time is important. For example, in time-resolved angiography, a series of image frames (image frames) are acquired when the contrast agent flows into the region of interest. Each image is acquired as fast as possible to obtain a snapshot depicting the influx of contrast agent. This clinical application is particularly challenged when imaging coronary arteries or other blood vessels that require heart rate gating to suppress motion artifacts.

例えば、米国特許第6,710,686号明細書で説明されているとおり、取得されたk空間投影ビューのセットから画像を再構成するのに用いられる2つの方法がある。MRIにおいて、最も一般的な方法は、半径方向にサンプリングした軌跡上の位置からデカルト格子へ、k空間サンプルを格子変え(regrid)するものである。その後、画像は、格子変えされたk空間サンプルを2Dまたは3Dフーリエ変換することによって再構成される。MR画像を再構成する第2の方法は、各投影ビューを第1フーリエ変換することによって、半径方向のk空間投影ビューをラドン空間へ変換することである。画像は、これらの信号投影ビューをフィールド・オブ・ビュー(FOV)へフィルタリングおよび逆投影することによって、それら投影ビューから再構成される。当分野でよく知られているとおり、取得された信号投影がナイキストのサンプリング定理を満たすのに数が不足している場合、その再構成画像にはストリーク・アーチファクトが発生する。   For example, there are two methods used to reconstruct an image from a set of acquired k-space projection views, as described in US Pat. No. 6,710,686. In MRI, the most common method is to regrid k-space samples from a position on a trajectory sampled in the radial direction to a Cartesian grid. The image is then reconstructed by a 2D or 3D Fourier transform of the rescaled k-space sample. A second way to reconstruct the MR image is to transform the radial k-space projection view to Radon space by first Fourier transforming each projection view. Images are reconstructed from the projected views by filtering and backprojecting these signal projected views to the field of view (FOV). As is well known in the art, if the acquired signal projections are insufficient to satisfy the Nyquist sampling theorem, streak artifacts will occur in the reconstructed image.

2次元X線CTデータからの画像を再構成するために広く行われている方法は、当分野ではフィルタ補正逆投影技法と呼ばれている。この逆投影プロセスは、上述したMR画像再構成で用いられたものと実質的に同様であり、このプロセスによれば、走査中に取得された減衰信号測定値が、ディスプレイにおける対応画素の輝度を制御するために利用される「CT値」あるいは「ハンスフィールド値」と称される整数に変換される。   A widely practiced method for reconstructing images from two-dimensional X-ray CT data is referred to in the art as the filtered back projection technique. This backprojection process is substantially similar to that used in the MR image reconstruction described above, according to which the attenuated signal measurements acquired during the scans represent the brightness of the corresponding pixels in the display. It is converted into an integer called “CT value” or “Hansfield value” used for control.

MRI及びX線CTの両方に使用される標準的な逆投影方法が図3に示されている。各取得信号投影プロファイル10が、プロファイル10内で、FOV12を通って、矢印16で示された投影経路に沿って各信号サンプル14を投影することによって、FOV12上に逆投影される。FOV12への各信号サンプル14を投影する際に、画像化される対象に関する先験的な情報は何ら使用されず、FOV12内の信号が均質であり、信号サンプル14は、投影経路が通る各画素に均等に分布していると仮定する。例えば、図3では、投影経路8がFOV12内のN個の画素を通るときの、単一の投影プロファイル10における単一の信号サンプル14についての投影経路8が示されている。この信号サンプル14の信号値(P)は、これらのN個の画素の間で均等に分割される。

Figure 0005737725
(ここで、Snは、N個の画素を有する投影経路内のn番目の画素に分配される信号値である。) A standard backprojection method used for both MRI and X-ray CT is shown in FIG. Each acquired signal projection profile 10 is backprojected onto the FOV 12 by projecting each signal sample 14 along the projection path indicated by the arrow 16 through the FOV 12 within the profile 10. In projecting each signal sample 14 to the FOV 12, no a priori information about the object to be imaged is used, the signal in the FOV 12 is homogeneous, and the signal sample 14 is passed through each pixel through the projection path. Are evenly distributed. For example, in FIG. 3, the projection path 8 for a single signal sample 14 in a single projection profile 10 is shown as the projection path 8 passes through N pixels in the FOV 12. The signal value (P) of the signal sample 14 is evenly divided among these N pixels.
Figure 0005737725
(Here, Sn is a signal value distributed to the nth pixel in the projection path having N pixels.)

明らかに、FOV12の逆投影信号は均等であるという仮定は正しくない。しかし、当分野でよく知られているとおり、各信号プロファイル10に対してある一定の補正がなされ、十分な個数のプロファイルが対応する個数の投影角で取得されるならば、この誤った仮定により生じる誤差が最小限になり、画像アーチファクトが抑制される。画像再構成の典型的なフィルタ補正逆投影法では、256×256画素の2D画像に対しては400個の投影が必要であり、256×256×256画素の3D画像に対しては203,000個の投影が必要となる。   Clearly, the assumption that the FOV 12 backprojection signal is equal is incorrect. However, as is well known in the art, this false assumption can be made if a certain correction is made to each signal profile 10 and a sufficient number of profiles are acquired with a corresponding number of projection angles. The resulting error is minimized and image artifacts are suppressed. A typical filtered backprojection method for image reconstruction requires 400 projections for a 256 × 256 pixel 2D image and 203,000 for a 256 × 256 × 256 pixel 3D image. Individual projections are required.

最近、当技術分野では「HYPR」として知られ、および同時係属中の米国特許出願第11/482,372号(2006年7月7日出願の、発明の名称「高度に限定された画像再構成法(Highly Constrained Image Reconstruction Method)」に記載された新しい画像再構成法が開示された。上記特許出願の内容は参照により本明細書に組み込まれる。HYPR法によって、画像化される対象の先験的情報を提供するために、合成画像が取得データから再構成される。次に、この合成画像は、画像再構成プロセスを高度に限定するために用いられる。HYPRは、磁気共鳴イメージング法(MRI)、X線コンピュータ断層撮像法(CT)、陽電子放出断層撮影(PET)、単光子放出コンピュータ断層撮影法(SPECT)およびデジタル式トモシンセシス(DTS)を含む多数の異なる画像診断法において用いることができる。   Recently known in the art as “HYPR” and co-pending US patent application Ser. No. 11 / 482,372 (filed Jul. 7, 2006, entitled “Highly Limited Image Reconstruction”). A new image reconstruction method described in “Highly Constrained Image Reconstruction Method” has been disclosed, the contents of which are incorporated herein by reference.A priori of objects to be imaged by the HYPR method The composite image is reconstructed from the acquired data to provide the information that is then used to highly limit the image reconstruction process.HYPR is a magnetic resonance imaging (MRI) method. ), X-ray computed tomography (CT), positron emission tomography (PET), single photon emission computed tomography (SPECT) and digital tomosynthesis It can be used in a number of different diagnostic imaging methods including DTS.

図1に示すように、例えば、一連の時間分解画像2が動的研究で取得されるとき、各画像フレーム2は、極めて限定された取得ビューのセットを用いて再構成できる。しかし、このような各ビューセットは、他の画像フレーム2に対して取得されたビューでインターリーブされ、多数の画像フレームが取得された後、十分な数の異なったビューを利用して、HYPR法に従って使用するための高品質の合成画像3を再構成できる。インターリーブされた投影全てを用いることによって生成された合成画像3は、かなり高画質であり、本発明の高度に限定された画像再構成法4を用いることによって、この高画質が画像フレームに伝達される。画像フレーム2はまた、線量(例えばX線)または照射時間(例えば、PETまたはSPECT)が各画像フレームに対して減少する動的試験で取得できる。この場合、合成画像は、一連の取得画像フレームからの測定値を集積または平均化することによって生成される。各画像フレーム2の高度に限定された再構成4は、この合成画像の高いSNRは結果として得られる再構成後の画像に伝達される。   As shown in FIG. 1, for example, when a series of time-resolved images 2 are acquired in a dynamic study, each image frame 2 can be reconstructed using a very limited set of acquired views. However, each such view set is interleaved with the views acquired for other image frames 2, and after a large number of image frames are acquired, a sufficient number of different views are used to generate the HYPR method. The high-quality composite image 3 for use according to the above can be reconstructed. The composite image 3 generated by using all of the interleaved projections is fairly high image quality, and this high image quality is transferred to the image frame by using the highly limited image reconstruction method 4 of the present invention. The Image frame 2 can also be acquired in a dynamic test where the dose (eg, X-rays) or exposure time (eg, PET or SPECT) is reduced for each image frame. In this case, the composite image is generated by accumulating or averaging measurements from a series of acquired image frames. The highly constrained reconstruction 4 of each image frame 2 conveys the high SNR of this composite image to the resulting reconstructed image.

HYPR法の発見は、FOV12内の信号輪郭の先験的な情報が再構成プロセスで用いられるならば、大幅に少ない投影信号プロファイルを用いて良質の画像を生成できることである。例えば、図4を参照すると、FOV12の信号輪郭は、血管18及び20などの構造体を含むことが分かる。実際には、逆投影経路8がこれらの構造体を貫通するとき、信号サンプル14の各画素へのより正確な分配が、その画素位置で既知の信号輪郭の関数として分配に重み付けすることによって達成される。その結果、大多数の信号サンプル14が、図4の例において、構造体18及び20と交差する逆投影画素で分配される。N個の画素を有する逆投影経路8については、この高度に限定的な逆投影は、以下のように表すことができる。

Figure 0005737725
(ここで、Snは、再構成されている画像フレーム内の画素nにおける逆投影された信号の大きさであり、Pは、逆投影されている投影プロファイルにおける信号サンプル値であり、Cnは、逆投影経路に沿ったn番目の画素における先験的な合成画像の信号値である。)
合成画像は、走査中に取得されたデータから再構成され、フィールド・オブ・ビューで構造体を表す、他の取得画像データだけでなく画像フレームを再構成するために用いられる合成画像を含んでもよい。数式(2)の分子は、合成画像において、対応する信号値を用いた各画素に重み付けし、分母は、全逆投影信号サンプルが、画像フレームに対する投影総和を反映し、合成画像の総和により乗算されないように、その値を正規化している。 The discovery of the HYPR method is that if a priori information of the signal contour in the FOV 12 is used in the reconstruction process, a good quality image can be generated using significantly fewer projection signal profiles. For example, referring to FIG. 4, it can be seen that the signal contour of FOV 12 includes structures such as blood vessels 18 and 20. In practice, when the backprojection path 8 penetrates these structures, a more accurate distribution of the signal sample 14 to each pixel is achieved by weighting the distribution as a function of the known signal contour at that pixel location. Is done. As a result, the majority of signal samples 14 are distributed in the backprojected pixels that intersect the structures 18 and 20 in the example of FIG. For a backprojection path 8 with N pixels, this highly restrictive backprojection can be expressed as:
Figure 0005737725
(Where S n is the magnitude of the backprojected signal at pixel n in the reconstructed image frame, P is the signal sample value in the backprojected projection profile, and C n Is the a priori composite image signal value at the nth pixel along the backprojection path.)
The composite image may be reconstructed from the data acquired during the scan, including the composite image used to reconstruct the image frame as well as other acquired image data representing the structure in the field of view. Good. The numerator of equation (2) weights each pixel using the corresponding signal value in the composite image, and the denominator is the total backprojection signal sample reflecting the projection sum for the image frame, multiplied by the sum of the composite image The value is normalized so that it is not.

この正規化は、逆投影後に各画素で別個に行われることができるが、多くの臨床使用では、逆投影の前に投影Pを正規化する方がはるかに容易であることに留意すべきである。この場合、投影Pは、同じビュー角での合成画像を通した投影において対応する値PCで割ることによって正規化される。次に、正規化された投影P/PCは逆投影され、次に、結果として得た画像は合成画像を乗算される。 It should be noted that this normalization can be done separately for each pixel after backprojection, but for many clinical uses it is much easier to normalize projection P before backprojection. is there. In this case, the projection P is normalized by dividing by the corresponding value P C in a projection through the composite image at the same view angle. The normalized projection P / P C is then backprojected and the resulting image is then multiplied by the composite image.

高度に限定的な逆投影の3Dの実施態様が、ビュー角θとφで特徴付けられる単一の3D投影ビューに対して、図5に示されている。この投影ビューは、軸16に沿って逆投影され、逆投影軸16に沿った距離rにおいてラドン平面21に広がる。投影信号値がフィルタ処理され、連続したラドン平面に、軸16に沿って均等に分配されるフィルタ処理される逆投影の代わりに、投影信号値が、合成画像内の情報を用いて、ラドン平面21に分配される。図5の例における合成画像は、血管18及び20を含む。重み付けされた信号輪郭値が、合成画像内の対応する位置x、y、zでの強度に基づいて、ラドン平面21内の画像位置x、y、zで置かれる。これは、対応する合成画像のボクセル値と逆投影された信号プロファイル値Pとの簡単な乗算である。次に、この積は、合成画像から形成された対応画像空間投影プロファイルからの投影プロファイル値でこの積を割ることによって正規化される。3D再構成に対する式は以下になる。

Figure 0005737725
(ここで、総和(Σ)は、再構成される画像フレーム内の全投影であり、特定のラドン平面内のx、y、z値は、その平面に対する適正なr、θ、φ値における投影プロファイル値P(r,θ,φ)を用いて算出される。Pc(r,θ,φ)は、合成画像からの対応投影プロファイル値であり、C(x,y,z)r,θ,φは、(r,θ,φ)での合成画像値である。) A highly limited backprojection 3D implementation is shown in FIG. 5 for a single 3D projection view characterized by view angles θ and φ. This projection view is backprojected along the axis 16 and extends into the Radon plane 21 at a distance r along the backprojection axis 16. Instead of a filtered backprojection in which the projection signal values are filtered and distributed evenly along the axis 16 into a continuous Radon plane, the projection signal values are used in the Radon plane using information in the composite image. 21. The composite image in the example of FIG. 5 includes blood vessels 18 and 20. Weighted signal contour values are placed at image positions x, y, z in the Radon plane 21 based on the intensity at corresponding positions x, y, z in the composite image. This is a simple multiplication of the voxel value of the corresponding composite image and the back-projected signal profile value P. This product is then normalized by dividing this product by the projection profile value from the corresponding image space projection profile formed from the composite image. The equation for 3D reconstruction is:
Figure 0005737725
(Where the sum (Σ) is the total projection in the reconstructed image frame, and the x, y, z values in a particular Radon plane are the projections at the appropriate r, θ, φ values for that plane. Calculated using the profile value P (r, θ, φ), where P c (r, θ, φ) is a corresponding projection profile value from the composite image, and C (x, y, z) r, θ. , φ are composite image values at (r, θ, φ).)

HYPR法は特定の状況下で良好に機能する。第1にHYPRは、視野内の関心対象が画像空間の小部分を占めるような、「疎(sparse:スパース)データセットで最も良く機能する。極めて疎画像または完全な時空相関を有する画像の範囲内で、HYPR再構成法は略正確な再構成を提供する。疎な時空相関が減少すると、HYPR再構成の精度は低下し、異なる時間挙動を有する視野内の別の場所の信号の影響により、局所信号は変化することができる。   The HYPR method works well under certain circumstances. First, HYPR works best with “sparse data sets, where the object of interest in the field of view occupies a small portion of the image space. A range of images with very sparse or perfect spatio-temporal correlation. Within this, the HYPR reconstruction method provides a substantially accurate reconstruction: when the sparse spatio-temporal correlation is reduced, the accuracy of the HYPR reconstruction is reduced due to the influence of signals elsewhere in the field of view with different temporal behavior. The local signal can change.

(発明の要約)
本発明は医用画像を生成するための新しい方法であり、特に、HYPR再構成法を用いて画像を生成するための改良された方法である。限定されたデータから得られる初期フレームは正規化重み付け画像を生成するのに使用され、この正規化重み付け画像は高品質の合成画像と乗算されて、高品質画像フレームを生成する。正規化重み付け画像は、初期画像フレームをフィルタを用いて平滑化し、およびこの平滑化画像フレームを合成画像の同様な平滑化バージョンで割算することにより生成される。初期画像フレームがアンダーサンプリングにより制限される場合、正規化重み付け画像を生成するのに使用される合成画像のバージョンは、初期画像フレームに組み込まれた同一のアンダーサンプルされたビューに「限定」される。
(Summary of the Invention)
The present invention is a new method for generating medical images, in particular an improved method for generating images using the HYPR reconstruction method. The initial frame obtained from the limited data is used to generate a normalized weighted image, which is multiplied with a high quality composite image to generate a high quality image frame. The normalized weighted image is generated by smoothing the initial image frame with a filter and dividing the smoothed image frame by a similar smoothed version of the composite image. If the initial image frame is limited by undersampling, the version of the composite image used to generate the normalized weighted image is “limited” to the same undersampled view embedded in the initial image frame. .

本発明の一般目的は、限定されたデータを用いて生成された画像フレームの品質を改良することである。データは、低い信号対雑音比(「SNR」)を有する画像フレームが生成される意味において限定され、および/またはデータが取得空間(例えば、k空間またはラドン空間)をアンダーサンプルするビューから生成されている意味において限定される。いずれにせよ、合成画像の高品質は本発明により画像フレームに組み込まれている。   The general object of the present invention is to improve the quality of image frames generated using limited data. The data is limited in the sense that an image frame with a low signal-to-noise ratio (“SNR”) is generated and / or generated from a view where the data undersamples the acquisition space (eg, k-space or radon space). It is limited in the meaning. In any case, the high quality of the composite image is incorporated into the image frame according to the present invention.

本発明の別の一般目的は、非疎データセットが取得されるときのHYPR再構成法の性能を改良することである。HYPR法を用いて再構成される画像の視野(FOV)内の距離信号の影響を低減するために、視野は個別に再構成されるより小さいセグメントに分割される。再構成される小さいセグメントを通して前方投影する投影ビューのそれらの部分だけが、そのセグメントのHYPR再構成に使用される。次に、再構成された小さい画像セグメントは結合されて、FOV全体の再構成された画像を提供する。これは図19に示されており、図では、投影P1,P2...PnはFOV全体5の限定されたセグメントS(x,y)上に逆投影される。各セグメントS(x,y)のサイズが減少し、セグメントの数が増加するに伴い、「局所化」HYPR再構成は、各画像ピクセルI(x,y)を囲む小領域への分割として見ることができる。強度I(x,y)に対する値は、セグメントS(x,y)内の逆投影された値P1limからPnlimの全てを合計することにより得られる。

Figure 0005737725
各ピクセルの強度I(x,y)は、均等に限定されたカーネルを有するI(x,y)のコンボリューションであるピクセルx,yの最近傍の総和になる。これは再構成された画像フレームのローパスフィルタ・バージョンと等価である。さらに詳細には、画像フレームのローパスフィルタ・バージョンは、合成画像のローパスフィルタ・バージョンで割算されることにより正規化され、次に、結果として得られた正規化重み付け画像は最高解像度の合成画像と乗算される。ローパスフィルタリング演算はラドン空間またはk空間内で実行でき、または画像空間内で実行できる。この局所化HYPR再構成は、局所ボリューム、またはセグメント、周囲の各ピクセル内の各信号を使用し、視野内の他の場所で生成された信号のクロストークが除去される。 Another general object of the present invention is to improve the performance of the HYPR reconstruction method when non-sparse data sets are acquired. In order to reduce the effect of distance signals in the field of view (FOV) reconstructed using the HYPR method, the field of view is divided into smaller segments that are individually reconstructed. Only those portions of the projection view that project forward through the small segment to be reconstructed are used for HYPR reconstruction of that segment. The reconstructed small image segments are then combined to provide a reconstructed image of the entire FOV. This is illustrated in FIG. 19, where the projections P1, P2,. . . Pn is backprojected onto a limited segment S (x, y) of the entire FOV 5. As the size of each segment S (x, y) decreases and the number of segments increases, the “localized” HYPR reconstruction looks as a division into small regions surrounding each image pixel I (x, y). be able to. A value for intensity I (x, y) is obtained by summing all of the backprojected values P1 lim to Pn lim in segment S (x, y).
Figure 0005737725
The intensity I (x, y) of each pixel is the sum of the nearest neighbors of pixel x, y, which is a convolution of I (x, y) with an evenly limited kernel. This is equivalent to a low-pass filter version of the reconstructed image frame. More specifically, the low-pass filter version of the image frame is normalized by dividing by the low-pass filter version of the composite image, and then the resulting normalized weighted image is the highest resolution composite image. And multiplied. The low pass filtering operation can be performed in Radon space or k space, or can be performed in image space. This localized HYPR reconstruction uses the local volume, or segment, each signal in each surrounding pixel, and the crosstalk of the signal generated elsewhere in the field of view is removed.

本発明の別の目的はラドン変換または逆投影演算の必要を回避することである。局所化HYPR再構成は一連のローパスフィルタリング演算、割算演算および乗算演算を用いて実行できる。これらの演算は取得空間(例えば、ラドン空間またはk空間)または画像空間内で実行できる。   Another object of the present invention is to avoid the need for Radon transforms or backprojection operations. Localized HYPR reconstruction can be performed using a series of low-pass filtering operations, division operations and multiplication operations. These operations can be performed in acquisition space (eg, Radon space or k-space) or image space.

本発明の別の目的は、多くの異なるイメージングモダリティによって取得されたデータおよび多くの異なるサンプリングパターンにおいて使用できるHYPR再構成法を提供することである。この方法は、MRIシステム、X線CTシステム、PETスキャナまたはSPECTスキャナによって取得されたデータから画像を再構成するのに使用できる。MRIシステムにおいて使用されるとき、k空間データは任意のサンプリング軌跡を用いて取得できる。この方法はまた、X線撮影像を強調するのに使用できる。   Another object of the present invention is to provide a HYPR reconstruction method that can be used in data acquired by many different imaging modalities and many different sampling patterns. This method can be used to reconstruct an image from data acquired by an MRI system, X-ray CT system, PET scanner or SPECT scanner. When used in an MRI system, k-space data can be acquired using any sampling trajectory. This method can also be used to enhance radiographic images.

本発明における前記及び他の目的並びに利点は、以下の説明から明らかになろう。その説明では、本明細書の一部を形成し、且つ、例証として本発明の一つの好適な実施態様が示されている添付図面が参照される。しかし、そのような実施態様は必ずしも本発明の全範囲を表すものではなく、従って、本発明の範囲を解釈するためには、本明細書の特許請求の範囲を参照すべきである。   The above and other objects and advantages of the present invention will become apparent from the following description. In the description, reference is made to the accompanying drawings that form a part hereof, and in which is shown by way of illustration one preferred embodiment of the invention. Such embodiments, however, do not necessarily represent the full scope of the invention, and reference should be made therefore to the claims herein for interpreting the scope of the invention.

(好ましい実施態様の詳細な説明)
本発明は、多くの異なる医用イメージングモダリティ、および多くの異なる臨床用途に適用することができる。以下に述べられる好ましい実施態様では、MRIシステムを利用して画像化される対象の投影ビューを取得しているが、他のイメージングモダリティにおいて本発明を利用することもでき、放射投影ビュー以外のサンプリング軌跡を取得してもよい。
Detailed Description of Preferred Embodiments
The present invention can be applied to many different medical imaging modalities and many different clinical applications. In the preferred embodiment described below, a projected view of an object to be imaged is acquired using an MRI system, but the present invention may be used in other imaging modalities and sampling other than a radial projection view. A trajectory may be acquired.

特に図6を参照すると、本発明の好ましい実施態様がMRIシステムに採用される。MRIシステムは、ディスプレイ112及びキーボード114を有するワークステーション110を備える。ワークステーション110は、市販のオペレーティングシステムを走らせている市販のプログラマブルマシンであるプロセッサ116を備える。ワークステーション110は、スキャン指示をMRIシステムに入力できるようにするオペレータインタフェースを提供する。   With particular reference to FIG. 6, the preferred embodiment of the present invention is employed in an MRI system. The MRI system includes a workstation 110 having a display 112 and a keyboard 114. The workstation 110 includes a processor 116 that is a commercially available programmable machine running a commercially available operating system. The workstation 110 provides an operator interface that allows scan instructions to be entered into the MRI system.

ワークステーション110は4つのサーバ、すなわちパルスシーケンスサーバ118、データ取得サーバ120、データ処理サーバ122、及びデータ記憶サーバ23に結合される。好ましい実施態様では、データ記憶サーバ123は、ワークステーションプロセッサ116及び関連するディスクドライブインタフェース回路によって実行される。残りの3つのサーバ118、120及び122は、単一のエンクロージャに搭載され、且つ64ビットバックプレーンバスを使用して相互接続された別個のプロセッサによって実行される。パルスシーケンスサーバ118は、市販のマイクロプロセッサ及び市販の4通信コントローラを採用する。データ取得サーバ120及びデータ処理サーバ122は両方とも、同じ市販のマイクロプロセッサを採用し、データ処理サーバ122は、市販のパラレルベクトルプロセッサに基づいた1つ又は複数のアレイプロセッサをさらに備える。   The workstation 110 is coupled to four servers: a pulse sequence server 118, a data acquisition server 120, a data processing server 122, and a data storage server 23. In the preferred embodiment, data storage server 123 is implemented by workstation processor 116 and associated disk drive interface circuitry. The remaining three servers 118, 120 and 122 are executed by separate processors mounted in a single enclosure and interconnected using a 64-bit backplane bus. The pulse sequence server 118 employs a commercially available microprocessor and a commercially available 4 communication controller. Both the data acquisition server 120 and the data processing server 122 employ the same commercially available microprocessor, and the data processing server 122 further comprises one or more array processors based on a commercially available parallel vector processor.

ワークステーション110及びサーバ18、20及び22の各プロセッサは、シリアル通信ネットワークに接続される。このシリアルネットワークは、ワークステーション110からサーバ118、120及び122にダウンロードされたデータを伝達するとともに、サーバ間及びワークステーションとサーバの間で通信されるタグデータを伝達する。これに加えて、高速データリンクがデータ処理サーバ122とワークステーション110の間に設けられて、画像データをデータ記憶サーバ123に伝達する。   The workstation 110 and each processor of the servers 18, 20 and 22 are connected to a serial communication network. This serial network conveys data downloaded from the workstation 110 to the servers 118, 120 and 122, as well as tag data communicated between the servers and between the workstation and the server. In addition, a high speed data link is provided between the data processing server 122 and the workstation 110 to transmit image data to the data storage server 123.

パルスシーケンスサーバ118は、ワークステーション110からダウンロードされたプログラム要素に応答して、勾配システム124及びRFシステム126を動作させるように機能する。指定されたスキャンを実行するために必要な勾配波形が生成されて勾配システム124に与えられ、勾配システム124はアセンブリ128内の勾配コイルを励起して、NMR信号の位置エンコーディングに使用される磁場勾配Gx、Gy、及びGzを生成する。勾配コイルアセンブリ128は、分極マグネット132及び全身RFコイル134を備えるマグネットアセンブリ130の一部を成す。 The pulse sequence server 118 functions to operate the gradient system 124 and the RF system 126 in response to program elements downloaded from the workstation 110. The gradient waveform required to perform the specified scan is generated and provided to the gradient system 124, which excites the gradient coil in the assembly 128 to use the magnetic field gradient used for position encoding of the NMR signal. G x , G y , and G z are generated. The gradient coil assembly 128 forms part of a magnet assembly 130 that includes a polarizing magnet 132 and a whole body RF coil 134.

RF励起波形が、RFシステム126によりRFコイル134に与えられて、指定の磁気共鳴パルスシーケンスを実行する。RFコイル134により検出される応答性NMR信号はRFシステム126により受信され、パルスシーケンスサーバ118により生成されるコマンドの命令の下で増幅され、復調され、濾波され、デジタル化される。RFシステム126は、MRパルスシーケンスに使用される広範なRFパルスを生成するRFトランスミッタを備える。RFトランスミッタは、スキャン指示及びパルスシーケンスサーバ118からの命令に応答して、所望の周波数、位相、及びパルス振幅波形のRFパルスを生成する。生成されたRFパルスは、全身RFコイル134に与えることができ、1つ又は複数のローカルコイル又はコイルアレイに与えることができる。   An RF excitation waveform is provided by the RF system 126 to the RF coil 134 to perform the specified magnetic resonance pulse sequence. The responsive NMR signal detected by the RF coil 134 is received by the RF system 126 and amplified, demodulated, filtered and digitized under the command of the command generated by the pulse sequence server 118. The RF system 126 includes an RF transmitter that generates a wide range of RF pulses used in MR pulse sequences. The RF transmitter generates RF pulses of the desired frequency, phase, and pulse amplitude waveform in response to scan instructions and commands from the pulse sequence server 118. The generated RF pulse can be applied to the whole body RF coil 134 and can be applied to one or more local coils or coil arrays.

RFシステム126は、1つ又は複数のRFレシーバチャネルも備える。各RFレシーバチャネルは、接続されているコイルが受け取ったNMR信号を増幅するRF増幅器、及び受信したNMR信号のI及びQ直角位相成分を検出しデジタル化する直角位相検出器を備える。受信したNMR信号の大きさはこうして、I成分及びQ成分の二乗和の平方根によりいずれのサンプリングポイントでも求めることができ、

Figure 0005737725
また、受信したNMR信号の位相も求めることができる。
Figure 0005737725
The RF system 126 also includes one or more RF receiver channels. Each RF receiver channel includes an RF amplifier that amplifies the NMR signal received by the connected coil, and a quadrature detector that detects and digitizes the I and Q quadrature components of the received NMR signal. The magnitude of the received NMR signal can thus be determined at any sampling point by the square root of the square sum of the I and Q components,
Figure 0005737725
Further, the phase of the received NMR signal can also be obtained.
Figure 0005737725

パルスシーケンスサーバ118は任意的に、生理的取得コントローラ136から患者データを受信する。コントローラ136は、電極からのECG信号又はベローズからの呼吸信号等、患者に接続されたいくつかの異なるセンサから信号を受信する。パルスシーケンスサーバ118は通常、このような信号を使用して、スキャンのパフォーマンスを患者の呼吸又は心拍に同期又は「ゲート」させる。   The pulse sequence server 118 optionally receives patient data from the physiological acquisition controller 136. The controller 136 receives signals from a number of different sensors connected to the patient, such as ECG signals from the electrodes or respiratory signals from the bellows. The pulse sequence server 118 typically uses such signals to synchronize or “gate” the performance of the scan to the patient's breath or heartbeat.

パルスシーケンスサーバ118は、患者及びマグネットシステムの状態に関連する各種センサから信号を受信するスキャンルームインタフェース回路138にも接続する。患者位置合わせシステム140がスキャン中に患者を所望の位置に移動させるコマンドを受信することもスキャンルームインタフェース回路138を通してである。   The pulse sequence server 118 also connects to a scan room interface circuit 138 that receives signals from various sensors related to the condition of the patient and the magnet system. It is also through the scan room interface circuit 138 that the patient alignment system 140 receives commands to move the patient to the desired position during the scan.

パルスシーケンスサーバ118が、スキャン中にMRIシステム要素のリアルタイム制御を行うことが明らかであるべきである。その結果、そのハードウェア要素がランタイムプログラムにより適時に実行されるプログラム命令で動作することが必要である。スキャン指示の指令構成要素は、ワークステーション110からオブジェクトの形でダウンロードされる。パルスシーケンスサーバ118は、これらオブジェクトを受け取るプログラムを含み、これらオブジェクトをランタイムプログラムに採用されるオブジェクトに変換する。   It should be apparent that the pulse sequence server 118 provides real-time control of MRI system elements during the scan. As a result, it is necessary for the hardware element to operate with program instructions that are executed in a timely manner by the runtime program. The command component of the scan instruction is downloaded from the workstation 110 in the form of an object. The pulse sequence server 118 includes programs that receive these objects, and converts these objects into objects that are employed by the runtime program.

RFシステム126により生成される、デジタル化されたNMR信号サンプルをデータ取得サーバ120が受け取る。データ取得サーバ120は、ワークステーション110からダウンロードされる指令構成要素に応答して動作し、リアルタイムNMRデータを受け取り、データがデータオーバーランにより失われないようにバッファストレージを提供する。スキャンによっては、データ取得サーバ120は、取得されたNMRデータをデータプロセッササーバ122に渡すにすぎない。しかし、取得されたNMRデータから導出された情報をスキャンのさらなるパフォーマンスの制御に必要とするスキャンでは、データ取得サーバ120は、このような情報を生成してパルスシーケンスサーバ118に伝達するようにプログラムされる。たとえば、プレスキャン中、NMRデータを取得し、これを使用してパルスシーケンスサーバ118により行われるパルスシーケンスを較正する。また、ナビゲータ信号をスキャン中に取得し、これを使用して、RFシステム又は勾配システムの動作パラメータを調整し、又はk空間がサンプリングされるビュー順序(view order)を制御することができる。また、データ取得サーバ120を採用して、MRAスキャン中に造影剤の到着を検出するために使用されるNMR信号を処理することができる。これら例のすべてにおいて、データ取得サーバ120はNMRデータを取得し、リアルタイムで処理して、スキャンの制御に使用される情報を生成する。   The data acquisition server 120 receives digitized NMR signal samples generated by the RF system 126. Data acquisition server 120 operates in response to command components downloaded from workstation 110, receives real-time NMR data, and provides buffer storage so that data is not lost due to data overruns. Depending on the scan, the data acquisition server 120 simply passes the acquired NMR data to the data processor server 122. However, in scans that require information derived from acquired NMR data to control further performance of the scan, the data acquisition server 120 is programmed to generate such information and communicate it to the pulse sequence server 118. Is done. For example, during pre-scan, NMR data is acquired and used to calibrate the pulse sequence performed by the pulse sequence server 118. In addition, navigator signals can be acquired during a scan and used to adjust the operating parameters of the RF system or gradient system, or to control the view order in which k-space is sampled. The data acquisition server 120 can also be employed to process NMR signals that are used to detect the arrival of contrast agents during an MRA scan. In all of these examples, the data acquisition server 120 acquires NMR data and processes it in real time to generate information used to control the scan.

データ処理サーバ122は、NMRデータをデータ取得サーバ120から受け取り、ワークステーション110からダウンロードされた指令構成要素に従って処理する。このような処理には、たとえば、未処理のk空間NMRデータをフーリエ変換して2次元画像又は3次元画像を生成すること、再構成された画像にフィルタを適用すること、取得されたNMRデータの逆投影画像再構成を行うこと、機能MR画像を算出すること、動き又は流れの画像を算出すること等を含むことができる。以下に更に詳細に説明するように、本発明は、データ処理サーバ122によって実行されたプログラムに応答し、MRIシステムにより実行される。   The data processing server 122 receives the NMR data from the data acquisition server 120 and processes it according to the command component downloaded from the workstation 110. Such processing includes, for example, Fourier transforming unprocessed k-space NMR data to generate a two-dimensional or three-dimensional image, applying a filter to the reconstructed image, and acquired NMR data. Performing back-projection image reconstruction, calculating functional MR images, calculating motion or flow images, and the like. As described in further detail below, the present invention is executed by the MRI system in response to a program executed by the data processing server 122.

データ処理サーバ122により再構成される画像は再びワークステーション110に伝達されて記憶される。リアルタイム画像はデータベースメモリキャッシュ(図示せず)に記憶され、ここから画像を、マグネットアセンブリ130付近に配置され担当医師により使用されるオペレータディスプレイ112又はディスプレイ142に出力することができる。バッチモード画像又は選択されたリアルタイム画像は、ディスクストレージ144上のホストデータベースに記憶される。このような画像が再構成されストレージに転送されるとき、データ処理サーバ122はワークステーション110上のデータ記憶サーバ123に通知する。オペレータがワークステーション110を使用して、画像の保存、フィルムの生成、又はネットワークを介しての他の施設への画像の送信を行うことができる。   The image reconstructed by the data processing server 122 is transmitted again to the workstation 110 and stored. Real-time images are stored in a database memory cache (not shown) from which images can be output to an operator display 112 or display 142 that is located near the magnet assembly 130 and used by the attending physician. Batch mode images or selected real-time images are stored in a host database on disk storage 144. When such an image is reconstructed and transferred to the storage, the data processing server 122 notifies the data storage server 123 on the workstation 110. An operator can use the workstation 110 to store images, generate film, or send images to other facilities over a network.

本発明の好適な実施態様を実施するため、NMRデータが、投影再構成、またはラジアル(radial)な、図7に示すようなパルスシーケンスを用いて取得される。これは、選択的、非対称的に切り取られたsinc rf励起パルス200がスライス選択勾配202の存在下で生成される高速グラジエント・リコールド・エコーパルスシーケンスである。このパルスシーケンスは、単一のk空間の円スライスでサンプリングすることによって単一の2Dスライスを得るために用いるか、または、このパルスシーケンスは、図8中の204、206及び208で示されているとおり、複数の円形k空間平面をサンプリングするために用いることができる。複数の2Dスライスが取得されるとき、勾配202は、位相コード化勾配ローブ210および逆極性の巻き戻し(rewinder)勾配ローブ212に続く選択勾配である。この軸方向位相コード化勾配210は、2Dのk空間スライス204、206及び208のそれぞれからサンプリングするために、走査中に値を通して段差をつけられる。   In order to implement the preferred embodiment of the present invention, NMR data is acquired using a pulse reconstruction as shown in FIG. 7, which is projection reconstruction or radial. This is a fast gradient recalled echo pulse sequence in which a selectively, asymmetrically cut sinc rf excitation pulse 200 is generated in the presence of a slice selection gradient 202. This pulse sequence can be used to obtain a single 2D slice by sampling on a single k-space circular slice, or this pulse sequence can be shown as 204, 206 and 208 in FIG. As can be used, it can be used to sample multiple circular k-space planes. When multiple 2D slices are acquired, the gradient 202 is the selected gradient that follows the phase-encoded gradient lobe 210 and the reverse polarity rewinder gradient lobe 212. This axial phase encoding gradient 210 is stepped through the values during scanning to sample from each of the 2D k-space slices 204, 206 and 208.

NMRエコー信号218の取得の間に2つの面内読出し勾配214及び216を実行して、2D平面204、206または208内で半径方向軌跡に沿ってk空間をサンプリングする。これらの面内勾配214及び216は、軸方向勾配に対して垂直であり、それらは相互に直交している。以下により詳細に述べるように、走査の間、これらの面内勾配は、半径方向サンプリング軌跡のビュー角を回転させるために、一連の値を通して段差をつけられる。各面内読取り勾配は、プリフェージング勾配ローブ220及び222に先行し、巻き戻し勾配ローブ224及び226が続く。   Two in-plane readout gradients 214 and 216 are performed during acquisition of the NMR echo signal 218 to sample k-space along a radial trajectory in the 2D plane 204, 206 or 208. These in-plane gradients 214 and 216 are perpendicular to the axial gradient and they are orthogonal to each other. As described in more detail below, during scanning, these in-plane gradients are stepped through a series of values to rotate the view angle of the radial sampling trajectory. Each in-plane read gradient precedes pre-fading gradient lobes 220 and 222, followed by unwind gradient lobes 224 and 226.

本発明の別の好ましい実施態様を実現するために、図12に示される3D放射投影としてデータを取得するパルスシーケンスが使用される。このシーケンスは、高速勾配サブシステム(40mT/m最大振幅および150T/m/sec最大スルーレート)を装備した上述のMRIシステム上で実行される。フルエコーまたは部分エコー読出しは、データ取得ウィンドウ199の間に実行できる。部分エコーが選択されるとき、k空間の下部半分(kz<0)は部分的に取得されるだけである。全方向における大きいFOVのために、非選択性の無線周波数(RF)パルス209を用いて、画像FOV全体にわたって横方向磁化を生成できる。 To implement another preferred embodiment of the present invention, a pulse sequence that acquires data is used as the 3D radial projection shown in FIG. This sequence is performed on the MRI system described above equipped with a fast gradient subsystem (40 mT / m maximum amplitude and 150 T / m / sec maximum slew rate). Full echo or partial echo readout can be performed during the data acquisition window 199. When partial echo is selected, the lower half of k-space (k z <0) is only partially acquired. For large FOVs in all directions, non-selective radio frequency (RF) pulses 209 can be used to generate transverse magnetization throughout the image FOV.

グラジエント・リコールドNMRエコー信号203は、励起されたFOV内のスピンによって生成され、3つの読出し勾配201、211および207の存在下で取得される。スラブ選択勾配が必要とされないため、読出し勾配波形Gx、GyおよびGzは類似形を有する。この対称性は、シーケンスを無効にする必要によってだけ破壊され、離調勾配ローブ205を実行することによって達成される。Gx、GyおよびGz読出し勾配201および211はそれぞれの勾配パルス213および215によって巻き戻されて、安定状態を実現する。 A gradient recalled NMR echo signal 203 is generated by spins in the excited FOV and acquired in the presence of three readout gradients 201, 211 and 207. Since no slab selection gradient is required, the readout gradient waveforms G x , G y and G z have a similar shape. This symmetry is only broken by the need to invalidate the sequence and is achieved by performing a detuning gradient lobe 205. G x , G y and G z readout gradients 201 and 211 are rewound by respective gradient pulses 213 and 215 to achieve a stable state.

読出し勾配波形Gx、GyおよびGzはスキャンの間に変調され、種々の角度における放射軌跡をサンプリングする。角度空間は、k空間のサンプルポイントの均等分布がサンプリングされたk空間球の周辺境界(kmax)で発生するように選択される。分布を算出するいくつかの方法が知られているが、球面を螺旋軌跡で、一定の経路速度および表面面積範囲の条件でサンプリングすることによって投影を均一に分散する方法が用いられる。この解決法はまた、連続サンプル経路を生成して、勾配切換えおよび渦電流を減少する利点を有する。全体でN個の投影について、投影数nの関数としての勾配振幅の式は以下になる。

Figure 0005737725
The readout gradient waveforms G x , G y and G z are modulated during the scan to sample the radiation trajectory at various angles. The angular space is selected such that an even distribution of k-space sample points occurs at the peripheral boundary (k max ) of the sampled k-space sphere. Several methods for calculating the distribution are known, but a method is used in which the projections are evenly distributed by sampling the sphere with a spiral trajectory at a constant path velocity and surface area range. This solution also has the advantage of generating a continuous sample path to reduce gradient switching and eddy currents. For a total of N projections, the equation for gradient amplitude as a function of the number of projections n is
Figure 0005737725

この一連の投影における第nのパルスシーケンスに対する読出し勾配振幅は、式(5)、(6)および(7)で与えられる。nはスキャンの間において1〜Nの単調順で索引付けできるが、他の順序も可能であることは理解されるべきである。以下に述べるとおり、本発明により、球状k空間は大幅に少ない投影ビューでサンプリングでき、結果的にスキャン時間が短くなる。   The readout gradient amplitude for the nth pulse sequence in this series of projections is given by equations (5), (6) and (7). It should be understood that n can be indexed in a monotonic order from 1 to N during the scan, although other orders are possible. As described below, the present invention allows the spherical k-space to be sampled with significantly fewer projection views, resulting in a shorter scan time.

k空間の周辺境界上の一点から、k空間の中心を通ってk空間の周辺境界上の反対側の点まで延びる好ましい直線軌跡以外のサンプリング軌跡が用いられてもよいことが、当業者には理解されるべきである。上述のとおり、1つの変形形態は、サンプリングされたk空間容積の全範囲にわたっては延びていない軌跡に沿ってサンプリングする、部分的なNMRエコー信号203を取得することである。直線投影再構成パルスシーケンスと等価である別の変形形態は、直線ではなく曲線経路に沿ってサンプリングすることである。このようなパルスシーケンスは、例えば、F.E.Boadaらによる「高速3次元ナトリウムイメージング法(Fast Three Dimensional Sodium Imaging)」(MRM,37:706−715,1997)および、K.V.Koladiaらによる「螺旋投影イメージング法を用いた高速3D PC−MRA(Rapid 3D PC-MRA Using Spiral Projection Imaging)」(Proc.Intl.Soc.Magn.Reson.Med.13(2005))および、J.G.PipeとKoladiaによる「螺旋投影イメージング法:新しい高速3D軌跡(Spiral Projection Imaging:a new fast 3D trajectory)」(Proc.Intl.Soc.Mag.Reson.Med.13(2005))において述べられている。本発明は、これらのサンプリング方法の2Dバージョンだけでなく3Dバージョンで利用可能であり、本明細書において用いられる用語の「画素」の使用は、2Dまたは3D画像のいずれかにおける位置を指すことを意図されている、ことも理解されるべきである。   Those skilled in the art may use sampling trajectories other than the preferred linear trajectory that extends from a point on the perimeter boundary of k-space to the opposite point on the perimeter boundary of k-space through the center of k-space. Should be understood. As described above, one variation is to obtain a partial NMR echo signal 203 that samples along a trajectory that does not extend over the entire range of the sampled k-space volume. Another variation that is equivalent to a linear projection reconstruction pulse sequence is to sample along a curved path rather than a straight line. Such a pulse sequence is, for example, F.I. E. Boada et al., “Fast Three Dimensional Sodium Imaging” (MRM, 37: 706-715, 1997); V. Koladia et al., “Rapid 3D PC-MRA Using Spiral Projection Imaging (Helix Projection Imaging)” (Proc. Intl. Soc. Magn. Reson. Med. 13 (2005)) and J. G. It is described in “Spiral Projection Imaging: a new fast 3D trajectory” (Proc. Intl. Soc. Mag. Reson. Med. 13 (2005)) by Pipee and Koladia. The present invention is available in 3D versions as well as 2D versions of these sampling methods, and the use of the term “pixel” as used herein refers to a position in either a 2D or 3D image. It should also be understood that it is intended.

上述のMRIシステムは、1つまたは複数の画像を再構成するために用いられる2Dまたは3Dの投影ビューセットを取得するための広範囲の臨床用途で用いることができる。本発明の画像再構成法は、1つまたは複数の画像フレームが、全取得投影ビューよりも少ない投影ビューを用いて再構成されるスキャンにおいて、特に有用である。この用途では、アンダーサンプリングに起因して通常は発生する画像アーチファクトは、除去されるかまたは抑制される。   The MRI system described above can be used in a wide range of clinical applications to acquire 2D or 3D projection view sets that are used to reconstruct one or more images. The image reconstruction method of the present invention is particularly useful in scans where one or more image frames are reconstructed using fewer projection views than the entire acquired projection view. In this application, image artifacts that normally occur due to undersampling are eliminated or suppressed.

画像再構成法の第1実施態様は、2次元の投影ビューを取得し、ある期間にわたって対象を描写する一連の画像フレームを再構成するためのMRIシステムに関する。詳細には図9を参照すると、プロセスブロック225で示されているように、投影ビューセットが取得され、そこから一連の画像フレームが再構成される。各セットにおける投影ビューの数は少なく(例えば10個のビュー)、図2で示されているとおり、できる限り均一にk空間をサンプリングするように均等に分配されている。取得される投影ビューの数が少ないので、この画像フレームは、極めて短い走査時間で取得することができるが、k空間が高度にアンダーサンプリングされているため、従来の方法を用いて再構成された任意の画像では、ストリーク(streak)・アーチファクトが生じるであろう。   A first embodiment of an image reconstruction method relates to an MRI system for acquiring a two-dimensional projection view and reconstructing a series of image frames that depict an object over a period of time. In particular, referring to FIG. 9, a projection view set is obtained and a series of image frames is reconstructed therefrom, as indicated by process block 225. The number of projection views in each set is small (eg, 10 views) and is evenly distributed to sample k-space as uniformly as possible, as shown in FIG. Since the number of acquired projection views is small, this image frame can be acquired with a very short scan time, but since the k-space is highly undersampled, it was reconstructed using conventional methods. In any image, streak artifacts will occur.

プロセスブロック227で示される次のステップは、試験の対象から取得された投影ビューを結合し、合成画像を再構成することである。これは一般に、現在の画像フレームの取得ビューを囲む時間ウィンドウ内で取得され、および現在の画像フレームのビューでインターリーブされている投影ビューを含む。合成画像投影は、画像フレームのデータセットより大幅に大きい数であり、合成画像のデータセットはより完全なk空間のサンプリングを提供する。結果的に、再構成された合成画像は高い信号対雑音比(SNR)を有し、縞模様のアーチファクトは抑制される。好ましい実施態様では、この再構成は結合されたk空間投影データをデカルト座標に格子変えし、次に、逆2次元フーリエ変換(2DFT)を実行して、合成画像を生成することを含む。   The next step, indicated by process block 227, is to combine the projected views obtained from the test subject and reconstruct the composite image. This generally includes a projected view that is acquired within a time window surrounding an acquired view of the current image frame and interleaved with the view of the current image frame. The composite image projection is a significantly larger number than the image frame dataset, which provides a more complete k-space sampling. As a result, the reconstructed composite image has a high signal-to-noise ratio (SNR) and striped artifacts are suppressed. In the preferred embodiment, this reconstruction includes re-sizing the combined k-space projection data to Cartesian coordinates and then performing an inverse two-dimensional Fourier transform (2DFT) to generate a composite image.

プロセスブロック229で示されるとおり、次のステップでは、本発明の局所化方法に従ってHYPR画像フレームを再構成する。これを達成するための多数の異なる方法が存在し、それらは図10および11を参照して以下に詳細に説明される。   As indicated by process block 229, the next step is to reconstruct the HYPR image frame according to the localization method of the present invention. There are a number of different ways to accomplish this, which are described in detail below with reference to FIGS.

HYPR画像フレームが再構成された後、決定ブロック243においてテストがなされ、追加の画像フレームを生成すべきかどうかを決定する。生成する必要がある場合、システムはプロセスブロック241を通してループバックして、プロセスブロック277で示されるとおり、別の合成画像を再構成する。対象の動的試験では、例えば、一連の画像フレームが取得され、再構成されて、対象のある時間的変化法を表示する。この試験の間に取得された投影ビューは相互にインターリーブされ、これにより、これら投影ビューはk空間の異なる部分のサンプルとなり、合成画像は、再構成されたHYPR画像フレームに中心を有する時間ウィンドウ内で取得された投影ビューを結合することによって生成される。この時間ウィンドウの幅は、縞模様アーチファクトが抑制され、および高いSNRが維持されるようにk空間を適切にサンプリングするのに十分な投影ビューを含むが、画像フレームの時間解像度を大幅に低下させる多数の投影ビューを含まないように設定される。   After the HYPR image frame is reconstructed, a test is made at decision block 243 to determine whether additional image frames should be generated. If so, the system loops back through process block 241 to reconstruct another composite image as indicated by process block 277. In a dynamic test of an object, for example, a series of image frames are acquired and reconstructed to display a certain temporal variation method of the object. Projection views acquired during this test are interleaved with each other so that these projection views become samples of different parts of k-space and the composite image is within a time window centered on the reconstructed HYPR image frame. Generated by combining projection views acquired in The width of this time window includes enough projected views to adequately sample k-space so that striped artifacts are suppressed and high SNR is maintained, but significantly reduces the temporal resolution of the image frame. Set to not include many projection views.

プロセスブロック245で示されるとおり、決定ブロック243において決定されるように最後の画像フレームが再構成されたとき、この再構成された画像フレームは格納される。格納された画像フレームは一度に1つ表示でき、または連続的に表示して、動的試験の間における対象の変化法を示すことができる。   As indicated by process block 245, when the last image frame has been reconstructed as determined at decision block 243, the reconstructed image frame is stored. Stored image frames can be displayed one at a time or can be displayed continuously to show how the subject changes during dynamic testing.

再構成された各画像フレームのSNRが合成画像のSNRによって決定されることを実証することができる。SNRは、オブジェクト内の騒音標準偏差に対するオブジェクト信号レベルの比として算出され、CNRは、背景雑音の標準偏差で割算されたオブジェクト信号レベルと背景信号レベルとの間の差として算出される。SNRおよびCNRは、全体的に、確率的雑音とストリーク・アーチファクトによる雑音との組合せによって制限される。本発明の高度に限定された逆投影再構成におけるSNRの確率的成分は、以下の式で与えられる。

Figure 0005737725
(ここで、SNRcompositeは合成画像におけるSNRであり、Nfは時系列の画像フレームの数であり、Nvは投影の際のオブジェクト画素数であり、Npixは投影の際の画素数(例えば、2Dでは256個、または3Dでは256×256個)、Npは画像フレームごとの投影数である。)。Npが10のオーダーである場合、再構成されたHYPR画像フレームのSNRは、SNRcompositeによって決定される。 It can be demonstrated that the SNR of each reconstructed image frame is determined by the SNR of the composite image. The SNR is calculated as the ratio of the object signal level to the noise standard deviation in the object, and the CNR is calculated as the difference between the object signal level divided by the standard deviation of the background noise and the background signal level. SNR and CNR are generally limited by a combination of stochastic noise and noise due to streak artifacts. The stochastic component of SNR in the highly limited backprojection reconstruction of the present invention is given by:
Figure 0005737725
(Where SNR composite is the SNR in the composite image, N f is the number of time-series image frames, N v is the number of object pixels during projection, and N pix is the number of pixels during projection ( (For example, 256 in 2D, or 256 × 256 in 3D), and N p is the number of projections per image frame.) If N p is on the order of 10, the SNR of the reconstructed HYPR image frame is determined by the SNR composite .

合成画像は臨床用途に応じて多数の異なる方法で取得または再構成されてもよい。本発明の上述の実施態様においては、最初の合成画像は、再構成される画像フレームの取得時間近くに中心を有する時間ウィンドウ内で取得されたインターリーブビューから再構成される。これは特に、動的試験の間における対象の運動または対象における実質的な変化が存在する状態において適用できる。図9のプロセスブロック247に示されるとおり、他の臨床用途では、最初の合成画像はまた、時間制約されていない、およびk空間が完全にサンプリングされる個別のスキャンの間に取得されてもよい。これにより、対象の高解像度で、高いSNRの解剖学的画像を取得し、合成画像として使用できる。   The composite image may be acquired or reconstructed in a number of different ways depending on the clinical application. In the above embodiment of the present invention, the initial composite image is reconstructed from interleaved views acquired within a time window centered near the acquisition time of the reconstructed image frame. This is particularly applicable in the presence of substantial movement in the subject or substantial change in the subject during dynamic testing. As shown in process block 247 of FIG. 9, in other clinical applications, the initial composite image may also be acquired during a separate scan that is not time-constrained and the k-space is fully sampled. . Thereby, an anatomical image having a high resolution and a high SNR can be acquired and used as a composite image.

特に図10を参照すると、HYPR画像フレームを再構成する際の第1ステップは、プロセスブロック250に示されるとおり、現在の画像フレームに対する合成画像から合成データセットCtを再投影することである。現在の画像フレームは選択されたビュー角度において取得された少数の投影ビューから構成され、再投影される合成データセットCtは、これらの同一ビュー角度において合成画像を再投影することによって生成される。 With particular reference to FIG. 10, the first step in reconstructing a HYPR image frame is to reproject the composite data set C t from the composite image for the current image frame, as shown in process block 250. The current image frame consists of a small number of projection views acquired at the selected view angle, and the reprojected composite data set C t is generated by reprojecting the composite image at these same view angles. .

プロセスブロック252で示される次のステップでは、合成データセットCtを平滑化する。これは、データセットCt内の各投影ビューをフーリエ変換し、次に、結果として得たk空間投影に、以下に詳細に説明されるフーリエ変換フィルタカーネルを乗算することにより達成される。 In the next step, indicated by process block 252, the composite data set Ct is smoothed. This is accomplished by Fourier transforming each projection view in the data set C t and then multiplying the resulting k-space projection by the Fourier transform filter kernel described in detail below.

プロセスブロック254で示されるとおり、次に、合成画像Ctは平滑化データセットCtから再構成される。これは、例えば、放射k空間データをデカルト座標に格子変えし、その後逆フーリエ変換するなどのような、従来の画像再構成である。結果として得られる限定された合成画像Ctは、アンダーサンプリングに起因する縞模様のアーチファクトを含むが、これらの縞模様のアーチファクトは、同一ビュー角度がそれぞれ内に含まれるために、次の画像フレーム内のアーチファクトと実質的に同一である。 As indicated by process block 254, the composite image C t is then reconstructed from the smoothed data set C t . This is a conventional image reconstruction such as, for example, changing the grid of radiation k-space data to Cartesian coordinates and then performing an inverse Fourier transform. The resulting limited composite image C t contains striped artifacts due to undersampling, but these striped artifacts are included in the next image frame because each contains the same view angle. It is substantially the same as the inside artifact.

プロセスブロック256で示されるとおり、現在の画像フレームに対するk空間投影ビューはまた、フーリエ変換フィルタカーネルを用いて平滑化される。これは合成データセットCtに関して上に説明されたのと同一フィルタを使用して、各k空間投影ビューを乗算することによって達成される。次に、平滑化された現在の画像フレームTは、プロセスブロック258で示されるとおり、フィルタリングされたk空間データセットを用いて再構成される。平滑化合成画像Ctにおけるのと同様に、これは標準画像再構成であり、縞模様はアンダーサンプリングにより発生する。 As indicated by process block 256, the k-space projection view for the current image frame is also smoothed using a Fourier transform filter kernel. This is accomplished by multiplying each k-space projection view using the same filter described above for the composite data set C t . The smoothed current image frame T is then reconstructed using the filtered k-space data set, as indicated by process block 258. As in the smoothed composite image Ct , this is a standard image reconstruction and the fringes are generated by undersampling.

プロセスブロック260に示されるとおり、次に、現在の平滑化画像フレームTを現在の平滑化合成画像Ctで割算することによって、正規化重み付け画像Twが生成される。これは、ゼロであるフィルタリングされた合成画像Ct内のピクセルが最初に小さい値に設定されることを除いて、ピクセル間の直接割算である。複素ピクセル値の実部および虚部成分に関してこの割算演算を個別に実行することによって、位相情報は維持される。プロセスブロック262に示されるとおり、次に、完全な合成画像Cと正規化重み付け画像Twを乗算することによって、HYPR画像フレームTHが生成される。これは、2つの画像内の対応するピクセルのピクセル間の直接乗算である。 As indicated at process block 260, then, by dividing the current smoothed image frame T by the current smoothed composite image C t, normalized weighting image T w is generated. This is a direct division between pixels, except that the pixels in the filtered composite image C t that are zero are initially set to a small value. By performing this division operation separately on the real and imaginary components of the complex pixel value, the phase information is maintained. As indicated at process block 262, then, by multiplying the complete composite image C and the normalized weighting image T w, HYPR image frame T H is generated. This is a direct multiplication between the corresponding pixels in the two images.

本発明のこの実施態様においては、正規化重み付け画像は、乗算演算によってk空間内で「平滑化」にされる。次に説明される第2実施態様においては、この平滑化はフィルタリング演算によって画像空間内で実行される。いずれにせよ、高いSNRの合成画像は、正規化重み付け画像Twによって変更され、現在の画像フレームデータが取得されたスキャンの間の時点における対象を表示する。合成画像の高いSNRは現在の画像フレームに関する時間依存情報と共に維持される。 In this embodiment of the invention, the normalized weighted image is “smoothed” in k-space by a multiplication operation. In the second embodiment described next, this smoothing is performed in the image space by a filtering operation. In any case, the high SNR of the composite image, is modified by the normalized weighting image T w, to display the object at the time between the current image scan frame data is obtained. The high SNR of the composite image is maintained along with time dependent information for the current image frame.

特に図11を参照すると、本発明の第2実施態様においては、「平滑化」は上述のk空間でなく、画像空間内で実行される。本発明の第2実施態様における第1ステップは、プロセスブロック270において示された、現在の画像フレームに対する合成データセットCtを再生成することである。これは、プロセスブロック250における上述のような同一のステップである。プロセスブロック272に示されるとおり、次に、「限定された」合成画像が、従来の画像再構成法を用いて、合成データセットCtから再生成される。 With particular reference to FIG. 11, in the second embodiment of the present invention, “smoothing” is performed in the image space, not the k-space described above. The first step in the second embodiment of the present invention is to regenerate the composite data set C t for the current image frame, shown in process block 270. This is the same step as described above in process block 250. As indicated at process block 272, a “limited” composite image is then regenerated from the composite data set C t using conventional image reconstruction methods.

プロセスブロック274に示されるとおり、次に、この限定された合成画像Ctはフィルタリングによって平滑化される。さらに詳細には、平滑化は画像空間内のコンボリューションプロセスであり、限定された合成画像Ctは、以下により詳細に説明されるフィルタカーネルでコンボリューションされる。 As indicated in process block 274, the limited composite image C t is then smoothed by filtering. More particularly, smoothing is a convolution process in the image space, and the limited composite image C t is convolved with a filter kernel described in more detail below.

プロセスブロック276に示されるとおり、次に、スキャンの間の現時点について取得された限定された投影ビューから、画像フレームが再構成される。これは従来の画像再構成であり、結果的に、アンダーサンプリングに起因する縞模様が結果として得られた画像フレームT内に現れ、比較的低いSNRを有することになる。プロセスブロック278に示されるとおり、画像フレームはフィルタリングすることによって平滑化される。フィルタリングは、上述と同一のコンボリューションプロセスによって、同一フィルタカーネルを使用して、限定された合成画像Ctに対して画像空間内で実行される。 As indicated at process block 276, an image frame is then reconstructed from the limited projection views acquired for the current time during the scan. This is a conventional image reconstruction, and as a result, a striped pattern due to undersampling appears in the resulting image frame T and has a relatively low SNR. As indicated at process block 278, the image frame is smoothed by filtering. Filtering is performed in the image space for the limited composite image C t using the same filter kernel by the same convolution process as described above.

プロセスブロック279に示されるとおり、次に、フィルタリングされた画像フレームTをフィルタリングされた合成画像Ctで割算することによって、正規化重み付け画像Twが生成される。これは、フィルタリングされた画像フレームT内の各ピクセル値をフィルタリングされた合成画像Ct内の対応するピクセル値で割算する従来の割算演算である。次に、プロセスブロック280に示されるとおり、この正規化重み付け画像Twに完全な合成画像Cを乗算することにより、最終のHYPR画像フレームTHを生成する。 As shown in process block 279, a normalized weighted image T w is then generated by dividing the filtered image frame T by the filtered composite image C t . This is a conventional division operation for dividing the corresponding pixel values in the filtered is filtered each pixel value in the image frame T and composite image C t. Next, as shown in process block 280, by multiplying the complete composite image C in the normalized weighting image T w, to produce the final HYPR image frame T H.

上述の最初の2つの実施態様では、フィルタカーネルまたはこのカーネルのフーリエ変換を用いて、画像空間またはk空間内の画像を平滑化する。好ましい実施態様では、画像空間内で7×7正方形のフィルタカーネルを用いて2次元画像を平滑化し、このカーネルのフーリエ変換sinc関数を用いてk空間画像データを平滑化する。3D画像を再構成するとき、カーネル全体にわたり等しい重み付けを有する9×9×9立方体のフィルタカーネルまたは球カーネルが画像空間内で使用され、このカーネルのフーリエ変換を用いてk空間内で平滑化する。カーネルサイズは、平滑化が実行されるとき、カーネルが関心対象(例えば、血管)の外側からの情報を多量に含まないように、選択されるべきである。カーネルサイズは、試験される物体の寸法と同程度、または若干小さくすべきであるが、その正確な形状は重要ではない。ガウスまたは他のスムースカーネルもまた使用されてもよく、実行される結果としての関数はローパスフィルタリングである。「いずれかまたは全ての情報、または本発明において使用できるフィルタカーネルに関して得た教示を追加すべきである。」   In the first two embodiments described above, a filter kernel or a Fourier transform of this kernel is used to smooth the image in image space or k-space. In a preferred embodiment, the 2D image is smoothed using a 7 × 7 square filter kernel in image space, and the k-space image data is smoothed using the Fourier transform sinc function of this kernel. When reconstructing a 3D image, a 9 × 9 × 9 cubic filter kernel or sphere kernel with equal weighting throughout the kernel is used in image space and smoothed in k-space using the Fourier transform of this kernel . The kernel size should be selected so that when smoothing is performed, the kernel does not contain a large amount of information from outside the object of interest (eg, a blood vessel). The kernel size should be as small as or slightly smaller than the dimensions of the object being tested, but its exact shape is not critical. Gaussian or other smooth kernels may also be used and the resulting function performed is low pass filtering. “You should add any or all of the information or teachings you got about the filter kernel that can be used in the present invention.”

最初の2つの実施態様では、フィルタリングは、限定された合成データまたは画像Ctおよび現在の画像フレームデータまたは画像に関して個別に実行される。最初にk空間または画像空間内で割算演算を実行し、その後、k空間内(乗算)または画像空間内(コンボリューション)のいずれか内で、その結果に関して平滑化関数を実行することも可能である。割算演算後に発生するすべての縞模様は、この実施態様が採用されると、平滑化される。 In the first two implementations, the filtering is performed separately on the limited composite data or image C t and the current image frame data or image. It is also possible to first perform a division operation in k-space or image space, and then perform a smoothing function on the result in either k-space (multiplication) or image space (convolution) It is. All striped patterns that occur after the division operation are smoothed when this embodiment is employed.

本発明の上述の実施態様では、平滑化、またはフィルタリング、演算はk空間データまたは画像空間データに関して実行される。同一結果を達成するための同等の、しかしあまり望ましくない方法は、画像空間視野をより小さいセグメントに分割し、各小さいセグメントをHYPR法を用いて個別に再構成することである。その後、セグメントは結合されて、完全な再構成画像が生成される。上述のとおり、この方法は上述の平滑化方法と同等である。なぜなら、セグメントサイズが1ピクセルにまで減少する場合、結果が理論的に同一であるからである。次に、この等価「セグメント化」HYPR法の好ましい実施態様は以下に説明される。   In the above-described embodiments of the present invention, smoothing or filtering, operations are performed on k-space data or image space data. An equivalent but less desirable way to achieve the same result is to divide the image space field into smaller segments and reconstruct each small segment individually using the HYPR method. The segments are then combined to produce a complete reconstructed image. As described above, this method is equivalent to the smoothing method described above. This is because the results are theoretically the same when the segment size is reduced to 1 pixel. A preferred embodiment of this equivalent “segmented” HYPR method will now be described below.

特に図13を参照すると、上記パルスシーケンスのいずれかを用いて、プロセスブロック325に示されるとおり、一連の画像フレームを取得してもよい。例えば、これらの画像は、造影剤ボーラスが視野に入るときに、一連の画像フレームが血管系から取得される、CEMRA動的試験の一部として取得されてもよい。各画像フレームは、試験の時間解像度を増加するために高度にアンダーサンプリングされ、および各アンダーサンプリングされた画像フレームの取得された投影ビューは、他の画像フレームの取得された投影ビューでインターリーブされる。   With particular reference to FIG. 13, any of the above pulse sequences may be used to acquire a series of image frames, as shown in process block 325. For example, these images may be acquired as part of a CEMRA dynamic test where a series of image frames are acquired from the vasculature when the contrast bolus enters the field of view. Each image frame is highly undersampled to increase the temporal resolution of the test, and the acquired projection view of each undersampled image frame is interleaved with the acquired projection view of the other image frame .

プロセスブロック327に示されるとおり、次のステップは、高度に限定された再構成プロセスにおいて使用するために、高品質合成画像を再構成することである。この実施態様では、合成画像は、取得された画像フレームからの全てのインターリーブ投影ビューを結合して単一の高度にサンプリングされたk空間データセットとし、結合されたk空間データセットを用いて従来の画像再構成を実行することによって、生成される。従来の再構成は、各投影ビューのフーリエ変換後にフィルタリング逆投影を実行するか、または結合されたk空間データセット内のk空間サンプルをデカルト座標に格子変え後に3次元フーリエ変換を実行してもよい。代替方法では、個別の合成画像が取得され、再構成されてもよい。   As shown in process block 327, the next step is to reconstruct a high quality composite image for use in a highly limited reconstruction process. In this embodiment, the composite image combines all interleaved projection views from the acquired image frames into a single highly sampled k-space data set, which is conventionally used with the combined k-space data set. Is generated by performing image reconstruction. Conventional reconstruction may perform a filtered backprojection after the Fourier transform of each projection view, or perform a 3D Fourier transform after re-sizing k-space samples in the combined k-space data set to Cartesian coordinates. Good. In an alternative method, individual composite images may be acquired and reconstructed.

さらに図13を参照すると、次に、画像フレームが再構成されるループに入る。単一画像フレームが再構成されてもよいが、一般には、画像フレーム再構成ループは多数回繰り返され、動的試験の間に取得される全ての画像フレームが再構成される。   Still referring to FIG. 13, a loop is then entered in which the image frames are reconstructed. Although a single image frame may be reconstructed, in general, the image frame reconstruction loop is repeated a number of times to reconstruct all image frames acquired during dynamic testing.

プロセスブロック329に示されるとおり、このループにおける第1ステップは、取得された高度にアンダーサンプリングされた画像フレームを用いて画像を再構成することである。これは従来の画像再構成であり、取得された画像フレームは高度にアンダーサンプリングされているため、結果として得られる画像は、多くの縞模様および他のアーチファクを含み、これによりその画像診断価値を制限する可能性はある。プロセスブロック331に示される次のステップは、この従来の画像フレームをセグメントに分割することである。図15に示されるとおり、本発明におけるセグメント化は、3DのFOV300をより小さい3Dボリューム、またはセグメント302に分割することを意味する。   As shown in process block 329, the first step in this loop is to reconstruct the image using the acquired highly undersampled image frames. Since this is a conventional image reconstruction and the acquired image frames are highly undersampled, the resulting image contains many striped patterns and other artifacts, thereby increasing its diagnostic value. There is a possibility to limit. The next step shown in process block 331 is to divide this conventional image frame into segments. As shown in FIG. 15, segmentation in the present invention means dividing a 3D FOV 300 into smaller 3D volumes, or segments 302.

従来の画像フレームがセグメントに分割された後、各小さいセグメント302がラドン空間に再投影されるループに入る。プロセスブロック333に示されるとおり、3DのFOV300内の全てのピクセルは、再投影されたセグメント302内のピクセルを除いてゼロに設定される。次に、セグメントは従来の方法により再投影され、図15のデータブロック304に示される投影ビューのセットが形成される。好ましくは、処理時間の観点から実際的である多くの異なるビュー角度に沿って再投影される。この再投影プロセスは、画像フレームの全ての個別のセグメント302が、決定ブロック335で示されるように再投影され、対応する投影ビューデータブロック304を生成するまで続く。   After the conventional image frame is divided into segments, a loop is entered in which each small segment 302 is reprojected into Radon space. As shown in process block 333, all pixels in the 3D FOV 300 are set to zero except for pixels in the reprojected segment 302. The segments are then reprojected by conventional methods to form the set of projected views shown in data block 304 of FIG. Preferably, it is reprojected along many different view angles that are practical from a processing time standpoint. This reprojection process continues until all individual segments 302 of the image frame are reprojected as indicated by decision block 335 to produce a corresponding projection view data block 304.

次に、再投影されたセグメントデータセット304のそれぞれが、プロセスブロック337に示されおよび図15に表されるとおり、高度に限定された画像再構成法(HYPR)を用いて最終画像セグメント306に再構成される。これは上述の同時係属の米国特許出願第11/482,372号に記載された方法であり、この方法は図14に関連して以下により詳細に説明される。注意すべき重要点は、この場合においては、画像フレームセグメント投影データセット304が極めて疎であることである。この理由は、再投影されるべき全ての信号が取得されるFOVの1つだけの小さいセグメント302からの信号であるためである。決定ブロック339に示されるとおり、最終画像フレームセグメント302が逆投影されると、プロセスブロック341に示されおよび図15に表されるとおり、全ての小さい再構成された最終セグメント画像306が結合され、単一3D画像フレーム308が形成される。これは、各最終セグメント画像306を3DのFOV308内の正しい位置に置くことに他ならない。   Next, each of the reprojected segment data sets 304 is converted into a final image segment 306 using a highly constrained image reconstruction method (HYPR) as shown in process block 337 and represented in FIG. Reconfigured. This is the method described in the above-mentioned co-pending US patent application Ser. No. 11 / 482,372, which is described in more detail below with respect to FIG. It is important to note that in this case the image frame segment projection data set 304 is very sparse. This is because all signals to be reprojected are signals from only one small segment 302 of the FOV being acquired. As shown in decision block 339, when the final image frame segment 302 is backprojected, all small reconstructed final segment images 306 are combined, as shown in process block 341 and represented in FIG. A single 3D image frame 308 is formed. This is nothing but placing each final segment image 306 in the correct position within the 3D FOV 308.

試験の間に取得された各画像はこの方法で再構成されてもよい。決定ブロック343に示されるとおり、このプロセスは、最終画像フレームが再構成されたときに終了する。   Each image acquired during the test may be reconstructed in this way. As indicated at decision block 343, the process ends when the final image frame is reconstructed.

上述の方法の可能な変形形態は、各再構成された画像フレームの最終画像セグメント306を個別に格納することである。これにより、選択されたセグメント306を個別に表示して、画像フレームFOV308の小部分上に焦点を当てて診断できる状態にできる。これが特に有用であるのは、例えば、MIP画像が生成され、および他の血管が重なり、1つの画像セグメント306内の特定の関心血管を覆う場合である。   A possible variation of the above method is to store the final image segment 306 of each reconstructed image frame separately. As a result, the selected segments 306 can be individually displayed and focused on a small portion of the image frame FOV 308 so that diagnosis can be performed. This is particularly useful, for example, when an MIP image is generated and other vessels overlap and cover a particular vessel of interest within one image segment 306.

特に図14を参照すると、上述の方法における各画像フレームセグメント306の高度に限定された再構成が、式(2)に関連して説明され、図4において図表示されている。より詳細には、プロセスブロック231に示されるとおり、画像フレームセグメント304の投影Pが正規化される。各投影Pは、この投影を同一ビュー角度における合成画像内の投影Pcで割算することによって正規化される。次に、正規化された投影P/PcはFOVに逆投影される。これは標準逆投影であるが、フィルタリングされていない。 With particular reference to FIG. 14, the highly constrained reconstruction of each image frame segment 306 in the above-described method is described with respect to Equation (2) and illustrated in FIG. More particularly, the projection P of the image frame segment 304 is normalized, as shown in process block 231. Each projection P is normalized by dividing this projection by the projection P c in the composite image at the same view angle. The normalized projection P / P c is then backprojected to the FOV. This is a standard backprojection but not filtered.

プロセスブロック233に示されるとおり、結果として得られる逆投影値は再構成される画像フレームセグメント306に加えられ、決定ブロック235においてテストがなされて、現在の画像フレームセグメント304の全ての投影ビューが逆投影されたかどうかを決定する。全ての投影ビューが逆投影され終わっていない場合、プロセスブロック237に示されるとおり、現在の画像フレームセグメント304内の次の投影ビューが逆投影される。   As shown in process block 233, the resulting backprojection value is added to the reconstructed image frame segment 306 and a test is made at decision block 235 to reverse all projection views of the current image frame segment 304. Determine if it has been projected. If all the projected views have not been backprojected, the next projected view in the current image frame segment 304 is backprojected, as shown in process block 237.

全ての投影ビューが逆投影され、画像フレームセグメント304について合計されると、合計された画像フレームセグメントは、プロセスブロック239に示されるとおり、合成画像と乗算され、最終画像フレームセグメント306が生成される。これはマトリクス乗算であり、この乗算では、画像フレームセグメント内のピクセル値は合成画像内の対応するピクセルに値と乗算される。この高度に限定された画像フレームセグメント再構成を実行する他の方法は、同時係属中の米国特許出願第11/482,372号(2006年7月7日出願の、発明の名称「高度に限定された画像再構成法(Highly Constrained Image Reconstruction Method)」に記載されたとおりにして使用できることは明らかである。上記特許出願の内容は参照により本明細書に組み込む。   Once all the projected views have been backprojected and summed for image frame segment 304, the summed image frame segment is multiplied with the composite image as shown in process block 239 to produce the final image frame segment 306. . This is a matrix multiplication, where the pixel value in the image frame segment is multiplied by the value of the corresponding pixel in the composite image. Another method for performing this highly limited image frame segment reconstruction is described in co-pending US patent application Ser. No. 11 / 482,372 (filed July 7, 2006, entitled “Highly Limited”). It is clear that it can be used as described in “Highly Constrained Image Reconstruction Method.” The contents of the above patent application are incorporated herein by reference.

本発明は、MRIシステムを用いて取得されるk空間投影ビューの2Dまたは3D画像再構成に関連して説明されているが、本発明は、X線CT、PETおよびSPECTイメージングシステムなどのラドン空間データを取得する他の医用イメージングシステムにも同様に適用できることは、当業者には明らかであろう。また、本発明は放射投影として取得されるk空間データに限定されないが、他のk空間サンプリング軌跡に適用することもできる。例えば、インターリーブされた螺旋軌跡またはデカルト軌跡を用いて取得された画像は、格子変えでき、上述と同一演算を施すことができる。   Although the present invention has been described in connection with 2D or 3D image reconstruction of k-space projection views acquired using an MRI system, the present invention can be used for radon space such as X-ray CT, PET and SPECT imaging systems. Those skilled in the art will appreciate that other medical imaging systems that acquire data are equally applicable. The present invention is not limited to k-space data acquired as a radial projection, but can be applied to other k-space sampling trajectories. For example, an image acquired using an interleaved spiral trajectory or Cartesian trajectory can be relatively changed and subjected to the same calculation as described above.

本発明の上述の実施態様の全ては、対象ビューの限定されたセットが医用イメージングシステムを用いて取得され、および画像がこれらのビューから生成される、画像再構成方法として明瞭に特徴付けできる。本発明は画像再構成に限定されないが、既存画像の品質の改良に適用することもできる。より詳細には、有効合成画像の高いSNRは、本発明の高度に限定された画像処理を採用することによって、有効な低品質画像フレームに組み込むことができる。画像フレームは事前に取得され、再構成されていてもよく、有効な高品質合成画像は、画像フレームを結合することにより、あるいは同一のイメージングシステムを用いて高品質画像を取得することにより、あるいは同一または異なるモダリティの異なるイメージングシステムを用いて高品質画像を取得することにより生成されてもよい。   All of the above-described embodiments of the present invention can be clearly characterized as an image reconstruction method in which a limited set of object views is acquired using a medical imaging system and images are generated from these views. The present invention is not limited to image reconstruction, but can also be applied to improving the quality of existing images. More specifically, the high SNR of the effective composite image can be incorporated into an effective low quality image frame by employing the highly limited image processing of the present invention. Image frames may be pre-acquired and reconstructed, and valid high-quality composite images are obtained by combining image frames, or by acquiring high-quality images using the same imaging system, or It may be generated by acquiring high quality images using different imaging systems of the same or different modalities.

特に図1および16を参照すると、高度に限定された画像処理が一連の画像フレーム2について実行される。プロセスブロック400で示されるとおりに各画像フレーム2が取得されるにつれて、プロセスブロック402で示されとおり、各画像フレームは格納され、コピーを用いて合成画像3を更新する。合成画像3は、事前選択された数の他の取得された画像フレーム2と現在の画像フレーム2と累積である。累積は、累積に寄与する画像フレームの数で割算された2D画像フレーム2内の対応するピクセルのマトリクス加算である。この結果は、画像フレーム2の事前選択された数に比例する、増加したSNRを有する合成画像3である。例えば、36個の2D画像フレーム2が累積される場合、SNRは単一の2D画像フレーム2のSNRの6倍になる。合成画像を生成するのに使用される画像フレームの数は、実行される特定の臨床手順に依存する。   With particular reference to FIGS. 1 and 16, highly limited image processing is performed on a series of image frames 2. As each image frame 2 is acquired as indicated by process block 400, each image frame is stored and the composite image 3 is updated with a copy as indicated by process block 402. The composite image 3 is cumulative with a preselected number of other acquired image frames 2 and the current image frame 2. Accumulation is a matrix addition of corresponding pixels in the 2D image frame 2 divided by the number of image frames contributing to the accumulation. The result is a composite image 3 with an increased SNR that is proportional to the preselected number of image frames 2. For example, if 36 2D image frames 2 are accumulated, the SNR is 6 times the SNR of a single 2D image frame 2. The number of image frames used to generate the composite image depends on the particular clinical procedure being performed.

全体に404で示されるとおり、次のステップは、現在の2D画像フレーム2と更新された合成画像3とを用いて正規化重み付け画像を生成することである。このステップを実行するための多くの異なる方法が存在するが、図16に好ましい方法が示されている。より詳細には、更新された合成画像3は、プロセスブロック406で示されとおり、フィルタリングによって「平滑化」される。フィルタリングはコンボリューションプロセスであり、このプロセスでは、更新された2D合成画像アレイ3が、上述のとおり、フィルタカーネルでコンボリューションされる。カーネルサイズの選択は、平滑化が実行されるとき、カーネルが関心対象(例えば、血管)の外側からの情報を多量に含まないように、選択されるべきである。フィルタカーネルが関心対象より大幅に大きい場合、対象内の信号は平均化されるが、その形状は変化しない。一方、フィルタカーネルが関心対象より小さい場合、それの形状、またはプロファイルは平滑化される。   As indicated generally at 404, the next step is to generate a normalized weighted image using the current 2D image frame 2 and the updated composite image 3. There are many different ways to perform this step, but the preferred method is shown in FIG. More specifically, the updated composite image 3 is “smoothed” by filtering, as indicated by process block 406. Filtering is a convolution process in which the updated 2D composite image array 3 is convolved with the filter kernel as described above. The choice of kernel size should be chosen so that when smoothing is performed, the kernel does not contain a lot of information from outside the object of interest (eg, blood vessels). If the filter kernel is significantly larger than the object of interest, the signal within the object is averaged, but its shape does not change. On the other hand, if the filter kernel is smaller than the object of interest, its shape, or profile, is smoothed.

さらに図16を参照すると、現在の2D画像フレーム2もまた、プロセスブロック408に示されるように、平滑化またはフィルタリングされる。すなわち、2D画像フレームアレイ2はフィルタカーネルによりコンボリューションされ、ローパフィルタリング関数を実行する。プロセスブロック410に示されるとおり、次に、フィルタリングされた現在の画像フレーム(T)内のピクセル値をフィルタリングされた合成画像(Ct)内の対応するピクセル値で割算することによって、正規化重み付け画像(Tw)が生成される。 Still referring to FIG. 16, the current 2D image frame 2 is also smoothed or filtered as indicated at process block 408. That, 2D image frame array 2 is convolved with the filter kernel to perform a number of functions lowpass filter-ring. Normalization is then performed by dividing the pixel value in the filtered current image frame (T) by the corresponding pixel value in the filtered composite image (C t ), as shown in process block 410. A weighted image (T w ) is generated.

プロセスブロック412に示されるとおり、次に、高度に限定された(HYPR)画像フレーム4が生成される。この画像フレーム4は、更新された合成画像アレイ3と正規化重み付け画像(Tw)を乗算することによって生成される。これは、2つの画像における対応するピクセル値の乗算である。次に、プロセスブロック414に示されるとおり、結果として得られた2DのHYPR画像4はディスプレイに出力され、システムはループバックして、次の2D画像フレーム2を取得し、処理する。この手順が完了すると、決定ブロック416で決定されるとおり、プログラムは終了する。 As indicated at process block 412, a highly limited (HYPR) image frame 4 is then generated. This image frame 4 is generated by multiplying the updated composite image array 3 and the normalized weighted image (T w ). This is a multiplication of the corresponding pixel values in the two images. Next, as shown in process block 414, the resulting 2D HYPR image 4 is output to the display and the system loops back to obtain and process the next 2D image frame 2. When this procedure is complete, the program ends as determined at decision block 416.

上述のとおり、正規化重み付け画像(Tw)を生成するための多くの代替方法が存在する。これらの方法のうちの2つが、図17および18に示されている。特に図17を参照すると、第1代替方法はプロセスブロック418で示される第1ステップを含み、このステップでは、取得された2D画像フレームアレイ2を更新された合成画像3で割算する。これは、取得された2D画像フレームアレイ2内の各ピクセル値を更新された合成画像アレイ3内の対応するピクセル値で割算することである。次に、割算された結果として得られる2D画像フレームは、プロセスブロック420に示されるとおり、平滑化またはフィルタリングされ、正規化重み付け画像(Tw)が生成される。このフィルタリング演算は、プロセスブロック406および408に関連して上に説明されたのと同一コンボリューションプロセスである。 As mentioned above, there are many alternative ways to generate a normalized weighted image (T w ). Two of these methods are illustrated in FIGS. With particular reference to FIG. 17, the first alternative method includes a first step, indicated by process block 418, in which the acquired 2D image frame array 2 is divided by the updated composite image 3. This is to divide each pixel value in the acquired 2D image frame array 2 by the corresponding pixel value in the updated composite image array 3. The resulting 2D image frame resulting from the division is then smoothed or filtered as shown in process block 420 to produce a normalized weighted image (T w ). This filtering operation is the same convolution process described above in connection with process blocks 406 and 408.

正規化重み付け画像(Tw)を生成するための別の代替方法が図18に示されている。この方法は、プロセスブロック422に示されるとおり、異なるビュー角度からの画像の投影ビューを取り込むことによって、取得された2D画像フレーム2をラドン空間に変換する。プロセスブロック424に示されるとおり、更新された合成画像3はまた、2D画像フレーム2を変換するのに使用されたのと同一のビュー角度セットにおける投影ビューを算出することによって、ラドン空間に変換される。プロセスブロック426に示されるとおり、次に、画像フレーム投影ビューPは、合成画像投影ビューPcで割算されることによって、正規化される。これは、同一ビュー角度における投影PおよびPc内の対応する要素の割算である。次に、プロセスブロック428において、従来の方法で正規化投影(P/Pc)を逆投影することによって、正規化重み付け画像(Tw)が生成される。これはフィルタ処理された逆投影ではなく、直接逆投影である。 Another alternative method for generating a normalized weighted image (T w ) is shown in FIG. The method converts the acquired 2D image frame 2 to Radon space by capturing projected views of the image from different view angles, as shown in process block 422. As shown in process block 424, the updated composite image 3 is also converted to Radon space by calculating a projected view in the same set of view angles used to convert the 2D image frame 2. The As indicated at process block 426, the image frame projection view P is then normalized by dividing by the composite image projection view P c . This is a division of the corresponding elements in projections P and P c at the same view angle. Next, at process block 428, a normalized weighted image (T w ) is generated by backprojecting the normalized projection (P / P c ) in a conventional manner. This is a direct backprojection, not a filtered backprojection.

医用イメージング用途への本発明の適用を示した図である。It is the figure which showed application of this invention to a medical imaging use. MRIシステムを用いた典型的なフーリエまたはスピンワープ画像取得において、k空間がサンプリングされる方法の図である。FIG. 6 is a diagram of how k-space is sampled in a typical Fourier or spin warp image acquisition using an MRI system. MRIシステムを用いた典型的な投影再構成画像取得における、k空間がサンプリングされる方法の図である。FIG. 6 is a diagram of how k-space is sampled in a typical projection reconstruction image acquisition using an MRI system. 画像再構成プロセスにおける従来の逆投影ステップの図的表現である。FIG. 2 is a graphical representation of a conventional backprojection step in an image reconstruction process. 本発明にかかる、高度に限定された2Dの逆投影ステップの図的表現である。Figure 3 is a graphical representation of a highly limited 2D backprojection step according to the present invention. 本発明にかかる、高度に限定された3Dの逆投影の図的表現である。FIG. 3 is a graphical representation of highly limited 3D backprojection according to the present invention. 本発明を実施するために用いられる磁気共鳴イメージング(MRI)システムのブロック図である。1 is a block diagram of a magnetic resonance imaging (MRI) system used to implement the present invention. 本発明の一実施態様を実現するために、図6のMRIシステムで用いられるパルスシーケンスである。7 is a pulse sequence used in the MRI system of FIG. 6 to implement an embodiment of the present invention. 図7のパルスシーケンスを用いてサンプリングされたk空間データの図的表現である。FIG. 8 is a graphical representation of k-space data sampled using the pulse sequence of FIG. 図7のパルスシーケンスを用いて図6のMRIシステムで用いられる、本発明の好ましい実施態様のフローチャートである。8 is a flowchart of a preferred embodiment of the present invention used in the MRI system of FIG. 6 using the pulse sequence of FIG. 図10は、図9の方法の一部を形成するHYPR画像フレームを再構成するための1つの好ましい方法のフローチャートである。FIG. 10 is a flowchart of one preferred method for reconstructing a HYPR image frame that forms part of the method of FIG. 図11は、HYPR画像フレームを再構成するための別の好ましい方法のフローチャートである。FIG. 11 is a flowchart of another preferred method for reconstructing a HYPR image frame. 図12は、本発明の別の実施態様を実現するために、図6のMRIシステムにおいて使用されるパルスシーケンスである。FIG. 12 is a pulse sequence used in the MRI system of FIG. 6 to implement another embodiment of the present invention. 図13は、図6のMRIシステムにおいて使用される本発明の好ましい実施態様のフローチャートである。FIG. 13 is a flowchart of a preferred embodiment of the present invention used in the MRI system of FIG. 図14は、図13の方法において使用される高度に限定された画像再構成法のフローチャートである。FIG. 14 is a flowchart of the highly limited image reconstruction method used in the method of FIG. 図15は、図13に示されるプロセスの図表示である。FIG. 15 is a diagrammatic representation of the process shown in FIG. 図16は、本発明の別の好ましい実施態様のフローチャートである。FIG. 16 is a flowchart of another preferred embodiment of the present invention. 図17は、図16の手順において使用する方法の代替方法のフローチャートである。FIG. 17 is a flowchart of an alternative method used in the procedure of FIG. 図18は、図16の手順において使用する方法の別の代替方法のフローチャートである。18 is a flowchart of another alternative method to the method used in the procedure of FIG. 図19は、FOV全体の再構成された画像を示す。FIG. 19 shows a reconstructed image of the entire FOV.

Claims (4)

取得された画像フレームデータセットの高度に限定された再構成方法であって、
前記取得された画像フレームデータセットから画像フレームを再構成するステップと、
記画像フレームを複数のセグメントに分割するステップと、
前記複数のセグメントの各セグメントを再投影して、対応する複数のセグメント投影ビューデータセットを生成するステップと、
前記取得された画像フレームデータセットから再構成されて画像化される前記対象に関する先験的情報を含む合成画像によって、高度に限定された逆投影プロセスにおいて対応する前記セグメント投影ビューデータセットを用いて最終画像フレームセグメントを再構成するステップと、を含む
高度に限定された再構成方法。
A highly limited reconstruction method for acquired image frame datasets,
And reconstructing the acquired image frame data set or al picture image frame,
Dividing the front Kiga image frame into a plurality of segments,
Reprojecting each segment of the plurality of segments to generate a corresponding plurality of segment projection view data sets;
The composite image containing a priori information about the object to be imaged is reconstructed from the acquired image frame data set, using said segment projection view data sets corresponding in backprojection process that is highly constrained Reconstructing a final image frame segment, and a highly limited reconstruction method.
前記最終画像フレームセグメントを結合して最終画像フレームを生成する、請求項1に記載の方法。   The method of claim 1, wherein the final image frame segments are combined to produce a final image frame. 最終画像セグメントが選択的に表示される、請求項1に記載の方法。   The method of claim 1, wherein the final image segment is selectively displayed. 前記合成画像は、他の取得された画像データと結合された前記取得された画像フレームデータセットを用いて再構成される、請求項1に記載の方法。   The method of claim 1, wherein the composite image is reconstructed using the acquired image frame data set combined with other acquired image data.
JP2013128305A 2007-02-19 2013-06-19 Localization and highly limited image reconstruction methods Active JP5737725B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US90172807P 2007-02-19 2007-02-19
US60/901728 2007-02-19

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2007304285A Division JP5408641B2 (en) 2007-02-19 2007-11-26 Localization and highly limited image reconstruction methods

Publications (2)

Publication Number Publication Date
JP2013208504A JP2013208504A (en) 2013-10-10
JP5737725B2 true JP5737725B2 (en) 2015-06-17

Family

ID=38983588

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2007304285A Active JP5408641B2 (en) 2007-02-19 2007-11-26 Localization and highly limited image reconstruction methods
JP2013128305A Active JP5737725B2 (en) 2007-02-19 2013-06-19 Localization and highly limited image reconstruction methods

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2007304285A Active JP5408641B2 (en) 2007-02-19 2007-11-26 Localization and highly limited image reconstruction methods

Country Status (5)

Country Link
US (1) US8170315B2 (en)
EP (1) EP1959396B1 (en)
JP (2) JP5408641B2 (en)
CN (1) CN101251583B (en)
AT (1) ATE542196T1 (en)

Families Citing this family (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1927009A1 (en) * 2005-09-22 2008-06-04 Wisconsin Alumni Research Foundation Reconstruction of images of the beating heart using a highly constrained backprojection
CN101573629B (en) * 2007-01-02 2013-07-10 威斯康星校友研究基金会 Contrast enhanced mra with highly constrained backprojection reconstruction using phase contrast composite image
EP1959397B1 (en) * 2007-02-19 2019-08-07 Wisconsin Alumni Research Foundation Iterative HYPR medical image reconstruction
EP1959396B1 (en) * 2007-02-19 2012-01-18 Wisconsin Alumni Research Foundation Localized and highly constrained image reconstruction method
US8825138B2 (en) * 2007-09-17 2014-09-02 Wisconsin Alumni Research Foundation Method for reducing motion artifacts in highly constrained medical images
EP2037413A3 (en) 2007-09-17 2011-01-26 Wisconsin Alumni Research Foundation A method for reducing motion artifacts in highly constrained medical images
US8111810B2 (en) * 2007-11-13 2012-02-07 Wisconsin Alumni Research Foundation Method for producing highly constrained ultrasound images
EP2232446B1 (en) * 2007-12-20 2013-04-17 Wisconsin Alumni Research Foundation Method for prior image constrained image reconstruction
ATE528733T1 (en) * 2007-12-20 2011-10-15 Wisconsin Alumni Res Found METHOD FOR DYNAMIC CONSTRAINTED IMAGE RECONSTRUCTION WITH PREVIOUS IMAGE
WO2009091824A1 (en) * 2008-01-14 2009-07-23 Wisconsin Alumni Research Foundation Method for prior image constrained progressive image reconstruction
US8396248B2 (en) * 2008-09-16 2013-03-12 Varian Medical Systems, Inc. Sequential stereo imaging for estimating trajectory and monitoring target position
EP2349008B1 (en) * 2008-11-26 2015-02-25 Wisconsin Alumni Research Foundation Method for prior image constrained image reconstruction in cardiac cone beam computed tomography
US8077955B2 (en) * 2009-03-19 2011-12-13 Kabushiki Kaisha Toshiba B1 mapping in MRI system using k-space spatial frequency domain filtering
US8111893B2 (en) * 2009-06-09 2012-02-07 Wisconsin Alumni Research Foundation Method for dynamic prior image constrained image reconstruction
US8761478B2 (en) * 2009-12-15 2014-06-24 General Electric Company System and method for tomographic data acquisition and image reconstruction
US8204172B1 (en) 2010-03-17 2012-06-19 General Electric Company System and method of prior image constrained image reconstruction using short scan image data and objective function minimization
US8890522B2 (en) 2010-04-02 2014-11-18 General Electric Company Accelerated pseudo-random data magnetic resonance imaging system and method
US8422756B2 (en) * 2010-04-27 2013-04-16 Magnetic Resonance Innovations, Inc. Method of generating nuclear magnetic resonance images using susceptibility weighted imaging and susceptibility mapping (SWIM)
US8483463B2 (en) 2010-05-19 2013-07-09 Wisconsin Alumni Research Foundation Method for radiation dose reduction using prior image constrained image reconstruction
EP2632337A1 (en) * 2010-10-27 2013-09-04 Koninklijke Philips Electronics N.V. Under-sampled, multi-energy computed tomography (ct) data acquisition data processing
US8781243B2 (en) 2011-01-07 2014-07-15 Wisconsin Alumni Research Foundation Method for constrained reconstruction of high signal-to-noise ratio images
US8913710B2 (en) 2011-04-27 2014-12-16 Varian Medical Systems, Inc. Truncation correction imaging enhancement method and system
US8897527B2 (en) * 2011-06-07 2014-11-25 Varian Medical Systems, Inc. Motion-blurred imaging enhancement method and system
US8620404B2 (en) 2011-07-26 2013-12-31 Wisconsin Alumni Research Foundation System and method of high-frame rate, time-resolved, three-dimensional magnetic resonance angiograpy
US8903150B2 (en) 2011-07-31 2014-12-02 Varian Medical Systems, Inc. Filtration imaging enhancement method and system
US20130107006A1 (en) * 2011-10-28 2013-05-02 New York University Constructing a 3-dimensional image from a 2-dimensional image and compressing a 3-dimensional image to a 2-dimensional image
US9295431B2 (en) * 2011-10-28 2016-03-29 New York University Constructing a 3-dimensional image from a 2-dimensional image and compressing a 3-dimensional image to a 2-dimensional image
WO2013166357A1 (en) * 2012-05-04 2013-11-07 The Regents Of The University Of California Multi-plane method for three-dimensional particle image velocimetry
KR101351583B1 (en) * 2012-10-10 2014-01-16 한국과학기술원 Medical image imaging method, medical diagnostic apparatus thereof, and recording device thereof
WO2014141256A1 (en) * 2013-03-14 2014-09-18 Yissum Research Development Company Of The Hebrew University Of Jerusalem Medical imaging
CN103338225B (en) * 2013-05-27 2015-02-25 沈阳东软医疗系统有限公司 Method for medical image data sharing based on cloud platform, and cloud platform and system for medical image data sharing
WO2015019970A1 (en) 2013-08-08 2015-02-12 株式会社東芝 Image processing device and magnetic resonance imaging device
US9208588B2 (en) 2013-09-25 2015-12-08 Wisconsin Alumni Research Foundation Fast statistical imaging reconstruction via denoised ordered-subset statistically-penalized algebraic reconstruction technique
JP6072723B2 (en) * 2014-04-21 2017-02-01 株式会社日立製作所 Magnetic resonance imaging apparatus and imaging method
CN103955899A (en) * 2014-05-02 2014-07-30 南方医科大学 Dynamic PET image denoising method based on combined image guiding
WO2016009309A1 (en) 2014-07-16 2016-01-21 Koninklijke Philips N.V. Irecon: intelligent image reconstruction system with anticipatory execution
US10456116B2 (en) * 2014-09-30 2019-10-29 Siemens Medical Solutions Usa, Inc. Shadow suppression in ultrasound imaging
US9659368B2 (en) 2015-05-15 2017-05-23 Beth Israel Deaconess Medical Center, Inc. System and method for enhancing functional medical images
US9943280B2 (en) 2016-03-07 2018-04-17 General Electric Company Breast tomosynthesis with flexible compression paddle
EP3684463A4 (en) 2017-09-19 2021-06-23 Neuroenhancement Lab, LLC Method and apparatus for neuroenhancement
US11717686B2 (en) 2017-12-04 2023-08-08 Neuroenhancement Lab, LLC Method and apparatus for neuroenhancement to facilitate learning and performance
US11478603B2 (en) 2017-12-31 2022-10-25 Neuroenhancement Lab, LLC Method and apparatus for neuroenhancement to enhance emotional response
WO2019144092A1 (en) * 2018-01-22 2019-07-25 University Of Tennessee Research Foundation High-speed imaging using periodic optically modulated detection
US11364361B2 (en) 2018-04-20 2022-06-21 Neuroenhancement Lab, LLC System and method for inducing sleep by transplanting mental states
CA3107326A1 (en) 2018-07-30 2020-02-06 Hyperfine Research, Inc. Deep learning techniques for magnetic resonance image reconstruction
CN113557526A (en) 2018-08-15 2021-10-26 海珀菲纳股份有限公司 Deep learning technique for suppressing artifacts in magnetic resonance images
WO2020056418A1 (en) 2018-09-14 2020-03-19 Neuroenhancement Lab, LLC System and method of improving sleep
CN109752681B (en) * 2019-01-22 2021-10-29 奥泰医疗系统有限责任公司 Inclined plane echo imaging method and nuclear magnetic resonance imaging system
EP3938799A2 (en) 2019-03-14 2022-01-19 Hyperfine, Inc. Deep learning techniques for generating magnetic resonance images from spatial frequency data
CN110680321B (en) * 2019-09-26 2023-08-29 东软医疗系统股份有限公司 Spine MRI scanning parameter determining method and device and image processing equipment
JP7509546B2 (en) 2020-02-12 2024-07-02 キヤノンメディカルシステムズ株式会社 Image Reconstruction Device
US11085979B1 (en) * 2020-02-24 2021-08-10 Uih America, Inc. System and method for magnetic resonance imaging with radial sampling of k-space
CN113349812B (en) * 2021-06-08 2023-03-31 梅州市人民医院(梅州市医学科学院) Image enhancement display method, medium and equipment based on dynamic PET (positron emission tomography) image
CN115953600B (en) * 2023-03-08 2023-07-21 中国测绘科学研究院 Multi-mode image matching method and system based on multi-direction filtering channel characteristics
CN117830311B (en) * 2024-03-05 2024-05-28 中山大学 Medical image picture segmentation and key frame identification method, system, equipment and medium

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5603322A (en) 1993-01-19 1997-02-18 Mcw Research Foundation Time course MRI imaging of brain functions
EP0627633A1 (en) 1993-05-18 1994-12-07 Koninklijke Philips Electronics N.V. Method and apparatus for magnetic resonance imaging
DE4319539A1 (en) 1993-06-12 1994-12-15 Philips Patentverwaltung Method for generating an MR image sequence and arrangement for carrying out the method
DE4436688A1 (en) 1994-10-13 1996-04-25 Siemens Ag Spiral computer tomograph for human body investigation
DE19647537A1 (en) 1996-11-16 1998-05-20 Philips Patentverwaltung MR method for reducing movement artifacts and arrangement for carrying out the method
US6487435B2 (en) 1998-04-10 2002-11-26 Wisconsin Alumni Research Foundation Magnetic resonance angiography using undersampled 3D projection imaging
US6490472B1 (en) 1999-09-03 2002-12-03 The Mcw Research Foundation, Inc. MRI system and method for producing an index indicative of alzheimer's disease
WO2002067779A1 (en) 2001-02-28 2002-09-06 Mitsubishi Heavy Industries, Ltd. Multi-radiation source x-ray ct apparatus
DE10119660B4 (en) 2001-04-20 2006-01-05 Siemens Ag Method for the rapid acquisition of a magnetic resonance image
EP1444530B1 (en) 2001-11-12 2008-08-13 Wisconsin Alumni Research Foundation Three-dimensional phase contrast magnetic resonance imaging using interleaved projection-reconstruction data
GB0321895D0 (en) 2003-09-18 2003-10-22 Inst Of Cancer Res The A method and apparatus for image reconstruction
WO2005069031A1 (en) 2004-01-14 2005-07-28 Koninklijke Philips Electronics, N.V. Regularized variable density sense
EP1902328B1 (en) 2005-07-08 2015-11-11 Wisconsin Alumni Research Foundation Constrained backprojection reconstruction method for undersampled mri
ATE492006T1 (en) * 2005-07-08 2011-01-15 Wisconsin Alumni Res Found BACK PROJECTION RECONSTRUCTION METHOD FOR CT IMAGING
WO2007037951A2 (en) 2005-09-22 2007-04-05 Wisconsin Alumni Research Foundation Reconstruction of motion encoded mr images involving a highly constrained backprojection
EP1946139A1 (en) 2005-09-22 2008-07-23 Wisconsin Alumni Research Foundation Functional mri involving a highly constrained backprojection
EP1927009A1 (en) 2005-09-22 2008-06-04 Wisconsin Alumni Research Foundation Reconstruction of images of the beating heart using a highly constrained backprojection
US7408347B2 (en) 2005-09-22 2008-08-05 Wisconsin Alumni Research Foundation Highly constrained magnetic resonance spectroscopy image reconstruction method
WO2007038206A1 (en) 2005-09-22 2007-04-05 Wisconsin Alumni Research Foundation Highly constrained backprojection reconstruction in diffusion weighted mri
CN101573629B (en) 2007-01-02 2013-07-10 威斯康星校友研究基金会 Contrast enhanced mra with highly constrained backprojection reconstruction using phase contrast composite image
EP1959396B1 (en) * 2007-02-19 2012-01-18 Wisconsin Alumni Research Foundation Localized and highly constrained image reconstruction method
EP1959397B1 (en) 2007-02-19 2019-08-07 Wisconsin Alumni Research Foundation Iterative HYPR medical image reconstruction
US8825138B2 (en) 2007-09-17 2014-09-02 Wisconsin Alumni Research Foundation Method for reducing motion artifacts in highly constrained medical images
US8111810B2 (en) 2007-11-13 2012-02-07 Wisconsin Alumni Research Foundation Method for producing highly constrained ultrasound images

Also Published As

Publication number Publication date
EP1959396A1 (en) 2008-08-20
JP2008200478A (en) 2008-09-04
ATE542196T1 (en) 2012-02-15
CN101251583A (en) 2008-08-27
US8170315B2 (en) 2012-05-01
JP2013208504A (en) 2013-10-10
CN101251583B (en) 2013-06-12
JP5408641B2 (en) 2014-02-05
US20080219535A1 (en) 2008-09-11
EP1959396B1 (en) 2012-01-18

Similar Documents

Publication Publication Date Title
JP5737725B2 (en) Localization and highly limited image reconstruction methods
JP5113060B2 (en) Reconstruction of beating heart image
EP1959397B1 (en) Iterative HYPR medical image reconstruction
JP5123191B2 (en) Diffusion tensor imaging using highly constrained image reconstruction methods
JP5523686B2 (en) Method for reducing motion artifacts in highly limited medical images
JP5047960B2 (en) Highly constrained image reconstruction
EP2232446B1 (en) Method for prior image constrained image reconstruction
EP2572335B1 (en) Method for radiation dose reduction using prior image constrained image reconstruction
EP2232444B1 (en) Method for dynamic prior image constrained image reconstruction
US8472688B2 (en) Method for image reconstruction employing sparsity-constrained iterative correction
EP2037413A2 (en) A method for reducing motion artifacts in highly constrained medical images

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130626

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140417

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140527

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20140825

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20140828

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20140926

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20141001

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150324

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150415

R150 Certificate of patent or registration of utility model

Ref document number: 5737725

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250