WO2015170394A1 - Image capturing device, image processing device, and image processing method - Google Patents

Image capturing device, image processing device, and image processing method Download PDF

Info

Publication number
WO2015170394A1
WO2015170394A1 PCT/JP2014/062439 JP2014062439W WO2015170394A1 WO 2015170394 A1 WO2015170394 A1 WO 2015170394A1 JP 2014062439 W JP2014062439 W JP 2014062439W WO 2015170394 A1 WO2015170394 A1 WO 2015170394A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
data
data set
unit
imaging
Prior art date
Application number
PCT/JP2014/062439
Other languages
French (fr)
Japanese (ja)
Inventor
眞次 黒川
久晃 越智
恵介 山川
Original Assignee
株式会社日立製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立製作所 filed Critical 株式会社日立製作所
Priority to PCT/JP2014/062439 priority Critical patent/WO2015170394A1/en
Publication of WO2015170394A1 publication Critical patent/WO2015170394A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging

Definitions

  • the present invention relates to an imaging apparatus such as a magnetic resonance imaging apparatus or a CT apparatus, and more particularly to a technique for reconstructing a high-quality image using thinned data acquired by these imaging apparatuses.
  • the receiving coil is a phased array coil composed of a plurality of small coils
  • the data set to be subjected to image processing is k-space data of 2D imaging moving images.
  • the k-space data constituting the moving image is a plurality of time-series k-space data, and one k-space data is referred to as frame data.
  • Step S108 is processing corresponding to Expression (1), and as shown in Expression (8), the estimated image m k in Step S105 is updated to w k based on the sparse conversion of compressed sensing.
  • the frame synthesis A data 251 is created using the (n-1) th frame data 301 and the nth frame data 302, and the nth frame data 302 and the (n + 1) th frame data.
  • the frame composition B data 252 is created using the information 303.
  • the low-frequency data of the frame composition A data 251 and the frame composition B data 252 is the low-frequency data measured closely of the n-th frame data 302.
  • the high-frequency data is data randomly selected from the data without synthesis.
  • the frame composition A data 251 is created so that the low frequency is data of the nth frame of the non-synthesis data, and the high frequency is data randomly selected from the nth and (n-1) th frames. Is done.
  • the frame synthesis B data 252 is created so that the low frequency is data of the nth frame of the non-combined data, and the high frequency is data randomly selected from the nth and n + 1th frames.
  • Projection data is collected by the data collection unit 195 and used for reconstruction of a tomographic image of the subject.
  • the data collected by the data collection unit 195 is data in which one axis is a channel direction (X-ray detection element arrangement direction) and the other axis is a view direction (rotation angle direction of the rotating plate).

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Radiology & Medical Imaging (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

The present invention suppresses artifacts which occur in a high-speed image capturing method by thinning out data. A low-dimensional image is created by converting measurement data and an image into a low-dimensional space, and a new type of constraint in image estimation processing is created using the low-dimensional image. By providing the new type of constraint that is different in nature from the constraint of sparseness in compressed sensing and a constraint based on coil sensitivity in parallel imaging, the range of the solution of an estimated image is narrowed to thereby bring the estimated image close to a correct solution.

Description

撮像装置、画像処理装置及び画像処理方法Imaging apparatus, image processing apparatus, and image processing method
 本発明は、磁気共鳴イメージング装置やCT装置などの撮像装置に関し、特にこれら撮像装置で取得した間引かれたデータを用いて、高品質な画像を再構成する技術に関する。 The present invention relates to an imaging apparatus such as a magnetic resonance imaging apparatus or a CT apparatus, and more particularly to a technique for reconstructing a high-quality image using thinned data acquired by these imaging apparatuses.
 磁気共鳴イメージング(以下、MRIという)装置やCT装置などの撮像装置では、撮像時間の短縮化のために、本来画像再構成等に必要なデータ数よりも少ないデータすなわち欠損のあるデータ(これを間引かれたデータという)を収集し、他の情報から欠損を補って画像を再構成する手法が開発されている。 In an imaging apparatus such as a magnetic resonance imaging (hereinafter referred to as MRI) apparatus or a CT apparatus, in order to shorten the imaging time, data that is less than the number of data originally necessary for image reconstruction or the like (deletion data) A method has been developed in which thinned data is collected and images are reconstructed by making up for deficiencies from other information.
 たとえば、MRI装置では、受信コイルを構成する複数の小型コイルでそれぞれ得られた間引かれたデータに感度分布を用いて、真の画像を再構成する手法(パラレルイメージング)がある(特許文献1)。特許文献1では、パラレルイメージングで用いるコイル感度分布を、間引きデータを合成したデータから生成する技術が記載されている。 For example, in an MRI apparatus, there is a technique (parallel imaging) in which a true image is reconstructed by using a sensitivity distribution for thinned data obtained by a plurality of small coils constituting a receiving coil (Patent Document 1). ). Patent Document 1 describes a technique for generating a coil sensitivity distribution used in parallel imaging from data obtained by combining thinned data.
 最近では、データが足りなくても、データが何かしらの変換で疎なデータに変換できるという性質を持つときに、その性質を利用して画像を再構成する技術(圧縮センシング)も提案されている。この技術をMRI装置に適用する例が、例えば特許文献2、特許文献3に開示されている。特許文献2には、間引き方の異なる複数のデータセットに対し、それぞれアーティファクトに対応する補正量を算出し、もとのフレームデータを補正する処理を繰り返して推定画像の品質を高める手法が提案されている。特許文献3には、k空間データの一部をフレーム毎にずらしながら撮像する手法(“Sliding window”)で作成した画像からの差分を疎なデータに変換することで推定画像の品質を高める手法が提案されている。また、圧縮センシングではないが、他の情報から欠損を補う画像再構成において、平均画像を最適化に用いる例が、特許文献4に開示されている。 Recently, even when there is not enough data, a technique (compressed sensing) that reconstructs an image using that property when the data has the property that it can be converted into sparse data by some kind of conversion has been proposed. . Examples of applying this technique to an MRI apparatus are disclosed in, for example, Patent Document 2 and Patent Document 3. Patent Document 2 proposes a method for increasing the quality of an estimated image by repeatedly calculating a correction amount corresponding to an artifact for each of a plurality of data sets having different thinning methods and correcting the original frame data. ing. Patent Document 3 discloses a technique for improving the quality of an estimated image by converting a difference from an image created by a technique (“Sliding window”) that captures a part of k-space data while shifting it for each frame. Has been proposed. Moreover, although it is not compression sensing, the example which uses an average image for optimization in the image reconstruction which compensates a defect | deletion from other information is disclosed by patent document 4. FIG.
 また非特許文献1~5には、パラレルイメージングをさらに進化させた技術やその周辺技術、圧縮センシングに関わる技術が提案されており、例えば非特許文献1や非特許文献2には、コイル感度分布に基づき間引いたデータを補うオペレータ(SPIRiTオペレータやGRAPPAオペレータなどと呼ばれる)が提案されている。非特許文献3には、各コイルのデータを加算するにあたり最適な重みを決定する技術が記載されている。非特許文献4には、感度マップを複数用いる技術、非特許文献5には、圧縮センシングの繰り返し再構成で用いる閾値を繰り返しの中で変化させる技術が提案されている。 Non-Patent Documents 1 to 5 propose a technique that further evolves parallel imaging, a peripheral technique thereof, and a technique related to compressed sensing. For example, Non-Patent Document 1 and Non-Patent Document 2 disclose a coil sensitivity distribution. An operator (referred to as SPIRIT operator or GRAPPA operator) that supplements the thinned data based on the above has been proposed. Non-Patent Document 3 describes a technique for determining an optimum weight for adding data of each coil. Non-Patent Document 4 proposes a technique that uses a plurality of sensitivity maps, and Non-Patent Document 5 proposes a technique that changes a threshold value used in repeated reconstruction of compressed sensing during repetition.
 CT装置についても、これまで主流であった計算時間の短い逆投影法に対し、計算機の高速化により、繰り返し計算による再構成が現実的なものになっている。心臓などの動く物体の撮像における時間分解能の向上や、被ばく量の低減のために間引かれたデータから再構成を行うことが望まれており、上述した圧縮センシングの適用も試みられている。 As for the CT apparatus, reconfiguration by repetitive calculation has become realistic due to the speeding up of the computer compared to the back projection method having a short calculation time which has been the mainstream until now. In order to improve temporal resolution in imaging moving objects such as the heart and to reduce the exposure dose, it is desired to perform reconstruction from the thinned data, and application of the above-described compressed sensing is also attempted.
特開2003-325473号公報JP 2003-325473 A 米国特許公開2013/310678号US Patent Publication No. 2013/310678 米国特許公開2009/262996号US Patent Publication No. 2009/262996 米国特許公開2005/189942号US Patent Publication No. 2005/189942
 これまでの圧縮センシングを適用した画像推定方法は、それぞれの手法に応じて、対象とするフレームデータに制約がある場合や推定画像の向上(真の画像との一致)に限界がある場合がある。例えば、アーティファクトを考慮する(特許文献2)ということや、疎なデータへの変換を工夫する(特許文献3)というようなことは行われているが、すべて、計測データの一致性の制約条件の中、変換された空間でデータが疎になるような画像を推定するという枠組みの中で行われており、一致性の制約を満たすような画像の存在範囲は広く、推定画像が真の画像に十分近づかないことがあるという問題がある。また、特許文献2ではアーティファクトを効果的に抑制できる技術が開示されているが、アーティファクトが解析的に求まる、複数のデータセットがフュージョンできるなどというように適用条件が厳しい。 Conventional image estimation methods using compressed sensing may have limitations on the target frame data or limitations on the improvement of the estimated image (matching with the true image) depending on each method. . For example, consideration is given to artifacts (Patent Document 2), and conversion to sparse data is devised (Patent Document 3). Is performed within the framework of estimating images whose data is sparse in the transformed space, and there is a wide range of images that satisfy the constraints of consistency, and the estimated image is a true image There is a problem that it may not be close enough. Further, Patent Document 2 discloses a technique that can effectively suppress artifacts, but the application conditions are severe such that the artifacts can be obtained analytically and a plurality of data sets can be fused.
 本発明は、MRI装置のみならずCT装置その他あらゆる撮像装置に適用することができ且つ推定画像がより真の画像に近づくようにする撮像装置および画像処理技術を提供することを課題とする。また本発明は、アーティファクトを効果的に抑制できる技術を提供することを課題とする。 It is an object of the present invention to provide an imaging apparatus and an image processing technique that can be applied not only to an MRI apparatus but also to a CT apparatus or any other imaging apparatus and make an estimated image closer to a true image. Moreover, this invention makes it a subject to provide the technique which can suppress an artifact effectively.
 上記課題を解決するため、本発明の第1の態様は、間引かれたデータから推定処理により画像を再構成する際に、間引かれたデータである計測データと画像を低次元空間に変換し、その空間で一致するという新しいタイプの制約を作成し、推定処理における推定画像の解の範囲を絞り、推定画像を正解に近づけることを内容とする。この新しいタイプの制約は、上記先行技術文献が開示する圧縮センシングにおける疎という制約や、パラレルイメージングのコイル感度に基く制約とは性質が異なる。 In order to solve the above-mentioned problem, the first aspect of the present invention converts measurement data and images, which are thinned data, into a low-dimensional space when an image is reconstructed from the thinned data by estimation processing. Then, a new type of constraint that matches in the space is created, the range of the solution of the estimated image in the estimation process is narrowed down, and the content is to bring the estimated image closer to the correct solution. This new type of constraint is different in nature from the constraint of sparseness in compressed sensing and the constraint based on the coil sensitivity of parallel imaging disclosed in the above prior art document.
 本発明の第2の態様は、アーティファクトの抽出と、抽出結果を用いたアーティファクト抑制を内容とし、アーティファクトの抽出は、対象とする計測データの画像と、対象とする計測データとそれ以外の計測データとの合成画像とを用いることを特徴とする。 The second aspect of the present invention includes artifact extraction and artifact suppression using the extraction result. The artifact extraction includes target measurement data image, target measurement data, and other measurement data. And a composite image.
 本発明の第1の態様と第2の態様は、独立にあるいは組み合わせて実施することができる。 The first aspect and the second aspect of the present invention can be implemented independently or in combination.
 すなわち本発明の撮像装置は、画像再構成に必要なデータセットを収集する撮像部と、前記データセットを用いて画像を再構成する画像処理部とを備え、前記撮像部が収集するデータセットは、欠損データを含むデータセットであって、前記画像処理部は、前記データセットを用いて、データセットと画像との一致性の制約条件下で画像を推定する画像推定部と、前記データセットと画像を低次元化する低次元データ作成部と、前記低次元データ作成部が作成した低次元データセットと低次元画像との一致性の制約条件で前記画像推定部が推定した推定画像を更新する画像更新部と、を備える(第一の態様)。 That is, the imaging apparatus of the present invention includes an imaging unit that collects a data set necessary for image reconstruction, and an image processing unit that reconstructs an image using the data set, and the data set collected by the imaging unit is A data set including missing data, wherein the image processing unit uses the data set to estimate an image under a constraint condition of coincidence between the data set and the image, and the data set; Update the estimated image estimated by the image estimation unit under the constraint condition of the low-dimensional image and the low-dimensional data creation unit that lowers the image, and the low-dimensional image set created by the low-dimensional data creation unit An image updating unit (first mode).
 また本発明の撮像装置は、画像再構成に必要なデータセットを収集する撮像部と、前記データセットを用いて画像を再構成する画像処理部とを備え、前記撮像部が収集するデータセットは、欠損データを含むデータセットであって、前記画像処理部は、複数のデータセットを用いて、データセットと画像との一致性の制約条件下で画像を推定する画像推定部と、前記欠損データを含むデータセットから再構成した画像に含まれるアーティファクトを抽出するアーティファクト抽出部と、前記アーティファクト抽出部が抽出したアーティファクト情報を用いて、前記データセットを補正するデータ補正部と、を備え、前記アーティファクト抽出部は、一のデータセットと、当該一のデータセットとそれ以外のデータセットとの合成データセットを用いて、前記一のデータセットに含まれるアーティファクトを算出するものであり、前記画像推定部は、前記データ補正部で補正されたデータセットについて画像推定処理を行う(第二の態様)。 The imaging apparatus of the present invention includes an imaging unit that collects a data set necessary for image reconstruction, and an image processing unit that reconstructs an image using the data set, and the data set collected by the imaging unit is A data set including missing data, wherein the image processing unit uses a plurality of data sets to estimate an image under a constraint condition of coincidence between the data set and the image, and the missing data An artifact extraction unit that extracts an artifact included in an image reconstructed from a data set including: a data correction unit that corrects the data set using the artifact information extracted by the artifact extraction unit, and the artifact. The extraction unit includes one data set and a combined data set of the one data set and other data sets. With, which calculates the artifacts included in the one data set, the image estimation unit performs image estimation processing for the data set that is corrected by the data correcting section (second embodiment).
 本発明の画像処理装置は、上述した撮像装置の画像処理部の構成を有するものであり、撮像装置の一部であっても撮像装置から独立したものであってもよい。 The image processing apparatus of the present invention has the configuration of the image processing unit of the imaging apparatus described above, and may be part of the imaging apparatus or independent of the imaging apparatus.
 本発明の撮像装置及び画像処理装置は、MRI装置、CT装置、超音波撮像装置、PET装置その他、種々の撮像装置に適用される。 The imaging apparatus and image processing apparatus of the present invention are applied to various imaging apparatuses such as an MRI apparatus, a CT apparatus, an ultrasonic imaging apparatus, a PET apparatus, and the like.
 本発明によれば、間引かれたデータを計測する高速撮像において、圧縮センシングに新たなタイプの制約を加えることにより、アーティファクトを抑制し、真値に近づけた画像を取得することができる。また従前と同程度のアーティファクトであれば、よりデータ間引き率を高めて撮像を高速化できる。 According to the present invention, in high-speed imaging that measures thinned data, by adding a new type of constraint to compressed sensing, artifacts can be suppressed and an image close to a true value can be acquired. Further, if the artifact is the same level as before, it is possible to increase the data thinning rate and speed up imaging.
本発明が適用されるMRI装置の全体概要を示すブロック図1 is a block diagram showing an overall outline of an MRI apparatus to which the present invention is applied. 第一実施形態の画像処理部を示すブロック図Block diagram showing the image processing unit of the first embodiment 第一実施形態の画像処理部の動作を示すフローチャートThe flowchart which shows operation | movement of the image process part of 1st embodiment. 第一実施形態の画像処理部が扱うデータとその処理を説明する図The figure explaining the data which the image processing part of 1st embodiment handles, and its processing 第一実施形態の効果を示す図The figure which shows the effect of 1st embodiment 第一実施形態で扱うデータの変更例を示す図The figure which shows the example of a change of the data handled by 1st embodiment 第一実施形態の画像処理部が扱うデータの別の変更例を示す図The figure which shows another example of a change of the data which the image process part of 1st embodiment handles 第一実施形態の画像処理部の平均化処理の変更例を示す図The figure which shows the example of a change of the averaging process of the image process part of 1st embodiment. 第一実施形態の画像処理部の平均化処理の別の変更例を示す図The figure which shows another example of a change of the averaging process of the image process part of 1st embodiment. 第一実施形態の画像処理部の平均化処理のさらに別の変更例を示す図The figure which shows another example of a change of the averaging process of the image process part of 1st embodiment. 第一実施形態の画像処理部の平均化処理のさらに別の変更例を示す図The figure which shows another example of a change of the averaging process of the image process part of 1st embodiment. 第一実施形態の画像処理部の平均化処理のさらに別の変更例を示す図The figure which shows another example of a change of the averaging process of the image process part of 1st embodiment. 第一実施形態の画像処理部の平均化処理のさらに別の変更例を示す図The figure which shows another example of a change of the averaging process of the image process part of 1st embodiment. 第一実施形態の追加されたUI機能の一例を示す図The figure which shows an example of the added UI function of 1st embodiment. 第一実施形態の追加されたUI機能の別の例を示す図The figure which shows another example of the added UI function of 1st embodiment. 第二実施形態の画像処理部を示すブロック図The block diagram which shows the image processing part of 2nd embodiment. 第二実施形態の画像処理部の動作を示すフローチャートThe flowchart which shows operation | movement of the image process part of 2nd embodiment. 第二実施形態の画像処理部が扱うデータとその処理を説明する図The figure explaining the data which the image processing part of 2nd embodiment handles, and its processing 第二実施形態の画像処理部の動作の変更例を示すフローチャートThe flowchart which shows the example of a change of operation | movement of the image process part of 2nd embodiment. 第二実施形態の画像処理部の動作の別の変更例を示すフローチャートThe flowchart which shows another example of change of operation of the image processing part of a second embodiment. 第二実施形態の画像処理部の動作のさらに別の変更例を示すフローチャートThe flowchart which shows another example of a change of the operation | movement of the image processing part of 2nd embodiment. 第二実施形態の効果を示す図The figure which shows the effect of 2nd embodiment 本発明が適用されるCT装置の全体概要を示すブロック図The block diagram which shows the whole outline | summary of CT apparatus with which this invention is applied. 第三実施形態の画像処理部の動作を示すフローチャートThe flowchart which shows operation | movement of the image processing part of 3rd embodiment. 第三実施形態の画像処理部が扱うデータとその処理を説明する図The figure explaining the data which the image processing part of 3rd embodiment handles, and its processing 第四実施形態の画像処理部の動作を示すフローチャートFlowchart showing the operation of the image processing unit of the fourth embodiment 第四実施形態の画像処理部が扱うデータとその処理を説明する図The figure explaining the data which the image processing part of 4th embodiment handles, and its processing
 本実施形態の撮像装置は、画像再構成に必要なデータセットを収集する撮像部と、前記データセットを用いて画像を再構成する画像処理部とを備える。画像処理部は、前記撮像部が収集した、欠損データを含むデータセットを処理するものであり、データセットを用いて、データセットと画像との一致性の制約条件下で画像を推定する画像推定部と、前記データセットと画像を低次元化する低次元データ作成部と、前記低次元データ作成部が作成した低次元データセットと低次元画像との一致性の制約条件で前記画像推定部が推定した推定画像を更新する画像更新部と、を備える。 The imaging apparatus according to the present embodiment includes an imaging unit that collects a data set necessary for image reconstruction, and an image processing unit that reconstructs an image using the data set. The image processing unit processes the data set including the missing data collected by the imaging unit, and uses the data set to estimate an image under a constraint condition of coincidence between the data set and the image. A low-dimensional data creation unit for reducing the order of the data set and the image, and the image estimation unit under a constraint condition for matching between the low-dimensional data set created by the low-dimensional data creation unit and the low-dimensional image. And an image update unit that updates the estimated image.
 撮像装置は、例えばMRI装置であり、この場合、撮像部は、静磁場及び傾斜磁場を発生する磁場発生部、高周波磁場を発生する送信部及び前記高周波磁場によって生じる核磁気共鳴信号を受信する受信部を備え、データセットはk空間データである。 The imaging apparatus is, for example, an MRI apparatus. In this case, the imaging section receives a magnetic field generation unit that generates a static magnetic field and a gradient magnetic field, a transmission unit that generates a high-frequency magnetic field, and a nuclear magnetic resonance signal generated by the high-frequency magnetic field. The data set is k-space data.
 また撮像装置は、例えばCT装置であり、この場合、撮像部は、X線源と、前記X線源から発せられるX線を検出するX線検出器と、前記X線源及び前記X線検出器を対向配置して回転させる回転部とを備え、データセットは、回転部の異なる回転角度で収集した投影データからなる。 The imaging apparatus is, for example, a CT apparatus. In this case, the imaging unit includes an X-ray source, an X-ray detector that detects X-rays emitted from the X-ray source, the X-ray source, and the X-ray detection. The data set is made up of projection data collected at different rotation angles of the rotation unit.
 以下、本発明の撮像装置の実施形態を、図面を参照して説明する。本発明の実施形態を説明するための全図において、同一機能を有するものは同一符号を付し、その繰り返しの説明は省略する。 Hereinafter, an embodiment of an imaging apparatus of the present invention will be described with reference to the drawings. In all the drawings for explaining the embodiments of the present invention, those having the same function are denoted by the same reference numerals, and repeated explanation thereof is omitted.
 まず本発明の撮像装置をMRI装置に適用した実施形態を説明する。図1に、MRI装置の概要を示す。MRI装置100は、NMR現象を利用して被検体101の断層画像を得るもので、図1に示すように、静磁場を発生する静磁場発生部120と、静磁場中に配置された被検体101に対して傾斜磁場を印加する傾斜磁場発生部130と、被検体101の磁化を所定のフリップ角で励起させる高周波磁場パルスを送信する送信部150と、被検体101が発生するエコー信号を受信する受信部160と、受信部160が受信したエコー信号から画像を再構成するとともに、撮像シーケンスに従って、傾斜磁場発生部130、送信部150、受信部160の動作を制御する制御部170と、シーケンサ140と、を備える。磁場発生部(静磁場発生部120及び傾斜磁場発生部130)、送信部150及び受信部160は、本発明の撮像部に相当する。 First, an embodiment in which the imaging apparatus of the present invention is applied to an MRI apparatus will be described. FIG. 1 shows an outline of the MRI apparatus. The MRI apparatus 100 obtains a tomographic image of the subject 101 using the NMR phenomenon. As shown in FIG. 1, the MRI apparatus 100 generates a static magnetic field, and a subject placed in the static magnetic field. A gradient magnetic field generator 130 that applies a gradient magnetic field to 101, a transmitter 150 that transmits a high-frequency magnetic field pulse that excites magnetization of the subject 101 with a predetermined flip angle, and an echo signal generated by the subject 101 are received. A receiving unit 160, an image reconstructed from echo signals received by the receiving unit 160, and a control unit 170 that controls operations of the gradient magnetic field generating unit 130, the transmitting unit 150, and the receiving unit 160 according to an imaging sequence, and a sequencer 140. The magnetic field generation unit (the static magnetic field generation unit 120 and the gradient magnetic field generation unit 130), the transmission unit 150, and the reception unit 160 correspond to the imaging unit of the present invention.
 静磁場発生部120は、被検体101の周りの空間に均一な静磁場を発生させるもので、被検体101の周りに配置される永久磁石方式、常電導方式あるいは超電導方式の静磁場発生源を備える。静磁場発生源には、発生する静磁場の方向により垂直磁場方式と水平磁場方式がある。垂直磁場方式では、被検体101の体軸と直交する方向に、水平磁場方式では、体軸方向に静磁場を発生する。 The static magnetic field generator 120 generates a uniform static magnetic field in the space around the subject 101. A static magnet type, normal conduction type, or superconducting type static magnetic field generation source arranged around the subject 101 is used. Prepare. There are a vertical magnetic field method and a horizontal magnetic field method depending on the direction of the generated static magnetic field. In the vertical magnetic field method, a static magnetic field is generated in a direction perpendicular to the body axis of the subject 101, and in the horizontal magnetic field method, a static magnetic field is generated in the body axis direction.
 傾斜磁場発生部130は、MRI装置100の座標系(装置座標系)であるX、Y、Zの3軸方向に巻かれた傾斜磁場コイル131と、それぞれの傾斜磁場コイルを駆動する傾斜磁場電源132とを備える。傾斜磁場コイル131は、シーケンサ140からの命令に従ってそれぞれの傾斜磁場コイル131の傾斜磁場電源132を駆動することにより、X、Y、Zの3軸方向に傾斜磁場パルスGx、Gy、Gzを印加する。傾斜磁場パルスGx、Gy、Gzには、それぞれ、撮影時にスライス面(撮影断面)に直交する方向に印加して、被検体101に対するスライス面を設定する役割と、設定したスライス面に直交し、かつ、互いに直交する残りの2つの方向にそれぞれ印加し、NMR信号(エコー信号)に2方向の位置情報をエンコードする役割とがある。 The gradient magnetic field generation unit 130 is a gradient magnetic field coil 131 wound in the three-axis directions of X, Y, and Z, which is a coordinate system (apparatus coordinate system) of the MRI apparatus 100, and a gradient magnetic field power source that drives each gradient magnetic field coil. 132. The gradient coil 131 applies gradient magnetic field pulses Gx, Gy, and Gz in the three axis directions of X, Y, and Z by driving the gradient magnetic field power supply 132 of each gradient coil 131 in accordance with a command from the sequencer 140. . Each of the gradient magnetic field pulses Gx, Gy, and Gz is applied in a direction orthogonal to the slice plane (imaging cross section) at the time of imaging, and sets the slice plane for the subject 101 and is orthogonal to the set slice plane. In addition, there is a role of applying the information in the remaining two directions orthogonal to each other and encoding position information in two directions into the NMR signal (echo signal).
 送信部150は、被検体101の生体組織を構成する原子の原子核スピンに核磁気共鳴を起こさせるために、被検体101に高周波磁場パルス(以下、「RFパルス」と呼ぶ。)を照射するもので、高周波発振器(シンセサイザ)152と変調器153と高周波増幅器154と送信側の高周波コイル(送信コイル)151とを備える。高周波発振器152はRFパルスを生成し、シーケンサ140からの指令によるタイミングで出力する。変調器153は、出力されたRFパルスを振幅変調する。高周波増幅器154は、この振幅変調されたRFパルスを増幅し、被検体101に近接して配置された送信コイル151に供給する。送信コイル151は供給されたRFパルスを被検体101に照射する。 The transmitter 150 irradiates the subject 101 with a high-frequency magnetic field pulse (hereinafter referred to as “RF pulse”) in order to cause nuclear magnetic resonance to occur in the nuclear spins of the atoms constituting the biological tissue of the subject 101. And a high-frequency oscillator (synthesizer) 152, a modulator 153, a high-frequency amplifier 154, and a high-frequency coil (transmission coil) 151 on the transmission side. The high frequency oscillator 152 generates an RF pulse and outputs it at a timing according to a command from the sequencer 140. The modulator 153 amplitude-modulates the output RF pulse. The high-frequency amplifier 154 amplifies the amplitude-modulated RF pulse and supplies the amplified RF pulse to the transmission coil 151 disposed close to the subject 101. The transmission coil 151 irradiates the subject 101 with the supplied RF pulse.
 受信部160は、被検体101の生体組織を構成する原子核スピンの核磁気共鳴により放出される核磁気共鳴信号(エコー信号、NMR信号)を検出するもので、受信側の高周波コイル(受信コイル)161と信号増幅器162と直交位相検波器163と、A/D変換器164とを備える。受信コイル161は、被検体101に近接して配置され、送信コイル151から照射された電磁波によって誘起された被検体101の応答のNMR信号を検出する。検出されたNMR信号は、信号増幅器162で増幅された後、シーケンサ140からの指令によるタイミングで直交位相検波器163により直交する二系統の信号に分割され、それぞれがA/D変換器164でディジタル量に変換されて、制御部170に送られる。なお受信コイル161は、単一のコイルで構成される場合もあるが、複数の小型コイルを組み合わせたマルチプルアレイコイル(フェイズドアレイコイル)なども多用される。 The receiving unit 160 detects a nuclear magnetic resonance signal (echo signal, NMR signal) emitted by nuclear magnetic resonance of the nuclear spin constituting the living tissue of the subject 101, and receives a high-frequency coil (receiving coil) on the receiving side. 161, a signal amplifier 162, a quadrature detector 163, and an A / D converter 164. The reception coil 161 is disposed in the vicinity of the subject 101 and detects an NMR signal of the response of the subject 101 induced by the electromagnetic wave irradiated from the transmission coil 151. The detected NMR signal is amplified by the signal amplifier 162 and then divided into two orthogonal signals by the quadrature phase detector 163 at the timing according to the command from the sequencer 140, and each is digitally converted by the A / D converter 164. The amount is converted and sent to the controller 170. Although the receiving coil 161 may be composed of a single coil, a multiple array coil (phased array coil) in which a plurality of small coils are combined is often used.
 シーケンサ140は、RFパルスと傾斜磁場パルスとを所定のパルスシーケンスに従って繰り返し印加する。なお、パルスシーケンスは、高周波磁場、傾斜磁場、信号受信のタイミングや強度を記述したもので、予め制御部170に保持される。シーケンサ140は、制御部170からの指示に従って動作し、被検体101の断層画像のデータ収集に必要な種々の命令を送信部150、傾斜磁場発生部130、および受信部160に送信する。 The sequencer 140 repeatedly applies RF pulses and gradient magnetic field pulses according to a predetermined pulse sequence. The pulse sequence describes the high-frequency magnetic field, the gradient magnetic field, the timing and intensity of signal reception, and is stored in the control unit 170 in advance. The sequencer 140 operates according to an instruction from the control unit 170 and transmits various commands necessary for collecting tomographic image data of the subject 101 to the transmission unit 150, the gradient magnetic field generation unit 130, and the reception unit 160.
 制御部170は、MRI装置100全体の制御、各種データ処理等の演算、処理結果の表示及び保存等を行うもので、CPU171と記憶装置172と表示装置173と入力装置174とを備える。記憶装置172は、ハードディスクなどの内部記憶装置と、外付けハードディスク、光ディスク、磁気ディスクなどの外部記憶装置とにより構成される。表示装置173は、CRT、液晶などのディスプレイ装置である。入力装置174は、MRI装置100の各種制御情報や制御部170で行う処理の制御情報の入力のインタフェースであり、例えば、トラックボールまたはマウスとキーボードとを備える。入力装置174は、表示装置173に近接して配置される。操作者は、表示装置173を見ながら入力装置174を通してインタラクティブにMRI装置100の各種処理に必要な指示、データを入力する。 The control unit 170 controls the entire MRI apparatus 100, performs operations such as various data processing, displays and stores processing results, and includes a CPU 171, a storage device 172, a display device 173, and an input device 174. The storage device 172 includes an internal storage device such as a hard disk and an external storage device such as an external hard disk, an optical disk, and a magnetic disk. The display device 173 is a display device such as a CRT or a liquid crystal. The input device 174 is an interface for inputting various control information of the MRI apparatus 100 and control information of processing performed by the control unit 170, and includes, for example, a trackball or a mouse and a keyboard. The input device 174 is disposed in the vicinity of the display device 173. The operator interactively inputs instructions and data necessary for various processes of the MRI apparatus 100 through the input device 174 while looking at the display device 173.
 制御部170のCPU171がシーケンサ140に制御信号を与える元となる撮像シーケンスは、RFパルスおよび傾斜磁場パルスの印加タイミングが定められるパルスシーケンスと、RFパルスおよび傾斜磁場パルスの印加強度、印加タイミング等を指定する撮像パラメータとにより決定される。パルスシーケンスは、予め設定され、記憶装置172に保持される。 The imaging sequence from which the CPU 171 of the control unit 170 gives a control signal to the sequencer 140 includes a pulse sequence in which application timing of RF pulses and gradient magnetic field pulses is determined, application intensity of RF pulses and gradient magnetic field pulses, application timing, and the like. It is determined by the designated imaging parameter. The pulse sequence is preset and held in the storage device 172.
 CPU171は、操作者が入力した指示に従って、記憶装置172に予め保持されるプログラムを実行することにより、MRI装置100の各部の動作の制御、各種データ処理等の制御部170の各処理を実現する。例えば、受信部160からのデータが制御部170に入力されると、CPU171は、信号処理、画像再構成等の処理を実行し、その結果である被検体101の断層像を表示装置173に表示するとともに、記憶装置172に記憶する。 The CPU 171 implements each process of the control unit 170 such as control of the operation of each unit of the MRI apparatus 100 and various data processing by executing a program stored in advance in the storage device 172 according to an instruction input by the operator. . For example, when data from the receiving unit 160 is input to the control unit 170, the CPU 171 executes processing such as signal processing and image reconstruction, and displays the tomographic image of the subject 101 as a result on the display device 173. At the same time, it is stored in the storage device 172.
 受信部160からのデータは、通常、k空間と呼ばれるデータ空間に配置されたデータとなる。k空間の座標(位置)は、エコー信号に与えられた傾斜磁場パルスの印加量によって決まり、画像サイズと視野に応じて、取得すべき点(k空間のマトリクス)が決まる。従来の画像の再構成は、k空間のマトリクスをすべて埋めるデータセットを用いて行われるが、本実施形態では、CPU171は、k空間のデータを間引きして計測したデータセットを用い、圧縮センシングを利用した画像処理を行い、画像を作成する機能を備えている。間引き計測は、前述のエンコードする傾斜磁場のエンコードステップを間引きすることにより行われる。すなわち本実施形態のMRI装置では、制御部170は、間引き計測するようにパルスシーケンスを制御し、間引かれたデータを得るとともに、間引き計測によって得られたデータセットに対し、所定の画像処理を行い画像を得る。 The data from the receiving unit 160 is normally data arranged in a data space called k-space. The coordinates (position) of the k space are determined by the application amount of the gradient magnetic field pulse given to the echo signal, and the points (k space matrix) to be acquired are determined according to the image size and the visual field. Conventional image reconstruction is performed using a data set that fills the entire k-space matrix. In this embodiment, the CPU 171 uses a data set obtained by thinning out k-space data and performs compressed sensing. It has a function to perform image processing and create images. The thinning measurement is performed by thinning out the encoding step of the gradient magnetic field to be encoded. That is, in the MRI apparatus of this embodiment, the control unit 170 controls the pulse sequence so as to perform thinning measurement, obtains thinned data, and performs predetermined image processing on the data set obtained by thinning measurement. To get an image.
 制御部170の画像処理機能の詳細を図2のブロック図で示す。図示するように、画像処理部180は、計測データに対しフーリエ変換・逆フーリエ変換などの演算や圧縮センシングに基く推定演算などを行い画像を再構成する画像再構成部186と、計測データ及び画像を低次元化したデータを作成する平均画像作成部181と、平均画像作成部181が作成した低次元化データ及び低次元化画像を用いて推定画像を更新する画像更新部182とを備える。なお平均画像作成部181が作成する低次元化データは、平均化したデータや平均画像に限らず、例えば平均の代わりにメディアンで作成したデータでもよいが、ここでは代表的に、低次元データ作成部を平均画像作成部181と名付けている。 Details of the image processing function of the control unit 170 are shown in the block diagram of FIG. As shown in the figure, the image processing unit 180 performs an operation such as Fourier transform and inverse Fourier transform on measurement data, an estimation operation based on compressed sensing, and the like, and an image reconstruction unit 186 that reconstructs an image, and the measurement data and image An average image creation unit 181 that creates data with reduced dimensions and an image update unit 182 that updates the estimated image using the reduced-order data and the reduced-order image created by the average image creation unit 181. Note that the reduced-order data created by the average image creation unit 181 is not limited to averaged data and average images, but may be data created by a median instead of the average, for example. This part is named an average image creation part 181.
 画像再構成部186は、図示していないが、コイル感度マップなどの画像再構成に必要なオペレータを作成するオペレータ作成部、オペレータ作成部が用いたオペレータや圧縮センシングに基く疎変換行列などを用いて画像の推定・更新を行う画像推定部、計測データを画像データに変換するフーリエ変換部などを備えている。コイル感度などのオペレータを用いて画像更新する機能は、低次元化画像を用いて推定画像を更新する画像更新部182と区別して、第二の画像更新部とする。 Although not shown, the image reconstruction unit 186 uses an operator creation unit that creates an operator necessary for image reconstruction, such as a coil sensitivity map, an operator used by the operator creation unit, a sparse transformation matrix based on compressed sensing, and the like. An image estimation unit that estimates and updates an image, a Fourier transform unit that converts measurement data into image data, and the like. The function of updating the image using an operator such as coil sensitivity is distinguished from the image updating unit 182 that updates the estimated image using the reduced-dimensional image, and is used as the second image updating unit.
 これら画像再構成部186、平均化画像作成部181、及び画像更新部182の各機能はCPU171に組み込まれたプログラムによって実行される。即ちこれら各部はCPU171に搭載された所定のアルゴリズムを含むプログラムに相当するものである。ただし、この機能の一部を公知のASIC(Application Specific Integrated Circuit)で置換される場合もあり得る。 These functions of the image reconstruction unit 186, the averaged image creation unit 181 and the image update unit 182 are executed by a program incorporated in the CPU 171. That is, each of these units corresponds to a program including a predetermined algorithm installed in the CPU 171. However, a part of this function may be replaced by a known ASIC (Application Specific Integrated Circuit).
 本実施形態のMRI装置は、画像処理部180が、平均化画像作成部181及び画像更新部182を備えることが特徴である。以下、画像処理部180の動作の各実施形態を説明する。 The MRI apparatus of the present embodiment is characterized in that the image processing unit 180 includes an averaged image creation unit 181 and an image update unit 182. Hereinafter, each embodiment of the operation of the image processing unit 180 will be described.
<第一実施形態>
 第一実施形態では、受信コイルが、複数の小型コイルからなるフェイズドアレイコイルであり、画像処理の対象となるデータセットが、2D撮像の動画のk空間データである場合を説明する。動画を構成するk空間データは、時系列の複数のk空間データであり、一つのk空間データをフレームデータという。
<First embodiment>
In the first embodiment, a case will be described in which the receiving coil is a phased array coil composed of a plurality of small coils, and the data set to be subjected to image processing is k-space data of 2D imaging moving images. The k-space data constituting the moving image is a plurality of time-series k-space data, and one k-space data is referred to as frame data.
 図3は、画像処理部の動作を示すフローである。この動作は、非特許文献1などに開示される従来の繰り返し再構成法を基本とするが、平均化画像の作成ステップS103及び平均化画像に基く推定画像の更新ステップS109が追加されていることが本実施形態の特徴である。なお繰り返し再構成法は、以下説明するものに限定されず、それに応じて、ステップS103及びS109以外のステップの内容は変更が可能である。 FIG. 3 is a flow showing the operation of the image processing unit. This operation is based on the conventional iterative reconstruction method disclosed in Non-Patent Document 1 and the like, but an averaged image creating step S103 and an estimated image updating step S109 based on the averaged image are added. Is a feature of this embodiment. Note that the iterative reconstruction method is not limited to that described below, and the contents of steps other than steps S103 and S109 can be changed accordingly.
<<ステップS101>>
 まず画像処理部180は、各フレームのデータ201を受け取る。図4に画像処理部180が受け取るフレームデータを模式的に示す。図中、データが存在しない部分を白塗(205)で、計測データが存在する部分を黒塗(204)で表示している。図示する例では、kx方向がデータを間引くエンコード方向であり、各フレームデータは、kx方向の低域202は間引かず、高域203は疎らに計測されたものである。
<< Step S101 >>
First, the image processing unit 180 receives the data 201 of each frame. FIG. 4 schematically shows frame data received by the image processing unit 180. In the figure, a portion where no data exists is displayed in white (205), and a portion where measurement data exists is displayed in black (204). In the example shown in the figure, the kx direction is the encoding direction in which data is thinned out, and each frame data is measured with the low frequency 202 in the kx direction not thinned and the high frequency 203 sparsely measured.
<<ステップS103>>
 次に、平均画像作成部181において、複数のフレームデータから平均画像を作成する。平均処理は、図4に示すように、平均画像用のk空間上のデータをフレームの平均で作成する処理であるが、データの存在するフレームについてのみ平均する点で一般的な平均とは異なる。つまり、一つのフレームにしかデータが無い領域については矢印207が示すようにそのデータをそのまま用いるが、複数のフレームにデータが存在する領域については矢印208が示すようにそれらのデータを平均する。こうして平均化したデータ、すなわちk空間上のデータ206を逆フーリエ変換することで平均画像209が得られる。この平均画像209は、後述の更新処理(ステップS109)で新たなタイプの制約条件で画像を更新する処理に用いられる。なお前述のとおり、平均画像作成部181は、平均をメディアンで置き換えてもよく、それにより低次元化データを作成することができる。以下の説明では、代表して平均の場合を説明する。
<< Step S103 >>
Next, the average image creation unit 181 creates an average image from a plurality of frame data. As shown in FIG. 4, the average process is a process for creating the average image data in the k-space by the average of the frames. However, the average process is different from a general average in that the average is performed only for the frames in which the data exists. . That is, the data having no data in only one frame is used as it is as indicated by the arrow 207, but the data having the data in a plurality of frames is averaged as indicated by the arrow 208. The average image 209 is obtained by performing inverse Fourier transform on the data thus averaged, that is, the data 206 in the k space. This average image 209 is used for a process of updating an image with a new type of constraint condition in an update process (step S109) described later. Note that, as described above, the average image creation unit 181 may replace the average with a median, thereby creating reduced-order data. In the following description, an average case will be described as a representative.
<<ステップS104>>
 またステップS104では、コイル感度マップを作成してS105のコイル感度に使用しても良いし、オペレータ作成部が、密に取得された低域202のデータを利用してコイル感度に関するオペレータ(演算子)を作成しても良い。オペレータとしては、コイル感度を用いる再構成法の種類に応じて、SPIRiTオペレータ(非特許文献1)や、GRAPPAオペレータ(非特許文献2)を用いてもよい。図3のフローチャートには代表として感度マップなどと記している。また、感度マップなどを求めるときに用いるデータの取得方法もこれに限らない。例えば、画像処理の対象である計測データは、低域で密に計測されたデータでなくてもよく、本計測前にあらかじめ低域202を密に取得したデータを用いることもできる。またフレーム間の合成で感度マップを作成する方法(例えば、特許文献1)も採用できる。
<< Step S104 >>
In step S104, a coil sensitivity map may be created and used for the coil sensitivity in S105, or the operator creation unit may use an operator (operator related to coil sensitivity) using the data of the low frequency 202 that is densely acquired. ) May be created. As an operator, a SPIRIT operator (Non-Patent Document 1) or a GRAPPA operator (Non-Patent Document 2) may be used depending on the type of reconstruction method using coil sensitivity. In the flowchart of FIG. 3, a sensitivity map or the like is shown as a representative. Further, the data acquisition method used when obtaining the sensitivity map or the like is not limited to this. For example, the measurement data that is the target of image processing does not have to be data that is densely measured in the low frequency range, and data in which the low frequency range 202 is acquired in advance before the main measurement can also be used. Also, a method of creating a sensitivity map by combining frames (for example, Patent Document 1) can be adopted.
<<ステップS105~S109>>
 その後、ステップS105~S109で示す処理を繰り返し行う。これらの処理は以下の式(1)~(4)をPOCS(Projection onto Convex Sets)アルゴリズムで解くためのものである。式(3)以外は従来技術(非特許文献1)が採用する式(制約条件)と同様であり、式(1)はステップS108、式(2)はステップS105、式(3)はステップS109、式(4)はステップS110の各処理の制約条件である。なおマルチプルコイルではなくシングルコイルを用いる場合には、ステップ105の処理は省略される。また図4のフローでは、ステップS105、S108、S109、S110の順序で繰り返し処理を行っているが、順番はこれに限定されず、任意である。
<< Steps S105 to S109 >>
Thereafter, the processes shown in steps S105 to S109 are repeated. These processes are for solving the following equations (1) to (4) by a POCS (Projection on Convex Sets) algorithm. Except Expression (3), the expression (constraint condition) is the same as that employed by the prior art (Non-Patent Document 1). Expression (1) is Step S108, Expression (2) is Step S105, and Expression (3) is Step S109. Equation (4) is a constraint condition for each processing in step S110. If a single coil is used instead of a multiple coil, the process of step 105 is omitted. In the flow of FIG. 4, the repetitive processing is performed in the order of steps S105, S108, S109, and S110. However, the order is not limited to this and is arbitrary.
Figure JPOXMLDOC01-appb-M000001
式中、xは取得データの各コイルに対応する画像を表すベクトル、yは取得データを表すベクトル、Ψは圧縮センシング技術における疎な空間への変換を表す行列で、例としてウェーブレット変換とする。JointL1は、式(5)で表され、
Figure JPOXMLDOC01-appb-M000002
(式中、cはコイルのインデックス、rは位置のインデックス)
疎な空間の係数wrcをcに関して2乗和の平方根をとり、rに関して総和をとるというものである。なお、すでに述べたように繰り返し再構成法の具体的な手順はこれに限らず、例えば式(5)において、JointL1を用いずに、L1ノルムなど他のノルムを最小化しても良い。
Figure JPOXMLDOC01-appb-M000001
In the equation, x is a vector representing an image corresponding to each coil of acquired data, y is a vector representing acquired data, Ψ is a matrix representing conversion to a sparse space in the compressed sensing technique, and is assumed to be a wavelet transform as an example. JointL1 is expressed by equation (5),
Figure JPOXMLDOC01-appb-M000002
(Where c is the coil index and r is the position index)
The sparse space coefficient w rc is the square root of the sum of squares with respect to c and the sum with respect to r. As described above, the specific procedure of the iterative reconstruction method is not limited to this. For example, in Equation (5), other norms such as the L1 norm may be minimized without using JointL1.
 また式(2)のGは、例えばSPIRiTオペレータであり、
Figure JPOXMLDOC01-appb-M000003
式(6)の行列表記x=GxのGである。式(6)中、i,jはコイルのインデックス(上記コイルのインデックスc、位置のインデックスrに相当する)で、位置に関してgijとxのコンボリューションをとっている。ステップS104では、密にデータを取得した低域202でGx=xを満たすように最適化してGを求める。
Figure JPOXMLDOC01-appb-M000004
はxのノルムを示す。例としてL2ノルムとするが、これに限らない。例えば、コイルに応じて重みを付けたノルム
Figure JPOXMLDOC01-appb-M000005
でも良い。上記式において、kcは各コイルの重みを示す。
G in the formula (2) is, for example, a SPIRIT operator,
Figure JPOXMLDOC01-appb-M000003
The matrix notation x = Gx in Equation (6). In the equation (6), i and j are coil indexes (corresponding to the coil index c and the position index r), and a convolution of g ij and x i is taken with respect to the position. In step S104, G is obtained by optimizing so that Gx = x is satisfied in the low frequency range 202 in which data is densely acquired.
Figure JPOXMLDOC01-appb-M000004
Indicates the norm of x. The L2 norm is used as an example, but not limited to this. For example, the norm weighted according to the coil
Figure JPOXMLDOC01-appb-M000005
But it ’s okay. In the above equation, kc represents the weight of each coil.
 式(2)~式(4)のε、ε、εは、様々な誤差でデータが完全には一致しないことを許すためのものである。 In the equations (2) to (4), ε 1 , ε 2 , and ε 3 are used to allow the data to not completely match due to various errors.
 式(3)におけるM、M’は、平均への変換を表す行列である。Mは単純なフレーム平均である。M’はデータが存在する領域でのフレーム平均である。Fはフーリエ変換を表す行列で、F-1は逆フーリエ変換を表す行列である。なお、同じ変換には同じ記号を使っているが、変換するベクトルに合わせて具体的な行列の形は変えている。 M and M ′ in Equation (3) are matrices representing conversion to an average. M is a simple frame average. M ′ is a frame average in an area where data exists. F is a matrix representing the Fourier transform, and F −1 is a matrix representing the inverse Fourier transform. Note that the same symbol is used for the same conversion, but the specific matrix shape is changed according to the vector to be converted.
 平均画像に関する制約は、式(3)に限らない。例えば式(3)’のようにコイルに関して合成しても良い。または、式(3)”のようにコイルの合成と平均の順番を変えても良い。
Figure JPOXMLDOC01-appb-M000006
The restriction on the average image is not limited to the expression (3). For example, the coil may be synthesized as shown in Expression (3) ′. Alternatively, the order of coil synthesis and averaging may be changed as in equation (3) ".
Figure JPOXMLDOC01-appb-M000006
 式(4)におけるDは、取得されたデータyに対応する要素のみ抽出する変換を表す行列である。 D in Equation (4) is a matrix representing a transformation that extracts only elements corresponding to the acquired data y.
 上述したステップS105~S110の概要を踏まえ、各ステップの処理を具体的に説明する。 The processing of each step will be specifically described based on the outline of steps S105 to S110 described above.
 ステップS105は式(2)に対応する処理(第二の画像更新部による処理)であり、感度マップ(ここではSPIRiTオペレーター)を用いて、推定画像を更新する。即ち、k番目の繰り返しではk-1番目の推定画像xk-1を受け取り、式(7)で示すように、推定画像をmに更新する。推定画像の初期値xは例えばステップS103で作成した平均画像が全フレームであるような画像にする。
Figure JPOXMLDOC01-appb-M000007
Step S105 is processing corresponding to equation (2) (processing by the second image updating unit), and updates the estimated image using a sensitivity map (here, SPIRIT operator). That is, in the k-th iteration, the (k−1) th estimated image x k−1 is received, and the estimated image is updated to m k as shown in Expression (7). Initial value x of the estimated image 0 average image generated in step S103 for example, the image such that the entire frame.
Figure JPOXMLDOC01-appb-M000007
 ステップS108は式(1)に対応する処理であり、式(8)に示すように、圧縮センシングの疎変換に基き、ステップS105の推定画像mをwに更新する。
Figure JPOXMLDOC01-appb-M000008
Step S108 is processing corresponding to Expression (1), and as shown in Expression (8), the estimated image m k in Step S105 is updated to w k based on the sparse conversion of compressed sensing.
Figure JPOXMLDOC01-appb-M000008
 ここで、Sλ(x)はJoint-Soft-thresholding関数で、式(5)に対応して、コイルに関してまとめてからSoft-thresholdingを行う(以下、同じ)。コイルに関してまとめたものに対する関数S’λ()は位置rにおけるウェーブレット係数のコイルに関するベクトルw=(wr1,wr2,…,wrNc)に対して以下のように定義される。なお、Ncはコイルの数である。Sλ()はS’λ()をすべての位置rに対して適用するものである。
Figure JPOXMLDOC01-appb-M000009
Here, S λ (x) is a Joint-Soft-thresholding function, and the soft-thresholding is performed after collecting the coils corresponding to the equation (5) (hereinafter the same). The function S ′ λ () for the coil summary is defined as follows for the vector w r = (w r1 , w r2 ,..., W rNc ) for the wavelet coefficient coil at position r. Nc is the number of coils. S λ () applies S ′ λ () to all positions r.
Figure JPOXMLDOC01-appb-M000009
 ステップS109は式(3)に対応し、推定画像更新部182が、式(10)で表すように、推定画像をaに更新する。なおλは、制約の強さを表し、ノイズレベルなどに自動的に決めてもよいし、繰り返しの中で調整する方法(非特許文献5)などを採用してもよい。
Figure JPOXMLDOC01-appb-M000010
Step S109 corresponds to Expression (3), and the estimated image update unit 182 updates the estimated image to a k as represented by Expression (10). Note that λ represents the strength of the constraint, and may be automatically determined as a noise level, or a method of adjusting during repetition (Non-Patent Document 5) may be employed.
Figure JPOXMLDOC01-appb-M000010
 この処理は、新たなデータの一致性の制約を与えるもので、式(4)で表される従来のデータの一致性の制約と異なり、推定画像xと取得データyを非可逆な異なる変換MとM’でそれぞれ低次元の空間に変換してデータの一致性を考えているのが特徴である。この例で考えている平均画像の空間への変換Mは、xに対しては単純なフレーム平均となる。ここで取得データyに対しても単純なフレーム平均を行うなら、式(4)でデータに重みを付けた程度の意味しかないが、F-1M’yの変換を行い、間引きによるアーティファクトが抑制されるフレーム平均を行っているため、アーティファクトを抑制するような一致性の制約を加えることができる。また、その定義から、単純なフレーム平均よりもF-1M’yのほうが平均画像をよく表す。さらに、間引き方は大きく偏らせないので、F-1M’yは平均画像の計測値の近似と考えられ、確かに推定画像の平均画像Mxに対する一致性の制約として使うことができる。 This process gives new data matching restrictions, and unlike the conventional data matching restrictions expressed by the equation (4), the estimated image x and the acquired data y are converted to different irreversible transformations M. And M ′ are converted into a low-dimensional space, and data consistency is considered. The average image transformation M considered in this example is a simple frame average for x. Here, if simple frame averaging is performed on the acquired data y, it only has the meaning of weighting the data in the equation (4), but F −1 M′y is converted, and artifacts due to thinning are reduced. Since the suppressed frame averaging is performed, it is possible to add a coincidence restriction that suppresses artifacts. From the definition, F −1 M′y better represents the average image than the simple frame average. Further, since the thinning method is not largely biased, F −1 M′y is considered to be an approximation of the measured value of the average image, and can certainly be used as a restriction on the consistency of the estimated image with the average image Mx.
 この一致性の制約は、特許文献4に記載された、各フレームと各フレームの平均との差分を最適化に用いるという方法とは異なり、真の画像ではない平均画像に近づけてしまうという特許文献4に起こりうる問題を含まない。 Unlike the method in which the difference between each frame and the average of each frame is used for optimization described in Patent Document 4, this coincidence restriction is close to an average image that is not a true image. 4 does not include possible problems.
 なおこの制約の強さを決めるλ2についても、式(8)、(9)の場合のλ1と同様に自動的に決めておいてもよいし、繰り返しの中で調整可能にしてもよい。またユーザーが設定可能にしてもよい。 Note that λ2 that determines the strength of this constraint may be automatically determined in the same manner as λ1 in the case of equations (8) and (9), or may be adjustable in repetition. Also, the user may be able to set.
 次に、ステップS110は、式(4)に対応する処理であり、式(11)のように、ステップS109の推定画像aをxに更新する。
Figure JPOXMLDOC01-appb-M000011
 ここで、Dは、式(4)において定義したのと同じ、取得されたデータに対応する要素のみ抽出する変換である。すなわち、式(11)の処理により、取得されたデータに関してはそのデータに置き換えられる。なお、式(11)のように完全に同じデータで置き換えても良いし、Sλを使って誤差を持たしても良い。
Next, step S110 is a process corresponding to equation (4), and the estimated image a k in step S109 is updated to x k as in equation (11).
Figure JPOXMLDOC01-appb-M000011
Here, D is the same conversion as defined in Equation (4), in which only the elements corresponding to the acquired data are extracted. That is, the acquired data is replaced with the data by the processing of Expression (11). It should be noted, may be replaced by exactly the same data as in Equation (11), may be Motashi the error using the S λ.
<<ステップS111、S112>>
 以上のステップS105~S110は、所定の終了条件を満たすまで繰り返され(S111)、ステップS111で判定する終了条件を満たしていればステップS112の出力画像の作成に進む。終了条件は、例として、決められた回数繰り返したかどうかという条件とする。終了条件には、推定画像の更新量で決めるなど様々な公知のものが使える。
<< Steps S111 and S112 >>
The above steps S105 to S110 are repeated until a predetermined end condition is satisfied (S111), and if the end condition determined in step S111 is satisfied, the process proceeds to creation of an output image in step S112. The termination condition is, for example, a condition that whether or not the repetition has been made a predetermined number of times. Various known conditions can be used as the end condition, such as determining the update amount of the estimated image.
 ステップS112では、ステップS111までに作成された推定画像をユーザーに望ましい形式で作成する。この例では、推定画像は各コイルで受信された画像になっており、出力画像は式(12)のように作成される。
Figure JPOXMLDOC01-appb-M000012
 式(12)中、Nはコイルの数である。なお出力画像の作成はこれに限らない、例えば、非特許文献3に記載された技術のように、アダプティブにコイルを合成する方法を用いてもよい。また、非特許文献4に記載された技術のように、図3のステップS104において、複数のコイル感度マップに対して推定画像を作成し、ステップS105からS110の繰り返しにおいて、各コイル感度マップに対する推定画像を作成し、ステップS112で各コイル感度マップに対する推定画像を合成するという方法も採用することができる。
In step S112, the estimated image created up to step S111 is created in a format desirable for the user. In this example, the estimated image is an image received by each coil, and the output image is created as shown in Expression (12).
Figure JPOXMLDOC01-appb-M000012
In Expression (12), N c is the number of coils. The creation of the output image is not limited to this. For example, as in the technique described in Non-Patent Document 3, a method of adaptively combining coils may be used. Further, as in the technique described in Non-Patent Document 4, in step S104 in FIG. 3, an estimation image is created for a plurality of coil sensitivity maps, and in the repetition of steps S105 to S110, estimation for each coil sensitivity map is performed. A method of creating an image and synthesizing an estimated image for each coil sensitivity map in step S112 can also be employed.
 なお図3に示すフローにおいて、ステップS101ですべてのフレームデータを受け取ってから、それ以降のステップに進んでもよいが、すべてのフレームデータを受け取っていなくてもよい。例えば、画像再構成の処理を行いながら順次データを取得しても良い。 In the flow shown in FIG. 3, after receiving all the frame data in step S101, the process may proceed to the subsequent steps, but it is not necessary to receive all the frame data. For example, data may be acquired sequentially while performing image reconstruction processing.
 本実施形態によれば、圧縮センシングの疎という制約や、パラレルイメージングのコイル感度に基づく制約に加えて、これらとは性質の異なる新しいタイプの制約、即ち低次元の空間への変換した画像の一致性の制約を加えることで、推定画像の解の範囲を絞ることができ、従来の圧縮センシング技術よりさらに、推定画像を正解に近づけることができる。 According to the present embodiment, in addition to the restriction of sparse compression sensing and the restriction based on the coil sensitivity of parallel imaging, a new type of restriction different from these, that is, matching the converted image into a low-dimensional space. By adding the restriction on the nature, the range of the solution of the estimated image can be narrowed down, and the estimated image can be brought closer to the correct solution than the conventional compressed sensing technique.
 本実施形態による効果を図5に示す。リファレンスとして間引きの無いデータを用意した。リファレンスデータを間引いたデータ(間引き率50%)に対し再構成を行い、リファレンスデータの再構成画像との差分画像をdとした。適当なROI(region of interest)におけるSλ(d)のRMS(root mean square:二乗平均平方根)を差の指標として画像を評価した。なお、コイルについてすでにまとまっているのでSλ(d)はSoft-Thresholding関数と同じである。図5に示すように、平均画像の制約なし(ステップS109を省略した画像推定)で再構成した場合の差の指標より、平均画像の制約あり(ステップS109を含む画像推定)で再構成した場合の差の指標のほうが小さく、真の画像に近い画像が得られていることがわかる。 The effect by this embodiment is shown in FIG. Data without thinning was prepared as a reference. Reconstruction was performed on data obtained by thinning out reference data (thinning rate: 50%), and a difference image from the reconstructed image of the reference data was defined as d. Images were evaluated using RMS (root mean square) of S λ (d) in an appropriate ROI (region of interest) as an index of difference. Since the coil is already organized, S λ (d) is the same as the Soft-Threshold function. As shown in FIG. 5, when reconstruction is performed with an average image constraint (image estimation including step S109) based on a difference index when reconstruction is performed without average image constraint (image estimation without step S109). It can be seen that the difference index is smaller and an image close to the true image is obtained.
 以上、本発明の第一の態様を、MRI装置で撮像された動画のフレームデータに適用する実施形態を説明したが、この実施形態を基本として種々の変更を加えることが可能である。以下、種々の変更のうちのいくつかの変更例を説明する。 As mentioned above, although embodiment which applies the 1st aspect of this invention to the frame data of the moving image imaged with the MRI apparatus was demonstrated, it is possible to add a various change on the basis of this embodiment. Hereinafter, some examples of various modifications will be described.
<第一実施形態の変更例1>
 図4に示す実施形態では、k空間のkx方向に間引かれたデータセットを用いたが、この変更例1は、k空間のkx、ky両方の軸で間引かれたデータを用いる例である。
<Modification Example 1 of First Embodiment>
In the embodiment shown in FIG. 4, the data set thinned out in the kx direction in the k space is used. However, the first modification example is an example using data thinned out in both the kx and ky axes in the k space. is there.
 図6に各フレームのデータセット201と、それらから作成した平均化データ206を示す。この場合にも、平均画像作成部181による平均化データの作成の手法は、前述した第一実施形態と同様であり、一つのフレームにしかデータが無い領域についてはそのデータをそのまま用いるが、複数のフレームにデータが存在する領域についてはそれらのデータを平均する。こうして平均化したデータ206を作成する。作成した平均化データ206から平均画像209(図4)を得る手法として、平均化データ206における欠損データが少なければ、第一実施形態と同様に逆フーリエ変換で画像を再構成してもよいし、感度マップを利用したパラレルイメージングで平均画像を再構成してもよい。 FIG. 6 shows a data set 201 of each frame and averaged data 206 created from them. Also in this case, the method of creating averaged data by the average image creating unit 181 is the same as in the first embodiment described above, and the data is used as it is for an area in which data exists only in one frame. For areas where data is present in the frames, the data are averaged. In this way, averaged data 206 is created. As a method of obtaining the average image 209 (FIG. 4) from the created average data 206, if there is little missing data in the average data 206, the image may be reconstructed by inverse Fourier transform as in the first embodiment. The average image may be reconstructed by parallel imaging using a sensitivity map.
 こうして作成した平均画像を用いて図3に示す各処理(ステップS105~S110)を繰り返し行うこと及びその後の処理S112は第一実施形態と同様である。 The processes (steps S105 to S110) shown in FIG. 3 are repeatedly performed using the average image thus created and the subsequent process S112 is the same as in the first embodiment.
<第一実施形態の変更例2>
 第一実施形態では、平均画像作成部181は、取得データをフレーム方向に平均化したデータを作成し、その平均化データから平均画像を作成したが、まず、取得データから画像を再構成した後、画像の平均化を行ってもよい。この様子を図7に示す。図7において、210は各フレーム画像、211は被検体、212は平均画像である。この場合、式(3)のF-1M’yの順序が代わり、M’F-1yとなる。また、平均化する際の変換行列としては、単純平均や重み付け平均を用いることができる。
<Modification Example 2 of First Embodiment>
In the first embodiment, the average image creation unit 181 creates data obtained by averaging the acquired data in the frame direction, and creates an average image from the averaged data. First, after reconstructing an image from the acquired data, The images may be averaged. This is shown in FIG. In FIG. 7, 210 is each frame image, 211 is a subject, and 212 is an average image. In this case, the order of F −1 M′y in Equation (3) is changed to M′F −1 y. Moreover, a simple average or a weighted average can be used as a conversion matrix at the time of averaging.
<第一実施形態の変更例3>
 平均画像作成部181は、全フレームに対しての平均ではなく、図8に示すように、部分的なフレーム201Pで平均を行い、その平均画像について式(3)に示す制約条件を設定し、式(10)の処理を行ってもよい。
<Modification 3 of the first embodiment>
The average image creation unit 181 performs the average on the partial frames 201P as shown in FIG. 8 instead of the average over all frames, and sets the constraint condition shown in Expression (3) for the average image, You may perform the process of Formula (10).
 また、図9に示すように、部分的な平均画像を複数作成しても良い。その場合、複数の平均画像209A、209B、…を制約条件に渡し、それぞれに対応する式(3)の制約を与える。つまり、式(3)を複数用意する。具体的な更新処理(10)もそれぞれの平均画像に対応して複数回行う。 Further, as shown in FIG. 9, a plurality of partial average images may be created. In that case, a plurality of average images 209A, 209B,... Are passed to the constraint condition, and the constraint of Expression (3) corresponding to each is given. That is, a plurality of expressions (3) are prepared. The specific update process (10) is also performed a plurality of times corresponding to each average image.
 さらに、部分的な平均画像に含まれる推定画像の各フレーム(230A、230B、230C、…)のデータの重みが異なっても良い。その場合、推定画像の各フレームの平均も対応する重みをかけて平均する。例えば、図9では、平均画像209Aに対応する推定画像の平均画像は画素(230A)×(3/4)+画素(230B)×(1/4)とし、209Bの平均画像に対応する推定画像の平均画像は画素(230B)×(2/4)+画素(230C)×(2/4)とする。 Furthermore, the data weight of each frame (230A, 230B, 230C,...) Of the estimated image included in the partial average image may be different. In that case, the average of each frame of the estimated image is also averaged by applying a corresponding weight. For example, in FIG. 9, the average image of the estimated image corresponding to the average image 209A is pixel (230A) × (3/4) + pixel (230B) × (1/4), and the estimated image corresponding to the average image of 209B The average image is assumed to be pixel (230B) × (2/4) + pixel (230C) × (2/4).
<第一実施形態の変更例4>
 第一実施形態は、動画のフレームデータを対象としているが、動画のフレームデータの代わりに、撮像パラメータ等の条件の異なる複数のデータセットに対し、本実施形態を適用することが可能である。
<Modification 4 of the first embodiment>
Although the first embodiment is intended for moving image frame data, the present embodiment can be applied to a plurality of data sets having different conditions such as imaging parameters instead of moving image frame data.
 図10は、TE(エコー時間)を変化させてそれぞれに対応する画像220を取得するような撮像法に適用した例である。この例では、TEの異なる複数の画像220に対し平均化処理を行い、この処理により得られた平均画像を各画像220の推定処理の制約条件として用いる。また、図11は、TEに加えてさらにTR(繰り返し時間)も変化させてそれぞれに対応する画像221を取得するような撮像法に適用した例である。この撮像法では、TEが異なる画像のセット220の中で平均しても良いし、TR変化が異なる画像のセット221の中で平均しても良い。またTE、TR両方に対して、それぞれ平均しても良い。 FIG. 10 shows an example in which the present invention is applied to an imaging method in which TE (echo time) is changed to obtain an image 220 corresponding to each. In this example, averaging processing is performed on a plurality of images 220 having different TEs, and the average image obtained by this processing is used as a constraint condition for the estimation processing of each image 220. Further, FIG. 11 is an example applied to an imaging method in which TR (repetition time) is further changed in addition to TE to acquire an image 221 corresponding to each. In this imaging method, averaging may be performed in a set 220 of images having different TEs, or may be averaged in a set 221 of images having different TR changes. Moreover, you may average with respect to both TE and TR, respectively.
<第一実施形態の変更例5>
 第一実施形態は、複数のフレームデータのように、複数の2Dデータセットを対象としているが、一つのデータや3Dのデータセットについても、本実施形態を適用することができる。
<Modification 5 of the first embodiment>
Although the first embodiment is intended for a plurality of 2D data sets such as a plurality of frame data, the present embodiment can also be applied to one data or a 3D data set.
 図12は、一つの2Dデータセットについて画像推定処理を行う場合を説明する図である。この例では、疎に計測された高域データについて、kx軸方向に平均化処理を行い、ky軸に平行な平均化データを作成している。このような平均化データを再構成した平均画像は、画像の性質によっては疑似的な投影データに相当する。これを画像推定の制約に用いることは第一実施形態と同じであり、それにより1枚の画像を得る。なお図12では、kx軸方向の平均化処理を行う場合を示したが、軸は任意であり、ky軸方向に平均化処理を行ってもよい。 FIG. 12 is a diagram illustrating a case where image estimation processing is performed on one 2D data set. In this example, sparsely measured high frequency data is averaged in the kx-axis direction to create averaged data parallel to the ky axis. The average image obtained by reconstructing such averaged data corresponds to pseudo projection data depending on the nature of the image. The use of this for the constraint of image estimation is the same as in the first embodiment, thereby obtaining one image. Note that FIG. 12 illustrates the case where the averaging process in the kx-axis direction is performed, but the axis is arbitrary, and the averaging process may be performed in the ky-axis direction.
 また撮像が3D撮像であって、計測データが3Dデータセットの場合には、図13に示すように、z方向に平均化処理を行ってもよい。この場合にも、変更例4と同様に、z方向の部分的な平均化処理を行ったり、重み付けを行ったりすることが可能である。また計測データから平均化データを作成して、この平均化データを再構成して平均画像を得る場合には、kz方向へ平均化処理を行ってもよい。 Further, when the imaging is 3D imaging and the measurement data is a 3D data set, the averaging process may be performed in the z direction as shown in FIG. Also in this case, similarly to the fourth modification, it is possible to perform partial averaging processing in the z direction or weighting. In addition, when averaged data is created from the measurement data and the averaged data is reconstructed to obtain an average image, the averaging process may be performed in the kz direction.
<第一実施形態の拡張例>
 第一実施形態のMRI装置は、図1及び図2に示す装置構成を基本として、第一実施形態による画像推定処理を支援する機能を追加することが可能である。追加の例として、ユーザーインターフェース(UI)による機能追加例を説明する。
<Extended example of the first embodiment>
The MRI apparatus of the first embodiment can add a function for supporting the image estimation processing according to the first embodiment based on the apparatus configuration shown in FIGS. 1 and 2. As an additional example, a function addition example using a user interface (UI) will be described.
 上述したとおり、第一実施形態の画像処理部が、間引かれたデータを用いて、新たな制約を追加して画像推定処理を行う場合、新たな制約を決定する平均画像の作成は、フレーム方向の平均化、k空間の各軸方向への平均化、異なるTEやTRについての平均化など種々の平均化を取りうる。どの軸に関して平均化を行うかは、例えば心臓の動画撮像なら時間方向にするというように、そのほかの撮像パラメータに従って自動的に決めても良いが、図14に示すようなUIを用意してユーザーに決めさせても良い。 As described above, when the image processing unit of the first embodiment performs image estimation processing by adding new constraints using the thinned data, the creation of an average image for determining new constraints Various averaging can be performed, such as averaging of directions, averaging of k-space in each axial direction, averaging of different TEs and TRs, and the like. The axis to be averaged may be automatically determined according to other imaging parameters, for example, in the time direction when capturing a moving image of the heart. However, a user can prepare a UI as shown in FIG. You may let me decide.
 また、ステップS109で用いる制約条件の強さλ2についても、図15に示すようなUIを用意してユーザーに決めさせても良い。 Also, regarding the strength λ2 of the constraint condition used in step S109, a UI as shown in FIG. 15 may be prepared and determined by the user.
 これらユーザーインターフェースは、図1に示す表示装置173及び入力装置174とCPU171に構築することができる。画像処理部180(平均画像作成部181)は、UIを介して設定された軸に従い平均化処理を行い、推定画像更新部182は、UIを介して設定された強さの制約で式(10)による画像更新を行う。 These user interfaces can be constructed in the display device 173 and the input device 174 and the CPU 171 shown in FIG. The image processing unit 180 (average image creation unit 181) performs an averaging process according to the axis set via the UI, and the estimated image update unit 182 uses the equation (10) with the strength constraint set via the UI. ) To update the image.
 以上、第一実施形態を基本とするいくつかの変更例や拡張例を説明したが、これら変更例は技術的に矛盾しない限り、任意に組み合わせることが可能であり、これら任意の組み合わせも本実施形態に包含される。 As mentioned above, some modified examples and extended examples based on the first embodiment have been described, but these modified examples can be arbitrarily combined as long as there is no technical contradiction, and these arbitrary combinations are also implemented in this embodiment. Included in the form.
<第二実施形態>
 本実施形態は、アーティファクト抑制機能を備えることが特徴である。即ち、本実施形態の撮像装置は、画像再構成に必要なデータセットを収集する撮像部と、前記データセットを用いて画像を再構成する画像処理部とを備え、前記撮像部が収集するデータセットは、欠損データを含むデータセットであって、前記画像処理部は、前記データセットを用いて、データセットと画像との一致性の制約条件下で画像を推定する画像推定部と、前記欠損データを含むデータセットから再構成した画像に含まれるアーティファクトを抽出するアーティファクト抽出部と、前記アーティファクト抽出部が抽出したアーティファクト情報を用いて、前記データセットを補正するデータ補正部と、を備え、前記アーティファクト抽出部は、一のデータセットと、当該一のデータセットとそれ以外のデータセットとの合成データセットを用いて、前記一のデータセットに含まれるアーティファクトを算出するものであり、前記画像推定部は、前記データ補正部で補正されたデータセットについて画像推定処理を行う。
<Second embodiment>
This embodiment is characterized by having an artifact suppression function. That is, the imaging apparatus according to the present embodiment includes an imaging unit that collects a data set necessary for image reconstruction, and an image processing unit that reconstructs an image using the data set, and the data collected by the imaging unit. The set is a data set including missing data, and the image processing unit uses the data set to estimate an image under a constraint condition of coincidence between the data set and the image, and the missing data An artifact extraction unit that extracts an artifact included in an image reconstructed from a data set that includes data; and a data correction unit that corrects the data set using the artifact information extracted by the artifact extraction unit, and The artifact extraction unit is a data set composed of one data set and the one data set and other data sets. With bets, which calculates the artifacts included in the one data set, the image estimation unit performs image estimation processing for the data set that is corrected by the data correcting section.
 本実施形態の撮像装置は、画像処理部は、第一実施形態と同様に、平均画像作成部及び平均画像に基く推定画像更新部を備えるものであってもよいし、それらを備えないものであってもよい。以下、撮像装置がMRI装置である場合を例に、本実施形態を説明する。 In the imaging apparatus of the present embodiment, the image processing unit may or may not include an average image creation unit and an estimated image update unit based on the average image, as in the first embodiment. There may be. Hereinafter, the present embodiment will be described using an example in which the imaging apparatus is an MRI apparatus.
 装置の全体構成は、図1に示すブロック図と同様である。本実施形態の特徴である画像処理部の構成を、図16の制御部のブロック図に示す。図16において、図2に記載した要素と同じ要素は同じ符号で示し、その説明は省略する。 The overall configuration of the apparatus is the same as the block diagram shown in FIG. The configuration of the image processing unit, which is a feature of this embodiment, is shown in the block diagram of the control unit in FIG. In FIG. 16, the same elements as those described in FIG. 2 are denoted by the same reference numerals, and description thereof is omitted.
 図示するように、画像処理部180は、画像再構成部187のほかに、フレーム合成データ作成部183と、アーティファクト抽出部184と、アーティファクト抑制部185を備える。画像再構成部187は、第一実施形態の画像再構成部186と同様に、コイル感度マップなどの画像再構成に必要なオペレータを作成するオペレータ作成部、オペレータ作成部が用いたオペレータや圧縮センシングに基く疎変換行列などを用いて画像の推定を行う画像推定部、計測データを画像データに変換するフーリエ変換部などを備えている。画像再構成部187は、さらに第一実施形態の画像処理部180が備える平均画像作成部181及び画像更新部182を備えていてもよい。 As shown in the figure, in addition to the image reconstruction unit 187, the image processing unit 180 includes a frame synthesis data creation unit 183, an artifact extraction unit 184, and an artifact suppression unit 185. Similar to the image reconstruction unit 186 of the first embodiment, the image reconstruction unit 187 includes an operator creation unit that creates an operator necessary for image reconstruction such as a coil sensitivity map, an operator used by the operator creation unit, and compressed sensing. An image estimation unit that estimates an image using a sparse transformation matrix based on the data, a Fourier transform unit that converts measurement data into image data, and the like. The image reconstruction unit 187 may further include an average image creation unit 181 and an image update unit 182 included in the image processing unit 180 of the first embodiment.
 フレーム合成データ作成部183は、複数のデータセットを合成し、合成画像を作成する。アーティファクト抽出部184は、合成前のデータセットから作成した画像と合成画像とを用いてアーティファクトを抽出する。アーティファクト抑制部185は、アーティファクト抽出部184が抽出したアーティファクトの情報を用いて、推定画像のアーティファクトを抑制する。すなわちアーティファクト抑制部185は、データ補正部として機能する。 The frame composition data creation unit 183 composes a plurality of data sets and creates a composite image. The artifact extraction unit 184 extracts artifacts using an image created from a data set before synthesis and a synthesized image. The artifact suppression unit 185 suppresses artifacts in the estimated image using the artifact information extracted by the artifact extraction unit 184. That is, the artifact suppression unit 185 functions as a data correction unit.
 次に上記構成を備える画像処理部の動作を、図17のフローを参照して説明する。このフローは、画像処理部180が、第一実施形態と同様に、平均画像作成部181及び画像更新部182を備える場合の動作を示しており、図3のフローと比較すると、ステップS102(合成データ作成)、ステップS106(アーティファクト抽出)、及びステップS107(アーティファクト抑制)の処理が追加されている点が異なる。図3と同じ処理については詳しい説明は省略する。また、図17のフローチャートでは、各ステップで合成なしのデータを扱うのかフレーム合成のデータを扱うのかを示すためにデータの流れを「合成なし」「フレーム合成A」「フレーム合成B」で示している。またデータは、k空間上のデータであっても画像データであっても適用できるため、フローチャートではk空間上のデータか画像かは区別していない。 Next, the operation of the image processing unit having the above configuration will be described with reference to the flow of FIG. This flow shows the operation when the image processing unit 180 includes the average image creation unit 181 and the image update unit 182 as in the first embodiment. Compared with the flow of FIG. Data creation), step S106 (artifact extraction), and step S107 (artifact suppression) are added. Detailed description of the same processing as in FIG. 3 is omitted. In the flowchart of FIG. 17, the data flow is indicated by “no synthesis”, “frame synthesis A”, and “frame synthesis B” in order to indicate whether each step handles data without synthesis or data with frame synthesis. Yes. Since the data can be applied to data in k-space or image data, the flowchart does not distinguish whether the data is in k-space or an image.
<<ステップS101>>
 まず画像処理部180は、各フレームのデータを受け取る。画像処理部180が受け取るデータは、例えば、図4や図6に示したような、少なくとも一部が疎に計測されたk空間データである。図18に、一例として、図4と同様の2Dの動画のk空間上のデータで、kx方向に間引かれているフレームデータを示す。画像処理部180は、全フレームのフレームデータが揃ってから受け取るのではなく、逐次受け取ってもよい。
<< Step S101 >>
First, the image processing unit 180 receives data of each frame. Data received by the image processing unit 180 is, for example, k-space data at least partially measured sparsely as shown in FIGS. FIG. 18 shows, as an example, frame data thinned out in the kx direction with data in the k-space of a 2D moving image similar to FIG. The image processing unit 180 may receive sequentially, instead of receiving the frame data of all the frames.
<<ステップS102>>
 フレーム合成データ作成部183は、一つのフレームデータに対し、その前後のフレームデータを用いて、二つのフレーム合成データを作成する。この様子を図18に示す。
<< Step S102 >>
The frame synthesis data creation unit 183 creates two frame synthesis data for one frame data by using the frame data before and after the frame data. This is shown in FIG.
 n番目のフレーム合成データを作成する場合、n-1番目のフレームデータ301とn番目のフレームデータ302を用いてフレーム合成Aデータ251を作成し、n番目のフレームデータ302とn+1番目のフレームデータ303を用いてフレーム合成Bデータ252を作成する。この際、フレーム合成Aデータ251及びフレーム合成Bデータ252の低域データは、n番目のフレームデータ302の密に計測された低域データとする。高域データは合成なしデータからランダムに選ばれたデータとする。具体的には、フレーム合成Aデータ251は、低域は合成なしデータのn番目のフレームのデータ、高域はn番目とn-1番目のフレームからランダムに選ばれたデータとなるように作成される。フレーム合成Bデータ252は、低域は合成なしデータのn番目のフレームのデータ、高域はn番目とn+1番目のフレームからランダムに選ばれたデータとなるように作成される。 When creating the nth frame composite data, the frame synthesis A data 251 is created using the (n-1) th frame data 301 and the nth frame data 302, and the nth frame data 302 and the (n + 1) th frame data. The frame composition B data 252 is created using the information 303. At this time, the low-frequency data of the frame composition A data 251 and the frame composition B data 252 is the low-frequency data measured closely of the n-th frame data 302. The high-frequency data is data randomly selected from the data without synthesis. Specifically, the frame composition A data 251 is created so that the low frequency is data of the nth frame of the non-synthesis data, and the high frequency is data randomly selected from the nth and (n-1) th frames. Is done. The frame synthesis B data 252 is created so that the low frequency is data of the nth frame of the non-combined data, and the high frequency is data randomly selected from the nth and n + 1th frames.
 こうすることで、データの配置がランダムになり、フレーム合成A、Bでは間引きによるアーティファクトが干渉しにくくなる。フレーム合成A、Bのデータの作成方法は、上述した方法に限らない。例えば、低域も二つのフレームからランダムに選んでも良い。また、フレーム合成でランダムに選ぶ際に、全フレームを考えたときに、データが重複もあまりもしないように割り振っても良い。つまり、n番目の合成フレームの作成に使われなかったデータは、n-1番目またはn+1番目の合成フレームの作成に使うようにする。こうすると、合成なしもフレーム合成もフレーム平均画像を完全に等しくできる。 By doing so, the arrangement of data becomes random, and in the frame synthesis A and B, artifacts due to thinning are less likely to interfere. The method of creating the data for frame synthesis A and B is not limited to the method described above. For example, the low frequency may be selected at random from two frames. In addition, when selecting at random in frame synthesis, when all the frames are considered, the data may be allocated so as not to overlap too much. That is, data that was not used to create the nth composite frame is used to create the (n−1) th or (n + 1) th composite frame. In this way, the frame average images can be made completely equal for both no synthesis and frame synthesis.
<<ステップS103、S104>>
 第一実施形態と同様に、画像推定処理に用いる平均画像および感度マップなどを作成する。
<< Steps S103 and S104 >>
Similar to the first embodiment, an average image and a sensitivity map used for image estimation processing are created.
<<ステップS105>>
 画像再構成部(画像推定部)は、フレーム合成データ作成部183から「合成なし」、「フレーム合成A」及び「フレーム合成B」の各データを受け取り、それぞれに対し、ステップS104で作成した感度マップなど、例えばSPIRiTオペレータでコイル感度に基づく推定画像の更新を行う。ここでは、各データについて、前掲の式(2)による推定画像の更新が行われる。
<< Step S105 >>
The image reconstruction unit (image estimation unit) receives “no synthesis”, “frame synthesis A”, and “frame synthesis B” data from the frame synthesis data creation unit 183, and for each, the sensitivity created in step S104. The estimated image based on the coil sensitivity is updated by a map, for example, by a SPIRIT operator. Here, for each data, the estimated image is updated according to the above-described equation (2).
 その後、合成なし、フレーム合成A、Bの各データをアーティファクト抽出部183(ステップS106)に渡すとともに、ステップS108に進む。 Thereafter, the data of no synthesis and frame synthesis A and B are passed to the artifact extraction unit 183 (step S106), and the process proceeds to step S108.
<<ステップS106>>
 ステップS106では、アーティファクトを抽出する。合成なし画像をx、フレーム合成A画像をa、フレーム合成B画像をb、抽出するアーティファクト画像をcとする。画素iにおけるそれぞれの複素数の画素値をx、a、b、cとして、cを以下のように求める。
Figure JPOXMLDOC01-appb-M000013
式(13)中、max(m,n)はmとnの大きいほうという意味である。
<< Step S106 >>
In step S106, an artifact is extracted. Assume that an image without synthesis is x, a frame synthesis A image is a, a frame synthesis B image is b, and an artifact image to be extracted is c. Let c i be obtained as follows, where x i , a i , b i , and c i are the pixel values of each complex number in pixel i .
Figure JPOXMLDOC01-appb-M000013
In formula (13), max (m, n) means the larger of m and n.
 この処理の意図を、図18を参照しながら説明する。上述したように、フレーム合成画像a、bは、二つの合成なしデータからランダムに選ばれたデータで構成されており、アーティファクトの干渉が抑えられているので、合成なし画像xとの差分ではxのアーティファクトが強く残る。ただし、画像a、bは隣のフレームと混ぜているため、隣のフレームとの差もある程度残る。二つの差分画像(合成なし画像xと画像aとの差分画像及び合成なし画像xと画像bとの差分画像)において、アーティファクトは同様に生じていることが期待されるので、アンドをとることで強調できる。式(13)において、掛け算を行い符号が正のものだけ取り出し、平方根をとって強度を戻す処理がアンドをとる処理に相当する。またアーティファクトが絶対値を大きくするように生じていたのか小さくするように生じていたのかの情報を残すためにsignで符号をつけている。 The intention of this processing will be described with reference to FIG. As described above, the frame composite images a and b are composed of data randomly selected from the two non-compositing data, and the artifact interference is suppressed. The artifact remains strong. However, since the images a and b are mixed with the adjacent frame, some difference from the adjacent frame remains. In the two difference images (the difference image between the uncombined image x and the image a and the difference image between the uncombined image x and the image b), it is expected that the artifact is generated in the same manner. Can be emphasized. In Expression (13), the process of multiplying and extracting only positive signs and taking the square root to return the intensity corresponds to the process of taking an AND. Also, a sign is assigned to sign to leave information on whether the artifact was generated so as to increase or decrease the absolute value.
 このように、アンドを取ることで、単に合成画像との差からアーティファクトを抽出する場合に比べ、合成画像を作成する際に生じる誤差が残ることなくアーティファクトを抽出できる。また従来法(例えば特許文献3)では、重ね合わせるフレームに対してアーティファクトが異なるデータの存在を前提にしている。このため従来法では適用できるデータが制限されるが、本実施形態では、フレーム間を混ぜることでアーティファクトの抑制されたデータを新たに作成しており、アーティファクトの異なるデータは必須ではないので、適用範囲が広い。また、フュージョンに頼らずフレーム間のアンドを取ることで異なるフレームの画像からアーティファクトを抽出できるようにしている。 In this way, by taking an AND, it is possible to extract an artifact without leaving an error that occurs when a composite image is created, compared to a case where an artifact is simply extracted from a difference from the composite image. Further, in the conventional method (for example, Patent Document 3), it is premised on the existence of data having different artifacts for the frames to be superimposed. For this reason, the data that can be applied is limited in the conventional method, but in this embodiment, the data in which the artifact is suppressed is newly created by mixing the frames, and the data with different artifact is not essential. Wide range. Also, artifacts can be extracted from images of different frames by taking AND between frames without relying on fusion.
<<ステップS107>>
 ステップS107では以下のようにアーティファクトを抑制する。
 ここでarg(x)はxの偏角である。アーティファクトには位相情報がなく、正負の情報しかないので、この処理では、まず絶対値でアーティファクト(ci)を打ち消すようにxiの絶対値|xi|を変化させてから、位相情報を戻している。Sλ3は、式(9)で定義したJoint-Soft-Thresholding関数である。または、コイルについてまとめないSoft-Thresholdingだけを行っても良い。
<< Step S107 >>
In step S107, artifacts are suppressed as follows.
Here, arg (x) is a declination of x. Since the artifact has no phase information and only positive and negative information, in this process, the absolute value | xi | of the xi is first changed so as to cancel the artifact (ci) with the absolute value, and then the phase information is returned. . S λ3 is a Joint-Soft-Thresholding function defined by Equation (9). Alternatively, only Soft-Thresholding that does not summarize coils may be performed.
 以上の処理によりアーティファクトが抑制された合成なしのデータが得られる。この合成なしのデータを画像推定部(ステップS108)に渡す。 By the above processing, data without synthesis with artifacts suppressed can be obtained. This unsynthesized data is passed to the image estimation unit (step S108).
<<ステップS108~S111>>
 ステップS108、S109、S110、S111では、ステップS107で処理された合成なしデータ及びステップS105から渡されたフレーム合成A、Bのデータのそれぞれに対し、第一実施形態と同じ処理を行う。即ち、圧縮センシングの疎変換に基く推定画像の更新(例えば式(1))、ステップS103で作成した平均画像に基く制約を用いた推定画像の更新(例えば式(3))、取得されたデータの一致性に基く推定画像の更新(例えば式(4))を行う。なお、ステップS109では合成なしデータの平均画像のみを受け取り、すべてのデータを同じ平均画像に基づき更新する。
<< Steps S108 to S111 >>
In steps S108, S109, S110, and S111, the same processing as that of the first embodiment is performed on each of the non-combined data processed in step S107 and the frame combined data A and B passed from step S105. That is, update of the estimated image based on the sparse conversion of compressed sensing (for example, Expression (1)), update of the estimated image using the constraint based on the average image created in Step S103 (for example, Expression (3)), and the acquired data The estimated image is updated based on the coincidence (for example, Expression (4)). In step S109, only the average image of the non-compositing data is received, and all the data are updated based on the same average image.
 ステップS111以降は第一実施形態と同じである。 Step S111 and subsequent steps are the same as in the first embodiment.
 以上、第二実施形態の撮像装置を、図17のフローチャートを参照して説明したが、これに限定されず、種々の変更を加えることが可能である。 As mentioned above, although the imaging device of the second embodiment has been described with reference to the flowchart of FIG. 17, the present invention is not limited to this, and various changes can be made.
 たとえば、図17のステップS102、S106及びS107で示されるアーティファクトを抑制する処理は、第一実施形態の平均画像を用いて制約する処理(S103、S109)とは独立に行うことができる。この場合の処理は、図19に示すように、従来の画像推定処理(繰り返し再構成)にアーティファクトを抑制する処理だけを追加したものとなる。 For example, the artifact suppression processing shown in steps S102, S106, and S107 of FIG. 17 can be performed independently of the processing (S103, S109) that uses the average image of the first embodiment. In this case, as shown in FIG. 19, only the processing for suppressing artifacts is added to the conventional image estimation processing (repetitive reconstruction).
 また図17や図19は、繰り返し再構成の中で、アーティファクト抑制を行う例であるが、画像に対するフィルタ処理のようにアーティファクト抑制を行っても良い。その場合は、図20に示すように、ステップS102、S106、S107の処理を行うだけである。 FIG. 17 and FIG. 19 are examples of performing artifact suppression during repetitive reconstruction. However, artifact suppression may be performed like filter processing on an image. In that case, as shown in FIG. 20, only the processing of steps S102, S106, and S107 is performed.
 さらに図17や図20のフローチャートでは、ステップS103、S104には合成なしデータを渡したが、図21に示すように、ステップS101の後にすぐステップS102でフレーム合成A、Bのデータを作成し、ステップS103、S104にもフレーム合成A、Bのデータを渡し、それぞれに対して平均画像、コイル感度マップを作成して以降の処理に用いても良い。 Further, in the flowcharts of FIGS. 17 and 20, the non-compositing data is passed to steps S103 and S104. However, as shown in FIG. 21, the data of frame composition A and B is created immediately after step S101 in step S102. The data of frame synthesis A and B may also be passed to steps S103 and S104, and an average image and a coil sensitivity map may be created for each and used for subsequent processing.
 その他、第一実施形態の処理と同じ処理を行う場合には、第一実施形態において説明した種々の変更例を単独であるいは組み合わせて採用することが可能である。また第一実施形態と同様にUI機能を追加することも可能である。 In addition, when performing the same process as the process of 1st embodiment, it is possible to employ | adopt the various modification examples demonstrated in 1st embodiment independently or in combination. Also, a UI function can be added as in the first embodiment.
 本実施形態によれば、複数の合成データを作成し、それと合成前データとの差分のアンドをとってアーティファクトを抽出することにより、もとのデータに制約がなく、少ない誤差でアーティファクトを抽出し抑制できる。これにより画像推定処理の精度をさらに向上させることができる。 According to the present embodiment, a plurality of synthesized data is created, and the artifacts are extracted by taking the AND of the difference between the synthesized data and the data before synthesis, thereby extracting the artifacts with less error and less errors. Can be suppressed. Thereby, the accuracy of the image estimation process can be further improved.
 本実施形態による効果を図22に示す。リファレンスとして間引きの無いデータを用意した。リファレンスデータを間引いたデータ(間引き率50%)に対し再構成を行い、リファレンスデータの再構成画像との差分画像をdとする。適当なROIにおけるSλ(d)のRMSを差の指標として画像を評価した。なお、コイルについてすでにまとまっているのでSλ(d)はSoft-Thresholding関数と同じである。平均画像の制約なしで再構成した場合の差の指標より、平均画像の制約ありで再構成した場合の差の指標のほうが小さく、真の画像に近い画像が得られていることがわかる。 The effect by this embodiment is shown in FIG. Data without thinning was prepared as a reference. Reconstruction is performed on data obtained by thinning out reference data (thinning rate: 50%), and a difference image from the reconstructed image of the reference data is defined as d. Images were evaluated using the RMS of Sλ (d) at an appropriate ROI as an index of difference. Since the coil is already organized, S λ (d) is the same as the Soft-Threshold function. It can be seen that the difference index when the reconstruction is performed with the average image constraint is smaller than the difference index when the reconstruction is performed without the average image restriction, and an image close to the true image is obtained.
 以上、本発明の撮像装置をMRI装置に適用した各実施形態とその変更例を説明した。次に本発明の撮像装置をCT装置に適用した実施形態を説明する。各実施形態を説明する前に、CT装置の全体構成について図面を参照して説明する。 In the above, each embodiment which applied the imaging device of the present invention to the MRI apparatus and its modification example were explained. Next, an embodiment in which the imaging apparatus of the present invention is applied to a CT apparatus will be described. Before describing each embodiment, the overall configuration of the CT apparatus will be described with reference to the drawings.
 図23は、CT装置の全体概要を示すブロック図である。このCT装置は、X線源191とX線検出器192を対向して配置した回転板193と、回転板193の中央に設けられた開口部を、回転板193の回転方向と交差する方向に移動可能な寝台194とを備え、寝台194に寝かせられた被検体(不図示)に対し、X線源191からX線を照射し、被検体を通過したX線をX線検出器192で検出する。X線検出器192は、多数のX線検出素子を円弧状に配列したものであり、円弧に沿った一次元配列の検出器や回転方向と直交する方向にも配列した二次元配列の検出器が用いられる。 FIG. 23 is a block diagram showing an overall outline of the CT apparatus. In this CT apparatus, a rotating plate 193 in which an X-ray source 191 and an X-ray detector 192 are arranged to face each other, and an opening provided in the center of the rotating plate 193 are arranged in a direction crossing the rotating direction of the rotating plate 193. An X-ray source 191 emits X-rays to a subject (not shown) laid on the bed 194, and the X-ray detector 192 detects X-rays passing through the subject. To do. The X-ray detector 192 includes a large number of X-ray detection elements arranged in an arc shape, and a one-dimensional array detector along the arc or a two-dimensional array detector arranged in a direction orthogonal to the rotation direction. Is used.
 X線源191のX線を照射するタイミングなどはX制御部197により制御される。回転板193の回転及び寝台194の移動は、それぞれ回転板制御部199及び寝台制御部198により制御される。これらの制御のもとで、回転板193を所定の回転速度で回転しながら、上述したX線の照射とX線の検出を繰り返すことにより、回転板193の異なる回転角度ごとの投影データが得られる。 The timing of irradiating the X-ray from the X-ray source 191 is controlled by the X control unit 197. The rotation of the rotating plate 193 and the movement of the bed 194 are controlled by the rotating plate control unit 199 and the bed control unit 198, respectively. Under these controls, projection data for different rotation angles of the rotating plate 193 is obtained by repeating the above-described X-ray irradiation and X-ray detection while rotating the rotating plate 193 at a predetermined rotation speed. It is done.
 投影データは、データ収集部195で収集されて、被検体の断層像の再構成に供される。データ収集部195で収集されるデータは、一つの軸をチャネル方向(X線検出素子の配列方向)とし、もう一つの軸をビュー方向(回転板の回転角度方向)とするデータである。 Projection data is collected by the data collection unit 195 and used for reconstruction of a tomographic image of the subject. The data collected by the data collection unit 195 is data in which one axis is a channel direction (X-ray detection element arrangement direction) and the other axis is a view direction (rotation angle direction of the rotating plate).
 画像処理部196は、データ収集部195で収集したデータを用いて被検体の断層像を再構成する。断層像の再構成は、逆投影法のほか、繰り返し演算により画像を再構成する逐次近似再構成法が採用される。 The image processing unit 196 reconstructs a tomographic image of the subject using the data collected by the data collecting unit 195. For the reconstruction of tomographic images, in addition to the back projection method, a successive approximation reconstruction method for reconstructing an image by iterative calculation is adopted.
 以上の構成を踏まえ、以下、本発明を適用したCT装置の実施形態を説明する。 Based on the above configuration, an embodiment of a CT apparatus to which the present invention is applied will be described below.
<第三実施形態>
 本実施形態についても、心臓の動画撮像などのような、時系列のフレームデータが得られる場合を例に説明するが、フレームデータは時系列のデータに限らず、複数のデータに置き換えることができる。
<Third embodiment>
This embodiment will also be described by taking as an example a case where time-series frame data such as heart moving image capturing is obtained, but the frame data is not limited to time-series data, and can be replaced with a plurality of data. .
 本実施形態における画像処理部196の構成は、図2に示したMRI装置の画像処理部180の構成と類似しており、図2の画像処理部180の画像再構成部186が、上述した逆投影や逐次近似再構成を行う機能を備えた画像再構成部であること以外は、同様の機能(平均画像作成部181や推定画像更新部182)を有しているので、図示を省略し、必要に応じて図2を援用して説明する。 The configuration of the image processing unit 196 in the present embodiment is similar to the configuration of the image processing unit 180 of the MRI apparatus shown in FIG. 2, and the image reconstruction unit 186 of the image processing unit 180 in FIG. Since it has the same function (average image creation unit 181 and estimated image update unit 182) except that it is an image reconstruction unit having a function of performing projection and successive approximation reconstruction, illustration is omitted, Description will be made with the aid of FIG. 2 as necessary.
 以下、図24のフローチャートを参照して、本実施形態のCT装置の画像処理部196の動作を説明する。このフローは、従来の逐次近似再構成に対して、ステップS103、S108、S109が追加されている。なお、S108は公知の圧縮センシングの疎変換に基づく推定画像の更新ステップである。 Hereinafter, the operation of the image processing unit 196 of the CT apparatus of this embodiment will be described with reference to the flowchart of FIG. In this flow, steps S103, S108, and S109 are added to the conventional successive approximation reconstruction. Note that S108 is a step of updating an estimated image based on a known sparse conversion of compressed sensing.
 まずデータ収集部195からデータを受け取る(S101)。再構成に用いるデータの一例を図25に示す。前述のとおり、1枚のフレームデータを構成するデータは、一つの軸方向をビュー方向、他の軸方向をチャネル方向とする投影データである。また、MRIで扱うデータxは複素数(ベクトル)であったがここでは実数になる。各フレーム201でビュー角度が異なるデータを取得する。これにより、動画撮像において、1枚のフレームデータの取得時間を短縮し、時間分解能の高い画像が得られる。 First, data is received from the data collection unit 195 (S101). An example of data used for reconstruction is shown in FIG. As described above, data constituting one frame data is projection data in which one axial direction is a view direction and the other axial direction is a channel direction. The data x handled by MRI is a complex number (vector), but here it is a real number. Data with different view angles is acquired for each frame 201. This shortens the acquisition time of one frame data and captures an image with high time resolution in moving image capturing.
 このフレームデータを平均画像作成部181に渡すとともに(ステップS103)、圧縮センシングに基く画像推定処理を行う(S108~S110)。平均画像の作成は、図25に示すように、一つのフレームだけにあるデータはそのデータを用い、複数のフレームにあるデータはそれらフレームのデータを平均したものを用い、平均化データ206とする。この平均化データ206を逆投影あるいは逐次近似法を用いて平均画像209とする。平均画像209は、画像推定処理(ステップS109)で推定画像の更新に使われる。 The frame data is transferred to the average image creation unit 181 (step S103), and image estimation processing based on compressed sensing is performed (S108 to S110). As shown in FIG. 25, the average image is created by using the data for data in only one frame, and for the data in a plurality of frames by using the average of the data of these frames as the averaged data 206. . This averaged data 206 is used as an average image 209 using back projection or a successive approximation method. The average image 209 is used for updating the estimated image in the image estimation process (step S109).
 ステップS108~S110の処理は、第一実施形態におけるコイル感度に基く推定画像更新がない点が異なるが、それ以外は第一実施形態と同様であり、式(1)、(3)、(4)に対応する次の式(1A)、(3A)、(4A)で表すことができる。
Figure JPOXMLDOC01-appb-M000015
 式(3A)、(4A)におけるP-1、Pは、データ画像間の変換処理であり、具体的にはフィルタ補正逆投影-投影や、逐次近似法による画像再構成処理とその逆変換を表している。
The processes in steps S108 to S110 are the same as those in the first embodiment except that there is no update of the estimated image based on the coil sensitivity in the first embodiment, and are the same as those in the first embodiment, and equations (1), (3), (4 ) Can be expressed by the following formulas (1A), (3A), and (4A).
Figure JPOXMLDOC01-appb-M000015
In Formulas (3A) and (4A), P −1 and P are conversion processes between data images. Specifically, filter-corrected backprojection-projection, image reconstruction processing by a successive approximation method, and its inverse conversion are performed. Represents.
 すなわち、ステップS108では、式(1A)に従い、疎変換に基く推定画像の更新を行い、ステップS108で更新された推定画像に対し、さらに式(3A)に従い、推定画像の更新を行う。なお、複数のコイルを持たないためJointL1の処理は通常のL1ノルムと同じになる。ステップS110では、式(4A)に従い、取得データの一致性に基く推定画像の更新を行う。具体的には、式(11A)のように、フレームの推定画像の更新を行う。
Figure JPOXMLDOC01-appb-M000016
ステップS111で終了条件を判定し、ステップS112でCTの出力画像を作成する。
That is, in step S108, the estimated image is updated based on the sparse transformation according to the equation (1A), and the estimated image is further updated according to the equation (3A) with respect to the estimated image updated in step S108. Since there are no multiple coils, the JointL1 process is the same as the normal L1 norm. In step S110, the estimated image is updated based on the consistency of the acquired data according to the equation (4A). Specifically, the estimated image of the frame is updated as shown in Expression (11A).
Figure JPOXMLDOC01-appb-M000016
An end condition is determined in step S111, and an output image of CT is created in step S112.
 以上、本発明をCT装置の画像処理部に適用した実施形態を説明したが、第一実施形態で説明した第一実施形態の変更例は、第三実施形態についても同様に適用が可能である。例えば、ビュー方向に間引かれたデータを用いる代わりに、チャネル方向に間引かれたデータや両方向に間引かれたデータなどにも適用することができる。また扱うデータは、図25に示すように、ほぼ均等に疎にしたデータだけでなく、疎の部分と密の部分とに偏りがあるデータであってよい。例えば、0°から180°のハーフスキャンデータと180°から0°のハーフスキャンデータをフレーム毎に交互に収集したデータでもよい。 The embodiment in which the present invention is applied to the image processing unit of the CT apparatus has been described above. However, the modified example of the first embodiment described in the first embodiment can be similarly applied to the third embodiment. . For example, instead of using data thinned out in the view direction, the present invention can be applied to data thinned out in the channel direction or data thinned out in both directions. Further, as shown in FIG. 25, the data to be handled may be not only data that is sparse evenly, but also data that is biased between sparse and dense portions. For example, data obtained by alternately collecting half-scan data from 0 ° to 180 ° and half-scan data from 180 ° to 0 ° for each frame may be used.
 また全フレームに対しての平均ではなく部分的な平均を制約に用いることが可能である。さらに時系列のフレームデータのみならず3Dのデータについてz方向に平均化した平均画像を制約に用いることも可能である。その他、様々な変形例が適用できる。さらに制約の強さを設定するUIなど適宜UI機能を追加してもよい。 Also, it is possible to use a partial average instead of an average for all frames as a constraint. Furthermore, it is possible to use an average image obtained by averaging not only time-series frame data but also 3D data in the z direction as a constraint. In addition, various modifications can be applied. Furthermore, a UI function such as a UI for setting the strength of restrictions may be added as appropriate.
 本実施形態によれば、CT画像においてもデータ数を減らした計測データを用いてアーティファクトを抑制した高品質な画像を得ることができる。例えば、心臓の動画撮像で逐次近似再構成を行う場合において、心時相ごとに投影角度の異なるデータを取得すれば、同様な時間方向の平均で投影角度の種類が増えたデータが得られ、アーティファクトの抑制された平均画像が作成できる。このような平均画像に基く制約を加えることで、より正確な、つまり真の画像に近づいた画像を得ることができる。 According to the present embodiment, it is possible to obtain a high-quality image in which artifacts are suppressed using measurement data with a reduced number of data even in a CT image. For example, in the case of performing successive approximation reconstruction with moving image capturing of the heart, if data with different projection angles is acquired for each cardiac phase, data with an increased number of types of projection angles can be obtained on the same average in the time direction, An average image with reduced artifacts can be created. By adding a restriction based on such an average image, a more accurate image, that is, an image close to a true image can be obtained.
<第四実施形態>
 本実施形態は、第二実施形態の画像処理部の構成を、CT装置に適用したものである。
 本実施形態における画像処理部196の構成は、図16に示したMRI装置の画像処理部180の構成と類似しており、図16の画像処理部180の画像再構成部186が、逆投影や逐次近似再構成を行うCT画像再構成機能を備えた画像再構成部であること以外は、同様の機能(フレーム合成データ作成部183、アーティファクト抽出部184、アーティファクト抑制部185)を有しているので、図示を省略し、必要に応じて図16を援用して説明する。本実施形態の画像処理部196は、第三実施形態の画像処理部が備える平均画像作成部181や推定画像更新部182を備えていてもよし、備えていない場合もある。
<Fourth embodiment>
In this embodiment, the configuration of the image processing unit of the second embodiment is applied to a CT apparatus.
The configuration of the image processing unit 196 in this embodiment is similar to the configuration of the image processing unit 180 of the MRI apparatus shown in FIG. 16, and the image reconstruction unit 186 of the image processing unit 180 in FIG. It has the same functions (frame synthesis data creation unit 183, artifact extraction unit 184, artifact suppression unit 185) except that it is an image reconstruction unit having a CT image reconstruction function for performing successive approximation reconstruction. Therefore, illustration is abbreviate | omitted and FIG. 16 is used and demonstrated as needed. The image processing unit 196 of the present embodiment may or may not include the average image creation unit 181 and the estimated image update unit 182 included in the image processing unit of the third embodiment.
 以下、図26に示すフローチャートを参照して本実施形態の画像処理部の動作を説明する。この図でも、各ステップで扱うデータをわかりやすくするために、データの流れを「元フレーム」(合成なし)、「合成フレーム1」、「合成フレーム2」で示している。 Hereinafter, the operation of the image processing unit of this embodiment will be described with reference to the flowchart shown in FIG. Also in this figure, in order to make it easy to understand the data handled in each step, the data flow is indicated by “original frame” (no synthesis), “synthesis frame 1”, and “synthesis frame 2”.
 図26に示す処理は、画像処理部196が平均画像作成部181及び推定画像更新部182を備える場合を前提としており、図24と比較すると、ステップS102及びステップS106、S107の処理が含まれる点が異なる。即ち、本実施形態の画像処理部の処理は、従来の逐次近似再構成に対して、ステップS102、S103、S106、S107、S108、S109が追加されている。 The processing shown in FIG. 26 is based on the assumption that the image processing unit 196 includes an average image creation unit 181 and an estimated image update unit 182. Compared with FIG. 24, the processing of step S102, steps S106, and S107 is included. Is different. In other words, the processing of the image processing unit according to the present embodiment has steps S102, S103, S106, S107, S108, and S109 added to the conventional successive approximation reconstruction.
 ステップS103、S108、S109の処理は、第三実施形態で説明した処理と同じであるが、第三実施形態では、これらの処理を合成なしのデータに対して行ったのに対し、合成したフレームについても処理を行う点が異なる。 The processes in steps S103, S108, and S109 are the same as those described in the third embodiment. In the third embodiment, these processes are performed on data that has not been combined. The point of processing is different.
 ステップS102、S106、S107も、扱うデータがCTのデータ(投影データあるいは画像データ)であることを除き、第二実施形態と同様である。図27にハーフスキャンデータを用いた合成例を示す。この例では、1回転分のデータを半分に分けて、一方の半分と他方の半分を交互に取得している。n番目のフレーム合成は、フレーム合成1では、n-1番目のフレームの片側のデータとn番目の片側のデータとをフレーム合成1データとする。フレーム合成2では、n番目のフレームの片側のデータとn+1番目の片側のデータとをフレーム合成2データとする。このように二つのフレームのデータを組み合わせるだけで合成が完了する。 Steps S102, S106, and S107 are the same as in the second embodiment except that the data to be handled is CT data (projection data or image data). FIG. 27 shows a synthesis example using half scan data. In this example, the data for one rotation is divided in half, and one half and the other half are obtained alternately. In the frame synthesis 1, in the n-th frame synthesis, the data on one side of the (n−1) th frame and the data on the n-th side are used as frame synthesis 1 data. In frame composition 2, data on one side of the nth frame and data on the n + 1th one side are used as frame composition 2 data. In this way, the synthesis is completed simply by combining the data of the two frames.
 なお図27には、ハーフスキャンで得たデータを用いた合成例を示したが、例えば図25に示すようなフレームデータや任意の軸方向に間引いたデータについても適用できる。 Note that FIG. 27 shows a synthesis example using data obtained by half scan, but the present invention can also be applied to frame data as shown in FIG. 25 and data thinned out in an arbitrary axial direction, for example.
 その後、これらフレーム合成1の画像と合成なしフレーム(元フレーム)の画像との差分と、フレーム合成2の画像と元フレームの画像との差分とのアンドを取ってアーティファクトを抽出し、及び元フレームの画像のアーティファクトを抑制する。その後、第三実施形態と同様に画像推定処理(S108~S110)を行い、ステップS112でCT画像を出力する。 Thereafter, the artifact is extracted by taking the AND of the difference between the image of the frame composition 1 and the image of the frame without the composition (original frame) and the difference between the image of the frame composition 2 and the image of the original frame, and the original frame Suppresses image artifacts. After that, image estimation processing (S108 to S110) is performed as in the third embodiment, and a CT image is output in step S112.
 以上、説明したように、本発明(第二の態様)はCT装置あるいはCT装置で計測したデータにも適用することができ、MRI装置の場合と同様の効果、すなわちアーティファクトを抑制した画像を得ることができる。 As described above, the present invention (second aspect) can also be applied to CT apparatus or data measured by a CT apparatus, and the same effect as that of an MRI apparatus, that is, an image with reduced artifacts is obtained. be able to.
 なお本実施形態についても、第二実施形態で説明したのと同様の変更が可能であり、例えば、画像処理部196が平均画像を用いた制約を行わない場合には、図19のフローチャートと同様に、ステップS103及びS109を省略できる。また本実施形態は、圧縮センシングを行わない場合にも適用することができ、その場合、図20のフローチャートと同様に、アーティファクト抑制処理をフィルタ処理とみなすことができる。 Note that this embodiment can be modified in the same way as described in the second embodiment. For example, when the image processing unit 196 does not perform the restriction using the average image, the same as the flowchart of FIG. In addition, steps S103 and S109 can be omitted. The present embodiment can also be applied to a case where compressed sensing is not performed. In this case, the artifact suppression process can be regarded as a filter process as in the flowchart of FIG.
 以上、第三実施形態及び第四実施形態により、本発明をMRI装置以外の撮像装置であるCT装置に適用した実施形態を説明したが、本発明の第一の態様は欠損データを取得する繰り返し再構成を行う撮像装置であれば本実施形態で説明した画像処理部と同様なものを追加することで、MRI装置、CT装置以外の種々の撮像装置、例えば超音波撮像装置、PET装置などに適用することができる。また本発明の第二の態様は、繰り返し再構成を行わない画像処理部についても、適用することができ、アーティファクト抑制効果が得られる。 As described above, the embodiment in which the present invention is applied to the CT apparatus which is an imaging apparatus other than the MRI apparatus has been described according to the third embodiment and the fourth embodiment. However, the first aspect of the present invention is a repetition of acquiring missing data. If an imaging apparatus that performs reconstruction is added, the same image processing unit as described in this embodiment is added to various imaging apparatuses other than the MRI apparatus and the CT apparatus, such as an ultrasonic imaging apparatus and a PET apparatus. Can be applied. The second aspect of the present invention can also be applied to an image processing unit that does not repeatedly perform reconstruction, and an artifact suppression effect can be obtained.
 さらに上記第一~第四実施形態は、本発明を撮像装置の画像処理部に適用した実施形態を説明したが、本発明は撮像装置から独立した画像処理装置、すなわち撮像装置が取得したデータを受け取り、画像を再構成する機能を持つ装置であれば、すべて適用できる。独立した画像処理装置としての装置構成は、例えば、図2及び図16に示した画像処理部の構成がそのまま利用できる。 Further, in the first to fourth embodiments described above, the embodiment in which the present invention is applied to the image processing unit of the imaging apparatus has been described. However, the present invention is an image processing apparatus independent from the imaging apparatus, that is, data acquired by the imaging apparatus. Any device having a function of receiving and reconstructing an image can be applied. As the apparatus configuration as an independent image processing apparatus, for example, the configuration of the image processing unit shown in FIGS. 2 and 16 can be used as it is.
 本発明によれば、アーティファクトが抑制された高品質の画像を再構成できる新たな画像処理技術が提供される。 According to the present invention, a new image processing technique capable of reconstructing a high-quality image in which artifacts are suppressed is provided.
100・・・MRI装置、101・・・被検体、120・・・静磁場発生部(撮像部)、130・・・傾斜磁場発生部(撮像部)、131・・・傾斜磁場コイル、132・・・傾斜磁場電源、140・・・シーケンサ、150・・・送信部(撮像部)、151・・・送信コイル、152・・・シンセサイザ、153・・・変調器、154・・・高周波増幅器、160・・・受信部(撮像部)、161・・・受信コイル、162・・・信号増幅器、163・・・直交位相検波器、164・・・A/D変換器、170・・・制御部、171・・・CPU、172・・・記憶装置、173・・・表示装置、174・・・入力装置、180、196・・・画像処理部、181・・・平均画像作成部(低次元データ作成部)、182・・・推定画像更新部、183・・・フレーム合成データ作成部、184・・・アーティファクト抽出部、185・・・アーティファクト抑制部、186、187・・・画像再構成部、191・・・X線源(撮像部)、192・・・X線検出器(撮像部)、193・・・回転板、194・・・寝台、195・・・データ収集部、201・・・各フレームのデータ、201P・・・部分的なフレームのデータ、202・・・低域、203・・・高域、204・・・データが存在する部分、205・・・データが存在しない部分、206・・・平均化したデータ、207、208・・・平均処理、209、209A、209B・・・平均画像、220・・・TEに対応する画像、221・・・TRに対応する画像、230A、230B、230C・・・推定画像の各フレーム、251・・・フレーム合成A、252・・・フレーム合成B、301・・・n-1番目のフレームデータ、302・・・n番目のフレームデータ、303・・・n+1番目のフレームデータ。 DESCRIPTION OF SYMBOLS 100 ... MRI apparatus, 101 ... Subject, 120 ... Static magnetic field generation part (imaging part), 130 ... Gradient magnetic field generation part (imaging part), 131 ... Gradient magnetic field coil, 132. ..Gradient magnetic field power supply, 140... Sequencer, 150... Transmission unit (imaging unit), 151... Transmission coil, 152 .synthesizer, 153. DESCRIPTION OF SYMBOLS 160 ... Reception part (imaging part), 161 ... Reception coil, 162 ... Signal amplifier, 163 ... Quadrature phase detector, 164 ... A / D converter, 170 ... Control part 171 ... CPU, 172 ... storage device, 173 ... display device, 174 ... input device, 180, 196 ... image processing unit, 181 ... average image creation unit (low-dimensional data) Creation unit), 182... Estimated image update 183: Frame composition data creation unit, 184: Artifact extraction unit, 185 ... Artifact suppression unit, 186, 187 ... Image reconstruction unit, 191 ... X-ray source (imaging unit), 192: X-ray detector (imaging unit), 193 ... rotating plate, 194 ... bed, 195 ... data collection unit, 201 ... data of each frame, 201P ... partial Frame data 202 ... Low frequency, 203 ... High frequency, 204 ... Data present portion, 205 ... Data missing portion, 206 ... Averaged data, 207, 208 ... Average processing, 209, 209A, 209B ... Average image, 220 ... Image corresponding to TE, 221 ... Image corresponding to TR, 230A, 230B, 230C ... Estimated image Frame, 251 ... Frame Composite A, 252 ... Frame Composite B, 301 ... n-1 th frame data, 302 ... n-th frame data, 303 ... n + 1 th frame data.

Claims (18)

  1.  画像再構成に必要なデータセットを収集する撮像部と、前記データセットを用いて画像を再構成する画像処理部とを備えた撮像装置であって、
     前記撮像部が収集するデータセットは、欠損データを含むデータセットであって、
     前記画像処理部は、前記データセットを用いて、データセットと画像との一致性の制約条件下で画像を推定する画像推定部と、
     前記データセットと画像を低次元化する低次元データ作成部と、
     前記低次元データ作成部が作成した低次元データセットと低次元画像との一致性の制約条件で前記画像推定部が推定した推定画像を更新する画像更新部と、
     を備えたことを特徴とする撮像装置。
    An imaging apparatus comprising: an imaging unit that collects a data set necessary for image reconstruction; and an image processing unit that reconstructs an image using the data set,
    The data set collected by the imaging unit is a data set including missing data,
    The image processing unit, using the data set, an image estimation unit that estimates an image under a constraint condition of coincidence between a data set and an image;
    A low-dimensional data creation unit for reducing the dimensions of the data set and the image;
    An image update unit that updates the estimated image estimated by the image estimation unit under a constraint condition of matching between the low-dimensional data set and the low-dimensional image created by the low-dimensional data creation unit;
    An imaging apparatus comprising:
  2.  請求項1に記載の撮像装置であって、
     前記低次元データ作成部は、前記データセットのデータが存在する領域について平均化処理することにより低次元データセットを作成することを特徴とする撮像装置。
    The imaging apparatus according to claim 1,
    The imaging apparatus, wherein the low-dimensional data creation unit creates a low-dimensional data set by performing an averaging process on an area where data of the data set exists.
  3.  請求項1に記載の撮像装置であって、
     前記低次元データ作成部は、前記複数のデータセットをフィルタ処理することにより低次元データセットを作成することを特徴とする撮像装置。
    The imaging apparatus according to claim 1,
    The low-dimensional data creation unit creates a low-dimensional data set by filtering the plurality of data sets.
  4.  請求項1に記載の撮像装置であって、
     前記撮像部は、静磁場及び傾斜磁場を発生する磁場発生部、高周波磁場を発生する送信部及び前記高周波磁場によって生じる核磁気共鳴信号を受信する受信部を備え、前記データセットがk空間データであることを特徴とする撮像装置。
    The imaging apparatus according to claim 1,
    The imaging unit includes a magnetic field generation unit that generates a static magnetic field and a gradient magnetic field, a transmission unit that generates a high frequency magnetic field, and a reception unit that receives a nuclear magnetic resonance signal generated by the high frequency magnetic field, and the data set is k-space data. There is an imaging apparatus.
  5.  請求項4に記載の撮像装置であって
     前記受信部は、複数の受信コイルを備え、前記複数のデータセットは、それぞれ前記複数の受信コイルが受信した核磁気共鳴信号から生成したデータセットであり、
     前記画像推定部は、前記複数の受信コイルの感度に基き、推定画像を更新する第二の画像更新部を備えたことを特徴とする撮像装置。
    The imaging apparatus according to claim 4, wherein the receiving unit includes a plurality of receiving coils, and the plurality of data sets are data sets generated from nuclear magnetic resonance signals respectively received by the plurality of receiving coils. ,
    The imaging apparatus, comprising: a second image updating unit that updates an estimated image based on sensitivities of the plurality of receiving coils.
  6.  請求項4に記載の撮像装置であって、
     前記撮像部が収集するデータセットは、時系列で得られるフレームデータであり、
     前記低次元データ作成部は、複数のフレームデータをフレーム方向に平均化処理して低次元データセットを作成することを特徴とする撮像装置。
    The imaging apparatus according to claim 4,
    The data set collected by the imaging unit is frame data obtained in time series,
    The low-dimensional data creation unit creates a low-dimensional data set by averaging a plurality of frame data in the frame direction.
  7.  請求項4に記載の撮像装置であって、
     前記低次元データ作成部は、前記k空間データをk空間の所望の軸方向に平均化処理して低次元データセットを作成することを特徴とする撮像装置。
    The imaging apparatus according to claim 4,
    The low-dimensional data creating unit creates a low-dimensional data set by averaging the k-space data in a desired axial direction of k-space.
  8.  請求項1に記載の撮像装置であって、
     前記撮像部は、X線源と、前記X線源から発せられるX線を検出するX線検出器と、前記X線源及び前記X線検出器を対向配置して回転させる回転部とを備え、
     前記データセットが、前記回転部の異なる回転角度で収集した投影データからなることを特徴とする撮像装置。
    The imaging apparatus according to claim 1,
    The imaging unit includes an X-ray source, an X-ray detector that detects X-rays emitted from the X-ray source, and a rotating unit that rotates the X-ray source and the X-ray detector facing each other. ,
    The imaging apparatus, wherein the data set includes projection data collected at different rotation angles of the rotation unit.
  9.  請求項8に記載の撮像装置であって、
     前記データセットは、時系列で得られる複数のフレームデータであり、前記複数のフレームデータは、互いに、前記回転角度が異なる投影データを含むことを特徴とする撮像装置。
    The imaging apparatus according to claim 8, wherein
    The data set is a plurality of frame data obtained in time series, and the plurality of frame data includes projection data having different rotation angles from each other.
  10.  請求項1、4、8のいずれか一項に記載の撮像装置であって、さらに、
     前記欠損データを含むデータセットから再構成した画像に含まれるアーティファクトを抽出するアーティファクト抽出部と、
     前記アーティファクト抽出部が抽出したアーティファクト情報を用いて、前記データセットを補正するデータ補正部と、を備え、
     前記アーティファクト抽出部は、一のデータセットと、当該一のデータセットとそれ以外のデータセットとの合成データセットを用いて、前記一のデータセットに含まれるアーティファクトを算出するものであり、
     前記画像推定部は、前記データ補正部で補正されたデータセットについて画像推定処理を行うことを特徴とする撮像装置。
    The imaging apparatus according to claim 1, further comprising:
    An artifact extraction unit that extracts an artifact included in an image reconstructed from the data set including the missing data;
    A data correction unit that corrects the data set using the artifact information extracted by the artifact extraction unit;
    The artifact extraction unit calculates an artifact included in the one data set by using one data set and a composite data set of the one data set and the other data set.
    The imaging apparatus, wherein the image estimation unit performs an image estimation process on the data set corrected by the data correction unit.
  11.  画像再構成に必要なデータセットを収集する撮像部と、前記データセットを用いて画像を再構成する画像処理部とを備えた撮像装置であって、
     前記撮像部が収集するデータセットは、欠損データを含むデータセットであって、
     前記画像処理部は、複数のデータセットを用いて、データセットと画像との一致性の制約条件下で画像を推定する画像推定部と、
     前記欠損データを含むデータセットから再構成した画像に含まれるアーティファクトを抽出するアーティファクト抽出部と、
     前記アーティファクト抽出部が抽出したアーティファクト情報を用いて、前記データセットを補正するデータ補正部と、を備え、
     前記アーティファクト抽出部は、一のデータセットと、当該一のデータセットとそれ以外のデータセットとの合成データセットを用いて、前記一のデータセットに含まれるアーティファクトを算出するものであり、
     前記画像推定部は、前記データ補正部で補正されたデータセットについて画像推定処理を行うことを特徴とする撮像装置。
    An imaging apparatus comprising: an imaging unit that collects a data set necessary for image reconstruction; and an image processing unit that reconstructs an image using the data set,
    The data set collected by the imaging unit is a data set including missing data,
    The image processing unit uses a plurality of data sets, an image estimation unit that estimates an image under a constraint condition of coincidence between the data set and the image,
    An artifact extraction unit that extracts an artifact included in an image reconstructed from the data set including the missing data;
    A data correction unit that corrects the data set using the artifact information extracted by the artifact extraction unit;
    The artifact extraction unit calculates an artifact included in the one data set by using one data set and a composite data set of the one data set and the other data set.
    The imaging apparatus, wherein the image estimation unit performs an image estimation process on the data set corrected by the data correction unit.
  12.  請求項10または11に記載の撮像装置であって、
     前記アーティファクト抽出部は、前記合成データセットとして、前記一のデータセット以外のデータセットが異なる合成セットを複数作成し、前記一のデータセットと複数の合成データセットを用いて、前記一のデータセットに含まれるアーティファクトを算出することを特徴とする撮像装置。
    The imaging device according to claim 10 or 11,
    The artifact extraction unit creates a plurality of composite sets having different data sets other than the one data set as the composite data set, and uses the one data set and a plurality of composite data sets to generate the one data set. An imaging apparatus characterized by calculating an artifact included in the image.
  13.  請求項11または12に記載の撮像装置であって、
     前記撮像部が、静磁場及び傾斜磁場を発生する磁場発生部、高周波磁場を発生する送信部及び前記高周波磁場によって生じる核磁気共鳴信号を受信する受信部を備え、磁気共鳴撮像装置であることを特徴とする撮像装置。
    The imaging device according to claim 11 or 12,
    The imaging unit includes a magnetic field generation unit that generates a static magnetic field and a gradient magnetic field, a transmission unit that generates a high-frequency magnetic field, and a reception unit that receives a nuclear magnetic resonance signal generated by the high-frequency magnetic field. An imaging device that is characterized.
  14.  請求項11または12に記載の撮像装置であって、
     前記撮像部が、X線源と、前記X線源から発せられるX線を検出するX線検出器と、前記X線源及び前記X線検出器を対向配置して回転させる回転部とを備え、
     X線CT装置であることを特徴とする撮像装置。
    The imaging device according to claim 11 or 12,
    The imaging unit includes an X-ray source, an X-ray detector that detects X-rays emitted from the X-ray source, and a rotating unit that rotates the X-ray source and the X-ray detector so as to face each other. ,
    An imaging apparatus, which is an X-ray CT apparatus.
  15.  欠損データを含むデータセットを用いて、データセットと画像との一致性の制約条件下で画像を推定する画像処理装置であって、
     前記データセットと画像を低次元化する低次元データ作成部と、
     前記低次元データ作成部が作成した低次元データセットと低次元画像との一致性の制約条件で推定した推定画像を更新する画像更新部と、
     を備えたことを特徴とする画像処理装置。
    An image processing apparatus that estimates an image under a constraint condition of coincidence between a data set and an image using a data set including missing data,
    A low-dimensional data creation unit for reducing the dimensions of the data set and the image;
    An image update unit that updates an estimated image estimated under a constraint condition of coincidence between a low-dimensional data set created by the low-dimensional data creation unit and a low-dimensional image;
    An image processing apparatus comprising:
  16.  欠損データを含むデータセットを複数用いて、データセットと画像との一致性の制約条件下で画像を推定する画像処理方法であって、
     前記データセットを用いて低次元化したデータセットを取得するステップと、
     前記データセットを疎変換し画像を推定する画像推定ステップと、
     前記低次元化したデータセットと低次元画像との一致性の制約条件下で前記推定した画像を更新する画像更新ステップと、
     前記画像更新ステップで更新した更新画像を、データセットと更新画像との一致性の制約条件下でさらに更新する再更新ステップと、を含む画像処理方法。
    An image processing method for estimating an image using a plurality of data sets including missing data under a constraint condition of coincidence between the data set and the image,
    Obtaining a reduced-order data set using the data set;
    An image estimation step of sparsely transforming the data set and estimating an image;
    An image update step of updating the estimated image under a constraint condition of coincidence between the reduced-dimension data set and a low-dimensional image;
    An image processing method comprising: a re-updating step of further updating the updated image updated in the image updating step under a constraint condition of coincidence between the data set and the updated image.
  17.  請求項16に記載の画像処理方法であって、
     前記画像推定ステップと、画像更新ステップと、再更新ステップと、を繰り返すことを特徴とする画像処理方法。
    The image processing method according to claim 16, comprising:
    An image processing method comprising repeating the image estimation step, the image update step, and the re-update step.
  18.  画像再構成に必要なデータセットを収集する撮像部と、前記データセットを用いて画像を再構成する画像処理部とを備えた撮像装置であって、
     前記撮像部が収集するデータセットは、欠損データを含むデータセットであって、
     前記画像処理部は、前記欠損データを含むデータセットから再構成した画像に含まれるアーティファクトを抽出するアーティファクト抽出部と、
     前記アーティファクト抽出部が抽出したアーティファクト情報を用いて、前記データセットを補正するデータ補正部と、を備え、
     前記アーティファクト抽出部は、一のデータセットと、当該一のデータセットとそれ以外のデータセットとの合成データセットを用いて、前記一のデータセットに含まれるアーティファクトを算出することを特徴とする撮像装置。
    An imaging apparatus comprising: an imaging unit that collects a data set necessary for image reconstruction; and an image processing unit that reconstructs an image using the data set,
    The data set collected by the imaging unit is a data set including missing data,
    The image processing unit is an artifact extraction unit that extracts an artifact included in an image reconstructed from a data set including the missing data;
    A data correction unit that corrects the data set using the artifact information extracted by the artifact extraction unit;
    The artifact extraction unit calculates an artifact included in the one data set by using one data set and a composite data set of the one data set and the other data set. apparatus.
PCT/JP2014/062439 2014-05-09 2014-05-09 Image capturing device, image processing device, and image processing method WO2015170394A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/062439 WO2015170394A1 (en) 2014-05-09 2014-05-09 Image capturing device, image processing device, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/062439 WO2015170394A1 (en) 2014-05-09 2014-05-09 Image capturing device, image processing device, and image processing method

Publications (1)

Publication Number Publication Date
WO2015170394A1 true WO2015170394A1 (en) 2015-11-12

Family

ID=54392262

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/062439 WO2015170394A1 (en) 2014-05-09 2014-05-09 Image capturing device, image processing device, and image processing method

Country Status (1)

Country Link
WO (1) WO2015170394A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107192991A (en) * 2017-07-18 2017-09-22 中国人民解放军国防科学技术大学 A kind of radio-frequency radiation formula emulates wideband pulse radar imagery equivalent simulation method
JP2018029656A (en) * 2016-08-22 2018-03-01 株式会社日立製作所 Magnetic resonance imaging device and image reconstruction method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08182661A (en) * 1994-12-28 1996-07-16 Hitachi Ltd Magnetic resonance photographing method
US20090262996A1 (en) * 2008-04-17 2009-10-22 Samsonov Alexey A Method for image reconstruction employing sparsity-constrained iterative correction
JP2009268901A (en) * 2008-05-06 2009-11-19 General Electric Co <Ge> System and method for using parallel imaging and compressed sensing
JP2013526365A (en) * 2010-05-19 2013-06-24 ウイスコンシン アラムナイ リサーチ ファウンデーシヨン How to reduce radiation dose using a priori image constrained image reconstruction
US20130310678A1 (en) * 2012-05-04 2013-11-21 Esaote Spa Biomedical image reconstruction method
JP2014508622A (en) * 2011-03-24 2014-04-10 コーニンクレッカ フィリップス エヌ ヴェ MR image reconstruction using regularization constrained by prior information

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08182661A (en) * 1994-12-28 1996-07-16 Hitachi Ltd Magnetic resonance photographing method
US20090262996A1 (en) * 2008-04-17 2009-10-22 Samsonov Alexey A Method for image reconstruction employing sparsity-constrained iterative correction
JP2009268901A (en) * 2008-05-06 2009-11-19 General Electric Co <Ge> System and method for using parallel imaging and compressed sensing
JP2013526365A (en) * 2010-05-19 2013-06-24 ウイスコンシン アラムナイ リサーチ ファウンデーシヨン How to reduce radiation dose using a priori image constrained image reconstruction
JP2014508622A (en) * 2011-03-24 2014-04-10 コーニンクレッカ フィリップス エヌ ヴェ MR image reconstruction using regularization constrained by prior information
US20130310678A1 (en) * 2012-05-04 2013-11-21 Esaote Spa Biomedical image reconstruction method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
TOSHIYUKI TANAKA: "Mathematics of Compressed Sensing", THE INSTITUTE OF ELECTRONICS, INFORMATION AND COMMUNICATION ENGINEERS, ENGINEERING SCIENCES SOCIETY, FUNDAMENTALS REVIEW, vol. 4, no. 1, July 2010 (2010-07-01), pages 39 - 47 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018029656A (en) * 2016-08-22 2018-03-01 株式会社日立製作所 Magnetic resonance imaging device and image reconstruction method
WO2018037868A1 (en) * 2016-08-22 2018-03-01 株式会社日立製作所 Magnetic resonance imaging device and image reconstruction method
CN107192991A (en) * 2017-07-18 2017-09-22 中国人民解放军国防科学技术大学 A kind of radio-frequency radiation formula emulates wideband pulse radar imagery equivalent simulation method
CN107192991B (en) * 2017-07-18 2019-10-11 中国人民解放军国防科学技术大学 A kind of radio-frequency radiation formula emulation wideband pulse radar imagery equivalent simulation method

Similar Documents

Publication Publication Date Title
CN111513716B (en) Method and system for magnetic resonance image reconstruction using an extended sensitivity model and a deep neural network
US11143730B2 (en) System and method for parallel magnetic resonance imaging
JP5902317B2 (en) Magnetic resonance imaging apparatus and quantitative susceptibility mapping method
JP7302988B2 (en) Medical imaging device, medical image processing device, and medical image processing program
CN102906791B (en) Method for radiation dose reduction using prior image constrained image reconstruction
CN108885246B (en) Diffusion MRI method for generating synthetic diffusion images at high b-values
US11372066B2 (en) Multi-resolution quantitative susceptibility mapping with magnetic resonance imaging
US9830687B2 (en) Image processing device, magnetic resonance imaging apparatus and image processing method
JP5485663B2 (en) System and method for automatic scan planning using symmetry detection and image registration
JP6085545B2 (en) Magnetic resonance imaging apparatus, image processing apparatus, and magnetic susceptibility image calculation method
JP6072723B2 (en) Magnetic resonance imaging apparatus and imaging method
US20180247436A1 (en) Method for restoring magnetic resonance image and magnetic resonance image processing apparatus
US11796617B2 (en) System and method for reconstruction of magnetic resonance images acquired with partial Fourier acquisition
US11002815B2 (en) System and method for reducing artifacts in echo planar magnetic resonance imaging
US11835612B2 (en) System and method for motion correction of magnetic resonance image
EP3595525B1 (en) Systems and methods for real-time motion prediction in dynamic imaging
Van Reeth et al. Isotropic reconstruction of a 4‐D MRI thoracic sequence using super‐resolution
US10698060B2 (en) Magnetic resonance imaging apparatus and medical image processing apparatus
EP4150360A1 (en) Correction of magnetic resonance images using multiple magnetic resonance imaging system configurations
JP5154751B2 (en) Medical image processing device
JP6608764B2 (en) Magnetic resonance imaging apparatus, magnetic resonance imaging method, and magnetic susceptibility calculation program
US10908248B2 (en) Systems and methods for slice dithered enhanced resolution simultaneous multislice magnetic resonance imaging
WO2015170394A1 (en) Image capturing device, image processing device, and image processing method
Yang et al. Developing an efficient phase-matched attenuation correction method for quiescent period PET in abdominal PET/MRI
US20220237748A1 (en) Methods and system for selective removal of streak artifacts and noise from images using deep neural networks

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14891321

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14891321

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP