JP2021041065A - Mri device, image processing device and image processing method - Google Patents
Mri device, image processing device and image processing method Download PDFInfo
- Publication number
- JP2021041065A JP2021041065A JP2019167077A JP2019167077A JP2021041065A JP 2021041065 A JP2021041065 A JP 2021041065A JP 2019167077 A JP2019167077 A JP 2019167077A JP 2019167077 A JP2019167077 A JP 2019167077A JP 2021041065 A JP2021041065 A JP 2021041065A
- Authority
- JP
- Japan
- Prior art keywords
- tomographic image
- space
- cnn
- image
- space data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 181
- 238000003672 processing method Methods 0.000 title claims abstract description 16
- 238000013527 convolutional neural network Methods 0.000 claims description 302
- 230000001131 transforming effect Effects 0.000 claims description 19
- 238000012549 training Methods 0.000 claims description 12
- 238000013480 data collection Methods 0.000 claims description 11
- 238000010586 diagram Methods 0.000 description 36
- 230000006870 function Effects 0.000 description 35
- 238000002595 magnetic resonance imaging Methods 0.000 description 22
- 238000000034 method Methods 0.000 description 22
- 210000004556 brain Anatomy 0.000 description 5
- 208000004552 Lacunar Stroke Diseases 0.000 description 4
- 206010051078 Lacunar infarction Diseases 0.000 description 4
- 238000005070 sampling Methods 0.000 description 4
- 210000004204 blood vessel Anatomy 0.000 description 2
- 125000004435 hydrogen atom Chemical group [H]* 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 206010008132 Cerebral thrombosis Diseases 0.000 description 1
- 201000001429 Intracranial Thrombosis Diseases 0.000 description 1
- 238000005481 NMR spectroscopy Methods 0.000 description 1
- 206010008118 cerebral infarction Diseases 0.000 description 1
- 208000026106 cerebrovascular disease Diseases 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Landscapes
- Magnetic Resonance Imaging Apparatus (AREA)
- Image Processing (AREA)
Abstract
Description
本発明は、MRI装置、画像処理装置および画像処理方法に関するものである。 The present invention relates to an MRI apparatus, an image processing apparatus and an image processing method.
MRI(magnetic resonance imaging)装置は、核磁気共鳴(nuclear magnetic resonance)現象を利用して、被検体の内部の情報を画像化することができる。MRI装置は、高周波の磁場を与えることで被検体内の水素原子に共鳴現象を起こさせ、その共鳴現象により発生する電波を受信コイルにより収集し、その収集したデータに基づいて被検体の断層画像を作成する。MRI装置は、水分量が多い脳や血管などの部位を診断する際に好適に用いられている。 An MRI (magnetic resonance imaging) device can image information inside a subject by utilizing a nuclear magnetic resonance phenomenon. The MRI apparatus causes a resonance phenomenon in hydrogen atoms in the subject by applying a high-frequency magnetic field, collects radio waves generated by the resonance phenomenon with a receiving coil, and based on the collected data, a tomographic image of the subject. To create. The MRI apparatus is suitably used for diagnosing a part such as a brain or a blood vessel having a large amount of water.
MRI装置では、被検体に与える傾斜磁場の勾配方向に、信号源となるスピン位相のエンコードを行う。実空間での各方向の傾斜磁場の印加量は、そのまま断層画像の空間周波数の空間であるk空間(k-space)での位置となる。したがって、傾斜磁場の印加によって受信コイルにより収集したk空間データを逆フーリエ変換すれば、被検体の断層画像を得ることができる。なお、数値演算を行う上ではフーリエ変換と逆フーリエ変換とは実質的に同じである。 The MRI apparatus encodes the spin phase as a signal source in the gradient direction of the gradient magnetic field applied to the subject. The amount of the gradient magnetic field applied in each direction in the real space is directly the position in the k-space, which is the space of the spatial frequency of the tomographic image. Therefore, a tomographic image of the subject can be obtained by performing an inverse Fourier transform on the k-space data collected by the receiving coil by applying a gradient magnetic field. The Fourier transform and the inverse Fourier transform are substantially the same in performing numerical operations.
MRI装置においては、被検体の負担の軽減や検査スループットの向上のために、k空間データの収集に要する時間の短縮が求められている。k空間データ収集の高速化を図る技術の一つとして圧縮センシング(compressed sensing)が注目されている。圧縮センシングとは、観測データが或る表現空間ではスパース(疎)である性質を有することを利用して、本来必要とするデータ量より少ない観測データに基づいて、或る条件の下で対象を復元する方法である。非特許文献1〜3には、MRI装置に圧縮センシングを適用してk空間データに基づいて断層画像を作成する方法が記載されている。そのうち非特許文献3には、断層画像の画質を改善する方法が提案されている。
In the MRI apparatus, it is required to shorten the time required for collecting k-space data in order to reduce the burden on the subject and improve the inspection throughput. Compressed sensing is attracting attention as one of the technologies for speeding up k-space data collection. Compressed sensing utilizes the fact that observation data has the property of being sparse in a certain expression space, and based on observation data that is less than the amount of data originally required, an object is targeted under certain conditions. How to restore. Non-Patent
非特許文献3に記載された方法では、k空間のうちの一部空間について収集された部分k空間データが逆フーリエ変換されて第1断層画像が作成され、この第1断層画像が学習済みの畳み込みニューラルネットワーク(CNN: convolutional neural network)に入力されて該CNNからCNN出力断層画像が出力される。このCNN出力断層画像がフーリエ変換されて第1k空間データが作成される。上記一部空間についての部分k空間データと、第1k空間データのうち上記一部空間以外の空間についてのk空間データとに基づいて、第2k空間データが作成される。そして、この第2k空間データが逆フーリエ変換されて第2断層画像が作成される。 In the method described in Non-Patent Document 3, a first tomographic image is created by inverse Fourier transforming the partial k-space data collected for a part of the k-space, and the first tomographic image has been learned. It is input to a convolutional neural network (CNN), and a CNN output tomographic image is output from the CNN. This CNN output tomographic image is Fourier transformed to create the first k spatial data. The second k-space data is created based on the partial k-space data for the partial space and the k-space data for the space other than the partial space among the first k-space data. Then, the second k spatial data is inverse Fourier transformed to create a second tomographic image.
この方法では、k空間の全体ではなく一部空間についてのみk空間データを収集すればよいので、k空間データ収集に要する時間の短縮が可能である。また、最終的に得られる第2断層画像は、第1断層画像およびCNN出力断層画像と比べて、良好な画質を有するとされている。 In this method, since the k-space data needs to be collected only for a part of the k-space, not for the entire k-space, the time required for collecting the k-space data can be shortened. Further, the second tomographic image finally obtained is said to have better image quality than the first tomographic image and the CNN output tomographic image.
しかし、非特許文献3に記載された方法により最終的に得られる断層画像には、周期的なアーチファクトが見られる。MRI装置に圧縮センシングを適用してk空間のうちの一部空間について収集された部分k空間データに基づいて断層画像を作成する方法は、更なる画質改善が望まれる。 However, periodic artifacts can be seen in the tomographic image finally obtained by the method described in Non-Patent Document 3. Further improvement in image quality is desired in the method of applying compressed sensing to an MRI apparatus to create a tomographic image based on partial k-space data collected for a part of k-space.
本発明は、上記問題点を解消する為になされたものであり、MRI装置に圧縮センシングを適用してk空間のうちの一部空間について収集された部分k空間データに基づいて更に良好な画質を有する断層画像を作成することができる画像処理装置および画像処理方法を提供することを目的とする。また、本発明は、このような画像処理装置を備えるMRI装置を提供することを目的とする。 The present invention has been made to solve the above problems, and the image quality is further improved based on the partial k-space data collected for a part of the k-space by applying compressed sensing to the MRI apparatus. It is an object of the present invention to provide an image processing apparatus and an image processing method capable of producing a tomographic image having the above. Another object of the present invention is to provide an MRI apparatus including such an image processing apparatus.
本発明の画像処理装置は、(1) MRI装置においてk空間のうちの一部空間について収集された部分k空間データに基づいて第1断層画像を作成する第1断層画像作成部と、(2) 畳み込みニューラルネットワークに断層画像を入力させて畳み込みニューラルネットワークからCNN出力断層画像を出力させるCNN処理部と、(3) CNN出力断層画像に基づいて第1k空間データを作成する第1k空間データ作成部と、(4)前記一部空間についての部分k空間データと、第1k空間データのうち前記一部空間以外の空間についてのk空間データとに基づいて、第2k空間データを作成する第2k空間データ作成部と、(5) 第2k空間データに基づいて第2断層画像を作成する第2断層画像作成部と、を備える。そして、CNN処理部は、畳み込みニューラルネットワークによる処理を2回以上行い、そのうち第1回の処理では、第1断層画像を畳み込みニューラルネットワークに入力させ、第2回以降の処理では、前回の処理によるCNN出力断層画像に基づいて作成された第2断層画像を畳み込みニューラルネットワークに入力させる。 The image processing apparatus of the present invention includes (1) a first tomographic image creating unit that creates a first tomographic image based on partial k-space data collected for a part of the k-space in the MRI apparatus, and (2). ) CNN processing unit that inputs a tomographic image to the convolutional neural network and outputs a CNN output tomographic image from the convolutional neural network, and (3) 1k spatial data creation unit that creates 1k spatial data based on the CNN output tomographic image. And (4) the second k space for creating the second k space data based on the partial k space data for the partial space and the k space data for the space other than the partial space among the first k space data. It includes a data creation unit and (5) a second tomographic image creation unit that creates a second tomographic image based on the second k spatial data. Then, the CNN processing unit performs the processing by the convolutional neural network twice or more, in the first processing, the first tomographic image is input to the convolutional neural network, and in the second and subsequent processing, the previous processing is performed. The second tomographic image created based on the CNN output tomographic image is input to the convolutional neural network.
CNN処理部は、畳み込みニューラルネットワークを学習させる際に、(a) k空間内の前記一部空間について収集された部分k空間データに基づいて作成された被検体の第1断層画像または第2断層画像を畳み込みニューラルネットワークへの入力画像として用い、(b) k空間内の前記一部空間より広い空間について収集されたk空間データに基づいて作成された被検体の断層画像を教師画像として用いるのが好適である。また、CNN処理部は、畳み込みニューラルネットワークを学習させる際に、k空間の全体について収集されたk空間データに基づいて作成された被検体の断層画像を教師画像として用いるのが更に好適である。 When the CNN processing unit trains the convolutional neural network, (a) the first tomographic image or the second tomographic image of the subject created based on the partial k-space data collected for the partial space in the k-space. The image is used as an input image to the convolutional neural network, and (b) a tomographic image of the subject created based on the k-space data collected for a space wider than the partial space in the k-space is used as a teacher image. Is preferable. Further, it is more preferable that the CNN processing unit uses a tomographic image of the subject created based on the k-space data collected for the entire k-space as a teacher image when training the convolutional neural network.
CNN処理部は、畳み込みニューラルネットワークを学習させる際に、教師画像とCNN出力断層画像との差を含む関数を損失関数として用いるのが好適である。また、CNN処理部は、畳み込みニューラルネットワークを学習させる際に、教師画像とCNN出力断層画像との差、および、教師画像をフーリエ変換して得られるk空間データとCNN出力断層画像をフーリエ変換して得られるk空間データとの差を含む関数を、損失関数として用いるのが更に好適である。 When training the convolutional neural network, the CNN processing unit preferably uses a function including the difference between the teacher image and the CNN output tomographic image as a loss function. Further, when the convolutional neural network is trained, the CNN processing unit Fourier transforms the difference between the teacher image and the CNN output tomographic image, and the k-space data obtained by Fourier transforming the teacher image and the CNN output tomographic image. It is more preferable to use a function including the difference from the obtained k-space data as a loss function.
或いは、本発明の画像処理装置は、(1) MRI装置においてk空間のうちの一部空間について収集された部分k空間データに基づいて第1断層画像を作成する第1断層画像作成部と、(2) 畳み込みニューラルネットワークに第1断層画像を入力させて畳み込みニューラルネットワークからCNN出力断層画像を出力させるCNN処理部と、(3) CNN出力断層画像に基づいて第1k空間データを作成する第1k空間データ作成部と、(4)前記一部空間についての部分k空間データと、第1k空間データのうち前記一部空間以外の空間についてのk空間データとに基づいて、第2k空間データを作成する第2k空間データ作成部と、(5) 第2k空間データに基づいて第2断層画像を作成する第2断層画像作成部と、を備える。そして、CNN処理部は、畳み込みニューラルネットワークを学習させる際に、(a) k空間内の前記一部空間について収集された部分k空間データに基づいて作成された被検体の第1断層画像または第2断層画像を畳み込みニューラルネットワークへの入力画像として用い、(b) k空間内の前記一部空間より広い空間について収集されたk空間データに基づいて作成された被検体の断層画像を教師画像として用い、(c) 教師画像とCNN出力断層画像との差、および、教師画像をフーリエ変換して得られるk空間データとCNN出力断層画像をフーリエ変換して得られるk空間データとの差を含む関数を、損失関数として用いる。 Alternatively, the image processing apparatus of the present invention includes (1) a first tomographic image creating unit that creates a first tomographic image based on partial k-space data collected for a part of the k-space in the MRI apparatus. (2) CNN processing unit that inputs the first tomographic image to the convolutional neural network and outputs the CNN output tomographic image from the convolutional neural network, and (3) the first k that creates the first k spatial data based on the CNN output tomographic image. The second k space data is created based on the spatial data creation unit, (4) the partial k space data for the partial space, and the k space data for the space other than the partial space among the first k space data. It is provided with a second k spatial data creation unit for creating a second tomographic image, and (5) a second tomographic image creation unit for creating a second tomographic image based on the second k spatial data. Then, when the CNN processing unit trains the convolutional neural network, (a) the first tomographic image or the first tomographic image of the subject created based on the partial k-space data collected for the partial space in the k-space. 2 The tomographic image is used as an input image to the convolutional neural network, and (b) the tomographic image of the subject created based on the k-space data collected for a space wider than the partial space in the k-space is used as the teacher image. Including (c) the difference between the teacher image and the CNN output tomographic image, and the difference between the k-spatial data obtained by Fourier transforming the teacher image and the k-spatial data obtained by Fourier transforming the CNN output tomographic image. Use the function as a loss function.
本発明のMRI装置は、k空間データを収集するk空間データ収集部と、k空間データ収集部により収集されたk空間データに基づいて断層画像を作成する上記の本発明の画像処理装置と、を備える。 The MRI apparatus of the present invention includes a k-space data collecting unit that collects k-space data, and the above-mentioned image processing apparatus of the present invention that creates a tomographic image based on the k-space data collected by the k-space data collecting unit. To be equipped.
本発明の画像処理方法は、(1) MRI装置においてk空間のうちの一部空間について収集された部分k空間データに基づいて第1断層画像を作成する第1断層画像作成ステップと、(2) 畳み込みニューラルネットワークに断層画像を入力させて畳み込みニューラルネットワークからCNN出力断層画像を出力させるCNN処理ステップと、(3) CNN出力断層画像に基づいて第1k空間データを作成する第1k空間データ作成ステップと、(4) 前記一部空間についての部分k空間データと、第1k空間データのうち前記一部空間以外の空間についてのk空間データとに基づいて、第2k空間データを作成する第2k空間データ作成ステップと、(5) 第2k空間データに基づいて第2断層画像を作成する第2断層画像作成ステップと、を備える。そして、CNN処理ステップの処理を2回以上行い、そのうち第1回の処理では、第1断層画像を畳み込みニューラルネットワークに入力させ、第2回以降の処理では、前回の処理によるCNN出力断層画像に基づいて作成された第2断層画像を畳み込みニューラルネットワークに入力させる。 The image processing method of the present invention includes (1) a first tomographic image creation step of creating a first tomographic image based on partial k-space data collected for a part of k-space in an MRI apparatus, and (2). ) CNN processing step to input tomographic image to convolutional neural network and output CNN output tomographic image from convolutional neural network, and (3) 1k spatial data creation step to create 1k spatial data based on CNN output tomographic image And (4) the second k space for creating the second k space data based on the partial k space data for the partial space and the k space data for the space other than the partial space among the first k space data. It includes a data creation step and (5) a second tomographic image creation step of creating a second tomographic image based on the second k spatial data. Then, the processing of the CNN processing step is performed twice or more, and in the first processing, the first tomographic image is input to the convolutional neural network, and in the second and subsequent processing, the CNN output tomographic image obtained by the previous processing is used. The second tomographic image created based on this is input to the convolutional neural network.
CNN処理ステップでは、畳み込みニューラルネットワークを学習させる際に、(a) k空間内の前記一部空間について収集された部分k空間データに基づいて作成された被検体の第1断層画像または第2断層画像を畳み込みニューラルネットワークへの入力画像として用い、(b) k空間内の前記一部空間より広い空間について収集されたk空間データに基づいて作成された被検体の断層画像を教師画像として用いるのが好適である。また、CNN処理ステップでは、畳み込みニューラルネットワークを学習させる際に、k空間の全体について収集されたk空間データに基づいて作成された被検体の断層画像を教師画像として用いるのが更に好適である。 In the CNN processing step, when training the convolutional neural network, (a) a first tomographic image or a second tomographic image of the subject created based on the partial k-space data collected for the partial k-space. The image is used as an input image to the convolutional neural network, and (b) a tomographic image of the subject created based on the k-space data collected for a space wider than the partial space in the k-space is used as a teacher image. Is preferable. Further, in the CNN processing step, it is more preferable to use a tomographic image of the subject created based on the k-space data collected for the entire k-space as a teacher image when training the convolutional neural network.
CNN処理ステップでは、畳み込みニューラルネットワークを学習させる際に、教師画像とCNN出力断層画像との差を含む関数を損失関数として用いるのが好適である。また、CNN処理ステップでは、畳み込みニューラルネットワークを学習させる際に、教師画像とCNN出力断層画像との差、および、教師画像をフーリエ変換して得られるk空間データとCNN出力断層画像をフーリエ変換して得られるk空間データとの差を含む関数を、損失関数として用いるのが更に好適である。 In the CNN processing step, it is preferable to use a function including the difference between the teacher image and the CNN output tomographic image as a loss function when training the convolutional neural network. Further, in the CNN processing step, when the convolutional neural network is trained, the difference between the teacher image and the CNN output tomographic image, and the k-space data obtained by Fourier transforming the teacher image and the CNN output tomographic image are Fourier transformed. It is more preferable to use a function including the difference from the obtained k-space data as a loss function.
或いは、本発明の画像処理方法は、(1) MRI装置においてk空間のうちの一部空間について収集された部分k空間データに基づいて第1断層画像を作成する第1断層画像作成ステップと、(2) 畳み込みニューラルネットワークに第1断層画像を入力させて畳み込みニューラルネットワークからCNN出力断層画像を出力させるCNN処理ステップと、(3) CNN出力断層画像に基づいて第1k空間データを作成する第1k空間データ作成ステップと、(4) 前記一部空間についての部分k空間データと、第1k空間データのうち前記一部空間以外の空間についてのk空間データとに基づいて、第2k空間データを作成する第2k空間データ作成ステップと、(5) 第2k空間データに基づいて第2断層画像を作成する第2断層画像作成ステップと、を備える。そして、CNN処理ステップでは、畳み込みニューラルネットワークを学習させる際に、(a) k空間内の前記一部空間について収集された部分k空間データに基づいて作成された被検体の第1断層画像または第2断層画像を畳み込みニューラルネットワークへの入力画像として用い、(b) k空間内の前記一部空間より広い空間について収集されたk空間データに基づいて作成された被検体の断層画像を教師画像として用い、(c) 教師画像とCNN出力断層画像との差、および、教師画像をフーリエ変換して得られるk空間データとCNN出力断層画像をフーリエ変換して得られるk空間データとの差を含む関数を、損失関数として用いる。 Alternatively, the image processing method of the present invention includes (1) a first tomographic image creation step of creating a first tomographic image based on partial k-space data collected for a part of the k-space in the MRI apparatus. (2) CNN processing step of inputting the first tomographic image to the convolutional neural network and outputting the CNN output tomographic image from the convolutional neural network, and (3) the first k to create the first k spatial data based on the CNN output tomographic image. The second k space data is created based on the spatial data creation step, (4) the partial k space data for the partial space, and the k space data for the space other than the partial space among the first k space data. It includes a second k space data creation step for creating a second tomographic image, and (5) a second tomographic image creation step for creating a second tomographic image based on the second k spatial data. Then, in the CNN processing step, when the convolutional neural network is trained, (a) the first tomographic image or the first tomographic image of the subject created based on the partial k-space data collected for the partial space in the k-space. 2 The tomographic image is used as an input image to the convolutional neural network, and (b) the tomographic image of the subject created based on the k-space data collected for a space wider than the partial space in the k-space is used as the teacher image. Including (c) the difference between the teacher image and the CNN output tomographic image, and the difference between the k-spatial data obtained by Fourier transforming the teacher image and the k-spatial data obtained by Fourier transforming the CNN output tomographic image. Use the function as a loss function.
本発明によれば、MRI装置に圧縮センシングを適用してk空間のうちの一部空間について収集された部分k空間データに基づいて更に良好な画質を有する断層画像を作成することができる。 According to the present invention, compressed sensing can be applied to an MRI apparatus to create a tomographic image having better image quality based on partial k-space data collected for a part of k-space.
以下、添付図面を参照して、本発明を実施するための形態を詳細に説明する。なお、図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。本発明は、これらの例示に限定されるものではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。 Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the accompanying drawings. In the description of the drawings, the same elements are designated by the same reference numerals, and duplicate description will be omitted. The present invention is not limited to these examples, and is indicated by the scope of claims, and is intended to include all modifications within the meaning and scope equivalent to the scope of claims.
図1は、MRI装置1の構成を示すブロック図である。MRI装置1は、k空間データ収集部10および画像処理装置2を備える。
FIG. 1 is a block diagram showing the configuration of the
k空間データ収集部10は、被検体に対し傾斜磁場を与えるとともに、被検体内の水素原子の共鳴現象により発生する電波を受信コイルにより受信してk空間データを収集する。k空間データ収集部10は、k空間の全体についてk空間データを収集(フルサンプリング)することができ、また、k空間のうちの一部空間についてk空間データを収集(アンダーサンプリング)することができる。アンダーサンプリングの際のk空間のうちの一部空間のパターンとしては、格子状(cartesian)、放射状(radial)および螺旋状(spiral)等が知られている(非特許文献1,2参照)。
The k-space
画像処理装置2は、k空間データ収集部10により収集されたk空間データに基づいて被検体の断層画像を作成する。画像処理装置2は、第1断層画像作成部11、CNN処理部12、第1k空間データ作成部13、第2k空間データ作成部14、第2断層画像作成部15、制御部16、記憶部17および表示部18を備える。
The
第1断層画像作成部11は、k空間データ収集部10により収集(フルサンプリングまたはアンダーサンプリング)されたk空間データに基づいて被検体の断層画像を作成する。具体的には、第1断層画像作成部11は、k空間データを逆フーリエ変換することで断層画像を作成する。k空間のうちの一部空間について収集された部分k空間データy0に基づいて第1断層画像作成部11により作成された断層画像を第1断層画像x1とする。
The first tomographic
CNN処理部12は、第1断層画像作成部11により作成された第1断層画像x1、または、第2断層画像作成部15により作成された第2断層画像x2を、畳み込みニューラルネットワーク(CNN)に入力させる。これにより、CNN処理部12は、CNNからCNN出力断層画像xCNNを出力させる。
The CNN processing unit 12 convolves the first tomographic image x 1 created by the first tomographic
第1k空間データ作成部13は、CNN出力断層画像xCNNに基づいて第1k空間データy1を作成する。具体的には、第1k空間データ作成部13は、CNN出力断層画像xCNNをフーリエ変換することで第1k空間データy1を作成する。
The first k spatial
第2k空間データ作成部14は、上記一部空間についての部分k空間データy0と、第1k空間データy1のうち上記一部空間以外の空間についてのk空間データとに基づいて、第2k空間データy2を作成する。
The second k space
第2断層画像作成部15は、第2k空間データy2に基づいて第2断層画像x2を作成する。具体的には、第2断層画像作成部15は、第2k空間データy2を逆フーリエ変換することで第2断層画像x2を作成する。
The second tomographic
制御部16は、画像処理装置2の全体の動作を制御するものであり、特に、第1断層画像作成部11、CNN処理部12、第1k空間データ作成部13、第2k空間データ作成部14および第2断層画像作成部15それぞれの処理を制御する。記憶部17は、部分k空間データy0、第1断層画像x1、CNN出力断層画像xCNN、第1k空間データy1、第2k空間データy2および第2断層画像x2等を記憶する。表示部18は、部分k空間データy0、第1断層画像x1、CNN出力断層画像xCNN、第1k空間データy1、第2k空間データy2および第2断層画像x2等を画面上に表示する。
The
画像処理装置2は、CPU(central processing unit)、DSP(digital signal processor)、ROM(read only memory)、GPU(graphics processing unit)、RAM(random access memory)、ハードディスクドライブ、ディスプレイ、キーボードおよびマウス等を有するコンピュータにより構成することができる。第1断層画像作成部11、第1k空間データ作成部13、第2k空間データ作成部14および第2断層画像作成部15は、CPUまたはDSPを含んで構成され得る。CNN処理部12は、CPU、DSPまたはGPUを含んで構成され得る。制御部16はCPUを含んで構成され得る。記憶部17はROM、RAM、ハードディスクドライブを含んで構成され得る。表示部18はディスプレイを含んで構成され得る。
The
CNN処理部12は、CNNによる処理を2回以上行う。そのうち第1回の処理では、CNN処理部12は、第1断層画像x1をCNNに入力させる。第2回以降の処理では、CNN処理部12は、前回の処理によるCNN出力断層画像xCNNに基づいて作成された第2断層画像x2をCNNに入力させる。
The
図2は、画像処理方法を説明するフローチャートである。この図には、k空間データ収集部10により部分k空間データy0を収集するk空間データ収集ステップS10も示されている。画像処理方法は、第1断層画像作成ステップS11、CNN処理ステップS12、第1k空間データ作成ステップS13、第2k空間データ作成ステップS14および第2断層画像作成ステップS15を備える。
FIG. 2 is a flowchart illustrating an image processing method. This figure also shows a k-space data collection step S10 in which the k-space
第1断層画像作成ステップS11は、第1断層画像作成部11により行われる処理である。第1断層画像作成ステップS11では、k空間データ収集ステップS10でk空間のうちの一部空間について収集された部分k空間データy0に基づいて第1断層画像x1を作成する。
The first tomographic image creation step S11 is a process performed by the first tomographic
CNN処理ステップS12は、CNN処理部12により行われる処理である。CNN処理ステップS12では、第1断層画像作成ステップS11で作成された第1断層画像x1、または、第2断層画像作成ステップS15で作成された第2断層画像x2を、CNNに入力させる。これにより、CNN処理ステップS12では、CNNからCNN出力断層画像xCNNを出力させる。
The CNN processing step S12 is a process performed by the
第1k空間データ作成ステップS13は、第1k空間データ作成部13により行われる処理である。第1k空間データ作成ステップS13では、CNN出力断層画像xCNNに基づいて第1k空間データy1を作成する。
The first k space data creation step S13 is a process performed by the first k space
第2k空間データ作成ステップS14は、第2k空間データ作成部14により行われる処理である。第2k空間データ作成ステップS14では、上記一部空間についての部分k空間データy0と、第1k空間データy1のうち上記一部空間以外の空間についてのk空間データとに基づいて、第2k空間データy2を作成する。
The second k space data creation step S14 is a process performed by the second k space
第2断層画像作成ステップS15は、第2断層画像作成部15により行われる処理である。第2断層画像作成ステップS15では、第2k空間データy2に基づいて第2断層画像x2を作成する。
The second tomographic image creation step S15 is a process performed by the second tomographic
CNN処理ステップS12の処理を2回以上行う。そのうち第1回の処理では、CNN処理ステップS12は、第1断層画像x1をCNNに入力させる。第2回以降の処理では、CNN処理ステップS12は、前回の処理によるCNN出力断層画像xCNNに基づいて作成された第2断層画像x2をCNNに入力させる。
The process of CNN process step S12 is performed twice or more. Them in
図3は、第2k空間データ作成部14により行われる第2k空間データ作成ステップS14の処理について説明する図である。この図には、部分k空間データy0、第1k空間データy1および第2k空間データy2が模式的に示されている。図3(a)に示される部分k空間データy0は、k空間のうちの一部空間(図3(a)においてハッチング領域)について収集(アンダーサンプリング)されたものであり、その一部空間以外の空間(図3(a)において白色領域)のデータは値0である。
FIG. 3 is a diagram illustrating the processing of the second k space data creation step S14 performed by the second k space
図3(c)に示される第1k空間データy1は、CNN出力断層画像xCNNをフーリエ変換することで作成されたものであり、k空間の全体において0でない値をとり得る。図3(b)に示される第2k空間データy2は、第2k空間データ作成ステップS14により作成されるものであり、上記一部空間については部分k空間データy0と同じ値を有し、上記一部空間以外の空間については第1k空間データy1と同じ値を有する。 The 1k spatial data y 1 shown in FIG. 3 (c), has been prepared by Fourier transforming CNN output tomographic image x CNN, it may take a value other than 0 in the entire k-space. The second k-space data y 2 shown in FIG. 3 (b) is created by the second k-space data creation step S14, and has the same value as the partial k-space data y 0 for the partial space. Spaces other than the above partial space have the same values as the first k-space data y1.
なお、本実施形態の画像処理装置および画像処理方法は、非特許文献3に記載された方法と比較すると、次の点で相違している。非特許文献3に記載された方法は、第1断層画像作成ステップS11、CNN処理ステップS12、第1k空間データ作成ステップS13、第2k空間データ作成ステップS14および第2断層画像作成ステップS15それぞれを1回のみ行うものであって、CNN処理ステップS12を繰り返し行うものではない。これに対して、これまで説明してきた本実施形態では、CNN処理部12によるCNN処理ステップS12を2回以上行う。これにより、本実施形態では、k空間のうちの一部空間について収集された部分k空間データy0に基づいて良好な画質を有する断層画像を作成することができる。
The image processing apparatus and the image processing method of the present embodiment are different from the methods described in Non-Patent Document 3 in the following points. The method described in Non-Patent Document 3 includes 1 for each of the first tomographic image creation step S11, the CNN processing step S12, the first k spatial data creation step S13, the second k spatial data creation step S14, and the second tomographic image creation step S15. It is performed only once, and the CNN processing step S12 is not repeated. On the other hand, in the present embodiment described so far, the CNN processing step S12 by the
次に、CNNの学習について説明する。CNNを学習させる際に、CNN処理部12は、k空間内の一部空間について収集(アンダーサンプリング)された部分k空間データy0に基づいて作成された被検体の第1断層画像x1または第2断層画像x2を、CNNへの入力画像として用いる。また、CNN処理部12は、上記一部空間より広い空間について収集されたk空間データに基づいて作成された被検体の断層画像を、教師画像xtrueとして用いる。好適には、CNN処理部12は、k空間の全体について収集(フルサンプリング)されたk空間データに基づいて作成された被検体の断層画像を、教師画像xtrueとして用いる。
Next, learning of CNN will be described. When training the CNN, the CNN processing unit 12 may use the first tomographic image x 1 or the first tomographic image x 1 of the subject created based on the partial k-space data y 0 collected (undersampled) for a partial space in the k-space. The second tomographic image x 2 is used as an input image to the CNN. Further, the
CNNの学習の際に用いる損失関数は、教師画像xtrueとCNN出力断層画像xCNNとの差を含む関数(下記(1)式)であってもよい。この式LAは、教師画像xtrueとCNN出力断層画像xCNNとのL2ノルムを表す。損失関数が小さくなるようにCNNの学習を行う。 The loss function used in learning the CNN may be a function including the difference between the teacher image x true and the CNN output tomographic image x CNN (Equation (1) below). The equation L A represents the L2 norm of the teacher image x true and CNN output tomographic image x CNN. CNN training is performed so that the loss function becomes small.
また、損失関数は、教師画像xtrueとCNN出力断層画像xCNNとの差、および、教師画像xtrueをフーリエ変換して得られるk空間データF(xtrue)とCNN出力断層画像xCNNをフーリエ変換して得られるk空間データF(xCNN)との差を含む関数(下記(2)式)であってもよい。この式LBは、教師画像xtrueとCNN出力断層画像xCNNとのL2ノルムと、k空間データF(xtrue)とk空間データF(xCNN)とのL2ノルムに重み係数λを乗じたものと、の和を表す。重み係数λの値は0超1以下の範囲で選ばれるのが好適である。 The loss function is the difference between the teacher image x true and the CNN output tomographic image x CNN, and the k spatial data F (x true ) obtained by Fourier transforming the teacher image x true and the CNN output tomographic image x CNN . It may be a function (Equation (2) below) including a difference from the k-space data F (x CNN) obtained by Fourier transform. The equation L B multiplies the L2 norm of the teacher image x true and CNN output tomographic image x CNN, the L2 norm of the k-space data F (x true) and k-space data F (x CNN) a weighting factor λ Represents the sum of data and. The value of the weighting coefficient λ is preferably selected in the range of more than 0 and not more than 1.
損失関数LA((1)式)を用いてCNNを学習させれば、CNN処理部12によるCNN処理ステップS12の繰り返し回数を2回以上とすることで画質改善の効果が得られる。CNN処理部12によるCNN処理ステップS12の繰り返し回数は最大10回程度で十分である。画質改善された最終的な断層画像は、CNN処理部12によるCNN処理ステップS12を2回以上行った後のCNN出力断層画像xCNNおよび第2断層画像x2の何れであってもよい。
If caused to learn CNN with loss function L A ((1) type), the effect of image quality improvement is obtained by the number of repetitions of the CNN processing step S12 by the
損失関数LB((2)式)を用いてCNNを学習させれば、CNN処理部12によるCNN処理ステップS12を2回以上行う場合だけでなく、CNN処理部12によるCNN処理ステップS12を1回のみ行う場合であっても、k空間のうちの一部空間について収集された部分k空間データy0に基づいて良好な画質を有する第2断層画像x2を作成することができる。
If caused to learn CNN with loss function L B ((2) type), not only when the CNN processing step S12 by the
次に、シミュレーション結果について説明する。非特許文献4に蓄積されているMRIによる脳の断層画像のうちT2強調画像を用いた。57名分の7427個の断層画像を用いてCNNを学習させた。57名分の7460個の断層画像を用いて、アンダーサブサンプリングによる部分k空間データy0を作成した。アンダーサンプリングのパターンは、格子状(cartesian)であり、フルサンプリングの際のk空間の全体に対して20%の空間とした。CNNとして、非特許文献5に記載されているU-netを用いた。CNN学習時に損失関数としてLA(上記(1)式)およびLB(上記(2)式)を用いた。損失関数としてLBを用いた場合、重み係数λを0.1とした。 Next, the simulation results will be described. Among the tomographic images of the brain by MRI accumulated in Non-Patent Document 4, T2-weighted images were used. CNN was trained using 7427 tomographic images for 57 people. Using 7460 pieces of tomographic images of 57 persons, we have created a partial k-space data y 0 by the under subsampling. The pattern of undersampling was a grid pattern (cartesian), and the space was set to 20% of the total k-space at the time of full sampling. As CNN, U-net described in Non-Patent Document 5 was used. CNN was used during learning in the loss function L A (equation (1)) and L B (above (2)). When using the L B as a loss function, and the weighting factor λ is 0.1.
図4は正解画像の例である。図中の矩形領域R1,R2は注目領域である。図5はアンダーサンプリングのパターンを示す図である。図中で、白色領域はk空間のうちアンダーサンプリングした一部空間であり、その一部空間以外の黒色領域の空間のデータは値0である。正解画像(図4)をフーリエ変換して得られるk空間データのうち、アンダーサンプリングのパターン(図5)の白色領域に相当する領域のデータのみを取り出すことで、部分k空間データy0を作成した。 FIG. 4 is an example of a correct image. The rectangular areas R1 and R2 in the figure are areas of interest. FIG. 5 is a diagram showing an undersampling pattern. In the figure, the white region is an undersampled partial space of the k space, and the data of the space of the black region other than the partial space has a value of 0. Partial k-space data y 0 is created by extracting only the data in the area corresponding to the white area of the undersampling pattern (Fig. 5) from the k-space data obtained by Fourier transforming the correct image (Fig. 4). did.
図6は、第1断層画像作成ステップS11において部分k空間データy0に基づいて作成された第1断層画像x1の一例を示す図である。図6(a)は第1断層画像x1を示し、図6(b)は第1断層画像x1と正解画像(図4)との差分を示す。 Figure 6 is a diagram showing a first example of a tomographic image x 1 generated based on partial k-space data y 0 in the first tomographic image producing step S11. FIG. 6 (a) shows the first tomographic image x 1 , and FIG. 6 (b) shows the difference between the first tomographic image x 1 and the correct image (FIG. 4).
図7〜図9は、CNN学習時に損失関数としてLAを用いたときに作成された断層画像の一例を示す図である。図7は、CNN処理ステップS12の処理を1回のみ行って得られたCNN出力断層画像xCNNの一例を示す図である。図7(a)はCNN出力断層画像xCNNを示し、図7(b)はCNN出力断層画像xCNNと正解画像(図4)との差分を示す。図8は、CNN処理ステップS12の処理を1回のみ行って得られた第2断層画像x2の一例を示す図である。図8(a)は第2断層画像x2を示し、図8(b)は第2断層画像x2と正解画像(図4)との差分を示す。図9は、CNN処理ステップS12の処理を10回行って得られた第2断層画像x2の一例を示す図である。図9(a)は第2断層画像x2を示し、図9(b)は第2断層画像x2と正解画像(図4)との差分を示す。
7 to 9 are diagrams showing an example of a tomographic image created when LA is used as a loss function during CNN learning. FIG. 7 is a diagram showing an example of a CNN output tomographic image x CNN obtained by performing the processing of the CNN processing step S12 only once. 7 (a) shows the CNN output tomographic image x CNN, FIG. 7 (b) shows the difference between the CNN output tomographic image x CNN and correct image (FIG. 4). FIG. 8 is a diagram showing an example of the second tomographic image x 2 obtained by performing the processing of the CNN processing step S12 only once. FIG. 8 (a) shows the second tomographic image x 2 , and FIG. 8 (b) shows the difference between the second tomographic image x 2 and the correct image (FIG. 4). FIG. 9 is a diagram showing an example of the second tomographic image x 2 obtained by performing the processing of the CNN
図10〜図12は、CNN学習時に損失関数としてLBを用いたときに作成された断層画像の一例を示す図である。図10は、CNN処理ステップS12の処理を1回のみ行って得られたCNN出力断層画像xCNNの一例を示す図である。図10(a)はCNN出力断層画像xCNNを示し、図10(b)はCNN出力断層画像xCNNと正解画像(図4)との差分を示す。図11は、CNN処理ステップS12の処理を1回のみ行って得られた第2断層画像x2の一例を示す図である。図11(a)は第2断層画像x2を示し、図11(b)は第2断層画像x2と正解画像(図4)との差分を示す。図12は、CNN処理ステップS12の処理を10回行って得られた第2断層画像x2の一例を示す図である。図12(a)は第2断層画像x2を示し、図12(b)は第2断層画像x2と正解画像(図4)との差分を示す。
10 to 12 are diagrams showing an example of a tomographic image created when LB is used as a loss function during CNN learning. FIG. 10 is a diagram showing an example of a CNN output tomographic image x CNN obtained by performing the processing of the CNN processing step S12 only once. 10 (a) shows the CNN output tomographic image x CNN, FIG. 10 (b) shows the difference between the CNN output tomographic image x CNN and correct image (FIG. 4). FIG. 11 is a diagram showing an example of the second tomographic image x 2 obtained by performing the processing of the CNN processing step S12 only once. FIG. 11 (a) shows the second tomographic image x 2 , and FIG. 11 (b) shows the difference between the second tomographic image x 2 and the correct image (FIG. 4). FIG. 12 is a diagram showing an example of the second tomographic image x 2 obtained by performing the processing of the CNN
図13〜図19は、各断層画像中の注目領域R1,R2を拡大して示す図である。各図(a)は注目領域R1を示し、各図(b)は注目領域R2を示す。図13は、正解画像(図4)中の注目領域R1,R2を示す図である。 13 to 19 are enlarged views showing the regions of interest R1 and R2 in each tomographic image. Each figure (a) shows the area of interest R1 and each figure (b) shows the area of interest R2. FIG. 13 is a diagram showing regions of interest R1 and R2 in the correct image (FIG. 4).
図14は、CNN処理ステップS12の処理を1回のみ行って得られたCNN出力断層画像xCNN(図7)中の注目領域R1,R2を示す図である。図15は、CNN処理ステップS12の処理を1回のみ行って得られた第2断層画像x2(図8)中の注目領域R1,R2を示す図である。図16は、CNN処理ステップS12の処理を10回行って得られた第2断層画像x2(図9)中の注目領域R1,R2を示す図である。これら図14〜図16は、CNN学習時に損失関数としてLAを用いた場合のものである。
FIG. 14 is a diagram showing regions of interest R1 and R2 in the CNN output tomographic image x CNN (FIG. 7) obtained by performing the processing of the CNN processing step S12 only once. FIG. 15 is a diagram showing regions of interest R1 and R2 in the second tomographic image x 2 (FIG. 8) obtained by performing the processing of the CNN processing step S12 only once. FIG. 16 is a diagram showing regions of interest R1 and R2 in the second tomographic image x 2 (FIG. 9) obtained by performing the processing of the CNN
図17は、CNN処理ステップS12の処理を1回のみ行って得られたCNN出力断層画像xCNN(図10)中の注目領域R1,R2を示す図である。図18は、CNN処理ステップS12の処理を1回のみ行って得られた第2断層画像x2(図11)中の注目領域R1,R2を示す図である。図19は、CNN処理ステップS12の処理を10回行って得られた第2断層画像x2(図12)中の注目領域R1,R2を示す図である。これら図17〜図19は、CNN学習時に損失関数としてLBを用いた場合のものである。
FIG. 17 is a diagram showing regions of interest R1 and R2 in the CNN output tomographic image x CNN (FIG. 10) obtained by performing the processing of the CNN processing step S12 only once. FIG. 18 is a diagram showing regions of interest R1 and R2 in the second tomographic image x 2 (FIG. 11) obtained by performing the processing of the CNN processing step S12 only once. FIG. 19 is a diagram showing regions of interest R1 and R2 in the second tomographic image x 2 (FIG. 12) obtained by performing the processing of the CNN
正解画像(図4,図13(a))の注目領域R1において、実線矢印が指し示す白色に近い領域にラクナ梗塞が認められる。ラクナ梗塞とは、脳血栓の中でも脳の深い部分を流れている細い血管が詰まってしまうことで起きる脳梗塞である。CNN学習時に損失関数としてLA,LBの何れを用いた場合においても、CNN処理ステップS12の処理を1回のみ行って得られたCNN出力断層画像xCNNと比べて、CNN処理ステップS12の処理を1回のみ行って得られた第2断層画像x2ではラクナ梗塞が鮮明に認められ、CNN処理ステップS12の処理を10回行って得られた第2断層画像x2ではラクナ梗塞が更に鮮明に認められる。 In the region of interest R1 of the correct image (FIGS. 4 and 13 (a)), lacunar infarction is observed in the region close to white indicated by the solid arrow. Lacunar infarction is a cerebral infarction caused by clogging of small blood vessels flowing deep in the brain among cerebral thrombosis. L A as a loss function when CNN learning, in the case of using any of L B may, in comparison with CNN output tomographic image x CNN obtained by performing the processing of the CNN processing step S12 only once, the CNN processing step S12 second the tomographic image x 2 lacunar infarction were observed clearly obtained processing performed only once, the second tomographic images x 2 in lacunar infarction further obtained by performing 10 times the processing of the CNN processing step S12 It is clearly recognized.
CNN学習時に損失関数としてLA,LBの何れを用いた場合においても、注目領域R1中の破線矢印が指し示す領域に、CNN処理ステップS12の処理を1回のみ行って得られたCNN出力断層画像xCNNと比べて、CNN処理ステップS12の処理を1回のみ行って得られた第2断層画像x2ではアーチファクトが低減されており、CNN処理ステップS12の処理を10回行って得られた第2断層画像x2ではアーチファクトが更に低減されている。
L as a loss function when CNN learning A, even when using any of L B, in a region where the broken line arrows in the region of interest R1 is indicated, CNN output tomographic obtained by performing the processing of the CNN processing step S12 only once Compared with the image x CNN , the second tomographic image x 2 obtained by performing the processing of the CNN processing step S12 only once has reduced artifacts, and was obtained by performing the processing of the CNN
正解画像(図4,図13(b))の注目領域R2において、実線矢印が指し示す領域に着目すると、CNN学習時に損失関数としてLA,LBの何れを用いた場合においても、CNN処理ステップS12の処理を1回のみ行って得られたCNN出力断層画像xCNNと比べて、CNN処理ステップS12の処理を1回のみ行って得られた第2断層画像x2では脳構造が鮮明に復元されており、CNN処理ステップS12の処理を10回行って得られた第2断層画像x2では脳構造が更に鮮明に復元されている。
In attention area R2 of the correct images (FIG. 4, FIG. 13 (b)), when focusing on the region where the solid arrow is pointing, L A as a loss function when CNN learning, even when using any of L B, CNN processing steps Compared with the CNN output tomographic image x CNN obtained by performing the processing of S12 only once, the brain structure is clearly restored in the second tomographic image x 2 obtained by performing the processing of the CNN processing step S12 only once. In the second tomographic image x 2 obtained by performing the processing of the CNN
正解画像(図4,図13(b))の注目領域R2において、破線印が指し示す領域に着目すると、CNN学習時に損失関数としてLA,LBの何れを用いた場合においても、CNN処理ステップS12の処理を1回のみ行って得られたCNN出力断層画像xCNNと比べて、CNN処理ステップS12の処理を1回のみ行って得られた第2断層画像x2ではアーチファクトが低減されており、CNN処理ステップS12の処理を10回行って得られた第2断層画像x2ではアーチファクトが更に低減されている。特に、CNN学習時に損失関数としてLBを用いた場合には、CNN処理ステップS12の処理を10回行って得られた第2断層画像x2ではアーチファクトが殆ど認められない。
In attention area R2 of the correct images (FIG. 4, FIG. 13 (b)), when focusing on the area indicated by the dashed line marked, L A as a loss function when CNN learning, even when using any of L B, CNN processing steps Compared with the CNN output tomographic image x CNN obtained by performing the processing of S12 only once, the artifacts are reduced in the second tomographic image x 2 obtained by performing the processing of the CNN processing step S12 only once. , The second tomographic image x 2 obtained by performing the processing of the CNN
図20は、CNN学習時に損失関数としてLA,LBそれぞれを用いた場合について、第1断層画像x1および第2断層画像x2(CNN処理ステップS12の繰り返し回数itrを1,2,5,10)それぞれのPSNRを示すグラフである。PSNR(Peak Signal to Noise Ratio)は、画像の品質をデシベル(dB)で表したものであり、値が高いほど良好な画質であることを意味する。
Figure 20, L as a loss function when CNN learning A, the case of using the respective L B, the number of repetitions itr the first tomographic image x 1 and the second tomographic image x 2 (CNN processing steps
図21は、CNN学習時に損失関数としてLA,LBそれぞれを用いた場合について、第1断層画像x1および第2断層画像x2(CNN処理ステップS12の繰り返し回数itrを1,2,5,10)それぞれのSSIMを示すグラフである。SSIM(Structural Similarity Index)は、画像の輝度およびコントラストならびに構造の変化を定量化する指標であり、値が高いほど良好な画質であることを意味する。 21 1, 2 and 5, L as a loss function when CNN learning A, the case of using the respective L B, the number of repetitions itr the first tomographic image x 1 and the second tomographic image x 2 (CNN processing step S12 , 10) It is a graph which shows each SSIM. The SSIM (Structural Similarity Index) is an index for quantifying changes in image brightness, contrast, and structure, and the higher the value, the better the image quality.
PSNRおよびSSIMの何れの指標も、第1断層画像x1より第2断層画像x2の方が画質が良好であることを示しており、CNN処理ステップS12の繰り返し回数itrを多くするほど第2断層画像x2の画質が良好になることを示している。また、PSNRおよびSSIMの何れの指標も、CNN学習時に損失関数としてLAよりLBを用いる場合の方が、画質が良好であることを示している。 Both the PSNR and SSIM indexes show that the image quality of the second tomographic image x 2 is better than that of the first tomographic image x 1 , and the second isr as the number of repetitions of the CNN processing step S12 is increased. It shows that the image quality of the tomographic image x 2 is improved. Also, any indication of PSNR and SSIM also towards the case of using L B from L A as a loss function when CNN learning, indicating that the image quality is good.
1…MRI装置、2…画像処理装置、10…k空間データ収集部、11…第1断層画像作成部、12…CNN処理部、13…第1k空間データ作成部、14…第2k空間データ作成部、15…第2断層画像作成部、16…制御部、17…記憶部、18…表示部、x1…第1断層画像、x2…第2断層画像、xCNN…CNN出力断層画像、y0…部分k空間データ、y1…第1k空間データ、y2…第2k空間データ。 1 ... MRI device, 2 ... image processing device, 10 ... k space data collection unit, 11 ... first tomographic image creation unit, 12 ... CNN processing unit, 13 ... 1st k space data creation unit, 14 ... second k space data creation Unit, 15 ... 2nd tomographic image creation unit, 16 ... control unit, 17 ... storage unit, 18 ... display unit, x 1 ... 1st tomographic image, x 2 ... 2nd tomographic image, x CNN ... CNN output tomographic image, y 0 ... partial k space data, y 1 ... first k space data, y 2 ... second k space data.
Claims (13)
畳み込みニューラルネットワークに断層画像を入力させて前記畳み込みニューラルネットワークからCNN出力断層画像を出力させるCNN処理部と、
前記CNN出力断層画像に基づいて第1k空間データを作成する第1k空間データ作成部と、
前記一部空間についての前記部分k空間データと、前記第1k空間データのうち前記一部空間以外の空間についてのk空間データとに基づいて、第2k空間データを作成する第2k空間データ作成部と、
前記第2k空間データに基づいて第2断層画像を作成する第2断層画像作成部と、
を備え、
前記CNN処理部は、前記畳み込みニューラルネットワークによる処理を2回以上行い、そのうち第1回の処理では、前記第1断層画像を前記畳み込みニューラルネットワークに入力させ、第2回以降の処理では、前回の処理による前記CNN出力断層画像に基づいて作成された前記第2断層画像を前記畳み込みニューラルネットワークに入力させる、
画像処理装置。 A first tomographic image creation unit that creates a first tomographic image based on partial k-space data collected for a part of k-space in an MRI apparatus.
A CNN processing unit that inputs a tomographic image to a convolutional neural network and outputs a CNN output tomographic image from the convolutional neural network.
A first k spatial data creation unit that creates first k spatial data based on the CNN output tomographic image, and
A second k-space data creation unit that creates second k-space data based on the partial k-space data for the partial space and the k-space data for a space other than the partial space among the first k-space data. When,
A second tomographic image creation unit that creates a second tomographic image based on the 2k spatial data,
With
The CNN processing unit performs the processing by the convolutional neural network twice or more, in the first processing, the first tomographic image is input to the convolutional neural network, and in the second and subsequent processing, the previous processing is performed. The second tomographic image created based on the CNN output tomographic image by processing is input to the convolutional neural network.
Image processing device.
請求項1に記載の画像処理装置。 When the CNN processing unit trains the convolutional neural network, the first tomographic image of the subject or the first tomographic image of the subject created based on the partial k-space data collected for the partial space in the k-space. 2 The tomographic image is used as an input image to the convolutional neural network, and the tomographic image of the subject created based on the k-space data collected for a space wider than the partial space in the k-space is used as a teacher image. ,
The image processing apparatus according to claim 1.
請求項2に記載の画像処理装置。 When training the convolutional neural network, the CNN processing unit uses a tomographic image of the subject created based on k-space data collected for the entire k-space as a teacher image.
The image processing apparatus according to claim 2.
請求項2または3に記載の画像処理装置。 When training the convolutional neural network, the CNN processing unit uses a function including the difference between the teacher image and the CNN output tomographic image as a loss function.
The image processing apparatus according to claim 2 or 3.
請求項2または3に記載の画像処理装置。 When the convolutional neural network is trained, the CNN processing unit determines the difference between the teacher image and the CNN output tomographic image, and the k-space data obtained by Fourier transforming the teacher image and the CNN output tomographic image. The function including the difference from the k-space data obtained by Fourier transforming is used as the loss function.
The image processing apparatus according to claim 2 or 3.
畳み込みニューラルネットワークに前記第1断層画像を入力させて前記畳み込みニューラルネットワークからCNN出力断層画像を出力させるCNN処理部と、
前記CNN出力断層画像に基づいて第1k空間データを作成する第1k空間データ作成部と、
前記一部空間についての前記部分k空間データと、前記第1k空間データのうち前記一部空間以外の空間についてのk空間データとに基づいて、第2k空間データを作成する第2k空間データ作成部と、
前記第2k空間データに基づいて第2断層画像を作成する第2断層画像作成部と、
を備え、
前記CNN処理部は、前記畳み込みニューラルネットワークを学習させる際に、
k空間内の前記一部空間について収集された前記部分k空間データに基づいて作成された被検体の前記第1断層画像または前記第2断層画像を前記畳み込みニューラルネットワークへの入力画像として用い、
k空間内の前記一部空間より広い空間について収集されたk空間データに基づいて作成された前記被検体の断層画像を教師画像として用い、
前記教師画像と前記CNN出力断層画像との差、および、前記教師画像をフーリエ変換して得られるk空間データと前記CNN出力断層画像をフーリエ変換して得られるk空間データとの差を含む関数を、損失関数として用いる、
画像処理装置。 A first tomographic image creation unit that creates a first tomographic image based on partial k-space data collected for a part of k-space in an MRI apparatus.
A CNN processing unit that inputs the first tomographic image to the convolutional neural network and outputs a CNN output tomographic image from the convolutional neural network.
A first k spatial data creation unit that creates first k spatial data based on the CNN output tomographic image, and
A second k-space data creation unit that creates second k-space data based on the partial k-space data for the partial space and the k-space data for a space other than the partial space among the first k-space data. When,
A second tomographic image creation unit that creates a second tomographic image based on the 2k spatial data,
With
When the CNN processing unit trains the convolutional neural network,
The first tomographic image or the second tomographic image of the subject created based on the partial k-space data collected for the partial k-space is used as an input image to the convolutional neural network.
A tomographic image of the subject created based on k-space data collected for a space wider than the partial space in the k-space was used as a teacher image.
A function including the difference between the teacher image and the CNN output tomographic image, and the difference between the k-space data obtained by Fourier transforming the teacher image and the k-space data obtained by Fourier transforming the CNN output tomographic image. As a loss function,
Image processing device.
前記k空間データ収集部により収集されたk空間データに基づいて断層画像を作成する請求項1〜6の何れか1項に記載の画像処理装置と、
を備えるMRI装置。 The k-space data collection unit that collects k-space data,
The image processing apparatus according to any one of claims 1 to 6, which creates a tomographic image based on the k-space data collected by the k-space data collection unit.
An MRI apparatus comprising.
畳み込みニューラルネットワークに断層画像を入力させて前記畳み込みニューラルネットワークからCNN出力断層画像を出力させるCNN処理ステップと、
前記CNN出力断層画像に基づいて第1k空間データを作成する第1k空間データ作成ステップと、
前記一部空間についての前記部分k空間データと、前記第1k空間データのうち前記一部空間以外の空間についてのk空間データとに基づいて、第2k空間データを作成する第2k空間データ作成ステップと、
前記第2k空間データに基づいて第2断層画像を作成する第2断層画像作成ステップと、
を備え、
前記CNN処理ステップの処理を2回以上行い、そのうち第1回の処理では、前記第1断層画像を前記畳み込みニューラルネットワークに入力させ、第2回以降の処理では、前回の処理による前記CNN出力断層画像に基づいて作成された前記第2断層画像を前記畳み込みニューラルネットワークに入力させる、
画像処理方法。 The first tomographic image creation step of creating a first tomographic image based on the partial k-space data collected for a part of the k-space in the MRI apparatus,
A CNN processing step in which a tomographic image is input to a convolutional neural network and a CNN output tomographic image is output from the convolutional neural network.
The first k spatial data creation step for creating the first k spatial data based on the CNN output tomographic image, and
A second k-space data creation step for creating a second k-space data based on the partial k-space data for the partial space and the k-space data for a space other than the partial space among the first k-space data. When,
A second tomographic image creation step for creating a second tomographic image based on the 2k spatial data, and
With
The processing of the CNN processing step is performed twice or more, in the first processing, the first tomographic image is input to the convolutional neural network, and in the second and subsequent processing, the CNN output fault obtained by the previous processing is performed. The second tomographic image created based on the image is input to the convolutional neural network.
Image processing method.
請求項8に記載の画像処理方法。 In the CNN processing step, when the convolutional neural network is trained, the first tomographic image of the subject or the first tomographic image of the subject created based on the partial k-space data collected for the partial space in the k-space. 2 The tomographic image is used as an input image to the convolutional neural network, and the tomographic image of the subject created based on the k-space data collected for a space wider than the partial space in the k-space is used as a teacher image. ,
The image processing method according to claim 8.
請求項9に記載の画像処理方法。 In the CNN processing step, when training the convolutional neural network, a tomographic image of the subject created based on k-space data collected for the entire k-space is used as a teacher image.
The image processing method according to claim 9.
請求項9または10に記載の画像処理方法。 In the CNN processing step, when training the convolutional neural network, a function including the difference between the teacher image and the CNN output tomographic image is used as a loss function.
The image processing method according to claim 9 or 10.
請求項9または10に記載の画像処理方法。 In the CNN processing step, when the convolutional neural network is trained, the difference between the teacher image and the CNN output tomographic image, and the k-space data obtained by Fourier transforming the teacher image and the CNN output tomographic image. Is used as a loss function by using a function including the difference from the k-space data obtained by Fourier transforming.
The image processing method according to claim 9 or 10.
畳み込みニューラルネットワークに前記第1断層画像を入力させて前記畳み込みニューラルネットワークからCNN出力断層画像を出力させるCNN処理ステップと、
前記CNN出力断層画像に基づいて第1k空間データを作成する第1k空間データ作成ステップと、
前記一部空間についての前記部分k空間データと、前記第1k空間データのうち前記一部空間以外の空間についてのk空間データとに基づいて、第2k空間データを作成する第2k空間データ作成ステップと、
前記第2k空間データに基づいて第2断層画像を作成する第2断層画像作成ステップと、
を備え、
前記CNN処理ステップでは、前記畳み込みニューラルネットワークを学習させる際に、
k空間内の前記一部空間について収集された前記部分k空間データに基づいて作成された被検体の前記第1断層画像または前記第2断層画像を前記畳み込みニューラルネットワークへの入力画像として用い、
k空間内の前記一部空間より広い空間について収集されたk空間データに基づいて作成された前記被検体の断層画像を教師画像として用い、
前記教師画像と前記CNN出力断層画像との差、および、前記教師画像をフーリエ変換して得られるk空間データと前記CNN出力断層画像をフーリエ変換して得られるk空間データとの差を含む関数を、損失関数として用いる、
画像処理方法。 The first tomographic image creation step of creating a first tomographic image based on the partial k-space data collected for a part of the k-space in the MRI apparatus,
A CNN processing step in which the first tomographic image is input to the convolutional neural network and a CNN output tomographic image is output from the convolutional neural network.
The first k spatial data creation step for creating the first k spatial data based on the CNN output tomographic image, and
A second k-space data creation step for creating a second k-space data based on the partial k-space data for the partial space and the k-space data for a space other than the partial space among the first k-space data. When,
A second tomographic image creation step for creating a second tomographic image based on the 2k spatial data, and
With
In the CNN processing step, when training the convolutional neural network,
The first tomographic image or the second tomographic image of the subject created based on the partial k-space data collected for the partial k-space is used as an input image to the convolutional neural network.
A tomographic image of the subject created based on k-space data collected for a space wider than the partial space in the k-space was used as a teacher image.
A function including the difference between the teacher image and the CNN output tomographic image, and the difference between the k-space data obtained by Fourier transforming the teacher image and the k-space data obtained by Fourier transforming the CNN output tomographic image. As a loss function,
Image processing method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019167077A JP7369572B2 (en) | 2019-09-13 | 2019-09-13 | MRI device, image processing device, and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019167077A JP7369572B2 (en) | 2019-09-13 | 2019-09-13 | MRI device, image processing device, and image processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021041065A true JP2021041065A (en) | 2021-03-18 |
JP7369572B2 JP7369572B2 (en) | 2023-10-26 |
Family
ID=74864614
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019167077A Active JP7369572B2 (en) | 2019-09-13 | 2019-09-13 | MRI device, image processing device, and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7369572B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP4059731A1 (en) | 2021-03-15 | 2022-09-21 | Seiko Epson Corporation | Transport device and recording device |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150097565A1 (en) * | 2013-10-01 | 2015-04-09 | Beth Israel Deaconess Medical Center, Inc. (BIDMC) | Methods and apparatus for reducing scan time of phase contrast mri |
JP2018130142A (en) * | 2017-02-13 | 2018-08-23 | 株式会社日立製作所 | Medical image diagnostic apparatus |
JP2019025044A (en) * | 2017-07-31 | 2019-02-21 | 株式会社日立製作所 | Medical imaging apparatus and medical image processing method |
-
2019
- 2019-09-13 JP JP2019167077A patent/JP7369572B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150097565A1 (en) * | 2013-10-01 | 2015-04-09 | Beth Israel Deaconess Medical Center, Inc. (BIDMC) | Methods and apparatus for reducing scan time of phase contrast mri |
JP2018130142A (en) * | 2017-02-13 | 2018-08-23 | 株式会社日立製作所 | Medical image diagnostic apparatus |
JP2019025044A (en) * | 2017-07-31 | 2019-02-21 | 株式会社日立製作所 | Medical imaging apparatus and medical image processing method |
Non-Patent Citations (1)
Title |
---|
CHANG MIN HYUN, ET AL.: "Deep Learning for undersampled MRI reconstruction", PHYSICS IN MEDICINE & BIOLOGY, vol. V0l.63 No.13, JPN6023018009, 25 June 2018 (2018-06-25), GB, pages 135007 - 15, ISSN: 0005051470 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP4059731A1 (en) | 2021-03-15 | 2022-09-21 | Seiko Epson Corporation | Transport device and recording device |
Also Published As
Publication number | Publication date |
---|---|
JP7369572B2 (en) | 2023-10-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Liu et al. | Perception consistency ultrasound image super-resolution via self-supervised CycleGAN | |
Ghodrati et al. | MR image reconstruction using deep learning: evaluation of network structure and loss functions | |
Yu et al. | Deep de-aliasing for fast compressive sensing MRI | |
de Leeuw Den Bouter et al. | Deep learning-based single image super-resolution for low-field MR brain images | |
Eun et al. | Deep-learning-based image quality enhancement of compressed sensing magnetic resonance imaging of vessel wall: comparison of self-supervised and unsupervised approaches | |
Fang et al. | Rca-u-net: Residual channel attention u-net for fast tissue quantification in magnetic resonance fingerprinting | |
Sood et al. | An application of generative adversarial networks for super resolution medical imaging | |
CN103142228A (en) | Compressed sensing magnetic resonance fast imaging method | |
CN114049408A (en) | Depth network model for accelerating multi-modality MR imaging | |
Mao et al. | Disc-diff: Disentangled conditional diffusion model for multi-contrast mri super-resolution | |
Pawar et al. | A deep learning framework for transforming image reconstruction into pixel classification | |
Liu et al. | An edge enhanced srgan for mri super resolution in slice-selection direction | |
Song et al. | Deep robust residual network for super-resolution of 2D fetal brain MRI | |
Guan et al. | Magnetic resonance imaging reconstruction using a deep energy‐based model | |
Lu et al. | Two-stage self-supervised cycle-consistency transformer network for reducing slice gap in MR images | |
JP7369572B2 (en) | MRI device, image processing device, and image processing method | |
Rashid et al. | Single MR image super-resolution using generative adversarial network | |
Feng et al. | Deep multi-modal aggregation network for MR image reconstruction with auxiliary modality | |
CN106137199B (en) | Broad sense spherical surface in diffusion magnetic resonance imaging deconvolutes | |
Qin et al. | A2OURSR: Adaptive adjustment based real MRI super-resolution via opinion-unaware measurements | |
KR100452644B1 (en) | Image processing method and apparatus, recording medium, and imaging apparatus | |
Bouffard et al. | Multi-step reinforcement learning for medical image super-resolution | |
Shen et al. | Attention hybrid variational net for accelerated MRI reconstruction | |
CN113920211A (en) | Rapid magnetic sensitivity weighted imaging method based on deep learning | |
Zhang et al. | Enhanced Multi-Attention Network for Single Image Super-resolution |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220905 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230421 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230509 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230706 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230919 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231016 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7369572 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |