JP2021041065A - Mri device, image processing device and image processing method - Google Patents

Mri device, image processing device and image processing method Download PDF

Info

Publication number
JP2021041065A
JP2021041065A JP2019167077A JP2019167077A JP2021041065A JP 2021041065 A JP2021041065 A JP 2021041065A JP 2019167077 A JP2019167077 A JP 2019167077A JP 2019167077 A JP2019167077 A JP 2019167077A JP 2021041065 A JP2021041065 A JP 2021041065A
Authority
JP
Japan
Prior art keywords
tomographic image
space
cnn
image
space data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019167077A
Other languages
Japanese (ja)
Other versions
JP7369572B2 (en
Inventor
二三生 橋本
Fumio Hashimoto
二三生 橋本
希望 大手
Kibo Ote
希望 大手
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hamamatsu Photonics KK
Original Assignee
Hamamatsu Photonics KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hamamatsu Photonics KK filed Critical Hamamatsu Photonics KK
Priority to JP2019167077A priority Critical patent/JP7369572B2/en
Publication of JP2021041065A publication Critical patent/JP2021041065A/en
Application granted granted Critical
Publication of JP7369572B2 publication Critical patent/JP7369572B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Magnetic Resonance Imaging Apparatus (AREA)
  • Image Processing (AREA)

Abstract

To provide an image processing method and the like which can create a tomographic image having the excellent image quality on the basis of partial k space data collected for a partial space of a k space in an MRI device.SOLUTION: In a CNN processing step S12, a first tomographic image x1 created in a first tomographic image creation step S11 on the basis of partial k space data y0 collected for a partial space of a k space or a second tomographic image x2 created in a second tomographic image creation step S15 is input to a CNN, and a CNN output tomographic image xCNN is output from the CNN. The processing in the CNN processing step S12 is performed more than two times. In the first processing of the CNN processing step S12, the first tomographic image x1 is input to the CNN. In the second or subsequent processing of the CNN processing step S12, the second tomographic image x2 created on the basis of the CNN output tomographic image xCNN by the previous processing is input to the CNN.SELECTED DRAWING: Figure 2

Description

本発明は、MRI装置、画像処理装置および画像処理方法に関するものである。 The present invention relates to an MRI apparatus, an image processing apparatus and an image processing method.

MRI(magnetic resonance imaging)装置は、核磁気共鳴(nuclear magnetic resonance)現象を利用して、被検体の内部の情報を画像化することができる。MRI装置は、高周波の磁場を与えることで被検体内の水素原子に共鳴現象を起こさせ、その共鳴現象により発生する電波を受信コイルにより収集し、その収集したデータに基づいて被検体の断層画像を作成する。MRI装置は、水分量が多い脳や血管などの部位を診断する際に好適に用いられている。 An MRI (magnetic resonance imaging) device can image information inside a subject by utilizing a nuclear magnetic resonance phenomenon. The MRI apparatus causes a resonance phenomenon in hydrogen atoms in the subject by applying a high-frequency magnetic field, collects radio waves generated by the resonance phenomenon with a receiving coil, and based on the collected data, a tomographic image of the subject. To create. The MRI apparatus is suitably used for diagnosing a part such as a brain or a blood vessel having a large amount of water.

MRI装置では、被検体に与える傾斜磁場の勾配方向に、信号源となるスピン位相のエンコードを行う。実空間での各方向の傾斜磁場の印加量は、そのまま断層画像の空間周波数の空間であるk空間(k-space)での位置となる。したがって、傾斜磁場の印加によって受信コイルにより収集したk空間データを逆フーリエ変換すれば、被検体の断層画像を得ることができる。なお、数値演算を行う上ではフーリエ変換と逆フーリエ変換とは実質的に同じである。 The MRI apparatus encodes the spin phase as a signal source in the gradient direction of the gradient magnetic field applied to the subject. The amount of the gradient magnetic field applied in each direction in the real space is directly the position in the k-space, which is the space of the spatial frequency of the tomographic image. Therefore, a tomographic image of the subject can be obtained by performing an inverse Fourier transform on the k-space data collected by the receiving coil by applying a gradient magnetic field. The Fourier transform and the inverse Fourier transform are substantially the same in performing numerical operations.

MRI装置においては、被検体の負担の軽減や検査スループットの向上のために、k空間データの収集に要する時間の短縮が求められている。k空間データ収集の高速化を図る技術の一つとして圧縮センシング(compressed sensing)が注目されている。圧縮センシングとは、観測データが或る表現空間ではスパース(疎)である性質を有することを利用して、本来必要とするデータ量より少ない観測データに基づいて、或る条件の下で対象を復元する方法である。非特許文献1〜3には、MRI装置に圧縮センシングを適用してk空間データに基づいて断層画像を作成する方法が記載されている。そのうち非特許文献3には、断層画像の画質を改善する方法が提案されている。 In the MRI apparatus, it is required to shorten the time required for collecting k-space data in order to reduce the burden on the subject and improve the inspection throughput. Compressed sensing is attracting attention as one of the technologies for speeding up k-space data collection. Compressed sensing utilizes the fact that observation data has the property of being sparse in a certain expression space, and based on observation data that is less than the amount of data originally required, an object is targeted under certain conditions. How to restore. Non-Patent Documents 1 to 3 describe a method of applying compressed sensing to an MRI apparatus to create a tomographic image based on k-space data. Among them, Non-Patent Document 3 proposes a method for improving the image quality of a tomographic image.

非特許文献3に記載された方法では、k空間のうちの一部空間について収集された部分k空間データが逆フーリエ変換されて第1断層画像が作成され、この第1断層画像が学習済みの畳み込みニューラルネットワーク(CNN: convolutional neural network)に入力されて該CNNからCNN出力断層画像が出力される。このCNN出力断層画像がフーリエ変換されて第1k空間データが作成される。上記一部空間についての部分k空間データと、第1k空間データのうち上記一部空間以外の空間についてのk空間データとに基づいて、第2k空間データが作成される。そして、この第2k空間データが逆フーリエ変換されて第2断層画像が作成される。 In the method described in Non-Patent Document 3, a first tomographic image is created by inverse Fourier transforming the partial k-space data collected for a part of the k-space, and the first tomographic image has been learned. It is input to a convolutional neural network (CNN), and a CNN output tomographic image is output from the CNN. This CNN output tomographic image is Fourier transformed to create the first k spatial data. The second k-space data is created based on the partial k-space data for the partial space and the k-space data for the space other than the partial space among the first k-space data. Then, the second k spatial data is inverse Fourier transformed to create a second tomographic image.

この方法では、k空間の全体ではなく一部空間についてのみk空間データを収集すればよいので、k空間データ収集に要する時間の短縮が可能である。また、最終的に得られる第2断層画像は、第1断層画像およびCNN出力断層画像と比べて、良好な画質を有するとされている。 In this method, since the k-space data needs to be collected only for a part of the k-space, not for the entire k-space, the time required for collecting the k-space data can be shortened. Further, the second tomographic image finally obtained is said to have better image quality than the first tomographic image and the CNN output tomographic image.

玉田大輝、"圧縮センシングのMRIへの実装"、日本磁気共鳴医学会雑誌 38.3 (2018): 76-86.Daiki Tamada, "Implementation of Compressed Sensing in MRI", Journal of Japanese Society of Magnetic Resonance Medicine 38.3 (2018): 76-86. 町田好男、森一生、"MRI高速撮像の進展〜画像化の原理から圧縮センシングまで〜"、医用画像情報学会雑誌30.1 (2013): 7-11.Yoshio Machida, Issei Mori, "Progress of MRI High-Speed Imaging-From Imaging Principles to Compressed Sensing-", Journal of the Medical Imaging Information Society 30.1 (2013): 7-11. Hyun, Chang Min, et al."Deep learning for undersampled MRI reconstruction," Physics inMedicine & Biology 63.13 (2018): 135007.Hyun, Chang Min, et al. "Deep learning for undersampled MRI reconstruction," Physics inMedicine & Biology 63.13 (2018): 135007. Biomedical Image Analysis Group, ImperialCollege London,“IXI Dataset”,[online],[令和元年8月20日検索],インターネット<URL:http://brain-development.org/ixi-dataset/>Biomedical Image Analysis Group, ImperialCollege London, “IXI Dataset”, [online], [Search on August 20, 1st year of Reiwa], Internet <URL: http://brain-development.org/ixi-dataset/> Ronneberger O, Fischer P and BroxT 2015 U-net: convolutional networks for biomedical image segmentation(arXiv:1505.04597).Ronneberger O, Fischer P and BroxT 2015 U-net: convolutional networks for biomedical image segmentation (arXiv: 1505.04597).

しかし、非特許文献3に記載された方法により最終的に得られる断層画像には、周期的なアーチファクトが見られる。MRI装置に圧縮センシングを適用してk空間のうちの一部空間について収集された部分k空間データに基づいて断層画像を作成する方法は、更なる画質改善が望まれる。 However, periodic artifacts can be seen in the tomographic image finally obtained by the method described in Non-Patent Document 3. Further improvement in image quality is desired in the method of applying compressed sensing to an MRI apparatus to create a tomographic image based on partial k-space data collected for a part of k-space.

本発明は、上記問題点を解消する為になされたものであり、MRI装置に圧縮センシングを適用してk空間のうちの一部空間について収集された部分k空間データに基づいて更に良好な画質を有する断層画像を作成することができる画像処理装置および画像処理方法を提供することを目的とする。また、本発明は、このような画像処理装置を備えるMRI装置を提供することを目的とする。 The present invention has been made to solve the above problems, and the image quality is further improved based on the partial k-space data collected for a part of the k-space by applying compressed sensing to the MRI apparatus. It is an object of the present invention to provide an image processing apparatus and an image processing method capable of producing a tomographic image having the above. Another object of the present invention is to provide an MRI apparatus including such an image processing apparatus.

本発明の画像処理装置は、(1) MRI装置においてk空間のうちの一部空間について収集された部分k空間データに基づいて第1断層画像を作成する第1断層画像作成部と、(2) 畳み込みニューラルネットワークに断層画像を入力させて畳み込みニューラルネットワークからCNN出力断層画像を出力させるCNN処理部と、(3) CNN出力断層画像に基づいて第1k空間データを作成する第1k空間データ作成部と、(4)前記一部空間についての部分k空間データと、第1k空間データのうち前記一部空間以外の空間についてのk空間データとに基づいて、第2k空間データを作成する第2k空間データ作成部と、(5) 第2k空間データに基づいて第2断層画像を作成する第2断層画像作成部と、を備える。そして、CNN処理部は、畳み込みニューラルネットワークによる処理を2回以上行い、そのうち第1回の処理では、第1断層画像を畳み込みニューラルネットワークに入力させ、第2回以降の処理では、前回の処理によるCNN出力断層画像に基づいて作成された第2断層画像を畳み込みニューラルネットワークに入力させる。 The image processing apparatus of the present invention includes (1) a first tomographic image creating unit that creates a first tomographic image based on partial k-space data collected for a part of the k-space in the MRI apparatus, and (2). ) CNN processing unit that inputs a tomographic image to the convolutional neural network and outputs a CNN output tomographic image from the convolutional neural network, and (3) 1k spatial data creation unit that creates 1k spatial data based on the CNN output tomographic image. And (4) the second k space for creating the second k space data based on the partial k space data for the partial space and the k space data for the space other than the partial space among the first k space data. It includes a data creation unit and (5) a second tomographic image creation unit that creates a second tomographic image based on the second k spatial data. Then, the CNN processing unit performs the processing by the convolutional neural network twice or more, in the first processing, the first tomographic image is input to the convolutional neural network, and in the second and subsequent processing, the previous processing is performed. The second tomographic image created based on the CNN output tomographic image is input to the convolutional neural network.

CNN処理部は、畳み込みニューラルネットワークを学習させる際に、(a) k空間内の前記一部空間について収集された部分k空間データに基づいて作成された被検体の第1断層画像または第2断層画像を畳み込みニューラルネットワークへの入力画像として用い、(b) k空間内の前記一部空間より広い空間について収集されたk空間データに基づいて作成された被検体の断層画像を教師画像として用いるのが好適である。また、CNN処理部は、畳み込みニューラルネットワークを学習させる際に、k空間の全体について収集されたk空間データに基づいて作成された被検体の断層画像を教師画像として用いるのが更に好適である。 When the CNN processing unit trains the convolutional neural network, (a) the first tomographic image or the second tomographic image of the subject created based on the partial k-space data collected for the partial space in the k-space. The image is used as an input image to the convolutional neural network, and (b) a tomographic image of the subject created based on the k-space data collected for a space wider than the partial space in the k-space is used as a teacher image. Is preferable. Further, it is more preferable that the CNN processing unit uses a tomographic image of the subject created based on the k-space data collected for the entire k-space as a teacher image when training the convolutional neural network.

CNN処理部は、畳み込みニューラルネットワークを学習させる際に、教師画像とCNN出力断層画像との差を含む関数を損失関数として用いるのが好適である。また、CNN処理部は、畳み込みニューラルネットワークを学習させる際に、教師画像とCNN出力断層画像との差、および、教師画像をフーリエ変換して得られるk空間データとCNN出力断層画像をフーリエ変換して得られるk空間データとの差を含む関数を、損失関数として用いるのが更に好適である。 When training the convolutional neural network, the CNN processing unit preferably uses a function including the difference between the teacher image and the CNN output tomographic image as a loss function. Further, when the convolutional neural network is trained, the CNN processing unit Fourier transforms the difference between the teacher image and the CNN output tomographic image, and the k-space data obtained by Fourier transforming the teacher image and the CNN output tomographic image. It is more preferable to use a function including the difference from the obtained k-space data as a loss function.

或いは、本発明の画像処理装置は、(1) MRI装置においてk空間のうちの一部空間について収集された部分k空間データに基づいて第1断層画像を作成する第1断層画像作成部と、(2) 畳み込みニューラルネットワークに第1断層画像を入力させて畳み込みニューラルネットワークからCNN出力断層画像を出力させるCNN処理部と、(3) CNN出力断層画像に基づいて第1k空間データを作成する第1k空間データ作成部と、(4)前記一部空間についての部分k空間データと、第1k空間データのうち前記一部空間以外の空間についてのk空間データとに基づいて、第2k空間データを作成する第2k空間データ作成部と、(5) 第2k空間データに基づいて第2断層画像を作成する第2断層画像作成部と、を備える。そして、CNN処理部は、畳み込みニューラルネットワークを学習させる際に、(a) k空間内の前記一部空間について収集された部分k空間データに基づいて作成された被検体の第1断層画像または第2断層画像を畳み込みニューラルネットワークへの入力画像として用い、(b) k空間内の前記一部空間より広い空間について収集されたk空間データに基づいて作成された被検体の断層画像を教師画像として用い、(c) 教師画像とCNN出力断層画像との差、および、教師画像をフーリエ変換して得られるk空間データとCNN出力断層画像をフーリエ変換して得られるk空間データとの差を含む関数を、損失関数として用いる。 Alternatively, the image processing apparatus of the present invention includes (1) a first tomographic image creating unit that creates a first tomographic image based on partial k-space data collected for a part of the k-space in the MRI apparatus. (2) CNN processing unit that inputs the first tomographic image to the convolutional neural network and outputs the CNN output tomographic image from the convolutional neural network, and (3) the first k that creates the first k spatial data based on the CNN output tomographic image. The second k space data is created based on the spatial data creation unit, (4) the partial k space data for the partial space, and the k space data for the space other than the partial space among the first k space data. It is provided with a second k spatial data creation unit for creating a second tomographic image, and (5) a second tomographic image creation unit for creating a second tomographic image based on the second k spatial data. Then, when the CNN processing unit trains the convolutional neural network, (a) the first tomographic image or the first tomographic image of the subject created based on the partial k-space data collected for the partial space in the k-space. 2 The tomographic image is used as an input image to the convolutional neural network, and (b) the tomographic image of the subject created based on the k-space data collected for a space wider than the partial space in the k-space is used as the teacher image. Including (c) the difference between the teacher image and the CNN output tomographic image, and the difference between the k-spatial data obtained by Fourier transforming the teacher image and the k-spatial data obtained by Fourier transforming the CNN output tomographic image. Use the function as a loss function.

本発明のMRI装置は、k空間データを収集するk空間データ収集部と、k空間データ収集部により収集されたk空間データに基づいて断層画像を作成する上記の本発明の画像処理装置と、を備える。 The MRI apparatus of the present invention includes a k-space data collecting unit that collects k-space data, and the above-mentioned image processing apparatus of the present invention that creates a tomographic image based on the k-space data collected by the k-space data collecting unit. To be equipped.

本発明の画像処理方法は、(1) MRI装置においてk空間のうちの一部空間について収集された部分k空間データに基づいて第1断層画像を作成する第1断層画像作成ステップと、(2) 畳み込みニューラルネットワークに断層画像を入力させて畳み込みニューラルネットワークからCNN出力断層画像を出力させるCNN処理ステップと、(3) CNN出力断層画像に基づいて第1k空間データを作成する第1k空間データ作成ステップと、(4) 前記一部空間についての部分k空間データと、第1k空間データのうち前記一部空間以外の空間についてのk空間データとに基づいて、第2k空間データを作成する第2k空間データ作成ステップと、(5) 第2k空間データに基づいて第2断層画像を作成する第2断層画像作成ステップと、を備える。そして、CNN処理ステップの処理を2回以上行い、そのうち第1回の処理では、第1断層画像を畳み込みニューラルネットワークに入力させ、第2回以降の処理では、前回の処理によるCNN出力断層画像に基づいて作成された第2断層画像を畳み込みニューラルネットワークに入力させる。 The image processing method of the present invention includes (1) a first tomographic image creation step of creating a first tomographic image based on partial k-space data collected for a part of k-space in an MRI apparatus, and (2). ) CNN processing step to input tomographic image to convolutional neural network and output CNN output tomographic image from convolutional neural network, and (3) 1k spatial data creation step to create 1k spatial data based on CNN output tomographic image And (4) the second k space for creating the second k space data based on the partial k space data for the partial space and the k space data for the space other than the partial space among the first k space data. It includes a data creation step and (5) a second tomographic image creation step of creating a second tomographic image based on the second k spatial data. Then, the processing of the CNN processing step is performed twice or more, and in the first processing, the first tomographic image is input to the convolutional neural network, and in the second and subsequent processing, the CNN output tomographic image obtained by the previous processing is used. The second tomographic image created based on this is input to the convolutional neural network.

CNN処理ステップでは、畳み込みニューラルネットワークを学習させる際に、(a) k空間内の前記一部空間について収集された部分k空間データに基づいて作成された被検体の第1断層画像または第2断層画像を畳み込みニューラルネットワークへの入力画像として用い、(b) k空間内の前記一部空間より広い空間について収集されたk空間データに基づいて作成された被検体の断層画像を教師画像として用いるのが好適である。また、CNN処理ステップでは、畳み込みニューラルネットワークを学習させる際に、k空間の全体について収集されたk空間データに基づいて作成された被検体の断層画像を教師画像として用いるのが更に好適である。 In the CNN processing step, when training the convolutional neural network, (a) a first tomographic image or a second tomographic image of the subject created based on the partial k-space data collected for the partial k-space. The image is used as an input image to the convolutional neural network, and (b) a tomographic image of the subject created based on the k-space data collected for a space wider than the partial space in the k-space is used as a teacher image. Is preferable. Further, in the CNN processing step, it is more preferable to use a tomographic image of the subject created based on the k-space data collected for the entire k-space as a teacher image when training the convolutional neural network.

CNN処理ステップでは、畳み込みニューラルネットワークを学習させる際に、教師画像とCNN出力断層画像との差を含む関数を損失関数として用いるのが好適である。また、CNN処理ステップでは、畳み込みニューラルネットワークを学習させる際に、教師画像とCNN出力断層画像との差、および、教師画像をフーリエ変換して得られるk空間データとCNN出力断層画像をフーリエ変換して得られるk空間データとの差を含む関数を、損失関数として用いるのが更に好適である。 In the CNN processing step, it is preferable to use a function including the difference between the teacher image and the CNN output tomographic image as a loss function when training the convolutional neural network. Further, in the CNN processing step, when the convolutional neural network is trained, the difference between the teacher image and the CNN output tomographic image, and the k-space data obtained by Fourier transforming the teacher image and the CNN output tomographic image are Fourier transformed. It is more preferable to use a function including the difference from the obtained k-space data as a loss function.

或いは、本発明の画像処理方法は、(1) MRI装置においてk空間のうちの一部空間について収集された部分k空間データに基づいて第1断層画像を作成する第1断層画像作成ステップと、(2) 畳み込みニューラルネットワークに第1断層画像を入力させて畳み込みニューラルネットワークからCNN出力断層画像を出力させるCNN処理ステップと、(3) CNN出力断層画像に基づいて第1k空間データを作成する第1k空間データ作成ステップと、(4) 前記一部空間についての部分k空間データと、第1k空間データのうち前記一部空間以外の空間についてのk空間データとに基づいて、第2k空間データを作成する第2k空間データ作成ステップと、(5) 第2k空間データに基づいて第2断層画像を作成する第2断層画像作成ステップと、を備える。そして、CNN処理ステップでは、畳み込みニューラルネットワークを学習させる際に、(a) k空間内の前記一部空間について収集された部分k空間データに基づいて作成された被検体の第1断層画像または第2断層画像を畳み込みニューラルネットワークへの入力画像として用い、(b) k空間内の前記一部空間より広い空間について収集されたk空間データに基づいて作成された被検体の断層画像を教師画像として用い、(c) 教師画像とCNN出力断層画像との差、および、教師画像をフーリエ変換して得られるk空間データとCNN出力断層画像をフーリエ変換して得られるk空間データとの差を含む関数を、損失関数として用いる。 Alternatively, the image processing method of the present invention includes (1) a first tomographic image creation step of creating a first tomographic image based on partial k-space data collected for a part of the k-space in the MRI apparatus. (2) CNN processing step of inputting the first tomographic image to the convolutional neural network and outputting the CNN output tomographic image from the convolutional neural network, and (3) the first k to create the first k spatial data based on the CNN output tomographic image. The second k space data is created based on the spatial data creation step, (4) the partial k space data for the partial space, and the k space data for the space other than the partial space among the first k space data. It includes a second k space data creation step for creating a second tomographic image, and (5) a second tomographic image creation step for creating a second tomographic image based on the second k spatial data. Then, in the CNN processing step, when the convolutional neural network is trained, (a) the first tomographic image or the first tomographic image of the subject created based on the partial k-space data collected for the partial space in the k-space. 2 The tomographic image is used as an input image to the convolutional neural network, and (b) the tomographic image of the subject created based on the k-space data collected for a space wider than the partial space in the k-space is used as the teacher image. Including (c) the difference between the teacher image and the CNN output tomographic image, and the difference between the k-spatial data obtained by Fourier transforming the teacher image and the k-spatial data obtained by Fourier transforming the CNN output tomographic image. Use the function as a loss function.

本発明によれば、MRI装置に圧縮センシングを適用してk空間のうちの一部空間について収集された部分k空間データに基づいて更に良好な画質を有する断層画像を作成することができる。 According to the present invention, compressed sensing can be applied to an MRI apparatus to create a tomographic image having better image quality based on partial k-space data collected for a part of k-space.

図1は、MRI装置1の構成を示すブロック図である。FIG. 1 is a block diagram showing the configuration of the MRI apparatus 1. 図2は、画像処理方法を説明するフローチャートである。FIG. 2 is a flowchart illustrating an image processing method. 図3は、第2k空間データ作成部14により行われる第2k空間データ作成ステップS14の処理について説明する図である。FIG. 3 is a diagram illustrating the processing of the second k space data creation step S14 performed by the second k space data creation unit 14. 図4は正解画像の例である。FIG. 4 is an example of a correct image. 図5はアンダーサンプリングのパターンを示す図である。FIG. 5 is a diagram showing an undersampling pattern. 図6は、第1断層画像作成ステップS11において部分k空間データyに基づいて作成された第1断層画像xの一例を示す図である。Figure 6 is a diagram showing a first example of a tomographic image x 1 generated based on partial k-space data y 0 in the first tomographic image producing step S11. 図7は、CNN処理ステップS12の処理を1回のみ行って得られたCNN出力断層画像xCNNの一例を示す図である。FIG. 7 is a diagram showing an example of a CNN output tomographic image x CNN obtained by performing the processing of the CNN processing step S12 only once. 図8は、CNN処理ステップS12の処理を1回のみ行って得られた第2断層画像xの一例を示す図である。FIG. 8 is a diagram showing an example of the second tomographic image x 2 obtained by performing the processing of the CNN processing step S12 only once. 図9は、CNN処理ステップS12の処理を10回行って得られた第2断層画像xの一例を示す図である。FIG. 9 is a diagram showing an example of the second tomographic image x 2 obtained by performing the processing of the CNN processing step S12 10 times. 図10は、CNN処理ステップS12の処理を1回のみ行って得られたCNN出力断層画像xCNNの一例を示す図である。FIG. 10 is a diagram showing an example of a CNN output tomographic image x CNN obtained by performing the processing of the CNN processing step S12 only once. 図11は、CNN処理ステップS12の処理を1回のみ行って得られた第2断層画像xの一例を示す図である。FIG. 11 is a diagram showing an example of the second tomographic image x 2 obtained by performing the processing of the CNN processing step S12 only once. 図12は、CNN処理ステップS12の処理を10回行って得られた第2断層画像xの一例を示す図である。FIG. 12 is a diagram showing an example of the second tomographic image x 2 obtained by performing the processing of the CNN processing step S12 10 times. 図13は、正解画像(図4)中の注目領域R1,R2を示す図である。FIG. 13 is a diagram showing regions of interest R1 and R2 in the correct image (FIG. 4). 図14は、CNN出力断層画像xCNN(図7)中の注目領域R1,R2を示す図である。FIG. 14 is a diagram showing regions of interest R1 and R2 in the CNN output tomographic image x CNN (FIG. 7). 図15は、第2断層画像x(図8)中の注目領域R1,R2を示す図である。FIG. 15 is a diagram showing regions of interest R1 and R2 in the second tomographic image x 2 (FIG. 8). 図16は、第2断層画像x(図9)中の注目領域R1,R2を示す図である。FIG. 16 is a diagram showing regions of interest R1 and R2 in the second tomographic image x 2 (FIG. 9). 図17は、CNN出力断層画像xCNN(図10)中の注目領域R1,R2を示す図である。FIG. 17 is a diagram showing regions of interest R1 and R2 in the CNN output tomographic image x CNN (FIG. 10). 図18は、第2断層画像x(図11)中の注目領域R1,R2を示す図である。FIG. 18 is a diagram showing regions of interest R1 and R2 in the second tomographic image x 2 (FIG. 11). 図19は、第2断層画像x(図12)中の注目領域R1,R2を示す図である。FIG. 19 is a diagram showing regions of interest R1 and R2 in the second tomographic image x 2 (FIG. 12). 図20は、CNN学習時に損失関数としてL,Lそれぞれを用いた場合について、第1断層画像xおよび第2断層画像xそれぞれのPSNRを示すグラフである。Figure 20, L A as a loss function when CNN learning, the case of using the respective L B, a graph showing a first tomographic image x 1 and the second tomographic image x 2 each PSNR. 図21は、CNN学習時に損失関数としてL,Lそれぞれを用いた場合について、第1断層画像xおよび第2断層画像xそれぞれのSSIMを示すグラフである。21, L A as a loss function when CNN learning, the case of using the respective L B, a graph showing a first tomographic image x 1 and the second tomographic image x 2, respectively SSIM.

以下、添付図面を参照して、本発明を実施するための形態を詳細に説明する。なお、図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。本発明は、これらの例示に限定されるものではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。 Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the accompanying drawings. In the description of the drawings, the same elements are designated by the same reference numerals, and duplicate description will be omitted. The present invention is not limited to these examples, and is indicated by the scope of claims, and is intended to include all modifications within the meaning and scope equivalent to the scope of claims.

図1は、MRI装置1の構成を示すブロック図である。MRI装置1は、k空間データ収集部10および画像処理装置2を備える。 FIG. 1 is a block diagram showing the configuration of the MRI apparatus 1. The MRI apparatus 1 includes a k-space data collection unit 10 and an image processing apparatus 2.

k空間データ収集部10は、被検体に対し傾斜磁場を与えるとともに、被検体内の水素原子の共鳴現象により発生する電波を受信コイルにより受信してk空間データを収集する。k空間データ収集部10は、k空間の全体についてk空間データを収集(フルサンプリング)することができ、また、k空間のうちの一部空間についてk空間データを収集(アンダーサンプリング)することができる。アンダーサンプリングの際のk空間のうちの一部空間のパターンとしては、格子状(cartesian)、放射状(radial)および螺旋状(spiral)等が知られている(非特許文献1,2参照)。 The k-space data collection unit 10 applies a gradient magnetic field to the subject and receives radio waves generated by the resonance phenomenon of hydrogen atoms in the subject by the receiving coil to collect k-space data. The k-space data collection unit 10 can collect k-space data (full sampling) for the entire k-space, and can collect k-space data (undersampling) for a part of the k-space. it can. As a pattern of a part of the k-space at the time of undersampling, a lattice pattern (cartesian), a radial pattern, a spiral pattern, and the like are known (see Non-Patent Documents 1 and 2).

画像処理装置2は、k空間データ収集部10により収集されたk空間データに基づいて被検体の断層画像を作成する。画像処理装置2は、第1断層画像作成部11、CNN処理部12、第1k空間データ作成部13、第2k空間データ作成部14、第2断層画像作成部15、制御部16、記憶部17および表示部18を備える。 The image processing device 2 creates a tomographic image of the subject based on the k-space data collected by the k-space data collection unit 10. The image processing device 2 includes a first tomographic image creation unit 11, a CNN processing unit 12, a first k spatial data creation unit 13, a second k spatial data creation unit 14, a second tomographic image creation unit 15, a control unit 16, and a storage unit 17. And a display unit 18.

第1断層画像作成部11は、k空間データ収集部10により収集(フルサンプリングまたはアンダーサンプリング)されたk空間データに基づいて被検体の断層画像を作成する。具体的には、第1断層画像作成部11は、k空間データを逆フーリエ変換することで断層画像を作成する。k空間のうちの一部空間について収集された部分k空間データyに基づいて第1断層画像作成部11により作成された断層画像を第1断層画像xとする。 The first tomographic image creating unit 11 creates a tomographic image of the subject based on the k-space data collected (full sampling or undersampling) by the k-space data collecting unit 10. Specifically, the first tomographic image creating unit 11 creates a tomographic image by performing an inverse Fourier transform on the k-space data. a tomographic image generated by the first tomographic image creating part 11 and the first tomographic image x 1 based on the partial k-space data y 0 collected for a part of the area of the k-space.

CNN処理部12は、第1断層画像作成部11により作成された第1断層画像x、または、第2断層画像作成部15により作成された第2断層画像xを、畳み込みニューラルネットワーク(CNN)に入力させる。これにより、CNN処理部12は、CNNからCNN出力断層画像xCNNを出力させる。 The CNN processing unit 12 convolves the first tomographic image x 1 created by the first tomographic image creation unit 11 or the second tomographic image x 2 created by the second tomographic image creation unit 15 into a convolutional neural network (CNN). ). As a result, the CNN processing unit 12 outputs the CNN output tomographic image x CNN from the CNN.

第1k空間データ作成部13は、CNN出力断層画像xCNNに基づいて第1k空間データyを作成する。具体的には、第1k空間データ作成部13は、CNN出力断層画像xCNNをフーリエ変換することで第1k空間データyを作成する。 The first k spatial data creation unit 13 creates the first k spatial data y 1 based on the CNN output tomographic image x CNN . Specifically, the first k spatial data creation unit 13 creates the first k spatial data y 1 by Fourier transforming the CNN output tomographic image x CNN.

第2k空間データ作成部14は、上記一部空間についての部分k空間データyと、第1k空間データyのうち上記一部空間以外の空間についてのk空間データとに基づいて、第2k空間データyを作成する。 The second k space data creation unit 14 is based on the partial k space data y 0 for the partial space and the k space data for the space other than the partial space in the first k space data y 1, and the second k. Spatial data y 2 is created.

第2断層画像作成部15は、第2k空間データyに基づいて第2断層画像xを作成する。具体的には、第2断層画像作成部15は、第2k空間データyを逆フーリエ変換することで第2断層画像xを作成する。 The second tomographic image creation unit 15 creates a second tomographic image x 2 based on the second k spatial data y 2 . Specifically, the second tomographic image creating unit 15 creates the second tomographic image x 2 by performing an inverse Fourier transform on the second k spatial data y 2.

制御部16は、画像処理装置2の全体の動作を制御するものであり、特に、第1断層画像作成部11、CNN処理部12、第1k空間データ作成部13、第2k空間データ作成部14および第2断層画像作成部15それぞれの処理を制御する。記憶部17は、部分k空間データy、第1断層画像x、CNN出力断層画像xCNN、第1k空間データy、第2k空間データyおよび第2断層画像x等を記憶する。表示部18は、部分k空間データy、第1断層画像x、CNN出力断層画像xCNN、第1k空間データy、第2k空間データyおよび第2断層画像x等を画面上に表示する。 The control unit 16 controls the overall operation of the image processing device 2, and in particular, the first tomographic image creation unit 11, the CNN processing unit 12, the first k space data creation unit 13, and the second k space data creation unit 14. And the processing of each of the second tomographic image creating unit 15 is controlled. The storage unit 17 stores partial k spatial data y 0 , first tomographic image x 1 , CNN output tomographic image x CNN , first k spatial data y 1 , second k spatial data y 2, second tomographic image x 2, and the like. .. The display unit 18 displays partial k spatial data y 0 , first tomographic image x 1 , CNN output tomographic image x CNN , first k spatial data y 1 , second k spatial data y 2, and second tomographic image x 2 on the screen. Display on.

画像処理装置2は、CPU(central processing unit)、DSP(digital signal processor)、ROM(read only memory)、GPU(graphics processing unit)、RAM(random access memory)、ハードディスクドライブ、ディスプレイ、キーボードおよびマウス等を有するコンピュータにより構成することができる。第1断層画像作成部11、第1k空間データ作成部13、第2k空間データ作成部14および第2断層画像作成部15は、CPUまたはDSPを含んで構成され得る。CNN処理部12は、CPU、DSPまたはGPUを含んで構成され得る。制御部16はCPUを含んで構成され得る。記憶部17はROM、RAM、ハードディスクドライブを含んで構成され得る。表示部18はディスプレイを含んで構成され得る。 The image processing device 2 includes a CPU (central processing unit), a DSP (digital signal processor), a ROM (read only memory), a GPU (graphics processing unit), a RAM (random access memory), a hard disk drive, a display, a keyboard, a mouse, and the like. It can be configured by a computer having. The first tomographic image creation unit 11, the first k spatial data creation unit 13, the second k spatial data creation unit 14, and the second tomographic image creation unit 15 may be configured to include a CPU or a DSP. The CNN processing unit 12 may be configured to include a CPU, DSP or GPU. The control unit 16 may be configured to include a CPU. The storage unit 17 may include a ROM, a RAM, and a hard disk drive. The display unit 18 may be configured to include a display.

CNN処理部12は、CNNによる処理を2回以上行う。そのうち第1回の処理では、CNN処理部12は、第1断層画像xをCNNに入力させる。第2回以降の処理では、CNN処理部12は、前回の処理によるCNN出力断層画像xCNNに基づいて作成された第2断層画像xをCNNに入力させる。 The CNN processing unit 12 performs the processing by CNN twice or more. Them in Part 1 of the process, CNN processing unit 12 to input the first tomographic image x 1 to CNN. In the second and subsequent processes, the CNN processing unit 12 causes the CNN to input the second tomographic image x 2 created based on the CNN output tomographic image x CNN obtained by the previous process.

図2は、画像処理方法を説明するフローチャートである。この図には、k空間データ収集部10により部分k空間データyを収集するk空間データ収集ステップS10も示されている。画像処理方法は、第1断層画像作成ステップS11、CNN処理ステップS12、第1k空間データ作成ステップS13、第2k空間データ作成ステップS14および第2断層画像作成ステップS15を備える。 FIG. 2 is a flowchart illustrating an image processing method. This figure also shows a k-space data collection step S10 in which the k-space data collection unit 10 collects partial k-space data y 0. The image processing method includes a first tomographic image creation step S11, a CNN processing step S12, a first k spatial data creation step S13, a second k spatial data creation step S14, and a second tomographic image creation step S15.

第1断層画像作成ステップS11は、第1断層画像作成部11により行われる処理である。第1断層画像作成ステップS11では、k空間データ収集ステップS10でk空間のうちの一部空間について収集された部分k空間データyに基づいて第1断層画像xを作成する。 The first tomographic image creation step S11 is a process performed by the first tomographic image creation unit 11. In the first tomographic image creation step S11, the first tomographic image x 1 is created based on the partial k-space data y 0 collected for a part of the k-space in the k-space data collection step S10.

CNN処理ステップS12は、CNN処理部12により行われる処理である。CNN処理ステップS12では、第1断層画像作成ステップS11で作成された第1断層画像x、または、第2断層画像作成ステップS15で作成された第2断層画像xを、CNNに入力させる。これにより、CNN処理ステップS12では、CNNからCNN出力断層画像xCNNを出力させる。 The CNN processing step S12 is a process performed by the CNN processing unit 12. In the CNN processing step S12, the CNN is made to input the first tomographic image x 1 created in the first tomographic image creation step S11 or the second tomographic image x 2 created in the second tomographic image creation step S15. As a result, in the CNN processing step S12, the CNN output tomographic image x CNN is output from the CNN.

第1k空間データ作成ステップS13は、第1k空間データ作成部13により行われる処理である。第1k空間データ作成ステップS13では、CNN出力断層画像xCNNに基づいて第1k空間データyを作成する。 The first k space data creation step S13 is a process performed by the first k space data creation unit 13. In the first k spatial data creation step S13, the first k spatial data y 1 is created based on the CNN output tomographic image x CNN.

第2k空間データ作成ステップS14は、第2k空間データ作成部14により行われる処理である。第2k空間データ作成ステップS14では、上記一部空間についての部分k空間データyと、第1k空間データyのうち上記一部空間以外の空間についてのk空間データとに基づいて、第2k空間データyを作成する。 The second k space data creation step S14 is a process performed by the second k space data creation unit 14. In the second k space data creation step S14, the second k is based on the partial k space data y 0 for the partial space and the k space data for the space other than the partial space in the first k space data y 1. Spatial data y 2 is created.

第2断層画像作成ステップS15は、第2断層画像作成部15により行われる処理である。第2断層画像作成ステップS15では、第2k空間データyに基づいて第2断層画像xを作成する。 The second tomographic image creation step S15 is a process performed by the second tomographic image creation unit 15. In the second tomographic image creation step S15, the second tomographic image x 2 is created based on the second k spatial data y 2.

CNN処理ステップS12の処理を2回以上行う。そのうち第1回の処理では、CNN処理ステップS12は、第1断層画像xをCNNに入力させる。第2回以降の処理では、CNN処理ステップS12は、前回の処理によるCNN出力断層画像xCNNに基づいて作成された第2断層画像xをCNNに入力させる。 The process of CNN process step S12 is performed twice or more. Them in Part 1 of the process, CNN processing step S12, to input the first tomographic image x 1 to CNN. In the second and subsequent processes, the CNN process step S12 causes the CNN to input the second tomographic image x 2 created based on the CNN output tomographic image x CNN obtained by the previous process.

図3は、第2k空間データ作成部14により行われる第2k空間データ作成ステップS14の処理について説明する図である。この図には、部分k空間データy、第1k空間データyおよび第2k空間データyが模式的に示されている。図3(a)に示される部分k空間データyは、k空間のうちの一部空間(図3(a)においてハッチング領域)について収集(アンダーサンプリング)されたものであり、その一部空間以外の空間(図3(a)において白色領域)のデータは値0である。 FIG. 3 is a diagram illustrating the processing of the second k space data creation step S14 performed by the second k space data creation unit 14. In this figure, the partial k-space data y 0 , the first k-space data y 1 and the second k-space data y 2 are schematically shown. Partial k-space data y 0 shown in FIG. 3 (a), has been collected (undersampling) for some of the k-space-space (the hatched region in FIG. 3 (a)), that part of the area The data in the space other than the space (white region in FIG. 3A) has a value of 0.

図3(c)に示される第1k空間データyは、CNN出力断層画像xCNNをフーリエ変換することで作成されたものであり、k空間の全体において0でない値をとり得る。図3(b)に示される第2k空間データyは、第2k空間データ作成ステップS14により作成されるものであり、上記一部空間については部分k空間データyと同じ値を有し、上記一部空間以外の空間については第1k空間データyと同じ値を有する。 The 1k spatial data y 1 shown in FIG. 3 (c), has been prepared by Fourier transforming CNN output tomographic image x CNN, it may take a value other than 0 in the entire k-space. The second k-space data y 2 shown in FIG. 3 (b) is created by the second k-space data creation step S14, and has the same value as the partial k-space data y 0 for the partial space. Spaces other than the above partial space have the same values as the first k-space data y1.

なお、本実施形態の画像処理装置および画像処理方法は、非特許文献3に記載された方法と比較すると、次の点で相違している。非特許文献3に記載された方法は、第1断層画像作成ステップS11、CNN処理ステップS12、第1k空間データ作成ステップS13、第2k空間データ作成ステップS14および第2断層画像作成ステップS15それぞれを1回のみ行うものであって、CNN処理ステップS12を繰り返し行うものではない。これに対して、これまで説明してきた本実施形態では、CNN処理部12によるCNN処理ステップS12を2回以上行う。これにより、本実施形態では、k空間のうちの一部空間について収集された部分k空間データyに基づいて良好な画質を有する断層画像を作成することができる。 The image processing apparatus and the image processing method of the present embodiment are different from the methods described in Non-Patent Document 3 in the following points. The method described in Non-Patent Document 3 includes 1 for each of the first tomographic image creation step S11, the CNN processing step S12, the first k spatial data creation step S13, the second k spatial data creation step S14, and the second tomographic image creation step S15. It is performed only once, and the CNN processing step S12 is not repeated. On the other hand, in the present embodiment described so far, the CNN processing step S12 by the CNN processing unit 12 is performed twice or more. Thus, in this embodiment, it is possible to create a tomographic image having a good image quality based on the partial k-space data y 0 collected for a part of the area of the k-space.

次に、CNNの学習について説明する。CNNを学習させる際に、CNN処理部12は、k空間内の一部空間について収集(アンダーサンプリング)された部分k空間データyに基づいて作成された被検体の第1断層画像xまたは第2断層画像xを、CNNへの入力画像として用いる。また、CNN処理部12は、上記一部空間より広い空間について収集されたk空間データに基づいて作成された被検体の断層画像を、教師画像xtrueとして用いる。好適には、CNN処理部12は、k空間の全体について収集(フルサンプリング)されたk空間データに基づいて作成された被検体の断層画像を、教師画像xtrueとして用いる。 Next, learning of CNN will be described. When training the CNN, the CNN processing unit 12 may use the first tomographic image x 1 or the first tomographic image x 1 of the subject created based on the partial k-space data y 0 collected (undersampled) for a partial space in the k-space. The second tomographic image x 2 is used as an input image to the CNN. Further, the CNN processing unit 12 uses a tomographic image of the subject created based on the k-space data collected for a space wider than the partial space as the teacher image x true . Preferably, the CNN processing unit 12 uses a tomographic image of the subject created based on the k-space data collected (full sampling) for the entire k-space as the teacher image x true .

CNNの学習の際に用いる損失関数は、教師画像xtrueとCNN出力断層画像xCNNとの差を含む関数(下記(1)式)であってもよい。この式Lは、教師画像xtrueとCNN出力断層画像xCNNとのL2ノルムを表す。損失関数が小さくなるようにCNNの学習を行う。 The loss function used in learning the CNN may be a function including the difference between the teacher image x true and the CNN output tomographic image x CNN (Equation (1) below). The equation L A represents the L2 norm of the teacher image x true and CNN output tomographic image x CNN. CNN training is performed so that the loss function becomes small.

Figure 2021041065
Figure 2021041065

また、損失関数は、教師画像xtrueとCNN出力断層画像xCNNとの差、および、教師画像xtrueをフーリエ変換して得られるk空間データF(xtrue)とCNN出力断層画像xCNNをフーリエ変換して得られるk空間データF(xCNN)との差を含む関数(下記(2)式)であってもよい。この式Lは、教師画像xtrueとCNN出力断層画像xCNNとのL2ノルムと、k空間データF(xtrue)とk空間データF(xCNN)とのL2ノルムに重み係数λを乗じたものと、の和を表す。重み係数λの値は0超1以下の範囲で選ばれるのが好適である。 The loss function is the difference between the teacher image x true and the CNN output tomographic image x CNN, and the k spatial data F (x true ) obtained by Fourier transforming the teacher image x true and the CNN output tomographic image x CNN . It may be a function (Equation (2) below) including a difference from the k-space data F (x CNN) obtained by Fourier transform. The equation L B multiplies the L2 norm of the teacher image x true and CNN output tomographic image x CNN, the L2 norm of the k-space data F (x true) and k-space data F (x CNN) a weighting factor λ Represents the sum of data and. The value of the weighting coefficient λ is preferably selected in the range of more than 0 and not more than 1.

Figure 2021041065
Figure 2021041065

損失関数L((1)式)を用いてCNNを学習させれば、CNN処理部12によるCNN処理ステップS12の繰り返し回数を2回以上とすることで画質改善の効果が得られる。CNN処理部12によるCNN処理ステップS12の繰り返し回数は最大10回程度で十分である。画質改善された最終的な断層画像は、CNN処理部12によるCNN処理ステップS12を2回以上行った後のCNN出力断層画像xCNNおよび第2断層画像xの何れであってもよい。 If caused to learn CNN with loss function L A ((1) type), the effect of image quality improvement is obtained by the number of repetitions of the CNN processing step S12 by the CNN processing unit 12 twice or more. The maximum number of repetitions of the CNN processing step S12 by the CNN processing unit 12 is about 10 times. The final tomographic image with improved image quality may be either the CNN output tomographic image x CNN or the second tomographic image x 2 after the CNN processing step S12 by the CNN processing unit 12 is performed twice or more.

損失関数L((2)式)を用いてCNNを学習させれば、CNN処理部12によるCNN処理ステップS12を2回以上行う場合だけでなく、CNN処理部12によるCNN処理ステップS12を1回のみ行う場合であっても、k空間のうちの一部空間について収集された部分k空間データyに基づいて良好な画質を有する第2断層画像xを作成することができる。 If caused to learn CNN with loss function L B ((2) type), not only when the CNN processing step S12 by the CNN processing unit 12 performs two or more times, the CNN processing step S12 by the CNN processing unit 12 1 It is possible to create a second tomographic image x 2 having good image quality based on the partial k-space data y 0 collected for a part of the k-space even when it is performed only once.

次に、シミュレーション結果について説明する。非特許文献4に蓄積されているMRIによる脳の断層画像のうちT2強調画像を用いた。57名分の7427個の断層画像を用いてCNNを学習させた。57名分の7460個の断層画像を用いて、アンダーサブサンプリングによる部分k空間データyを作成した。アンダーサンプリングのパターンは、格子状(cartesian)であり、フルサンプリングの際のk空間の全体に対して20%の空間とした。CNNとして、非特許文献5に記載されているU-netを用いた。CNN学習時に損失関数としてL(上記(1)式)およびL(上記(2)式)を用いた。損失関数としてLを用いた場合、重み係数λを0.1とした。 Next, the simulation results will be described. Among the tomographic images of the brain by MRI accumulated in Non-Patent Document 4, T2-weighted images were used. CNN was trained using 7427 tomographic images for 57 people. Using 7460 pieces of tomographic images of 57 persons, we have created a partial k-space data y 0 by the under subsampling. The pattern of undersampling was a grid pattern (cartesian), and the space was set to 20% of the total k-space at the time of full sampling. As CNN, U-net described in Non-Patent Document 5 was used. CNN was used during learning in the loss function L A (equation (1)) and L B (above (2)). When using the L B as a loss function, and the weighting factor λ is 0.1.

図4は正解画像の例である。図中の矩形領域R1,R2は注目領域である。図5はアンダーサンプリングのパターンを示す図である。図中で、白色領域はk空間のうちアンダーサンプリングした一部空間であり、その一部空間以外の黒色領域の空間のデータは値0である。正解画像(図4)をフーリエ変換して得られるk空間データのうち、アンダーサンプリングのパターン(図5)の白色領域に相当する領域のデータのみを取り出すことで、部分k空間データyを作成した。 FIG. 4 is an example of a correct image. The rectangular areas R1 and R2 in the figure are areas of interest. FIG. 5 is a diagram showing an undersampling pattern. In the figure, the white region is an undersampled partial space of the k space, and the data of the space of the black region other than the partial space has a value of 0. Partial k-space data y 0 is created by extracting only the data in the area corresponding to the white area of the undersampling pattern (Fig. 5) from the k-space data obtained by Fourier transforming the correct image (Fig. 4). did.

図6は、第1断層画像作成ステップS11において部分k空間データyに基づいて作成された第1断層画像xの一例を示す図である。図6(a)は第1断層画像xを示し、図6(b)は第1断層画像xと正解画像(図4)との差分を示す。 Figure 6 is a diagram showing a first example of a tomographic image x 1 generated based on partial k-space data y 0 in the first tomographic image producing step S11. FIG. 6 (a) shows the first tomographic image x 1 , and FIG. 6 (b) shows the difference between the first tomographic image x 1 and the correct image (FIG. 4).

図7〜図9は、CNN学習時に損失関数としてLを用いたときに作成された断層画像の一例を示す図である。図7は、CNN処理ステップS12の処理を1回のみ行って得られたCNN出力断層画像xCNNの一例を示す図である。図7(a)はCNN出力断層画像xCNNを示し、図7(b)はCNN出力断層画像xCNNと正解画像(図4)との差分を示す。図8は、CNN処理ステップS12の処理を1回のみ行って得られた第2断層画像xの一例を示す図である。図8(a)は第2断層画像xを示し、図8(b)は第2断層画像xと正解画像(図4)との差分を示す。図9は、CNN処理ステップS12の処理を10回行って得られた第2断層画像xの一例を示す図である。図9(a)は第2断層画像xを示し、図9(b)は第2断層画像xと正解画像(図4)との差分を示す。 7 to 9 are diagrams showing an example of a tomographic image created when LA is used as a loss function during CNN learning. FIG. 7 is a diagram showing an example of a CNN output tomographic image x CNN obtained by performing the processing of the CNN processing step S12 only once. 7 (a) shows the CNN output tomographic image x CNN, FIG. 7 (b) shows the difference between the CNN output tomographic image x CNN and correct image (FIG. 4). FIG. 8 is a diagram showing an example of the second tomographic image x 2 obtained by performing the processing of the CNN processing step S12 only once. FIG. 8 (a) shows the second tomographic image x 2 , and FIG. 8 (b) shows the difference between the second tomographic image x 2 and the correct image (FIG. 4). FIG. 9 is a diagram showing an example of the second tomographic image x 2 obtained by performing the processing of the CNN processing step S12 10 times. 9 (a) shows the second tomographic image x 2 , and FIG. 9 (b) shows the difference between the second tomographic image x 2 and the correct image (FIG. 4).

図10〜図12は、CNN学習時に損失関数としてLを用いたときに作成された断層画像の一例を示す図である。図10は、CNN処理ステップS12の処理を1回のみ行って得られたCNN出力断層画像xCNNの一例を示す図である。図10(a)はCNN出力断層画像xCNNを示し、図10(b)はCNN出力断層画像xCNNと正解画像(図4)との差分を示す。図11は、CNN処理ステップS12の処理を1回のみ行って得られた第2断層画像xの一例を示す図である。図11(a)は第2断層画像xを示し、図11(b)は第2断層画像xと正解画像(図4)との差分を示す。図12は、CNN処理ステップS12の処理を10回行って得られた第2断層画像xの一例を示す図である。図12(a)は第2断層画像xを示し、図12(b)は第2断層画像xと正解画像(図4)との差分を示す。 10 to 12 are diagrams showing an example of a tomographic image created when LB is used as a loss function during CNN learning. FIG. 10 is a diagram showing an example of a CNN output tomographic image x CNN obtained by performing the processing of the CNN processing step S12 only once. 10 (a) shows the CNN output tomographic image x CNN, FIG. 10 (b) shows the difference between the CNN output tomographic image x CNN and correct image (FIG. 4). FIG. 11 is a diagram showing an example of the second tomographic image x 2 obtained by performing the processing of the CNN processing step S12 only once. FIG. 11 (a) shows the second tomographic image x 2 , and FIG. 11 (b) shows the difference between the second tomographic image x 2 and the correct image (FIG. 4). FIG. 12 is a diagram showing an example of the second tomographic image x 2 obtained by performing the processing of the CNN processing step S12 10 times. FIG. 12 (a) shows the second tomographic image x 2 , and FIG. 12 (b) shows the difference between the second tomographic image x 2 and the correct image (FIG. 4).

図13〜図19は、各断層画像中の注目領域R1,R2を拡大して示す図である。各図(a)は注目領域R1を示し、各図(b)は注目領域R2を示す。図13は、正解画像(図4)中の注目領域R1,R2を示す図である。 13 to 19 are enlarged views showing the regions of interest R1 and R2 in each tomographic image. Each figure (a) shows the area of interest R1 and each figure (b) shows the area of interest R2. FIG. 13 is a diagram showing regions of interest R1 and R2 in the correct image (FIG. 4).

図14は、CNN処理ステップS12の処理を1回のみ行って得られたCNN出力断層画像xCNN(図7)中の注目領域R1,R2を示す図である。図15は、CNN処理ステップS12の処理を1回のみ行って得られた第2断層画像x(図8)中の注目領域R1,R2を示す図である。図16は、CNN処理ステップS12の処理を10回行って得られた第2断層画像x(図9)中の注目領域R1,R2を示す図である。これら図14〜図16は、CNN学習時に損失関数としてLを用いた場合のものである。 FIG. 14 is a diagram showing regions of interest R1 and R2 in the CNN output tomographic image x CNN (FIG. 7) obtained by performing the processing of the CNN processing step S12 only once. FIG. 15 is a diagram showing regions of interest R1 and R2 in the second tomographic image x 2 (FIG. 8) obtained by performing the processing of the CNN processing step S12 only once. FIG. 16 is a diagram showing regions of interest R1 and R2 in the second tomographic image x 2 (FIG. 9) obtained by performing the processing of the CNN processing step S12 10 times. 14 to 16 show the case where LA is used as a loss function during CNN learning.

図17は、CNN処理ステップS12の処理を1回のみ行って得られたCNN出力断層画像xCNN(図10)中の注目領域R1,R2を示す図である。図18は、CNN処理ステップS12の処理を1回のみ行って得られた第2断層画像x(図11)中の注目領域R1,R2を示す図である。図19は、CNN処理ステップS12の処理を10回行って得られた第2断層画像x(図12)中の注目領域R1,R2を示す図である。これら図17〜図19は、CNN学習時に損失関数としてLを用いた場合のものである。 FIG. 17 is a diagram showing regions of interest R1 and R2 in the CNN output tomographic image x CNN (FIG. 10) obtained by performing the processing of the CNN processing step S12 only once. FIG. 18 is a diagram showing regions of interest R1 and R2 in the second tomographic image x 2 (FIG. 11) obtained by performing the processing of the CNN processing step S12 only once. FIG. 19 is a diagram showing regions of interest R1 and R2 in the second tomographic image x 2 (FIG. 12) obtained by performing the processing of the CNN processing step S12 10 times. These views 17 through 19 are those in the case of using L B as a loss function when CNN learning.

正解画像(図4,図13(a))の注目領域R1において、実線矢印が指し示す白色に近い領域にラクナ梗塞が認められる。ラクナ梗塞とは、脳血栓の中でも脳の深い部分を流れている細い血管が詰まってしまうことで起きる脳梗塞である。CNN学習時に損失関数としてL,Lの何れを用いた場合においても、CNN処理ステップS12の処理を1回のみ行って得られたCNN出力断層画像xCNNと比べて、CNN処理ステップS12の処理を1回のみ行って得られた第2断層画像xではラクナ梗塞が鮮明に認められ、CNN処理ステップS12の処理を10回行って得られた第2断層画像xではラクナ梗塞が更に鮮明に認められる。 In the region of interest R1 of the correct image (FIGS. 4 and 13 (a)), lacunar infarction is observed in the region close to white indicated by the solid arrow. Lacunar infarction is a cerebral infarction caused by clogging of small blood vessels flowing deep in the brain among cerebral thrombosis. L A as a loss function when CNN learning, in the case of using any of L B may, in comparison with CNN output tomographic image x CNN obtained by performing the processing of the CNN processing step S12 only once, the CNN processing step S12 second the tomographic image x 2 lacunar infarction were observed clearly obtained processing performed only once, the second tomographic images x 2 in lacunar infarction further obtained by performing 10 times the processing of the CNN processing step S12 It is clearly recognized.

CNN学習時に損失関数としてL,Lの何れを用いた場合においても、注目領域R1中の破線矢印が指し示す領域に、CNN処理ステップS12の処理を1回のみ行って得られたCNN出力断層画像xCNNと比べて、CNN処理ステップS12の処理を1回のみ行って得られた第2断層画像xではアーチファクトが低減されており、CNN処理ステップS12の処理を10回行って得られた第2断層画像xではアーチファクトが更に低減されている。 L as a loss function when CNN learning A, even when using any of L B, in a region where the broken line arrows in the region of interest R1 is indicated, CNN output tomographic obtained by performing the processing of the CNN processing step S12 only once Compared with the image x CNN , the second tomographic image x 2 obtained by performing the processing of the CNN processing step S12 only once has reduced artifacts, and was obtained by performing the processing of the CNN processing step S12 10 times. In the second tomographic image x 2 , the artifacts are further reduced.

正解画像(図4,図13(b))の注目領域R2において、実線矢印が指し示す領域に着目すると、CNN学習時に損失関数としてL,Lの何れを用いた場合においても、CNN処理ステップS12の処理を1回のみ行って得られたCNN出力断層画像xCNNと比べて、CNN処理ステップS12の処理を1回のみ行って得られた第2断層画像xでは脳構造が鮮明に復元されており、CNN処理ステップS12の処理を10回行って得られた第2断層画像xでは脳構造が更に鮮明に復元されている。 In attention area R2 of the correct images (FIG. 4, FIG. 13 (b)), when focusing on the region where the solid arrow is pointing, L A as a loss function when CNN learning, even when using any of L B, CNN processing steps Compared with the CNN output tomographic image x CNN obtained by performing the processing of S12 only once, the brain structure is clearly restored in the second tomographic image x 2 obtained by performing the processing of the CNN processing step S12 only once. In the second tomographic image x 2 obtained by performing the processing of the CNN processing step S12 10 times, the brain structure is more clearly restored.

正解画像(図4,図13(b))の注目領域R2において、破線印が指し示す領域に着目すると、CNN学習時に損失関数としてL,Lの何れを用いた場合においても、CNN処理ステップS12の処理を1回のみ行って得られたCNN出力断層画像xCNNと比べて、CNN処理ステップS12の処理を1回のみ行って得られた第2断層画像xではアーチファクトが低減されており、CNN処理ステップS12の処理を10回行って得られた第2断層画像xではアーチファクトが更に低減されている。特に、CNN学習時に損失関数としてLを用いた場合には、CNN処理ステップS12の処理を10回行って得られた第2断層画像xではアーチファクトが殆ど認められない。 In attention area R2 of the correct images (FIG. 4, FIG. 13 (b)), when focusing on the area indicated by the dashed line marked, L A as a loss function when CNN learning, even when using any of L B, CNN processing steps Compared with the CNN output tomographic image x CNN obtained by performing the processing of S12 only once, the artifacts are reduced in the second tomographic image x 2 obtained by performing the processing of the CNN processing step S12 only once. , The second tomographic image x 2 obtained by performing the processing of the CNN processing step S12 10 times further reduces the artifacts. Particularly, in the case of using L B as a loss function when CNN learning, second tomographic image x 2 in artifact obtained by performing 10 times the processing of the CNN processing step S12 is hardly recognized.

図20は、CNN学習時に損失関数としてL,Lそれぞれを用いた場合について、第1断層画像xおよび第2断層画像x(CNN処理ステップS12の繰り返し回数itrを1,2,5,10)それぞれのPSNRを示すグラフである。PSNR(Peak Signal to Noise Ratio)は、画像の品質をデシベル(dB)で表したものであり、値が高いほど良好な画質であることを意味する。 Figure 20, L as a loss function when CNN learning A, the case of using the respective L B, the number of repetitions itr the first tomographic image x 1 and the second tomographic image x 2 (CNN processing steps S12 1, 2, 5 , 10) It is a graph which shows each PSNR. PSNR (Peak Signal to Noise Ratio) expresses the quality of an image in decibels (dB), and the higher the value, the better the image quality.

図21は、CNN学習時に損失関数としてL,Lそれぞれを用いた場合について、第1断層画像xおよび第2断層画像x(CNN処理ステップS12の繰り返し回数itrを1,2,5,10)それぞれのSSIMを示すグラフである。SSIM(Structural Similarity Index)は、画像の輝度およびコントラストならびに構造の変化を定量化する指標であり、値が高いほど良好な画質であることを意味する。 21 1, 2 and 5, L as a loss function when CNN learning A, the case of using the respective L B, the number of repetitions itr the first tomographic image x 1 and the second tomographic image x 2 (CNN processing step S12 , 10) It is a graph which shows each SSIM. The SSIM (Structural Similarity Index) is an index for quantifying changes in image brightness, contrast, and structure, and the higher the value, the better the image quality.

PSNRおよびSSIMの何れの指標も、第1断層画像xより第2断層画像xの方が画質が良好であることを示しており、CNN処理ステップS12の繰り返し回数itrを多くするほど第2断層画像xの画質が良好になることを示している。また、PSNRおよびSSIMの何れの指標も、CNN学習時に損失関数としてLよりLを用いる場合の方が、画質が良好であることを示している。 Both the PSNR and SSIM indexes show that the image quality of the second tomographic image x 2 is better than that of the first tomographic image x 1 , and the second isr as the number of repetitions of the CNN processing step S12 is increased. It shows that the image quality of the tomographic image x 2 is improved. Also, any indication of PSNR and SSIM also towards the case of using L B from L A as a loss function when CNN learning, indicating that the image quality is good.

1…MRI装置、2…画像処理装置、10…k空間データ収集部、11…第1断層画像作成部、12…CNN処理部、13…第1k空間データ作成部、14…第2k空間データ作成部、15…第2断層画像作成部、16…制御部、17…記憶部、18…表示部、x…第1断層画像、x…第2断層画像、xCNN…CNN出力断層画像、y…部分k空間データ、y…第1k空間データ、y…第2k空間データ。 1 ... MRI device, 2 ... image processing device, 10 ... k space data collection unit, 11 ... first tomographic image creation unit, 12 ... CNN processing unit, 13 ... 1st k space data creation unit, 14 ... second k space data creation Unit, 15 ... 2nd tomographic image creation unit, 16 ... control unit, 17 ... storage unit, 18 ... display unit, x 1 ... 1st tomographic image, x 2 ... 2nd tomographic image, x CNN ... CNN output tomographic image, y 0 ... partial k space data, y 1 ... first k space data, y 2 ... second k space data.

Claims (13)

MRI装置においてk空間のうちの一部空間について収集された部分k空間データに基づいて第1断層画像を作成する第1断層画像作成部と、
畳み込みニューラルネットワークに断層画像を入力させて前記畳み込みニューラルネットワークからCNN出力断層画像を出力させるCNN処理部と、
前記CNN出力断層画像に基づいて第1k空間データを作成する第1k空間データ作成部と、
前記一部空間についての前記部分k空間データと、前記第1k空間データのうち前記一部空間以外の空間についてのk空間データとに基づいて、第2k空間データを作成する第2k空間データ作成部と、
前記第2k空間データに基づいて第2断層画像を作成する第2断層画像作成部と、
を備え、
前記CNN処理部は、前記畳み込みニューラルネットワークによる処理を2回以上行い、そのうち第1回の処理では、前記第1断層画像を前記畳み込みニューラルネットワークに入力させ、第2回以降の処理では、前回の処理による前記CNN出力断層画像に基づいて作成された前記第2断層画像を前記畳み込みニューラルネットワークに入力させる、
画像処理装置。
A first tomographic image creation unit that creates a first tomographic image based on partial k-space data collected for a part of k-space in an MRI apparatus.
A CNN processing unit that inputs a tomographic image to a convolutional neural network and outputs a CNN output tomographic image from the convolutional neural network.
A first k spatial data creation unit that creates first k spatial data based on the CNN output tomographic image, and
A second k-space data creation unit that creates second k-space data based on the partial k-space data for the partial space and the k-space data for a space other than the partial space among the first k-space data. When,
A second tomographic image creation unit that creates a second tomographic image based on the 2k spatial data,
With
The CNN processing unit performs the processing by the convolutional neural network twice or more, in the first processing, the first tomographic image is input to the convolutional neural network, and in the second and subsequent processing, the previous processing is performed. The second tomographic image created based on the CNN output tomographic image by processing is input to the convolutional neural network.
Image processing device.
前記CNN処理部は、前記畳み込みニューラルネットワークを学習させる際に、k空間内の前記一部空間について収集された前記部分k空間データに基づいて作成された被検体の前記第1断層画像または前記第2断層画像を前記畳み込みニューラルネットワークへの入力画像として用い、k空間内の前記一部空間より広い空間について収集されたk空間データに基づいて作成された前記被検体の断層画像を教師画像として用いる、
請求項1に記載の画像処理装置。
When the CNN processing unit trains the convolutional neural network, the first tomographic image of the subject or the first tomographic image of the subject created based on the partial k-space data collected for the partial space in the k-space. 2 The tomographic image is used as an input image to the convolutional neural network, and the tomographic image of the subject created based on the k-space data collected for a space wider than the partial space in the k-space is used as a teacher image. ,
The image processing apparatus according to claim 1.
前記CNN処理部は、前記畳み込みニューラルネットワークを学習させる際に、k空間の全体について収集されたk空間データに基づいて作成された前記被検体の断層画像を教師画像として用いる、
請求項2に記載の画像処理装置。
When training the convolutional neural network, the CNN processing unit uses a tomographic image of the subject created based on k-space data collected for the entire k-space as a teacher image.
The image processing apparatus according to claim 2.
前記CNN処理部は、前記畳み込みニューラルネットワークを学習させる際に、前記教師画像と前記CNN出力断層画像との差を含む関数を損失関数として用いる、
請求項2または3に記載の画像処理装置。
When training the convolutional neural network, the CNN processing unit uses a function including the difference between the teacher image and the CNN output tomographic image as a loss function.
The image processing apparatus according to claim 2 or 3.
前記CNN処理部は、前記畳み込みニューラルネットワークを学習させる際に、前記教師画像と前記CNN出力断層画像との差、および、前記教師画像をフーリエ変換して得られるk空間データと前記CNN出力断層画像をフーリエ変換して得られるk空間データとの差を含む関数を、損失関数として用いる、
請求項2または3に記載の画像処理装置。
When the convolutional neural network is trained, the CNN processing unit determines the difference between the teacher image and the CNN output tomographic image, and the k-space data obtained by Fourier transforming the teacher image and the CNN output tomographic image. The function including the difference from the k-space data obtained by Fourier transforming is used as the loss function.
The image processing apparatus according to claim 2 or 3.
MRI装置においてk空間のうちの一部空間について収集された部分k空間データに基づいて第1断層画像を作成する第1断層画像作成部と、
畳み込みニューラルネットワークに前記第1断層画像を入力させて前記畳み込みニューラルネットワークからCNN出力断層画像を出力させるCNN処理部と、
前記CNN出力断層画像に基づいて第1k空間データを作成する第1k空間データ作成部と、
前記一部空間についての前記部分k空間データと、前記第1k空間データのうち前記一部空間以外の空間についてのk空間データとに基づいて、第2k空間データを作成する第2k空間データ作成部と、
前記第2k空間データに基づいて第2断層画像を作成する第2断層画像作成部と、
を備え、
前記CNN処理部は、前記畳み込みニューラルネットワークを学習させる際に、
k空間内の前記一部空間について収集された前記部分k空間データに基づいて作成された被検体の前記第1断層画像または前記第2断層画像を前記畳み込みニューラルネットワークへの入力画像として用い、
k空間内の前記一部空間より広い空間について収集されたk空間データに基づいて作成された前記被検体の断層画像を教師画像として用い、
前記教師画像と前記CNN出力断層画像との差、および、前記教師画像をフーリエ変換して得られるk空間データと前記CNN出力断層画像をフーリエ変換して得られるk空間データとの差を含む関数を、損失関数として用いる、
画像処理装置。
A first tomographic image creation unit that creates a first tomographic image based on partial k-space data collected for a part of k-space in an MRI apparatus.
A CNN processing unit that inputs the first tomographic image to the convolutional neural network and outputs a CNN output tomographic image from the convolutional neural network.
A first k spatial data creation unit that creates first k spatial data based on the CNN output tomographic image, and
A second k-space data creation unit that creates second k-space data based on the partial k-space data for the partial space and the k-space data for a space other than the partial space among the first k-space data. When,
A second tomographic image creation unit that creates a second tomographic image based on the 2k spatial data,
With
When the CNN processing unit trains the convolutional neural network,
The first tomographic image or the second tomographic image of the subject created based on the partial k-space data collected for the partial k-space is used as an input image to the convolutional neural network.
A tomographic image of the subject created based on k-space data collected for a space wider than the partial space in the k-space was used as a teacher image.
A function including the difference between the teacher image and the CNN output tomographic image, and the difference between the k-space data obtained by Fourier transforming the teacher image and the k-space data obtained by Fourier transforming the CNN output tomographic image. As a loss function,
Image processing device.
k空間データを収集するk空間データ収集部と、
前記k空間データ収集部により収集されたk空間データに基づいて断層画像を作成する請求項1〜6の何れか1項に記載の画像処理装置と、
を備えるMRI装置。
The k-space data collection unit that collects k-space data,
The image processing apparatus according to any one of claims 1 to 6, which creates a tomographic image based on the k-space data collected by the k-space data collection unit.
An MRI apparatus comprising.
MRI装置においてk空間のうちの一部空間について収集された部分k空間データに基づいて第1断層画像を作成する第1断層画像作成ステップと、
畳み込みニューラルネットワークに断層画像を入力させて前記畳み込みニューラルネットワークからCNN出力断層画像を出力させるCNN処理ステップと、
前記CNN出力断層画像に基づいて第1k空間データを作成する第1k空間データ作成ステップと、
前記一部空間についての前記部分k空間データと、前記第1k空間データのうち前記一部空間以外の空間についてのk空間データとに基づいて、第2k空間データを作成する第2k空間データ作成ステップと、
前記第2k空間データに基づいて第2断層画像を作成する第2断層画像作成ステップと、
を備え、
前記CNN処理ステップの処理を2回以上行い、そのうち第1回の処理では、前記第1断層画像を前記畳み込みニューラルネットワークに入力させ、第2回以降の処理では、前回の処理による前記CNN出力断層画像に基づいて作成された前記第2断層画像を前記畳み込みニューラルネットワークに入力させる、
画像処理方法。
The first tomographic image creation step of creating a first tomographic image based on the partial k-space data collected for a part of the k-space in the MRI apparatus,
A CNN processing step in which a tomographic image is input to a convolutional neural network and a CNN output tomographic image is output from the convolutional neural network.
The first k spatial data creation step for creating the first k spatial data based on the CNN output tomographic image, and
A second k-space data creation step for creating a second k-space data based on the partial k-space data for the partial space and the k-space data for a space other than the partial space among the first k-space data. When,
A second tomographic image creation step for creating a second tomographic image based on the 2k spatial data, and
With
The processing of the CNN processing step is performed twice or more, in the first processing, the first tomographic image is input to the convolutional neural network, and in the second and subsequent processing, the CNN output fault obtained by the previous processing is performed. The second tomographic image created based on the image is input to the convolutional neural network.
Image processing method.
前記CNN処理ステップでは、前記畳み込みニューラルネットワークを学習させる際に、k空間内の前記一部空間について収集された前記部分k空間データに基づいて作成された被検体の前記第1断層画像または前記第2断層画像を前記畳み込みニューラルネットワークへの入力画像として用い、k空間内の前記一部空間より広い空間について収集されたk空間データに基づいて作成された前記被検体の断層画像を教師画像として用いる、
請求項8に記載の画像処理方法。
In the CNN processing step, when the convolutional neural network is trained, the first tomographic image of the subject or the first tomographic image of the subject created based on the partial k-space data collected for the partial space in the k-space. 2 The tomographic image is used as an input image to the convolutional neural network, and the tomographic image of the subject created based on the k-space data collected for a space wider than the partial space in the k-space is used as a teacher image. ,
The image processing method according to claim 8.
前記CNN処理ステップでは、前記畳み込みニューラルネットワークを学習させる際に、k空間の全体について収集されたk空間データに基づいて作成された前記被検体の断層画像を教師画像として用いる、
請求項9に記載の画像処理方法。
In the CNN processing step, when training the convolutional neural network, a tomographic image of the subject created based on k-space data collected for the entire k-space is used as a teacher image.
The image processing method according to claim 9.
前記CNN処理ステップでは、前記畳み込みニューラルネットワークを学習させる際に、前記教師画像と前記CNN出力断層画像との差を含む関数を損失関数として用いる、
請求項9または10に記載の画像処理方法。
In the CNN processing step, when training the convolutional neural network, a function including the difference between the teacher image and the CNN output tomographic image is used as a loss function.
The image processing method according to claim 9 or 10.
前記CNN処理ステップでは、前記畳み込みニューラルネットワークを学習させる際に、前記教師画像と前記CNN出力断層画像との差、および、前記教師画像をフーリエ変換して得られるk空間データと前記CNN出力断層画像をフーリエ変換して得られるk空間データとの差を含む関数を、損失関数として用いる、
請求項9または10に記載の画像処理方法。
In the CNN processing step, when the convolutional neural network is trained, the difference between the teacher image and the CNN output tomographic image, and the k-space data obtained by Fourier transforming the teacher image and the CNN output tomographic image. Is used as a loss function by using a function including the difference from the k-space data obtained by Fourier transforming.
The image processing method according to claim 9 or 10.
MRI装置においてk空間のうちの一部空間について収集された部分k空間データに基づいて第1断層画像を作成する第1断層画像作成ステップと、
畳み込みニューラルネットワークに前記第1断層画像を入力させて前記畳み込みニューラルネットワークからCNN出力断層画像を出力させるCNN処理ステップと、
前記CNN出力断層画像に基づいて第1k空間データを作成する第1k空間データ作成ステップと、
前記一部空間についての前記部分k空間データと、前記第1k空間データのうち前記一部空間以外の空間についてのk空間データとに基づいて、第2k空間データを作成する第2k空間データ作成ステップと、
前記第2k空間データに基づいて第2断層画像を作成する第2断層画像作成ステップと、
を備え、
前記CNN処理ステップでは、前記畳み込みニューラルネットワークを学習させる際に、
k空間内の前記一部空間について収集された前記部分k空間データに基づいて作成された被検体の前記第1断層画像または前記第2断層画像を前記畳み込みニューラルネットワークへの入力画像として用い、
k空間内の前記一部空間より広い空間について収集されたk空間データに基づいて作成された前記被検体の断層画像を教師画像として用い、
前記教師画像と前記CNN出力断層画像との差、および、前記教師画像をフーリエ変換して得られるk空間データと前記CNN出力断層画像をフーリエ変換して得られるk空間データとの差を含む関数を、損失関数として用いる、
画像処理方法。
The first tomographic image creation step of creating a first tomographic image based on the partial k-space data collected for a part of the k-space in the MRI apparatus,
A CNN processing step in which the first tomographic image is input to the convolutional neural network and a CNN output tomographic image is output from the convolutional neural network.
The first k spatial data creation step for creating the first k spatial data based on the CNN output tomographic image, and
A second k-space data creation step for creating a second k-space data based on the partial k-space data for the partial space and the k-space data for a space other than the partial space among the first k-space data. When,
A second tomographic image creation step for creating a second tomographic image based on the 2k spatial data, and
With
In the CNN processing step, when training the convolutional neural network,
The first tomographic image or the second tomographic image of the subject created based on the partial k-space data collected for the partial k-space is used as an input image to the convolutional neural network.
A tomographic image of the subject created based on k-space data collected for a space wider than the partial space in the k-space was used as a teacher image.
A function including the difference between the teacher image and the CNN output tomographic image, and the difference between the k-space data obtained by Fourier transforming the teacher image and the k-space data obtained by Fourier transforming the CNN output tomographic image. As a loss function,
Image processing method.
JP2019167077A 2019-09-13 2019-09-13 MRI device, image processing device, and image processing method Active JP7369572B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019167077A JP7369572B2 (en) 2019-09-13 2019-09-13 MRI device, image processing device, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019167077A JP7369572B2 (en) 2019-09-13 2019-09-13 MRI device, image processing device, and image processing method

Publications (2)

Publication Number Publication Date
JP2021041065A true JP2021041065A (en) 2021-03-18
JP7369572B2 JP7369572B2 (en) 2023-10-26

Family

ID=74864614

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019167077A Active JP7369572B2 (en) 2019-09-13 2019-09-13 MRI device, image processing device, and image processing method

Country Status (1)

Country Link
JP (1) JP7369572B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4059731A1 (en) 2021-03-15 2022-09-21 Seiko Epson Corporation Transport device and recording device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150097565A1 (en) * 2013-10-01 2015-04-09 Beth Israel Deaconess Medical Center, Inc. (BIDMC) Methods and apparatus for reducing scan time of phase contrast mri
JP2018130142A (en) * 2017-02-13 2018-08-23 株式会社日立製作所 Medical image diagnostic apparatus
JP2019025044A (en) * 2017-07-31 2019-02-21 株式会社日立製作所 Medical imaging apparatus and medical image processing method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150097565A1 (en) * 2013-10-01 2015-04-09 Beth Israel Deaconess Medical Center, Inc. (BIDMC) Methods and apparatus for reducing scan time of phase contrast mri
JP2018130142A (en) * 2017-02-13 2018-08-23 株式会社日立製作所 Medical image diagnostic apparatus
JP2019025044A (en) * 2017-07-31 2019-02-21 株式会社日立製作所 Medical imaging apparatus and medical image processing method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
CHANG MIN HYUN, ET AL.: "Deep Learning for undersampled MRI reconstruction", PHYSICS IN MEDICINE & BIOLOGY, vol. V0l.63 No.13, JPN6023018009, 25 June 2018 (2018-06-25), GB, pages 135007 - 15, ISSN: 0005051470 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4059731A1 (en) 2021-03-15 2022-09-21 Seiko Epson Corporation Transport device and recording device

Also Published As

Publication number Publication date
JP7369572B2 (en) 2023-10-26

Similar Documents

Publication Publication Date Title
Liu et al. Perception consistency ultrasound image super-resolution via self-supervised CycleGAN
Ghodrati et al. MR image reconstruction using deep learning: evaluation of network structure and loss functions
Yu et al. Deep de-aliasing for fast compressive sensing MRI
de Leeuw Den Bouter et al. Deep learning-based single image super-resolution for low-field MR brain images
Eun et al. Deep-learning-based image quality enhancement of compressed sensing magnetic resonance imaging of vessel wall: comparison of self-supervised and unsupervised approaches
Fang et al. Rca-u-net: Residual channel attention u-net for fast tissue quantification in magnetic resonance fingerprinting
Sood et al. An application of generative adversarial networks for super resolution medical imaging
CN103142228A (en) Compressed sensing magnetic resonance fast imaging method
CN114049408A (en) Depth network model for accelerating multi-modality MR imaging
Mao et al. Disc-diff: Disentangled conditional diffusion model for multi-contrast mri super-resolution
Pawar et al. A deep learning framework for transforming image reconstruction into pixel classification
Liu et al. An edge enhanced srgan for mri super resolution in slice-selection direction
Song et al. Deep robust residual network for super-resolution of 2D fetal brain MRI
Guan et al. Magnetic resonance imaging reconstruction using a deep energy‐based model
Lu et al. Two-stage self-supervised cycle-consistency transformer network for reducing slice gap in MR images
JP7369572B2 (en) MRI device, image processing device, and image processing method
Rashid et al. Single MR image super-resolution using generative adversarial network
Feng et al. Deep multi-modal aggregation network for MR image reconstruction with auxiliary modality
CN106137199B (en) Broad sense spherical surface in diffusion magnetic resonance imaging deconvolutes
Qin et al. A2OURSR: Adaptive adjustment based real MRI super-resolution via opinion-unaware measurements
KR100452644B1 (en) Image processing method and apparatus, recording medium, and imaging apparatus
Bouffard et al. Multi-step reinforcement learning for medical image super-resolution
Shen et al. Attention hybrid variational net for accelerated MRI reconstruction
CN113920211A (en) Rapid magnetic sensitivity weighted imaging method based on deep learning
Zhang et al. Enhanced Multi-Attention Network for Single Image Super-resolution

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220905

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230421

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230509

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230706

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230919

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231016

R150 Certificate of patent or registration of utility model

Ref document number: 7369572

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150