WO2021162176A1 - 자기 공명 영상 처리 장치 및 그 방법 - Google Patents

자기 공명 영상 처리 장치 및 그 방법 Download PDF

Info

Publication number
WO2021162176A1
WO2021162176A1 PCT/KR2020/006853 KR2020006853W WO2021162176A1 WO 2021162176 A1 WO2021162176 A1 WO 2021162176A1 KR 2020006853 W KR2020006853 W KR 2020006853W WO 2021162176 A1 WO2021162176 A1 WO 2021162176A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
magnetic resonance
obtaining
data
input
Prior art date
Application number
PCT/KR2020/006853
Other languages
English (en)
French (fr)
Inventor
고진규
윤재연
정근우
Original Assignee
주식회사 에어스 메디컬
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 에어스 메디컬 filed Critical 주식회사 에어스 메디컬
Priority to EP20918529.7A priority Critical patent/EP4088654A4/en
Priority to JP2022549166A priority patent/JP2023513801A/ja
Priority to CN202080096587.4A priority patent/CN115135237A/zh
Priority to US17/424,368 priority patent/US20220309719A1/en
Publication of WO2021162176A1 publication Critical patent/WO2021162176A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/006Inverse problem, transformation from projection-space into object-space, e.g. transform methods, back-projection, algebraic methods
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R33/00Arrangements or instruments for measuring magnetic variables
    • G01R33/20Arrangements or instruments for measuring magnetic variables involving magnetic resonance
    • G01R33/44Arrangements or instruments for measuring magnetic variables involving magnetic resonance using nuclear magnetic resonance [NMR]
    • G01R33/48NMR imaging systems
    • G01R33/54Signal processing systems, e.g. using pulse sequences ; Generation or control of pulse sequences; Operator console
    • G01R33/56Image enhancement or correction, e.g. subtraction or averaging techniques, e.g. improvement of signal-to-noise ratio and resolution
    • G01R33/561Image enhancement or correction, e.g. subtraction or averaging techniques, e.g. improvement of signal-to-noise ratio and resolution by reduction of the scanning time, i.e. fast acquiring systems, e.g. using echo-planar pulse sequences
    • G01R33/5611Parallel magnetic resonance imaging, e.g. sensitivity encoding [SENSE], simultaneous acquisition of spatial harmonics [SMASH], unaliasing by Fourier encoding of the overlaps using the temporal dimension [UNFOLD], k-t-broad-use linear acquisition speed-up technique [k-t-BLAST], k-t-SENSE
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7253Details of waveform analysis characterised by using transforms
    • A61B5/7257Details of waveform analysis characterised by using transforms using Fourier transforms
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R33/00Arrangements or instruments for measuring magnetic variables
    • G01R33/20Arrangements or instruments for measuring magnetic variables involving magnetic resonance
    • G01R33/44Arrangements or instruments for measuring magnetic variables involving magnetic resonance using nuclear magnetic resonance [NMR]
    • G01R33/48NMR imaging systems
    • G01R33/4818MR characterised by data acquisition along a specific k-space trajectory or by the temporal order of k-space coverage, e.g. centric or segmented coverage of k-space
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R33/00Arrangements or instruments for measuring magnetic variables
    • G01R33/20Arrangements or instruments for measuring magnetic variables involving magnetic resonance
    • G01R33/44Arrangements or instruments for measuring magnetic variables involving magnetic resonance using nuclear magnetic resonance [NMR]
    • G01R33/48NMR imaging systems
    • G01R33/54Signal processing systems, e.g. using pulse sequences ; Generation or control of pulse sequences; Operator console
    • G01R33/56Image enhancement or correction, e.g. subtraction or averaging techniques, e.g. improvement of signal-to-noise ratio and resolution
    • G01R33/5608Data processing and visualization specially adapted for MR, e.g. for feature analysis and pattern recognition on the basis of measured MR data, segmentation of measured MR data, edge contour detection on the basis of measured MR data, for enhancing measured MR data in terms of signal-to-noise ratio by means of noise filtering or apodization, for enhancing measured MR data in terms of resolution by means for deblurring, windowing, zero filling, or generation of gray-scaled images, colour-coded images or images displaying vectors instead of pixels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20056Discrete and fast Fourier transform, [DFT, FFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Definitions

  • the present invention relates to a magnetic resonance image processing apparatus and method, and to a magnetic resonance image processing apparatus and method for accelerating acquisition of a magnetic resonance image from a magnetic resonance signal using an artificial neural network.
  • a medical imaging apparatus is a device that provides an image by acquiring body information of a patient.
  • Medical imaging apparatuses include an X-ray imaging apparatus, an ultrasound diagnosis apparatus, a computed tomography apparatus, and a Magnetic Resonance Imaging (MRI) imaging apparatus.
  • MRI Magnetic Resonance Imaging
  • the magnetic resonance imaging uses a magnetic field harmless to the human body and non-ionizing radiation to generate a nuclear magnetic resonance phenomenon in the hydrogen atomic nuclei in the body to image the density and physical/chemical characteristics of the atomic nuclei.
  • the magnetic resonance imaging apparatus occupies an important position in the field of diagnosis using medical imaging because imaging conditions are relatively free, and it includes various diagnostic information in soft tissues and provides images with excellent contrast.
  • the magnetic resonance imaging apparatus is an imaging apparatus for diagnosing the inside of a human body by supplying energy of a constant frequency in a state in which a constant magnetic field is applied to an atomic nucleus, and converting energy emitted from the atomic nucleus into a signal. Since the protons constituting the nucleus of an atom have spin angular momentum and magnetic dipole themselves, when a magnetic field is applied, they are aligned in the direction of the magnetic field, and the nucleus of the atom precesses around the direction of the magnetic field. By this precession, it is possible to acquire an image of the human body through nuclear magnetic resonance.
  • imaging by the magnetic resonance imaging apparatus may take from about 20 minutes to 1 hour or more depending on the type of part to be photographed and the MR image. That is, there is a disadvantage that the imaging time of the magnetic resonance imaging apparatus is relatively long compared to other medical imaging apparatuses. These disadvantages may put a burden on the patient, especially for patients with claustrophobia, making it difficult to perform the operation itself. Therefore, techniques for reducing the shooting time have been developed until recently, and improvement is also required in terms of image quality.
  • the magnetic resonance image processing apparatus and method according to the present invention are to provide a magnetic resonance image processing apparatus and method capable of obtaining a high-quality reconstructed image even by shortening the magnetic resonance imaging time to facilitate diagnosis of a lesion site in a patient. do.
  • a magnetic resonance image processing method by a magnetic resonance image processing apparatus, the method comprising: obtaining a sub-sampled magnetic resonance signal; obtaining first k-space data from the sub-sampled MR signal using a first parallel imaging technique; obtaining a first magnetic resonance image from the first k-space data using an inverse Fourier operation; generating first input image data by preprocessing the first MR image; and obtaining a first output MR image from the first input image data by using the first artificial neural network model.
  • a plurality of first k-space data and a plurality of first MR images are respectively obtained, and the first MR images are pre-processed to generate first input image data.
  • the step of obtaining a single second MR image by combining the plurality of first MR images is performed using the following [Equation 1], providing a MR image processing method can do.
  • the step of obtaining a single second MR image by combining the plurality of first MR images is performed using the following [Equation 2], providing a MR image processing method can do.
  • the first MR image includes a target image and an image aliased in a phase encoding direction
  • the step of pre-processing the first MR image to generate the first input image data includes the aliased image obtaining a shifted first MR image by shifting the first MR image to match the target image; and generating first input image data by stacking and grouping the first MR image and the shifted first MR image in a first direction perpendicular to the phase encoding direction and the readout direction, respectively. It is possible to provide a magnetic resonance image processing method comprising a.
  • the second MR image includes a target image and an image aliased in a phase encoding direction
  • the step of preprocessing the second MR image to generate the first input image data includes the aliased image obtaining a shifted second MR image by shifting the second MR image to match the target image; and generating first input image data by stacking and grouping the second MR image and the shifted second MR image in a first direction perpendicular to a phase encoding direction and a readout direction.
  • a treatment method may be provided.
  • the first artificial neural network model may provide a magnetic resonance image processing method in which a noise pattern image generated based on the first magnetic resonance image is input.
  • the first artificial neural network model has an artificial neural network structure including a contracting path and an expanding path
  • the contracting path includes a plurality of convolutions. It is composed of a (Convolution) layer and a pooling layer, an expanding path is composed of a plurality of convolutional layers and an unpooling layer, and the noise pattern image is composed of an expanding path ( It is possible to provide a magnetic resonance image processing method that is input to at least one of a plurality of convolutional layers and unpooling layers of an expanding path).
  • the method includes obtaining second k-space data from the first output MR image by using a Fourier operation, wherein the obtaining of the second k-space data includes: obtaining a plurality of second output MR images by decombining the output MR images; and obtaining second k-space data from the second output MR image by using a Fourier operation.
  • the step of decombining the first output MR images to obtain a plurality of second output MR images is performed using the following [Equation 3] or [Equation 4] It is possible to provide a magnetic resonance image processing method.
  • a magnetic resonance image processing method including obtaining third k-space data from the second k-space data by using a second parallel operation technique.
  • obtaining a third magnetic resonance image using an inverse Fourier operation from the third k-space data generating second input image data by preprocessing the third MR image; and obtaining a third output MR image from the second input image data by using the second artificial neural network model.
  • a magnetic resonance image processing apparatus for executing a magnetic resonance image processing method according to an embodiment of the present invention, comprising: a memory in which a magnetic resonance image processing program is stored; and a processor executing the program, wherein the processor acquires a sub-sampled MR signal according to the execution of the program, and generates first k-space data from the sub-sampled MR signal using a first parallel imaging technique. obtaining a first MR image using an inverse Fourier operation from the first k-space data, preprocessing the first MR image to generate first input image data, and generating a first input image data from the first input image data.
  • An object of the present invention is to provide a magnetic resonance image processing apparatus that acquires a first output magnetic resonance image using an artificial neural network model.
  • the magnetic resonance image processing apparatus and method according to the present invention provide a magnetic resonance image processing apparatus and method capable of obtaining a high-quality reconstructed image even by shortening the magnetic resonance imaging time, thereby facilitating diagnosis of a lesion site in a patient.
  • the magnetic resonance image processing apparatus and method according to the embodiments of the present invention obtain a plurality of magnetic resonance images, and use the first artificial neural network model and the second artificial neural network model from input data generated by preprocessing them. By providing a reconstructed high-accuracy output magnetic resonance image, it has the effect of facilitating the diagnosis of the patient's lesion site.
  • FIG. 1 is a block diagram showing the configuration of a magnetic resonance image processing apparatus according to an embodiment of the present invention.
  • FIG. 2 is a flowchart illustrating a sequence of a magnetic resonance image processing method according to an embodiment of the present invention.
  • FIG. 3 is a schematic diagram illustrating a magnetic resonance image processing method according to an embodiment of the present invention.
  • FIG. 4 is a schematic diagram illustrating a difference between full sampling and sub-sampling according to an embodiment of the present invention.
  • 5 is a schematic diagram for explaining the difference between GRAPPA and SPIRiT, which are parallel imaging techniques, according to an embodiment of the present invention.
  • FIG. 6 is a flowchart illustrating a method of preprocessing a first MR image according to an embodiment of the present invention.
  • FIG. 7 is a schematic diagram illustrating a method of preprocessing a first MR image according to an embodiment of the present invention.
  • FIG. 8 is a flowchart illustrating a method of generating first input image data by preprocessing a first MR image according to a modified embodiment of the present invention.
  • FIG. 9 is a schematic diagram illustrating a step of acquiring a first output MR image from first input image data using a first artificial neural network model according to an embodiment of the present invention.
  • FIG. 10 is a schematic diagram showing the structure of a first artificial neural network model according to an embodiment of the present invention.
  • FIG. 11 is a diagram for explaining a noise pattern image applied as training data to an artificial neural network model according to an embodiment of the present invention.
  • FIG. 12 is a diagram illustrating an effect of mitigating hallucination by applying a noise pattern image as training data to an artificial neural network model according to an embodiment of the present invention.
  • FIG. 13 is a flowchart illustrating a sequence of a magnetic resonance image processing method according to an extended embodiment including the magnetic resonance image processing method according to an embodiment of the present invention.
  • FIG. 14 is a schematic diagram illustrating a magnetic resonance image processing method according to an extended embodiment of the present invention.
  • 15 is a flowchart illustrating a second output magnetic resonance image acquisition step and a second k-space data acquisition step according to an extended embodiment of the present invention.
  • 16 is a view showing a 4-fold accelerated reconstructed image according to an experimental example of the present invention together with a comparative example.
  • 17 is a view showing a 6-fold accelerated reconstructed image according to another experimental example of the present invention together with a comparative example.
  • the term 'part' may be implemented in software or hardware, and according to embodiments, a plurality of 'parts' may be implemented as one element (unit, element), or one ' It is also possible for part' to include a plurality of elements.
  • an 'image' may mean multi-dimensional data composed of discrete image elements (eg, pixels in a 2D image and voxels in a 3D image).
  • the image may include a medical image obtained by a medical imaging apparatus such as a magnetic resonance imaging apparatus, a computed tomography (CT) apparatus, an ultrasound imaging apparatus, or an X-ray imaging apparatus.
  • a medical imaging apparatus such as a magnetic resonance imaging apparatus, a computed tomography (CT) apparatus, an ultrasound imaging apparatus, or an X-ray imaging apparatus.
  • an 'object' is a subject to be photographed, and may include a person, an animal, or a part thereof.
  • the object may include a body part (such as an organ or an organ) or a phantom.
  • the phantom refers to a material having a volume very close to the density and effective atomic number of an organism, and may include a spherical phantom having properties similar to a body.
  • the Magnetic Resonance Image (MRI) system expresses the intensity of the Magnetic Resonance (MR) signal with respect to the RF (Radio Frequency) signal generated in a magnetic field of a specific intensity as a contrast, so that the tomographic area of the object is measured. It is an image acquisition system.
  • MR Magnetic Resonance
  • RF Radio Frequency
  • the MRI system causes a main magnet to form a static magnetic field, and aligns the magnetic dipole moment direction of a specific atomic nucleus of an object located in the static magnetic field to the static magnetic field direction.
  • the gradient magnetic field coil may apply a gradient signal to the static magnetic field to form a gradient magnetic field, thereby inducing different resonance frequencies for each part of the object.
  • the RF coil may irradiate a magnetic resonance signal according to a resonance frequency of a region desired to acquire an image.
  • the RF coil may receive magnetic resonance signals of different resonance frequencies radiated from various parts of the object.
  • the MRI system acquires an image by applying an image restoration technique to the magnetic resonance signals received through these steps.
  • the MRI system may perform serial or parallel signal processing on the plurality of magnetic resonance signals received by the multi-channel RF coil to reconstruct the plurality of magnetic resonance signals into image data.
  • the magnetic resonance image processing apparatus 100 is applied directly/indirectly to the aforementioned MRI system to accelerate acquisition of a magnetic resonance image from a magnetic resonance signal. it's about
  • the magnetic resonance image processing apparatus 100 includes not only an MRI system capable of acquiring a magnetic resonance image by detecting a magnetic resonance signal by itself, but also an image processing apparatus processing an externally acquired image, and a magnetic resonance image processing function. It may be, but is not limited to, a smartphone, tablet PC, PC, smart TV, micro server, other home appliances and other mobile or non-mobile computing devices equipped with In addition, the magnetic resonance image processing apparatus 100 may be a wearable device such as a watch, glasses, a hair band, and a ring having a communication function and a data processing function.
  • FIG. 1 is a block diagram showing the configuration of a magnetic resonance image processing apparatus 100 according to an embodiment of the present invention.
  • the magnetic resonance image processing apparatus 100 may include a communication module 110 , a memory 120 , a processor 130 , and a database (DB: 140 ).
  • DB: 140 a database
  • the communication module 110 provides a communication interface to the magnetic resonance image processing apparatus 100 by interworking with a communication network, and may serve to transmit and receive data to and from the MRI imaging apparatus, the user terminal, and the management server.
  • the communication module may be a device including hardware and software necessary for transmitting and receiving signals such as control signals or data signals through wired/wireless connection with other network devices.
  • the memory 120 may be a storage medium in which a magnetic resonance image processing program is recorded. In addition, the memory 120 may perform a function of temporarily or permanently storing data processed by the processor.
  • the memory 120 may include a volatile storage medium or a non-volatile storage medium, but the scope of the present invention is not limited thereto.
  • the processor 130 may control the entire process performed by the MR image processing program in the MR image processing apparatus 100 . Each step of the process performed by the processor 130 will be described later with reference to FIGS. 2 to 15 .
  • the processor 130 may include all kinds of devices capable of processing data, such as a processor.
  • the 'processor' may refer to a data processing device embedded in hardware, for example, having a physically structured circuit to perform a function expressed as a code or an instruction included in a program.
  • a microprocessor a central processing unit (CPU), a processor core, a multiprocessor, an application-specific integrated (ASIC) circuit
  • ASIC application-specific integrated
  • FPGA field programmable gate array
  • the database 140 may store various data necessary for the magnetic resonance image processing apparatus 100 to execute a program.
  • the database may store learning data of an artificial neural network to be described later, magnetic resonance signal 310 data, k-space data, magnetic resonance image data, and the like.
  • a 'terminal' may be a wireless communication device with guaranteed portability and mobility, for example, any type of handheld-based wireless communication device such as a smartphone, tablet PC, or notebook computer. have.
  • the 'terminal' may be a wearable device such as a watch, glasses, a hair band, and a ring having a communication function and a data processing function.
  • the 'terminal' may be a wired communication device such as a PC that can connect to another terminal or server through a network.
  • the network refers to a connection structure capable of exchanging information between each node, such as terminals and servers, and includes a local area network (LAN), a wide area network (WAN), and the Internet (WWW). : World Wide Web), wired and wireless data networks, telephone networks, and wired and wireless television networks.
  • wireless data communication networks include 3G, 4G, 5G, 3rd Generation Partnership Project (3GPP), Long Term Evolution (LTE), World Interoperability for Microwave Access (WIMAX), Wi-Fi, Bluetooth communication, infrared communication, ultrasound Communication, Visible Light Communication (VLC), LiFi, etc. are included, but are not limited thereto.
  • FIG. 2 is a flowchart illustrating a sequence of a magnetic resonance image processing method according to an embodiment of the present invention.
  • 3 is a schematic diagram illustrating a magnetic resonance image processing method according to an embodiment of the present invention.
  • first obtaining a subsampled MR signal 310 is performed. (S210) may be performed.
  • FIG. 4 is a schematic diagram illustrating a difference between full sampling and sub-sampling according to an embodiment of the present invention.
  • the sub-sampled MR signal 310 may be the MR signal 310 sampled at a sampling rate lower than the Nyquist sampling rate.
  • the sub-sampled MR image is an image obtained by sampling the MR signal 310 at a sampling rate lower than the Nyquist sampling rate.
  • the sub-sampled MR image may be an image including aliasing artifacts.
  • the aliasing artifact may be an artificial image generated in the MR image when the scanned object is larger than a field of view (FOV).
  • the full-sampled MR image may be an image obtained by sampling k-space data at a sampling rate greater than or equal to the Nyquist sampling rate.
  • the number of lines of the full-sampled MR signal 310 may be n, and the number of lines of the sub-sampled MR signal 310 may be n/2.
  • the reduced degree of the sampling line is a factor of 1/2, it may be said that the acceleration index of the magnetic resonance imaging is two. If the reduction degree of the sampling line is a factor of 1/3 or a factor of 1/4, the acceleration index can be said to be 3 and 4, respectively.
  • the sub-sampling method may be divided into a uniform sub-sampling and a non-uniform sub-sampling.
  • the uniform subsampling may be performing sampling by maintaining a constant interval between samples to be sampled.
  • non-uniform subsampling generally means that sampling is performed by narrowing the interval of the sampled lines toward the center of the sampling data, and increasing the interval of the sampled lines as the distance from the center of the sampling data increases while reducing sampling. .
  • the magnetic resonance image processing apparatus 100 may be included in the MRI system and may acquire input data corresponding to the sub-sampled magnetic resonance signal 310 based on the magnetic resonance signal received from the RF coil. Also, the MR image processing apparatus 100 may acquire input data corresponding to the subsampled MR signal 310 from at least one of an external MR imaging apparatus, an external server, and a database.
  • a step of acquiring first k-space data 320 from the sub-sampled MR signal 310 using a first parallel imaging technique S220 .
  • the parallel imaging technique includes k-space data and/or MR images with high accuracy such as full-sampled k-space data and/or MR images from the sub-sampled MR signal 310 and/or k-space data. It is a kind of image restoration technique to obtain
  • SPACE RIP Sesitivity Profiles From an Array of Coils for Encoding and Reconstruction in Parallel
  • SMASH Simultaneous acquisition of spatial harmonics
  • PILS Partially Parallel Imaging With Localized Sensitivitie
  • GRAPPA Generalized Autocalibrating Partially Parallel Acquisitions
  • SPIRiT Intelligent Self-consistent Parallel Imaging Reconstruction
  • 5 is a schematic diagram for explaining the difference between GRAPPA and SPIRiT, which are parallel imaging techniques, according to an embodiment of the present invention.
  • GRAPPA which uses the sub-sampled magnetic resonance signal 310 as input data and full-sampled k-space image data as output, is applied to obtain an image. It would be desirable to perform restoration.
  • the first parallel imaging technique may be a grapha technique.
  • Grapha may correct the sub-sampled MR signal 310 data to high-accuracy k-space data similar to the full-sampled k-space data.
  • the grapha is not sampled from n/2 lines of the sub-sampled image data. It can be generated by guessing the remaining n/2 lines.
  • the second line may be inferred by linearly combining the first line and the third line, which are the closest lines.
  • grapha estimates the remaining lines that are not sampled from the linear combination of neighboring lines, and can be corrected similarly to the full-sampled image data. That is, it is possible to generate high-accuracy k-space image data for each channel.
  • Spirit can estimate unsampled pixel data by linearly combining adjacent pixel data of a line including a pixel to be guessed and data of sampled lines adjacent to the corresponding line.
  • step S230 of obtaining a first MR image from the first k-space data 320 by using an inverse Fourier (IFFT) operation may be performed.
  • Grapha may generate a first MR image, which is a reconstructed image, by performing an inverse Fourier transform on image data in a complete k-space form.
  • the first MR image may include a target image and an image aliased in the phase encoding direction (Ky).
  • the phase encoding direction Ky may be a direction extending parallel to a direction in which lines sampled in the process of sampling the magnetic resonance signal 310 are stacked.
  • the readout direction Kx may be a direction in which the sampled line extends.
  • the Kz direction may be an axial direction of the coil or a first direction Kz that is orthogonal to a phase encoding direction Ky and a readout direction Kx, which will be described later.
  • a plurality of first k-space data 320 and a plurality of first MR images may be obtained, respectively. That is, when there are a plurality of RF coils for receiving the MR signal 310 , the plurality of reconstructed images generated in response to the plurality of MR signals 310 received for each channel becomes the first MR image.
  • a step (S240) of generating the first input image data 340 by pre-processing the first MR image may be performed.
  • FIG. 6 is a flowchart illustrating a method of preprocessing a first MR image according to an embodiment of the present invention.
  • 7 is a schematic diagram illustrating a method of preprocessing a first MR image according to an embodiment of the present invention.
  • the aliased images A1 and A2 are the target images (
  • the method may include shifting the first MR image 720 to match T) to obtain shifted first MR images 710 and 730 ( S241 ).
  • the first MR image 720 may include a target image T and aliased images A1 and A2 of an object (brain).
  • a target image T aliased images A1 and A2 of an object (brain).
  • shifted first MR images 710 and 730 may be obtained.
  • shifting the first MR image 720 may be performed by moving the aliased images A1 and A2 to the extent that they match the target image T.
  • the aliased image A2 of the object included in the first magnetic resonance image 710 shifted to the left is the original based on the plane formed by the phase encoding direction Ky and the readout direction Kx. It may be shifted to be disposed at the same position as the position of the target image T of the object included in the first MR image 720 of .
  • the aliased image A1 of the object included in the first MR image 730 shifted to the right is the second of the original based on the plane formed by the phase encoding direction (Ky) and the readout direction (Kx). 1 It may be shifted to be disposed at the same position as the position of the target image T of the object included in the magnetic resonance image 720 .
  • the step of preprocessing the first MR image 720 to generate the first input image data 740 is the first MR image 720 and the shifted step ( S240 ).
  • the first MR images 710 and 730 are stacked and grouped in a first direction Kz perpendicular to the phase encoding direction Ky and the readout direction Kx, respectively, to form a first input image It may include generating the data 340 (S242).
  • the first direction Kz is a direction parallel to the Kz direction in FIG. 7B .
  • the phase encoding direction Ky is a direction parallel to the Ky direction
  • the readout direction Kx is a direction parallel to the Kx direction.
  • the stacked first MR images 720 and the plurality of shifted first MR images 710 and 730 are grouped together as a first input input to a first artificial neural network model 500 to be described later.
  • the image data 740 may be generated.
  • FIG. 8 is a flowchart illustrating a method of generating first input image data 340 by preprocessing a first MR image according to a modified embodiment of the present invention.
  • the step of pre-processing the first MR image to generate the first input image data 340 includes combining ( S240 ′) a plurality of first MR images. combining) to obtain a single second MR image 330 ( S241 ′).
  • the plurality of first MR images may be generated from the MR signals 310 respectively received by the plurality of RF coil channels.
  • the combine is a process of outputting a single second MR image 330 by inputting a plurality of first MR images received through multiple coils.
  • the step (S241') of obtaining a single second MR image 330 by combining a plurality of first MR images may be performed using the following [Equation 1]. .
  • the second MR image 330 may be obtained based on the first MR image information and sensitivity information of the RF coil.
  • the first MR image information may be obtained by multiplying the second MR image 330 information by the sensitivity information of each coil as a weight.
  • a method for acquiring the second MR image 330 there is a method of acquiring sensitivity information of each corresponding coil by dividing the first MR image, but this may cause a problem of noise amplification. Accordingly, it may be easy to obtain the second MR image 330 according to real-valued information in order to prevent noise amplification and to simplify and accelerate calculation. In order to obtain the second MR image 330 according to the real-valued information, the sum of the sizes of each coil sensitivity matrix must satisfy 1.
  • the step of obtaining a single second MR image 330 by combining the plurality of first MR images ( S241 ′) may be performed using the following [Equation 2].
  • [Equation 2] may be used to obtain the second MR image 330 based on the complex-value information.
  • the calculation may be more complicated than applying [Equation 1] to obtain the second MR image 330 , but there is an advantage of obtaining a more accurate second MR image 330 . have.
  • step (S240') of generating the first input image data 340 by pre-processing the first MR image is a second MR image combined using [Equation 1] or [Equation 2] above.
  • Pre-processing ( 330 ) may include generating the first input image data 340 ( S242 ′).
  • the second MR image 330 in which the plurality of first MR images are combined may include a target image and an image aliased in the phase encoding direction Ky.
  • the first input image data 340 is generated by pre-processing the first MR image. The same process as step S240 may be performed.
  • the second MR image 330 is shifted so that the aliased image matches the target image.
  • the step of generating the first input image data 340 by stacking and grouping in the first direction Kz perpendicular to (Kx) (not shown) may be performed.
  • the first input image data 340 with high accuracy may be generated and input to an artificial neural network to be described later.
  • step S240 a step S250 of obtaining a first output MR image 350 from the first input image data 340 using the first artificial neural network model 500 may be performed.
  • FIG. 9 is a schematic diagram illustrating a step of acquiring a first output MR image 350 from first input image data 340 using the first artificial neural network model 500 according to an embodiment of the present invention.
  • the first artificial neural network model 500 is an algorithm for learning a correlation between at least one sub-sampled MR image and at least one full-sampled MR image using the statistical machine learning results. It can be a set.
  • the first artificial neural network model 500 may include at least one neural network.
  • the neural network may include network models such as Deep Neural Network (DNN), Recurrent Neural Network (RNN), Bidirectional Recurrent Deep Neural Network (BRDNN), Multilayer Perceptron (MLP), Convolutional Neural Network (CNN).
  • DNN Deep Neural Network
  • RNN Recurrent Neural Network
  • BBDNN Bidirectional Recurrent Deep Neural Network
  • MLP Multilayer Perceptron
  • CNN Convolutional Neural Network
  • the present invention is not limited thereto.
  • the first artificial neural network model 500 stacks a correlation between at least one sub-sampled MR image and at least one full-sampled MR image according to the phase encoding direction (Ky) using a neural network. It may be a model built by learning pixels of at least one sampling line as a unit.
  • the first artificial neural network model 500 may be constructed using various additional data in addition to the sub-sampled MR image and the full-sampled MR image.
  • additional data k-space data corresponding to the first MR image, real image data, imaginary image data, magnitude image data, phase image data, sensitivity data of a multi-channel RF coil, and noise pattern image (NP) At least one of the data may be used.
  • FIG. 10 is a schematic diagram showing the structure of the first artificial neural network model 500 according to an embodiment of the present invention.
  • the first neural network model may have a U-net structure including a contracting path 510 and an expanding path 520 .
  • the contracting path 510 may be configured to include a plurality of convolution (Conv) layers and a pooling (Pooling) layer.
  • the contracting path 510 may be configured by using a plurality of 3x3 convolutional layers as an input layer and including a plurality of combinations of pooling layers to which a wavelet transform is applied.
  • the expanding path 520 may be configured to include a plurality of convolutional layers and an un-pooling layer.
  • the expanding path 520 includes a plurality of combinations of a plurality of 3x3 convolution layers and an unpooling layer to which Inverse Wavelet Transform is applied, and further includes a 1x1 convolution layer as an output layer.
  • a noise pattern image NP which will be described later, is input to each part of the expanding path 520 to learn the first artificial neural network.
  • 11 is a diagram for explaining a noise pattern image NP applied as training data to an artificial neural network model according to an embodiment of the present invention.
  • 12 is a diagram for explaining a hallucination mitigation effect of applying a noise pattern image (NP) as training data to an artificial neural network model according to an embodiment of the present invention.
  • the noise pattern image NP may be an image divided and displayed by applying a weight based on the degree of noise generation according to each part of the object in the reconstructed image.
  • the noise pattern image NP may be a pattern image generated according to noise detected by comparing an image reconstructed by applying a general artificial neural network model to a sub-sampled MR image with a full-sampled MR image.
  • a contrast image 1130 in which the reconstructed image 1120 output by using the sub-sampled MR image 1110 as an input to the artificial neural network model and the full-sampled MR image are compared.
  • PC poor-conditioned part
  • GC part (good-conditioned; GC) in which relatively little noise is generated.
  • a noise pattern image NP is generated based on the difference in noise generation for each part of the object.
  • the reconstructed image 1150 output by using the sub-sampled MR image 1140 and the noise pattern image NP as input to the artificial neural network model and the full-sampled MR image are compared. Looking at the contrast image 1160 , it can be seen that noise is reduced over the entire image.
  • an artificial neural network model in which a full-sampled MR image 1210 , a sub-sampled MR image 1220 , and a sub-sampled MR image 1220 are input in order from the left is used. Then, the outputted reconstructed image 1240 may be checked using the artificial neural network model to which the outputted reconstructed image 1230 , the sub-sampled MR image 1220 , and the noise pattern image NP are input.
  • the first artificial neural network model 500 may be an input of the noise pattern image NP generated based on the first magnetic resonance image. That is, the first artificial neural network model 500 may perform a process of outputting the first output MR image 350 using the first input image data 340 and the noise pattern image NP as input data.
  • the noise pattern image NP may be input to at least one of a plurality of convolutional layers and unpooling layers of an expanding path 520 of the first artificial neural network model 500 .
  • the noise pattern image NP may be input to a convolution layer that is an output layer of the expanding path 520 , and may be inputted after being pooled according to the image size of each unpooling layer.
  • the magnetic resonance image processing apparatus 100 may build the above-described first artificial neural network model 500 by itself. In another embodiment, the magnetic resonance image processing apparatus 100 may obtain the first artificial neural network model 500 built in an external server or an external device from an external server or an external device. Then, the magnetic resonance image processing apparatus 100 obtains a first output magnetic resonance image 350 that is a reconstructed image of the sub-sampled magnetic resonance image based on the first artificial neural network model 500 using the neural network. It can achieve the purpose of accelerating image acquisition speed and improving image quality.
  • the first output magnetic resonance image 350 obtained here may be provided to the user terminal and utilized for diagnosing a lesion site of a patient. Meanwhile, an additional MR image processing step may be performed to increase the accuracy of the first output MR image 350 .
  • FIG. 13 is a flowchart illustrating a sequence of a magnetic resonance image processing method according to an extended embodiment including the magnetic resonance image processing method according to an embodiment of the present invention.
  • 14 is a schematic diagram illustrating a magnetic resonance image processing method according to an extended embodiment of the present invention.
  • step S250 after step S250 , a step S260 of obtaining second k-space data 360 from the first output MR image 350 using a Fourier operation may be performed. have.
  • 15 is a flowchart illustrating a second output magnetic resonance image 400 acquisition step and a second k-space data 360 acquisition step according to an extended embodiment of the present invention.
  • a plurality of second output MR images 400 are decombined by decombining the first output MR images 350 .
  • the step of decombining the first output MR image 350 to obtain a plurality of second output MR images 400 uses the following [Equation 3] or [Equation 4] may be performed.
  • Equation 3 is an equation applicable when the first output MR image 350 is obtained according to complex-value information.
  • Equation 4 is an equation that can be applied when the first output MR image 350 is obtained according to real-valued information.
  • the phase information of the first output MR image 350 may be obtained by extracting the complex-valued phase information in the above-described combining process. Accordingly, the first output MR images 350 may be decombined based on sensitivity information of each RF coil to generate a plurality of MR images.
  • the step of obtaining the second k-space data 360 includes obtaining the second k-space data 360 from the first output magnetic resonance image 350 using a Fourier operation ( S262 ). may include. Accordingly, a plurality of second k-space data 360 may be obtained by applying a Fourier transform to the plurality of MR images generated from the first output MR image 350 .
  • the step S270 of obtaining the third k-space data 370 from the second k-space data 360 by using the second parallel operation technique may be performed.
  • the second parallel calculation technique may be a parallel calculation technique capable of obtaining the corrected, fully sampled third k-space data 370 from the fully sampled second k-space data 360 .
  • SPIRiT spirit
  • step S280 of obtaining a third MR image from the third k-space data 370 by using an inverse Fourier operation may be performed.
  • a step (S290) of generating the second input image data 390 by pre-processing the third MR image may be performed.
  • the method for generating the second input image data 390 by pre-processing the third MR image is the same as the above-described step of pre-processing the first MR image to generate the first input image data 340 ( S240 ). This can be done.
  • the step of generating the second input image data 390 by pre-processing the third MR image includes combining a plurality of third MR images to form a single fourth MR image. It may include acquiring the resonance image 380 .
  • the method of acquiring a single fourth MR image 380 by combining a plurality of third MR images is a method of acquiring a single second MR image 330 by combining the above-described first MR images. The same method can be used.
  • the step of generating the second input image data 390 by pre-processing the third MR image includes the step of pre-processing the fourth MR image 380 to generate the second input image data 390 .
  • the method of generating the second input image data 390 by pre-processing the fourth MR image 380 is a method of generating the first input image data 340 by pre-processing the second MR image 330 .
  • the same method can be used.
  • step S290 a step S300 of obtaining a third output MR image from the second input image data 390 by using the second artificial neural network model 600 may be performed.
  • the second artificial neural network model 600 may use the same artificial neural network model as the first artificial neural network model 500 described above.
  • the first artificial neural network model 500 obtained by additionally learning the first input image data 340 may be used, or an artificial neural network model different from the first artificial neural network model 500 may be used.
  • step S300 the second output MR image 400 is Fourier transformed and/or decombined again, and the fourth k-space data 410 is obtained by Fourier transform, and based on this, in step S260
  • the process up to step S300 may be repeatedly performed as a set.
  • the second output magnetic resonance image 400 may be provided to the user terminal and used as a diagnosis image of a lesion site of a patient.
  • 16 is a view showing a 4-fold accelerated reconstructed image according to an experimental example of the present invention together with a comparative example.
  • the acceleration index may be 4, and the number of sub-sampled lines may be 1/4 of the number of full-sampled lines.
  • the MR image 1640 reconstructed through , and the MR image 1650 reconstructed by the MR image processing apparatus 100 according to the present invention may be identified.
  • an image obtained by amplifying an erroneous image with a difference imaged by 4 times in comparison with the full-sampled MR image 1610 under each image can be identified, which is restored by the MR image processing apparatus 100 according to the present invention. It can be seen that the error of the MR image 1650 is the smallest.
  • FIG. 17 is a view showing a 6-fold accelerated reconstructed image according to another experimental example of the present invention together with a comparative example.
  • the acceleration index may be 6, and the number of sub-sampled lines may be 1/6 of the number of full-sampled lines.
  • the MR image 1740 reconstructed through , and the MR image 1750 reconstructed by the MR image processing apparatus 100 according to the present invention may be identified.
  • an image obtained by amplifying an error image whose difference is analyzed by 4 times in comparison with the fully sampled MR image 1710 under each image can be identified, which is restored by the MR image processing apparatus 100 according to the present invention. It can be seen that the error of the MR image 1750 is the smallest.
  • the magnetic resonance image processing apparatus 100 and the method thereof according to the embodiments of the present invention described above reduce the time for photographing the magnetic resonance image with the magnetic resonance imaging apparatus, but the magnetic resonance image with high accuracy through image restoration has the effect of creating
  • the magnetic resonance image processing apparatus 100 and the method according to the embodiments of the present invention obtain a plurality of magnetic resonance images, pre-process them to generate input data, and include the first artificial neural network model 500 and the first artificial neural network model 500 and the second method. 2
  • the artificial neural network model 600 By using the artificial neural network model 600 to provide a reconstructed high-accuracy output magnetic resonance image, it has the effect of facilitating the diagnosis of the patient's lesion site.
  • the magnetic resonance image processing method may also be implemented in the form of a recording medium including instructions executable by a computer, such as a program module executed by a computer.
  • Computer-readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media.
  • Computer-readable media may include computer storage media.
  • Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data.

Landscapes

  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Medical Informatics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Psychiatry (AREA)
  • Physiology (AREA)
  • Mathematical Optimization (AREA)
  • Algebra (AREA)
  • Mathematical Analysis (AREA)
  • Pure & Applied Mathematics (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

본 발명의 일 실시예에 따른, 자기 공명 영상 처리 장치에 의한 자기 공명 영상 처리 방법에 있어서, 서브 샘플링된 자기 공명 신호를 획득하는 단계; 서브 샘플링된 자기 공명 신호로부터 제1 병렬 영상 기법을 이용하여 제1 k-space 데이터를 획득하는 단계; 제1 k-space 데이터로부터 역 퓨리에 연산을 이용하여 제1 자기 공명 영상을 획득하는 단계; 제1 자기 공명 영상을 전처리하여 제1 입력 영상 데이터를 생성하는 단계; 및 제1 입력 영상 데이터로부터 제1 인공 신경망 모델을 이용하여 제1 출력 자기 공명 영상을 획득하는 단계를 포함하는, 자기 공명 영상 처리 방법을 제공하고자 한다.

Description

자기 공명 영상 처리 장치 및 그 방법
본 발명은 자기 공명 영상 처리 장치 및 그 방법에 관한 것으로서 인공 신경망을 이용하여 자기 공명 신호로부터 자기 공명 영상을 획득하는 것을 가속화하는 자기 공명 영상 처리 장치 및 그 방법에 관한 것이다.
일반적으로 의료용 영상 장치는 환자의 신체 정보를 획득하여 영상을 제공하는 장치이다. 의료용 영상 장치는 X선 촬영 장치, 초음파 진단 장치, 컴퓨터 단층 촬영 장치, 자기 공명 영상(Magnetic Resonance Imaging, MRI) 촬영 장치 등이 있다.
여기서, 자기 공명 영상은 인체에 해가 없는 자장과 비전리 방사선을 이용하여 체내의 수소 원자핵에 핵자기 공명 현상을 일으켜 원자핵의 밀도 및 물리/화학적 특성을 영상화한 것이다. 자기 공명 영상 촬영 장치는 영상 촬영 조건이 상대적으로 자유롭고, 연부 조직에서의 다양한 진단 정보를 포함하고 우수한 대조도를 가지는 영상을 제공해주기 때문에 의료용 영상을 이용한 진단 분야에서 중요한 위치를 차지하고 있다.
구체적으로, 자기 공명 영상 촬영 장치는 원자핵에 일정한 자기장을 가한 상태에서 일정한 주파수의 에너지를 공급하여 원자핵으로부터 방출된 에너지를 신호로 변환하여 인체 내부를 진단하는 영상 진단 장치이다. 원자핵을 구성하는 양성자는 스스로가 스핀 각운동량과 자기 쌍극자를 갖기 때문에 자기장을 가해주면 자기장의 방향으로 정렬되고, 자기장의 방향을 중심으로 원자핵이 세차운동을 한다. 이러한 세차운동에 의해 핵자기 공명 현상을 통한 인체의 영상을 획득할 수 있다.
한편, 자기 공명 영상 촬영 장치에 의한 촬영은 촬영 부위와 MR 영상의 종류 등에 따라 짧게는 20여분에서 길게는 1시간 이상이 소요될 수 있다. 즉, 자기 공명 영상 촬영 장치의 촬영 시간은 다른 의료용 영상 촬영 장치에 비해 상대적으로 길다는 단점이 있다. 이러한 단점은 환자에게 촬영 부담을 줄 수 있으며, 특히 폐소공포증이 있는 환자에게는 시행 자체를 곤란하게 한다. 따라서, 촬영 시간을 단축하려는 기술들이 최근까지 개발되고 있으며, 더불어 영상의 질적인 면에서도 개선이 요구되고 있는 실정이다.
본 발명에 따른 자기 공명 영상 처리 장치 및 그 방법은 자기 공명 영상 촬영 시간을 단축시켜도 양질의 복원 영상을 획득할 수 있는 자기 공명 영상 처리 장치 및 그 방법을 제공하여 환자의 병변 부위 진단을 용이하게 하고자 한다.
본 발명의 일 실시예에 따른, 자기 공명 영상 처리 장치에 의한 자기 공명 영상 처리 방법에 있어서, 서브 샘플링된 자기 공명 신호를 획득하는 단계; 서브 샘플링된 자기 공명 신호로부터 제1 병렬 영상 기법을 이용하여 제1 k-space 데이터를 획득하는 단계; 제1 k-space 데이터로부터 역 퓨리에 연산을 이용하여 제1 자기 공명 영상을 획득하는 단계; 제1 자기 공명 영상을 전처리하여 제1 입력 영상 데이터를 생성하는 단계; 및 제1 입력 영상 데이터로부터 제1 인공 신경망 모델을 이용하여 제1 출력 자기 공명 영상을 획득하는 단계를 포함하는, 자기 공명 영상 처리 방법을 제공하고자 한다.
본 실시예에 있어서, 서브 샘플링된 자기 공명 신호가 복수개인 경우 제1 k-space 데이터 및 제1 자기 공명 영상은 각각 복수개로 획득되고, 제1 자기 공명 영상을 전처리하여 제1 입력 영상 데이터를 생성하는 단계는, 복수개의 제1 자기 공명 영상을 컴바인(combine)하여 단일의 제2 자기 공명 영상을 획득하는 단계; 및 제2 자기 공명 영상을 전처리하여 제1 입력 영상 데이터를 생성하는 단계를 포함하는, 자기 공명 영상 처리 방법을 제공할 수 있다.
본 실시예에 있어서, 복수개의 제1 자기 공명 영상을 컴바인하여 단일의 제2 자기 공명 영상을 획득하는 단계는 아래의 [수학식1]을 이용하여 수행되는 것인, 자기 공명 영상 처리 방법을 제공할 수 있다.
[수학식1]
Figure PCTKR2020006853-appb-I000001
Figure PCTKR2020006853-appb-I000002
Figure PCTKR2020006853-appb-I000003
Figure PCTKR2020006853-appb-I000004
Figure PCTKR2020006853-appb-I000005
Figure PCTKR2020006853-appb-I000006
Figure PCTKR2020006853-appb-I000007
본 실시예에 있어서, 복수개의 제1 자기 공명 영상을 컴바인하여 단일의 제2 자기 공명 영상을 획득하는 단계는 아래의 [수학식2]를 이용하여 수행되는 것인, 자기 공명 영상 처리 방법을 제공할 수 있다.
[수학식2]
Figure PCTKR2020006853-appb-I000008
Figure PCTKR2020006853-appb-I000009
Figure PCTKR2020006853-appb-I000010
Figure PCTKR2020006853-appb-I000011
본 실시예에 있어서, 제1 자기 공명 영상은 타겟 이미지와 위상 인코딩 방향으로 엘리어싱된 이미지를 포함하고, 제1 자기 공명 영상을 전처리하여 제1 입력 영상 데이터를 생성하는 단계는, 엘리어싱된 이미지가 타겟 이미지에 매칭되도록 제1 자기 공명 영상을 쉬프트(shift)하여 쉬프트된 제1 자기 공명 영상을 획득하는 단계; 및 제1 자기 공명 영상과 쉬프트된 제1 자기 공명 영상을 위상 인코딩 방향 및 리드아웃 방향에 각각 수직하는 제1방향을 따라 스택(stack)하고 그룹화(grouping)하여 제1 입력 영상 데이터를 생성하는 단계를 포함하는, 자기 공명 영상 처리 방법을 제공할 수 있다.
본 실시예에 있어서, 제2 자기 공명 영상은 타겟 이미지와 위상 인코딩 방향으로 엘리어싱된 이미지를 포함하고, 제2 자기 공명 영상을 전처리하여 제1 입력 영상 데이터를 생성하는 단계는, 엘리어싱된 이미지가 타겟 이미지에 매칭되도록 제2 자기 공명 영상을 쉬프트하여 쉬프트된 제2 자기 공명 영상을 획득하는 단계; 및 제2 자기 공명 영상과 쉬프트된 제2 자기 공명 영상을 위상 인코딩 방향 및 리드아웃 방향에 수직하는 제1방향을 따라 스택하고 그룹화하여 제1 입력 영상 데이터를 생성하는 단계를 포함하는, 자기 공명 영상 처리 방법을 제공할 수 있다.
본 실시예에 있어서, 제1 인공 신경망 모델은 제1 자기 공명 영상을 기초로 생성된 노이즈 패턴 영상이 입력되는 것인, 자기 공명 영상 처리 방법을 제공할 수 있다.
본 실시예에 있어서, 제1 인공 신경망 모델은 컨트랙팅 패쓰(Contracting path)와 익스팬딩 패쓰(Expanding path)를 포함하는 인공 신경망 구조를 가지고, 컨트랙팅 패쓰(Contracting path)는 복수개의 컨볼루션(Convolution) 레이어와 풀링(Pooling) 레이어를 포함하여 구성된 것이고, 익스팬딩 패쓰(Expanding path)는 복수개의 컨볼루션 레이어와 언풀링(Unpooling) 레이어를 포함하여 구성된 것이며, 노이즈 패턴 영상은 익스팬딩 패쓰(Expanding path)의 복수개의 컨볼루션 레이어 및 언풀링 레이어 중 적어도 어느 하나에 입력되는 것인, 자기 공명 영상 처리 방법을 제공할 수 있다.
본 발명의 확장된 실시예에 있어서, 제1 출력 자기 공명 영상으로부터 퓨리에 연산을 이용하여 제2 k-space 데이터를 획득하는 단계를 포함하고, 제2 k-space 데이터를 획득하는 단계는, 제1 출력 자기 공명 영상을 디컴바인(decombine)하여 복수개의 제2 출력 자기 공명 영상을 획득하는 단계; 및 제2 출력 자기 공명 영상으로부터 퓨리에 연산을 이용하여 제2 k-space 데이터를 획득하는 단계를 포함하는, 자기 공명 영상 처리 방법을 제공할 수 있다.
본 실시예에 있어서, 제1 출력 자기 공명 영상을 디컴바인(decombine)하여 복수개의 제2 출력 자기 공명 영상을 획득하는 단계는 아래의 [수학식3] 또는 [수학식4]를 이용하여 수행되는 것인, 자기 공명 영상 처리 방법을 제공할 수 있다.
[수학식3]
Figure PCTKR2020006853-appb-I000012
Figure PCTKR2020006853-appb-I000013
Figure PCTKR2020006853-appb-I000014
Figure PCTKR2020006853-appb-I000015
[수학식4]
Figure PCTKR2020006853-appb-I000016
Figure PCTKR2020006853-appb-I000017
Figure PCTKR2020006853-appb-I000018
Figure PCTKR2020006853-appb-I000019
Figure PCTKR2020006853-appb-I000020
본 실시예에 있어서, 제2 k-space 데이터로부터 제2 병렬 연산 기법을 이용하여 제3 k-space 데이터를 획득하는 단계를 포함하는, 자기 공명 영상 처리 방법을 제공할 수 있다.
본 실시예에 있어서, 제3 k-space 데이터로부터 역 퓨리에 연산을 이용하여 제3 자기 공명 영상을 획득하는 단계; 제3 자기 공명 영상을 전처리하여 제2 입력 영상 데이터를 생성하는 단계; 및 제2 입력 영상 데이터로부터 제2 인공 신경망 모델을 이용하여 제3 출력 자기 공명 영상을 획득하는 단계를 포함하는, 자기 공명 영상 처리 방법을 제공할 수 있다.
본 발명의 일 실시예에 따른 자기 공명 영상 처리 방법을 실행하기 위한 자기 공명 영상 처리 장치에 있어서, 자기 공명 영상 처리 프로그램이 저장된 메모리; 및 프로그램을 실행하는 프로세서를 포함하고, 프로세서는 프로그램의 실행에 따라, 서브 샘플링된 자기 공명 신호를 획득하고, 서브 샘플링된 자기 공명 신호로부터 제1 병렬 영상 기법을 이용하여 제1 k-space 데이터를 획득하고, 제1 k-space 데이터로부터 역 퓨리에 연산을 이용하여 제1 자기 공명 영상을 획득하고, 제1 자기 공명 영상을 전처리하여 제1 입력 영상 데이터를 생성하고, 제1 입력 영상 데이터로부터 제1 인공 신경망 모델을 이용하여 제1 출력 자기 공명 영상을 획득하는, 자기 공명 영상 처리 장치를 제공하고자 한다.
본 발명에 따른 자기 공명 영상 처리 장치 및 그 방법은 자기 공명 영상 촬영 시간을 단축시켜도 양질의 복원 영상을 획득할 수 있는 자기 공명 영상 처리 장치 및 그 방법을 제공하여 환자의 병변 부위 진단을 용이하게 할 수 있다.
또한, 본 발명의 실시예들에 따른 자기 공명 영상 처리 장치 및 그 방법은 복수개의 자기 공명 영상을 획득하고, 이를 전처리하여 생성된 입력 데이터로부터 제1 인공 신경망 모델 및 제2 인공 신경망 모델을 활용하여 복원된 정확도 높은 출력 자기 공명 영상을 제공하는 것으로서 환자의 병변부위 진단을 용이하게 하는 효과가 있다.
도 1은 본 발명의 일 실시예에 따른 자기 공명 영상 처리 장치의 구성을 보여주는 구성도이다.
도 2는 본 발명의 일 실시예에 따른 자기 공명 영상 처리 방법의 순서를 보여주는 순서도이다.
도 3은 본 발명의 일 실시예에 따른 자기 공명 영상 처리 방법을 보여주는 개략도이다.
도 4는 본 발명의 일 실시예에 따른 풀 샘플링과 서브 샘플링의 차이점을 설명하기 위한 개략도이다.
도 5는 본 발명의 일 실시예에 따른 병렬 영상 기법인 그라파(GRAPPA)와 스피릿(SPIRiT)의 차이점을 설명하기 위한 개략도이다.
도 6은 본 발명의 일 실시예에 따른 제1 자기 공명 영상을 전처리하는 방법의 순서를 보여주는 순서도이다.
도 7은 본 발명의 일 실시예에 따른 제1 자기 공명 영상을 전처리하는 방법을 보여주는 개략도이다.
도 8은 본 발명의 변형된 실시예에 따른, 제1 자기 공명 영상을 전처리하여 제1 입력 영상 데이터를 생성하는 방법의 순서를 보여주는 순서도이다.
도 9는 본 발명의 일 실시예에 따른 제1 인공 신경망 모델을 이용하여 제1 입력 영상 데이터로부터 제1 출력 자기 공명 영상을 획득하는 단계를 보여주는 개략도이다.
도 10은 본 발명의 일 실시예에 따른 제1 인공 신경망 모델의 구조를 보여주는 개략도이다.
도 11은 본 발명의 일 실시예에 따른 인공 신경망 모델에 학습 데이터로 적용되는 노이즈 패턴 영상을 설명하기 위한 도면이다.
도 12는 본 발명의 일 실시예에 따른 인공 신경망 모델에 노이즈 패턴 영상을 학습 데이터로 적용하여 환영(hallucination)을 완화시킨 효과를 보여주는 도면이다.
도 13은 본 발명의 일 실시예에 따른 자기 공명 영상 처리 방법을 포함하는 확장된 실시예에 따른 자기 공명 영상 처리 방법의 순서를 보여주는 순서도이다.
도 14는 본 발명의 본 발명의 확장된 실시예에 따른 자기 공명 영상 처리 방법을 보여주는 개략도이다.
도 15는 본 발명의 확장된 실시예에 따른 제2 출력 자기 공명 영상 획득 단계 및 제2 k-space 데이터 획득 단계를 보여주는 순서도이다.
도 16은 본 발명의 일 실험예에 따른 4배 가속화된 복원 영상을 비교예와 함께 보여주는 도면이다.
도 17은 본 발명의 다른 실험예에 따른 6배 가속화된 복원 영상을 비교예와 함께 보여주는 도면이다.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본원의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위한 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
본 명세서가 실시예들의 모든 요소들을 설명하는 것은 아니며, 본 발명이 속하는 기술분야에서 일반적인 내용 또는 실시예들 간에 중복되는 내용은 생략한다. 명세서에서 사용되는 ‘부’(part, portion)라는 용어는 소프트웨어 또는 하드웨어로 구현될 수 있으며, 실시예들에 따라 복수의 ‘부’가 하나의 요소(unit, element)로 구현되거나, 하나의 ‘부’가 복수의 요소들을 포함하는 것도 가능하다.
본 명세서에서 '영상'은 이산적인 이미지 요소들(예를 들어, 2차원 이미지에 있어서의 픽셀들 및 3차원 이미지에 있어서의 복셀들)로 구성된 다차원(multi-dimensional) 데이터를 의미할 수 있다. 예를 들어, 영상은 자기 공명 영상 촬영 장치, 컴퓨터 단층 촬영(CT) 장치, 초음파 촬영 장치, 또는 엑스레이 촬영 장치 등의 의료 영상 장치에 의해 획득된 의료 영상을 포함할 수 있다.
본 명세서에서 '대상체(object)'는 촬영의 대상이 되는 것으로서, 사람, 동물, 또는 그 일부를 포함할 수 있다. 예를 들어, 대상체는 신체의 일부(장기 또는 기관 등; organ) 또는 팬텀(phantom) 등을 포함할 수 있다. 팬텀은 생물의 밀도와 실효 원자 번호에 아주 근사한 부피를 갖는 물질을 의미하는 것으로, 신체와 유사한 성질을 갖는 구형(sphere)의 팬텀을 포함할 수 있다.
자기 공명 영상(Magnetic Resonance Image, MRI) 시스템은 특정 세기의 자기장에서 발생하는 RF(Radio Frequency) 신호에 대한 자기 공명(Magnetic Resonance, MR) 신호의 세기를 명암 대비로 표현하여 대상체의 단층 부위에 대한 이미지를 획득하는 시스템이다.
구체적으로, MRI 시스템은 주자석이 정자장(static magnetic field)을 형성하도록 하고, 정자장 속에 위치한 대상체의 특정 원자핵의 자기 쌍극자 모멘트 방향을 정자장 방향으로 정렬시킨다. 경사자장 코일은 정자장에 경사 신호를 인가하여, 경사자장을 형성시켜, 대상체의 부위 별로 공명 주파수를 다르게 유도할 수 있다. RF 코일은 영상 획득을 원하는 부위의 공명 주파수에 맞추어 자기 공명 신호를 조사할 수 있다. 또한, RF 코일은 경사자장이 형성됨에 따라, 대상체의 여러 부위로부터 방사되는 서로 다른 공명 주파수의 자기 공명 신호들을 수신할 수 있다. MRI 시스템은 이러한 단계를 통해 수신된 자기 공명 신호들에 영상 복원 기법을 적용하여 영상을 획득한다. 또한, MRI 시스템은 다채널 RF 코일에 의해 수신되는 복수의 자기 공명 신호에 대하여 직렬적 또는 병렬적 신호 처리를 수행하여 복수의 자기 공명 신호를 영상 데이터로 재구성할 수도 있다.
이하에서는 본 발명의 일 실시예에 따른 자기 공명 영상 처리 장치(100)에 대하여 설명하기로 한다.
본 발명의 일 실시예에 따른 자기 공명 영상 처리 장치(100)는 전술한 MRI 시스템에 직/간접적으로 적용되어 자기 공명 신호로부터 자기 공명 영상을 획득하는 것을 가속화하는 자기 공명 영상 처리 장치(100)에 관한 것이다.
자기 공명 영상 처리 장치(100)는, 자체적으로 자기 공명 신호를 감지하여 자기 공명 영상을 획득할 수 있는 MRI 시스템뿐만 아니라, 외부에서 획득된 영상을 처리하는 영상 처리 장치, 자기 공명 영상에 대한 프로세싱 기능을 구비한 스마트폰, 태블릿 PC, PC, 스마트 TV, 마이크로 서버, 기타 가전 기기 및 기타 모바일 또는 비 모바일 컴퓨팅 장치일 수 있으나 이에 제한되지 않는다. 또한, 자기 공명 영상 처리 장치(100)는 통신 기능 및 데이터 프로세싱 기능을 구비한 시계, 안경, 헤어 밴드 및 반지 등의 웨어러블 디바이스일 수 있다.
도 1은 본 발명의 일 실시예에 따른 자기 공명 영상 처리 장치(100)의 구성을 보여주는 구성도이다.
도 1을 참조하면, 자기 공명 영상 처리 장치(100)는 통신 모듈(110), 메모리(120), 프로세서(130), 데이터베이스(DB: 140)를 포함할 수 있다.
통신 모듈(110)은 통신망과 연동하여 자기 공명 영상 처리 장치(100)에 통신 인터페이스를 제공하는데, MRI 촬영 장치, 사용자 단말 및 관리 서버와 데이터를 송수신하는 역할을 수행할 수 있다. 여기서, 통신 모듈은 다른 네트워크 장치와 유무선 연결을 통해 제어 신호 또는 데이터 신호와 같은 신호를 송수신하기 위해 필요한 하드웨어 및 소프트웨어를 포함하는 장치일 수 있다.
메모리(120)는 자기 공명 영상 처리 프로그램이 기록된 저장 매체일 수 있다. 또한, 메모리(120)는 프로세서가 처리하는 데이터를 일시적 또는 영구적으로 저장하는 기능을 수행할 수 있다. 여기서, 메모리(120)는 휘발성 저장 매체(volatile storage media) 또는 비휘발성 저장 매체(non-volatile storage media)를 포함할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.
프로세서(130)는 자기 공명 영상 처리 장치(100)에서 자기 공명 영상 처리 프로그램이 수행하는 전체 과정을 제어할 수 있다. 프로세서(130)가 수행하는 과정의 각 단계에 대해서는 도 2 내지 도 15를 참조하여 후술하기로 한다.
여기서, 프로세서(130)는 프로세서(processor)와 같이 데이터를 처리할 수 있는 모든 종류의 장치를 포함할 수 있다. 여기서, '프로세서(processor)'는, 예를 들어 프로그램 내에 포함된 코드 또는 명령으로 표현된 기능을 수행하기 위해 물리적으로 구조화된 회로를 갖는, 하드웨어에 내장된 데이터 처리 장치를 의미할 수 있다. 이와 같이 하드웨어에 내장된 데이터 처리 장치의 일 예로서, 마이크로프로세서(microprocessor), 중앙처리장치(central processing unit: CPU), 프로세서 코어(processor core), 멀티프로세서(multiprocessor), ASIC(application-specific integrated circuit), FPGA(field programmable gate array) 등의 처리 장치를 망라할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.
데이터베이스(140)는 자기 공명 영상 처리 장치(100)가 프로그램을 실행하기 위해 필요한 각종 데이터가 저장된 것일 수 있다. 예를 들어, 데이터베이스에는 후술할 인공 신경망의 학습 데이터, 자기 공명 신호(310) 데이터, k-space 데이터 및 자기 공명 영상 데이터 등이 저장된 것일 수 있다.
한편, 본 발명에서 ‘단말’은 휴대성 및 이동성이 보장된 무선 통신 장치일 수 있으며, 예를 들어 스마트폰, 태블릿 PC 또는 노트북 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치일 수 있다. 또한 ‘단말’은 통신 기능 및 데이터 프로세싱 기능을 구비한 시계, 안경, 헤어 밴드, 및 반지 등의 웨어러블 기기일 수도 있다. 또한, ‘단말’은 네트워크를 통해 다른 단말 또는 서버 등에 접속할 수 있는 PC 등의 유선 통신 장치인 것도 가능하다.
또한, 네트워크는 단말들 및 서버들과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 근거리 통신망(LAN: Local Area Network), 광역 통신망(WAN: Wide Area Network), 인터넷 (WWW: World Wide Web), 유무선 데이터 통신망, 전화망, 유무선 텔레비전 통신망 등을 포함한다. 무선 데이터 통신망의 일례에는 3G, 4G, 5G, 3GPP(3rd Generation Partnership Project), LTE(Long Term Evolution), WIMAX(World Interoperability for Microwave Access), 와이파이(Wi-Fi), 블루투스 통신, 적외선 통신, 초음파 통신, 가시광 통신(VLC: Visible Light Communication), 라이파이(LiFi) 등이 포함되나 이에 한정되지는 않는다.
이하에서는, 본 발명의 일 실시예에 따른 자기 공명 영상 처리 장치(100)에 의해 수행되는 자기 공명 영상 처리 방법에 대하여 상세히 설명하기로 한다. 도 2는 본 발명의 일 실시예에 따른 자기 공명 영상 처리 방법의 순서를 보여주는 순서도이다. 도 3은 본 발명의 일 실시예에 따른 자기 공명 영상 처리 방법을 보여주는 개략도이다.
도 2 및 도 3을 참조하면 본 발명의 일 실시예에 따른 자기 공명 영상 처리 장치(100)에 의해 수행되는 자기 공명 영상 처리 방법에 있어서, 먼저 서브 샘플링된 자기 공명 신호(310)를 획득하는 단계(S210)가 수행될 수 있다.
도 4는 본 발명의 일 실시예에 따른 풀 샘플링과 서브 샘플링의 차이점을 설명하기 위한 개략도이다.
도 4를 참조하면, 서브 샘플링된 자기 공명 신호(310)는 나이키스트 샘플링 레이트보다 낮은 샘플링 레이트로 샘플링된 자기 공명 신호(310)일 수 있다. 또한, 서브 샘플링된 자기 공명 영상은 나이키스트 샘플링 레이트보다 낮은 샘플링 레이트로 자기 공명 신호(310)를 샘플링하여 획득된 영상이다. 서브 샘플링된 자기 공명 영상은 엘리어싱 아티팩트(aliasing artifact)를 포함하는 영상일 수 있다. 엘리어싱 아티팩트는 스캔한 대상체가 FOV(field of view)보다 클 때 자기 공명 영상에 발생하는 인공적인 이미지일 수 있다. 한편, 풀 샘플링된 자기 공명 영상은 나이키스트 샘플링 레이트 이상의 샘플링 레이트로 k-space 데이터를 샘플링하여 획득된 영상일 수 있다.
예를 들어, 풀 샘플링된 자기 공명 신호(310)의 라인(line) 수가 n개이고 서브 샘플링된 자기 공명 신호(310)의 라인(line) 수가 n/2개일 수 있다. 여기서 샘플링 라인의 감소된 정도가 1/2 배수이면 자기 공명 영상 촬영의 가속화 지수가 2라고 할 수 있다. 샘플링 라인의 감소된 정도가 1/3 배수, 1/4 배수이면 가속화 지수는 각각 3, 4라고 할 수 있다.
그리고, 서브 샘플링 방법은 균일 서브 샘플링과 비균일 서브 샘플링으로 나뉠 수 있다. 균일 서브 샘플링은 샘플링되는 라인의 간격을 일정하게 유지하여 샘플링을 수행하는 것일 수 있다. 반면, 비균일 서브 샘플링은 일반적으로 샘플링 데이터의 중앙 부분으로 갈수록 샘플링되는 라인의 간격을 좁혀 샘플링을 많이 하고, 중앙 부분에서 멀어질수록 샘플링되는 라인의 간격을 넓히면서 샘플링을 적게하는 것을 의미할 수 있다.
한편, 자기 공명 영상 처리 장치(100)는 MRI 시스템에 포함되어, RF 코일로부터 수신한 자기 공명 신호에 기초하여, 서브 샘플링된 자기 공명 신호(310)에 대응되는 입력 데이터를 획득할 수 있다. 또한, 자기 공명 영상 처리 장치(100)는 외부의 자기 공명 영상 촬영 장치, 외부 서버 및 데이터 베이스 중 적어도 어느 하나로부터 서브 샘플링된 자기 공명 신호(310)에 대응되는 입력 데이터를 획득할 수도 있다.
다시 도 2 및 도 3을 참조하면 단계(S210) 다음으로, 서브 샘플링된 자기 공명 신호(310)로부터 제1 병렬 영상 기법을 이용하여 제1 k-space 데이터(320)를 획득하는 단계(S220)가 수행될 수 있다.
여기서, 병렬 영상 기법은 서브 샘플링된 자기 공명 신호(310) 및/또는 k-space 데이터로부터 풀 샘플링된 k-space 데이터 및/또는 자기 공명 영상과 같이 정확도 높은 k-space 데이터 및/또는 자기 공명 영상을 획득하기 위한 일종의 영상 복원 기법이다.
병렬 영상 기법에 따른 영상 복원의 수행에 있어, 공지 기술인 SPACE RIP(Sensitivity Profiles From an Array of Coils for Encoding and Reconstruction in Parallel), SMASH(Simultaneous acquisition of spatial harmonics), PILS(Partially Parallel Imaging With Localized Sensitivitie), GRAPPA(Generalized Autocalibrating Partially Parallel Acquisitions) SPIRiT(iterative Self-consistent Parallel Imaging Reconstruction)등의 병렬 영상 기법에 적용될 수 있는 것이라면 제한 없이 적용이 가능하다.
도 5는 본 발명의 일 실시예에 따른 병렬 영상 기법인 그라파(GRAPPA)와 스피릿(SPIRiT)의 차이점을 설명하기 위한 개략도이다.
도 4 및 도 5를 참조하면, 제1 병렬 영상 기법으로는 서브 샘플링된 자기 공명 신호(310)를 입력 데이터로 하여 풀 샘플링된 k-space 영상 데이터를 출력으로 하는 그라파(GRAPPA)를 적용하여 영상 복원을 수행하는 것이 바람직할 것이다.
즉, 제1 병렬 영상 기법은 그라파 기법일 수 있다. 그라파는 서브 샘플링된 자기 공명 신호(310) 데이터를 풀 샘플링된 k-space의 데이터와 유사한 정확도 높은 k-space 데이터로 보정할 수 있다. 다시 말하면, 풀 샘플링된 영상 데이터의 라인(line) 수가 n개이고 서브 샘플링된 영상 데이터의 라인(line) 수가 n/2개일 때, 그라파는 서브 샘플링된 영상 데이터의 n/2개의 라인으로부터 샘플링 되지 않았던 나머지 n/2개의 라인을 추측하여 생성할 수 있다.
예를 들어, RF 코일 하나의 채널에서 획득된 서브 샘플링된 자기 공명 신호(310)에서 제1라인과 제3라인 및 제4라인은 샘플링 되었지만, 제2라인은 샘플링되지 않은 경우, 제2라인에 가장 가까운 라인인 제1라인과 제3라인을 선형 조합하여 제2라인을 추측할 수 있다. 이와 같이 그라파는 이웃하는 라인의 선형 조합으로부터 샘플링 되지 않았던 나머지 라인들을 추측하여, 풀 샘플링된 영상 데이터와 유사하게 보정할 수 있다. 즉, 각 채널별로 정확도 높은 k-space 형태의 영상 데이터를 생성할 수 있다.
이러한 그라파와 다르게 스피릿은 추측하려는 픽셀을 포함하는 라인의 인접한 픽셀 데이터와, 해당 라인과 이웃한 샘플링된 라인들의 데이터를 서로 선형 조합하여 샘플링되지 않은 픽셀의 데이터를 추측할 수 있다.
단계(S220) 다음으로, 제1 k-space 데이터(320)로부터 역 퓨리에(IFFT) 연산을 이용하여 제1 자기 공명 영상을 획득하는 단계(S230)가 수행될 수 있다.
그라파는 완전한 k-스페이스 형태의 영상 데이터를 역 퓨리에 변환하여 복원 영상인 제1 자기 공명 영상을 생성할 수 있다. 여기서 제1 자기 공명 영상은 타겟 이미지와 위상 인코딩 방향(Ky)으로 엘리어싱된 이미지를 포함할 수 있다.
도 4 및 도 5를 참조하면, 위상 인코딩 방향(Ky)이란 자기 공명 신호(310)를 샘플링하는 과정에서 샘플링된 라인이 스택(stack)되는 방향과 평행하게 연장된 방향일 수 있다. 그리고 리드아웃 방향(Kx)이란 샘플링된 라인이 연장된 방향일 수 있다. 한편 Kz방향은 코일의 축방향이거나 후술할 위상 인코딩 방향(Ky) 및 리드아웃 방향(Kx)과 각각 직교하는 제1방향(Kz)으로 명명될 수 있다.
한편, 서브 샘플링된 자기 공명 신호(310)가 복수개인 경우 제1 k-space 데이터(320) 및 제1 자기 공명 영상은 각각 복수개로 획득될 수 있다. 즉, 자기 공명 신호(310)를 수신하는 RF 코일이 복수개인 경우 각각의 채널별로 수신되는 복수개의 자기 공명 신호(310)에 대응하여 생성된 복수개의 복원 영상이 제 1 자기 공명 영상이 되는 것이다.
단계(S230) 다음으로, 제1 자기 공명 영상을 전처리하여 제1 입력 영상 데이터(340)를 생성하는 단계(S240)가 수행될 수 있다.
도 6은 본 발명의 일 실시예에 따른 제1 자기 공명 영상을 전처리하는 방법의 순서를 보여주는 순서도이다. 도 7은 본 발명의 일 실시예에 따른 제1 자기 공명 영상을 전처리하는 방법을 보여주는 개략도이다.
도 6 및 도 7을 참조하면, 제1 자기 공명 영상(720)을 전처리하여 제1 입력 영상 데이터(740)를 생성하는 단계(S240)는, 엘리어싱된 이미지(A1, A2)가 타겟 이미지(T)에 매칭되도록 제1 자기 공명 영상(720)을 쉬프트(shift)하여 쉬프트된 제1 자기 공명 영상(710, 730)을 획득하는 단계(S241)를 포함할 수 있다.
도 7의 (a)를 참조하면 예를 들어, 제1 자기 공명 영상(720)은 대상체(뇌)의 타겟 이미지(T)와 엘리어싱된 이미지(A1, A2)를 포함할 수 있다. 여기서 제1 자기 공명 영상(720)을 위상 인코딩 방향(Ky)을 따라 좌/우로 이동시키면 쉬프트된 제1 자기 공명 영상들(710, 730)을 얻을 수 있다.
여기서, 제1 자기 공명 영상(720)을 쉬프트하는 것은 엘리어싱된 이미지(A1, A2)가 타겟 이미지(T)에 매칭될 정도로 이동하는 것으로서 수행될 수 있다. 예를 들어, 왼쪽으로 쉬프트된 제1 자기 공명 영상(710)에 포함된 대상체의 엘리어싱된 이미지(A2)가 위상 인코딩 방향(Ky) 및 리드아웃 방향(Kx)이 형성하는 평면을 기준으로 원본의 제1 자기 공명 영상(720)에 포함된 대상체의 타겟 이미지(T)의 위치와 동일한 위치에 배치되도록 쉬프트될 수 있다. 또한, 오른쪽으로 쉬프트된 제1 자기 공명 영상(730)에 포함된 대상체의 엘리어싱된 이미지(A1)가 위상 인코딩 방향(Ky) 및 리드아웃 방향(Kx)이 형성하는 평면을 기준으로 원본의 제1 자기 공명 영상(720)에 포함된 대상체의 타겟 이미지(T)의 위치와 동일한 위치에 배치되도록 쉬프트될 수 있다.
그리고 도 7의 (b)를 참조하면, 제1 자기 공명 영상(720)을 전처리하여 제1 입력 영상 데이터(740)를 생성하는 단계(S240)는, 제1 자기 공명 영상(720)과 쉬프트된 제1 자기 공명 영상(710, 730)을 위상 인코딩 방향(Ky) 및 리드아웃 방향(Kx)에 각각 수직하는 제1방향(Kz)을 따라 스택(stack)하고 그룹화(grouping)하여 제1 입력 영상 데이터(340)를 생성하는 단계(S242)를 포함할 수 있다.
여기서, 제1방향(Kz)은 도 7의 (b)에서 Kz방향과 나란한 방향이다. 위상 인코딩 방향(Ky)은 Ky 방향과 나란한 방향이고, 리드아웃 방향(Kx)은 Kx방향과 나란한 방향이다. 그리고, 스택된 제1 자기 공명 영상(720)과 복수개의 쉬프트된 제1 자기 공명 영상들(710, 730)은 하나의 그룹으로 묶여서 후술할 제1 인공 신경망 모델(500)에 입력되는 제1 입력 영상 데이터(740)로 생성될 수 있다.
도 8은 본 발명의 변형된 실시예에 따른, 제1 자기 공명 영상을 전처리하여 제1 입력 영상 데이터(340)를 생성하는 방법의 순서를 보여주는 순서도이다.
도 8을 참조하면 본 발명의 변형된 실시예로서, 제1 자기 공명 영상을 전처리하여 제1 입력 영상 데이터(340)를 생성하는 단계(S240')는, 복수개의 제1 자기 공명 영상을 컴바인(combine)하여 단일의 제2 자기 공명 영상(330)을 획득하는 단계(S241')를 포함할 수 있다. 복수개의 제1 자기 공명 영상은 복수개의 RF 코일 채널들에 의해 각각 수신되는 자기 공명 신호(310)로부터 생성될 수 있다. 컴바인은 다중 코일로 수신한 복수개의 제1 자기 공명 영상을 입력으로 하여 단일의 제2 자기 공명 영상(330)을 출력하는 과정이다.
구체적으로, 복수개의 제1 자기 공명 영상을 컴바인(combine)하여 단일의 제2 자기 공명 영상(330)을 획득하는 단계(S241')는 아래의 [수학식1]을 이용하여 수행되는 것일 수 있다.
[수학식1]
Figure PCTKR2020006853-appb-I000021
Figure PCTKR2020006853-appb-I000022
Figure PCTKR2020006853-appb-I000023
Figure PCTKR2020006853-appb-I000024
Figure PCTKR2020006853-appb-I000025
Figure PCTKR2020006853-appb-I000026
Figure PCTKR2020006853-appb-I000027
여기서, 제2 자기 공명 영상(330)은 제1 자기 공명 영상 정보와 RF 코일의 감도 정보를 기초로 하여 획득될 수 있다. 제1 자기 공명 영상 정보는 제2 자기 공명 영상(330) 정보에 각 코일의 감도 정보가 가중치로서 곱해진 것일 수 있다. 한편, 제2 자기 공명 영상(330)을 획득하기 위한 방법으로는 제1 자기 공명 영상에 각 해당 코일의 감도 정보를 나누어 획득하는 방법이 있지만, 이는 노이즈 증폭의 문제가 생길 수 있다. 따라서, 노이즈 증폭을 방지하고 계산의 간소화 및 가속화를 위해 실수 값 정보에 따른 제2 자기 공명 영상(330)을 획득하는 것이 용이할 수 있다. 실수 값 정보에 따른 제2 자기 공명 영상(330) 획득이 가능하기 위해선 각각의 코일 감도 행렬의 크기의 합이 1을 만족해야 할 것이다.
다른 한편으로, 복수개의 제1 자기 공명 영상을 컴바인하여 단일의 제2 자기 공명 영상(330)을 획득하는 단계(S241')는 아래의 [수학식2]를 이용하여 수행되는 것일 수 있다.
[수학식2]
Figure PCTKR2020006853-appb-I000028
Figure PCTKR2020006853-appb-I000029
Figure PCTKR2020006853-appb-I000030
Figure PCTKR2020006853-appb-I000031
[수학식2]는 복소수 값 정보를 기초로 하여 제2 자기 공명 영상(330)을 획득하기 위해 사용될 수 있다. 이 경우, 제2 자기 공명 영상(330)을 획득하는 데에 [수학식1]을 적용하는 것보다 연산이 복잡해질 수 있지만, 더 정확한 제2 자기 공명 영상(330)을 획득할 수 있는 장점이 있다.
그리고, 제1 자기 공명 영상을 전처리하여 제1 입력 영상 데이터(340)를 생성하는 단계(S240')는 상기의 [수학식1] 또는 [수학식2]를 이용하여 컴바인된 제2 자기 공명 영상(330)을 전처리하여 제1 입력 영상 데이터(340)를 생성하는 단계(S242')를 포함할 수 있다.
복수개의 제1 자기 공명 영상이 컴바인된 제2 자기 공명 영상(330)은 타겟 이미지와 위상 인코딩 방향(Ky)으로 엘리어싱된 이미지를 포함할 수 있다. 그리고, 제2 자기 공명 영상(330)을 전처리하여 제1 입력 영상 데이터(340)를 생성하는 단계(S242')는 전술한 제1 자기 공명 영상을 전처리하여 제1 입력 영상 데이터(340)를 생성하는 단계(S240)와 동일한 과정이 수행될 수 있다.
즉, 제2 자기 공명 영상(330)을 전처리하여 제1 입력 영상 데이터(340)를 생성하는 단계(S242')는 엘리어싱된 이미지가 타겟 이미지에 매칭되도록 제2 자기 공명 영상(330)을 쉬프트하여 쉬프트된 제2 자기 공명 영상(330)을 획득하는 단계(미도시)와 제2 자기 공명 영상(330)과 쉬프트된 제2 자기 공명 영상(330)을 위상 인코딩 방향(Ky) 및 리드아웃 방향(Kx)에 수직하는 제1방향(Kz)을 따라 스택하고 그룹화하여 제1 입력 영상 데이터(340)를 생성하는 단계(미도시)를 포함하여 수행될 수 있다.
정리하면, 복수개의 제1 자기 공명 영상을 컴바인하여 제2 자기 공명 영상(330)을 획득하고, 이로부터 제1 입력 영상 데이터(340)를 생성하는 과정을 통해 더 많은 양의 자기 공명 신호(310) 데이터를 기초로 정확도 높은 제1 입력 영상 데이터(340)를 생성하여, 후술할 인공 신경망에 입력할 수 있다.
단계(S240) 다음으로, 제1 입력 영상 데이터(340)로부터 제1 인공 신경망 모델(500)을 이용하여 제1 출력 자기 공명 영상(350)을 획득하는 단계(S250)가 수행될 수 있다.
도 9는 본 발명의 일 실시예에 따른 제1 인공 신경망 모델(500)을 이용하여 제1 입력 영상 데이터(340)로부터 제1 출력 자기 공명 영상(350)을 획득하는 단계를 보여주는 개략도이다.
도 9를 참조하면, 제1 인공 신경망 모델(500)은 통계적 기계 학습 결과를 이용하여, 적어도 하나의 서브 샘플링된 자기 공명 영상과 적어도 하나의 풀 샘플링된 자기 공명 영상 간의 상관 관계를 학습하는 알고리즘의 집합일 수 있다. 제1 인공 신경망 모델(500)은 적어도 하나의 뉴럴 네트워크를 포함할 수 있다. 뉴럴 네트워크는 DNN(Deep Neural Network), RNN(Recurrent Neural Network), BRDNN(Bidirectional Recurrent Deep Neural Network), MLP(Multilayer Perceptron), CNN(Convolutional Neural Network)과 같은 방식의 네트워크 모델들을 포함할 수 있으나, 이에 한정되지 않는다.
예를 들어, 제1 인공 신경망 모델(500)은 뉴럴 네트워크를 이용하여 적어도 하나의 서브 샘플링된 자기 공명 영상 및 적어도 하나의 풀 샘플링된 자기 공명 영상 간의 상관 관계를 위상 인코딩 방향(Ky)에 따라 스택되는 적어도 하나의 샘플링 라인의 픽셀들을 단위로 학습하여 구축된 모델일 수 있다.
또한, 제1 인공 신경망 모델(500)은 서브 샘플링된 자기 공명 영상 및 풀 샘플링된 자기 공명 영상 이외에도 다양한 추가 데이터를 이용하여 구축될 수 있다. 예를 들어, 추가 데이터로서 제1 자기 공명 영상에 대응되는 k-space 데이터, 실수 영상 데이터, 허수 영상 데이터, 크기 영상 데이터, 위상 영상 데이터 및 멀티 채널 RF 코일의 감도 데이터, 노이즈 패턴 영상(NP) 데이터 중 적어도 어느 하나가 이용될 수 있다.
도 10은 본 발명의 일 실시예에 따른 제1 인공 신경망 모델(500)의 구조를 보여주는 개략도이다.
도 10을 참조하면, 바람직하게 제1 인경 신경망 모델은 컨트랙팅 패쓰(Contracting path; 510)와 익스팬딩 패쓰(Expanding path; 520)를 포함하는 유넷(U-net) 구조를 가질 수 있다.
컨트랙팅 패쓰(510)는 복수개의 컨볼루션(Convolution; Conv) 레이어와 풀링(Pooling) 레이어를 포함하여 구성된 것일 수 있다. 예를 들어, 컨트랙팅 패쓰(510)는 복수개의 3x3 컨볼루션 레이어를 입력층으로 하고, 웨이브릿 변환(Wavelet Transform)을 적용한 풀링 레이어의 조합을 복수개로 포함하여 구성될 수 있다.
그리고, 익스팬딩 패쓰(520)는 복수개의 컨볼루션 레이어와 언풀링(Un-pooling) 레이어를 포함하여 구성된 것일 수 있다. 예를 들어, 익스팬딩 패쓰(520)는 복수개의 3x3 컨볼루션 레이어와 웨이브릿 역변환(Inverse Wavelet Transform)을 적용한 언풀링 레이어의 조합을 복수개로 포함하고, 출력층으로 1x1 컨볼루션 레이어를 더 포함하여 구성될 수 있다. 한편, 익스팬딩 패쓰(520)의 각 부분에는 후술할 노이즈 패턴 영상(NP)이 입력되어 제1 인공 신경망이 학습될 수 있다.
도 11은 본 발명의 일 실시예에 따른 인공 신경망 모델에 학습 데이터로 적용되는 노이즈 패턴 영상(NP)을 설명하기 위한 도면이다. 도 12는 본 발명의 일 실시예에 따른 인공 신경망 모델에 노이즈 패턴 영상(NP)을 학습 데이터로 적용함에 따른 환영(hallucination) 완화 효과를 설명하기 위한 도면이다.
도 11을 참조하면, 노이즈 패턴 영상(NP)은 복원된 영상에서 대상체의 각 부분에 따라 노이즈의 발생 정도를 기초로 가중치를 적용하여 구분 표시한 영상일 수 있다. 일 예로 노이즈 패턴 영상(NP)은 서브 샘플링된 자기 공명 영상에 일반적인 인공 신경망 모델을 적용하여 복원된 영상을 풀 샘플링된 자기 공명 영상과 비교하여 감지된 노이즈에 따라 생성된 패턴 영상일 수 있다.
구체적으로 도 11의 (a)를 참조하면, 서브 샘플링된 자기 공명 영상(1110)을 인공 신경망 모델의 입력으로 하여 출력된 복원 영상(1120)과 풀 샘플링된 자기 공명 영상을 대비한 대비 영상(1130)을 보면, 영상의 중앙부분에 세워진 타원 형태로 노이즈가 다량 발생한 부분(Poor-conditiond; PC)을 확인할 수 있다. 또한, 영상의 외측으로 가면 비교적 노이즈가 적게 발생한 부분(Good-conditioned; GC)을 확인할 수 있다. 이러한 대상체의 부분별로 노이즈의 생성 격차를 기초로 생성된 것이 노이즈 패턴 영상(NP)이다.
도 11의 (b)를 참조하면, 서브 샘플링된 자기 공명 영상(1140)과 노이즈 패턴 영상(NP)을 인공 신경망 모델의 입력으로 하여 출력된 복원 영상(1150)과 풀 샘플링된 자기 공명 영상을 대비한 대비 영상(1160)을 보면, 영상의 전체에 걸쳐 노이즈가 줄어든 것을 확인할 수 있다.
또한, 도 12를 참조하면, 왼쪽부터 차례대로 풀 샘플링된 자기 공명 영상(1210), 서브 샘플링된 자기 공명 영상(1220), 서브 샘플링된 자기 공명 영상(1220)을 입력으로 하는 인공 신경망 모델을 이용하여 출력된 복원 영상(1230), 서브 샘플링된 자기 공명 영상(1220) 및 노이즈 패턴 영상(NP)을 입력으로 하는 인공 신경망 모델을 이용하여 출력된 복원 영상(1240)을 확인할 수 있다.
각각의 영상 하단에서는 대상체 이미지의 일부분을 확대한 것을 볼 수 있다. 여기서, 서브 샘플링된 자기 공명 영상(1220)의 확대 부분(h2)에는 엘리어싱된 이미지가 타겟 이미지에 겹쳐지면서 풀 샘플링된 자기 공명 영상의 확대 부분(h1)과 차이가 발생한 것을 볼 수 있다. 이러한 현상을 환영(hallucination) 현상이라고 하고, 복원 영상의 확대 부분(h3)에서도 서브 샘플링된 자기 공명 영상의 영향으로 이미지가 달라진 것을 확인할 수 있다. 이와 대비하여 노이즈 패턴 영상(NP)을 활용한 복원 영상(1240)의 확대 부분(h4)에서는 풀 샘플링된 자기 공명 영상(1210)의 확대 부분(h1)과 유사하게 환영 현상이 완화된 것을 확인할 수 있다.
이러한 노이즈 패턴 영상(NP)의 적용 효과를 참조하여, 바람직한 실시예로서 제1 인공 신경망 모델(500)은 제1 자기 공명 영상을 기초로 생성된 노이즈 패턴 영상(NP)이 입력된 것일 수 있다. 즉, 제1 인공 신경망 모델(500)은 제1 입력 영상 데이터(340)와 노이즈 패턴 영상(NP)을 입력 데이터로 하여 제1 출력 자기 공명 영상(350)을 출력하는 과정을 수행할 수 있다.
예를 들어, 노이즈 패턴 영상(NP)은 제1 인공 신경망 모델(500)의 익스팬딩 패쓰(520)(Expanding path)의 복수개의 컨볼루션 레이어 및 언풀링 레이어 중 적어도 어느 하나에 입력될 수 있다. 구체적으로, 노이즈 패턴 영상(NP)은 익스팬딩 패쓰(520)의 출력층인 컨볼루션 레이어에 입력되고, 언풀링 레이어 각각의 이미지 크기에 맞추어 풀링되어 입력될 수 있다.
일 실시예에서, 자기 공명 영상 처리 장치(100)는 전술한 제1 인공 신경망 모델(500)을 자체적으로 구축할 수 있다. 다른 일 실시예에서, 자기 공명 영상 처리 장치(100)는 외부 서버 또는 외부 디바이스에서 구축된 제1 인공 신경망 모델(500)을 외부 서버 또는 외부 디바이스로부터 획득할 수도 있다. 그리고, 자기 공명 영상 처리 장치(100)는 뉴럴 네트워크를 이용한 제1 인공 신경망 모델(500)에 기초하여, 서브 샘플링된 자기 공명 영상에 대한 복원 영상인 제1 출력 자기 공명 영상(350)을 획득함으로써 영상 획득 속도 가속화 및 영상 품질의 향상 목적을 달성할 수 있다.
여기서 획득된 제1 출력 자기 공명 영상(350)은 사용자 단말에 제공되어 환자의 병변부위 진단에 활용될 수 있다. 한편, 제1 출력 자기 공명 영상(350)의 정확도를 높이기 위한 추가적인 자기 공명 영상 처리 단계가 수행될 수 있다.
도 13은 본 발명의 일 실시예에 따른 자기 공명 영상 처리 방법을 포함하는 확장된 실시예에 따른 자기 공명 영상 처리 방법의 순서를 보여주는 순서도이다. 도 14는 본 발명의 본 발명의 확장된 실시예에 따른 자기 공명 영상 처리 방법을 보여주는 개략도이다.
도 13 및 도 14를 참조하면 단계(S250) 다음으로, 제1 출력 자기 공명 영상(350)으로부터 퓨리에 연산을 이용하여 제2 k-space 데이터(360)를 획득하는 단계(S260)가 수행될 수 있다.
도 15는 본 발명의 확장된 실시예에 따른 제2 출력 자기 공명 영상(400) 획득 단계 및 제2 k-space 데이터(360) 획득 단계를 보여주는 순서도이다.
도 15를 참조하면, 제2 k-space 데이터(360)를 획득하는 단계(S260)는, 제1 출력 자기 공명 영상(350)을 디컴바인(decombine)하여 복수개의 제2 출력 자기 공명 영상(400)을 획득하는 단계(S261)를 포함할 수 있다.
구체적으로, 제1 출력 자기 공명 영상(350)을 디컴바인(decombine)하여 복수개의 제2 출력 자기 공명 영상(400)을 획득하는 단계는 아래의 [수학식3] 또는 [수학식4]를 이용하여 수행되는 것일 수 있다.
[수학식3]
Figure PCTKR2020006853-appb-I000032
Figure PCTKR2020006853-appb-I000033
Figure PCTKR2020006853-appb-I000034
Figure PCTKR2020006853-appb-I000035
[수학식3]은 제1 출력 자기 공명 영상(350)이 복소수 값 정보에 따라 획득된 경우에 적용될 수 있는 수학식이다.
[수학식4]
Figure PCTKR2020006853-appb-I000036
Figure PCTKR2020006853-appb-I000037
Figure PCTKR2020006853-appb-I000038
Figure PCTKR2020006853-appb-I000039
Figure PCTKR2020006853-appb-I000040
[수학식4]는 제1 출력 자기 공명 영상(350)이 실수 값 정보에 따라 획득된 경우에 적용될 수 있는 수학식이다. 여기서 제1 출력 자기 공명 영상(350)의 위상 정보는 전술한 컴바인 과정에서 복소수 값의 위상 정보를 추출하는 것으로 획득될 수 있다. 이로써, 제1 출력 자기 공명 영상(350)은 각각의 RF 코일의 감도 정보를 기초로 디컴바인되어 복수개의 자기 공명 영상으로 생성될 수 있다.
그리고 제2 k-space 데이터(360)를 획득하는 단계(S260)는, 제1 출력 자기 공명 영상(350)으로부터 퓨리에 연산을 이용하여 제2 k-space 데이터(360)를 획득하는 단계(S262)를 포함할 수 있다. 이로써, 제1 출력 자기 공명 영상(350)으로부터 생성된 복수개의 자기 공명 영상에 퓨리에 변환을 적용하여 복수개의 제2 k-space 데이터(360)를 획득할 수 있다.
단계(S260) 다음으로, 제2 k-space 데이터(360)로부터 제2 병렬 연산 기법을 이용하여 제3 k-space 데이터(370)를 획득하는 단계(S270)가 수행될 수 있다.
여기서 제2 병렬 연산 기법은 풀 샘플링된 제2 k-space 데이터(360)로부터 보정된 풀 샘플링된 제3 k-space 데이터(370)를 획득할 수 있는 병렬 연산 기법일 수 있다. 바람직하게 제2 병렬 연산 기법으로는 전술한 스피릿(SPIRiT) 기법이 사용될 수 있다.
여기서, 제1 병렬 연산 기법으로 그라파가 사용되고, 제2 병렬 연산 기법으로 스피릿이 사용됨에 따라, 복원 영상을 획득하는 과정에서 보다 정확도 높은 복원 영상이 획득되는 효과가 있다.
단계(S270) 다음으로, 제3 k-space 데이터(370)로부터 역 퓨리에 연산을 이용하여 제3 자기 공명 영상을 획득하는 단계(S280)가 수행될 수 있다.
단계(S280) 다음으로, 제3 자기 공명 영상을 전처리하여 제2 입력 영상 데이터(390)를 생성하는 단계(S290)가 수행될 수 있다.
여기서 제3 자기 공명 영상을 전처리하여 제2 입력 영상 데이터(390)를 생성하는 방법은 전술한 제1 자기 공명 영상을 전처리하여 제1 입력 영상 데이터(340)를 생성하는 단계(S240)와 동일한 과정이 수행될 수 있다.
한편, 변형된 실시예에서 제3 자기 공명 영상을 전처리하여 제2 입력 영상 데이터(390)를 생성하는 단계(S290)는, 복수개의 제3 자기 공명 영상을 컴바인(combine)하여 단일의 제4 자기 공명 영상(380)을 획득하는 단계를 포함할 수 있다.
여기서 복수개의 제3 자기 공명 영상을 컴바인하여 단일의 제4 자기 공명 영상(380)을 획득하는 방법은 전술한 제1 자기 공명 영상을 컴바인하여 단일의 제2 자기 공명 영상(330)을 획득하는 방법과 동일한 방법이 사용될 수 있다.
그리고 제3 자기 공명 영상을 전처리하여 제2 입력 영상 데이터(390)를 생성하는 단계(S290)는, 제4 자기 공명 영상(380)을 전처리하여 제2 입력 영상 데이터(390)를 생성하는 단계를 포함할 수 있다.
여기서 제4 자기 공명 영상(380)을 전처리하여 제2 입력 영상 데이터(390)를 생성하는 방법은 전술한 제2 자기 공명 영상(330)을 전처리하여 제1 입력 영상 데이터(340)를 생성하는 방법과 동일한 방법이 사용될 수 있다.
단계(S290) 다음으로, 제2 입력 영상 데이터(390)로부터 제2 인공 신경망 모델(600)을 이용하여 제3 출력 자기 공명 영상을 획득하는 단계(S300)가 수행될 수 있다.
여기서 제2 인공 신경망 모델(600)은 전술한 제1 인공 신경망 모델(500)과 동일한 인공 신경망 모델이 사용될 수 있다. 또는 제1 입력 영상 데이터(340)를 추가로 학습한 제1 인공 신경망 모델(500)이 사용될 수도 있고, 제1 인공 신경망 모델(500)과 다른 인공 신경망 모델이 사용될 수도 있다.
단계(S300) 다음으로, 제2 출력 자기 공명 영상(400)을 다시 퓨리에 변환 및/또는 디컴바인하고 퓨리에 변환하여 제4 k-space 데이터(410)를 획득하고, 이를 기초로 단계(S260)에서 단계(S300)까지의 과정을 한 세트로 하여 반복 수행될 수 있다.
또한, 제2 출력 자기 공명 영상(400)은 사용자 단말에 제공되어 환자의 병변부위 진단 영상으로 사용될 수 있다.
이하에서는 본 발명의 일 실시예에 따른 자기 공명 영상 처리 장치(100) 및 그 방법에 따라 실시된 실험예에 대하여 설명하기로 한다.
도 16은 본 발명의 일 실험예에 따른 4배 가속화된 복원 영상을 비교예와 함께 보여주는 도면이다. 여기서 가속화 지수는 4이고, 서브 샘플링된 라인의 수가 풀 샘플링된 라인의 수의 1/4일 수 있다.
도 16을 참조하면, 왼쪽부터 차례대로 풀 샘플링된 자기 공명 영상(1610), 그라파 기법으로 복원된 자기 공명 영상(1620), CG-SENSE를 통해 복원된 자기 공명 영상(1630), 일반적인 인공 신경망 모델을 통해 복원된 자기 공명 영상(1640), 본 발명에 따른 자기 공명 영상 처리 장치(100)에 의해 복원된 자기 공명 영상(1650)을 확인할 수 있다. 그리고 각각의 영상 아래에 풀 샘플링된 자기 공명 영상(1610)과 대비하여 차이점이 이미징된 오류 영상을 4배 증폭한 영상을 확인할 수 있는데, 본 발명에 따른 자기 공명 영상 처리 장치(100)에 의해 복원된 자기 공명 영상(1650)의 오류가 가장 작은 것을 확인할 수 있다.
도 17은 본 발명의 다른 실험예에 따른 6배 가속화된 복원 영상을 비교예와 함께 보여주는 도면이다. 여기서 가속화 지수는 6이고, 서브 샘플링된 라인의 수가 풀 샘플링된 라인의 수의 1/6일 수 있다.
도 17을 참조하면, 왼쪽부터 차례대로 풀 샘플링된 자기 공명 영상(1710), 그라파 기법으로 복원된 자기 공명 영상(1720), CG-SENSE를 통해 복원된 자기 공명 영상(1730), 일반적인 인공 신경망 모델을 통해 복원된 자기 공명 영상(1740), 본 발명에 따른 자기 공명 영상 처리 장치(100)에 의해 복원된 자기 공명 영상(1750)을 확인할 수 있다. 그리고 각각의 영상 아래에 풀 샘플링된 자기 공명 영상(1710)과 대비하여 차이점이 분석된 오류 영상을 4배 증폭한 영상을 확인할 수 있는데, 본 발명에 따른 자기 공명 영상 처리 장치(100)에 의해 복원된 자기 공명 영상(1750)의 오류가 가장 작은 것을 확인할 수 있다.
이상으로 설명한 본 발명의 실시예들에 따른 자기 공명 영상 처리 장치(100) 및 그 방법은 자기 공명 영상 촬영 장치로 자기 공명 영상을 촬영하는 시간을 단축하여도, 영상 복원을 통해 정확도 높은 자기 공명 영상을 생성하는 효과가 있다.
또한, 본 발명의 실시예들에 따른 자기 공명 영상 처리 장치(100) 및 그 방법은 복수개의 자기 공명 영상을 획득하고, 이를 전처리하여 입력 데이터를 생성하며, 제1 인공 신경망 모델(500) 및 제2 인공 신경망 모델(600)을 활용하여 복원된 정확도 높은 출력 자기 공명 영상을 제공하는 것으로서 환자의 병변부위 진단을 용이하게 하는 효과가 있다.
한편, 본 발명의 일 실시예에 따른 자기 공명 영상 처리 방법은 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체를 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 본 발명의 방법 및 시스템은 특정 실시예와 관련하여 설명되었지만, 그것들의 구성 요소 또는 동작의 일부 또는 전부는 범용 하드웨어 아키텍쳐를 갖는 컴퓨터 시스템을 사용하여 구현될 수 있다.
이상의 설명은 본 발명의 기술적 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예는 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술적 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.

Claims (14)

  1. 자기 공명 영상 처리 장치에 의한 자기 공명 영상 처리 방법에 있어서,
    서브 샘플링된 자기 공명 신호를 획득하는 단계;
    상기 서브 샘플링된 자기 공명 신호로부터 제1 병렬 영상 기법을 이용하여 제1 k-space 데이터를 획득하는 단계;
    상기 제1 k-space 데이터로부터 역 퓨리에 연산을 이용하여 제1 자기 공명 영상을 획득하는 단계;
    상기 제1 자기 공명 영상을 전처리하여 제1 입력 영상 데이터를 생성하는 단계; 및
    상기 제1 입력 영상 데이터로부터 제1 인공 신경망 모델을 이용하여 제1 출력 자기 공명 영상을 획득하는 단계를 포함하는, 자기 공명 영상 처리 방법.
  2. 제1항에 있어서,
    상기 서브 샘플링된 자기 공명 신호가 복수개인 경우 상기 제1 k-space 데이터 및 상기 제1 자기 공명 영상은 각각 복수개로 획득되고,
    상기 제1 자기 공명 영상을 전처리하여 제1 입력 영상 데이터를 생성하는 단계는,
    상기 복수개의 제1 자기 공명 영상을 컴바인(combine)하여 단일의 제2 자기 공명 영상을 획득하는 단계; 및
    상기 제2 자기 공명 영상을 전처리하여 제1 입력 영상 데이터를 생성하는 단계를 포함하는, 자기 공명 영상 처리 방법.
  3. 제2항에 있어서,
    상기 복수개의 제1 자기 공명 영상을 컴바인하여 단일의 제2 자기 공명 영상을 획득하는 단계는 아래의 [수학식1]을 이용하여 수행되는 것인, 자기 공명 영상 처리 방법.
    [수학식1]
    Figure PCTKR2020006853-appb-I000041
    Figure PCTKR2020006853-appb-I000042
    Figure PCTKR2020006853-appb-I000043
    Figure PCTKR2020006853-appb-I000044
    Figure PCTKR2020006853-appb-I000045
    Figure PCTKR2020006853-appb-I000046
    Figure PCTKR2020006853-appb-I000047
  4. 제2항에 있어서,
    상기 복수개의 제1 자기 공명 영상을 컴바인하여 단일의 제2 자기 공명 영상을 획득하는 단계는 아래의 [수학식2]를 이용하여 수행되는 것인, 자기 공명 영상 처리 방법.
    [수학식2]
    Figure PCTKR2020006853-appb-I000048
    Figure PCTKR2020006853-appb-I000049
    Figure PCTKR2020006853-appb-I000050
    Figure PCTKR2020006853-appb-I000051
  5. 제1항에 있어서,
    상기 제1 자기 공명 영상은 타겟 이미지와 위상 인코딩 방향으로 엘리어싱된 이미지를 포함하고,
    상기 제1 자기 공명 영상을 전처리하여 제1 입력 영상 데이터를 생성하는 단계는,
    상기 엘리어싱된 이미지가 상기 타겟 이미지에 매칭되도록 상기 제1 자기 공명 영상을 쉬프트(shift)하여 쉬프트된 제1 자기 공명 영상을 획득하는 단계; 및
    상기 제1 자기 공명 영상과 상기 쉬프트된 제1 자기 공명 영상을 상기 위상 인코딩 방향 및 리드아웃 방향에 각각 수직하는 제1방향을 따라 스택(stack)하고 그룹화(grouping)하여 제1 입력 영상 데이터를 생성하는 단계를 포함하는, 자기 공명 영상 처리 방법.
  6. 제2항에 있어서,
    상기 제2 자기 공명 영상은 타겟 이미지와 위상 인코딩 방향으로 엘리어싱된 이미지를 포함하고,
    상기 제2 자기 공명 영상을 전처리하여 제1 입력 영상 데이터를 생성하는 단계는,
    상기 엘리어싱된 이미지가 상기 타겟 이미지에 매칭되도록 상기 제2 자기 공명 영상을 쉬프트하여 쉬프트된 제2 자기 공명 영상을 획득하는 단계; 및
    상기 제2 자기 공명 영상과 상기 쉬프트된 제2 자기 공명 영상을 상기 위상 인코딩 방향 및 리드아웃 방향에 수직하는 제1방향을 따라 스택하고 그룹화하여 제1 입력 영상 데이터를 생성하는 단계를 포함하는, 자기 공명 영상 처리 방법.
  7. 제1항에 있어서,
    상기 제1 인공 신경망 모델은 상기 제1 자기 공명 영상을 기초로 생성된 노이즈 패턴 영상이 입력되는 것인, 자기 공명 영상 처리 방법.
  8. 제7항에 있어서,
    상기 제1 인공 신경망 모델은 컨트랙팅 패쓰(Contracting path)와 익스팬딩 패쓰(Expanding path)를 포함하는 인공 신경망 구조를 가지고,
    상기 컨트랙팅 패쓰(Contracting path)는 복수개의 컨볼루션(Convolution) 레이어와 풀링(Pooling) 레이어를 포함하여 구성된 것이고, 상기 익스팬딩 패쓰(Expanding path)는 복수개의 컨볼루션 레이어와 언풀링(Unpooling) 레이어를 포함하여 구성된 것이며,
    상기 노이즈 패턴 영상은 상기 익스팬딩 패쓰(Expanding path)의 상기 복수개의 컨볼루션 레이어 및 언풀링 레이어 중 적어도 어느 하나에 입력되는 것인, 자기 공명 영상 처리 방법.
  9. 제1항 또는 제2항에 있어서,
    상기 제1 출력 자기 공명 영상으로부터 퓨리에 연산을 이용하여 제2 k-space 데이터를 획득하는 단계를 포함하고,
    상기 제2 k-space 데이터를 획득하는 단계는,
    상기 제1 출력 자기 공명 영상을 디컴바인(decombine)하여 복수개의 제2 출력 자기 공명 영상을 획득하는 단계; 및
    상기 제2 출력 자기 공명 영상으로부터 퓨리에 연산을 이용하여 제2 k-space 데이터를 획득하는 단계를 포함하는, 자기 공명 영상 처리 방법.
  10. 제9항에 있어서,
    상기 제1 출력 자기 공명 영상을 디컴바인(decombine)하여 복수개의 제2 출력 자기 공명 영상을 획득하는 단계는 아래의 [수학식3] 또는 [수학식4]를 이용하여 수행되는 것인, 자기 공명 영상 처리 방법.
    [수학식3]
    Figure PCTKR2020006853-appb-I000052
    Figure PCTKR2020006853-appb-I000053
    Figure PCTKR2020006853-appb-I000054
    Figure PCTKR2020006853-appb-I000055
    [수학식4]
    Figure PCTKR2020006853-appb-I000056
    Figure PCTKR2020006853-appb-I000057
    Figure PCTKR2020006853-appb-I000058
    Figure PCTKR2020006853-appb-I000059
    Figure PCTKR2020006853-appb-I000060
  11. 제9항에 있어서,
    상기 제2 k-space 데이터로부터 제2 병렬 연산 기법을 이용하여 제3 k-space 데이터를 획득하는 단계를 포함하는, 자기 공명 영상 처리 방법.
  12. 제11항에 있어서,
    상기 제3 k-space 데이터로부터 역 퓨리에 연산을 이용하여 제3 자기 공명 영상을 획득하는 단계;
    상기 제3 자기 공명 영상을 전처리하여 제2 입력 영상 데이터를 생성하는 단계; 및
    상기 제2 입력 영상 데이터로부터 제2 인공 신경망 모델을 이용하여 제3 출력 자기 공명 영상을 획득하는 단계를 포함하는, 자기 공명 영상 처리 방법.
  13. 자기 공명 영상 처리 방법을 실행하기 위한 자기 공명 영상 처리 장치에 있어서,
    자기 공명 영상 처리 프로그램이 저장된 메모리; 및
    상기 프로그램을 실행하는 프로세서를 포함하고,
    상기 프로세서는 상기 프로그램의 실행에 따라, 서브 샘플링된 자기 공명 신호를 획득하고, 상기 서브 샘플링된 자기 공명 신호로부터 제1 병렬 영상 기법을 이용하여 제1 k-space 데이터를 획득하고, 상기 제1 k-space 데이터로부터 역 퓨리에 연산을 이용하여 제1 자기 공명 영상을 획득하고, 상기 제1 자기 공명 영상을 전처리하여 제1 입력 영상 데이터를 생성하고, 상기 제1 입력 영상 데이터로부터 제1 인공 신경망 모델을 이용하여 제1 출력 자기 공명 영상을 획득하는, 자기 공명 영상 처리 장치.
  14. 제1항 내지 제12항 중 어느 한 항에 따른 방법을 실행하는 프로그램이 저장된 컴퓨터로 읽을 수 있는 기록매체.
PCT/KR2020/006853 2020-02-13 2020-05-27 자기 공명 영상 처리 장치 및 그 방법 WO2021162176A1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP20918529.7A EP4088654A4 (en) 2020-02-13 2020-05-27 DEVICE AND METHOD FOR PROCESSING MAGNETIC RESONANCE IMAGES
JP2022549166A JP2023513801A (ja) 2020-02-13 2020-05-27 磁気共鳴映像処理装置及びその方法
CN202080096587.4A CN115135237A (zh) 2020-02-13 2020-05-27 磁共振影像处理装置及其方法
US17/424,368 US20220309719A1 (en) 2020-02-13 2020-05-27 Magnetic resonance image processing apparatus and method thereof

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200017998A KR102144320B1 (ko) 2020-02-13 2020-02-13 자기 공명 영상 처리 장치 및 그 방법
KR10-2020-0017998 2020-02-13

Publications (1)

Publication Number Publication Date
WO2021162176A1 true WO2021162176A1 (ko) 2021-08-19

Family

ID=72043554

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2020/006853 WO2021162176A1 (ko) 2020-02-13 2020-05-27 자기 공명 영상 처리 장치 및 그 방법

Country Status (6)

Country Link
US (1) US20220309719A1 (ko)
EP (1) EP4088654A4 (ko)
JP (1) JP2023513801A (ko)
KR (3) KR102144320B1 (ko)
CN (1) CN115135237A (ko)
WO (1) WO2021162176A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114114116A (zh) * 2022-01-27 2022-03-01 南昌大学 磁共振成像生成方法、系统、存储介质及计算机设备
CN114266728A (zh) * 2021-11-27 2022-04-01 深圳先进技术研究院 一种磁共振影像获取方法、装置、设备和介质

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7446903B2 (ja) * 2020-04-23 2024-03-11 株式会社日立製作所 画像処理装置、画像処理方法及び画像処理システム
KR102584166B1 (ko) * 2020-12-10 2023-10-05 주식회사 에어스메디컬 리스케일링과 인공신경망을 적용한 자기 공명 영상 처리 장치 및 그 방법
KR102572311B1 (ko) * 2020-12-10 2023-08-29 주식회사 에어스메디컬 보조맵과 인공신경망을 적용한 자기 공명 영상 처리 장치 및 그 방법
US20240127498A1 (en) * 2021-12-30 2024-04-18 Airs Medical Inc. Magnetic resonance image processing method and apparatus using scan parameters
KR102428725B1 (ko) * 2022-02-15 2022-08-04 주식회사 에어스메디컬 영상 개선 방법 및 이를 수행하는 컴퓨터 프로그램
CN115690253A (zh) * 2022-11-16 2023-02-03 中国科学院深圳先进技术研究院 一种磁共振图像重建方法和图像重建装置
CN116228913B (zh) * 2023-05-06 2023-08-22 杭州师范大学 一种磁共振图像数据的处理方法、装置和存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101330638B1 (ko) * 2012-05-10 2013-11-18 고려대학교 산학협력단 자기 공명 영상 생성 방법 및 그에 따른 자기 공명 영상 생성 장치
KR101659578B1 (ko) * 2015-09-01 2016-09-23 삼성전자주식회사 자기 공명 영상 처리 방법 및 장치
KR101923184B1 (ko) * 2017-08-25 2018-11-28 삼성전자주식회사 뉴럴 네트워크를 이용한 영상 복원 방법 및 그 자기 공명 영상 장치
KR20190124994A (ko) * 2018-04-27 2019-11-06 연세대학교 산학협력단 자기 공명 영상 재구성 장치 및 방법
KR20190138107A (ko) * 2018-06-04 2019-12-12 한국과학기술원 뉴럴 네트워크를 이용한 자기공명영상 처리 방법 및 그 장치

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014033207A1 (en) * 2012-08-29 2014-03-06 Koninklijke Philips N.V. Iterative sense denoising with feedback
JP7246903B2 (ja) * 2017-12-20 2023-03-28 キヤノンメディカルシステムズ株式会社 医用信号処理装置
US11125844B2 (en) * 2018-07-06 2021-09-21 The Board Of Trustees Of The Leland Stanford Junior University Deep learning based methods to accelerate multi-spectral imaging
CN113795764A (zh) * 2018-07-30 2021-12-14 海珀菲纳股份有限公司 用于磁共振图像重建的深度学习技术
KR102131505B1 (ko) * 2018-08-29 2020-07-07 한국과학기술원 뉴럴 네트워크를 이용한 에코평면 영상 고스트 아티팩트 제거 방법 및 그 장치
US11175365B2 (en) * 2018-10-02 2021-11-16 General Electric Company System and method for sparse image reconstruction utilizing null data consistency
US11710261B2 (en) * 2019-07-29 2023-07-25 University Of Southern California Scan-specific recurrent neural network for image reconstruction
US11348291B2 (en) * 2019-11-29 2022-05-31 Shanghai United Imaging Intelligence Co., Ltd. System and method for reconstructing magnetic resonance images

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101330638B1 (ko) * 2012-05-10 2013-11-18 고려대학교 산학협력단 자기 공명 영상 생성 방법 및 그에 따른 자기 공명 영상 생성 장치
KR101659578B1 (ko) * 2015-09-01 2016-09-23 삼성전자주식회사 자기 공명 영상 처리 방법 및 장치
KR101923184B1 (ko) * 2017-08-25 2018-11-28 삼성전자주식회사 뉴럴 네트워크를 이용한 영상 복원 방법 및 그 자기 공명 영상 장치
KR20190124994A (ko) * 2018-04-27 2019-11-06 연세대학교 산학협력단 자기 공명 영상 재구성 장치 및 방법
KR20190138107A (ko) * 2018-06-04 2019-12-12 한국과학기술원 뉴럴 네트워크를 이용한 자기공명영상 처리 방법 및 그 장치

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP4088654A4 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114266728A (zh) * 2021-11-27 2022-04-01 深圳先进技术研究院 一种磁共振影像获取方法、装置、设备和介质
WO2023092742A1 (zh) * 2021-11-27 2023-06-01 深圳先进技术研究院 一种磁共振影像获取方法、装置、设备和介质
CN114114116A (zh) * 2022-01-27 2022-03-01 南昌大学 磁共振成像生成方法、系统、存储介质及计算机设备
CN114114116B (zh) * 2022-01-27 2022-08-23 南昌大学 磁共振成像生成方法、系统、存储介质及计算机设备

Also Published As

Publication number Publication date
US20220309719A1 (en) 2022-09-29
CN115135237A (zh) 2022-09-30
KR102588863B1 (ko) 2023-10-16
EP4088654A1 (en) 2022-11-16
JP2023513801A (ja) 2023-04-03
KR20210103363A (ko) 2021-08-23
EP4088654A4 (en) 2024-01-24
KR20210103364A (ko) 2021-08-23
KR102144320B1 (ko) 2020-08-13

Similar Documents

Publication Publication Date Title
WO2021162176A1 (ko) 자기 공명 영상 처리 장치 및 그 방법
WO2019039708A1 (en) MAGNETIC RESONANCE IMAGING APPARATUS AND METHOD FOR MAGNETIC RESONANCE IMAGE RECONSTRUCTION USING NEURONIC ARRAY
WO2014073879A1 (en) Magnetic resonance imaging apparatus and method of acquiring functional image
WO2016093577A1 (en) Magnetic resonance imaging apparatus and image processing method thereof
WO2017039163A1 (ko) 자기 공명 영상 복원을 위한 방법 및 자기 공명 영상 처리 장치
WO2016036006A1 (en) Magnetic resonance imaging apparatus and method of operating the same
WO2013109095A1 (ko) 자기 공명 영상 처리 방법
KR20220082302A (ko) 리스케일링과 인공신경망을 적용한 자기 공명 영상 처리 장치 및 그 방법
EP3405108A1 (en) Magnetic resonance imaging apparatus and method of obtaining magnetic resonance image by using multiple excitation with delayed spin-echoes
WO2017155364A1 (ko) 자기 공명 영상 장치 및 이를 이용한 자기 공명 영상 처리 방법
WO2020004916A1 (en) A method and an apparatus for reconstructing magnetic resonance image
EP3052020A1 (en) Magnetic resonance imaging device and control method thereof
WO2018143568A1 (ko) 자기 공명 영상 디스플레이 장치 및 자기 공명 영상 디스플레이 방법
WO2018186578A1 (ko) 자기공명영상장치 및 그 제어방법
JP2019162369A (ja) 磁気共鳴撮影装置、感度分布算出方法、及び、感度分布算出プログラム
WO2019027155A1 (en) MAGNETIC RESONANCE IMAGING APPARATUS AND MAGNETIC RESONANCE IMAGE GENERATING METHOD
WO2023128074A1 (ko) 스캔 파라미터를 이용하는 자기 공명 영상 처리 방법 및 장치
WO2018038396A1 (ko) 자기공명영상장치 및 그 제어방법
WO2018097644A1 (ko) 자기 공명 영상 장치 및 자기 공명 영상 생성 방법
US20240127499A1 (en) Magnetic resonance image processing apparatus and method to which noise-to-noise technique is applied
WO2017007286A1 (ko) 병렬 자기공명영상 처리장치 및 방법
KR102572311B1 (ko) 보조맵과 인공신경망을 적용한 자기 공명 영상 처리 장치 및 그 방법
US11041921B2 (en) MRI apparatus, image processing apparatus, and MRI method
KR102467249B1 (ko) 멀티 시퀀스 복원 기법이 적용되는 자기 공명 영상 처리 장치 및 그 방법
WO2018139732A1 (ko) 자기 공명 영상 획득 방법 및 그 자기 공명 영상 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20918529

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022549166

Country of ref document: JP

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 2020918529

Country of ref document: EP

Effective date: 20220811

NENP Non-entry into the national phase

Ref country code: DE