KR101923184B1 - 뉴럴 네트워크를 이용한 영상 복원 방법 및 그 자기 공명 영상 장치 - Google Patents

뉴럴 네트워크를 이용한 영상 복원 방법 및 그 자기 공명 영상 장치 Download PDF

Info

Publication number
KR101923184B1
KR101923184B1 KR1020170108136A KR20170108136A KR101923184B1 KR 101923184 B1 KR101923184 B1 KR 101923184B1 KR 1020170108136 A KR1020170108136 A KR 1020170108136A KR 20170108136 A KR20170108136 A KR 20170108136A KR 101923184 B1 KR101923184 B1 KR 101923184B1
Authority
KR
South Korea
Prior art keywords
data
image
sampled
sub
magnetic resonance
Prior art date
Application number
KR1020170108136A
Other languages
English (en)
Inventor
이대호
박현욱
권기남
서현석
Original Assignee
삼성전자주식회사
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사, 한국과학기술원 filed Critical 삼성전자주식회사
Priority to KR1020170108136A priority Critical patent/KR101923184B1/ko
Priority to EP18847463.9A priority patent/EP3655791A4/en
Priority to PCT/KR2018/006085 priority patent/WO2019039708A1/en
Priority to US15/997,074 priority patent/US10426373B2/en
Application granted granted Critical
Publication of KR101923184B1 publication Critical patent/KR101923184B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R33/00Arrangements or instruments for measuring magnetic variables
    • G01R33/20Arrangements or instruments for measuring magnetic variables involving magnetic resonance
    • G01R33/44Arrangements or instruments for measuring magnetic variables involving magnetic resonance using nuclear magnetic resonance [NMR]
    • G01R33/48NMR imaging systems
    • G01R33/54Signal processing systems, e.g. using pulse sequences ; Generation or control of pulse sequences; Operator console
    • G01R33/56Image enhancement or correction, e.g. subtraction or averaging techniques, e.g. improvement of signal-to-noise ratio and resolution
    • G01R33/5608Data processing and visualization specially adapted for MR, e.g. for feature analysis and pattern recognition on the basis of measured MR data, segmentation of measured MR data, edge contour detection on the basis of measured MR data, for enhancing measured MR data in terms of signal-to-noise ratio by means of noise filtering or apodization, for enhancing measured MR data in terms of resolution by means for deblurring, windowing, zero filling, or generation of gray-scaled images, colour-coded images or images displaying vectors instead of pixels
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7203Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal
    • A61B5/7207Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal of noise induced by motion artifacts
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R33/00Arrangements or instruments for measuring magnetic variables
    • G01R33/20Arrangements or instruments for measuring magnetic variables involving magnetic resonance
    • G01R33/44Arrangements or instruments for measuring magnetic variables involving magnetic resonance using nuclear magnetic resonance [NMR]
    • G01R33/48NMR imaging systems
    • G01R33/54Signal processing systems, e.g. using pulse sequences ; Generation or control of pulse sequences; Operator console
    • G01R33/56Image enhancement or correction, e.g. subtraction or averaging techniques, e.g. improvement of signal-to-noise ratio and resolution
    • G01R33/561Image enhancement or correction, e.g. subtraction or averaging techniques, e.g. improvement of signal-to-noise ratio and resolution by reduction of the scanning time, i.e. fast acquiring systems, e.g. using echo-planar pulse sequences
    • G01R33/5611Parallel magnetic resonance imaging, e.g. sensitivity encoding [SENSE], simultaneous acquisition of spatial harmonics [SMASH], unaliasing by Fourier encoding of the overlaps using the temporal dimension [UNFOLD], k-t-broad-use linear acquisition speed-up technique [k-t-BLAST], k-t-SENSE
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/001Image restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R33/00Arrangements or instruments for measuring magnetic variables
    • G01R33/20Arrangements or instruments for measuring magnetic variables involving magnetic resonance
    • G01R33/44Arrangements or instruments for measuring magnetic variables involving magnetic resonance using nuclear magnetic resonance [NMR]
    • G01R33/48NMR imaging systems
    • G01R33/4818MR characterised by data acquisition along a specific k-space trajectory or by the temporal order of k-space coverage, e.g. centric or segmented coverage of k-space
    • G01R33/482MR characterised by data acquisition along a specific k-space trajectory or by the temporal order of k-space coverage, e.g. centric or segmented coverage of k-space using a Cartesian trajectory
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R33/00Arrangements or instruments for measuring magnetic variables
    • G01R33/20Arrangements or instruments for measuring magnetic variables involving magnetic resonance
    • G01R33/44Arrangements or instruments for measuring magnetic variables involving magnetic resonance using nuclear magnetic resonance [NMR]
    • G01R33/48NMR imaging systems
    • G01R33/54Signal processing systems, e.g. using pulse sequences ; Generation or control of pulse sequences; Operator console
    • G01R33/546Interface between the MR system and the user, e.g. for controlling the operation of the MR system or for the design of pulse sequences
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R33/00Arrangements or instruments for measuring magnetic variables
    • G01R33/20Arrangements or instruments for measuring magnetic variables involving magnetic resonance
    • G01R33/44Arrangements or instruments for measuring magnetic variables involving magnetic resonance using nuclear magnetic resonance [NMR]
    • G01R33/48NMR imaging systems
    • G01R33/54Signal processing systems, e.g. using pulse sequences ; Generation or control of pulse sequences; Operator console
    • G01R33/56Image enhancement or correction, e.g. subtraction or averaging techniques, e.g. improvement of signal-to-noise ratio and resolution
    • G01R33/561Image enhancement or correction, e.g. subtraction or averaging techniques, e.g. improvement of signal-to-noise ratio and resolution by reduction of the scanning time, i.e. fast acquiring systems, e.g. using echo-planar pulse sequences
    • G01R33/5615Echo train techniques involving acquiring plural, differently encoded, echo signals after one RF excitation, e.g. using gradient refocusing in echo planar imaging [EPI], RF refocusing in rapid acquisition with relaxation enhancement [RARE] or using both RF and gradient refocusing in gradient and spin echo imaging [GRASE]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Abstract

본 개시는 기계 학습 알고리즘을 활용하는 인공지능(AI) 시스템 및 그 응용에 관련된 것이다. 보다 구체적으로, 본 개시는 자기 공명 영상 획득 가속화를 위한 영상 복원 방법에 있어서, 서브 샘플링된 자기 공명 영상의 데이터를 획득하는 단계; 적어도 하나의 뉴럴 네트워크(neural network)를 이용한 학습 모델에 기초하여, 상기 서브 샘플링된 자기 공명 영상의 데이터의 위상 인코딩 방향에 대응되는 적어도 한 줄의 픽셀들에 대한 복원 데이터를 획득하는 단계; 및 상기 획득된 복원 데이터를 이용하여 상기 서브 샘플링된 자기 공명 영상에 대한 복원 영상을 획득하는 단계를 포함하는 영상 복원 방법을 개시한다.

Description

뉴럴 네트워크를 이용한 영상 복원 방법 및 그 자기 공명 영상 장치{METHOD AND MAGNETIC RESONANCE IMAGING APPARATUS THEREOF FOR RESTORING IMAGE USING NEURAL NETWORK}
다양한 실시예들은 자기 공명 영상의 복원 방법 및 자기 공명 영상 장치에 관한 것이다. 보다 구체적으로, 다양한 실시예들은 뉴럴 네트워크를 이용한 학습 모델에 기초하여 엘리어싱 아티팩트(aliasing artifacts)를 포함하는 자기 공명 영상의 복원 방법 및 자기 공명 영상 장치에 관한 것이다.
인공지능 시스템은 인간 수준의 지능을 구현하는 컴퓨터 시스템으로서 기계가 스스로 학습하고 판단하며, 사용할수록 인식률이 향상되는 시스템이다.
인공지능 기술은 입력 데이터들의 특징을 스스로 분류/학습하는 알고리즘을 이용하는 기계학습(딥러닝) 기술 및 기계학습 알고리즘을 활용하여 인간 두뇌의 인지, 판단 등의 기능을 모사하는 요소 기술들로 구성된다.
요소기술들은, 예로, 인간의 언어/문자를 인식하는 언어적 이해 기술, 사물을 인간의 시각처럼 인식하는 시각적 이해 기술, 정보를 판단하여 논리적으로 추론하고 예측하는 추론/예측 기술, 인간의 경험 정보를 지식데이터로 처리하는 지식 표현 기술 및 차량의 자율 주행, 로봇의 움직임을 제어하는 동작 제어 기술 중 적어도 하나를 포함할 수 있다.
이와 관련하여, 최근에는 의료 영상(CT, MRI 영상 등)을 신속하게 복원하기 위하여 인공지능 기술이 이용되고 있다. 특히, 다른 의료 영상에 비해 획득에 비교적 긴 시간이 소요되는 자기 공명 영상을 획득하는 과정에서 인공지능 기술을 이용한 다양한 기법들이 이용되고 있다.
개시된 실시예들은, 뉴럴 네트워크를 이용한 학습 모델에 기초하여 서브 샘플링된 자기 공명 영상에 대한 복원 영상을 획득함으로써 자기 공명 영상의 획득 시간을 단축시킬 수 있는 영상 복원 방법 및 자기 공명 영상 장치를 제공하고자 한다.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 개시의 제1 측면은, 프로세서 및 적어도 하나의 프로그램이 저장되는 메모리를 포함하고, 상기 메모리는 상기 적어도 하나의 프로그램이 상기 프로세서에서 실행될 때, 상기 프로세서가 서브 샘플링된 자기 공명 영상의 데이터를 획득하는 단계, 적어도 하나의 뉴럴 네트워크(neural network)를 이용한 학습 모델에 기초하여, 상기 서브 샘플링된 자기 공명 영상의 데이터의 위상 인코딩 방향에 대응되는 적어도 한 줄의 픽셀들에 대한 복원 데이터를 획득하는 단계, 및 상기 획득된 복원 데이터를 이용하여 상기 서브 샘플링된 자기 공명 영상에 대한 복원 영상을 획득하는 단계를 실행하도록 하는 명령어들을 저장하는 자기 공명 영상 장치를 제공할 수 있다.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 개시의 제2 측면은, 서브 샘플링된 자기 공명 영상의 데이터를 획득하는 단계, 적어도 하나의 뉴럴 네트워크(neural network)를 이용한 학습 모델에 기초하여, 상기 서브 샘플링된 자기 공명 영상의 데이터의 위상 인코딩 방향에 대응되는 적어도 한 줄의 픽셀들에 대한 복원 데이터를 획득하는 단계, 및 상기 획득된 복원 데이터를 이용하여 상기 서브 샘플링된 자기 공명 영상에 대한 복원 영상을 획득하는 단계를 포함하는, 영상 복원 방법을 제공할 수 있다.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 개시의 제3 측면은, 제2 측면의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 포함하는 컴퓨터 프로그램 제품을 제공할 수 있다.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 개시의 제4 측면은, 프로세서 및 적어도 하나의 프로그램이 저장되는 메모리를 포함하고, 상기 메모리는 상기 적어도 하나의 프로그램이 상기 프로세서에서 실행될 때, 상기 프로세서가 서브 샘플링된 자기 공명 영상의 데이터를 획득하는 단계, 적어도 하나의 뉴럴 네트워크(neural network)를 이용한 학습 모델에 기초하여, 상기 서브 샘플링된 자기 공명 영상의 데이터의 엘리어싱(aliasing) 방향에 대응되는 적어도 한 줄의 픽셀들에 대한 복원 데이터를 획득하는 단계, 및 상기 획득된 복원 데이터를 이용하여 상기 서브 샘플링된 자기 공명 영상에 대한 복원 영상을 획득하는 단계를 실행하도록 하는 명령어들을 저장하는 자기 공명 영상 장치를 제공할 수 있다.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 개시의 제5 측면은, 서브 샘플링된 자기 공명 영상의 데이터를 획득하는 단계, 적어도 하나의 뉴럴 네트워크(neural network)를 이용한 학습 모델에 기초하여, 상기 서브 샘플링된 자기 공명 영상의 데이터의 엘리어싱(aliasing) 방향에 대응되는 적어도 한 줄의 픽셀들에 대한 복원 데이터를 획득하는 단계, 및 상기 획득된 복원 데이터를 이용하여 상기 서브 샘플링된 자기 공명 영상에 대한 복원 영상을 획득하는 단계를 포함하는, 영상 복원 방법을 제공할 수 있다.
도 1a 는 일 실시예에 따른, 영상 복원 방법을 설명하기 위한 개요도이다.
도 1b는 뉴럴 네트워크를 이용하여, 학습 모델을 구축하는 과정을 설명하기 위한 도면이다.
도 2는 일 실시예에 따른, 자기 공명 영상 장치를 나타내는 블록도이다.
도 3은 일 실시예에 따른, 뉴럴 네트워크를 이용한 학습 모델에 기초하여 서브 샘플링된 자기 공명 영상에 대한 복원 데이터를 획득하는 과정을 도시하는 도면이다.
도 4는 일 실시예에 따른, 서브 샘플링된 자기 공명 영상의 데이터를 그룹화하는 방법을 설명하기 위한 도면이다.
도 5는 다른 일 실시예에 따른, 뉴럴 네트워크를 이용한 학습 모델에 기초하여 서브 샘플링된 자기 공명 영상에 대한 복원 데이터를 획득하는 과정을 도시하는 도면이다.
도 6은 일 실시예에 따른, 자기 공명 영상 장치가 데이터 순환 이동(circular shifting)을 통하여 적어도 하나의 추가 영상의 데이터를 획득하는 방법을 설명하기 위한 도면이다.
도 7은 일 실시예에 따른, 뉴럴 네트워크를 이용한 학습 모델에 기초하여 서브 샘플링된 3D 자기 공명 영상에 대한 복원 데이터를 획득하는 과정을 도시하는 도면이다.
도 8은 개시된 실시예들에 따라 획득된 복원 영상의 오차율에 대한 실험 데이터를 나타내는 도면이다.
도 9는 개시된 실시예들에 따라 획득된 복원 영상의 오차율에 대한 다른 실험 데이터를 나타내는 도면이다.
도 10은 일 실시예에 따른, 뉴럴 네트워크를 이용한 학습 모델에 기초하여 서브 샘플링된 자기 공명 영상에 대한 복원 영상을 획득하는 방법을 나타내는 흐름도이다.
도 11은 일 실시예에 따른, 프로세서의 블록도이다.
도 12는 일 실시예에 따른, 데이터 학습부의 블록도이다.
도 13은 일 실시예에 따른, 데이터 인식부의 블록도이다.
도 14는 일 실시예에 따른, MRI 시스템의 개략도이다.
본 명세서는 본 발명의 권리범위를 명확히 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 실시할 수 있도록, 본 발명의 원리를 설명하고, 실시예들을 개시한다. 개시된 실시예들은 다양한 형태로 구현될 수 있다.
명세서 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다. 본 명세서가 실시예들의 모든 요소들을 설명하는 것은 아니며, 본 발명이 속하는 기술분야에서 일반적인 내용 또는 실시예들 간에 중복되는 내용은 생략한다. 명세서에서 사용되는 ‘부’(part, portion)라는 용어는 소프트웨어 또는 하드웨어로 구현될 수 있으며, 실시예들에 따라 복수의 ‘부’가 하나의 요소(unit, element)로 구현되거나, 하나의 ‘부’가 복수의 요소들을 포함하는 것도 가능하다. 이하 첨부된 도면들을 참고하여 본 발명의 작용 원리 및 실시예들에 대해 설명한다.
본 명세서에서 영상은 자기 공명 영상(MRI) 장치, 컴퓨터 단층 촬영(CT) 장치, 초음파 촬영 장치, 또는 엑스레이 촬영 장치 등의 의료 영상 장치에 의해 획득된 의료 영상을 포함할 수 있다.
본 명세서에서 ‘대상체(object)’는 촬영의 대상이 되는 것으로서, 사람, 동물, 또는 그 일부를 포함할 수 있다. 예를 들어, 대상체는 신체의 일부(장기 또는 기관 등; organ) 또는 팬텀(phantom) 등을 포함할 수 있다.
MRI 시스템은 자기 공명(magnetic resonance, MR) 신호를 획득하고, 획득된 자기 공명 신호를 영상으로 재구성한다. 자기 공명 신호는 대상체로부터 방사되는 RF 신호를 의미한다.
MRI 시스템은 주자석이 정자장(static magnetic field)을 형성하여, 정자장 속에 위치한 대상체의 특정 원자핵의 자기 쌍극자 모멘트 방향을 정자장 방향으로 정렬시킨다. 경사자장 코일은 정자장에 경사 신호를 인가하여, 경사자장을 형성시켜, 대상체의 부위 별로 공명 주파수를 다르게 유도할 수 있다.
RF 코일은 영상 획득을 원하는 부위의 공명 주파수에 맞추어 RF 신호를 조사할 수 있다. 또한, RF 코일은 경사자장이 형성됨에 따라, 대상체의 여러 부위로부터 방사되는 서로 다른 공명 주파수의 MR 신호들을 수신할 수 있다. MRI 시스템은 이러한 단계를 통해 수신된 MR 신호들에 영상 복원 기법을 적용하여 영상을 획득한다.
도 1a 는 일 실시예에 따른, 영상 복원 방법을 설명하기 위한 개요도이다.
도 1a를 참조하면, 일 실시예에 따른 자기 공명 영상 장치(100)는 뉴럴 네트워크(neural network)(40)를 이용하여 구축된 학습 모델에 기초하여, 서브 샘플링된 자기 공명 영상(20)에 대응되는 복원 영상(80)을 획득할 수 있다.
여기서, 서브 샘플링된 자기 공명 영상(20)은 복원 영상(80)을 획득하기 위해 자기 공명 영상 장치(100)에 제공되는 입력 데이터에 대응되는 영상일 수 있다. 또한, 서브 샘플링된 자기 공명 영상(20)은 나이키스트 샘플링 레이트보다 낮은 샘플링 레이트로 MR 신호를 샘플링하여 획득된 영상이다. 서브 샘플링된 자기 공명 영상(20)은 엘리어싱 아티팩트(aliasing artifact)를 포함하는 영상일 수 있다.
일 실시예에서, 자기 공명 영상 장치(100)는 RF 코일로부터 수신한 MR 신호에 기초하여, 서브 샘플링된 자기 공명 영상(20)에 대응되는 입력 데이터를 획득할 수 있다.
다른 일 실시예에서, 자기 공명 영상 장치(100)는 외부의 자기 공명 영상 장치, 외부 서버, 및 데이터 베이스 중 적어도 하나로부터 서브 샘플링된 자기 공명 영상(20)에 대응되는 입력 데이터를 획득할 수도 있다.
여기서, 입력 데이터는 RF 코일로부터 수신한 MR 신호를 포함할 수 있다. 또한, 입력 데이터는 서브 샘플링된 MR 신호가 k 공간에 배치되어 생성되는 서브 샘플링된 k 공간 데이터를 포함할 수 있다. 또한, 입력 데이터는 서브 샘플링된 k 공간 데이터를 푸리에 변환(Fourier transform)하여 생성되는 이미지 데이터를 포함할 수 있다.
복원 영상(80)은, 입력 데이터에 대응되는 서브 샘플링된 자기 공명 영상(20)을 자기 공명 영상 장치(100)에 입력하는 경우 획득되는 출력 데이터에 대응되는 영상일 수 있다. 복원 영상(80)은 서브 샘플링된 자기 공명 영상(20)에서 엘리어싱 아티팩트가 제거된 영상일 수 있다.
개시된 실시예에서, 자기 공명 영상 장치(100)는, 자체적으로 자기 공명 영상을 획득할 수 있는 MRI 장치뿐만 아니라, 외부에서 획득된 영상을 처리하는 영상 처리 장치, 자기 공명 영상에 대한 프로세싱 기능을 구비한 스마트폰, 태플릿 PC, PC, 스마트 TV, 휴대폰, PDA, 랩톱, 마이크로 서버, 전자책 단말기, 가전 기기 및 기타 모바일 또는 비 모바일 컴퓨팅 장치 일 수 있으나 이에 제한되지 않는다. 또한, 자기 공명 영상 장치(100)는 통신 기능 및 데이터 프로세싱 기능을 구비한 시계, 안경, 헤어 밴드, 및 반지 등의 웨어러블 디바이스일 수 있다.
도 1b는 뉴럴 네트워크(40)를 이용하여, 학습 모델을 구축하는 과정을 설명하기 위한 도면이다.
도 1b를 참조하면, 뉴럴 네트워크(40)는, 통계적 기계 학습 결과를 이용하여, 적어도 하나의 서브 샘플링된 자기 공명 영상(21)과 적어도 하나의 풀(full) 샘플링된 자기 공명 영상(81) 간의 상관 관계를 학습하는 알고리즘의 집합일 수 있다. 뉴럴 네트워크(40)는 적어도 하나의 뉴럴 네트워크를 포함할 수 있다.
뉴럴 네트워크(40)는 DNN(Deep Neural Network), RNN(Recurrent Neural Network), BRDNN(Bidirectional Recurrent Deep Neural Network), MLP(Multilayer Perceptron), CNN(Convolutional Neural Network)와 같은 방식의 네트워크 모델들을 포함할 수 있으나, 이에 한정되지 않는다.
또한, 학습 모델은 뉴럴 네트워크(40)를 이용하여 적어도 하나의 서브 샘플링된 자기 공명 영상(21) 및 적어도 하나의 풀 샘플링된 자기 공명 영상(81) 간의 상관 관계를 학습하여 구축된 모델일 수 있다.
예를 들어, 학습 모델은 뉴럴 네트워크(40)를 이용하여 적어도 하나의 서브 샘플링된 자기 공명 영상(21) 및 적어도 하나의 풀 샘플링된 자기 공명 영상(81) 간의 상관 관계를 위상 인코딩 방향에 대응되는 적어도 한 줄의 픽셀들을 단위로 학습하여 구축된 모델 일 수 있다.
풀 샘플링된 자기 공명 영상(81)은 학습 모델을 구축하기 위해 별도로 획득되는 영상일 수 있다. 또한, 풀 샘플링된 자기 공명 영상(81)은 나이키스트 샘플링 레이트 이상의 샘플링 레이트로 k 공간 데이터를 샘플링하여 획득된 영상일 수 있다.
서브 샘플링된 자기 공명 영상(21)은 나이키스트 샘플링 레이트 보다 낮은 샘플링 레이트로 k 공간 데이터를 샘플링하여 획득된 영상일 수 있다.
일 실시예에서, 서브 샘플링된 자기 공명 영상(21)은 풀 샘플링된 자기 공명 영상(81)에 대한 k 공간 데이터를 나이키스트 샘플링 레이트보다 낮은 레이트로 샘플링함으로써 획득될 수 있다. 또한, 서브 샘플링된 자기 공명 영상(21)은 풀 샘플링된 자기 공명 영상(81)을 획득함과 동시에 획득될 수도 있다.
일 실시예에서, 학습 모델은 서브 샘플링된 자기 공명 영상(21) 및 풀 샘플링된 자기 공명 영상(81) 이외에도 다양한 추가 데이터를 이용하여 구축될 수 있다. 예를 들어, 추가 데이터로는 서브 샘플링된 자기 공명 영상(21)에 대응되는 k 공간 데이터, 실수 영상 데이터, 허수 영상 데이터, 크기 영상 데이터, 위상 영상 데이터 및 멀티 채널 RF 코일의 민감도 정보 중 적어도 하나가 이용될 수 있다.
일 실시예에서, 자기 공명 영상 장치(100)는 전술한 학습 모델을 자체적으로 구축할 수 있다.
다른 일 실시예에서, 자기 공명 영상 장치(100)는 외부 서버 또는 외부 디바이스에서 구축된 학습 모델을 외부 서버 또는 외부 디바이스로부터 획득할 수도 있다.
개시된 실시예들에서, 자기 공명 영상 장치(100)는 도 1b를 참조하여 설명한 뉴럴 네트워크(40)를 이용한 학습 모델에 기초하여, 서브 샘플링된 자기 공명 영상(20)에 대한 복원 영상(80)을 획득함으로써 영상 획득 속도 가속화에 따른 영상 품질의 저하를 방지할 수 있다.
도 2는 일 실시예에 따른, 자기 공명 영상 장치(100)를 나타내는 블록도이다.
도 2의 자기 공명 영상 장치(100)는 적어도 하나의 뉴럴 네트워크(40)를 이용하여 서브 샘플링된 자기 공명 영상(20)에 대한 복원 영상(80)을 획득함으로써, 자기 공명 영상의 획득 속도를 가속화할 수 있는 장치일 수 있다.
도 2를 참조하면, 자기 공명 영상 장치(100)는 메모리(110) 및 프로세서(120)를 포함한다. 프로세서(120)는 후술할 도 11에 도시된 프로세서(1100)에 대응될 수 있다. 또한, 프로세서(120)는 후술할 도 14에 도시된 영상 처리부(11) 및 제어부(30) 중 하나 또는 이들의 조합에 대응될 수 있다.
메모리(110)는 자기 공명 영상 장치(100)를 구동하고 제어하기 위한 다양한 데이터, 프로그램 또는 어플리케이션을 저장할 수 있다. 메모리(110)에 저장되는 프로그램은 하나 이상의 명령어를 포함할 수 있다. 메모리에 저장된 프로그램(하나 이상의 명령어) 또는 어플리케이션은 프로세서(120)에 의해 실행될 수 있다.
일 실시예에 따른, 메모리(110)는 뉴럴 네트워크(40)를 구성하는 하나 이상의 명령어를 포함할 수 있다. 또한, 메모리(110)는 뉴럴 네트워크(40)를 제어하는 하나 이상의 명령어를 포함할 수 있다. 뉴럴 네트워크(40)는 서브 샘플링된 자기 공명 영상(21)과 풀 샘플링된 자기 공명 영상(81) 간의 상관 관계를 위상 인코딩 방향에 대응되는 적어도 한 줄의 픽셀들을 단위로 학습하는 하나 이상의 명령어를 포함하는 복수의 레이어들로 구성될 수 있다. 또한, 뉴럴 네트워크(40)는 복수의 입력에 대한 병렬적인 학습을 수행할 수 있는 복수의 입력 채널들을 포함할 수 있다.
프로세서(120)는 메모리(110)에 저장되는 적어도 하나의 프로그램을 실행할 수 있다. 프로세서(120)는 기 설정되어 저장된 조건을 만족하는 경우 메모리(110)에 저장된 OS(Operation System) 및 다양한 프로그램들을 실행할 수 있다. 프로세서(120)는 싱글 코어, 듀얼 코어, 트리플 코어, 쿼드 코어 및 그 배수의 코어를 포함하는 적어도 하나의 프로세서(processor)를 포함할 수 있다. 또한, 예를 들어, 프로세서(120)는 메인 프로세서(main processor, 미도시) 및 슬립 모드(sleep mode)에서 동작되는 서브 프로세서(sub processor, 미도시)로 구현될 수 있다.
프로세서(120)는 서브 샘플링된 자기 공명 영상(20)에 대한 데이터를 획득한다. 서브 샘플링된 자기 공명 영상(20)은 프로세서(120)가 복원 영상(80)을 획득하기 위한 입력 데이터에 대응되는 영상일 수 있다.
서브 샘플링된 자기 공명 영상(20)에 대한 데이터는 RF 코일로부터 수신한 MR 신호를 포함할 수 있다. 또한, 서브 샘플링된 자기 공명 영상(20)에 대한 데이터는 서브 샘플링된 MR 신호가 k 공간에 배치되어 생성되는 서브 샘플링된 k 공간 데이터를 포함할 수 있다. 또한, 서브 샘플링된 자기 공명 영상(20)에 대한 데이터는 서브 샘플링된 k 공간 데이터를 푸리에 변환(Fourier transform)하여 생성된 이미지 데이터를 포함할 수 있다.
예를 들어, 프로세서(120)는 자기 공명 영상 장치(100)에 포함된 RF 코일(미도시)로부터 규칙적이거나 불규칙적 패턴으로 서브 샘플링된 MR 신호를 획득하고, 획득된 MR 신호에 기초하여 서브 샘플링된 자기 공명 영상(20)에 대한 데이터를 획득할 수 있다. 다른 예에서, 프로세서(120)는 외부의 서버, 데이터 베이스, 자기 공명 영상 장치 중 적어도 하나로부터 서브 샘플링된 자기 공명 영상(20)에 대한 데이터를 획득할 수 있다.
프로세서(120)는 적어도 하나의 뉴럴 네트워크(40)를 이용한 학습 모델에 기초하여, 서브 샘플링된 자기 공명 영상(20)의 데이터의 위상 인코딩 방향에 대응되는 적어도 한 줄의 픽셀들에 대한 복원 데이터를 획득한다.
프로세서(120)는 적어도 하나의 뉴럴 네트워크(40)를 이용한 학습 모델에 기초하여, 서브 샘플링된 자기 공명 영상(20)의 데이터를 위상 인코딩 방향에 대응되는 적어도 한 줄의 픽셀들을 단위로 복원한 복원 데이터를 획득할 수 있다.
일 실시예에서, 프로세서(120)는 서브 샘플링된 자기 공명 영상(20)의 데이터를 위상 인코딩 방향에 대응되는, 적어도 한 줄의 픽셀들을 단위로 하는 복수의 그룹들로 그룹화할 수 있다. 서브 샘플링된 자기 공명 영상(20)의 위상 인코딩 방향은, 서브 샘플링된 자기 공명 영상(20)의 엘리어싱 아티팩트의 방향과 나란한 방향일 수 있다.
또한, 서브 샘플링된 자기 공명 영상(20)의 데이터를 위상 인코딩 방향에 대응되는 적어도 한 줄의 픽셀들을 단위로 하는 그룹으로 그룹화한다고 함은, 서브 샘플링된 자기 공명 영상(20)의 데이터를 위상 인코딩 방향과 나란한 적어도 한 줄의 픽셀들을 단위로 하는 그룹으로 그룹화하는 것을 의미할 수 있다.
예를 들어, 위상 인코딩 방향이 영상 단면의 x축 방향과 나란한 방향인 경우, 프로세서(120)는 서브 샘플링된 자기 공명 영상(20)의 데이터를 y축 픽셀 값이 동일한 한 줄의 픽셀들을 하나의 그룹으로 하는 복수의 그룹들로 그룹화할 수 있다. 또한, 프로세서(120)는 서브 샘플링된 자기 공명 영상(20)의 데이터를 y축 픽셀 값이 각각 동일한 복수 개의 줄의 픽셀들을 하나의 그룹으로 하는 복수의 그룹들로 그룹화할 수도 있다.
마찬가지로, 위상 인코딩 방향이 영상 단면의 y축 방향과 나란한 방향인 경우, 프로세서(120)는 서브 샘플링된 자기 공명 영상(20)의 데이터를 x축 픽셀 값이 동일한 한 줄의 픽셀들을 하나의 그룹으로 하는 복수의 그룹들로 그룹화 할 수 있다.
일 실시예에서, 프로세서(120)가 서브 샘플링된 자기 공명 영상(20)의 데이터를 위상 인코딩 방향에 대응되는 한 줄의 픽셀들을 하나의 그룹으로 결정할지 또는 복수 개의 줄의 픽셀들을 하나의 그룹으로 결정할지 여부에 대한 그룹화 방법은 뉴럴 네트워크(40)에 의해 동적으로 결정될 수 있다. 그룹화 방법이 뉴럴 네트워크(40)에 의해 동적으로 결정된다 함은, 서브 샘플링된 자기 공명 영상(20)의 그룹화 방법에 따라 획득되는 복원 영상(80)의 통계적 오차에 따라 가장 효과적인 그룹화 방법을 결정하는 것을 의미할 수 있다.
프로세서(120)는 뉴럴 네트워크(40)를 이용한 학습 모델에 기초하여 서브 샘플링된 자기 공명 영상(20)의 데이터에 대한 복수의 그룹들 각각에 대응하는 복원 데이터를 획득 할 수 있다.
복원 데이터는 서브 샘플링된 자기 공명 영상(20)의 데이터에 대한 복수의 그룹들에 학습 모델을 적용하여 획득되는 데이터일 수 있다. 복원 데이터는 서브 샘플링된 자기 공명 영상(20)의 데이터로부터 복원 영상(80)의 데이터를 획득하기 위한 매개 변수 또는 가중치 값을 포함할 수 있으나, 이에 한정 되는 것은 아니다. 또한, 여기서 복수의 그룹들에 학습 모델을 적용하는 것은, 복수의 그룹들에 대한 데이터를 자기 공명 영상 장치(100)에 복원 영상(80)을 획득하기 위한 입력 데이터로 제공하는 것을 의미할 수 있다.
예를 들어, 프로세서(120)는 뉴럴 네트워크(40)를 이용한 학습 모델에 기초하여 복수의 그룹들에 포함된 각각의 그룹들에 대한 복원 데이터를 순차적으로 획득할 수 있다. 다른 예에서, 프로세서(120)는 복수의 입력 채널들을 포함하는 뉴럴 네트워크(40)를 이용하여 복수의 그룹들에 포함된 그룹들에 대한 복원 데이터를 병렬적으로 획득할 수도 있다. 프로세서(120)는 각각의 그룹들에 대한 복원 데이터에 기초하여 서브 샘플링된 자기 공명 영상(20) 전체에 대한 복원 데이터를 획득할 수 있다.
전술한 실시예들에서는, 프로세서(120)가 뉴럴 네트워크(40)를 이용한 학습 모델에 기초하여 서브 샘플링된 자기 공명 영상(20)의 데이터를 위상 인코딩 방향에 대응되는 적어도 한 줄의 픽셀들에 대응하는 복원 데이터를 획득하거나, 서브 샘플링된 자기 공명 영상(20)의 데이터를 위상 인코딩 방향에 대응되는 적어도 한 줄의 픽셀들을 단위로 하는 복수의 그룹들로 그룹화하고, 뉴럴 네트워크(40)를 이용한 학습 모델에 기초하여 복수의 그룹들 각각에 대응되는 복원 데이터를 획득하는 것으로 설명하였으나, 개시된 실시예들이 이에 한정되는 것은 아니다. 프로세서(120)는 뉴럴 네트워크(40)를 이용한 학습 모델에 기초하여, 서브 샘플링된 자기 공명 영상(20)의 데이터를 적어도 하나의 픽셀 단위로 복원한 복원 데이터를 획득할 수 있다.
프로세서(120)는 획득된 복원 데이터를 이용하여 서브 샘플링된 자기 공명 영상(20)에 대한 복원 영상(80)을 획득한다. 프로세서(120)는 입력 데이터에 대응하는 서브 샘플링된 자기 공명 영상(20)에 대한 출력 데이터로서 복원 영상(80)을 획득할 수 있다. 복원 영상(80)은 서브 샘플링된 자기 공명 영상(20)에서 위상 인코딩 방향으로의 엘리어싱 아티팩트가 제거된 영상을 의미할 수 있다.
또한, 도 2에는 도시되지 않았으나, 일 실시예에 따른, 자기 공명 영상 장치(100)는 멀티 채널 RF 코일을 더 포함할 수 있다. 멀티 채널 RF 코일은 각각 대상체로부터 MR 신호를 수신할 수 있다.
일 실시예에서, 프로세서(120)는 멀티 채널 RF 코일에 의해 수신된 MR 신호에 기초하여, 멀티 채널 RF 코일 각각에 대한 서브 샘플링된 자기 공명 영상들을 획득할 수 있다.
일 실시예에서, 뉴럴 네트워크(40)를 이용한 학습 모델은 각각의 멀티 채널 RF 코일 의해 획득된 MR 신호들에 대응하는 서브 샘플링된 자기 공명 영상들과 적어도 하나의 풀 샘플링된 자기 공명 영상 사이의 상관 관계를 위상 인코딩 방향과 대응되는 적어도 한 줄의 픽셀들을 단위로 학습하여 구축된 학습 모델일 수 있다.
또한, 학습 모델은 학습 과정에서 멀티 채널 RF 코일에 대한 민감도 정보를 더 이용하여 구축된 학습 모델일 수 있다. 이에 따라, 프로세서(120)는 서브 샘플링된 자기 공명 영상(20) 이외에 멀티 채널 RF 코일 각각의 민감도 정보를 추가 입력 데이터로 이용하여, 뉴럴 네트워크(40)를 이용한 학습 모델에 기초하여 복원 영상(80)을 획득할 수 있다.
개시된 실시예들에 따르면, 자기 공명 영상 장치(100)는 서브 샘플링된 자기 공명 영상(20)에 대응되는 입력 데이터만을 획득하더라도 뉴럴 네트워크(40)를 이용한 학습 모델에 기초하여, 서브 샘플링된 자기 공명 영상(20)에 대한 복원 영상(80)을 획득할 수 있다. 이에 따라, 자기 공명 영상 장치(100)는 진단에 사용할 수 있는 자기 공명 영상의 획득 속도를 가속화 할 수 있다.
도 3은 일 실시예에 따른, 뉴럴 네트워크(40)를 이용한 학습 모델에 기초하여 서브 샘플링된 자기 공명 영상에 대한 복원 데이터를 획득하는 과정을 도시하는 도면이다.
자기 공명 영상 장치(100)는 서브 샘플링된 자기 공명 영상(20)을 획득한다. 자기 공명 영상 장치(100)는 적어도 하나의 뉴럴 네트워크(40)를 이용한 학습 모델에 기초하여, 서브 샘플링된 자기 공명 영상(20)의 데이터의 위상 인코딩 방향(310)에 대응되는 적어도 한 줄의 픽셀들에 대한 복원 데이터를 획득한다.
자기 공명 영상 장치(100)는 적어도 하나의 뉴럴 네트워크(40)를 이용한 학습 모델에 기초하여, 서브 샘플링된 자기 공명 영상(20)의 데이터를 위상 인코딩 방향(310)에 대응되는 적어도 한 줄의 픽셀들을 단위로 복원한 복원 데이터를 획득할 수 있다.
일 실시예에서, 자기 공명 영상 장치(100)는 입력 데이터에 대응되는 서브 샘플링된 자기 공명 영상(20)의 데이터를 위상 인코딩 방향(310)에 대응되는 한 줄의 픽셀들을 단위로 하는 복수의 그룹들로 그룹화 할 수 있다.
전술한 바와 같이 자기 공명 영상 장치(100)가 서브 샘플링된 자기 공명 영상(20)의 데이터를 그룹화하는 방법은 뉴럴 네트워크(40)에 의해 동적으로 결정될 수 있다.
이하에서는, 자기 공명 영상 장치(100)가 서브 샘플링된 자기 공명 영상(20)을 위상 인코딩 방향(310)에 대응되는 한 줄의 픽셀들을 단위로 하는 복수의 그룹들로 그룹화한 경우를 예로 들어 설명한다.
예를 들어, 서브 샘플링된 자기 공명 영상(20)의 크기가 256 * 256인 경우, 자기 공명 영상 장치(100)는 서브 샘플링된 자기 공명 영상(20)을 위상 인코딩 방향(310)과 나란한 256개의 그룹들(322, 324, 326,…, 328)로 그룹화 할 수 있다. 또한, 자기 공명 영상 장치(100)는 뉴럴 네트워크(40)를 이용한 학습 모델에 기초하여, 복수의 그룹들(322, 324, 326,…, 328) 각각에 대응되는 복원 데이터(332, 334, 336,…, 338)를 획득할 수 있다.
일 실시예에서, 자기 공명 영상 장치(100)는 뉴럴 네트워크(40)를 이용한 학습 모델이 구축될 때의 학습 방법과 대응되는 방법으로 복수의 그룹들(322, 324, 326,…, 328)에 포함된 각각의 그룹들을 순차적 또는 병렬적으로 적용함로써 각각의 복원 데이터(332, 334, 336,…, 338)를 획득할 수 있다.
자기 공명 영상 장치(100)는 복수의 그룹들 각각에 대응되는 복원 데이터(332, 334, 336,…, 338)에 기초하여, 서브 샘플링된 자기 공명 영상(20)에 대한 복원 영상(80)을 획득할 수 있다.
도 4는 일 실시예에 따른, 서브 샘플링된 자기 공명 영상의 데이터를 그룹화하는 방법을 설명하기 위한 도면이다.
도 4를 참고하면, 일 실시예에 따른 자기 공명 영상 장치(100)는 서브 샘플링된 자기 공명 영상(20)을 위상 인코딩 방향(410)과 대응되는 적어도 한 줄의 픽셀들을 단위로 하는 복수의 그룹들로 그룹화할 수 있다.
도 4를 참고하면, 서브 샘플링된 자기 공명 영상(20)은 n * n(n은 자연수)개의 픽셀을 포함할 수 있다. 예를 들어, n=256일 수 있다. 또한, 위상 인코딩 방향(410)은 자기 공명 영상(20)의 엘리어싱 아티팩트 방향과 나란한 방향일 수 있다. 자기 공명 영상 장치(100)는 n * n개의 픽셀들 중에서, 위상 인코딩 방향(410)과 대응되는 한 줄의 픽셀들인 {(0,0), (0, 1), (0, 2),…, (0, n)}(420)을 하나의 그룹으로 결정하고, 이와 동일한 방식으로 {(1,0), (1, 1), (1, 2),…, (1, n)},…, {(n,0), (n, 1), (n, 2),…, (n, n)}을 각각 하나의 그룹으로 하는 n개의 그룹들을 결정할 수 있다.
자기 공명 영상 장치(100)는 뉴럴 네트워크(40)를 이용한 학습 모델에 기초하여, 서브 샘플링된 자기 공명 영상(20)의 n개의 그룹들 중 하나의 그룹인 {(0,0), (0, 1), (0, 2),…, (0, n)}(420)에 대한 복원 데이터 {(0,0), (0, 1), (0, 2),…, (0, n)}(430)을 획득할 수 있다.
일 실시예에서, 서브 샘플링된 자기 공명 영상(20)의 n개의 그룹들 중 하나인 {(0,0), (0, 1), (0, 2),…, (0, n)}(420)의 복원 데이터 {(0,0), (0, 1), (0, 2),…, (0, n)}(430)는, 서브 샘플링된 자기 공명 영상(20)에 대한 복원 영상(80)의 {(0,0), (0, 1), (0, 2),…, (0, n)}에 대응하는 위치에서의 픽셀 값들일 수 있다.
다른 일 실시예에서, 서브 샘플링된 자기 공명 영상(20)의 n개의 그룹들 중 하나인 {(0,0), (0, 1), (0, 2),…, (0, n)}(420)의 복원 데이터 {(0,0), (0, 1), (0, 2),…, (0, n)}(430)는, 서브 샘플링된 자기 공명 영상(20)에 대한 복원 영상(80)의 {(0,0), (0, 1), (0, 2),…, (0, n)}에 대응하는 위치에서의 픽셀 값들을 획득할 수 있는 매개변수 또는 가중치 값일 수 있다.
전술한 방법에 기초하여, 자기 공명 영상 장치(100)는 서브 샘플링된 자기 공명 영상(20)의 n개의 그룹들에 대한 각각의 복원 데이터를 획득할 수 있다. 자기 공명 영상 장치(100)는 n개의 그룹들에 대한 각각의 복원 데이터에 기초하여 서브 샘플링된 자기 공명 영상(20)에 대한 복원 영상(80)을 획득할 수 있다.
도 4에서는, 서브 샘플링된 자기 공명 영상(20)의 그룹화 방법을, 위상 인코딩 방향(410)과 대응되는 한 줄의 픽셀들을 단위로 하는 n개의 그룹들로 그룹화하는 것으로 설명하였으나, 개시된 실시예들이 이에 한정되는 것은 아니다. 예를 들어, 자기 공명 영상 장치(100)는 서브 샘플링된 자기 공명 영상(20)을 위상 인코딩 방향(410)과 대응되는 두 줄의 픽셀들을 단위로 하는 n/2개의 그룹들로 그룹화 할 수도 있다. 이와 같은 그룹화 방법은 통계적 기계 학습 결과에 기초하여 복원 영상(80)을 획득하는 데에 최적화된 방법으로 뉴럴 네트워크(40)에 의해 동적으로 결정될 수 있다.
개시된 실시예들에 따르면, 자기 공명 영상 장치(100)는 뉴럴 네트워크(40)를 이용한 학습 모델에 기초하여, 서브 샘플링된 자기 공명 영상(20)의 위상 인코딩 방향과 대응되는 방향의 적어도 한 줄의 픽셀들을 단위로 서브 샘플링된 자기 공명 영상(20)에 대한 복원 데이터를 획득함으로써 비교적 적은 양의 연산과정을 통해 복원 영상(80)을 획득할 수 있다. 서브 샘플링된 자기 공명 영상(20)의 경우, 서브 샘플링된 방향인 위상 인코딩 방향(410)으로의 데이터의 수가 부족하기 때문에 위상 인코딩 방향(410)과 나란한 방향의 엘리어싱 아티팩트를 포함할 수 있다. 반면에, k 공간에서 데이터의 readout이 이루어지는 주파수 인코딩 방향으로는 모든 데이터가 획득되어 주파수 인코딩 방향과 대응되는 방향으로는 데이터 손실이 없을 수 있고, 이에 따라 주파수 인코딩 방향과 대응되는 방향으로는 엘리어싱 아티팩트도 발생하지 않을 수 있다.
따라서, 자기 공명 영상 장치(100)가 서브 샘플링된 자기 공명 영상(20)에 대한 복원 영상(80) 획득 시 엘리어싱 아티팩트가 발생한 방향인 위상 인코딩 방향과 대응되는 방향으로 입력 데이터를 구성하여 복원 데이터를 획득하기 위한 연산을 수행하는 경우, 이미 모든 데이터를 알고 있는 주파수 인코딩 방향과 관련된 불필요한 연산과정을 수행하지 않고 필요한 복원 데이터를 획득할 수 있다.
이에 따라, 개시된 실시예들에 따르면, 자기 공명 영상 장치(100)는 뉴럴 네트워크(40)를 이용한 학습 모델에 기초하여 데이터 복원이 필요한 위상 인코딩 방향에 포커싱된 연산과정을 수행할 수 있으므로, 복원 영상(80)에 대한 획득 효율 및 품질을 높일 수 있다.
도 5는 다른 일 실시예에 따른, 뉴럴 네트워크(42)를 이용한 학습 모델에 기초하여 서브 샘플링된 자기 공명 영상(20)에 대한 복원 데이터를 획득하는 과정을 도시하는 도면이다.
도 5를 참고하면, 자기 공명 영상 장치(100)는 서브 샘플링된 자기 공명 영상(20)에 대한, 실수 영상 데이터(22) 및 허수 영상 데이터(24)를 획득할 수 있다. 자기 공명 영상 장치(100)는 서브 샘플링된 자기 공명 영상(20)에 대한 복원 영상(80)을 획득하기 위한 입력 데이터로서 실수 영상 데이터(22) 및 허수 영상 데이터(24)를 획득할 수 있다.
실수 영상 데이터(22)는 서브 샘플링된 자기 공명 영상(20)의 k 공간 데이터의 실수 부분에 대한 데이터일 수 있다. 허수 영상 데이터(24)는 서브 샘플링된 자기 공명 영상(20)의 k 공간 데이터의 허수 부분에 대한 데이터일 수 있다.
뉴럴 네트워크(40)는, 도 5에 도시된 바와 같이 멀티 입력 채널들을 포함하는 뉴럴 네트워크(42)로 구현될 수 있다.
자기 공명 영상 장치(100)는 실수 영상 데이터(22)의 위상 인코딩 방향(510)과 대응되는 적어도 한 줄의 픽셀들 및 이와 대응되는 허수 영상 데이터(24)의 픽셀들에 대한 복원 데이터를 획득할 수 있다. 자기 공명 영상 장치(100)는 실수 영상 데이터(22)의 위상 인코딩 방향(510)과 대응되는 적어도 한 줄의 픽셀들 및 이와 대응되는 허수 영상 데이터(24)의 픽셀들에 대한 데이터를 뉴럴 네트워크(42)의 서로 다른 입력 채널에 대한 입력 데이터로 결정할 수 있다.
일 실시예에서, 자기 공명 영상 장치(100)는 실수 영상 데이터(22)를 위상 인코딩 방향(510)과 대응되는 적어도 한 줄의 픽셀들을 단위로 하는 복수의 그룹들(512, 514, 516,…, 518)로 그룹화할 수 있다. 또한, 자기 공명 영상 장치(100)는 허수 영상 데이터(24)를 위상 인코딩 방향(520)과 대응되는 적어도 한 줄의 픽셀들을 단위로 하는 복수의 그룹들(522, 524, 526,…, 528)로 그룹화할 수 있다. 실수 영상 데이터(22) 및 허수 영상 데이터(24)의 그룹화 방법은 도 3 및 도 4에서 전술한 서브 샘플링된 자기 공명 영상(20)의 데이터에 대한 그룹화 방법과 대응될 수 있으며, 이에 따른 중복된 설명은 생략한다.
실수 영상 데이터(22)의 위상 인코딩 방향(510) 및 허수 영상 데이터(24)의 위상 인코딩 방향(520)은 각각 서브 샘플링된 자기 공명 영상(20)의 위상 인코딩 방향과 대응되는 방향일 수 있다. 또한, 실수 영상 데이터의 위상 인코딩 방향(510) 및 허수 영상 데이터의 위상 인코딩 방향(520)은 각각 서브 샘플링된 자기 공명 영상(20)의 엘리어싱 아티팩트 방향과 대응되는 방향일 수 있다.
일 실시예에서, 자기 공명 영상 장치(100)는 실수 영상 데이터(22)의 복수의 그룹들(512, 514, 516,…, 518) 중 어느 하나의 그룹 및 이와 대응되는 허수 영상 데이터(24)의 그룹을 각각 뉴럴 네트워크(42)의 서로 다른 입력 채널에 대한 입력 데이터로 결정할 수 있다. 또한, 자기 공명 영상 장치(100)는 뉴럴 네트워크(42)를 이용한 학습 모델에 기초하여, 실수 영상 데이터(22)의 어느 하나의 그룹 및 이와 대응되는 허수 영상 데이터(24)의 그룹에 대한 복원 데이터를 획득할 수 있다.
예를 들어, 실수 영상 데이터(22)의 복수의 그룹들(512, 514, 516,…, 518)에 포함된 그룹(512)은 허수 영상 데이터(24)의 복수의 그룹들(522, 524, 526,…, 528) 중 그룹(522)과 대응되는 그룹일 수 있다. 자기 공명 영상 장치(100)는 그룹(512) 및 그룹(522)을 뉴럴 네트워크(42)의 서로 다른 입력 채널에 대한 입력 데이터로 결정할 수 있다. 또한, 자기 공명 영상 장치(100)는 뉴럴 네트워크(42)를 이용한 학습 모델에 기초하여, 그룹(512) 및 그룹(522)에 대한 복원 데이터(532)를 획득할 수 있다. 전술한 방법에 따라, 자기 공명 영상 장치(100)는, 실수 영상 데이터(22)의 복수의 그룹들(512, 514, 516,…, 518) 중 어느 하나의 그룹 및 이와 대응되는 허수 영상 데이터(24)의 그룹 각각이 뉴럴 네트워크(42)의 서로 다른 채널에 대한 입력으로 제공되는 경우, 뉴럴 네트워크(42)를 이용한 학습 모델에 기초한 복원 데이터(532, 534, 536,…, 538)를 획득할 수 있다. 자기 공명 영상 장치는 획득된 복원 데이터(532, 534, 536,…, 538)에 기초하여 서브 샘플링된 자기 공명 영상(20)에 대한 복원 영상(80)을 획득할 수 있다.
개시된 실시예들에 따르면, 자기 공명 영상 장치(100)는 서브 샘플링된 자기 공명 영상(20)의 실수 영상 데이터(22) 및 허수 영상 데이터(24)를 뉴럴 네트워크(42)를 이용한 학습 모델의 입력 데이터로 사용함으로써, 위상 겹침으로 인한 데이터 손실 없이 서브 샘플링된 자기 공명 영상(20)에 대한 복원 영상(80)을 획득할 수 있다.
다른 일 실시예에서, 자기 공명 영상 장치(100)는 서브 샘플링된 자기 공명 영상(20)에 대한 크기 영상 데이터 및 위상 영상 데이터를 획득할 수 있다. 자기 공명 영상 장치(100)는 서브 샘플링된 자기 공명 영상(20)에 대한 복원 영상(80)을 획득하기 위한 입력 데이터로서 크기 영상 데이터 및 위상 영상 데이터를 획득할 수 있다.
자기 공명 영상 장치(100)는 크기 영상 데이터의 위상 인코딩 방향과 대응되는 적어도 한 줄의 픽셀들 및 이와 대응되는 위상 영상 데이터의 픽셀들에 대한 복원 데이터를 획득할 수 있다. 자기 공명 영상 장치(100)는 크기 영상 데이터의 위상 인코딩 방향과 대응되는 적어도 한 줄의 픽셀들 및 이와 대응되는 위상 영상 데이터의 픽셀들에 대한 데이터를 뉴럴 네트워크(42)의 서로 다른 입력 채널에 대한 입력 데이터로 결정할 수 있다.
또한, 자기 공명 영상 장치(100)는 획득된 크기 영상 데이터 및 위상 영상 데이터 각각을 전술한 그룹화 방법에 따라 위상 인코딩 방향과 대응되는 적어도 한 줄의 픽셀들을 단위로 하는 복수의 그룹들로 그룹화할 수 있다.
일 실시예에서, 자기 공명 영상 장치(100)는 서로 대응되는 실수 영상 데이터(22)의 그룹 및 허수 영상 데이터(24)의 그룹뿐만 아니라, 크기 영상 데이터의 그룹 및 위상 영상 데이터의 그룹을 뉴럴 네트워크(42)의 서로 다른 채널에 대한 입력 데이터로 결정할 수도 있다.
다른 일 실시예에서, 자기 공명 영상 장치(100)는 크기 영상 데이터의 어느 하나의 그룹 및 대응되는 위상 영상 데이터의 그룹만을 뉴럴 네트워크(42)의 서로 다른 채널에 대한 입력 데이터로 결정할 수도 있다. 자기 공명 영상 장치(100)는 크기 영상 데이터 및 위상 영상 데이터의 그룹들을 뉴럴 네트워크(42)를 이용한 학습 모델에 대한 입력 데이터로 결정하여, 서브 샘플링된 자기 공명 영상(20)에 대한 복원 데이터 및 복원 영상(80)을 획득할 수 있다.
도 6은 일 실시예에 따른, 자기 공명 영상 장치(100)가 데이터 순환 이동(circular shifting)을 통하여 적어도 하나의 추가 영상(630)의 데이터를 획득하는 방법을 설명하기 위한 도면이다.
도 6을 참조하면, 일 실시예에 따른 자기 공명 영상 장치(100)가 적어도 하나의 추가 영상의 데이터를 획득하기 위해 서브 샘플링된 자기 공명 영상(20)의 데이터를 1개 또는 2개의 픽셀만큼 순환 이동시키는 방법이 도시된다. 데이터의 순환 이동은 데이터 자리 올림의 일종으로 한 쪽 끝에서 밀려난 숫자, 문자, 단어 등의 데이터가 반대 쪽 끝으로 붙어 삽입되는 것을 의미할 수 있다.
일 실시예에서, 자기 공명 영상 장치(100)는 서브 샘플링된 자기 공명 영상(20)의 데이터를 위상 인코딩 방향(610)과 나란한 방향으로 순환 이동시킬 수 있다. 자기 공명 영상 장치(100)는 위상 인코딩 방향(610)과 나란한 좌, 우의 방향들 중 어느 하나의 방향으로 서브 샘플링된 자기 공명 영상(20)의 데이터를 적어도 한 개의 픽셀 만큼씩 순환 이동 시킨 추가 영상(630)의 데이터를 획득할 수 있다.
예를 들어, 자기 공명 영상 장치(100)가 서브 샘플링된 자기 공명 영상(20)의 데이터를 위상 인코딩 방향과 나란한 오른쪽 방향을 순환 이동 방향(620)으로 한 개의 픽셀만큼 순환 이동시킬 수 있다. 이 경우, 서브 샘플링된 자기 공명 영상(20)의 그룹(612)의 데이터의 배열은 {d1, d2, d3,…, d(n-3), d(n-2), d(n-1), dn}(614)에서 {d2, d3,…, d(n-3), d(n-2), d(n-1), dn, d1}(616)으로 변경될 수 있다. 또한, 자기 공명 영상 장치(100)가 서브 샘플링된 자기 공명 영상(20)의 데이터를 순환 이동 방향(620)으로 두 개의 픽셀만큼 순환 이동 시킨 경우, 서브 샘플링된 자기 공명 영상(20)의 그룹(612)의 데이터의 배열은 {d1, d2, d3,…, d(n-3), d(n-2), d(n-1), dn}(614)에서 { d3,…, d(n-3), d(n-2), d(n-1), dn, d1, d2}(618)으로 변경될 수 있다.
또한, 도시하지는 않았으나, 다른 일 실시예에서, 자기 공명 영상 장치(100)는 서브 샘플링된 자기 공명 영상(20)의 데이터를 서브 샘플링된 자기 공명 영상(20)의 중심을 기준으로 적어도 1도만큼 회전하여, 적어도 하나의 추가 영상의 데이터를 획득할 수도 있다.
자기 공명 영상 장치(100)는 전술한 데이터 순환 이동 또는 서브 샘플링된 자기 공명 영상(20)의 중심을 기준으로 한 데이터 회전을 통해, 서브 샘플링된 자기 공명 영상(20)에 대한 적어도 하나의 추가 영상의 데이터를 획득할 수 있다. 자기 공명 영상 장치(100)는 서브 샘플링된 자기 공명 영상(20)에 대한 적어도 하나의 추가 영상의 데이터를 복원 영상(80)을 획득하기 위한 입력 데이터로 이용할 수 있다. 자기 공명 영상 장치(100)는 적어도 하나의 추가 영상의 데이터를 획득하여, 추가 영상의 데이터를 뉴럴 네트워크(40)를 이용한 학습 모델의 입력 데이터로 이용함으로써, 적은 양의 입력 데이터로도 비교적 정확도가 높은 복원 영상(80)을 획득할 수 있다.
도 7은 일 실시예에 따른, 뉴럴 네트워크(40)를 이용한 학습 모델에 기초하여 서브 샘플링된 3D 자기 공명 영상에 대한 복원 데이터를 획득하는 과정을 도시하는 도면이다.
도 7을 참조하면, 자기 공명 영상 장치(100)는 서브 샘플링된 3D 자기 공명 영상(26)을 획득할 수 있다. 자기 공명 영상 장치(100)는 입력 데이터에 대응되는 서브 샘플링된 3D 자기 공명 영상(26)을 획득할 수 있다. 서브 샘플링된 3D 자기 공명 영상(26)은 서로 직교하는 두 방향의 엘리어싱 아티팩트를 포함할 수 있다. 또한, 서브 샘플링된 3D 자기 공명 영상(26)은 제1 위상 인코딩 방향(712) 및 제2 위상 인코딩 방향(714)을 포함할 수 있다. 제1 위상 인코딩 방향(712) 및 제2 위상 인코딩 방향(714)은 서로 직교하는 방향일 수 있다. 서브 샘플링된 3D 자기 공명 영상(26)은 제1 위상 인코딩 방향(712) 및 제2 위상 인코딩 방향(714)과 각각 대응되는 방향의 엘리어싱 아티팩트를 포함할 수 있다.
서브 샘플링된 3D 자기 공명 영상(26)의 경우, 복원해야 하는 데이터의 양이 많기 때문에 복원 데이터를 획득하는 데에 어려움이 있을 수 있다. 이에 따라, 개시된 실시예들에 따른 자기 공명 영상 장치(100)는 뉴럴 네트워크(40)를 이용한 학습 모델에 기초하여 제1 위상 인코딩 방향(712) 및 제2 위상 인코딩 방향 (714)에 대한 복원 데이터를 한 방향씩 차례로 획득함으로써, 서브 샘플링된 3D 자기 공명 영상(26)의 엘리어싱 아티팩트를 효과적으로 제거할 수 있다.
도 7을 참조하면, 단계 S710에서, 자기 공명 영상 장치(100)는 서브 샘플링된 3D 자기 공명 영상(26)의 데이터를 제1 위상 인코딩 방향(712)에 대응되는 적어도 한 줄의 픽셀들을 단위로 하는 제1 복수의 그룹들로 그룹화할 수 있다. 자기 공명 영상 장치(100)가 서브 샘플링된 3D 자기 공명 영상(26)의 데이터를 제1 복수의 그룹들로 그룹화 하는 방법은, 도 3 및 도 4에서 전술한 서브 샘플링된 자기 공명 영상(20)의 데이터를 그룹화 하는 방법과 대응될 수 있으므로 자세한 설명은 생략한다.
단계 S720에서, 자기 공명 영상 장치(100)는 뉴럴 네트워크(40)를 이용한 학습 모델에 기초하여 서브 샘플링된 3D 자기 공명 영상(26)의 제1 복수의 그룹들 각각에 대응되는 제1 복원 데이터(724)를 획득할 수 있다.
단계 S730에서, 자기 공명 영상 장치(100)는 제1 복수의 그룹들 각각에 대응되는 제1 복원 데이터(724)를 제2 위상 인코딩 방향(714)에 대응되는 적어도 한 줄의 픽셀들을 단위로 하는 제2 복수의 그룹들로 그룹화할 수 있다.
자기 공명 영상 장치(100)가 제1 복수의 그룹들 각각에 대응되는 제1 복원 데이터(724)를 제2 복수의 그룹들로 그룹화 하는 방법은, 도 3 및 도 4에서 전술한 서브 샘플링된 자기 공명 영상(20)의 데이터를 그룹화 하는 방법과 대응될 수 있으므로 자세한 설명은 생략한다.
단계 S740에서, 자기 공명 영상 장치(100)는 뉴럴 네트워크(40)를 이용한 학습 모델에 기초하여 제1 복수의 그룹들 각각에 대응되는 제1 복원 데이터(724)의 제2 복수의 그룹들 각각에 대응되는 제2 복원 데이터(744)를 획득할 수 있다.
서브 샘플링된 3D 자기 공명 영상(26)의 제1 복수의 그룹들에 대한 제1 복원 데이터(724)를 획득하는 단계(722) 및 제1 복수의 그룹들 각각에 대응되는 제1 복원 데이터(724)의 제2 복수의 그룹들에 대한 제2 복원 데이터(744)를 획득하는 단계(742)는 각각 도 3에서 전술한 서브 샘플링된 자기 공명 영상(20)의 복수의 그룹들(332, 334, 336,…, 338)에 대한 복원 데이터를 획득하는 방법에 대응될 수 있다.
단계 S750에서, 자기 공명 영상 장치(100)는 획득된 제2 복원 데이터(744)에 기초하여 서브 샘플링된 3D 자기 공명 영상(26)에 대한 복원 영상을 획득할 수 있다. 자기 공명 영상 장치(100)는 출력 데이터에 대응하는 복원 영상을 획득할 수 있다.
도 7에서는, 자기 공명 영상 장치(100)가 서브 샘플링된 3D 자기 공명 영상(26)에 대한 제1 위상 인코딩 방향과 대응되는 제1 복수의 그룹들에 대한 제1 복원 데이터(724)를 먼저 획득하고, 차례로 제1 복수의 그룹들 각각에 대응되는 제1 복원 데이터(724)에 대한 제2 위상 인코딩 방향과 대응되는 제2 복수의 그룹들에 대한 제2 복원 데이터(744)를 획득하는 것을 예를 들어 설명하였으나, 개시된 실시예들이 이에 한정되는 것은 아니다.
자기 공명 영상 장치(100)는 수평 방향의 위상 인코딩 방향과 대응되는 그룹들에 대한 복원 데이터를 먼저 획득하고, 획득된 복원 데이터에 기초하여 수직 방향의 위상 인코딩 방향과 대응되는 그룹들에 대한 복원 데이터를 차례로 획득할 수 있다. 또한, 자기 공명 영상 장치(100)는 수직 방향의 위상 인코딩 방향과 대응되는 그룹들에 대한 복원 데이터를 먼저 획득하고, 획득된 복원 데이터에 기초하여 수평 방향의 위상 인코딩 방향과 대응되는 그룹들에 대한 복원 데이터를 차례로 획득할 수도 있다.
자기 공명 영상 장치(100)가 서브 샘플링된 3D 자기 공명 영상(26)의 복수의 위상 인코딩 방향에 대한 복원 데이터의 획득 순서는, 뉴럴 네트워크(40)를 이용한 학습 모델 구축 시 통계적 기계 학습 결과에 기초하여 복원 영상(762)을 획득하는 데에 최적의 방법으로 뉴럴 네트워크(40)에 의해 동적으로 결정될 수 있다.
도 8은 개시된 실시예들에 따라 획득된 복원 영상의 오차율에 대한 실험 데이터를 나타내는 도면이다.
도 8을 참조하면, 자기 공명 영상 장치(100)가 가속 비율(reduction rate) Reff = 3.66로 획득한 서브 샘플링된 자기 공명 영상(20)을 개시된 실시예들에서 제안하는 방법 및 종래의 영상 획득 가속화 알고리즘을 이용하여 복원한 실험 결과가 도시된다.
실험을 위해 사용된 파라미터들은 FOV(Field of view) = 220 * 200 mm2, matrix size = 384 * 216, slice thickness = 5mm, 12 channel head coil, 및 Fast spin echo 기반 T2 weighted 뇌 영상(TR/TE = 5000/90ms)이다.
자기 공명 영상 장치(100)는 서브 샘플링된 자기 공명 영상(20)의 데이터를 개시된 실시예들에서 제안하는 방법인 뉴럴 네트워크(40)를 이용한 학습 모델에 기초하여 위상 인코딩 방향과 대응되는 적어도 하나의 픽셀들을 단위로 복원하여, 복원 영상(810)을 획득할 수 있다.
또한, 자기 공명 영상 장치(100)는 종래의 병렬 영상 기법을 통한 영상 획득 가속화 알고리즘인 SPIRiT(Iterative Self-consistent Parallel Imaging Reconstruction from Arbitrary k-space) 및 GRAPPA(GeneRalized Autocalibrating Partial Parallel Acquisition)를 이용하여 서브 샘플링된 자기 공명 영상(20)에 대한 각각의 복원 영상(820) 및 복원 영상(830)을 획득할 수 있다.
또한, 자기 공명 영상 장치(100)는 각각의 복원 영상들(810, 820, 830)과 나이키스트 샘플링 레이트에 따라 획득된 자기 공명 영상 사이의 차이를 나타내는 차이 영상들(812, 822, 832)을 획득할 수 있다. 자기 공명 영상 장치(100)는 각각의 복원 영상들(810, 820, 830)과 나이키스트 샘플링 레이트에 따라 획득된 자기 공명 영상 사이의 오차율들을 산출할 수도 있다.
실험 결과에 따르면, 자기 공명 영상 장치(100)는 개시된 실시예들에서 제안하는 방법에 따라 복원 영상(810)을 획득하는 경우, 오차율 5. 96%로 비교적 정확한 복원 영상(810)을 획득할 수 있다.
도 9는 개시된 실시예들에 따라 획득된 복원 영상의 오차율에 대한 다른 실험 데이터를 나타내는 도면이다.
도 9를 참조하면, 자기 공명 영상 장치(100)가 가속 비율 Reff = 3.95로 획득한 서브 샘플링된 3D 자기 공명 영상(26)을 종래의 영상 획득 가속화 알고리즘인 GRAPPA를 이용하여 복원한 실험 결과 및 자기 공명 영상 장치(100)가 가속 비율 Reff = 4로 획득한 서브 샘플링된 3D 자기 공명 영상(26)을 개시된 실시예들이 제안하는 방법에 따라 복원한 실험 결과가 도시된다.
실험을 위해 사용된 파라미터들은 matrix size = 256 * 208 * 404, 12 channel head coil, 및 MPRAGE 기반 T1 weighted 뇌 영상(TR/TE/TI = 1800/2.52/900ms)이다.
자기 공명 영상 장치(100)는 서브 샘플링된 3D 자기 공명 영상(26)의 데이터를 개시된 실시예들에서 제안하는 방법인 뉴럴 네트워크(40)를 이용한 학습 모델에 기초하여 제1 위상 인코딩 방향과 대응되는 적어도 하나의 픽셀들을 단위로 복원하고, 차례로 제2 위상 인코딩 방향과 대응되는 적어도 하나의 픽셀들을 단위로 복원하여 복원 영상(920)을 획득할 수 있다.
또한, 자기 공명 영상 장치(100)는 종래의 병렬 영상 기법을 통한 영상 획득 가속화 알고리즘인 GRAPPA를 이용하여 서브 샘플링된 3D 자기 공명 영상(26)에 대한 복원 영상(910)을 획득할 수 있다.
또한, 자기 공명 영상 장치(100)는 각각의 복원 영상들(910, 920)과 나이키스트 샘플링 레이트에 따라 획득된 자기 공명 영상 사이의 차이를 나타내는 차이 영상들(912, 922)을 획득할 수 있다. 자기 공명 영상 장치(100)는 각각의 복원 영상들(910, 920)과 나이키스트 샘플링 레이트에 따라 획득된 자기 공명 영상 사이의 오차율들을 산출할 수도 있다.
실험 결과에 따르면, 자기 공명 영상 장치(100)는 개시된 실시예들에서 제안하는 방법에 따라 서브 샘플링된 3D 자기 공명 영상(26)에 대한 복원 영상을 획득하는 경우, GRAPPA와 비교하여 더 높은 Reff(가속 비율) = 4로 서브 샘플링된 3D 자기 공명 영상(26)을 획득하였음에도 불구하고, 보다 정확한 복원 영상(920)을 획득할 수 있다.
도 10은 일 실시예에 따른, 뉴럴 네트워크(40)를 이용한 학습 모델에 기초하여 서브 샘플링된 자기 공명 영상(20)에 대한 복원 영상(80)을 획득하는 방법(1000)을 나타내는 흐름도이다.
도 10에 도시된 일 실시예에 따른, 뉴럴 네트워크(40)를 이용한 학습 모델에 기초하여 서브 샘플링된 자기 공명 영상(20)에 대한 복원 영상(80)을 획득하는 방법은 전술한 자기 공명 영상 장치(100)를 통하여 구현될 수 있다.
단계 S1010에서 자기 공명 영상 장치(100)는 서브 샘플링된 자기 공명 영상에 대한 데이터를 획득한다. 서브 샘플링된 자기 공명 영상(20)은 복원 영상(80)을 획득하기 위해 자기 공명 영상 장치(100)에 제공되는 입력 데이터에 대응되는 영상일 수 있다.
단계 S1020에서 자기 공명 영상 장치(100)는 적어도 하나의 뉴럴 네트워크(40)를 이용한 학습 모델에 기초하여, 서브 샘플링된 자기 공명 영상(20)의 데이터의 위상 인코딩 방향에 대응되는 적어도 한 줄의 픽셀들에 대한 복원 데이터를 획득한다.
일 실시예에서, 자기 공명 영상 장치(100)는 서브 샘플링된 자기 공명 영상(20)의 데이터를 위상 인코딩 방향에 대응되는 적어도 한 줄의 픽셀들을 단위로 하는 복수의 그룹들로 그룹화 할 수 있다. 또한, 자기 공명 영상 장치(100)는 적어도 하나의 뉴럴 네트워크(40)를 이용한 학습 모델에 기초하여, 복수의 그룹들 각각에 대응되는 복원 데이터를 획득할 수 있다.단계 S1030에서 자기 공명 영상 장치(100)는 획득된 복원 데이터를 이용하여 서브 샘플링된 자기 공명 영상에 대한 복원 영상을 획득한다. 복원 영상(80)은, 입력 데이터에 대응되는 서브 샘플링된 자기 공명 영상(20)을 자기 공명 영상 장치(100)에 입력하는 경우 획득되는 출력 데이터에 대응되는 영상일 수 있다.
도 11은 일 실시예에 따른, 프로세서(1100)의 블록도이다.
도 11을 참조하면, 일부 실시예에 따른 프로세서(1100)는 데이터 학습부(1110) 및 데이터 인식부(1120)를 포함할 수 있다. 프로세서(1100)는 전술한 도 2에 도시된 프로세서(120)와 대응될 수 있다. 또한, 프로세서(1100)는 후술할 도 14에 도시된 영상 처리부(11) 및 제어부(30) 중 하나 또는 이들의 조합에 대응될 수 있다.
데이터 학습부(1110)는 서브 샘플링된 자기 공명 영상(20)에 대한 복원 데이터를 획득하기 위한 기준을 학습할 수 있다. 데이터 학습부(1110)는 서브 샘플링된 자기 공명 영상(20)에 대한 복원 데이터를 획득하기 위하여 어떤 데이터를 이용할 지, 데이터를 이용하여 복원 데이터를 어떻게 획득할 지에 관한 기준을 학습할 수 있다. 데이터 학습부(1110)는 학습에 이용될 데이터를 획득하고, 획득된 데이터를 후술할 데이터 인식 모델에 적용함으로써, 서브 샘플링된 자기 공명 영상(20)에 대한 복원 데이터를 획득하기 위한 기준을 학습할 수 있다.
데이터 인식부(1120)는 데이터에 기초한 복원 데이터를 획득할 수 있다. 데이터 인식부(1120)는 학습된 데이터 인식 모델을 이용하여, 소정의 데이터로부터 복원 데이터를 획득할 수 있다. 데이터 인식부(1120)는 학습에 의한 기 설정된 기준에 따라 소정의 데이터를 획득하고, 획득된 데이터를 입력 값으로 하여 데이터 인식 모델을 이용함으로써, 소정의 데이터에 기초한 복원 데이터를 획득할 수 있다. 또한, 획득된 데이터를 입력 값으로 하여 데이터 인식 모델에 의해 출력된 결과 값은, 데이터 인식 모델을 갱신하는데 이용될 수 있다.
데이터 학습부(1110) 및 데이터 인식부(1120) 중 적어도 하나는, 적어도 하나의 하드웨어 칩 형태로 제작되어 자기 공명 영상 장치(100)에 탑재될 수 있다. 예를 들어, 데이터 학습부(1110) 및 데이터 인식부(1120) 중 적어도 하나는 인공 지능(AI; artificial intelligence)을 위한 전용 하드웨어 칩 형태로 제작될 수도 있고, 또는 기존의 범용 프로세서(예: CPU 또는 application processor) 또는 그래픽 전용 프로세서(예: GPU)의 일부로 제작되어 전술한 자기 공명 영상 장치(100)에 탑재될 수도 있다.
이 경우, 데이터 학습부(1110) 및 데이터 인식부(1120)는 하나의 자기 공명 영상 장치(100)에 탑재될 수도 있으며, 또는 자기 공명 영상 장치(100) 및 외부 디바이스에 각각 탑재될 수도 있다. 예를 들어, 데이터 학습부(1110) 및 데이터 인식부(1120) 중 하나는 자기 공명 영상 장치(100)에 포함되고, 나머지 하나는 서버에 포함될 수 있다. 또한, 데이터 학습부(1110) 및 데이터 인식부(1120)는 유선 또는 무선으로 통하여, 데이터 학습부(1110)가 구축한 모델 정보를 데이터 인식부(1120)로 제공할 수도 있고, 데이터 인식부(1120)로 입력된 데이터가 추가 학습 데이터로서 데이터 학습부(1110)로 제공될 수도 있다.
한편, 데이터 학습부(1110) 및 데이터 인식부(1120) 중 적어도 하나는 소프트웨어 모듈로 구현될 수 있다. 데이터 학습부(1110) 및 데이터 인식부(1120) 중 적어도 하나가 소프트웨어 모듈(또는, 인스터력션(instruction) 포함하는 프로그램 모듈)로 구현되는 경우, 소프트웨어 모듈은 컴퓨터로 읽을 수 있는 판독 가능한 비일시적 판독 가능 기록매체(non-transitory computer readable media)에 저장될 수 있다. 또한, 이 경우, 적어도 하나의 소프트웨어 모듈은 OS(Operating System)에 의해 제공되거나, 소정의 애플리케이션에 의해 제공될 수 있다. 또는, 적어도 하나의 소프트웨어 모듈 중 일부는 OS(Operating System)에 의해 제공되고, 나머지 일부는 소정의 애플리케이션에 의해 제공될 수 있다.
도 12는 일 실시예에 따른 데이터 학습부(1110)의 블록도이다.
도 12를 참조하면, 일부 실시예에 따른 데이터 학습부(1110)는 데이터 획득부(1210), 전처리부(1220), 학습 데이터 선택부(1230), 모델 학습부(1240) 및 모델 평가부(1250)를 포함할 수 있다.
데이터 획득부(1210)는 서브 샘플링된 자기 공명 영상(20)에 대한 복원 데이터를 획득하는 데에 필요한 데이터를 획득할 수 있다. 데이터 획득부(1210)는 복원 데이터 획득을 위한 학습을 위하여 필요한 데이터를 획득할 수 있다. 복원 데이터 획득을 위한 학습을 위하여 필요한 데이터는 서브 샘플링된 자기 공명 영상(20)의 데이터를 포함할 수 있다.
일 실시예에서, 데이터 획득부(1210)는 RF 코일로부터 획득된 MR 신호들을 서브 샘플링하여 서브 샘플링된 자기 공명 영상(20)의 데이터를 획득할 수 있다. 데이터 획득부(1210)는 획득된 MR 신호들을 규칙적이거나 불규칙적 패턴으로 서브 샘플링함으로써 서브 샘플링된 자기 공명 영상(20)의 데이터를 획득할 수 있다.
또한, 데이터 획득부(1210)는 RF 코일로부터 획득된 MR 신호들을 서로 직교하는 두 방향의 위상 인코딩 방향으로 서브 샘플링하여 서브 샘플링된 3D 자기 공명 영상(26)의 데이터를 획득할 수 있다.
여기서 RF 코일은 멀티 채널 RF 코일을 포함할 수 있으며, 데이터 획득부(1210)는 멀티 채널 RF 코일에 대한 민감도(Sensitivity) 정보를 더 획득할 수 있다. 또한, 데이터 획득부(1210)는 멀티 채널 RF 코일로부터 각각 획득된 복수의 서브 샘플링된 자기 공명 영상(20)들에 대한 데이터를 획득할 수도 있다.
다른 일 실시예에서, 데이터 획득부(1210)는 외부의 자기 공명 영상 시스템, 서버, 및 데이터 베이스 중 적어도 하나로부터 서브 샘플링된 자기 공명 영상(20)의 데이터를 획득할 수 있다.
서브 샘플링된 자기 공명 영상(20)은 위상 인코딩 방향과 대응되는 방향의 엘리어싱 아티팩트를 포함할 수 있다. 서브 샘플링된 자기 공명 영상(20)은 위상 인코딩 방향과 나란한 방향의 엘리어싱 아티팩트를 포함할 수 있다.
데이터 획득부(1210)는 서브 샘플링된 자기 공명 영상(20)에 대한 실수 영상 데이터(22) 및 허수 영상 데이터(24)를 획득할 수 있다. 서브 샘플링된 자기 공명 영상(20)의 데이터는 복소수 데이터일 수 있다. 데이터 획득부(1210)는 서브 샘플링된 자기 공명 영상(20)의 복소수 데이터를 직교좌표 형식(Cartesian coordinate format)에서의 실수부와 허수부로 구분하여, 실수 영상 데이터(22) 및 허수 영상 데이터(24)를 획득할 수 있다.
또한, 데이터 획득부(1210)는 서브 샘플링된 자기 공명 영상(20)에 대한 크기 영상 데이터 및 위상 영상 데이터를 획득할 수 있다. 데이터 획득부(1210)는 서브 샘플링된 자기 공명 영상(20)의 복소수 데이터를 극좌표 형식(Polar coordinate format)에서의 크기 및 위상으로 구분하여, 크기 영상 데이터 및 위상 영상 데이터를 획득할 수 있다.
전처리부(1220)는 복원 데이터 획득을 위한 학습에 획득된 데이터가 이용될 수 있도록, 획득된 데이터를 전처리할 수 있다. 전처리부(1220)는 후술할 모델 학습부(1240)가 복원 데이터 획득을 위한 학습을 위하여 획득된 데이터를 이용할 수 있도록, 획득된 데이터를 기 설정된 포맷으로 가공할 수 있다.
전처리부(1220)는 서브 샘플링된 자기 공명 영상(20)의 데이터를 위상 인코딩 방향과 대응되는 적어도 한 줄의 픽셀들을 단위로 하는 복수의 그룹들로 그룹화 할 수 있다. 전처리부(1220)는 서브 샘플링된 자기 공명 영상(20)의 데이터를 위상 인코딩 방향과 나란한 적어도 한 줄의 픽셀들을 단위로 하는 복수의 그룹들로 그룹화 할 수 있다. 전처리부(1220)가 서브 샘플링된 자기 공명 영상(20)의 데이터를 복수의 그룹들로 그룹화 하는 방법은 도 3 및 도 4에서 전술한 방법에 대응될 수 있다.
전처리부(1220)는 서브 샘플링된 자기 공명 영상(20)에 대한 실수 영상 데이터(22)를 위상 인코딩 방향과 대응되는 적어도 한 줄의 픽셀들을 단위로 하는 복수의 그룹들로 그룹화 할 수 있다. 또한, 전처리부(1220)는 서브 샘플링된 자기 공명 영상에 대한 허수 영상 데이터(24)를 위상 인코딩 방향과 대응되는 적어도 한 줄의 픽셀들을 단위로 하는 복수의 그룹들로 그룹화 할 수 있다. 실수 영상 데이터(22) 및 허수 영상 데이터(24)의 그룹화 방법은 도 3 및 도 4에서 전술한 서브 샘플링된 자기 공명 영상(20)의 데이터에 대한 그룹화 방법과 대응될 수 있다.
전처리부(1220)는 서브 샘플링된 3D 자기 공명 영상(26)의 데이터를 제1 위상 인코딩 방향과 대응되는 적어도 한 줄의 픽셀들을 단위로 하는 제1 복수의 그룹들로 그룹화 할 수 있다. 또한, 전처리부(1220)는 제1 복수의 그룹들 각각에 대응되는 제1 복원 데이터를 제2 위상 인코딩 방향과 대응되는 적어도 한 줄의 픽셀들을 단위로 하는 제2 복수의 그룹들로 그룹화 할 수 있다. 제1 위상 인코딩 방향과 제2 위상 인코딩 방향은 서로 직교하는 방향일 수 있다.
학습 데이터 선택부(1230)는 전처리된 데이터 중에서 학습에 필요한 데이터를 선택할 수 있다. 선택된 데이터는 모델 학습부(1240)에 제공될 수 있다. 학습 데이터 선택부(1230)는 복원 데이터의 획득을 위해 기 설정된 기준에 따라, 전처리된 데이터 중에서 학습에 필요한 데이터를 선택할 수 있다. 또한, 학습 데이터 선택부(1230)는 후술할 모델 학습부(1240)에 의한 학습에 의해 기 설정된 기준에 따라 데이터를 선택할 수도 있다.
학습 데이터 선택부(1230)는 서브 샘플링된 자기 공명 영상(20)의 복수의 그룹들 중 어느 하나의 그룹을 선택하여 모델 학습부(1240)에 제공할 수 있다. 학습 데이터 선택부(1230)는 서브 샘플링된 자기 공명 영상(20)의 복수의 그룹들 각각에 대한 복원 데이터를 획득하기 위하여, 복수의 그룹들 중 적어도 하나의 그룹을 소정의 순서에 따라 선택하여 모델 학습부(1240)에 제공할 수 있다.
모델 학습부(1240)는 학습 데이터에 기초하여 서브 샘플링된 자기 공명 영상(20)에 대한 복원 데이터를 어떻게 획득할지, 획득된 복원 데이터에 기초하여 서브 샘플링된 자기 공명 영상(20)에 대한 복원 영상을 어떻게 획득할지에 관한 기준을 학습할 수 있다. 또한, 모델 학습부(1240)는 복원 데이터의 획득을 위하여 어떤 학습 데이터를 이용해야 하는 지에 대한 기준을 학습할 수도 있다.
또한, 모델 학습부(1240)는 서브 샘플링된 자기 공명 영상(20)의 복원 데이터를 획득하고, 획득된 복원 데이터에 기초하여 복원 영상(80)을 획득하는 데에 이용되는 데이터 인식 모델을 학습 데이터를 이용하여 학습시킬 수 있다. 이 경우, 데이터 인식 모델은 미리 구축된 모델일 수 있다. 예를 들어, 데이터 인식 모델은 기본 학습 데이터(예를 들어, 샘플의 서브 샘플링된 자기 공명 영상 등)을 입력 받아 미리 구축된 모델일 수 있다.
데이터 인식 모델은, 인식 모델의 적용 분야, 학습의 목적 또는 장치의 컴퓨터 성능 등을 고려하여 구축될 수 있다. 데이터 인식 모델은, 예를 들어, 신경망(Neural Network)을 기반으로 하는 모델일 수 있다. 예컨대, DNN(Deep Neural Network), RNN(Recurrent Neural Network), BRDNN(Bidirectional Recurrent Deep Neural Network), MLP(Multilayer Perceptron), CNN(Convolutional Neural Network) 와 같은 모델이 데이터 인식 모델로서 사용될 수 있으나, 이에 한정되지 않는다.
다양한 실시예에 따르면, 모델 학습부(1240)는 미리 구축된 데이터 인식 모델이 복수 개가 존재하는 경우, 입력된 학습 데이터와 기본 학습 데이터의 관련성이 큰 데이터 인식 모델을 학습할 데이터 인식 모델로 결정할 수 있다. 이 경우, 기본 학습 데이터는 데이터의 타입 별로 기 분류되어 있을 수 있으며, 데이터 인식 모델은 데이터의 타입 별로 미리 구축되어 있을 수 있다. 예를 들어, 기본 학습 데이터는 학습 데이터가 생성된 지역, 학습 데이터가 생성된 시간, 학습 데이터의 크기, 학습 데이터의 장르, 학습 데이터의 생성자, 학습 데이터 내의 오브젝트의 종류 등과 같은 다양한 기준으로 기 분류되어 있을 수 있다.
또한, 모델 학습부(1240)는, 예를 들어, 오류 역전파법(error back-propagation) 또는 경사 하강법(gradient descent)을 포함하는 학습 알고리즘 등을 이용하여 데이터 인식 모델을 학습시킬 수 있다.
또한, 모델 학습부(1240)는, 예를 들어, 학습 데이터를 입력 값으로 하는 지도 학습(supervised learning) 을 통하여, 데이터 인식 모델을 학습시킬 수 있다. 또한, 모델 학습부(1240)는, 예를 들어, 별다른 지도없이 서브 샘플링된 자기 공명 영상(20)에 대한 복원 데이터를 획득하기 위해 필요한 데이터의 종류를 스스로 학습함으로써, 복원 데이터를 획득하기 위한 기준을 발견하는 비지도 학습(unsupervised learning)을 통하여, 데이터 인식 모델을 학습시킬 수 있다. 또한, 모델 학습부(1240)는, 예를 들어, 학습에 따라 획득된 복원 데이터의 결과가 올바른 지에 대한 피드백을 이용하는 강화 학습(reinforcement learning)을 통하여, 데이터 인식 모델을 학습시킬 수 있다.
또한, 데이터 인식 모델이 학습되면, 모델 학습부(1240)는 학습된 데이터 인식 모델을 저장할 수 있다. 이 경우, 모델 학습부(1240)는 학습된 데이터 인식 모델을 데이터 인식부(1320)를 포함하는 자기 공명 영상 장치(100)의 메모리에 저장할 수 있다. 또는, 모델 학습부(1240)는 학습된 데이터 인식 모델을 후술할 데이터 인식부(1320)를 포함하는 자기 공명 영상 장치(100)의 메모리에 저장할 수 있다. 또는, 모델 학습부(1240)는 학습된 데이터 인식 모델을 자기 공명 영상 장치(100)와 유선 또는 무선 네트워크로 연결되는 서버의 메모리에 저장할 수도 있다.
이 경우, 학습된 데이터 인식 모델이 저장되는 메모리는, 예를 들면, 자기 공명 영상 장치(100)의 적어도 하나의 다른 구성요소에 관계된 명령 또는 데이터를 함께 저장할 수도 있다. 또한, 메모리는 소프트웨어 및/또는 프로그램을 저장할 수도 있다. 프로그램은, 예를 들면, 커널, 미들웨어, 어플리케이션 프로그래밍 인터페이스(API) 및/또는 어플리케이션 프로그램(또는 "어플리케이션") 등을 포함할 수 있다.
모델 평가부(1250)는 데이터 인식 모델에 평가 데이터를 입력하고, 평가 데이터로부터 출력되는 인식 결과가 소정 기준을 만족하지 못하는 경우, 모델 학습부(1240)로 하여금 다시 학습하도록 할 수 있다. 이 경우, 평가 데이터는 데이터 인식 모델을 평가하기 위한 기 설정된 데이터일 수 있다. 여기에서 평가 데이터는, 데이터 인식 모델을 기반으로 획득된 복원 영상과 나이키스트 샘플링 레이트 이상의 샘플링 레이트에 따라 획득된 자기 공명 영상 간의 일치 비율 등을 포함할 수 있다.
예를 들어, 모델 평가부(1250)는 평가 데이터에 대한 학습된 데이터 인식 모델의 인식 결과 중에서, 인식 결과가 정확하지 않은 평가 데이터의 개수 또는 비율이 미리 설정된 임계치를 초과하는 경우 소정 기준을 만족하지 못한 것으로 평가할 수 있다. 예컨대, 소정 기준이 비율 2%로 정의되는 경우, 학습된 데이터 인식 모델이 총 1000개의 평가 데이터 중의 20개를 초과하는 평가 데이터에 대하여 잘못된 인식 결과를 출력하는 경우, 모델 평가부(1250)는 학습된 데이터 인식 모델이 적합하지 않은 것으로 평가할 수 있다.
한편, 학습된 데이터 인식 모델이 복수 개가 존재하는 경우, 모델 평가부(1250)는 각각의 학습된 데이터 인식 모델에 대하여 소정 기준을 만족하는지를 평가하고, 소정 기준을 만족하는 모델을 최종 데이터 인식 모델로서 결정할 수 있다. 이 경우, 소정 기준을 만족하는 모델이 복수 개인 경우, 모델 평가부(1250)는 평가 점수가 높은 순으로 미리 설정된 어느 하나 또는 소정 개수의 모델을 최종 데이터 인식 모델로서 결정할 수 있다.
한편, 데이터 학습부(1310) 내의 데이터 획득부(1210), 전처리부(1220), 학습 데이터 선택부(1230), 모델 학습부(1240) 및 모델 평가부(1250) 중 적어도 하나는, 적어도 하나의 하드웨어 칩 형태로 제작되어 자기 공명 영상 장치(100)에 탑재될 수 있다. 예를 들어, 데이터 획득부(1210), 전처리부(1220), 학습 데이터 선택부(1230), 모델 학습부(1240) 및 모델 평가부(1250) 중 적어도 하나는 인공 지능(AI; artificial intelligence)을 위한 전용 하드웨어 칩 형태로 제작될 수도 있고, 또는 기존의 범용 프로세서(예: CPU 또는 application processor) 또는 그래픽 전용 프로세서(예: GPU)의 일부로 제작되어 전술한 자기 공명 영상 장치(100)에 탑재될 수도 있다.
또한, 데이터 획득부(1210), 전처리부(1220), 학습 데이터 선택부(1230), 모델 학습부(1240) 및 모델 평가부(1250)는 하나의 자기 공명 영상 장치(100)에 탑재될 수도 있으며, 또는 자기 공명 영상 장치(100) 및 외부 디바이스에 각각 탑재될 수도 있다. 예를 들어, 데이터 획득부(1210), 전처리부(1220), 학습 데이터 선택부(1230), 모델 학습부(1240) 및 모델 평가부(1250) 중 일부는 자기 공명 영상 장치(100)에 포함되고, 나머지 일부는 서버에 포함될 수 있다.
또한, 데이터 획득부(1210), 전처리부(1220), 학습 데이터 선택부(1230), 모델 학습부(1240) 및 모델 평가부(1250) 중 적어도 하나는 소프트웨어 모듈로 구현될 수 있다. 데이터 획득부(1210), 전처리부(1220), 학습 데이터 선택부(1230), 모델 학습부(1240) 및 모델 평가부(1250) 중 적어도 하나가 소프트웨어 모듈(또는, 인스터력션(instruction) 포함하는 프로그램 모듈)로 구현되는 경우, 소프트웨어 모듈은 컴퓨터로 읽을 수 있는 판독 가능한 비일시적 판독 가능 기록매체(non-transitory computer readable media)에 저장될 수 있다. 또한, 이 경우, 적어도 하나의 소프트웨어 모듈은 OS(Operating System)에 의해 제공되거나, 소정의 애플리케이션에 의해 제공될 수 있다. 또는, 적어도 하나의 소프트웨어 모듈 중 일부는 OS(Operating System)에 의해 제공되고, 나머지 일부는 소정의 애플리케이션에 의해 제공될 수 있다.
도 13은 일 실시예에 따른 데이터 인식부(1320)의 블록도이다.
도 13을 참조하면, 일부 실시예에 따른 데이터 인식부(1320)는 데이터 획득부(1310), 전처리부(1320), 인식 데이터 선택부(1330), 인식 결과 제공부(1340) 및 모델 갱신부(1350)를 포함할 수 있다.
데이터 획득부(1310)는 서브 샘플링된 자기 공명 영상(20)에 대한 복원 데이터를 획득하는 데에 필요한 데이터를 획득할 수 있으며, 전처리부(1320)는 복원 데이터를 획득하기 위해 획득된 데이터가 이용될 수 있도록, 획득된 데이터를 전처리할 수 있다. 전처리부(1320)는 후술할 인식 결과 제공부(1340)가 서브 샘플링된 자기 공명 영상(20)에 대한 복원 데이터를 획득하기 위하여 획득된 데이터를 이용할 수 있도록, 획득된 데이터를 기 설정된 포맷으로 가공할 수 있다.
인식 데이터 선택부(1330)는 전처리된 데이터 중에서 복원 데이터 획득에 필요한 데이터를 선택할 수 있다. 선택된 데이터는 인식 결과 제공부(1340)에게 제공될 수 있다. 인식 데이터 선택부(1330)는 복원 데이터를 획득하기 위한 기 설정된 기준에 따라, 전처리된 데이터 중에서 일부 또는 전부를 선택할 수 있다. 또한, 인식 데이터 선택부(1330)는 후술할 모델 학습부(1240)에 의한 학습에 의해 기 설정된 기준에 따라 데이터를 선택할 수도 있다.
인식 결과 제공부(1340)는 선택된 데이터를 데이터 인식 모델에 적용하여 서브 샘플링된 자기 공명 영상(20)에 대한 복원 데이터를 획득할 수 있다. 또한, 인식 결과 제공부(1340)는 획득된 복원 데이터를 이용하여 서브 샘플링된 자기 공명 영상(20)에 대한 복원 영상(80)을 획득할 수 있다. 인식 결과 제공부(1340)는 데이터의 인식 목적에 따른 인식 결과를 제공할 수 있다. 인식 결과 제공부(1340)는 인식 데이터 선택부(1330)에 의해 선택된 데이터를 입력 값으로 이용함으로써, 선택된 데이터를 데이터 인식 모델에 적용할 수 있다. 또한, 인식 결과는 데이터 인식 모델에 의해 결정될 수 있다.
인식 결과 제공부(1340)가 제공하는 복원 데이터는 서브 샘플링된 자기 공명 영상(20)의 데이터로부터 복원 영상(80)의 데이터를 획득하기 위한 매개 변수 또는 가중치 값을 포함할 수 있다. 또한, 인식 결과 제공부(1340)는 서브 샘플링된 자기 공명 영상(20)의 데이터로부터 복원 영상(80)의 데이터를 획득하기 위한 매개 변수 또는 가중치 값을 포함하는 복원 데이터를 서브 샘플링된 자기 공명 영상(20)의 데이터에 적용하여, 복원 영상(80)을 제공할 수 있다.
모델 갱신부(1350)는 인식 결과 제공부(1340)에 의해 제공되는 인식 결과에 대한 평가에 기초하여, 데이터 인식 모델이 갱신되도록 할 수 있다. 예를 들어, 모델 갱신부(1350)는 인식 결과 제공부(1340)에 의해 제공되는 인식 결과를 모델 학습부(1240)에게 제공함으로써, 모델 학습부(1240)가 데이터 인식 모델을 갱신하도록 할 수 있다.
한편, 데이터 인식부(1320) 내의 데이터 획득부(1310), 전처리부(1320), 인식 데이터 선택부(1330), 인식 결과 제공부(1340) 및 모델 갱신부(1350) 중 적어도 하나는, 적어도 하나의 하드웨어 칩 형태로 제작되어 자기 공명 영상 장치(100)에 탑재될 수 있다. 예를 들어, 데이터 획득부(1310), 전처리부(1320), 인식 데이터 선택부(1330), 인식 결과 제공부(1340) 및 모델 갱신부(1350) 중 적어도 하나는 인공 지능(AI; artificial intelligence)을 위한 전용 하드웨어 칩 형태로 제작될 수도 있고, 또는 기존의 범용 프로세서(예: CPU 또는 application processor) 또는 그래픽 전용 프로세서(예: GPU)의 일부로 제작되어 전술한 자기 공명 영상 장치(100)에 탑재될 수도 있다.
또한, 데이터 획득부(1310), 전처리부(1320), 인식 데이터 선택부(1330), 인식 결과 제공부(1340) 및 모델 갱신부(1350)는 하나의 자기 공명 영상 장치(100)에 탑재될 수도 있으며, 또는 자기 공명 영상 장치(100) 및 외부 디바이스에 각각 탑재될 수도 있다. 예를 들어, 데이터 획득부(1310), 전처리부(1320), 인식 데이터 선택부(1330), 인식 결과 제공부(1340) 및 모델 갱신부(1350) 중 일부는 자기 공명 영상 장치(100)에 포함되고, 나머지 일부는 서버에 포함될 수 있다.
또한, 데이터 획득부(1310), 전처리부(1320), 인식 데이터 선택부(1330), 인식 결과 제공부(1340) 및 모델 갱신부(1350) 중 적어도 하나는 소프트웨어 모듈로 구현될 수 있다. 데이터 획득부(1310), 전처리부(1320), 인식 데이터 선택부(1330), 인식 결과 제공부(1340) 및 모델 갱신부(1350) 중 적어도 하나가 소프트웨어 모듈(또는, 인스터력션(instruction) 포함하는 프로그램 모듈)로 구현되는 경우, 소프트웨어 모듈은 컴퓨터로 읽을 수 있는 판독 가능한 비일시적 판독 가능 기록매체(non-transitory computer readable media)에 저장될 수 있다. 또한, 이 경우, 적어도 하나의 소프트웨어 모듈은 OS(Operating System)에 의해 제공되거나, 소정의 애플리케이션에 의해 제공될 수 있다. 또는, 적어도 하나의 소프트웨어 모듈 중 일부는 OS(Operating System)에 의해 제공되고, 나머지 일부는 소정의 애플리케이션에 의해 제공될 수 있다.
도 14는 일 실시예에 따른, MRI 시스템의 개략도이다.
도 14를 참조하면, MRI 시스템(1)은 오퍼레이팅부(10), 제어부(30) 및 스캐너(50)를 포함할 수 있다. 여기서, 제어부(30)는 도 14에 도시된 바와 같이 독립적으로 구현될 수 있다. 또는, 제어부(30)는 복수 개의 구성 요소로 분리되어, MRI 시스템(1)의 각 구성 요소에 포함될 수도 있다. 이하에서는 각 구성 요소에 대해 구체적으로 살펴보도록 한다.
스캐너(50)는 내부 공간이 비어 있어, 대상체가 삽입될 수 있는 형상(예컨대, 보어(bore) 형상)으로 구현될 수 있다. 스캐너(50)의 내부 공간에는 정자장 및 경사자장이 형성되며, RF 신호가 조사된다.
스캐너(50)는 정자장 형성부(51), 경사자장 형성부(52), RF 코일부(53), 테이블부(55) 및 디스플레이부(56)를 포함할 수 있다. 정자장 형성부(51)는 대상체에 포함된 원자핵들의 자기 쌍극자 모멘트의 방향을 정자장 방향으로 정렬하기 위한 정자장을 형성한다. 정자장 형성부(51)는 영구 자석으로 구현되거나 또는 냉각 코일을 이용한 초전도 자석으로 구현될 수도 있다.
경사자장 형성부(52)는 제어부(30)와 연결된다. 제어부(30)로부터 전송 받은 제어신호에 따라 정자장에 경사를 인가하여, 경사자장을 형성한다. 경사자장 형성부(52)는 서로 직교하는 X축, Y축 및 Z축 방향의 경사자장을 형성하는 X, Y, Z 코일을 포함하며, 대상체의 부위 별로 공명 주파수를 서로 다르게 유도할 수 있도록 촬영 위치에 맞게 경사 신호를 발생 시킨다.
RF 코일부(53)는 제어부(30)와 연결되어, 제어부(30)로부터 전송 받은 제어신호에 따라 대상체에 RF 신호를 조사하고, 대상체로부터 방출되는 MR 신호를 수신할 수 있다. RF 코일부(53)는 세차 운동을 하는 원자핵을 향하여 세차운동의 주파수와 동일한 주파수의 RF 신호를 대상체에게 전송한 후 RF 신호의 전송을 중단하고, 대상체로부터 방출되는 MR 신호를 수신할 수 있다.
RF 코일부(53)는 원자핵의 종류에 대응하는 무선 주파수를 갖는 전자파를 생성하는 송신 RF 코일과, 원자핵으로부터 방사된 전자파를 수신하는 수신 RF 코일로서 각각 구현되거나 또는 송/수신 기능을 함께 갖는 하나의 RF 송수신 코일로서 구현될 수도 있다. 또한, RF 코일부(53)외에, 별도의 코일이 대상체에 장착될 수도 있다. 예를 들어, 촬영 부위 또는 장착 부위에 따라, 헤드 코일(Head coil), 척추 코일(spine coil), 몸통 코일(torso coil), 무릎 코일(knee coil) 등이 별도의 코일로 이용될 수 있다.
스캐너(50)의 외측 및/또는 내측에는 디스플레이부(56)가 마련될 수 있다. 디스플레이부(56)는 제어부(30)에 의해 제어되어, 사용자 또는 대상체에게 의료 영상 촬영과 관련된 정보를 제공할 수 있다.
또한, 스캐너(50)에는 대상체의 상태에 관한 모니터링정보를 획득하여 전달하는 대상체 모니터링정보 획득부가 마련될 수 있다. 예를 들어, 대상체 모니터링정보 획득부(미도시)는 대상체의 움직임, 위치 등을 촬영하는 카메라(미도시), 대상체의 호흡을 측정하기 위한 호흡 측정기(미도시), 대상체의 심전도를 측정하기 위한 ECG 측정기(미도시), 또는 대상체의 체온을 측정하기 위한 체온 측정기(미도시)로부터 대상체에 관한 모니터링정보를 획득하여 제어부(30)로 전달할 수 있다. 이에 따라, 제어부(30)는 대상체에 관한 모니터링정보를 이용하여 스캐너(50)의 동작을 제어할 수 있다. 이하에서는 제어부(30)에 대해 살펴보도록 한다.
제어부(30)는 스캐너(50)의 전반적인 동작을 제어할 수 있다.
제어부(30)는 스캐너(50) 내부에서 형성되는 신호들의 시퀀스를 제어할 수 있다. 제어부(30)는 오퍼레이팅부(10)로부터 수신받은 펄스 시퀀스(pulse sequence) 또는 설계한 펄스 시퀀스에 따라 경사자장 형성부(52) 및 RF 코일부(53)를 제어할 수 있다.
펄스 시퀀스란, 경사자장 형성부(52), 및 RF 코일부(53)를 제어하기 위해 필요한 모든 정보를 포함하며, 예를 들어 경사자장 형성부(52)에 인가하는 펄스(pulse) 신호의 강도, 인가 지속시간, 인가 타이밍 등에 관한 정보 등을 포함할 수 있다.
제어부(30)는 펄스 시퀀스에 따라 경사 파형, 즉 전류 펄스를 발생시키는 파형 발생기(미도시), 및 발생된 전류 펄스를 증폭시켜 경사자장 형성부(52)로 전달하는 경사 증폭기(미도시)를 제어하여, 경사자장 형성부(52)의 경사자장 형성을 제어할 수 있다.
제어부(30)는 RF 코일부(53)의 동작을 제어할 수 있다. 예를 들어, 제어부(30)는 공명 주파수의 RF 펄스를 RF 코일부(53)에 공급하여 RF 신호를 조사할 수 있고, RF 코일부(53)가 수신한 MR 신호를 수신할 수 있다. 이때, 제어부(30)는 제어신호를 통해 송수신 방향을 조절할 수 있는 스위치(예컨대, T/R 스위치)의 동작을 제어하여, 동작 모드에 따라 RF 신호의 조사 및 MR 신호의 수신을 조절할 수 있다.
제어부(30)는 대상체가 위치하는 테이블부(55)의 이동을 제어할 수 있다. 촬영이 수행되기 전에, 제어부(30)는 대상체의 촬영 부위에 맞추어, 테이블부(55)를 미리 이동시킬 수 있다.
제어부(30)는 디스플레이부(56)를 제어할 수 있다. 예를 들어, 제어부(30)는 제어신호를 통해 디스플레이부(56)의 온/오프 또는 디스플레이부(56)를 통해 표시되는 화면 등을 제어할 수 있다.
제어부(30)는 MRI 시스템(1) 내 구성요소들의 동작을 제어하기 위한 알고리즘, 프로그램 형태의 데이터를 저장하는 메모리(미도시), 및 메모리에 저장된 데이터를 이용하여 전술한 동작을 수행하는 프로세서(미도시)로 구현될 수 있다. 이때, 메모리와 프로세서는 각각 별개의 칩으로 구현될 수 있다. 또는, 메모리와 프로세서는 단일 칩으로 구현될 수도 있다.
오퍼레이팅부(10)는 MRI 시스템(1)의 전반적인 동작을 제어할 수 있다. 오퍼레이팅부(10)는 영상 처리부(11), 입력부(12) 및 출력부(13)를 포함할 수 있다.
영상 처리부(11)는 메모리를 이용하여 제어부(30)로부터 수신 받은 MR 신호를 저장하고, 이미지 프로세서를 이용하여 영상 복원 기법을 적용함으로써, 저장한 MR 신호로부터 대상체에 대한 영상 데이터를 생성할 수 있다.
예를 들어, 영상 처리부(11)는 메모리의 k-공간(예컨대, 푸리에(Fourier) 공간 또는 주파수 공간이라고도 지칭됨)에 디지털 데이터를 채워 k-공간 데이터가 완성되면, 이미지 프로세서를 통해 다양한 영상 복원기법을 적용하여(예컨대, k-공간 데이터를 역 푸리에 변환하여) k-공간 데이터를 영상 데이터로 복원할 수 있다.
또한, 영상 처리부(11)가 MR 신호에 대해 적용하는 각종 신호 처리는 병렬적으로 수행될 수 있다. 예를 들어, 다채널 RF 코일에 의해 수신되는 복수의 MR 신호를 병렬적으로 신호 처리하여 영상 데이터로 복원할 수도 있다. 한편, 영상 처리부(11)는 복원한 영상 데이터를 메모리에 저장하거나 또는 후술할 바와 같이 제어부(30)가 통신부(60)를 통해 외부의 서버에 저장할 수 있다.
입력부(12)는 사용자로부터 MRI 시스템(1)의 전반적인 동작에 관한 제어 명령을 입력 받을 수 있다. 예를 들어, 입력부(12)는 사용자로부터 대상체 정보, 파라미터 정보, 스캔 조건, 펄스 시퀀스에 관한 정보 등을 입력 받을 수 있다. 입력부(12)는 키보드, 마우스, 트랙볼, 음성 인식부, 제스처 인식부, 터치 스크린 등으로 구현될 수 있다.
출력부(13)는 영상 처리부(11)에 의해 생성된 영상 데이터를 출력할 수 있다. 또한, 출력부(13)는 사용자가 MRI 시스템(1)에 관한 제어 명령을 입력 받을 수 있도록 구성된 유저 인터페이스(User Interface, UI)를 출력할 수 있다. 출력부(13)는 스피커, 프린터, 디스플레이 등으로 구현될 수 다.
한편, 도 14에서는 오퍼레이팅부(10), 제어부(30)를 서로 분리된 객체로 도시하였으나, 전술한 바와 같이, 하나의 기기에 함께 포함될 수도 있다. 또한, 오퍼레이팅부(10), 및 제어부(30) 각각에 의해 수행되는 프로세스들이 다른 객체에서 수행될 수도 있다. 예를 들어, 영상 처리부(11)는, 제어부(30)에서 수신한 MR 신호를 디지털 신호로 변환하거나 또는, 제어부(30)가 직접 변환할 수도 있다.
MRI 시스템(1)은 통신부(60)를 포함하며, 통신부(60)를 통해 외부 장치(미도시)(예를 들면, 서버, 의료 장치, 휴대 장치(스마트폰, 태블릿 PC, 웨어러블 기기 등))와 연결할 수 있다.
통신부(60)는 외부 장치와 통신을 가능하게 하는 하나 이상의 구성 요소를 포함할 수 있으며, 예를 들어 근거리 통신 모듈(미도시), 유선 통신 모듈(61) 및 무선 통신 모듈(62) 중 적어도 하나를 포함할 수 있다.
통신부(60)가 외부 장치로부터 제어 신호 및 데이터를 수신하고, 수신된 제어 신호를 제어부(30)에 전달하여 제어부(30)로 하여금 수신된 제어 신호에 따라 MRI 시스템(1)을 제어하도록 하는 것도 가능하다.
또는, 제어부(30)가 통신부(60)를 통해 외부 장치에 제어 신호를 송신함으로써, 외부 장치를 제어부의 제어 신호에 따라 제어하는 것도 가능하다.
예를 들어 외부 장치는 통신부(60)를 통해 수신된 제어부(30)의 제어 신호에 따라 외부 장치의 데이터를 처리할 수 있다.
외부 장치에는 MRI 시스템(1)을 제어할 수 있는 프로그램이 설치될 수 있는바, 이 프로그램은 제어부(30)의 동작의 일부 또는 전부를 수행하는 명령어를 포함할 수 있다.
프로그램은 외부 장치에 미리 설치될 수도 있고, 외부장치의 사용자가 어플리케이션을 제공하는 서버로부터 프로그램을 다운로드하여 설치하는 것도 가능하다. 어플리케이션을 제공하는 서버에는 해당 프로그램이 저장된 기록매체가 포함될 수 있다.
한편, 개시된 실시예들은 컴퓨터에 의해 실행 가능한 명령어 및 데이터를 저장하는 컴퓨터로 읽을 수 있는 기록매체의 형태로 구현될 수 있다. 상기 명령어는 프로그램 코드의 형태로 저장될 수 있으며, 프로세서에 의해 실행되었을 때, 소정의 프로그램 모듈을 생성하여 소정의 동작을 수행할 수 있다. 또한, 상기 명령어는 프로세서에 의해 실행되었을 때, 개시된 실시예들의 소정의 동작들을 수행할 수 있다. 또한, 일부 실시예는 컴퓨터에 의해 실행가능한 명령어를 포함하는 컴퓨터 프로그램 또는 컴퓨터 프로그램 제품 (computer program product)으로도 구현될 수 있다.
이상에서와 같이 첨부된 도면을 참조하여 개시된 실시예들을 설명하였다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고도, 개시된 실시예들과 다른 형태로 본 발명이 실시될 수 있음을 이해할 것이다. 개시된 실시예들은 예시적인 것이며, 한정적으로 해석되어서는 안 된다.

Claims (24)

  1. 프로세서; 및
    적어도 하나의 프로그램이 저장되는 메모리를 포함하고,
    상기 메모리는 상기 적어도 하나의 프로그램이 상기 프로세서에서 실행될 때, 상기 프로세서가
    적어도 하나의 서브 샘플링된 자기 공명 영상의 데이터 및 적어도 하나의 풀(full) 샘플링된 자기 공명 영상의 데이터를 획득하는 단계;
    상기 적어도 하나의 서브 샘플링된 자기 공명 영상 및 상기 적어도 하나의 풀 샘플링된 자기 공명 영상 간의 상관 관계를 위상 인코딩 방향에 대응되는 적어도 한 줄의 픽셀들을 단위로 학습하여 적어도 하나의 뉴럴 네트워크(neural network)를 이용한 학습 모델을 획득하는 단계;
    서브 샘플링된 자기 공명 영상의 데이터를 획득하는 단계;
    상기 서브 샘플링된 자기 공명 영상의 데이터를 상기 위상 인코딩 방향에 대응되는 적어도 한 줄의 픽셀들을 단위로 하는 복수의 그룹들로 그룹화하는 단계;
    상기 학습 모델에 기초하여, 상기 복수의 그룹 각각에 대한 복원 데이터를 획득하는 단계; 및
    상기 획득된 복원 데이터를 이용하여 상기 서브 샘플링된 자기 공명 영상에 대한 복원 영상을 획득하는 단계;
    를 실행하도록 하는 명령어들을 저장하는, 자기 공명 영상 장치.
  2. 삭제
  3. 제1 항에 있어서,
    상기 서브 샘플링된 자기 공명 영상의 데이터를 획득하는 단계는,
    서브 샘플링된 실수 영상 데이터 및 서브 샘플링된 허수 영상 데이터 각각을 획득하는 단계를 포함하고,
    상기 복수의 그룹들로 그룹화 하는 단계는,
    상기 서브 샘플링된 실수 영상 데이터 및 상기 서브 샘플링된 허수 영상 데이터 각각을 상기 위상 인코딩 방향과 대응되는 적어도 한 줄의 픽셀들을 단위로 하는 상기 복수의 그룹들로 그룹화하는 단계를 포함하는 것을 특징으로 하는, 자기 공명 영상 장치.
  4. 제1 항에 있어서,
    상기 서브 샘플링된 자기 공명 영상의 데이터를 획득하는 단계는,
    서브 샘플링된 크기 영상 데이터 및 서브 샘플링된 위상 영상 데이터 각각을 획득하는 단계를 포함하고,
    상기 복수의 그룹들로 그룹화 하는 단계는,
    상기 서브 샘플링된 크기 영상 데이터 및 상기 서브 샘플링된 위상 영상 데이터 각각을 상기 위상 인코딩 방향과 대응되는 적어도 한 줄의 픽셀들을 단위로 하는 상기 복수의 그룹들로 그룹화하는 단계를 포함하는 것을 특징으로 하는, 자기 공명 영상 장치.
  5. 제1 항에 있어서,
    상기 서브 샘플링된 자기 공명 영상의 데이터를 상기 위상 인코딩 방향에 대응되는 적어도 한 줄의 픽셀들을 단위로 하는 복수의 그룹들로 그룹화하는 방법은 상기 적어도 하나의 뉴럴 네트워크에 의해 동적으로 결정되는 것을 특징으로 하는, 자기 공명 영상 장치.
  6. 삭제
  7. 제1 항에 있어서,
    상기 서브 샘플링된 자기 공명 영상의 데이터를 획득하는 단계는,
    상기 서브 샘플링된 자기 공명 영상의 데이터를 상기 위상 인코딩 방향에 대응되도록 순환 이동(circular shifting)하여 적어도 하나의 추가 영상의 데이터를 획득하는 단계를 포함하고,
    상기 복수의 그룹들로 그룹화 하는 단계는,
    상기 서브 샘플링된 자기 공명 영상의 데이터 및 상기 적어도 하나의 추가 영상의 데이터 각각을 상기 위상 인코딩 방향에 대응되는 적어도 한 줄의 픽셀들을 단위로 하는 상기 복수의 그룹들로 그룹화하는 단계를 포함하는 것을 특징으로 하는, 자기 공명 영상 장치.
  8. 제1 항에 있어서,
    상기 서브 샘플링된 자기 공명 영상은 제1 위상 인코딩 방향 및 제2 위상 인코딩 방향을 포함하는 서브 샘플링된 3D 자기 공명 영상을 포함하고,
    상기 복수의 그룹들로 그룹화하는 단계는, 상기 서브 샘플링된 3D 자기 공명 영상의 데이터를 상기 제1 위상 인코딩 방향에 대응되는 적어도 한 줄의 픽셀들을 단위로 하는 제1 복수의 그룹들로 그룹화하는 단계를 포함하고,
    상기 복원 데이터를 획득하는 단계는, 상기 적어도 하나의 뉴럴 네트워크를 이용한 학습 모델에 기초하여, 상기 제1 복수의 그룹들 각각에 대응되는 제1 복원 데이터를 획득하는 단계를 포함하는 것을 특징으로 하는, 자기 공명 영상 장치.
  9. 제8 항에 있어서,
    상기 메모리는 상기 적어도 하나의 프로그램이 상기 프로세서에서 실행될 때, 상기 프로세서가
    상기 제1 복수의 그룹들 각각에 대응되는 제1 복원 데이터를 상기 제2 위상 인코딩 방향에 대응되는 적어도 한 줄의 픽셀들을 단위로 하는 제2 복수의 그룹들로 그룹화하는 단계; 및
    상기 적어도 하나의 뉴럴 네트워크를 이용한 학습 모델에 기초하여, 상기 제2 복수의 그룹들 각각에 대응되는 제2 복원 데이터를 획득하는 단계를 실행하도록 하는 명령어들을 더 포함하고,
    상기 복원 영상을 획득하는 단계는, 상기 획득된 제2 복원 데이터를 이용하여 상기 서브 샘플링된 3D 자기 공명 영상에 대한 복원 영상을 획득하는 단계를 포함하는 것을 특징으로 하는, 자기 공명 영상 장치.
  10. 제1 항에 있어서,
    상기 자기 공명 영상 장치는,
    대상체로부터 MR 신호를 수신하는 멀티 채널 RF 코일을 더 포함하고,
    상기 서브 샘플링된 자기 공명 영상의 데이터를 획득하는 단계는,
    상기 멀티 채널 RF 코일 각각에 대한 서브 샘플링된 자기 공명 영상 데이터들을 획득하는 단계를 포함하고,
    상기 서브 샘플링된 자기 공명 영상에 대한 복원 영상을 획득하는 단계는,
    상기 멀티 채널 RF 코일 각각의 민감도 및 상기 복원 데이터에 기초하여, 상기 복원 영상을 획득하는 단계를 포함하는, 자기 공명 영상 장치.
  11. 제1 항에 있어서,
    상기 자기 공명 영상 장치는,
    대상체로부터 MR 신호를 수신하는 멀티 채널 RF 코일을 더 포함하고,
    상기 서브 샘플링된 자기 공명 영상의 데이터를 획득하는 단계는,
    상기 멀티 채널 RF 코일에 의해 수신된 상기 MR 신호에 기초하여 상기 위상 인코딩 방향으로 규칙적 또는 불규칙적인 패턴으로 서브 샘플링된 상기 서브 샘플링된 자기 공명 영상의 데이터를 획득하는 단계를 포함하는, 자기 공명 영상 장치.
  12. 적어도 하나의 서브 샘플링된 자기 공명 영상의 데이터 및 적어도 하나의 풀(full) 샘플링된 자기 공명 영상의 데이터를 획득하는 단계;
    상기 적어도 하나의 서브 샘플링된 자기 공명 영상 및 상기 적어도 하나의 풀 샘플링된 자기 공명 영상 간의 상관 관계를 위상 인코딩 방향에 대응되는 적어도 한 줄의 픽셀들을 단위로 학습하여 적어도 하나의 뉴럴 네트워크(neural network)를 이용한 학습 모델을 획득하는 단계;
    서브 샘플링된 자기 공명 영상의 데이터를 획득하는 단계;
    상기 서브 샘플링된 자기 공명 영상의 데이터를 상기 위상 인코딩 방향에 대응되는 적어도 한 줄의 픽셀들을 단위로 하는 복수의 그룹들로 그룹화하는 단계;
    상기 학습 모델에 기초하여, 상기 복수의 그룹들 각각에 대한 복원 데이터를 획득하는 단계; 및
    상기 획득된 복원 데이터를 이용하여 상기 서브 샘플링된 자기 공명 영상에 대한 복원 영상을 획득하는 단계를 포함하는, 영상 복원 방법.
  13. 삭제
  14. 제12 항에 있어서,
    상기 서브 샘플링된 자기 공명 영상의 데이터를 획득하는 단계는,
    서브 샘플링된 실수 영상 데이터 및 서브 샘플링된 허수 영상 데이터 각각을 획득하는 단계를 포함하고,
    상기 복수의 그룹들로 그룹화 하는 단계는,
    상기 서브 샘플링된 실수 영상 데이터 및 상기 서브 샘플링된 허수 영상 데이터 각각을 상기 위상 인코딩 방향과 대응되는 적어도 한 줄의 픽셀들을 단위로 하는 상기 복수의 그룹들로 그룹화하는 단계를 포함하는 것을 특징으로 하는, 영상 복원 방법.
  15. 제12 항에 있어서,
    상기 서브 샘플링된 자기 공명 영상의 데이터를 획득하는 단계는,
    서브 샘플링된 크기 영상 데이터 및 서브 샘플링된 위상 영상 데이터 각각을 획득하는 단계를 포함하고,
    상기 복수의 그룹들로 그룹화 하는 단계는,
    상기 서브 샘플링된 크기 영상 데이터 및 상기 서브 샘플링된 위상 영상 데이터 각각을 상기 위상 인코딩 방향과 대응되는 적어도 한 줄의 픽셀들을 단위로 하는 상기 복수의 그룹들로 그룹화하는 단계를 포함하는 것을 특징으로 하는, 영상 복원 방법.
  16. 삭제
  17. 제12 항에 있어서,
    상기 서브 샘플링된 자기 공명 영상의 데이터를 획득하는 단계는,
    상기 서브 샘플링된 자기 공명 영상의 데이터를 상기 위상 인코딩 방향에 대응되도록 순환 이동(circular shifting)하여 적어도 하나의 추가 영상의 데이터를 획득하는 단계를 포함하고,
    상기 복수의 그룹들로 그룹화 하는 단계는,
    상기 서브 샘플링된 자기 공명 영상의 데이터 및 상기 적어도 하나의 추가 영상의 데이터 각각을 상기 위상 인코딩 방향에 대응되는 적어도 한 줄의 픽셀들을 단위로 하는 상기 복수의 그룹들로 그룹화하는 단계를 포함하는 것을 특징으로 하는, 영상 복원 방법.
  18. 제12 항에 있어서,
    상기 서브 샘플링된 자기 공명 영상은 제1 위상 인코딩 방향 및 제2 위상 인코딩 방향을 포함하는 서브 샘플링된 3D 자기 공명 영상을 포함하고,
    상기 복수의 그룹들로 그룹화하는 단계는, 상기 서브 샘플링된 3D 자기 공명 영상의 데이터를 상기 제1 위상 인코딩 방향에 대응되는 적어도 한 줄의 픽셀들을 단위로 하는 제1 복수의 그룹들로 그룹화하는 단계를 포함하고,
    상기 복원 데이터를 획득하는 단계는, 상기 적어도 하나의 뉴럴 네트워크를 이용한 학습 모델에 기초하여, 상기 제1 복수의 그룹들 각각에 대응되는 제1 복원 데이터를 획득하는 단계를 포함하는 것을 특징으로 하는, 영상 복원 방법.
  19. 제18 항에 있어서,
    상기 영상 복원 방법은,
    상기 제1 복수의 그룹들 각각에 대응되는 제1 복원 데이터를 상기 제2 위상 인코딩 방향에 대응되는 적어도 한 줄의 픽셀들을 단위로 하는 제2 복수의 그룹들로 그룹화하는 단계; 및
    상기 적어도 하나의 뉴럴 네트워크를 이용한 학습 모델에 기초하여, 상기 제2 복수의 그룹들 각각에 대응되는 제2 복원 데이터를 획득하는 단계를 실행하도록 하는 명령어들을 더 포함하고,
    상기 복원 영상을 획득하는 단계는, 상기 획득된 제2 복원 데이터를 이용하여 상기 서브 샘플링된 3D 자기 공명 영상에 대한 복원 영상을 획득하는 단계를 포함하는 것을 특징으로 하는, 영상 복원 방법.
  20. 제12 항에 있어서,
    상기 서브 샘플링된 자기 공명 영상의 데이터를 획득하는 단계는,
    멀티 채널 RF 코일 각각에 대한 서브 샘플링된 자기 공명 영상들을 획득하는 단계를 포함하고,
    상기 서브 샘플링된 자기 공명 영상에 대한 복원 영상을 획득하는 단계는,
    상기 멀티 채널 RF 코일 각각의 민감도 및 상기 복원 데이터에 기초하여, 상기 복원 영상을 획득하는 단계를 포함하는, 영상 복원 방법.
  21. 제12 항에 있어서,
    상기 방법은,
    멀티 채널 RF 코일을 이용하여 대상체로부터 MR 신호를 수신하는 단계를 더 포함하고,
    상기 서브 샘플링된 자기 공명 영상의 데이터를 획득하는 단계는,
    상기 멀티 채널 RF 코일에 의해 수신된 상기 MR 신호에 기초하여 상기 위상 인코딩 방향으로 규칙적 또는 불규칙적인 패턴으로 서브 샘플링된 상기 서브 샘플링된 자기 공명 영상의 데이터를 획득하는 단계를 포함하는, 영상 복원 방법.
  22. 제12 항의 방법을 컴퓨터에서 실행시키기 위한 컴퓨터로 읽을 수 있는 기록매체에 저장된 컴퓨터 프로그램 .
  23. 프로세서; 및
    적어도 하나의 프로그램이 저장되는 메모리를 포함하고,
    상기 메모리는 상기 적어도 하나의 프로그램이 상기 프로세서에서 실행될 때, 상기 프로세서가
    적어도 하나의 서브 샘플링된 자기 공명 영상의 데이터 및 적어도 하나의 풀(full) 샘플링된 자기 공명 영상의 데이터를 획득하는 단계;
    상기 적어도 하나의 서브 샘플링된 자기 공명 영상 및 상기 적어도 하나의 풀 샘플링된 자기 공명 영상 간의 상관 관계를 엘리어싱(aliasing) 방향에 대응되는 적어도 한 줄의 픽셀들을 단위로 학습하여 적어도 하나의 뉴럴 네트워크(neural network)를 이용한 학습 모델을 획득하는 단계;
    서브 샘플링된 자기 공명 영상의 데이터를 획득하는 단계;
    상기 서브 샘플링된 자기 공명 영상의 데이터를 상기 엘리어싱 방향에 대응되는 적어도 한 줄의 픽셀들을 단위로 하는 복수의 그룹들로 그룹화하는 단계;
    상기 학습 모델에 기초하여, 상기 복수의 그룹들에 대한 복원 데이터를 획득하는 단계; 및
    상기 획득된 복원 데이터를 이용하여 상기 서브 샘플링된 자기 공명 영상에 대한 복원 영상을 획득하는 단계;
    를 실행하도록 하는 명령어들을 저장하는, 자기 공명 영상 장치.
  24. 적어도 하나의 서브 샘플링된 자기 공명 영상의 데이터 및 적어도 하나의 풀(full) 샘플링된 자기 공명 영상의 데이터를 획득하는 단계;
    상기 적어도 하나의 서브 샘플링된 자기 공명 영상 및 상기 적어도 하나의 풀 샘플링된 자기 공명 영상 간의 상관 관계를 엘리어싱(aliasing) 방향에 대응되는 적어도 한 줄의 픽셀들을 단위로 학습하여 적어도 하나의 뉴럴 네트워크(neural network)를 이용한 학습 모델을 획득하는 단계;
    서브 샘플링된 자기 공명 영상의 데이터를 획득하는 단계;
    상기 서브 샘플링된 자기 공명 영상의 데이터를 상기 엘리어싱 방향에 대응되는 적어도 한 줄의 픽셀들을 단위로 하는 복수의 그룹들로 그룹화하는 단계
    상기 학습 모델에 기초하여, 상기 복수의 그룹들에 대한 복원 데이터를 획득하는 단계; 및
    상기 획득된 복원 데이터를 이용하여 상기 서브 샘플링된 자기 공명 영상에 대한 복원 영상을 획득하는 단계를 포함하는, 영상 복원 방법.
KR1020170108136A 2017-08-25 2017-08-25 뉴럴 네트워크를 이용한 영상 복원 방법 및 그 자기 공명 영상 장치 KR101923184B1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020170108136A KR101923184B1 (ko) 2017-08-25 2017-08-25 뉴럴 네트워크를 이용한 영상 복원 방법 및 그 자기 공명 영상 장치
EP18847463.9A EP3655791A4 (en) 2017-08-25 2018-05-29 MAGNETIC RESONANCE IMAGING APPARATUS AND MAGNETIC RESONANCE IMAGE RECONSTRUCTION PROCESS BY MEANS OF A NETWORK OF NEURONS
PCT/KR2018/006085 WO2019039708A1 (en) 2017-08-25 2018-05-29 MAGNETIC RESONANCE IMAGING APPARATUS AND METHOD FOR MAGNETIC RESONANCE IMAGE RECONSTRUCTION USING NEURONIC ARRAY
US15/997,074 US10426373B2 (en) 2017-08-25 2018-06-04 Magnetic resonance imaging apparatus and method of reconstructing MR image by using neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170108136A KR101923184B1 (ko) 2017-08-25 2017-08-25 뉴럴 네트워크를 이용한 영상 복원 방법 및 그 자기 공명 영상 장치

Publications (1)

Publication Number Publication Date
KR101923184B1 true KR101923184B1 (ko) 2018-11-28

Family

ID=64561612

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170108136A KR101923184B1 (ko) 2017-08-25 2017-08-25 뉴럴 네트워크를 이용한 영상 복원 방법 및 그 자기 공명 영상 장치

Country Status (4)

Country Link
US (1) US10426373B2 (ko)
EP (1) EP3655791A4 (ko)
KR (1) KR101923184B1 (ko)
WO (1) WO2019039708A1 (ko)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102144320B1 (ko) * 2020-02-13 2020-08-13 주식회사 에어스 메디컬 자기 공명 영상 처리 장치 및 그 방법
KR20210044505A (ko) * 2019-10-15 2021-04-23 한국전자통신연구원 방송 신호 검출 장치 및 방법
US11125845B2 (en) 2019-03-22 2021-09-21 Canon Medical Systems Corporation Apparatus and method for deep learning to mitigate artifacts arising in simultaneous multi slice (SMS) magnetic resonance imaging (MRI)
KR20220082302A (ko) * 2020-12-10 2022-06-17 주식회사 에어스 메디컬 리스케일링과 인공신경망을 적용한 자기 공명 영상 처리 장치 및 그 방법
KR102414301B1 (ko) * 2021-12-29 2022-07-01 엔쓰리엔 주식회사 Pod 기반의 영상 관제 시스템 및 pod 기반의 영상 처리 방법
KR102429284B1 (ko) * 2021-08-04 2022-08-04 주식회사 에어스메디컬 컴바인이 적용되는 자기 공명 영상 처리 장치 및 그 방법
WO2022203119A1 (ko) * 2021-03-25 2022-09-29 주식회사 에어스 메디컬 의료 영상 복원 및 전송 시스템 및 그 방법
KR20220138481A (ko) * 2021-03-31 2022-10-13 주식회사 에어스 메디컬 페이즈 레졸루션 향상이 적용된 자기 공명 영상 처리 장치 및 그 방법
WO2022216073A1 (ko) * 2021-04-08 2022-10-13 주식회사 에어스 메디컬 슬라이스 레졸루션 향상이 적용된 자기 공명 영상 처리 장치 및 그 방법
KR102467249B1 (ko) * 2021-12-21 2022-11-16 주식회사 에어스메디컬 멀티 시퀀스 복원 기법이 적용되는 자기 공명 영상 처리 장치 및 그 방법
KR102472546B1 (ko) * 2021-08-12 2022-11-30 주식회사 에어스메디컬 노이즈 투 노이즈 기법이 적용되는 자기 공명 영상 처리 장치 및 그 방법
WO2023128074A1 (ko) * 2021-12-30 2023-07-06 주식회사 에어스 메디컬 스캔 파라미터를 이용하는 자기 공명 영상 처리 방법 및 장치
WO2023177151A1 (ko) * 2022-03-17 2023-09-21 주식회사 에어스 메디컬 3차원 의료 데이터의 처리 방법, 프로그램 및 장치
EP4280222A1 (en) * 2022-05-20 2023-11-22 Siemens Healthcare GmbH Medical imaging with distributed cluster-based processing

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10365340B1 (en) * 2018-03-01 2019-07-30 Siemens Medical Solutions Usa, Inc. Monitoring dynamics of patient brain state during neurosurgical procedures
JP7300811B2 (ja) * 2018-06-11 2023-06-30 キヤノンメディカルシステムズ株式会社 医用情報処理装置、医用情報処理方法、およびプログラム
CN110060313B (zh) * 2019-04-19 2023-12-19 上海联影医疗科技股份有限公司 一种图像伪影校正方法和系统
CN112133410A (zh) * 2019-06-25 2020-12-25 西门子医疗有限公司 使用机器学习的mri图像重建
US10970885B2 (en) 2019-07-31 2021-04-06 General Electric Company Iterative image reconstruction
US11568584B2 (en) 2019-08-26 2023-01-31 Shanghai United Imaging Intelligence Co., Ltd. Systems and methods for magnetic resonance imaging
US11348291B2 (en) * 2019-11-29 2022-05-31 Shanghai United Imaging Intelligence Co., Ltd. System and method for reconstructing magnetic resonance images
US11307278B2 (en) * 2020-01-02 2022-04-19 General Electric Company Reconstruction of MR image data
CN113359076B (zh) * 2020-03-06 2022-09-27 上海联影医疗科技股份有限公司 磁共振成像方法、装置、计算机设备和存储介质
CN111487573B (zh) * 2020-05-18 2021-03-23 厦门大学 一种用于磁共振欠采样成像的强化型残差级联网络模型
US11315248B2 (en) * 2020-06-10 2022-04-26 Omniscient Neurotechnology Pty Limited Identifying invalid medical images
US11823307B2 (en) * 2021-05-13 2023-11-21 The Board Of Trustees Of The Leland Stanford Junior University Method for high-dimensional image reconstruction using low-dimensional representations and deep learning
CN113506258B (zh) * 2021-07-02 2022-06-07 中国科学院精密测量科学与技术创新研究院 多任务复值深度学习的欠采样肺部气体mri重建方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016097292A (ja) * 2014-11-26 2016-05-30 株式会社東芝 磁気共鳴イメージング装置
KR101659578B1 (ko) * 2015-09-01 2016-09-23 삼성전자주식회사 자기 공명 영상 처리 방법 및 장치

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101284388B1 (ko) * 2011-10-26 2013-07-09 연세대학교 산학협력단 자기공명영상을 분석하는 방법, 장치 그리고 자기공명영상을 분석하기 위한 프로그램이 기록된 기록매체
KR101897608B1 (ko) * 2015-08-25 2018-09-12 한국과학기술원 bSSFP 이미지 조합을 통한 와전류 및 일시적인 진동으로 인한 아티팩트 완화 기법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016097292A (ja) * 2014-11-26 2016-05-30 株式会社東芝 磁気共鳴イメージング装置
KR101659578B1 (ko) * 2015-09-01 2016-09-23 삼성전자주식회사 자기 공명 영상 처리 방법 및 장치

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11125845B2 (en) 2019-03-22 2021-09-21 Canon Medical Systems Corporation Apparatus and method for deep learning to mitigate artifacts arising in simultaneous multi slice (SMS) magnetic resonance imaging (MRI)
KR20210044505A (ko) * 2019-10-15 2021-04-23 한국전자통신연구원 방송 신호 검출 장치 및 방법
KR102631741B1 (ko) 2019-10-15 2024-02-01 한국전자통신연구원 방송 신호 검출 장치 및 방법
KR102144320B1 (ko) * 2020-02-13 2020-08-13 주식회사 에어스 메디컬 자기 공명 영상 처리 장치 및 그 방법
WO2021162176A1 (ko) * 2020-02-13 2021-08-19 주식회사 에어스 메디컬 자기 공명 영상 처리 장치 및 그 방법
KR20220082302A (ko) * 2020-12-10 2022-06-17 주식회사 에어스 메디컬 리스케일링과 인공신경망을 적용한 자기 공명 영상 처리 장치 및 그 방법
KR102584166B1 (ko) * 2020-12-10 2023-10-05 주식회사 에어스메디컬 리스케일링과 인공신경망을 적용한 자기 공명 영상 처리 장치 및 그 방법
WO2022203119A1 (ko) * 2021-03-25 2022-09-29 주식회사 에어스 메디컬 의료 영상 복원 및 전송 시스템 및 그 방법
KR20220138481A (ko) * 2021-03-31 2022-10-13 주식회사 에어스 메디컬 페이즈 레졸루션 향상이 적용된 자기 공명 영상 처리 장치 및 그 방법
KR102467290B1 (ko) 2021-03-31 2022-11-16 주식회사 에어스메디컬 페이즈 레졸루션 향상이 적용된 자기 공명 영상 처리 장치 및 그 방법
WO2022216073A1 (ko) * 2021-04-08 2022-10-13 주식회사 에어스 메디컬 슬라이스 레졸루션 향상이 적용된 자기 공명 영상 처리 장치 및 그 방법
KR102429284B1 (ko) * 2021-08-04 2022-08-04 주식회사 에어스메디컬 컴바인이 적용되는 자기 공명 영상 처리 장치 및 그 방법
KR102472546B1 (ko) * 2021-08-12 2022-11-30 주식회사 에어스메디컬 노이즈 투 노이즈 기법이 적용되는 자기 공명 영상 처리 장치 및 그 방법
WO2023017963A1 (ko) * 2021-08-12 2023-02-16 주식회사 에어스 메디컬 노이즈 투 노이즈 기법이 적용되는 자기 공명 영상 처리 장치 및 그 방법
KR102467249B1 (ko) * 2021-12-21 2022-11-16 주식회사 에어스메디컬 멀티 시퀀스 복원 기법이 적용되는 자기 공명 영상 처리 장치 및 그 방법
KR102414301B1 (ko) * 2021-12-29 2022-07-01 엔쓰리엔 주식회사 Pod 기반의 영상 관제 시스템 및 pod 기반의 영상 처리 방법
WO2023128074A1 (ko) * 2021-12-30 2023-07-06 주식회사 에어스 메디컬 스캔 파라미터를 이용하는 자기 공명 영상 처리 방법 및 장치
WO2023177151A1 (ko) * 2022-03-17 2023-09-21 주식회사 에어스 메디컬 3차원 의료 데이터의 처리 방법, 프로그램 및 장치
EP4280222A1 (en) * 2022-05-20 2023-11-22 Siemens Healthcare GmbH Medical imaging with distributed cluster-based processing

Also Published As

Publication number Publication date
US10426373B2 (en) 2019-10-01
WO2019039708A1 (en) 2019-02-28
EP3655791A4 (en) 2020-08-05
US20190059780A1 (en) 2019-02-28
EP3655791A1 (en) 2020-05-27

Similar Documents

Publication Publication Date Title
KR101923184B1 (ko) 뉴럴 네트워크를 이용한 영상 복원 방법 및 그 자기 공명 영상 장치
KR101659578B1 (ko) 자기 공명 영상 처리 방법 및 장치
US20200265318A1 (en) Method and apparatus for using generative adversarial networks in magnetic resonance image reconstruction
US11085983B2 (en) Magnetic resonance imaging apparatus and method of generating magnetic resonance image
EP3704667A1 (en) Motion artifact prediction during data acquisition
US11494903B2 (en) Systems and methods for image data acquisition
CN107865659A (zh) 磁共振成像装置及获取磁共振图像的方法
CN109477878A (zh) 运动校正的压缩感知磁共振成像
KR102584166B1 (ko) 리스케일링과 인공신경망을 적용한 자기 공명 영상 처리 장치 및 그 방법
US10591563B2 (en) Magnetic resonance imaging apparatus
CN113506271A (zh) 医学扫描数据处理方法和系统
US11734817B2 (en) Medical information processing apparatus, magnetic resonance imaging apparatus, and medical information processing method
US20200200848A1 (en) Medical information processing apparatus, medical information processing method, and storage medium
KR102513218B1 (ko) 학습 데이터 생성 방법, 컴퓨터 프로그램 및 장치
KR102526487B1 (ko) 딥러닝 모델의 학습을 위한 의료 데이터의 처리 방법, 프로그램 및 장치
KR20190117234A (ko) 인공신경망을 이용한 자기 공명 영상의 영상 프로토콜 선택 장치와 방법 및 프로그램이 기록된 컴퓨터 판독 가능한 기록매체
CN107928672A (zh) 磁共振成像设备和操作所述磁共振成像设备的方法
KR102467249B1 (ko) 멀티 시퀀스 복원 기법이 적용되는 자기 공명 영상 처리 장치 및 그 방법
KR102472546B1 (ko) 노이즈 투 노이즈 기법이 적용되는 자기 공명 영상 처리 장치 및 그 방법
KR102475390B1 (ko) 3d 마스크 자동 생성 기법이 적용되는 자기 공명 영상 처리 장치 및 그 방법
WO2022124473A1 (ko) K-space 도메인에 인공신경망을 적용한 자기 공명 영상 처리 장치 및 그 방법
KR102572311B1 (ko) 보조맵과 인공신경망을 적용한 자기 공명 영상 처리 장치 및 그 방법
KR102546620B1 (ko) 딥러닝 모델의 학습을 위한 의료 데이터의 처리 방법, 프로그램 및 장치
KR102584250B1 (ko) 데이터 처리 방법, 컴퓨터 프로그램 및 장치
US20240127498A1 (en) Magnetic resonance image processing method and apparatus using scan parameters

Legal Events

Date Code Title Description
GRNT Written decision to grant