KR102090690B1 - Apparatus and method for selecting imaging protocol of magnetic resonance imaging by using artificial neural network, and computer-readable recording medium storing related program - Google Patents

Apparatus and method for selecting imaging protocol of magnetic resonance imaging by using artificial neural network, and computer-readable recording medium storing related program Download PDF

Info

Publication number
KR102090690B1
KR102090690B1 KR1020180040489A KR20180040489A KR102090690B1 KR 102090690 B1 KR102090690 B1 KR 102090690B1 KR 1020180040489 A KR1020180040489 A KR 1020180040489A KR 20180040489 A KR20180040489 A KR 20180040489A KR 102090690 B1 KR102090690 B1 KR 102090690B1
Authority
KR
South Korea
Prior art keywords
neural network
artificial neural
magnetic resonance
protocol
layer
Prior art date
Application number
KR1020180040489A
Other languages
Korean (ko)
Other versions
KR20190117234A (en
Inventor
이영한
서진석
양재문
Original Assignee
연세대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 연세대학교 산학협력단 filed Critical 연세대학교 산학협력단
Priority to KR1020180040489A priority Critical patent/KR102090690B1/en
Publication of KR20190117234A publication Critical patent/KR20190117234A/en
Application granted granted Critical
Publication of KR102090690B1 publication Critical patent/KR102090690B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/042Knowledge-based neural networks; Logical representations of neural networks
    • G06N3/0427
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Medical Informatics (AREA)
  • Epidemiology (AREA)
  • Public Health (AREA)
  • Primary Health Care (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

본 발명은 인공신경망을 이용한 자기 공명 영상의 영상 프로토콜 선택 장치와 방법 및 프로그램이 기록된 컴퓨터 판독 가능한 기록매체에 관한 것이다. 본 발명에 따르면, 학습 데이터를 이용하여 인공신경망을 학습시키고, 학습이 완료되면 인공신경망을 이용하여 환자에 적합한 영상 프로토콜을 결정한다. 이후, 해당 환자에 대하여 결정된 영상 프로토콜에 따라 자기 공명 영상을 생성한다.The present invention relates to a computer readable recording medium in which an imaging protocol selection apparatus and method and program for magnetic resonance imaging using an artificial neural network are recorded. According to the present invention, an artificial neural network is trained using learning data, and when the learning is completed, an imaging protocol suitable for a patient is determined using the artificial neural network. Thereafter, a magnetic resonance image is generated according to the determined imaging protocol for the patient.

Description

인공신경망을 이용한 자기 공명 영상의 영상 프로토콜 선택 장치와 방법 및 프로그램이 기록된 컴퓨터 판독 가능한 기록매체{Apparatus and method for selecting imaging protocol of magnetic resonance imaging by using artificial neural network, and computer-readable recording medium storing related program}Apparatus and method for selecting imaging protocol of magnetic resonance imaging by using artificial neural network, and computer-readable recording medium storing related program}

본 발명은 자기 공명 영상 기술에 관한 것으로, 보다 상세하게는, 인공신경망을 이용하여 환자 정보를 기초로 자기 공명 영상 촬영을 위한 영상 프로토콜을 선택하는 장치와 방법, 및 이 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록매체에 관한 것이다.The present invention relates to magnetic resonance imaging technology, and more specifically, an apparatus and method for selecting an imaging protocol for magnetic resonance imaging based on patient information using an artificial neural network, and a program performing the method are recorded Computer readable recording media.

자기 공명 영상(MRI: Magnetic Resonance Imaging)은 영상 기술 중 하나로 핵자기 공명 원리를 사용한다. 자기장을 발생시키는 자기 공명 촬영 장치 안에 인체가 위치한 상태에서 고주파를 발생시키면 인체의 수소 원자핵이 공명하게 된다. 이때 나오는 신호의 차이를 측정하고 컴퓨터를 통해 재구성하여 영상화시키면 자기 공명 영상이 얻어지게 된다.Magnetic Resonance Imaging (MRI) is one of the imaging technologies and uses the nuclear magnetic resonance principle. When a high frequency is generated while a human body is located in a magnetic resonance imaging apparatus that generates a magnetic field, the hydrogen atom nucleus of the human body is resonated. The magnetic resonance image is obtained by measuring the difference between the signals and then reconstructing the image through a computer.

자기 공명 영상(MRI)은 X선을 사용하여 인체에 유해한 X선 컴퓨터 단층 촬영(CT: Computed Tomography)과 달리 인체에 무해하다는 게 특징이다. 또한, CT는 횡단면 영상이 주가 되는 반면, MRI는 방향에 자유롭다. MRI를 이용하면 혈액의 산소 함유량을 측정할 수 있고, 이를 통해 뇌 속의 혈류에 관한 정보를 얻을 수 있다.Magnetic resonance imaging (MRI) is characterized by being harmless to the human body, unlike X-ray computed tomography (CT), which is harmful to the human body using X-rays. In addition, CT is primarily a cross-sectional image, while MRI is free in orientation. Using MRI, you can measure the oxygen content in your blood, and through this you can get information about blood flow in your brain.

MRI 장치는 체내의 병변(종양 등)의 위치를 분명히 밝힐 뿐만 아니라, 그것이 암과 같은 악성인지 여부까지 밝혀낼 수 있는 진단 장치이다. 이러한 MRI 장치에서는 환자별 맞춤 진단 및 치료를 위해 최적의 MRI 프로토콜을 결정하는 것이 무엇보다 중요하다. 일반적으로, MRI 프로토콜은 MRI 촬영 이유, 임상 정보, 환자 정보, 의뢰과 정보 등에 따라 결정된다.The MRI device is a diagnostic device that can not only clarify the location of a lesion (tumor, etc.) in the body, but also reveal whether it is malignant, such as cancer. In these MRI devices, it is most important to determine the optimal MRI protocol for patient-specific diagnosis and treatment. In general, the MRI protocol is determined according to the MRI imaging reason, clinical information, patient information, referral information, and the like.

하지만 이러한 MRI 프로토콜의 결정은 많은 시간을 필요로 하고 방사선과에 상당한 업무 부담을 주고 있는 실정이다.However, the decision of the MRI protocol requires a lot of time and puts a considerable burden on the radiology department.

본 발명의 목적은 인공신경망을 통해 환자에 적합한 자기 공명 영상의 영상 프로토콜을 결정하고, 결정된 영상 프로토콜에 따라 자기 공명 영상을 촬영할 수 있는 장치와 방법, 및 이 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록매체를 제공하기 위한 것이다.An object of the present invention is to determine an imaging protocol of a magnetic resonance image suitable for a patient through an artificial neural network, and to read a device and method capable of photographing a magnetic resonance image according to the determined imaging protocol, and a computer in which a program performing the method is recorded. To provide a possible recording medium.

본 발명에 따른 자기 공명 영상의 영상 프로토콜 선택 장치는 인공신경망과 학습모듈을 포함하여 구성될 수 있다. 상기 인공신경망은 입력층, 컨볼루션층, 풀링층, 및 출력층을 포함하는 복수의 계층으로 이루어질 수 있고, 상기 복수의 계층 각각이 복수의 연산을 포함하며, 상기 복수의 계층 중 어느 하나의 연산 결과에 가중치가 적용되어 다음 계층의 입력이 될 수 있다. 상기 학습모듈은 환자의 정보를 기술한 복수의 단어 및 상기 환자에 적합한 영상 프로토콜을 나타내는 기댓값을 포함하는 학습 데이터를 상기 인공신경망에 입력하고, 상기 입력에 따라 상기 인공신경망의 복수의 연산을 통해 출력된 출력값과 상기 기댓값을 비교하여 상기 출력값과 상기 기댓값의 차이가 최소가 되도록 역전파 알고리즘에 따라 상기 가중치를 수정할 수 있다.The apparatus for selecting an imaging protocol of a magnetic resonance image according to the present invention may include an artificial neural network and a learning module. The artificial neural network may be composed of a plurality of layers including an input layer, a convolutional layer, a pooling layer, and an output layer, each of the plurality of layers including a plurality of operations, and a result of any one operation of the plurality of layers The weight is applied to the input to the next layer. The learning module inputs learning data including a plurality of words describing patient information and an expected value representing an image protocol suitable for the patient into the artificial neural network, and outputs through a plurality of calculations of the artificial neural network according to the input. The weight may be corrected according to a backpropagation algorithm so that the difference between the output value and the expected value is minimized by comparing the output value with the expected value.

상기 장치는 선택모듈을 더 포함할 수 있다. 상기 선택모듈은 검사 대상의 기본 정보를 기술한 복수의 단어를 포함하는 판별 데이터를 상기 인공신경망에 입력하여 상기 인공신경망의 복수의 연산에 의한 상기 인공신경망의 출력에 따라 상기 검사 대상의 영상 프로토콜을 선택할 수 있다.The device may further include a selection module. The selection module inputs discrimination data including a plurality of words describing basic information of a test object to the artificial neural network, and performs an imaging protocol of the test object according to the output of the artificial neural network through a plurality of calculations of the artificial neural network. You can choose.

상기 장치는 스캔부 및 제어부를 더 포함할 수 있다. 상기 스캔부는 마그넷 및 코일을 통해 검사 대상 주변에 자기장을 형성하고, 상기 자기장으로 인해 상기 검사 대상으로부터 발생하는 자기 공명 신호를 획득할 수 있다. 상기 제어부는 상기 자기장으로 인해 상기 영상 프로토콜에 상응하는 부위에서 발생하는 자기 공명 신호를 상기 스캔부를 통해 획득하여 자기 공명 영상을 생성할 수 있다.The device may further include a scan unit and a control unit. The scan unit may form a magnetic field around an inspection object through a magnet and a coil, and acquire a magnetic resonance signal generated from the inspection object due to the magnetic field. The control unit may generate a magnetic resonance image by acquiring a magnetic resonance signal generated in a region corresponding to the imaging protocol through the scan unit due to the magnetic field.

상기 컨볼루션층은 상기 입력층에 대해 각 원소가 가중치인 행렬인 제1 필터를 이용한 컨볼루션 연산을 수행하여 생성된 복수의 제1 특징 지도를 포함할 수 있다.The convolutional layer may include a plurality of first feature maps generated by performing a convolution operation using a first filter, which is a matrix in which each element is a weighted matrix, for the input layer.

상기 풀링층은 상기 복수의 제1 특징 지도 각각에 상기 복수의 제1 특징 지도 크기의 제2 필터를 이용한 풀링 연산을 수행하여 생성된 제2 특징 지도를 포함할 수 있다.The pooling layer may include a second feature map generated by performing a pooling operation using a second filter of the plurality of first feature map sizes on each of the plurality of first feature maps.

상기 출력층은 제2 특징 지도의 행렬의 원소에 소프트맥스(softmax) 연산에 따라 산출되는 상기 출력값을 포함할 수 있다.The output layer may include the output value calculated according to a softmax operation on an element of the matrix of the second feature map.

또한, 본 발명에 따른 자기 공명 영상의 영상 프로토콜 선택 방법은, 학습모듈이 환자의 정보를 기술한 복수의 단어 및 상기 환자에 적합한 영상 프로토콜을 나타내는 기댓값을 포함하는 학습 데이터를 인공신경망에 입력하는 단계와, 상기 인공신경망이 상기 학습 데이터를 기초로 가중치가 적용되는 복수의 연산을 통해 출력값을 산출하는 단계와, 상기 학습모듈이 상기 출력값과 상기 기댓값의 차이가 최소가 되도록 역전파 알고리즘에 따라 상기 가중치를 수정하는 단계를 포함하여 구성될 수 있다.In addition, a method for selecting an imaging protocol of a magnetic resonance image according to the present invention comprises: a learning module inputting learning data including a plurality of words describing patient information and an expected value representing an imaging protocol suitable for the patient into an artificial neural network; And, the artificial neural network calculating an output value through a plurality of operations to which a weight is applied based on the learning data, and the weighting according to a backpropagation algorithm so that the learning module minimizes the difference between the output value and the expected value. It may be configured to include the step of modifying.

상기 방법은 선택모듈이 검사 대상의 기본 정보를 기술한 복수의 단어를 포함하는 판별 데이터를 상기 인공신경망에 입력하는 단계와, 상기 인공신경망이 상기 판별 데이터를 기초로 가중치가 적용되는 복수의 연산을 통해 출력값을 출력하는 단계와, 상기 선택모듈이 상기 인공신경망의 복수의 연산에 의한 상기 인공신경망의 출력에 따라 상기 검사 대상의 영상 프로토콜을 선택하는 단계를 더 포함할 수 있다.The method includes inputting, by the selection module, discrimination data including a plurality of words describing basic information of a test object into the artificial neural network, and performing a plurality of operations in which the artificial neural network is weighted based on the discrimination data. The method may further include outputting an output value through the selection module, and selecting an image protocol of the inspection target according to the output of the artificial neural network through a plurality of calculations of the artificial neural network.

상기 방법은 스캔부가 마그넷 및 코일을 통해 검사 대상 주변에 자기장을 형성하는 단계와, 제어부가 상기 자기장으로 인해 상기 영상 프로토콜에 상응하는 부위에서 발생하는 자기 공명 신호를 상기 스캔부를 통해 획득하여 자기 공명 영상을 생성하는 단계를 더 포함할 수 있다.The method includes the steps of forming a magnetic field around the inspection target through a magnet and a coil, and the control unit acquires a magnetic resonance signal generated in a region corresponding to the imaging protocol due to the magnetic field through the scanning unit to obtain a magnetic resonance image. It may further include the step of generating.

상기 출력값을 산출하는 단계는 상기 인공신경망이 상기 인공신경망의 입력층에 대해 각 원소가 가중치인 행렬인 제1 필터를 이용한 컨볼루션 연산을 수행하여 복수의 제1 특징 지도를 포함하는 컨볼루션층을 생성하는 단계를 포함할 수 있다.In the calculating of the output value, the artificial neural network performs a convolution operation using a first filter that is a matrix in which each element is a weighted matrix with respect to the input layer of the artificial neural network to obtain a convolution layer including a plurality of first feature maps. And generating.

상기 출력값을 산출하는 단계는 상기 컨볼루션층을 생성하는 단계 후, 상기 인공신경망이 상기 복수의 제1 특징 지도 각각에 상기 복수의 제1 특징 지도 크기의 제2 필터를 이용한 풀링 연산을 수행하여 제2 특징 지도를 포함하는 풀링층을 생성하는 단계를 더 포함할 수 있다.In the calculating of the output value, after the step of generating the convolution layer, the artificial neural network performs a pooling operation using a second filter of the plurality of first feature map sizes on each of the plurality of first feature maps. The method may further include generating a pooling layer including the feature map.

상기 출력값을 산출하는 단계는 상기 풀링층을 생성하는 단계 후, 상기 인공신경망이 제2 특징 지도의 행렬의 원소에 소프트맥스 연산에 따라 출력값을 가지는 출력층을 생성하는 단계를 더 포함할 수 있다.The calculating of the output value may further include generating an output layer having an output value according to a softmax operation on elements of the matrix of the second feature map after the artificial neural network generates the pooling layer.

한편, 본 발명은 상기 방법을 수행하기 위한 프로그램이 기록된 컴퓨터 판독 가능한 기록매체를 제공할 수 있다.Meanwhile, the present invention can provide a computer-readable recording medium in which a program for performing the method is recorded.

본 발명에 따르면, 환자 정보를 입력하기만 하면 인공신경망을 통해 해당 환자에 적합한 영상 프로토콜을 신속하게 자동적으로 결정할 수 있고, 이에 따라 환자를 정확하게 진단하고 치료할 수 있다. 즉, 본 발명은 MRI 프로토콜의 결정에 소요되는 시간을 최소화할 수 있고 방사선과의 업무 부담을 경감할 수 있다.According to the present invention, simply by inputting patient information, it is possible to quickly and automatically determine an appropriate imaging protocol for a patient through an artificial neural network, thereby accurately diagnosing and treating a patient. That is, the present invention can minimize the time required for the determination of the MRI protocol and reduce the workload of the radiology department.

도 1은 본 발명의 실시예에 따른 자기 공명 영상 장치를 나타내는 개략도이다.
도 2는 본 발명의 실시예에 따른 인공신경망을 포함하는 프로토콜 선택부의 세부 구성을 나타내는 블록도이다.
도 3은 본 발명의 실시예에 따른 인공신경망의 구성을 설명하기 위한 도면이다.
도 4 내지 도 6은 도 3에 도시된 인공신경망의 가중치를 포함하는 연산을 설명하기 위한 도면들이다.
도 7은 본 발명의 실시예에 따른 인공신경망 학습 방법을 나타내는 흐름도이다.
도 8은 본 발명의 실시예에 따른 인공신경망을 이용한 자기 공명 영상의 영상 프로토콜 선택 및 자기 공명 영상 촬영 방법을 나타내는 흐름도이다.
1 is a schematic diagram showing a magnetic resonance imaging apparatus according to an embodiment of the present invention.
2 is a block diagram showing a detailed configuration of a protocol selection unit including an artificial neural network according to an embodiment of the present invention.
3 is a view for explaining the configuration of an artificial neural network according to an embodiment of the present invention.
4 to 6 are diagrams for explaining an operation including the weight of the artificial neural network shown in FIG. 3.
7 is a flowchart illustrating an artificial neural network learning method according to an embodiment of the present invention.
8 is a flowchart illustrating an imaging protocol selection and a magnetic resonance imaging method of an MR image using an artificial neural network according to an embodiment of the present invention.

이하, 첨부 도면을 참조하여 본 발명의 실시예들을 보다 상세하게 설명하고자 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

본 발명은 다양한 형태로 실시될 수 있으며, 여기에 개시된 실시예들로 한정하여 해석되지 않아야 할 것이다. 개시된 실시예들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 본 발명의 범위를 충분히 전달하기 위하여 제공되는 것이다. 본 발명의 원리 및 특징들은 본 발명의 범위를 벗어나지 않고 매우 다양한 실시예들에서 적용될 수 있을 것이다.The present invention may be implemented in various forms and should not be interpreted as being limited to the embodiments disclosed herein. The disclosed embodiments are provided to sufficiently convey the scope of the present invention to those of ordinary skill in the art. The principles and features of the invention may be applied in a wide variety of embodiments without departing from the scope of the invention.

또한, 실시예들을 설명함에 있어서 본 발명이 속하는 기술 분야에 잘 알려져 있거나 본 발명과 직접 관련이 없는 사항에 대해서는 본 발명의 핵심을 흐리지 않고 명확히 전달하기 위하여 설명을 생략할 수 있다. 첨부 도면에 있어서 일부 구성요소는 과장되거나 생략되거나 또는 개략적으로 도시되며, 각 구성요소의 크기는 실제 크기를 전적으로 반영하는 것이 아니다. 첨부 도면을 통틀어 동일하거나 대응하는 구성요소에는 동일한 참조번호를 부여한다.In addition, in describing the embodiments, for the matters well known in the technical field to which the present invention pertains or not directly related to the present invention, descriptions may be omitted so as not to obscure and clearly convey the core of the present invention. In the accompanying drawings, some components are exaggerated, omitted, or schematically illustrated, and the size of each component does not entirely reflect the actual size. The same reference numbers are assigned to the same or corresponding elements throughout the accompanying drawings.

기술 용어들 및 과학 용어들을 비롯하여 여기에 사용된 모든 용어들은, 다르게 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의하여 이해되는 것과 동일한 의미를 가진다. 한편, 단수 형태로 기재되더라도, 문맥상 명백히 다르게 지시하지 않는 한, 복수 형태를 포함하는 것이다.All terms used herein, including technical terms and scientific terms, have the same meaning as understood by a person skilled in the art to which the present invention pertains, unless otherwise defined. On the other hand, even if described in the singular form, unless the context clearly indicates otherwise, the plural form is included.

먼저, 본 발명의 실시예에 따른 자기 공명 영상(MRI: magnetic resonance imaging) 장치에 대해서 설명한다.First, a magnetic resonance imaging (MRI) device according to an embodiment of the present invention will be described.

도 1은 본 발명의 실시예에 따른 자기 공명 영상 장치를 나타내는 개략도이다. 도 1을 참조하면, 자기 공명 영상 장치(10, 이하 MRI 장치)는 스캔부(110), 입력부(130), 표시부(140), 제어부(150), 및 프로토콜 선택부(160)를 포함한다.1 is a schematic diagram showing a magnetic resonance imaging apparatus according to an embodiment of the present invention. Referring to FIG. 1, a magnetic resonance imaging device 10 (hereinafter referred to as an MRI device) includes a scan unit 110, an input unit 130, a display unit 140, a control unit 150, and a protocol selection unit 160.

스캔부(110)는 MRI 장치(10)의 본체에 해당한다. 기본적으로 스캔부(110)는 마그넷 및 코일을 통해 검사 대상(1: 예컨대, 환자의 인체, 이하 검사 대상 또는 촬영 대상으로 지칭함) 주변에 자기장을 형성하고, 이러한 자기장으로 인해 검사 대상(1)으로부터 자기 공명 신호를 발생시킨다. 그러면, 제어부(150)는 자기 공명 신호를 수신하고, 수신된 자기 공명 신호를 이용하여 자기 공명 영상을 생성할 수 있다.The scan unit 110 corresponds to the main body of the MRI device 10. Basically, the scanning unit 110 forms a magnetic field around an inspection object (1: for example, a patient's human body, hereinafter referred to as an inspection object or an imaging object) through a magnet and a coil, and the magnetic field from the inspection object 1 Generate a magnetic resonance signal. Then, the control unit 150 may receive a magnetic resonance signal and generate a magnetic resonance image using the received magnetic resonance signal.

스캔부(110)는 주자장 코일, 그래디언트 코일, RF 코일 등으로 구성된 복수의 코일(111)을 구비한다. 이러한 복수의 코일(111) 각각은 전체적으로 원통형의 형상을 가지며, 원통형의 보어(112) 내에 동축으로 배열된다.The scan unit 110 includes a plurality of coils 111 composed of a main magnetic field coil, a gradient coil, and an RF coil. Each of the plurality of coils 111 has a cylindrical shape as a whole, and is coaxially arranged in the cylindrical bore 112.

검사 대상(1)은 크래들(113) 상에서 보어(112) 안으로, 즉 복수의 코일(111) 내로 이동된다. 이때, 주자장 코일은 보어(112)에 정자장을 생성한다. 정자장의 방향은 일반적으로 촬영 대상(1)의 몸축 방향에 평행하며, 따라서 수평 자장이다. 주자장 코일은 통상적으로 초전도 마그네트를 이용하여 구성된다. 그러나 주자장 코일은 초전도 마그네트 외에 저항성 마그네트 등을 이용하여 구성될 수도 있다.The inspection object 1 is moved into the bore 112 on the cradle 113, that is, into the plurality of coils 111. At this time, the main magnetic field coil generates a static magnetic field in the bore 112. The direction of the static magnetic field is generally parallel to the direction of the body axis of the object 1 to be photographed, and thus a horizontal magnetic field. The main magnetic field coil is usually constructed using a superconducting magnet. However, the main magnetic field coil may be configured using a resistive magnet or the like in addition to the superconducting magnet.

그래디언트 코일은 서로 직교하는 3개의 축, 즉 슬라이스축, 위상축 및 주파수축을 따라 각각 주자장 코일에 의해서 생성된 정자장의 세기가 그래디언트를 겪게 하는데 이용되는 3개의 자장 그래디언트를 생성한다. 자장 그래디언트를 생성하기 위해, 그래디언트 코일은 3개로 구성된다. 제어부(150)의 제어에 따라 그래디언트 코일이 구동되어 자장 그래디언트가 발생된다. 방향이 슬라이스축의 방향에 대응하는 자장 그래디언트를 슬라이싱 자장 그래디언트라고 칭하고, 방향이 위상축의 방향에 대응하는 자장 그래디언트를 위상 인코딩 자장 그래디언트라고 칭하고, 방향이 주파수축의 방향에 대응하는 자장 그래디언트를 판독 자장 그래디언트(또는, 주파수 인코딩 자장 그래디언트)라고 칭할 수 있다. 3차원 공간에 정의된 직교 좌표계에서의 좌표축이 정자장의 공간에서의 상호 직교하는 축과 관련되고, 그것이 X, Y, Z축이라고 하면, X, Y, Z축 중 어느 것도 슬라이스축으로서 간주될 수 있다. 본 실시예에서, 슬라이스축은 촬영 대상(1)의 신체 축과 정렬될 수 있으며, Z축으로서 간주된다. 다른 2개의 축 중에서 하나는 위상축이고, 다른 축은 주파수축이다. 또한, 슬라이스축, 위상축 및 주파수축은, 상호간의 직교성을 유지하면서, X, Y, Z축에 대해서 임의의 경사로 기울 수 있다.The gradient coil generates three magnetic field gradients that are used to cause the intensity of the static magnetic field generated by the main magnetic field coil to undergo a gradient along three axes orthogonal to each other, that is, a slice axis, a phase axis, and a frequency axis. To create a magnetic field gradient, the gradient coil consists of three. Under the control of the controller 150, a gradient coil is driven to generate a magnetic field gradient. The magnetic field gradient whose direction corresponds to the direction of the slice axis is called a slicing magnetic field gradient, and the magnetic field gradient whose direction corresponds to the direction of the phase axis is called a phase encoding magnetic field gradient, and the magnetic field gradient whose direction corresponds to the direction of the frequency axis is read from the magnetic field gradient ( Alternatively, it may be referred to as a frequency encoding magnetic field gradient). If the coordinate axes in the Cartesian coordinate system defined in three-dimensional space are related to mutually orthogonal axes in the space of a static magnetic field, and it is the X, Y, and Z axes, any of the X, Y, and Z axes can be regarded as a slice axis. have. In this embodiment, the slice axis can be aligned with the body axis of the subject 1, and is regarded as the Z axis. Of the other two axes, one is the phase axis, and the other is the frequency axis. In addition, the slice axis, the phase axis, and the frequency axis can be inclined with respect to the X, Y, and Z axes while maintaining orthogonality with each other.

제어부(150)의 제어에 따라 RF 코일은 RF 펄스를 인가한다. RF 코일은 정자장 공간에서 촬영 대상(1) 내에 스핀을 여기할 때 이용되는 고주파 자기장을 형성한다. 고주파 자기장을 형성하는 것을 RF 여기 신호의 송신이라 하고, RF 여기 신호를 RF 펄스라고 한다. 여기된 스핀에 의해 발생된 전자파, 즉 자기 공명 신호는 RF 코일에 의해 수신되어 제어부(150)로 전달된다.Under the control of the control unit 150, the RF coil applies an RF pulse. The RF coil forms a high-frequency magnetic field that is used to excite the spin in the imaging object 1 in the static magnetic field space. Forming a high-frequency magnetic field is called transmission of an RF excitation signal, and an RF excitation signal is called an RF pulse. The electromagnetic wave generated by the excited spin, that is, the magnetic resonance signal is received by the RF coil and transmitted to the control unit 150.

입력부(130)는 MRI 장치(10)의 각종 기능과 동작 등을 제어하기 위한 사용자의 키 조작을 입력받고 입력 신호를 생성하여 제어부(150) 혹은 프로토콜 선택부(160)로 전달한다. 입력부(130)는 키보드, 마우스 등일 수 있다. 입력부(130)는 전원 on/off를 위한 전원 키, 문자 키, 숫자 키, 방향 키 중에서 적어도 하나를 포함할 수 있다. 표시부(140)가 터치스크린으로 구현되는 경우, 입력부(130)의 기능은 표시부(140)에서 이루어질 수도 있다. 또한, 표시부(140)만으로 모든 기능을 수행할 수 있는 경우, 입력부(130)는 생략될 수도 있다.The input unit 130 receives a user's key manipulation for controlling various functions and operations of the MRI device 10, generates an input signal, and transmits the input signal to the control unit 150 or the protocol selection unit 160. The input unit 130 may be a keyboard, mouse, or the like. The input unit 130 may include at least one of a power key for power on / off, a character key, a number key, and a direction key. When the display unit 140 is implemented as a touch screen, the function of the input unit 130 may be performed in the display unit 140. In addition, when all functions can be performed only by the display unit 140, the input unit 130 may be omitted.

표시부(140)는 제어부(150)로부터 화면 표시를 위한 데이터, 예컨대, 자기 공명 영상을 수신하여 수신된 데이터를 화면으로 표시할 수 있다. 또한, 표시부(140)는 MRI 장치(10)의 메뉴, 데이터, 기능 설정 정보, 및 기타 다양한 정보를 사용자에게 시각적으로 제공할 수 있다. 터치스크린으로 형성되는 경우, 표시부(140)는 입력부(130)의 기능 일부 또는 전부를 대신 수행할 수 있다. 표시부(140)는 액정 표시 장치(LCD: Liquid Crystal Display), 유기 발광 다이오드(OLED: Organic Light Emitting Diodes), 능동형 유기 발광 다이오드(AMOLED: Active Matrix Organic Light Emitting Diodes) 등으로 형성될 수 있다.The display unit 140 may receive data for screen display from the control unit 150, for example, a magnetic resonance image and display the received data on a screen. In addition, the display 140 may visually provide a menu, data, function setting information, and various other information of the MRI device 10 to the user. When formed as a touch screen, the display unit 140 may perform some or all of the functions of the input unit 130 instead. The display unit 140 may be formed of a liquid crystal display (LCD), organic light emitting diodes (OLED), active matrix organic light emitting diodes (AMOLED), or the like.

프로토콜 선택부(160)는 입력부(130)로부터 기본 정보를 포함하는 학습 데이터를 입력받고, 인공신경망을 학습시킨다. 기본 정보는 환자의 신상 정보, 임상 정보, 촬영 이유 등을 포함할 수 있다. 실시예에서, 기본 정보는 의뢰 부서(예: 정형외과), 환자 성별(예: 남자), 환자 나이(예: 56세), 부위(예: 둔부), 조영제 여부(예: 조영제 사용) 등을 포함할 수 있다. 또한, 프로토콜 선택부(160)는 기본 정보를 포함하는 판별 데이터를 입력받고, 학습된 인공신경망을 이용하여 환자에 적합한 자기 공명 영상의 영상 프로토콜을 결정한다. 여기서, 영상 프로토콜은 루틴 프로토콜(routine protocol) 및 종양 프로토콜(tumor protocol)을 포함한다. 결정된 영상 프로토콜은 제어부(150)에 제공된다. 한편, 다른 실시예에서 영상 프로토콜은 스트로크 프로토콜, 감영 프로토콜, 트라우마 프로토콜, 및 그 밖의 프로토콜 중의 적어도 하나를 더 포함할 수 있다.The protocol selector 160 receives learning data including basic information from the input unit 130 and trains the artificial neural network. The basic information may include the patient's personal information, clinical information, and the reason for the imaging. In an embodiment, the basic information includes the referral department (e.g. orthopedic surgeon), patient gender (e.g. man), patient age (e.g. 56 years old), site (e.g. hip), contrast medium (e.g. contrast agent use), etc. It can contain. In addition, the protocol selector 160 receives discrimination data including basic information, and determines an imaging protocol of a magnetic resonance image suitable for a patient by using the learned artificial neural network. Here, the imaging protocol includes a routine protocol and a tumor protocol. The determined video protocol is provided to the control unit 150. On the other hand, in another embodiment, the video protocol may further include at least one of a stroke protocol, an inspiration protocol, a trauma protocol, and other protocols.

제어부(150)는 MRI 장치(10)의 전반적인 동작 및 내부 블록들 간의 신호 흐름을 제어하고, 데이터를 처리하는 데이터 처리 기능을 수행할 수 있다. 제어부(150)는 중앙 처리 장치(CPU: Central Processing Unit), 어플리케이션 프로세서(AP: Application Processor), 그래픽 처리 장치(GPU: Graphic Processing Unit) 등이 될 수 있다.The control unit 150 may control the overall operation of the MRI apparatus 10 and the signal flow between internal blocks, and perform a data processing function for processing data. The control unit 150 may be a central processing unit (CPU), an application processor (AP), or a graphic processing unit (GPU).

제어부(150)는 RF 코일로부터 수신한 자기 공명 신호로부터 자기 공명 영상을 생성한다. 자기 공명 영상은 시상면 T1 강조 이미지(Sagittal T1-weighted image), 시상면 T2 강조 이미지(Sagittal T2-weighted image), 축 T1 강조 이미지(Axial T1-weighted image), 축 T2 강조 이미지(Axial T2-weighted image) 등을 포함한다. 이를 위하여, 제어부(150)는 자기 공명 신호를 디지털 데이터의 형태의 자기 공명 영상으로 변환할 수 있다. 획득한 자기 공명 신호는 주파수 도메인, 예컨대, 푸리에 공간에서 정의된 신호가 될 수 있다. 방향이 위상축 방향 및 주파수축 방향에 대응하는 자장 그래디언트가 인가되어, 2개의 축을 따라 자기 공명 신호의 소스의 분포를 인코딩한다. 예를 들어, 푸리에 공간이 주파수 도메인으로서 채택되는 경우, 자기 공명 신호는 2차원 푸리에 공간에서 정의된 신호로서 제공된다. 2차원 푸리에 공간을 k 공간이라고 지칭할 수 있다. 위상 인코딩 자장 그래디언트 및 주파수 인코딩 자장 그래디언트는 2차원 푸리에 공간에서의 샘플링된 신호의 위치를 결정한다.The control unit 150 generates a magnetic resonance image from the magnetic resonance signal received from the RF coil. The magnetic resonance images are sagittal T1-weighted image, sagittal T2-weighted image, axis T1-weighted image, and axis T2-weighted image (Axial T2- weighted image). To this end, the controller 150 may convert the magnetic resonance signal into a magnetic resonance image in the form of digital data. The obtained magnetic resonance signal may be a signal defined in a frequency domain, such as Fourier space. A magnetic field gradient whose direction corresponds to the phase axis direction and the frequency axis direction is applied to encode the distribution of the source of the magnetic resonance signal along the two axes. For example, when the Fourier space is adopted as the frequency domain, the magnetic resonance signal is provided as a signal defined in the two-dimensional Fourier space. The two-dimensional Fourier space can be referred to as k-space. The phase-encoded magnetic field gradient and frequency-encoded magnetic field gradient determine the location of the sampled signal in a two-dimensional Fourier space.

특히, 제어부(150)는 영상 프로토콜에 따라 자기 공명 영상장치(10)의 파라미터를 설정하고, 영상 프로토콜에 상응하는 부분의 자기 공명 영상을 촬영하도록 자기 공명 영상장치(10)를 제어한다. 무릎(Knee) 자기 공명 영상의 경우, 제어부(150)는 루틴 프로토콜(routine protocol)을 모두 3mm slice thickness, 0.3mm gap으로 설정한다. 또한, 촬영범위(FOV: field of view)를 14 또는 16cm로 설정한다. 반면, 종양 프로토콜(tumor protocol)의 경우, 제어부(150)는 종양 크기에 따라 slice thickness 3~4mm/gap 0.3~1mm로 설정한다. 또한, 제어부(150)는 루틴 프로토콜(routine protocol)의 경우, 지방억제 T2 강조 축상(axial) 영상, T1 강조 축상(axial) 영상, T2 강조 시상(sagittal) 영상, 지방억제 PD 강조 시상(sagittal) 영상, 지방억제 T2 강조 관상(coronal) 영상이 촬영되도록 제어하며, 조영제가 있는 경우는, 지방억제 T1 강조 시상(sagittal) 영상을 조영제 전후에 추가하여 촬영하도록 제어한다. 한편, 종양 프로토콜(tumor protocol)의 경우, 제어부(150)는 조영증강 영상으로 T1 강조 축상(axial) 영상, T2 강조 축상(axial) 영상, 지방억제 T2 강조 축상(axial) 영상, 지방억제 T2 강조 관상(coronal) 영상, 확산강조 영상(diffusion weighted image)이 촬영되고, 조영증강 이후, 관류영상(perfusion 영상), 지방억제 T1 강조 축상(axial) 영상, 지방억제 T1 강조 관상(coronal) 영상, 지방억제 T1 강조 시상(sagittal) 영상이 촬영되도록 제어한다.In particular, the control unit 150 sets the parameters of the magnetic resonance imaging apparatus 10 according to the imaging protocol, and controls the magnetic resonance imaging apparatus 10 to photograph a magnetic resonance image of a portion corresponding to the imaging protocol. In the case of a knee magnetic resonance image, the controller 150 sets the routine protocol to 3 mm slice thickness and 0.3 mm gap. In addition, the field of view (FOV) is set to 14 or 16 cm. On the other hand, in the case of a tumor protocol, the controller 150 sets slice thickness 3 to 4 mm / gap 0.3 to 1 mm according to the tumor size. In addition, in the case of a routine protocol, the control unit 150 includes a fat suppression T2-emphasized axial image, a T1 emphasis axial image, a T2-emphasis sagittal image, and a fat-suppression PD-emphasis sagittal. The image is controlled so that the coronal image emphasizing the suppressed T2 is photographed, and, if there is a contrast agent, it is controlled to add and photograph the fat suppressed T1 highlighted sagittal image before and after the contrast agent. On the other hand, in the case of a tumor protocol, the controller 150 is a contrast-enhanced image, a T1-emphasized axial image, a T2-emphasized axial image, a fat suppression, a T2-emphasized axial image, a fat suppression T2 emphasis Coronal images, diffuse weighted images are taken, after contrast enhancement, perfusion images, fat suppression T1-emphasized axial images, fat suppression T1-emphasized coronal images, fat Control so that the suppressed T1-emphasized sagittal image is taken.

다음으로, 본 발명의 실시예에 따른 인공신경망을 포함하는 프로토콜 선택부(160)의 세부 구성에 대해서 설명하기로 한다.Next, the detailed configuration of the protocol selector 160 including the artificial neural network according to an embodiment of the present invention will be described.

도 2는 본 발명의 실시예에 따른 인공신경망을 포함하는 프로토콜 선택부의 세부 구성을 나타내는 블록도이다. 도 3은 본 발명의 실시예에 따른 인공신경망의 구성을 설명하기 위한 도면이다. 도 4 내지 도 6은 도 3에 도시된 인공신경망의 가중치를 포함하는 연산을 설명하기 위한 도면들이다.2 is a block diagram showing a detailed configuration of a protocol selection unit including an artificial neural network according to an embodiment of the present invention. 3 is a view for explaining the configuration of an artificial neural network according to an embodiment of the present invention. 4 to 6 are diagrams for explaining an operation including the weight of the artificial neural network shown in FIG. 3.

먼저 도 2를 참조하면, 본 발명의 실시예에 따른 프로토콜 선택부(160)는 인공신경망(200), 학습모듈(300), 및 선택모듈(400)을 포함한다.Referring first to FIG. 2, the protocol selection unit 160 according to an embodiment of the present invention includes an artificial neural network 200, a learning module 300, and a selection module 400.

도 3에 도시된 바와 같이, 인공신경망(200)은 입력층(210), 컨볼루션층(220), 풀링층(230), 및 출력층(240)을 포함하는 복수의 계층으로 이루어진다. 어느 하나의 계층은 이전 계층을 입력으로 하는 소정의 연산을 통해 산출된다. 또한, 복수의 연산 각각은 가중치가 적용되며, 가중치는 초기값을 가지며, 최종값은 학습을 통해 도출된다.As illustrated in FIG. 3, the artificial neural network 200 is composed of a plurality of layers including an input layer 210, a convolution layer 220, a pooling layer 230, and an output layer 240. Any one layer is calculated through a predetermined operation using the previous layer as an input. In addition, each of the plurality of operations is weighted, the weight has an initial value, and the final value is derived through learning.

입력층(210)은 소정의 크기(예컨대, n×k)를 가지며, 각 원소가 바이너리 값인 행렬로 표현된다. 도면에는 복수의 특징 지도가 도시되었지만, 이들은 모두 동일한 값을 가지는 동일한 특징 지도이다. 입력층(210)의 행렬에는 기본 정보를 나타내는 복수의 단어에 대응하는 바이너리 값으로 입력된다. 따라서 입력층(210)의 크기가 n×k이면, n개의 단어가 입력될 수 있으며, 각 단어의 바이너리 값의 길이는 k보다 작다. 예컨대, 의뢰 부서(Department), 환자 성별(Gender), 환자 나이(Age), 부위(Region), 조영제 여부(Contrast) 등을 포함하는 n개의 단어가 입력될 수 있으며, 단어 각각은 k보다 작은 길이의 바이너리 값으로 변환되어 입력층(210)에 입력된다.The input layer 210 has a predetermined size (eg, n × k) and is represented by a matrix in which each element is a binary value. Although a plurality of feature maps are illustrated in the drawings, they are all identical feature maps having the same value. In the matrix of the input layer 210, binary values corresponding to a plurality of words representing basic information are input. Therefore, if the size of the input layer 210 is n × k, n words can be input, and the length of the binary value of each word is smaller than k. For example, n words may be input, including a referral department, patient gender, patient age, region, contrast, and the like, each of which is less than k in length. It is converted to a binary value of and input to the input layer 210.

컨볼루션층(220)은 복수의 제1 특징 지도를 포함한다. 컨볼루션층(220)의 복수의 제1 특징 지도는 모두 소정 크기(예컨대, m×1)를 가지는 행렬로 표현된다. 컨볼루션층(220)의 복수의 제1 특징 지도는 입력층(210)에 복수의 제1 필터(F1)를 이용한 컨볼루션 연산을 수행하여 생성된다. 컨볼루션 연산에 사용되는 제1 필터(F1)는 각 원소가 가중치(w)인 행렬이다. 제1 필터(F1)는 복수의 서로 다른 특징을 추출하기 위한 것이다. 따라서 복수의 제1 필터(F1) 각각은 서로 다른 크기(행렬 크기)를 가질 수 있고, 복수의 제1 필터(F1) 각각의 원소는 서로 다른 값을 가질 수 있다. 따라서 복수의 제1 특징 지도 각각은 입력층(210)에 서로 다른 제1 필터(F1)를 적용한 컨볼루션 연산을 통해 생성된다.The convolution layer 220 includes a plurality of first feature maps. The plurality of first feature maps of the convolution layer 220 are all represented by a matrix having a predetermined size (eg, m × 1). The plurality of first feature maps of the convolution layer 220 are generated by performing a convolution operation using the plurality of first filters F1 on the input layer 210. The first filter F1 used in the convolution operation is a matrix in which each element has a weight w. The first filter F1 is for extracting a plurality of different features. Therefore, each of the plurality of first filters F1 may have a different size (matrix size), and each element of the plurality of first filters F1 may have a different value. Therefore, each of the plurality of first feature maps is generated through a convolution operation in which different first filters F1 are applied to the input layer 210.

도 4에 컨볼루션 연산의 일례가 도시되었다. 도시된 예는 입력층(210)에 어느 하나의 제1 필터(F1)를 적용하여 어느 하나의 제1 특징 지도를 도출하는 컨볼루션 연산을 나타낸다. 여기서, 입력층(210)의 행렬은 5×5 크기이며, 제1 필터(F1)는 4×3 크기를 가진다고 가정한다. 또한, 도시된 제1 필터(F1)의 각 원소의 값, 즉 가중치(w)는 초기값이라고 가정한다. 이에 따라, 5×5 크기의 입력층(210)에 4×3 크기의 제1 필터(F1)를 적용한 컨볼루션 연산을 통해 6×1 크기의 컨볼루션층(220)의 제1 특징 지도가 출력된다. 컨볼루션 연산은 제1 필터(F1)가 1행 혹은 1열만큼 시프트하면서 대응하는 입력층(210)의 원소와 연산이 수행되며, 대응하는 원소의 곱과 그 곱들의 합으로 이루어진다. 예컨대, 컨볼루션층(220)의 제1 특징 지도의 (1, 1) 원소는 다음의 수학식 1과 같이, 입력층(210)의 1행 내지 4행 각각의 1열 내지 3열의 원소와 대응하는 제1 필터(F1)의 1행 내지 4행 각각의 1열 내지 3열의 원소의 곱과 그 곱들의 합에 의해 산출된다.4 shows an example of a convolution operation. The illustrated example represents a convolution operation that derives any one first feature map by applying any one first filter F1 to the input layer 210. Here, it is assumed that the matrix of the input layer 210 has a size of 5 × 5, and the first filter F1 has a size of 4 × 3. In addition, it is assumed that the value of each element of the illustrated first filter F1, that is, the weight w is an initial value. Accordingly, the first feature map of the 6 × 1 size convolution layer 220 is output through the convolution operation by applying the 4 × 3 first filter F1 to the 5 × 5 size input layer 210. do. The convolution operation is performed while elements and operations of the corresponding input layer 210 are performed while the first filter F1 is shifted by one row or one column, and is composed of a product of a corresponding element and a sum of the products. For example, elements (1, 1) of the first feature map of the convolution layer 220 correspond to elements in columns 1 to 3 of each of rows 1 to 4 of the input layer 210, as shown in Equation 1 below. Calculated by the product of the elements of columns 1 to 3 of each of the first to fourth rows of the first filter F1 and the sum of the products.

[수학식 1][Equation 1]

(1×1) + (0×0) + (0×1) +(1 × 1) + (0 × 0) + (0 × 1) +

(0×0) + (0×1) + (1×0) +(0 × 0) + (0 × 1) + (1 × 0) +

(0×1) + (1×1) + (0×0) +(0 × 1) + (1 × 1) + (0 × 0) +

(0×0) + (0×1) + (1×1) = 3(0 × 0) + (0 × 1) + (1 × 1) = 3

다른 예로, 컨볼루션층(220)의 제1 특징 지도의 (1, 2) 원소는 다음의 수학식 2와 같이, 제1 필터(F1)가 1행 시프트되어 입력층(210)의 1행 내지 4행 각각의 2열 내지 4열의 원소와 대응하는 제1 필터(F1)의 1행 내지 4행 각각의 1열 내지 3열의 원소의 곱과 그 곱들의 합에 의해 산출된다.As another example, elements (1, 2) of the first feature map of the convolution layer 220 may be shifted by one row of the first filter F1, as shown in Equation 2 below, from 1 row to 1 of the input layer 210. It is calculated by the product of the elements of columns 1 to 3 of each of columns 1 to 4 of the first filter F1 corresponding to the elements of columns 2 to 4 of each of 4 rows and the sum of the products.

[수학식 2][Equation 2]

(0×1) + (0×0) + (1×1) +(0 × 1) + (0 × 0) + (1 × 1) +

(0×0) + (1×1) + (0×0) +(0 × 0) + (1 × 1) + (0 × 0) +

(1×1) + (0×1) + (1×0) +(1 × 1) + (0 × 1) + (1 × 0) +

(0×0) + (1×1) + (0×1) = 4(0 × 0) + (1 × 1) + (0 × 1) = 4

이와 같이, 입력층(210)의 행렬에 복수의 제1 필터(F1) 중 어느 하나를 적용한 컨볼루션 연산을 통해 컨볼루션층(220)의 어느 하나의 제1 특징 지도를 생성할 수 있다. 또한, 입력층(210)의 행렬에 서로 다른 크기와 가중치를 가지는 복수의 제1 필터(F1)를 적용한 컨볼루션 연산을 통해 컨볼루션층(220)의 복수의 제1 특징 지도를 생성할 수 있다.As such, a first feature map of any one of the convolution layer 220 may be generated through a convolution operation in which any one of the plurality of first filters F1 is applied to the matrix of the input layer 210. In addition, a plurality of first feature maps of the convolution layer 220 may be generated through a convolution operation by applying a plurality of first filters F1 having different sizes and weights to the matrix of the input layer 210. .

풀링층(230)은 제2 특징 지도를 포함한다. 풀링층(230)의 제2 특징 지도는 소정 크기(예컨대, L×1)를 가지는 행렬로 표현된다. 풀링층(230)의 제2 특징 지도는 컨볼루션층(220)의 복수의 제1 특징 지도 각각에 복수의 제2 필터(F1)를 이용한 풀링(pooling 혹은 subsampling) 연산을 수행하여 생성된다. 풀링 연산에 사용되는 제2 필터(F2)는 각 원소가 가중치(w)인 행렬이다. 제2 필터(F2)는 다운샘플링을 통해 가장 우세한 특징을 추출하기 위한 것이다. 따라서 복수의 제2 필터(F1) 각각은 서로 다른 크기(행렬 크기)를 가질 수 있고, 복수의 제2 필터(F1) 각각의 원소는 서로 다른 값을 가질 수 있다. 제2 특징 지도는 컨볼루션층(220)의 서로 다른 제1 특징 지도에 서로 다른 제2 필터(F1)를 적용한 풀링 연산을 통해 생성된다.The pooling layer 230 includes a second feature map. The second feature map of the pooling layer 230 is represented by a matrix having a predetermined size (eg, L × 1). The second feature map of the pooling layer 230 is generated by performing a pooling or subsampling operation using a plurality of second filters F1 on each of the plurality of first feature maps of the convolution layer 220. The second filter F2 used for the pooling operation is a matrix in which each element has a weight w. The second filter F2 is for extracting the most dominant feature through downsampling. Accordingly, each of the plurality of second filters F1 may have a different size (matrix size), and elements of each of the plurality of second filters F1 may have different values. The second feature map is generated through a pooling operation in which different second filters F1 are applied to different first feature maps of the convolution layer 220.

도 5에 풀링 연산의 일례가 도시되었다. 도시된 예는 컨볼루션층(220)의 어느 하나의 특징 지도에 어느 하나의 제2 필터(F1)를 적용하여 풀링층(230)의 제2 특징 지도의 어느 하나의 원소를 도출하는 풀링 연산을 나타낸다. 여기서, 컨볼루션층(220)의 제1 특징 지도는 6×1 크기이며, 제2 필터(F2) 또한 6×1 크기라고 가정한다. 또한, 도시된 제2 필터(F2)의 각 원소의 값, 즉, 가중치(w)는 초기값이라고 가정한다. 이에 따라, 6×1 크기의 컨볼루션층(220)의 제1 특징 지도에 6×1 크기의 제2 필터(F1)를 적용한 풀링 연산을 통해 풀링층(230)의 제2 특징 지도 중 어느 하나의 원소가 출력된다.5 shows an example of a pooling operation. In the illustrated example, a pooling operation is performed to derive any one element of the second feature map of the pooling layer 230 by applying any second filter F1 to any one feature map of the convolution layer 220. Shows. Here, it is assumed that the first feature map of the convolution layer 220 is 6 × 1 in size, and the second filter F2 is also 6 × 1 in size. In addition, it is assumed that the value of each element of the illustrated second filter F2, that is, the weight w is an initial value. Accordingly, any one of the second feature maps of the pooling layer 230 through the pooling operation by applying the 6 × 1 second filter F1 to the first feature map of the 6 × 1 size convolution layer 220 The element of is output.

풀링 연산은 제2 필터(F2)가 필터(F2)의 크기만큼 시프트하면서 대응하는 원소와 연산이 이루어진다. 특히, 풀링 연산은 최대값, 평균값, 중간값, 놈(norm)값을 선택하는 연산 중 어느 하나가 될 수 있다. 이 실시예서는 최대값을 선택하는 풀링 연산(max pooling)이라고 가정한다.In the pooling operation, the second filter F2 is shifted by the size of the filter F2, and the corresponding element and operation are performed. In particular, the pooling operation may be any one of operations for selecting a maximum value, an average value, a median value, and a norm value. In this embodiment, it is assumed that the maximum value is a pooling operation (max pooling).

예컨대, 풀링 연산(max pooling)은 대응하는 원소의 곱과 그 곱들 중 최대값이 선택된다. 예컨대, 풀링층(230)의 제2 특징 지도의 어느 하나의 원소는 다음의 수학식 3과 같이, 컨볼루션층(220)의 1행 내지 6행 각각의 1열의 원소와 대응하는 제2 필터(F2)의 1행 내지 6행 각각의 1열의 원소의 곱 중 최대값을 선택하여 산출된다.For example, in the max pooling, a product of a corresponding element and a maximum value among the products are selected. For example, any one element of the second feature map of the pooling layer 230 may correspond to a second filter element corresponding to each column of each row 1 to 6 of the convolution layer 220 as shown in Equation 3 below. It is calculated by selecting the maximum value among the product of the elements in each column of F1).

[수학식 3][Equation 3]

3×0.21=0.63 3 × 0.21 = 0.63

4×0.05=0.20 4 × 0.05 = 0.20

2×0.10=0.20 2 × 0.10 = 0.20

2×0.12=0.24 2 × 0.12 = 0.24

3×0.15=0.45 3 × 0.15 = 0.45

5×0.01=0.05 5 × 0.01 = 0.05

Max{0.63, 0.20, 0.20, 0.24, 0.45, 0.05}=0.63Max {0.63, 0.20, 0.20, 0.24, 0.45, 0.05} = 0.63

이와 같이, 컨볼루션층(220)의 어느 하나의 제1 특징 지도에 복수의 제2 필터(F2) 중 어느 하나를 적용한 풀링 연산을 통해 풀링층(230)의 제2 특징 지도 중 어느 하나의 원소를 산출할 수 있다. 또한, 예시된 방법과 동일한 방법으로 컨볼루션층(220)의 복수의 제1 특징 지도 각각에 서로 다른 크기와 가중치를 가지는 복수의 제2 필터(F2)를 적용한 풀링 연산을 통해 풀링층(230)의 제2 특징 지도의 모든 원소를 산출할 수 있다.As such, any one element of the second feature map of the pooling layer 230 through a pooling operation in which any one of the plurality of second filters F2 is applied to any one first feature map of the convolution layer 220 Can be calculated. In addition, the pooling layer 230 through a pooling operation in which the plurality of second filters F2 having different sizes and weights are applied to each of the plurality of first feature maps of the convolution layer 220 in the same manner as the illustrated method. All elements of the second feature map of can be calculated.

출력층(240)은 영상 프로토콜에 대응하는 복수의 노드를 포함한다. 이러한 복수의 노드를 출력 노드라고 칭하고, 출력 노드의 값을 출력값이라고 칭하기로 한다. 본 발명의 실시예에서 출력층(240)은 2개의 출력 노드를 가지며, 2개의 출력 노드 각각은 루틴 및 종양 프로토콜에 대응한다. 본 발명의 실시예에서 출력층(240)이 단지 2개의 출력 노드로 이루어진 것으로 설명되지만, 이에 한정하는 것은 아니며, 더 다양한 영상 프로토콜에 대응하는 출력 노드가 더 포함될 수 있다. 출력층(240)의 출력 노드 각각의 출력값은 해당 출력 노드에 대응하는 영상 프로토콜이 해당 환자에 적합할 확률을 나타낸다. 여기서, 해당 환자는 입력층(210)에 입력된 기본 정보를 입력한 환자를 의미한다.The output layer 240 includes a plurality of nodes corresponding to the video protocol. The plurality of nodes will be referred to as output nodes, and the values of the output nodes will be referred to as output values. In an embodiment of the present invention, the output layer 240 has two output nodes, each of the two output nodes corresponds to a routine and a tumor protocol. In the embodiment of the present invention, it is described that the output layer 240 is composed of only two output nodes, but is not limited thereto, and output nodes corresponding to more various video protocols may be further included. The output value of each output node of the output layer 240 represents the probability that the imaging protocol corresponding to the output node is suitable for the patient. Here, the patient means a patient who inputs basic information input to the input layer 210.

도 6에 도시된 바와 같이, 루틴 프로토콜에 대응하는 출력 노드의 값이 0.89이고, 종양 프로토콜에 대응하는 출력 노드의 값이 0.11이면, 루틴 프로토콜이 해당 환자에 적합할 확률이 89%이고, 종양 프로토콜이 해당 환자에 적합할 확률이 11%임을 나타낸다. 출력층(240)의 출력 노드 각각의 값은 풀링층(230)의 제2 특징 지도의 각 원소에 가중치(w)가 적용되는 소프트맥스(softmax) 연산을 수행하여 산출된다.6, if the value of the output node corresponding to the routine protocol is 0.89 and the value of the output node corresponding to the tumor protocol is 0.11, the probability that the routine protocol is suitable for the patient is 89%, and the tumor protocol It indicates that the probability of being suitable for this patient is 11%. The value of each output node of the output layer 240 is calculated by performing a softmax operation in which a weight w is applied to each element of the second feature map of the pooling layer 230.

도 6에 소프트맥스(softmax) 연산의 일례가 도시되었다. 도 6의 예는 풀링층(230)의 제2 특징 지도의 모든 원소에 가중치가 적용되어 연산을 통해 출력층(240)의 출력 노드의 출력값을 산출하는 소프트맥스(softmax) 연산을 나타낸다. 6 shows an example of a softmax operation. The example of FIG. 6 represents a softmax operation in which weight is applied to all elements of the second feature map of the pooling layer 230 to calculate the output value of the output node of the output layer 240 through the operation.

소프트맥스(softmax) 연산은 풀링층(230)의 제2 특징 지도의 모든 원소에 가중치(w11 내지 w25)가 적용되어 선형적으로 결합된 후, 비선형 함수에 입력된다. 그리고 비선형 함수의 연산 결과는 출력 노드의 출력값이 된다.The softmax operation is linearly combined by applying weights w11 to w25 to all elements of the second feature map of the pooling layer 230 and then input to a nonlinear function. And the result of the operation of the nonlinear function becomes the output value of the output node.

예컨대, 다음의 수학식 4와 같이 풀링층(230)의 제2 특징 지도의 모든 원소에 가중치(w11 내지 w25)를 곱하여 합산하고, 다음의 수학식 5와 같이 합산한 값은 비선형 함수인 시그모이드 함수(sigmoid function)에 입력하고, 비선형 함수의 연산 결과는 루틴 프로토콜에 대응하는 출력 노드의 출력값이 된다.For example, as shown in Equation 4 below, all elements of the second feature map of the pooling layer 230 are multiplied and multiplied by weights w11 to w25, and the summed values shown in Equation 5 below are nonlinear functions of sigmoid It is input to the sigmoid function, and the result of the operation of the nonlinear function becomes the output value of the output node corresponding to the routine protocol.

[수학식 4][Equation 4]

k=(0.24×w11)+(0.49×w12)+(0.72×w13)+(0.29×w14)+(0.38×w15)k = (0.24 × w11) + (0.49 × w12) + (0.72 × w13) + (0.29 × w14) + (0.38 × w15)

[수학식 5][Equation 5]

Figure 112018034595010-pat00001
Figure 112018034595010-pat00001

여기서, f()는 시그모이드 함수(sigmoid function)를 나타낸다. 하지만, 본 발명은 비선형 함수를 시그모이드 함수를 이용하는 것으로 설명하지만 이에 한정하는 것은 아니며, 다양한 비선형 함수를 적용할 수 있다.Here, f () represents a sigmoid function. However, the present invention describes the nonlinear function as using a sigmoid function, but is not limited thereto, and various nonlinear functions may be applied.

다시 도 2를 참조하면, 학습모듈(300)은 학습 데이터를 이용하여 인공신경망(300)을 학습시킨다. 학습 데이터는 환자에 적합한 영상 프로토콜이 알려진 상태의 데이터를 의미한다. 학습 데이터는 기본 정보를 기술한 복수의 단어 및 그 환자에 적합한 영상 프로토콜을 나타내는 기댓값을 포함한다. 여기서, 기본 정보는 촬영 이유, 임상 정보, 신상 정보, 의뢰과 등을 포함한다. 예컨대, 특정 환자를 루틴 프로토콜에 따라 자기 공명 영상을 촬영하는 것이 적합한 것으로 진단하고, 해당 환자를 루틴 프로토콜에 따라 촬영한 결과 옳은 진단으로 판명된 경우, 해당 환자에 대한 기본 정보를 학습 데이터로 이용할 수 있다. 그리고 기댓값은 루틴 프로토콜에 대응하는 출력값이 종양 프로토콜에 대응하는 출력값보다 소정 수치 이상 높은 것으로 설정될 수 있다. 예컨대, 기댓값은 루틴 프로토콜을(0.50+A)로 설정하고, 종양 프로토콜을(0.50-A)로 설정할 수 있다.Referring back to FIG. 2, the learning module 300 trains the artificial neural network 300 using learning data. Learning data refers to data in a state in which an imaging protocol suitable for a patient is known. The training data includes a plurality of words describing basic information and an expected value representing an imaging protocol suitable for the patient. Here, the basic information includes a shooting reason, clinical information, personal information, and a referral department. For example, if it is determined that it is appropriate to photograph a magnetic resonance image of a specific patient according to the routine protocol, and when the patient is photographed according to the routine protocol, and is found to be the correct diagnosis, basic information about the patient may be used as learning data. have. In addition, the expected value may be set such that the output value corresponding to the routine protocol is higher than a predetermined value than the output value corresponding to the tumor protocol. For example, the expected value may set the routine protocol to (0.50 + A) and the tumor protocol to (0.50-A).

학습모듈(300)은 학습 데이터가 입력되면, 학습 데이터를 인공신경망(200)에 입력한다. 이때, 학습모듈(300)은 기본 정보를 기술한 복수의 단어 각각을 바이너리 값으로 변환한 후, 입력층(210)에 입력한다.When the learning data is input to the learning module 300, the learning data is input to the artificial neural network 200. At this time, the learning module 300 converts each of a plurality of words describing basic information into a binary value and inputs it to the input layer 210.

인공신경망(200)은 학습 데이터가 입력되면, 전술한 바와 같이, 입력된 학습 데이터를 기초로 가중치를 적용하는 복수의 연산을 거쳐 출력값을 산출한다. 그러면, 학습모듈(300)은 역전파 알고리즘(backpropagation)을 통해 출력값과 기댓값의 차이가 최소가 되도록 인공신경망(200)의 복수의 연산에 적용되는 가중치(w)를 수정한다.When the training data is input, the artificial neural network 200 calculates an output value through a plurality of operations for applying weights based on the input training data, as described above. Then, the learning module 300 corrects the weight w applied to a plurality of operations of the artificial neural network 200 so that the difference between the output value and the expected value is minimized through a backpropagation.

선택모듈(400)은 판별 데이터를 이용하여 충분히 학습된 인공신경망(300)을 통해 환자에 적합한 영상 프로토콜을 선택한다. 판별 데이터는 환자에 적합한 영상 프로토콜이 알려지지 않은 상태의 데이터를 의미한다. 학습 데이터는 기본 정보 및 기댓값을 포함하는 것에 반해 판별 데이터는 기본 정보만을 포함한다. 마찬가지로, 기본 정보는 촬영 이유, 임상 정보, 신상 정보, 의뢰과 등을 포함한다. 즉, 판별 데이터는 영상 프로토콜이 결정되지 않은 환자의 기본 정보를 의미한다.The selection module 400 selects an image protocol suitable for the patient through the artificial neural network 300 sufficiently learned using the discrimination data. The discrimination data refers to data in which an imaging protocol suitable for a patient is unknown. The learning data includes basic information and expected values, while the discrimination data includes only basic information. Similarly, the basic information includes the reason for the imaging, clinical information, personal information, and referral department. That is, the discrimination data means basic information of a patient whose imaging protocol has not been determined.

선택모듈(400)은 판별 데이터가 입력되면, 판별 데이터를 인공신경망(200)에 입력한다. 선택모듈(400)은 기본 정보를 기술한 복수의 단어 각각을 바이너리 값으로 변환한 후, 인공신경망(200)의 입력층(210)에 입력한다. 인공신경망(200)은 판별 데이터가 입력되면, 입력된 판별 데이터를 기초로 가중치를 적용하는 복수의 연산을 거쳐 출력값을 산출한다. 그러면, 선택모듈(400)은 출력값에 따라 환자에 적합한 영상 프로토콜을 선택한다. 예컨대, 선택모듈(400)은 도 6에 도시된 바와 같이, 루틴 프로토콜이 89%이고, 종양 프로토콜이 11%인 경우, 루틴 프로토콜을 해당 환자에 적합한 영상 프로토콜로 결정한다.When the discrimination data is input, the selection module 400 inputs the discrimination data to the artificial neural network 200. The selection module 400 converts each of a plurality of words describing basic information into a binary value and inputs it to the input layer 210 of the artificial neural network 200. When the discrimination data is input, the artificial neural network 200 calculates an output value through a plurality of calculations that apply weights based on the input discrimination data. Then, the selection module 400 selects an imaging protocol suitable for the patient according to the output value. For example, as illustrated in FIG. 6, when the routine protocol is 89% and the tumor protocol is 11%, the selection module 400 determines the routine protocol as an appropriate imaging protocol for the patient.

다음으로, 본 발명의 실시예에 따른 인공신경망(200)을 학습시키는 방법에 대해서 설명하기로 한다.Next, a method of learning the artificial neural network 200 according to an embodiment of the present invention will be described.

도 7은 본 발명의 실시예에 따른 인공신경망 학습 방법을 나타내는 흐름도이다.7 is a flowchart illustrating an artificial neural network learning method according to an embodiment of the present invention.

도 7을 참조하면, 기본 정보를 기술한 복수의 단어 및 그 환자에 적합한 영상 프로토콜을 나타내는 기댓값을 포함하는 학습 데이터가 입력되면, 학습모듈(300)은 S110 단계에서 학습 데이터를 인공신경망(200)에 입력한다. 이때, 학습모듈(300)은 기본 정보를 기술한 복수의 단어 각각을 바이너리 값으로 변환한 후, 인공신경망(200)의 입력층(210)에 입력할 수 있다.Referring to FIG. 7, when learning data including a plurality of words describing basic information and an expected value representing an image protocol suitable for the patient are input, the learning module 300 transmits the learning data in step S110 to the artificial neural network 200. Enter in In this case, the learning module 300 may convert each of a plurality of words describing basic information into a binary value, and then input it into the input layer 210 of the artificial neural network 200.

인공신경망(200)은 입력층(210)에 학습 데이터가 입력되면, S120 단계에서 가중치를 포함하는 복수의 연산을 수행하여 출력값을 도출한다. 보다 자세히, 인공신경망(200)은 입력층(210)에 복수의 가중치(w)를 원소로 하는 제1 필터(F1)를 이용한 컨볼루션 연산을 수행하여 복수의 제1 특징 지도를 가지는 컨볼루션층(220)을 구성한다. 그리고 인공신경망(200)은 컨볼루션층(220)의 복수의 제1 특징 지도에 복수의 가중치(w)를 원소로 하는 제2 필터(F2)를 이용한 풀링 연산을 수행하여 제2 특징 지도를 포함하는 풀링층(230)을 구성한다. 그리고 인공신경망(200)은 풀링층(230)에 복수의 가중치(w)를 적용한 소프트맥스 연산을 수행하여 복수의 출력 노드를 가지는 출력층(240)을 구성하며, 출력 노드의 값은 출력값이 된다.When the learning data is input to the input layer 210, the artificial neural network 200 performs a plurality of operations including weights in step S120 to derive an output value. In more detail, the artificial neural network 200 performs a convolution operation using a first filter F1 having a plurality of weights (w) as an element on the input layer 210 to have a convolutional layer having a plurality of first feature maps (220). In addition, the artificial neural network 200 includes a second feature map by performing a pooling operation using a second filter F2 having a plurality of weights (w) as elements in the plurality of first feature maps of the convolution layer 220. To form a pooling layer 230. Then, the artificial neural network 200 configures the output layer 240 having a plurality of output nodes by performing a softmax operation in which a plurality of weights w are applied to the pooling layer 230, and the value of the output node becomes an output value.

학습이 완료되기 전, 인공신경망(200)의 출력값은 기댓값과 상이하다. 따라서 학습모듈(300)은 S130 단계에서 역전파(backpropagation) 알고리즘을 통해 인공신경망(200)의 출력값과 입력된 기댓값의 차이가 최소가 되도록 인공신경망(200)의 복수의 연산에 적용되는 가중치(w)를 수정한다. 예컨대, 기댓값은 루틴 프로토콜을(0.50+A)로 설정하고, 종양 프로토콜을(0.50-A)로 설정할 수 있다. 하지만, 출력값이 루틴 프로토콜이 0.49이며, 종양 프로토콜이 0.51로 출력되었다고 가정한다. 그러면, 학습모듈(300)은 루틴 프로토콜이 0.50+A가 되도록 인공신경망(200)의 복수의 연산에 적용되는 가중치(w)를 수정한다.Before learning is completed, the output value of the artificial neural network 200 is different from the expected value. Therefore, in step S130, the learning module 300 uses a weight (w) applied to a plurality of calculations of the artificial neural network 200 so that the difference between the output value and the input expected value of the artificial neural network 200 is minimized through a backpropagation algorithm. ). For example, the expected value may set the routine protocol to (0.50 + A) and the tumor protocol to (0.50-A). However, it is assumed that the output value is a routine protocol of 0.49 and a tumor protocol of 0.51. Then, the learning module 300 modifies the weight w applied to a plurality of calculations of the artificial neural network 200 so that the routine protocol is 0.50 + A.

이어서, 전술한 바와 같은 방법을 통해 학습된 인공신경망(200)을 이용하여 자기 공명 영상을 촬영하는 방법에 대해서 설명하기로 한다.Subsequently, a method of photographing a magnetic resonance image using the artificial neural network 200 learned through the above-described method will be described.

도 8은 본 발명의 실시예에 따른 인공신경망을 이용한 자기 공명 영상의 영상 프로토콜 선택 및 자기 공명 영상 촬영 방법을 나타내는 흐름도이다.8 is a flowchart illustrating an imaging protocol selection and a magnetic resonance imaging method of an MR image using an artificial neural network according to an embodiment of the present invention.

도 8을 참조하면, 입력부(130)를 통해 기본 정보를 기술한 복수의 단어를 포함하는 학습 데이터가 입력되면, 선택모듈(400)은 S210 단계에서 판별 데이터를 인공신경망(200)에 입력한다. 이때, 선택모듈(400)은 기본 정보를 기술한 복수의 단어 각각을 바이너리 값으로 변환한 후, 인공신경망(200)의 입력층(210)에 입력할 수 있다.Referring to FIG. 8, when learning data including a plurality of words describing basic information is input through the input unit 130, the selection module 400 inputs discrimination data to the artificial neural network 200 in step S210. At this time, the selection module 400 may convert each of a plurality of words describing basic information into a binary value, and input it to the input layer 210 of the artificial neural network 200.

인공신경망(200)은 입력층(210)에 판별 데이터가 입력되면, S220 단계에서 학습된 가중치(w)를 포함하는 복수의 연산을 수행하여 출력값을 도출한다. 즉, 인공신경망(200)은 입력층(210)에 복수의 가중치(w)를 원소로 하는 제1 필터(F1)를 이용한 컨볼루션 연산을 수행하여 복수의 제1 특징 지도를 가지는 컨볼루션층(220)을 구성한다. 그리고 인공신경망(200)은 컨볼루션층(220)의 복수의 제1 특징 지도에 복수의 가중치(w)를 원소로 하는 제2 필터(F2)를 이용한 풀링 연산을 수행하여 제2 특징 지도를 포함하는 풀링층(230)을 구성한다. 또한, 인공신경망(200)은 풀링층(230)에 복수의 가중치(w)를 적용한 소프트맥스 연산을 수행하여 복수의 출력 노드를 가지는 출력층(240)을 구성하며, 출력 노드의 값은 출력값이 된다.The artificial neural network 200 derives an output value by performing a plurality of operations including the weight w learned in step S220 when discrimination data is input to the input layer 210. That is, the artificial neural network 200 performs a convolution operation using a first filter F1 having a plurality of weights (w) as an element on the input layer 210 to have a convolution layer having a plurality of first feature maps ( 220). In addition, the artificial neural network 200 includes a second feature map by performing a pooling operation using a second filter F2 having a plurality of weights (w) as elements in the plurality of first feature maps of the convolution layer 220. To form a pooling layer 230. In addition, the artificial neural network 200 configures the output layer 240 having a plurality of output nodes by performing a softmax operation by applying a plurality of weights w to the pooling layer 230, and the value of the output node becomes an output value. .

선택모듈(400)은 S230 단계에서 인공신경망(200)의 출력값에 따라 영상 프로토콜을 결정하여 제어부(150)에 입력한다. 예컨대, 선택모듈(400)은 도 6에 도시된 바와 같이, 루틴 프로토콜이 89%이고, 종양 프로토콜이 11%인 경우, 루틴 프로토콜을 해당 환자에 적합한 영상 프로토콜로 결정한다.The selection module 400 determines the image protocol according to the output value of the artificial neural network 200 in step S230 and inputs it to the control unit 150. For example, as illustrated in FIG. 6, when the routine protocol is 89% and the tumor protocol is 11%, the selection module 400 determines the routine protocol as an appropriate imaging protocol for the patient.

그러면, 제어부(150)는 S240 단계에서 결정된 영상 프로토콜에 따라 파라미터를 설정하고, 결정된 영상 프로토콜에 상응하는 부위에 대한 자기 공명 영상을 획득하도록 스캔부(110)를 제어한다. 즉, 제어부(150)는 결정된 영상 프로토콜에 따라 파라미터를 설정하고, 마그넷 및 코일을 통해 검사대상 주변에 자기장을 형성하여 자기장으로 인해 영상 프로토콜에 상응하는 부위에서 발생하는 자기 공명 신호를 스캔부(110)를 통해 획득하여 자기 공명 영상을 생성한다. 무릎(Knee) MRI의 예를 들면, 루틴 프로토콜(routine protocol)은 모두 3mm slice thickness, 0.3mm gap으로 설정한다. 또한, 촬영범위(FOV: field of view)는 14 또는 16cm로 고정된다. 그리고 지방억제 T2 강조 축상(axial) 영상, T1 강조 축상(axial) 영상, T2 강조 시상(sagittal) 영상, 지방억제 PD 강조 시상(sagittal) 영상, 지방억제 T2 강조 관상(coronal) 영상이 촬영된다. 조영제가 있는 경우는, 지방억제 T1 강조 시상(sagittal) 영상을 조영제 전후에 추가하여 촬영된다. 한편, 종양 프로토콜(tumor protocol)의 경우, 조영증강 영상으로 T1 강조 축상(axial) 영상, T2 강조 축상(axial) 영상, 지방억제 T2 강조 축상(axial) 영상, 지방억제 T2 강조 관상(coronal) 영상, 확산강조 영상(diffusion weighted image)이 촬영되고, 조영증강 이후, 관류영상(perfusion 영상), 지방억제 T1 강조 축상(axial) 영상, 지방억제 T1 강조 관상(coronal) 영상, 지방억제 T1 강조 시상(sagittal) 영상을 촬영한다. 파라미터는 종양크기에 따라 slice thickness 3~4mm/gap 0.3~1mm로 조정되며, 촬영범위(FOV)도 조정된다.Then, the control unit 150 sets the parameters according to the image protocol determined in step S240, and controls the scan unit 110 to obtain a magnetic resonance image for a region corresponding to the determined image protocol. That is, the controller 150 sets parameters according to the determined imaging protocol, forms a magnetic field around the inspection object through a magnet and a coil, and scans the magnetic resonance signal generated in a region corresponding to the imaging protocol due to the magnetic field. ) To generate a magnetic resonance image. In the knee MRI, for example, routine protocols are all set to 3 mm slice thickness and 0.3 mm gap. Also, the field of view (FOV) is fixed at 14 or 16 cm. In addition, a fat-suppressed T2-emphasized axial image, a T1-emphasized axial image, a T2-emphasized sagittal image, a fat-suppressed PD-emphasized sagittal image, and a fat-suppressed T2-emphasized coronal image are photographed. If there is a contrast agent, a fat suppression T1-emphasized sagittal image is taken before and after the contrast agent. On the other hand, in the case of a tumor protocol, a T1-weighted axial image, a T2-weighted axial image, a fat suppression, a T2-weighted axial image, a fat-suppressed T2-weighted coronal image as contrast enhancement images , Diffusion weighted image is taken, after contrast enhancement, perfusion image, fat suppression T1 emphasis axial image, fat suppression T1 emphasis coronal image, fat suppression T1 emphasis award ( sagittal) video. The parameter is adjusted to 3 ~ 4mm / gap 0.3 ~ 1mm according to the tumor size, and the imaging range (FOV) is adjusted.

한편, 앞서 설명된 본 발명의 실시예에 따른 방법은 다양한 컴퓨터수단을 통하여 판독 가능한 프로그램 형태로 구현되어 컴퓨터로 판독 가능한 기록매체에 기록될 수 있다. 여기서, 기록매체는 프로그램 명령, 데이터 파일, 데이터구조 등을 단독으로 또는 조합하여 포함할 수 있다. 기록매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 예컨대 기록매체는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광 기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치를 포함한다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 와이어뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 와이어를 포함할 수 있다. 이러한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Meanwhile, the method according to the embodiment of the present invention described above may be implemented in a program readable form through various computer means and recorded in a computer-readable recording medium. Here, the recording medium may include program instructions, data files, data structures, or the like alone or in combination. The program instructions recorded on the recording medium may be specially designed and configured for the present invention or may be known and usable by those skilled in computer software. For example, the recording medium includes magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs, DVDs, and magnetic-optical media such as floptical disks ( magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions may include high-level language wires that can be executed by a computer using an interpreter, as well as machine language wires such as those produced by a compiler. Such hardware devices may be configured to operate as one or more software modules to perform the operation of the present invention, and vice versa.

본 명세서와 도면에 개시된 본 발명의 실시예들은 본 발명의 기술 내용을 쉽게 설명하고 본 발명의 이해를 돕기 위하여 특정 예를 제시한 것일 뿐이며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시예들 이외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다.The embodiments of the present invention disclosed in the present specification and drawings are merely intended to easily describe the technical contents of the present invention and to provide specific examples to help understanding of the present invention, and are not intended to limit the scope of the present invention. It is obvious to those skilled in the art to which the present invention pertains that other modifications based on the technical spirit of the present invention can be implemented in addition to the embodiments disclosed herein.

10: 자기 공명 영상장치 110: 스캔부
111: 코일 112: 보어
113: 크래들 130: 입력부
140: 표시부 150: 제어부
160: 프로토콜 선택부 200: 인공신경망
210: 입력층 220: 컨볼루션층
230: 풀링층 240: 출력층
300: 학습모듈 400: 선택모듈
10: magnetic resonance imaging device 110: scan unit
111: coil 112: bore
113: cradle 130: input
140: display unit 150: control unit
160: protocol selection unit 200: artificial neural network
210: input layer 220: convolution layer
230: pooling layer 240: output layer
300: learning module 400: selection module

Claims (13)

입력층, 컨볼루션층, 풀링층, 및 출력층을 포함하는 복수의 계층으로 이루어지고, 상기 복수의 계층 각각이 복수의 연산을 포함하며, 상기 복수의 계층 중 어느 하나의 연산 결과에 가중치가 적용되어 다음 계층의 입력이 되는 인공신경망; 및
환자의 정보를 기술한 복수의 단어 및 상기 환자에 적합한 영상 프로토콜을 나타내는 기댓값을 포함하는 학습 데이터를 상기 인공신경망에 입력하고, 상기 입력에 따라 상기 인공신경망의 복수의 연산을 통해 출력된 출력값과 상기 기댓값을 비교하여 상기 출력값과 상기 기댓값의 차이가 최소가 되도록 역전파 알고리즘에 따라 상기 가중치를 수정하는 학습모듈
을 포함하는 자기 공명 영상의 영상 프로토콜 선택 장치.
It is composed of a plurality of layers including an input layer, a convolutional layer, a pooling layer, and an output layer, each of the plurality of layers includes a plurality of operations, and a weight is applied to an operation result of any one of the plurality of layers Artificial neural network that is the input of the next layer; And
The learning data including a plurality of words describing patient information and an expected value representing an image protocol suitable for the patient are input to the artificial neural network, and the output value and the output value through a plurality of calculations of the artificial neural network according to the input. A learning module that compares the expected value and corrects the weight according to a back propagation algorithm so that the difference between the output value and the expected value is minimal.
An apparatus for selecting a video protocol of a magnetic resonance image.
제1항에 있어서,
검사 대상의 기본 정보를 기술한 복수의 단어를 포함하는 판별 데이터를 상기 인공신경망에 입력하여 상기 인공신경망의 복수의 연산에 의한 상기 인공신경망의 출력에 따라 상기 검사 대상의 영상 프로토콜을 선택하는 선택모듈
을 더 포함하는 것을 특징으로 하는 자기 공명 영상의 영상 프로토콜 선택 장치.
According to claim 1,
A selection module for inputting discrimination data including a plurality of words describing basic information of a test object into the artificial neural network and selecting an imaging protocol of the test object according to the output of the artificial neural network by a plurality of calculations of the artificial neural network
An apparatus for selecting a video protocol of a magnetic resonance image, further comprising a.
제2항에 있어서,
마그넷 및 코일을 통해 검사 대상 주변에 자기장을 형성하고, 상기 자기장으로 인해 상기 검사 대상으로부터 발생하는 자기 공명 신호를 획득하는 스캔부; 및
상기 자기장으로 인해 상기 영상 프로토콜에 상응하는 부위에서 발생하는 자기 공명 신호를 상기 스캔부를 통해 획득하여 자기 공명 영상을 생성하는 제어부를 더 포함하는 것을 특징으로 하는 자기 공명 영상의 영상 프로토콜 선택 장치.
According to claim 2,
A scanning unit that forms a magnetic field around the inspection object through a magnet and a coil, and acquires a magnetic resonance signal generated from the inspection object due to the magnetic field; And
And a control unit for generating a magnetic resonance image by acquiring a magnetic resonance signal generated at a region corresponding to the imaging protocol due to the magnetic field through the scan unit.
제1항에 있어서,
상기 컨볼루션층은 상기 입력층에 대해 각 원소가 가중치인 행렬인 제1 필터를 이용한 컨볼루션 연산을 수행하여 생성된 복수의 제1 특징 지도를 포함하는 것을 특징으로 하는 자기 공명 영상의 영상 프로토콜 선택 장치.
According to claim 1,
The convolution layer includes a plurality of first feature maps generated by performing a convolution operation using a first filter, which is a matrix in which each element is a weighted matrix, for the input layer. Device.
제4항에 있어서,
상기 풀링층은 상기 복수의 제1 특징 지도 각각에 상기 복수의 제1 특징 지도 크기의 제2 필터를 이용한 풀링 연산을 수행하여 생성된 제2 특징 지도를 포함하는 것을 특징으로 하는 자기 공명 영상의 영상 프로토콜 선택 장치.
According to claim 4,
The pooling layer includes a second feature map generated by performing a pooling operation using a plurality of first feature map-sized second filters on each of the plurality of first feature maps. Protocol selection device.
제5항에 있어서,
상기 출력층은 제2 특징 지도의 행렬의 원소에 소프트맥스(softmax) 연산에 따라 산출되는 상기 출력값을 포함하는 것을 특징으로 하는 자기 공명 영상의 영상 프로토콜 선택 장치.
The method of claim 5,
And the output layer includes the output value calculated according to a softmax operation on an element of the matrix of the second feature map.
학습모듈이 환자의 정보를 기술한 복수의 단어 및 상기 환자에 적합한 영상 프로토콜을 나타내는 기댓값을 포함하는 학습 데이터를 인공신경망에 입력하는 단계;
상기 인공신경망이 상기 학습 데이터를 기초로 가중치가 적용되는 복수의 연산을 통해 출력값을 산출하는 단계; 및
상기 학습모듈이 상기 출력값과 상기 기댓값의 차이가 최소가 되도록 역전파 알고리즘에 따라 상기 가중치를 수정하는 단계
를 포함하는 자기 공명 영상의 영상 프로토콜 선택 방법.
Inputting, by the learning module, learning data including a plurality of words describing patient information and an expected value representing an image protocol suitable for the patient into an artificial neural network;
Calculating, by the artificial neural network, an output value through a plurality of calculations to which a weight is applied based on the learning data; And
Correcting the weight according to a backpropagation algorithm so that the learning module minimizes the difference between the output value and the expected value.
Method for selecting an imaging protocol of a magnetic resonance image comprising a.
제7항에 있어서,
선택모듈이 검사 대상의 기본 정보를 기술한 복수의 단어를 포함하는 판별 데이터를 상기 인공신경망에 입력하는 단계;
상기 인공신경망이 상기 판별 데이터를 기초로 가중치가 적용되는 복수의 연산을 통해 출력값을 출력하는 단계; 및
상기 선택모듈이 상기 인공신경망의 복수의 연산에 의한 상기 인공신경망의 출력에 따라 상기 검사 대상의 영상 프로토콜을 선택하는 단계
를 더 포함하는 것을 특징으로 하는 자기 공명 영상의 영상 프로토콜 선택 방법.
The method of claim 7,
Inputting, to the artificial neural network, discrimination data including a plurality of words describing the basic information of the examination object by the selection module;
The artificial neural network outputting an output value through a plurality of calculations to which a weight is applied based on the discrimination data; And
Selecting, by the selection module, an imaging protocol of the inspection target according to the output of the artificial neural network through a plurality of calculations of the artificial neural network.
A method of selecting a video protocol of a magnetic resonance image, further comprising a.
제8항에 있어서,
스캔부가 마그넷 및 코일을 통해 검사 대상 주변에 자기장을 형성하는 단계; 및
제어부가 상기 자기장으로 인해 상기 영상 프로토콜에 상응하는 부위에서 발생하는 자기 공명 신호를 상기 스캔부를 통해 획득하여 자기 공명 영상을 생성하는 단계
를 더 포함하는 것을 특징으로 하는 자기 공명 영상의 영상 프로토콜 선택 방법.
The method of claim 8,
Forming a magnetic field around the inspection object through the magnet and coil; And
Generating a magnetic resonance image by a control unit obtaining a magnetic resonance signal generated in a region corresponding to the imaging protocol due to the magnetic field through the scan unit
A method of selecting a video protocol of a magnetic resonance image, further comprising a.
제7항에 있어서,
상기 출력값을 산출하는 단계는
상기 인공신경망이 상기 인공신경망의 입력층에 대해 각 원소가 가중치인 행렬인 제1 필터를 이용한 컨볼루션 연산을 수행하여 복수의 제1 특징 지도를 포함하는 컨볼루션층을 생성하는 단계를 포함하는 것을 특징으로 하는 자기 공명 영상의 영상 프로토콜 선택 방법.
The method of claim 7,
The step of calculating the output value is
And the artificial neural network generating a convolution layer including a plurality of first feature maps by performing a convolution operation using a first filter that is a matrix in which each element is a weighted matrix with respect to the input layer of the artificial neural network. A method of selecting an imaging protocol for a magnetic resonance image.
제10항에 있어서,
상기 출력값을 산출하는 단계는
상기 컨볼루션층을 생성하는 단계 후, 상기 인공신경망이 상기 복수의 제1 특징 지도 각각에 상기 복수의 제1 특징 지도 크기의 제2 필터를 이용한 풀링 연산을 수행하여 제2 특징 지도를 포함하는 풀링층을 생성하는 단계를 더 포함하는 것을 특징으로 하는 자기 공명 영상의 영상 프로토콜 선택 방법.
The method of claim 10,
The step of calculating the output value is
After the step of generating the convolution layer, the artificial neural network performs a pooling operation using a second filter of the plurality of first feature map sizes on each of the plurality of first feature maps, and the pooling includes a second feature map. The method of claim 1, further comprising the step of generating a layer.
제11항에 있어서,
상기 출력값을 산출하는 단계는
상기 풀링층을 생성하는 단계 후, 상기 인공신경망이 제2 특징 지도의 행렬의 원소에 소프트맥스 연산에 따라 출력값을 가지는 출력층을 생성하는 단계를 더 포함하는 것을 특징으로 하는 자기 공명 영상의 영상 프로토콜 선택 방법.
The method of claim 11,
The step of calculating the output value is
After generating the pooling layer, the artificial neural network further includes generating an output layer having an output value according to a softmax operation on an element of the matrix of the second feature map. Way.
컴퓨터에 제7항 내지 제12항 중 어느 한 항에 따른 자기 공명 영상의 영상 프로토콜 선택 방법을 실행시키기 위한 프로그램이 기록된 컴퓨터 판독 가능한 기록매체.A computer-readable recording medium in which a program for executing a method for selecting an imaging protocol of a magnetic resonance image according to any one of claims 7 to 12 is recorded on a computer.
KR1020180040489A 2018-04-06 2018-04-06 Apparatus and method for selecting imaging protocol of magnetic resonance imaging by using artificial neural network, and computer-readable recording medium storing related program KR102090690B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180040489A KR102090690B1 (en) 2018-04-06 2018-04-06 Apparatus and method for selecting imaging protocol of magnetic resonance imaging by using artificial neural network, and computer-readable recording medium storing related program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180040489A KR102090690B1 (en) 2018-04-06 2018-04-06 Apparatus and method for selecting imaging protocol of magnetic resonance imaging by using artificial neural network, and computer-readable recording medium storing related program

Publications (2)

Publication Number Publication Date
KR20190117234A KR20190117234A (en) 2019-10-16
KR102090690B1 true KR102090690B1 (en) 2020-03-18

Family

ID=68421633

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180040489A KR102090690B1 (en) 2018-04-06 2018-04-06 Apparatus and method for selecting imaging protocol of magnetic resonance imaging by using artificial neural network, and computer-readable recording medium storing related program

Country Status (1)

Country Link
KR (1) KR102090690B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210144013A (en) 2020-05-21 2021-11-30 한국과학기술연구원 Magnetic parameter estimation method and magnetic parameter estimation device using deep learning techniques

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102467290B1 (en) * 2021-03-31 2022-11-16 주식회사 에어스메디컬 Magnetic resonance image processing apparatus and method with phase resolution enhancement applied

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101659578B1 (en) 2015-09-01 2016-09-23 삼성전자주식회사 Method and apparatus for processing magnetic resonance imaging

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10460231B2 (en) * 2015-12-29 2019-10-29 Samsung Electronics Co., Ltd. Method and apparatus of neural network based image signal processor

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101659578B1 (en) 2015-09-01 2016-09-23 삼성전자주식회사 Method and apparatus for processing magnetic resonance imaging

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Matt O'Connor. Deep learning improves radiologist workflow, efficiency determing musculoskeletal MRI protocol. 2018.04.05.
Nicholas Bien. Don't Just Scan This: Deep Learning Techniques for MRI. 2018.02.08.
Young Han Lee. Efficiency Improvement in a Busy Radiology Practice: Determination of Musculoskeletal Magnetic Resonance Imaging Protocol Using Deep-Learning Convolutional Neural Networks. 2018.04.04.*

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210144013A (en) 2020-05-21 2021-11-30 한국과학기술연구원 Magnetic parameter estimation method and magnetic parameter estimation device using deep learning techniques

Also Published As

Publication number Publication date
KR20190117234A (en) 2019-10-16

Similar Documents

Publication Publication Date Title
US11341616B2 (en) Methods and system for selective removal of streak artifacts and noise from images using deep neural networks
CN109215094B (en) Phase contrast image generation method and system
CN109215014B (en) Training method, device and equipment of CT image prediction model and storage medium
CN107865659A (en) MR imaging apparatus and the method for obtaining MRI
CN109917315A (en) MRI scan method, apparatus, computer equipment and storage medium
JP7466141B2 (en) High-speed magnetic resonance image reconstruction method and magnetic resonance imaging device
KR102428725B1 (en) Method and program for imaging quality improving
US20220180575A1 (en) Method and system for generating magnetic resonance image, and computer readable storage medium
US11734817B2 (en) Medical information processing apparatus, magnetic resonance imaging apparatus, and medical information processing method
KR102090690B1 (en) Apparatus and method for selecting imaging protocol of magnetic resonance imaging by using artificial neural network, and computer-readable recording medium storing related program
US10663547B2 (en) Automatic detection and setting of magnetic resonance protocols based on read-in image data
CN112133410A (en) MRI image reconstruction using machine learning
CN112820383B (en) Medical imaging method, system and storage medium
WO2023219963A1 (en) Deep learning-based enhancement of multispectral magnetic resonance imaging
CN108896940B (en) System and method for compensating gradient pulses for MRI
US20220215936A1 (en) Image processing device, image processing method, image processing program, learning device, learning method, learning program, and derivation model
JP5418952B1 (en) Brain activity measuring device and brain activity measuring method
KR101844514B1 (en) Magnetic resonance imaging apparatus and method of obtaining magnetic resonance image
JPWO2014125876A1 (en) Magnetic resonance imaging apparatus and processing method thereof
KR101797141B1 (en) Apparatus and method for image processing of magnetic resonance
KR102429284B1 (en) Magnetic resonance image processing apparatus and method to which combine is applied
US20210393216A1 (en) Magnetic resonance system, image display method therefor, and computer-readable storage medium
NL2031467B1 (en) Deep learning based denoising of MR images
US20240127499A1 (en) Magnetic resonance image processing apparatus and method to which noise-to-noise technique is applied
KR102008499B1 (en) Magnetic resonance imaging apparatus and method of obtaining magnetic resonance image

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant