KR20180097214A - Method of predicting recurrence region and generating pet image using deep learning, and apparatus thereof - Google Patents
Method of predicting recurrence region and generating pet image using deep learning, and apparatus thereof Download PDFInfo
- Publication number
- KR20180097214A KR20180097214A KR1020170023876A KR20170023876A KR20180097214A KR 20180097214 A KR20180097214 A KR 20180097214A KR 1020170023876 A KR1020170023876 A KR 1020170023876A KR 20170023876 A KR20170023876 A KR 20170023876A KR 20180097214 A KR20180097214 A KR 20180097214A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- images
- pet
- recognizer
- recurrence
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 51
- 238000013135 deep learning Methods 0.000 title abstract description 4
- 238000007781 pre-processing Methods 0.000 claims abstract description 13
- 210000004556 brain Anatomy 0.000 claims description 38
- 210000003625 skull Anatomy 0.000 claims description 19
- 238000002600 positron emission tomography Methods 0.000 claims description 12
- 238000002595 magnetic resonance imaging Methods 0.000 claims description 10
- 230000011218 segmentation Effects 0.000 claims description 10
- 230000002238 attenuated effect Effects 0.000 claims description 5
- 238000009792 diffusion process Methods 0.000 claims description 5
- 239000012530 fluid Substances 0.000 claims description 5
- 238000002075 inversion recovery Methods 0.000 claims description 5
- 238000012879 PET imaging Methods 0.000 claims 3
- JXSJBGJIGXNWCI-UHFFFAOYSA-N diethyl 2-[(dimethoxyphosphorothioyl)thio]succinate Chemical compound CCOC(=O)CC(SP(=S)(OC)OC)C(=O)OCC JXSJBGJIGXNWCI-UHFFFAOYSA-N 0.000 abstract 1
- 208000003174 Brain Neoplasms Diseases 0.000 description 27
- 238000010586 diagram Methods 0.000 description 10
- 238000012545 processing Methods 0.000 description 10
- 238000013528 artificial neural network Methods 0.000 description 9
- 230000008569 process Effects 0.000 description 7
- 238000013527 convolutional neural network Methods 0.000 description 6
- 238000011176 pooling Methods 0.000 description 6
- 238000012549 training Methods 0.000 description 6
- 230000002829 reductive effect Effects 0.000 description 5
- 238000000605 extraction Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000002441 reversible effect Effects 0.000 description 4
- 230000004913 activation Effects 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000008602 contraction Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000036961 partial effect Effects 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- 238000002372 labelling Methods 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000000700 radioactive tracer Substances 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/003—Reconstruction from projections, e.g. tomography
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/02—Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
- A61B6/03—Computed tomography [CT]
- A61B6/037—Emission tomography
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/30—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10088—Magnetic resonance imaging [MRI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30016—Brain
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/41—Medical
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Public Health (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Pathology (AREA)
- Biomedical Technology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Radiology & Medical Imaging (AREA)
- Veterinary Medicine (AREA)
- Biophysics (AREA)
- Surgery (AREA)
- Optics & Photonics (AREA)
- Molecular Biology (AREA)
- Heart & Thoracic Surgery (AREA)
- High Energy & Nuclear Physics (AREA)
- Animal Behavior & Ethology (AREA)
- Quality & Reliability (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Epidemiology (AREA)
- Primary Health Care (AREA)
- Image Analysis (AREA)
Abstract
Description
아래 실시예들은 딥러닝을 사용하여 재발 부위를 예측하고, PET 이미지를 생성하는 방법과 장치에 관한 것이다.The following examples relate to methods and apparatus for predicting recurrence sites using deep running and generating PET images.
일반적으로 딥 러닝(Deep learning)은 여러 비선형 변환기법의 조합을 통해 높은 수준의 추상화를 시도하는 기계학습 알고리즘의 집합으로 정의되며, 큰 틀에서 사람의 사고방식을 컴퓨터에게 가르치는 기계학습의 한 분야이다.Deep learning is generally defined as a set of machine learning algorithms that try to achieve a high level of abstraction through a combination of several nonlinear transformation techniques and is one area of machine learning that teaches computers to people's minds in a large framework .
어떠한 데이터가 있을 때 이를 컴퓨터가 알아 들을 수 있는 형태(예를 들어 이미지의 경우는 픽셀정보를 열벡터로 표현하는 등)로 표현하고 이를 학습에 적용하기 위해 많은 연구가 진행되고 있으며, 이러한 노력의 결과로 deep neural networks, convolutional deep neural networks, deep believe networks와 같은 다양한 딥러닝 기법들이 컴퓨터비젼, 음성인식, 자연어처리, 음성/신호처리 등의 분야에 적용되어 최첨단의 결과들을 보여주고 있다.Many researches have been carried out to express some data in a form that can be understood by the computer (for example, in the case of images, pixel information is represented by a column vector) and applied to learning. As a result, various deep learning techniques such as deep neural networks, convolutional deep neural networks, and deep believe networks are applied to fields such as computer vision, speech recognition, natural language processing, and voice / signal processing.
실시예들은 뇌 종양이 발생한 환자의 멀티모달 MR 이미지로부터 뇌 종양 재발 부위를 예측하는 기술을 제공할 수 있다.Embodiments can provide a technique for predicting a brain tumor recurrence site from a multi-modal MR image of a patient suffering from a brain tumor.
또한, 실시예들은 멀티모달 MR 이미지로부터 PET 이미지를 생성하는 기술을 제공할 수 있다.Embodiments can also provide a technique for generating a PET image from a multi-modal MR image.
일 실시예에 따른 재발 부위 예측 방법은 복수의 이미지에 전처리를 수행하는 단계와, 전처리된 복수의 이미지에 기초하여 재발 부위를 예측하는 단계를 포함하고, 상기 복수의 이미지는 T1(T1-weighted) 이미지, T1CE(Contrast-enhanced T1-weight) 이미지, T2(T2-weighted) 이미지, FLAIR(Fluid Attenuated Inversion Recovery) 이미지, ADC(Apparent Diffusion Coefficient) 이미지, 및 Segmentation 이미지 중 적어도 하나를 포함하는 멀티모달(multimodal) MR 이미지이다.A method for predicting a recurrence site according to an exemplary embodiment includes performing a pre-processing on a plurality of images, and predicting a recurrence site based on a plurality of preprocessed images, wherein the plurality of images are T1- Modal (including at least one of an image, a Contrast-enhanced T1-weight (T1CE) image, a T2-weighted image, a Fluid Attenuated Inversion Recovery (FLAIR) image, an ADC (Apparent Diffusion Coefficient) multimodal MR images.
상기 복수의 이미지는 자기 공명 영상(Magnetic Resonance Imaging(MRI)) 장치로부터 획득될 수 있다.The plurality of images may be obtained from a magnetic resonance imaging (MRI) device.
상기 예측하는 단계는, 기 학습된 인식기에 상기 전처리된 복수의 이미지를 입력하는 단계와, 상기 기 학습된 인식기가 상기 재발 부위를 예측하는 단계를 포함할 수 있다.The predicting step may include inputting the plurality of pre-processed images to the previously learned recognizer, and predicting the recurrence site by the previously learned recognizer.
상기 방법은 예측된 상기 재발 부위와 실제 재발 부위의 차이가 최소화되도록 상기 기 학습된 인식기를 학습시키는 단계를 더 포함할 수 있다.The method may further include learning the learned recognizer so that the difference between the predicted recurrence site and the actual recurrence site is minimized.
상기 전처리를 수행하는 단계는, 상기 T1CE 이미지, 상기 T2 이미지, 상기 FLAIR 이미지, 및 상기 ADC 이미지를 상기 T1 이미지에 기초하여 정합하는 단계를 포함할 수 있다.Performing the preprocessing may include matching the T1CE image, the T2 image, the FLAIR image, and the ADC image based on the T1 image.
상기 전처리를 수행하는 단계는, 상기 복수의 이미지에 brain skull stripping을 수행하는 단계를 포함할 수 있다.The step of performing the preprocessing may include performing brain skull stripping on the plurality of images.
일 실시예에 따른 재발 부위 예측 장치는 복수의 이미지에 전처리를 수행하는 전처리기와, 전처리된 복수의 이미지에 기초하여 재발 부위를 예측하는 컨트롤러를 포함하고, 상기 복수의 이미지는 T1(T1-weighted) 이미지, T1CE(Contrast-enhanced T1-weight) 이미지, T2(T2-weighted) 이미지, FLAIR(Fluid Attenuated Inversion Recovery) 이미지, ADC(Apparent Diffusion Coefficient) 이미지, 및 Segmentation 이미지 중 적어도 하나를 포함하는 멀티모달(multimodal) MR 이미지이다.The apparatus for predicting a recurrence site according to an embodiment includes a preprocessor for pre-processing a plurality of images, and a controller for predicting a recurrence site based on a plurality of preprocessed images, wherein the plurality of images are T1- Modal (including at least one of an image, a Contrast-enhanced T1-weight (T1CE) image, a T2-weighted image, a Fluid Attenuated Inversion Recovery (FLAIR) image, an ADC (Apparent Diffusion Coefficient) multimodal MR images.
상기 복수의 이미지는 자기 공명 영상(Magnetic Resonance Imaging(MRI)) 장치로부터 획득될 수 있다.The plurality of images may be obtained from a magnetic resonance imaging (MRI) device.
상기 장치는 상기 전처리된 복수의 이미지를 수신하여 상기 재발 부위를 예측하는 기 학습된 인식기를 더 포함하고, 상기 컨트롤러는, 상기 기 학습된 인식기에 상기 전처리된 복수의 이미지를 입력할 수 있다.The apparatus further includes a learned recognizer that receives the plurality of preprocessed images and predicts the recurrence site, and the controller can input the plurality of preprocessed images to the learned recognizer.
상기 컨트롤러는, 예측된 상기 재발 부위와 실제 재발 부위의 차이가 최소화되도록 상기 기 학습된 인식기를 학습시킬 수 있다.The controller can learn the learned recognizer so that the difference between the predicted recurrence site and the actual recurrence site is minimized.
상기 전처리기는, 상기 T1CE 이미지, 상기 T2 이미지, 상기 FLAIR 이미지, 및 상기 ADC 이미지를 상기 T1 이미지에 기초하여 정합할 수 있다.The preprocessor may match the T1CE image, the T2 image, the FLAIR image, and the ADC image based on the T1 image.
상기 전처리기는, 상기 복수의 이미지에 brain skull stripping을 수행할 수 있다.The preprocessor may perform brain skull stripping on the plurality of images.
일 실시예에 따른 PET 이미지 생성 방법은 T1(T1-weighted) MR 이미지에 전처리를 수행하는 단계와, 전처리된 T1 MR 이미지를 기 학습된 인식기에 입력하는 단계와, 및 상기 기 학습된 인식기가 PET(positron Emission Tomography) 이미지를 생성하는 단계를 포함한다.A method of generating a PET image according to an exemplary embodiment includes performing a pre-processing on a T1 (T1-weighted) MR image, inputting a preprocessed T1 MR image to a pre-learned recognizer, (Positron Emission Tomography) image.
상기 T1 MR 이미지는 자기 공명 영상(MRI) 장치로부터 획득될 수 있다.The T1 MR image may be acquired from a magnetic resonance imaging (MRI) device.
상기 수행하는 단계는, 상기 T1 MR 이미지에 brain skull stripping을 수행하는 단계를 포함할 수 있다.The performing may comprise performing brain skull stripping on the T1 MR image.
상기 방법은 생성된 PET 이미지와 실제 PET 이미지의 차이가 최소화되도록 상기 기 학습된 인식기를 학습시키는 단계를 더 포함할 수 있다.The method may further include learning the learned recognizer so that the difference between the generated PET image and the actual PET image is minimized.
상기 학습시키는 단계는, 상기 생성된 PET 이미지와 상기 실제 PET 이미지를 매칭하는 단계를 포함할 수 있다.The step of learning may include matching the generated PET image with the actual PET image.
일 실시예에 따른 PET 이미지 생성 장치는 T1 MR 이미지에 전처리를 수행하는 전처리기와, 전처리된 T1 MR 이미지를 기 학습된 인식기에 입력하는 컨트롤러와, 상기 전처리된 T1 MR 이미지에 기초하여 PET 이미지를 생성하는 기 학습된 인식기를 포함한다.The apparatus includes a preprocessor for pre-processing a T1 MR image, a controller for inputting the preprocessed T1 MR image to a pre-learned recognizer, and a PET image generator for generating a PET image based on the preprocessed T1 MR image And the learned recognizer.
상기 T1 MR 이미지는 자기 공명 영상(MRI) 장치로부터 획득될 수 있다.The T1 MR image may be acquired from a magnetic resonance imaging (MRI) device.
상기 전처리기는, 상기 T1 MR 이미지에 brain skull stripping을 수행할 수 있다.The preprocessor may perform brain skull stripping on the T1 MR image.
상기 컨트롤러는, 생성된 PET 이미지와 실제 PET 이미지의 차이가 최소화되도록 상기 기 학습된 인식기를 학습시킬 수 있다.The controller can learn the learned recognizer so that the difference between the generated PET image and the actual PET image is minimized.
상기 컨트롤러는, 상기 생성된 PET 이미지와 상기 실제 PET 이미지를 매칭할 수 있다.The controller may match the generated PET image with the actual PET image.
도 1은 일 실시예에 따른 재발 부위 학습 장치의 블록도의 일 예를 나타낸다.
도 2는 도 1에 도시된 전처리기의 동작의 일 예를 설명하기 위한 도면이다.
도 3은 도 1에 도시된 전처리기의 동작의 다른 예를 설명하기 위한 도면이다.
도 4a는 일 실시예에 따른 재발 부위를 예측하기 위한 학습을 설명하기 위한 도면이다.
도 4b는 도 4a에 도시된 인식기의 구조도의 일 예를 나타낸다.
도 5는 일 실시예에 따른 PET 이미지 생성 학습 장치의 블록도의 일 예를 나타낸다.
도 6a는 일 실시예에 따른 PET 이미지를 생성하기 위한 학습을 설명하기 위한 도면이다.
도 6b는 도 6a에 도시된 인식기의 구조도의 일 예를 나타낸다.FIG. 1 shows an example of a block diagram of a recurrence site learning apparatus according to an embodiment.
FIG. 2 is a view for explaining an example of the operation of the preprocessor shown in FIG. 1. FIG.
FIG. 3 is a diagram for explaining another example of the operation of the preprocessor shown in FIG. 1. FIG.
4A is a diagram for explaining learning for predicting a recurrence site according to an embodiment.
Fig. 4B shows an example of the structure of the recognizer shown in Fig. 4A.
5 shows an example of a block diagram of a PET image generation learning apparatus according to an embodiment.
6A is a diagram for explaining learning for generating a PET image according to an embodiment.
6B shows an example of the structure of the recognizer shown in FIG. 6A.
본 명세서에 개시되어 있는 본 발명의 개념에 따른 실시예들에 대해서 특정한 구조적 또는 기능적 설명들은 단지 본 발명의 개념에 따른 실시예들을 설명하기 위한 목적으로 예시된 것으로서, 본 발명의 개념에 따른 실시예들은 다양한 형태로 실시될 수 있으며 본 명세서에 설명된 실시예들에 한정되지 않는다.It is to be understood that the specific structural or functional descriptions of embodiments of the present invention disclosed herein are presented for the purpose of describing embodiments only in accordance with the concepts of the present invention, May be embodied in various forms and are not limited to the embodiments described herein.
본 발명의 개념에 따른 실시예들은 다양한 변경들을 가할 수 있고 여러 가지 형태들을 가질 수 있으므로 실시예들을 도면에 예시하고 본 명세서에 상세하게 설명하고자 한다. 그러나, 이는 본 발명의 개념에 따른 실시예들을 특정한 개시형태들에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Embodiments in accordance with the concepts of the present invention are capable of various modifications and may take various forms, so that the embodiments are illustrated in the drawings and described in detail herein. However, it is not intended to limit the embodiments according to the concepts of the present invention to the specific disclosure forms, but includes changes, equivalents, or alternatives falling within the spirit and scope of the present invention.
제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만, 예를 들어 본 발명의 개념에 따른 권리 범위로부터 이탈되지 않은 채, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.The terms first, second, or the like may be used to describe various elements, but the elements should not be limited by the terms. The terms may be named for the purpose of distinguishing one element from another, for example without departing from the scope of the right according to the concept of the present invention, the first element being referred to as the second element, Similarly, the second component may also be referred to as the first component.
어떤 구성요소가 다른 구성요소에 “연결되어” 있다거나 “접속되어” 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 “직접 연결되어” 있다거나 “직접 접속되어” 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성요소들 간의 관계를 설명하는 표현들, 예를 들어 “~사이에”와 “바로~사이에” 또는 “~에 직접 이웃하는” 등도 마찬가지로 해석되어야 한다.It is to be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, . On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between. Expressions that describe the relationship between components, for example, "between" and "immediately" or "directly adjacent to" should be interpreted as well.
본 명세서에서 사용한 용어는 단지 특정한 실시예들을 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, “포함하다” 또는 “가지다” 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, the terms " comprises ", or " having ", and the like, are used to specify one or more of the features, numbers, steps, operations, elements, But do not preclude the presence or addition of steps, operations, elements, parts, or combinations thereof.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries are to be interpreted as having a meaning consistent with the meaning of the context in the relevant art and, unless explicitly defined herein, are to be interpreted as ideal or overly formal Do not.
이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 그러나, 특허출원의 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. However, the scope of the patent application is not limited or limited by these embodiments. Like reference symbols in the drawings denote like elements.
도 1은 일 실시예에 따른 재발 부위 학습 장치의 블록도의 일 예를 나타내고, 도 2는 도 1에 도시된 전처리기의 동작의 일 예를 설명하기 위한 도면이고, 도 3은 도 1에 도시된 전처리기의 동작의 다른 예를 설명하기 위한 도면이다.FIG. 1 is a block diagram of a recurrence site learning apparatus according to an embodiment of the present invention. FIG. 2 is a view for explaining an example of the operation of the preprocessor shown in FIG. 1. FIG. Fig. 8 is a diagram for explaining another example of the operation of the preprocessor.
도 1 내지 도 3을 참조하면, 재발 부위 학습 장치(100)는 전처리기(110) 및 컨트롤러(130)를 포함한다.Referring to FIGS. 1 to 3, the recurrence
재발 부위 학습 장치(100)는 입력 데이터(또는 입력물) 및 출력 데이터(또는 출력물) 검토를 위해 PC(personal computer), 데이터 서버, 또는 휴대용 전자 장치에 구현(또는 탑재)될 수 있다.The recurrence
휴대용 전자 장치는 랩탑(laptop) 컴퓨터, 이동 전화기, 스마트 폰(smart phone), 태블릿(tablet) PC, 모바일 인터넷 디바이스(mobile internet device(MID)), PDA(personal digital assistant), EDA(enterprise digital assistant), 디지털 스틸 카메라(digital still camera), 디지털 비디오 카메라(digital video camera), PMP(portable multimedia player), PND(personal navigation device 또는 portable navigation device), 휴대용 게임 콘솔(handheld console), e-북(e-book), 또는 스마트디바이스(smart device)로 구현될 수 있다. 예를 들어, 스마트 디바이스는 스마트 와치(smart watch) 또는 스마트 밴드(smart band)로 구현될 수 있다.The portable electronic device may be a laptop computer, a mobile phone, a smart phone, a tablet PC, a mobile internet device (MID), a personal digital assistant (PDA), an enterprise digital assistant A digital still camera, a digital video camera, a portable multimedia player (PMP), a personal navigation device or a portable navigation device (PND), a portable game console (handheld console), an e-book e-book, or a smart device. For example, a smart device can be implemented as a smart watch or a smart band.
재발 부위 학습 장치(100)는 복수의 이미지로부터 재발 부위 예측을 위한 인식기를 학습시킬 수 있다. 복수의 이미지는 멀티모달(multimodal) MR 이미지이고, 뇌 종양 재발 전의 MR 이미지 및 뇌 뇌 종양 재발 후의 MR 이미지를 포함하는 트레이닝 데이터일 수 있다. 예를 들어, 재발 부위 학습 장치(100)는 멀티모달 MR 이미지 및 재발 부위 이미지가 포함된 트레이닝 데이터를 수신하고, 수신된 트레이닝 데이터를 이용하여 재발 부위를 예측하는 인식기를 학습시킬 수 있다.The recurrence
멀티모달 MR 이미지는 자기 공명 영상(Magnetic Resonance Imaging(MRI)) 장치로부터 획득한 뇌(예를 들어, 인간의 뇌) 부분 이미지일 수 있다. 뇌 종양 재발 전의 MR 이미지는 T1(T1-weighted) 이미지, T1CE(Contrast-enhanced T1-weight) 이미지, T2(T2-weighted) 이미지, FLAIR(Fluid Attenuated Inversion Recovery) 이미지, 및 ADC(Apparent Diffusion Coefficient) 이미지(또는 맵) 중 적어도 하나를 포함할 수 있다. 뇌 종양 재발 후의 MR 이미지는 T1 이미지 및 T1CE 이미지 중 적어도 하나를 포함할 수 있다. 멀티모달 MR 이미지의 특성은 표 1과 같을 수 있다.The multi-modal MR image may be a brain (e.g., a human brain) partial image acquired from a magnetic resonance imaging (MRI) device. MR images prior to the recurrence of brain tumors include T1-weighted images, Contrast-enhanced T1-weighted images, T2-weighted images, Fluid Attenuated Inversion Recovery (FLAIR) images, and ADC (Apparent Diffusion Coefficient) An image (or a map). The MR image after recurrence of a brain tumor may include at least one of T1 image and T1CE image. The characteristics of the multi-modal MR image can be as shown in Table 1.
전처리기(110)는 복수의 이미지에 전처리를 수행할 수 있다.The
뇌 종양 재발 전의 MR 이미지를 처리하는 경우, 전처리기(110)는 뇌 종양 재발 전의 MR 이미지의 사이즈가 [240 x 240 x 240]이고 zero 이미지로 처리할 수 있다. 전처리기(110)는 뇌 종양 재발 전의 MR 이미지의 가장 긴 축을 240 크기에 맞춰서, 전체 이미지를 비율에 맞게 축소하고, zero 이미지의 중앙에 T1 이미지를 배치할 수 있다. 또한, 전처리기(110)는 T1 이미지에서 생성한 mask 이미지를 불러들여, foreground로 해당되는 값을 가지고, T1 이미지의 데이터를 정규화(normalization)시킬 수 있다. 전처리기(110)는 이와 같은 작업을 T1 이미지 외에도 T1CE 이미지, T2 이미지, FLAIR 이미지, 및 ADC 이미지(또는 맵)에 동일하게 적용할 수 있다. 전처리기(110)는 완성된 T1 이미지, T1CE 이미지, T2 이미지, FLAIR 이미지, ADC 이미지(또는 맵) 및 후술할 Segmentation 이미지를 6 채널(6 ch)로 구성하여 [6 x 240 x 240]의 입력용 데이터를 생성할 수 있다.When processing an MR image before the recurrence of a brain tumor, the
뇌 종양 재발 후의 MR 이미지를 처리하는 경우, 사용자는 뇌 종양 재발 후의 MR 이미지에서 manual segmentation을 사용하여 수동으로 뇌 종양 재발 부위를 추출하여 T1CE_segmentation 이미지를 생성할 수 있다. T1CE_segmentation 이미지는 사이즈가 [x 7 x y 7 x z 7]이고, 데이터 타입이 bool 타입일 수 있다. 전처리기(110)는 T1CE_segmentation 이미지를 사이즈가 [240 x 240 x 240]인 zero 이미지로 처리할 수 있다. 전처리기(110)는 T1CE_segmentation 이미지의 가장 긴 축을 240 크기에 맞춰서, 전체 이미지를 비율에 맞게 축소하고, zero 이미지의 중앙에 T1CE_segmentation 이미지를 배치할 수 있다. 즉, 전처리기(110)는 뇌 종양 재발 부위에 관한 [1 x 240 x 240]의 입력용 데이터를 생성할 수 있다.In the case of MR images after the recurrence of brain tumor, the user can manually generate the T1CE_segmentation image by manually using the manual segmentation in the MR image after recurrence of the brain tumor. The T1CE_segmentation image may have a size of [ x 7 x y 7 x z 7 ] and a data type of bool type. The
이하에서는 이를 실현하는 전처리기(110)의 동작을 구체적으로 설명하도록 한다.Hereinafter, the operation of the
전처리기(110)는 복수의 이미지를 T1 이미지를 기준으로 정합(co-registration)하는 동작, 복수의 이미지의 차원(dimension, 또는 사이즈)을 확인하는 동작, 3D 이미지에 대한 슬라이스 이미지를 생성하는 동작, 3D 이미지에서 축(axial) 방향으로 슬라이스를 추출하는 동작, 및 입력을 위하여 슬라이스(slice) 이미지를 최종적으로 정리하는 동작 중 적어도 하나의 동작을 수행할 수 있다.The
전처리기(110)가 복수의 이미지를 T1 이미지를 기준으로 정합하는 경우, 뇌 종양 재발 전의 MR 이미지를 정합하는 경우와, 뇌 종양 재발 후의 MR 이미지를 정합하는 경우가 있을 수 있다.In the case where the
전처리기(110)가 뇌 종양 재발 전의 MR 이미지를 정합하는 경우, 전처리기(110)는 뇌 종양 재발 전의 MR 이미지(T1 이미지, T1CE 이미지, T2 이미지, FLAIR 이미지, 및 ADC 이미지(또는 맵))의 사이즈를 모두 [x 1 x y 1 x z 1]로, 데이터 타입은 float 타입으로 정합할 수 있다.When the
전처리기(110)가 뇌 종양 재발 후의 MR 이미지를 정합하는 경우, 전처리기(110)는 뇌 종양 재발 후의 MR 이미지(T1 이미지, T1CE 이미지, 및 T1CE_segmentation 이미지)의 사이즈를 모두 [x 6 x y 6 x z 6]로 정합할 수 있다. 전처리기(110)는 T1 이미지 및 T1CE 이미지의 데이터 타입을 float 타입으로, T1CE_segmentation 이미지의 데이터 타입을 bool 타입으로 정합할 수 있다.When the
전처리기(110)는 뇌 종양 재발 후의 MR 이미지를 뇌 종양 재발 전의 MR 이미지에 정합하여 변환 행렬 Mt2 ->t1을 생성할 수 있다. 이때, 뇌 종양 재발 전의 시점을 t1, 뇌 종양 재발 후의 시점을 t2라 할 수 있다. 전처리기(110)는 T1CE_segmentation 이미지에 변환 행렬 Mt2 ->t1을 적용하여 정합할 수 있다. 이때, 정합된 T1CE_segmentation 이미지는 사이즈가 [x 1 x y 1 x z 1]이고, 데이터 타입이 bool 타입으로 정합될 수 있다.The
전처리기(110)는 모든 뇌 영상 MR 이미지의 차원(또는 사이즈)이 [x 1 x y 1 x z 1]인지 확인하고, 모든 이미지를 T1 이미지와 동일한 공간(space)에 위치하도록 배치할 수 있다. 전처리기(110)가 복수의 이미지를 정합한 결과는 도 2에 도시된 바와 같을 수 있다. 전처리기(110)는 복수의 이미지(210)을 정합하여 정합된 이미지(230)를 생성할 수 있다. 전처리기(110)는 뇌 종양 재발 전의 T1CE 이미지, T2 이미지, FLAIR 이미지, 및 ADC 이미지(또는 맵)를 뇌 종양 재발 전의 T1 이미지와 동일한 공간에 위치하도록 매칭할 수 있다. 또한, 전처리기(110)는 뇌 종양 재발 후의 T1CE 이미지를 뇌 종양 재발 후의 T1 이미지와 동일한 공간에 위치하도록 매칭한 후, 뇌 종양 재발 전의 T1 이미지와 동일한 공간에 위치하도록 매칭할 수 있다.The
전처리기(110)가 3D 이미지에 대한 슬라이스 이미지를 생성하는 경우, 전처리기(110)는 brain extraction tool을 사용하여 brain skull stripping을 수행할 수 있으며, 이 3D 이미지를 기반으로 [240 x 240 x 240] volume 이미지의 정 가운데(center)에 배치하고, brain skull stripping을 수행하여 skull stripping 이미지를 생성할 수 있다. 이때, 생성된 skull stripping 이미지는 brain mask 이미지이고, 사이즈가 [240 x 240 x 240]이고, 데이터 타입이 bool 타입일 수 있다. 전처리기(110)가 생성한 brain mask는 도 3에 도시된 바와 같을 수 있다. 전처리기(110)는 정합된 이미지(230)의 이미지에 brain skull stripping을 사용하여 brain mask 이미지(250)를 생성할 수 있다.When the
전처리기(110)는 3D 이미지에서 축(axial) 방향, 시상면(sagital) 방향, 및 관상면(coronal) 방향으로 슬라이스를 추출할 수 있다. 예를 들어, 전처리기(110)는 brain mask 이미지를 사용하여 skull stripping한 이미지를 추출할 수 있다. 전처리기(110)는 brain mask 이미지에서 픽셀의 값이 0인 부분(뇌가 아닌 부분)에 대해서 -1로 픽셀 값을 매핑하고, 픽셀의 값이 1인 부분(뇌인 부분)에 대해서는 각각의 픽셀을 정규화(normalization)을 수행할 수 있다. 즉, 전처리기(110)는 brain mask 이미지에서 픽셀의 값이 1인 픽셀의 평균(mean)으로 빼고 표준 편차(standard deviation)로 나눠줄 수 있다. 전처리기(110)는 추출할 슬라이스 이미지의 brain mask 슬라이스 이미지에서 픽셀의 값이 전부 0인 경우, 추출을 진행하지 않을 수 있다.The
전처리기(110)가축(axial) 방향, 시상면(sagital) 방향, 및 관상면(coronal) 방향으로 추출한 슬라이스 이미지의 특성은 표 2와 같을 수 있다.The characteristics of the slice images extracted in the axial direction, sagital direction, and coronal direction of the
전처리기(110)는 뇌 종양 재발 전의 MR 이미지(T1 이미지, T1CE 이미지, T2 이미지, 및 FLAIR 이미지)를 segmentation용으로 기 학습된 인식기를 사용하여 segmentation 이미지를 생성할 수 있다. 이때, segmentation 이미지는 사이즈가 [240 x 240 x 1 x k]이고, 데이터 타입이 int 타입일 수 있다. 또한 생성된 이미지는 인식기의 입력으로 사용된다.The
전처리기(110)는 슬라이스 이미지를 인식기의 입력 노드(input node)에 입력하기 위하여 최종적으로 정리하는 경우, 각각의 슬라이스 이미지의 모달리티(modality)가 채널 형태로 구성될 수 있다. 즉, 전처리기(110)는 슬라이스 이미지의 사이즈를 [240 x 240 x 6] x k로 하고, 데이터 타입을 float 타입으로 설정할 수 있다.When the
전처리기(110)는 인식기의 출력 노드(output node)에서 재발 부위 예측의 역 전파(back propagation) 기법과 관련된 손실(loss) 계산을 위한 이미지의 사이즈를 [240 x 240 x 1] x k로 하고, 데이터 타입을 bool 타입으로 설정할 수 있다.The
전처리기(110)는 모든 환자에 대하여 슬라이스 이미지를 최종적으로 정리할 수 있다. 예를 들어, 전처리기(110)는 인식기의 입력 노드에 입력하는 슬라이스 이미지의 사이즈를 [240 x 240 x 6] x k x 환자 수로 하고, 데이터 타입을 float 타입으로 설정할 수 있다. 전처리기(110)는 인식기의 출력 노드에서 재발 부위 예측의 역 전파 기법과 관련된 손실 계산을 위한 이미지의 사이즈를 [240 x 240 x 1] x k x 환자 수로 하고, 데이터 타입을 bool 타입으로 설정할 수 있다.The
전처리기(110)는 모듈로 구현될 수 있다. 모듈은 전처리기(110)의 기능과 동작을 수행할 수 있는 하드웨어를 의미할 수도 있고, 특정 기능과 동작을 수행할 수 있는 프로그램 코드를 의미할 수도 있고, 또는 특정 기능과 동작을 수행시킬 수 있는 컴퓨터 프로그램 코드가 탑재된 전자적 기록 매체, 예를 들어 프로세서 또는 마이크로 프로세서를 의미할 수 있다. 다시 말해, 모듈이란 전처리기(110)의 동작을 수행하기 위한 하드웨어 및/또는 하드웨어를 구동하기 위한 소프트웨어의 기능적 및/또는 구조적 결합을 의미할 수 있다.The
컨트롤러(130)는 전처리된 복수의 이미지에 기초하여 재발 부위를 예측할 수 있다. 예를 들어, 컨트롤러(130)는 전처리된 복수의 이미지에 기초하여 재발 부위 이미지를 생성할 수 있다. 컨트롤러(130)는 복수의 이미지 및 재발 부위 이미지를 분석하여 복수의 이미지 및 재발 부위 이미지 사이의 상관 관계를 획득할 수 있다.The
컨트롤러(130)는 복수의 이미지 및 재발 부위 이미지 사이의 상관 관계에 기초하여 재발 부위를 예측(또는 재발 부위 이미지를 생성)하도록 인식기를 학습시킬 수 있다. 인식기의 학습 방법에 대해서는 도 4a 및 도 4b를 참조하여 상세히 설명한다.The
도 4a는 일 실시예에 따른 재발 부위를 예측하기 위한 학습을 설명하기 위한 도면이고, 도 4b는 도 4a에 도시된 인식기의 구조도의 일 예를 나타낸다.FIG. 4A is a diagram for explaining learning for predicting a recurrence site according to an embodiment, and FIG. 4B illustrates an example of a structure of the recognizer shown in FIG. 4A.
도 4a를 참조하면, 컨트롤러(130)는 복수의 이미지 및 재발 부위 이미지 사이의 상관 관계를 인식기(150-1)에 입력할 수 있다.Referring to FIG. 4A, the
도 4a에 도시된 컨트롤러(130)는 도 1에 도시된 컨트롤러(130)와 구성 및 동작이 실질적으로 동일할 수 있다.The
인식기(150-1)는 복수의 입력 값에 기초하여 재발 부위를 예측(또는 재발 부위 이미지를 생성)할 수 있다. 인식기(150-1)는 CNN(Convolutional Neural Network)으로 구현될 수 있다. CNN은 복수의 입력 값에 기초하여 단일의 출력 이미지를 생성하는 다중 입력-단일 출력 구조를 가질 수 있다. 예를 들어, 인식기(150-1)는 컨볼루션 레이어(convolution layer), 풀링 레이어(pooling layer), 언풀링 레이어(un-pooling player), 완전 연결 레이어(fully connected layer), 또는 이들의 다양한 조합에 기초하여 출력 값을 생성할 수 있다. 즉, 인식기(150-1)는 인공 신경망(artificial network)으로 구성될 수 있다.The recognizer 150-1 can predict a recurrence site (or generate a recurrence site image) based on a plurality of input values. The recognizer 150-1 may be implemented as a Convolutional Neural Network (CNN). The CNN may have a multiple input-single output structure that produces a single output image based on a plurality of input values. For example, the recognizer 150-1 may include a convolution layer, a pooling layer, an un-pooling player, a fully connected layer, or various combinations thereof To generate an output value. That is, the recognizer 150-1 may be configured as an artificial network.
인공 신경망은 입력 레이어, 히든 레이어, 및 출력 레이어를 포함할 수 있다. 각 레이어는 복수의 노드들을 포함하고, 인접한 레이어 사이의 노드들은 연결 가중치를 가지고 서로 연결될 수 있다. 각 노드들은 활성화 모델에 기초하여 동작할 수 있다. 활성화 모델에 따라 입력 값에 대응하는 출력 값이 결정될 수 있다. 임의의 노드의 출력 값은 해당 노드와 연결된 다음 레이어의 노드로 입력될 수 있다. 다음 레이어의 노드는 복수의 노드들로부터 출력되는 값들을 입력 받을 수 있다. 임의의 노드의 출력 값이 다음 레이어의 노드로 입력되는 과정에서, 연결 가중치가 적용될 수 있다. 다음 레이어의 노드는 활성화 모델에 기초하여 입력 값에 대응하는 출력 값을 해당 노드와 연결된 그 다음 레이어의 노드로 출력할 수 있다.The artificial neural network may include an input layer, a hidden layer, and an output layer. Each layer includes a plurality of nodes, and nodes between adjacent layers can be connected to each other with connection weights. Each node may operate based on an activation model. The output value corresponding to the input value can be determined according to the activation model. The output value of an arbitrary node can be input to the node of the next layer connected to that node. A node of the next layer can receive values output from a plurality of nodes. In the process of inputting the output value of an arbitrary node to the node of the next layer, a connection weight can be applied. The node of the next layer can output the output value corresponding to the input value to the node of the next layer connected to the node based on the activation model.
출력 레이어는 원거리 이미지 객체의 깊이에 대응하는 노드들을 포함할 수 있다. 출력 레이어의 노드들은 원거리 이미지 객체의 깊이에 대응하는 특징 값들을 출력할 수 있다.The output layer may include nodes corresponding to the depth of the distant image object. The nodes of the output layer can output characteristic values corresponding to the depth of the distant image object.
인식기(150-1)는 인공 신경망에서 출력되는 특징 값들에 기초하여 재발 부위를 예측(또는 재발 부위 이미지를 생성)할 수 있다. 컨트롤러(130)는 실제 재발 부위를 알고 있으므로, 인식기(150-1)를 통해 출력(생성)된 재발 부위 이미지와 실제 재발 부위의 차이를 계산할 수 있다.The recognizer 150-1 can predict the recurrence site (or generate the recurrence site image) based on the feature values output from the artificial neural network. Since the
이에, 컨트롤러(130)는 역 전파(back propagation) 기법을 이용하여 차이가 감소되도록 인식기(150-1)를 업데이트할 수 있다. 예를 들어, 컨트롤러(130)는 인식기(150-1) 내 인공 신경망의 출력 레이어로부터 히든 레이어를 거쳐 입력 레이어로 향하는 역 방향으로 차이를 전파시킬 수 있다. 차이가 역 방향으로 전파되는 과정에서, 차이가 감소되도록 노드들 사이의 연결 가중치들이 업데이트될 수 있다. 이처럼, 컨트롤러(130)는 차이를 고려하여 인식기(150-1)를 학습시킬 수 있다. 상술한 학습 동작은 차이가 미리 정해진 임계 값 미만이 될 때까지 반복적으로 수행될 수 있다.Accordingly, the
재발 부위 이미지를 생성하는 인공 신경망을 업데이트 하기 위하여, 컨트롤러(130)는 역 전파 기법에 표 3과 같은 파라미터(parameter)를 사용할 수 있다.In order to update the artificial neural network that generates the recurrent site image, the
이때, Epoch가 10 증가할 때마다 Learning rate는 5%씩 감소할 수 있다. 즉, Epoch가 1~10일 때 Learning rate는 0.0015이고, Epoch가 11~20일 때 Learning rate는 0.0015*0.95이고, Epoch가 21~30일 때 Learning rate는 0.0015*0.952이고, Epoch가 191~200일 때 Learning rate는 0.0015*0.9519일 수 있다.At this time, the learning rate can be reduced by 5% every time the Epoch increases by 10. The learning rate is 0.0015 * 0.95 when Epoch is 1 ~ 10, the learning rate is 0.0015 * 0.95 when Epoch is 11 ~ 20, the learning rate is 0.0015 * 0.95 2 when Epoch is 21 ~ 30, At 200, the learning rate may be 0.0015 * 0.95 19 .
컨트롤러(130)는 인식기(150-1)를 통해 출력(생성)된 재발 부위 이미지와 실제 재발 부위 이미지의 차이가 최소화되도록 인식기(150-1)를 학습시킬 수 있다.The
도 4b를 참조하면, 인식기(150-1)는 복수의 슬라이스 이미지를 수신할 수 있다. 예를 들어, 복수의 슬라이스 이미지는 [240 x 240]의 사이즈를 갖고, 6 채널(6 ch)로 구성된 T1 이미지, T1CE 이미지, T2 이미지, FLAIR 이미지, ADC 이미지, Segmentation 이미지를 포함할 수 있다. 인식기(150-1)는 복수의 슬라이스 이미지에 기초하여 재발 부위를 추정(또는 재발 부위 이미지를 생성)할 수 있다.Referring to FIG. 4B, the recognizer 150-1 may receive a plurality of slice images. For example, a plurality of slice images may have a size of [240 x 240], and may include a T1 image, a T1CE image, a T2 image, a FLAIR image, an ADC image, and a segmentation image composed of 6 channels (6 channels). The recognizer 150-1 can estimate a recurrence site (or generate a recurrence site image) based on a plurality of slice images.
복수의 슬라이스 이미지의 좌측의 숫자 값은 [x x y]의 사이즈를 의미하고, 상단의 숫자 값은 채널의 개수를 의미할 수 있다. 인식기(150-1)는 아래 단계(레이어)로 진행할수록 이미지의 수축(contraction)이 일어나고, 무엇(what)에 대한 관심부위 이미지와의 추상화된 유의미한 핵심정보를 출력할 수 있다. 인식기(150-1)는 윗 단계(레이어)로 진행할수록 이미지의 확장(expansion)이 일어나고, 무엇(what)이 어디에(where) 있는지 정밀하게 고해상도(high-resolution) 이미지를 출력할 수 있다.The numerical value on the left side of the plurality of slice images means the size of [ x x y ], and the numerical value on the upper side can mean the number of channels. The recognizer 150-1 can perform contraction of the image as it goes down to the next layer and output abstract meaningful core information to the region of interest for what. The recognizer 150-1 can expand the image as it goes to the upper level (layer), and can output a high-resolution image precisely where and what.
인식기(150-1) 내에서의 서로 다른 동작(operation)은 다른 종류의 화살표로 표현되었다. 예를 들어, 인식기(150-1)는 [3 x 3]에 기초한 컨볼루션(convolution), 복사(copy), [2 x 2]에 기초한 맥스 풀링(max pooling), 및 [2 x 2]에 기초한 업 컨볼루션(up-convolution) 중 적어도 하나의 동작을 수행할 수 있다.Different operations within the recognizer 150-1 are represented by different kinds of arrows. For example, the recognizer 150-1 may perform convolution based on [3 x 3], copy, max pooling based on [2 x 2], and [2 x 2] And up-convolution based on the received signal.
도 5는 일 실시예에 따른 PET 이미지 생성 학습 장치의 블록도의 일 예를 나타낸다.5 shows an example of a block diagram of a PET image generation learning apparatus according to an embodiment.
도 5를 참조하면, PET 이미지 생성 학습 장치(300)는 전처리기(310) 및 컨트롤러(330)를 포함한다.Referring to FIG. 5, the PET image
도 5에 도시된 전처리기(330) 및 컨트롤러(330)는 도 1에 도시된 전처리기(110) 및 컨트롤러(130)와 구성이 실질적으로 동일할 수 있다.The
PET 이미지 생성 학습 장치(300)는 T1 MR 이미지로부터 PET 이미지 생성을 위한 인식기를 학습시킬 수 있다. PET 이미지 생성 학습 장치(300)는 사용하는 트레이서(tracer)에 따라 상이한 타입의 PET 이미지를 생성할 수 있다. PET 이미지는 PET 이미지 생성 학습 장치(300)가 생성하는 모든 타입의 PET 이미지 중 하나의 타입일 수 있다. 예를 들어, PET 이미지는 tau-PET 이미지, AV45-PET 이미지 등일 수 있다. T1 MR 이미지는 인식기를 학습시키는 트레이닝 데이터일 수 있다. T1 MR 이미지는 자기 공명 영상(MRI) 장치로부터 획득한 뇌(예를 들어, 인간의 뇌) 부분 이미지일 수 있다.The PET image
인식기로 입력되는 트레이닝 데이터는 T1 MR 이미지 및 PET 이미지일 수 있다. 트레이닝 데이터의 특성은 표 5와 같을 수 있다.The training data input to the recognizer may be a T1 MR image and a PET image. The characteristics of the training data can be as shown in Table 5.
전처리기(310)는 T1 MR 이미지 및 PET 이미지에 전처리를 수행할 수 있다.The
전처리기(310)는 PET 이미지를 T1 이미지를 기준으로 정합(co-registration)하는 동작, T1 MR 이미지 및 PET 이미지의 차원(dimension, 또는 사이즈)을 확인하는 동작, 3D 이미지에 대한 슬라이스 이미지를 생성하는 동작, 3D 이미지에서 축(axial) 방향으로 슬라이스를 추출하는 동작, 및 입력을 위하여 슬라이스(slice) 이미지를 최종적으로 정리하는 동작 중 적어도 하나의 동작을 수행할 수 있다.The
전처리기(310)가 PET 이미지를 T1 MR 이미지를 기준으로 정합하는 경우, PET 이미지를 T1 MR 이미지의 사이즈 [x 1 x y 1 x z 1]와 같게 정합할 수 있다. 정합된 PET 이미지 및 T1 MR 이미지로부터 global SUVR 값(gSUVR)을 추출하고, 부위별로 평균 SUVR 값(lSUVR i )을 추출할 수 있다. 이때, i는 1부터 N까지의 임의의 수이다. 또한 추출하는 부위는 기존에 정의된 영역(Desikan-Killiany Atlas, Destrieux Atlas , Automated Anatomical Labeling)이 될 수도 있으며, 본 작업을 수행하는 자에 의에 임의로 정의된 영역을 일컫는다.If the
전처리기(310)는 global SUVR 값(gSUVR) 및 평균 SUVR 값(lSUVR i )을 사용하여 각 부위에 해당하는 픽셀에 값을 매핑할 수 있다. 예를 들어, 전처리기(310)는 gSUVR > lSUVR i 를 통해 각 부위에 해당하는 픽셀에 참(1) 또는 거짓(0)의 값을 매핑할 수 있다. 이에, 전처리기(310)는 데이터 타입이 bool 타입인 PET 이미지를 생성할 수 있다.The
전처리기(310)는 PET 이미지를 T1 MR 이미지의 차원(또는 사이즈)이 [x 1 x y 1 x z 1]인지 확인할 수 있다. 차원이 맞지 않는 경우, 전처리기(310)는 차원을 맞추는 동작을 수행할 수 잇다.
전처리기(310)가 3D 이미지에 대한 슬라이스 이미지를 생성하는 경우, brain skull stripping을 수행하여 skull stripping 이미지를 생성하고, 이 이미지를 기반으로 3D 이미지를 [240 x 240 x 240] volume 이미지의 정 가운데(center)에 배치하여 생성 할 수 있다. 이때, 전처리기(310)는 brain extraction tool을 사용하여 brain skull stripping을 수행할 수 있다. 생성된 skull stripping 이미지는 brain mask 이미지이고, 사이즈가 [240 x 240 x 240]이고, 데이터 타입이 bool 타입일 수 있다.When the
전처리기(310)는 3D 이미지에서 축(axial) 방향으로 슬라이스를 추출할 수 있다. 예를 들어, 전처리기(310)는 brain mask 이미지를 사용하여 skull stripping한 이미지를 추출할 수 있다. 전처리기(310)는 brain mask 이미지에서 픽셀의 값이 0인 부분(뇌가 아닌 부분)에 대해서 -1로 픽셀 값을 매핑하고, 픽셀의 값이 1인 부분(뇌인 부분)에 대해서는 각각의 픽셀을 정규화(normalization)을 수행할 수 있다. 즉, 전처리기(310)는 brain mask 이미지에서 픽셀의 값이 1인 픽셀의 평균(mean)으로 빼고 표준 편차(standard deviation)로 나눠줄 수 있다. 전처리기(310)는 추출할 슬라이스 이미지의 brain mask 슬라이스 이미지에서 픽셀의 값이 전부 0인 경우, 추출을 진행하지 않을 수 있다. 전처리기(310)가 추출한 슬라이스는 T1 MR 이미지의 경우 사이즈가 [240 x 240 x 1 x k]이고, 데이터 타입이 float 타입이고, PET 이미지의 경우 사이즈가 [240 x 240 x 1 x k]이고, 데이터 타입이 bool 타입일 수 있다.The
전처리기(310)는 슬라이스 이미지를 인식기의 입력 노드(input node)에 입력하기 위하여 최종적으로 정리하는 경우, 각각의 슬라이스 이미지의 모달리티(modality)가 채널 형태로 구성될 수 있다. 즉, 전처리기(310)는 슬라이스 이미지의 사이즈를 [240 x 240 x 1 x k]로 하고, 데이터 타입을 float 타입으로 설정할 수 있다.When the
전처리기(310)는 인식기의 출력 노드(output node)에서 PET 이미지 생성의 역 전파(back propagation) 기법과 관련된 손실(loss) 계산을 위한 이미지의 사이즈를 [240 x 240 x 1 x k]로 하고, 데이터 타입을 bool 타입으로 설정할 수 있다.The
전처리기(310)는 모든 환자에 대하여 슬라이스 이미지를 최종적으로 정리할 수 있다. 예를 들어, 전처리기(310)는 인식기의 입력 노드에 입력하는 슬라이스 이미지의 사이즈를 [240 x 240 x 1] x k 슬라이스 x 환자 수로 하고, 데이터 타입을 float 타입으로 설정할 수 있다. 전처리기(310)는 인식기의 출력 노드에서 PET 이미지 생성의 역 전파 기법과 관련된 손실 계산을 위한 이미지의 사이즈를 [240 x 240 x 1] x k 슬라이스 x 환자 수로 하고, 데이터 타입을 bool 타입으로 설정할 수 있다.The
전처리기(310)는 모듈로 구현될 수 있다. 모듈은 전처리기(310)의 기능과 동작을 수행할 수 있는 하드웨어를 의미할 수도 있고, 특정 기능과 동작을 수행할 수 있는 프로그램 코드를 의미할 수도 있고, 또는 특정 기능과 동작을 수행시킬 수 있는 컴퓨터 프로그램 코드가 탑재된 전자적 기록 매체, 예를 들어 프로세서 또는 마이크로 프로세서를 의미할 수 있다. 다시 말해, 모듈이란 전처리기(310)의 동작을 수행하기 위한 하드웨어 및/또는 하드웨어를 구동하기 위한 소프트웨어의 기능적 및/또는 구조적 결합을 의미할 수 있다.The
컨트롤러(330)는 전처리된 T1 MR 이미지에 기초하여 PET 이미지를 생성할 수 있다. 컨트롤러(330)는 T1 MR 이미지 및 PET 이미지를 분석하여 T1 MR 이미지 및 PET 이미지 사이의 상관 관계를 획득할 수 있다. 컨트롤러(330)는 T1 MR 이미지 및 PET 이미지 사이의 상관 관계에 기초하여 PET 이미지를 생성하도록 인식기를 학습시킬 수 있다. 인식기의 학습 방법에 대해서는 도 6a 및 도 6b를 참조하여 상세히 설명한다.The
도 6a는 일 실시예에 따른 PET 이미지를 생성하기 위한 학습을 설명하기 위한 도면이고, 도 6b는 도 6a에 도시된 인식기의 구조도의 일 예를 나타낸다.FIG. 6A is a diagram for explaining learning for generating a PET image according to an embodiment, and FIG. 6B shows an example of the structure of the recognizer shown in FIG. 6A.
도 6a를 참조하면, 컨트롤러(330)는 T1 MR 이미지 및 PET 이미지 사이의 상관 관계를 인식기(150-2)에 입력할 수 있다.Referring to FIG. 6A, the
도 6a에 도시된 컨트롤러(330)는 도 5에 도시된 컨트롤러(330)와 구성 및 동작이 실질적으로 동일하고, 인식기(150-2)는 도 4a에 도시된 인식기(150-1)와 구성이 실질적으로 동일할 수 있다.The
인식기(150-2)는 T1 MR 이미지에 기초하여 PET 이미지를을 생성할 수 있다. 인식기(150-2)는 CNN으로 구현될 수 있다. CNN은 복수의 입력 값에 기초하여 단일의 출력 값을 생성하는 다중 입력-단일 출력 구조를 가질 수 있다. CNN은 무수히 많은 T1 MR 이미지 및 PET 이미지에 기초하여 기 학습이 되어있을 수 있다. 인식기(150-2)는 컨볼루션 레이어(convolution layer), 풀링 레이어(pooling layer), 언풀링 레이어(un-pooling player), 완전 연결 레이어(full connected layer), 또는 이들의 다양한 조합에 기초하여 출력 값을 생성할 수 있다. 즉, 인식기(150-2)는 인공 신경망(artificial network)으로 구성될 수 있다.The recognizer 150-2 may generate a PET image based on the T1 MR image. The recognizer 150-2 may be implemented as a CNN. CNN may have a multiple input-single output structure that generates a single output value based on a plurality of input values. CNN may be based on a myriad of T1 MR images and PET images. The recognizer 150-2 may output the output based on a convolution layer, a pooling layer, an un-pooling player, a full connected layer, or various combinations thereof. Value can be generated. That is, the recognizer 150-2 may be configured as an artificial network.
인식기(150-2)는 인공 신경망에서 출력되는 특징 값들에 기초하여 PET 이미지를 생성할 수 있다. 컨트롤러(330)는 실제 PET 이미지를 알고 있으므로, 인식기(150-2)를 통해 출력(생성)된 PET 이미지와 실제 PET 이미지의 차이를 계산할 수 있다.The recognizer 150-2 can generate the PET image based on the feature values output from the artificial neural network. Since the
이에, 컨트롤러(330)는 역 전파(back propagation) 기법을 이용하여 차이가 감소되도록 인식기(150-2)를 업데이트할 수 있다. 예를 들어, 컨트롤러(330)는 인식기(150-2) 내 인공 신경망의 출력 레이어로부터 히든 레이어를 거쳐 입력 레이어로 향하는 역 방향으로 차이를 전파시킬 수 있다. 차이가 역 방향으로 전파되는 과정에서, 차이가 감소되도록 노드들 사이의 연결 가중치들이 업데이트될 수 있다. 이처럼, 컨트롤러(330)는 차이를 고려하여 인식기(150-2)를 학습시킬 수 있다. 상술한 학습 동작은 차이가 미리 정해진 임계 값 미만이 될 때까지 반복적으로 수행될 수 있다.Accordingly, the
PET 이미지를 생성하는 인공 신경망을 업데이트 하기 위하여, 컨트롤러(330)는 역 전파 기법에 표 4와 같은 파라미터를 사용할 수 있다.In order to update the artificial neural network that produces the PET image, the
컨트롤러(330)는 인식기(150-2)를 통해 출력(생성)된 PET 이미지와 실제 PET 이미지의 차이가 최소화되도록 인식기(150-2)를 학습시킬 수 있다.The
도 6b를 참조하면, 인식기(150-2)는 T1 MR 이미지를 수신할 수 있다. T1 MR 이미지는 [128 x 128] 사이즈이고, 1 채널로 구성될 수 있다. 인식기(150-2)는 T1 MR 이미지에 기초하여 PET 이미지를 생성할 수 있다.Referring to FIG. 6B, the recognizer 150-2 may receive a T1 MR image. The T1 MR image is [128 x 128] in size and can consist of one channel. The recognizer 150-2 may generate a PET image based on the T1 MR image.
복수의 슬라이스 이미지의 좌측의 숫자 값은 [x x y]의 사이즈를 의미하고, 상단의 숫자 값은 채널의 개수를 의미할 수 있다. 인식기(150-2)는 아래 단계(레이어)로 진행할수록 이미지의 수축(contraction)이 일어나고, 무엇(what)에 대한 관심부위 이미지와의 추상화된 유의미한 핵심정보를 출력할 수 있다. 인식기(150-2)는 윗 단계(레이어)로 진행할수록 이미지의 확장(expansion)이 일어나고, 무엇(what)이 어디에(where) 있는지 정밀하게 고해상도(high-resolution) 이미지를 출력할 수 있다.The numerical value on the left side of the plurality of slice images means the size of [ x x y ], and the numerical value on the upper side can mean the number of channels. As the recognizer 150-2 proceeds to the lower level (layer), the contraction of the image occurs and the abstracted meaningful core information of the region of interest with respect to what can be output. The recognizer 150-2 can expand the image as it goes to the upper level (layer), and can output a high-resolution image precisely where and what.
인식기(150-2) 내에서의 서로 다른 동작(operation)은 다른 종류의 화살표로 표현되었다. 예를 들어, 인식기(150-2)는 [3 x 3]에 기초한 컨볼루션(convolution), 복사(copy), [2 x 2]에 기초한 맥스 풀링(max pooling), 및 [2 x 2]에 기초한 업 컨볼루션(up-convolution) 중 적어도 하나의 동작을 수행할 수 있다.Different operations within the recognizer 150-2 are represented by different kinds of arrows. For example, the recognizer 150-2 may perform convolution based on [3 x 3], copy, max pooling based on [2 x 2], and [2 x 2] And up-convolution based on the received signal.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 컨트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 컨트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components. For example, the apparatus and components described in the embodiments may be implemented within a computer system, such as, for example, a processor, controller, arithmetic logic unit (ALU), digital signal processor, microcomputer, field programmable gate array (FPGA) , A programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For ease of understanding, the processing apparatus may be described as being used singly, but those skilled in the art will recognize that the processing apparatus may have a plurality of processing elements and / As shown in FIG. For example, the processing apparatus may comprise a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as a parallel processor.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the foregoing, and may be configured to configure the processing device to operate as desired or to process it collectively or collectively Device can be commanded. The software and / or data may be in the form of any type of machine, component, physical device, virtual equipment, computer storage media, or device , Or may be permanently or temporarily embodied in a transmitted signal wave. The software may be distributed over a networked computer system and stored or executed in a distributed manner. The software and data may be stored on one or more computer readable recording media.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.
Claims (22)
전처리된 복수의 이미지에 기초하여 재발 부위를 예측하는 단계
를 포함하고,
상기 복수의 이미지는 T1(T1-weighted) 이미지, T1CE(Contrast-enhanced T1-weight) 이미지, T2(T2-weighted) 이미지, FLAIR(Fluid Attenuated Inversion Recovery) 이미지, ADC(Apparent Diffusion Coefficient) 이미지, 및 Segmentation 이미지 중 적어도 하나를 포함하는 멀티모달(multimodal) MR 이미지인 재발 부위 예측 방법.
Performing preprocessing on a plurality of images; And
Predicting a recurrence site based on a plurality of preprocessed images
Lt; / RTI >
The plurality of images may include a T1-weighted image, a Contrast-enhanced T1-weighted image, a T2-weighted image, a Fluid Attenuated Inversion Recovery (FLAIR) image, an ADC (Apparent Diffusion Coefficient) Segmentation image that is a multimodal MR image comprising at least one of a segmentation image and a segmentation image.
상기 복수의 이미지는 자기 공명 영상(Magnetic Resonance Imaging(MRI)) 장치로부터 획득된 재발 부위 예측 방법.
The method according to claim 1,
Wherein the plurality of images are obtained from a magnetic resonance imaging (MRI) apparatus.
상기 예측하는 단계는,
기 학습된 인식기에 상기 전처리된 복수의 이미지를 입력하는 단계; 및
상기 기 학습된 인식기가 상기 재발 부위를 예측하는 단계
를 포함하는 재발 부위 예측 방법.
The method according to claim 1,
Wherein the predicting comprises:
Inputting the preprocessed plurality of images to the learned recognizer; And
Wherein the recognizer recognizes the recurrence site
Of the recurrence site.
예측된 상기 재발 부위와 실제 재발 부위의 차이가 최소화되도록 상기 기 학습된 인식기를 학습시키는 단계
를 더 포함하는 재발 부위 예측 방법.
The method of claim 3,
Learning the learned recognizer so that the difference between the predicted recurrence site and the actual recurrence site is minimized
Wherein the recurrence site predicting method further comprises:
상기 전처리를 수행하는 단계는,
상기 T1CE 이미지, 상기 T2 이미지, 상기 FLAIR 이미지, 및 상기 ADC 이미지를 상기 T1 이미지에 기초하여 정합하는 단계
를 포함하는 재발 부위 예측 방법.
The method according to claim 1,
The step of performing the pre-
Matching the T1CE image, the T2 image, the FLAIR image, and the ADC image based on the T1 image
Of the recurrence site.
상기 전처리를 수행하는 단계는,
상기 복수의 이미지에 brain skull stripping을 수행하는 단계
를 포함하는 재발 부위 예측 방법.
The method according to claim 1,
The step of performing the pre-
Performing brain skull stripping on the plurality of images
Of the recurrence site.
전처리된 복수의 이미지에 기초하여 재발 부위를 예측하는 컨트롤러
를 포함하고,
상기 복수의 이미지는 T1(T1-weighted) 이미지, T1CE(Contrast-enhanced T1-weight) 이미지, T2(T2-weighted) 이미지, FLAIR(Fluid Attenuated Inversion Recovery) 이미지, ADC(Apparent Diffusion Coefficient) 이미지, 및 Segmentation 이미지 중 적어도 하나를 포함하는 멀티모달(multimodal) MR 이미지인 재발 부위 예측 장치.
A preprocessor for performing preprocessing on a plurality of images; And
A controller for predicting a recurrence site based on a plurality of preprocessed images
Lt; / RTI >
The plurality of images may include a T1-weighted image, a Contrast-enhanced T1-weighted image, a T2-weighted image, a Fluid Attenuated Inversion Recovery (FLAIR) image, an ADC (Apparent Diffusion Coefficient) Segmentation image, wherein the MR image is a multimodal MR image comprising at least one of the segmentation images.
상기 복수의 이미지는 자기 공명 영상(Magnetic Resonance Imaging(MRI)) 장치로부터 획득된 재발 부위 예측 장치.
8. The method of claim 7,
Wherein the plurality of images are obtained from a magnetic resonance imaging (MRI) apparatus.
상기 전처리된 복수의 이미지를 수신하여 상기 재발 부위를 예측하는 기 학습된 인식기
를 더 포함하고,
상기 컨트롤러는,
상기 기 학습된 인식기에 상기 전처리된 복수의 이미지를 입력하는 재발 부위 예측 장치.
8. The method of claim 7,
A plurality of pre-processed images are received,
Further comprising:
The controller comprising:
And inputs the pre-processed plurality of images to the pre-learned recognizer.
상기 컨트롤러는,
예측된 상기 재발 부위와 실제 재발 부위의 차이가 최소화되도록 상기 기 학습된 인식기를 학습시키는
재발 부위 예측 장치.
10. The method of claim 9,
The controller comprising:
Learning the learned recognizer so that the difference between the predicted recurrence site and the actual recurrence site is minimized
Recurrence site prediction device.
상기 전처리기는,
상기 T1CE 이미지, 상기 T2 이미지, 상기 FLAIR 이미지, 및 상기 ADC 이미지를 상기 T1 이미지에 기초하여 정합하는
재발 부위 예측 장치.
8. The method of claim 7,
The pre-
The T1CE image, the T2 image, the FLAIR image, and the ADC image based on the T1 image
Recurrence site prediction device.
상기 전처리기는,
상기 복수의 이미지에 brain skull stripping을 수행하는
재발 부위 예측 장치.
8. The method of claim 7,
The pre-
Performing brain skull stripping on the plurality of images
Recurrence site prediction device.
전처리된 T1 MR 이미지를 기 학습된 인식기에 입력하는 단계; 및
상기 기 학습된 인식기가 PET(positron Emission Tomography) 이미지를 생성하는 단계
를 포함하는 PET 이미지 생성 방법.
Performing a pre-processing on a T1 (T1-weighted) MR image;
Inputting a preprocessed T1 MR image to a pre-learned recognizer; And
The step of generating the positron emission tomography (PET) image by the learned recognizer
/ RTI >
상기 T1 MR 이미지는 자기 공명 영상(MRI) 장치로부터 획득된 PET 이미지 생성 방법.
14. The method of claim 13,
Wherein the T1 MR image is obtained from a magnetic resonance imaging (MRI) device.
상기 수행하는 단계는,
상기 T1 MR 이미지에 brain skull stripping을 수행하는 단계
를 포함하는 PET 이미지 생성 방법.
14. The method of claim 13,
Wherein the performing comprises:
Performing brain skull stripping on the T1 MR image
/ RTI >
생성된 PET 이미지와 실제 PET 이미지의 차이가 최소화되도록 상기 기 학습된 인식기를 학습시키는 단계
를 더 포함하는 PET 이미지 생성 방법.
14. The method of claim 13,
Learning the learned recognizer so that the difference between the generated PET image and the actual PET image is minimized
Further comprising the steps of:
상기 학습시키는 단계는,
상기 생성된 PET 이미지와 상기 실제 PET 이미지를 매칭하는 단계
를 포함하는 PET 이미지 생성 방법.
17. The method of claim 16,
Wherein the learning step comprises:
Matching the generated PET image with the actual PET image
/ RTI >
전처리된 T1 MR 이미지를 기 학습된 인식기에 입력하는 컨트롤러; 및
상기 전처리된 T1 MR 이미지에 기초하여 PET 이미지를 생성하는 기 학습된 인식기
를 포함하는 PET 이미지 생성 장치.
A preprocessor for pre-processing the T1 MR image;
A controller for inputting the preprocessed T1 MR image to a pre-learned recognizer; And
A processor for generating a PET image based on the preprocessed T1 MR image,
And a PET image generating device.
상기 T1 MR 이미지는 자기 공명 영상(MRI) 장치로부터 획득된 PET 이미지 생성 장치.
19. The method of claim 18,
Wherein the T1 MR image is obtained from a magnetic resonance imaging (MRI) device.
상기 전처리기는,
상기 T1 MR 이미지에 brain skull stripping을 수행하는
PET 이미지 생성 장치.
19. The method of claim 18,
The pre-
And performing brain skull stripping on the T1 MR image
PET imaging device.
상기 컨트롤러는,
생성된 PET 이미지와 실제 PET 이미지의 차이가 최소화되도록 상기 기 학습된 인식기를 학습시키는
PET 이미지 생성 장치.
19. The method of claim 18,
The controller comprising:
The learned recognizer is learned so that the difference between the generated PET image and the actual PET image is minimized
PET imaging device.
상기 컨트롤러는,
상기 생성된 PET 이미지와 상기 실제 PET 이미지를 매칭하는
PET 이미지 생성 장치.22. The method of claim 21,
The controller comprising:
And comparing the generated PET image with the actual PET image
PET imaging device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170023876A KR101917947B1 (en) | 2017-02-23 | 2017-02-23 | Method of predicting recurrence region and generating pet image using deep learning, and apparatus thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170023876A KR101917947B1 (en) | 2017-02-23 | 2017-02-23 | Method of predicting recurrence region and generating pet image using deep learning, and apparatus thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20180097214A true KR20180097214A (en) | 2018-08-31 |
KR101917947B1 KR101917947B1 (en) | 2018-11-12 |
Family
ID=63407680
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170023876A KR101917947B1 (en) | 2017-02-23 | 2017-02-23 | Method of predicting recurrence region and generating pet image using deep learning, and apparatus thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101917947B1 (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200056871A (en) * | 2018-11-15 | 2020-05-25 | 사회복지법인 삼성생명공익재단 | lesion area detection device, lesion area detection method, and computer program |
KR20200058268A (en) * | 2018-11-14 | 2020-05-27 | 주식회사 투아트 | Deep learning based image analysis method, system and mobile terminal |
KR20200061311A (en) | 2018-11-23 | 2020-06-02 | 가천대학교 산학협력단 | Apparatus and method for extractiing brain images of pet-mri multiple brain images |
JP6746160B1 (en) * | 2018-09-12 | 2020-08-26 | 株式会社Splink | Diagnostic support system and method |
KR20200108686A (en) * | 2019-03-11 | 2020-09-21 | 가천대학교 산학협력단 | Programs and applications for sarcopenia analysis using deep learning algorithms |
KR20210004562A (en) * | 2019-07-05 | 2021-01-13 | 넷마블 주식회사 | Method for saving and utilizing game data based on block chain network |
WO2022054711A1 (en) * | 2020-09-10 | 2022-03-17 | 株式会社Splink | Computer program, information processing device, terminal device, information processing method, learned model generation method, and image output device |
KR102456338B1 (en) * | 2021-08-03 | 2022-10-20 | 주식회사 뉴로젠 | Apparatus and method for predicting amyloid beta deposition |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102068279B1 (en) | 2019-10-04 | 2020-01-20 | 주식회사 루닛 | Method and System for analysing image |
KR102068277B1 (en) | 2019-10-04 | 2020-02-11 | 주식회사 루닛 | Method and System for analysing image |
KR102601738B1 (en) | 2019-10-04 | 2023-11-13 | 주식회사 루닛 | Method and System for analysing image |
WO2023163444A1 (en) * | 2022-02-25 | 2023-08-31 | 재단법인 아산사회복지재단 | Method and device for generating precise ndt brain image |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6148265B2 (en) * | 2015-02-04 | 2017-06-14 | エヌ・ティ・ティ・コムウェア株式会社 | Learning device, learning method, and program |
-
2017
- 2017-02-23 KR KR1020170023876A patent/KR101917947B1/en active IP Right Grant
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6746160B1 (en) * | 2018-09-12 | 2020-08-26 | 株式会社Splink | Diagnostic support system and method |
CN112702947A (en) * | 2018-09-12 | 2021-04-23 | 株式会社Splink | Diagnosis support system and method |
US11978557B2 (en) | 2018-09-12 | 2024-05-07 | Splink, Inc. | Diagnosis support system and method |
KR20200058268A (en) * | 2018-11-14 | 2020-05-27 | 주식회사 투아트 | Deep learning based image analysis method, system and mobile terminal |
KR20200056871A (en) * | 2018-11-15 | 2020-05-25 | 사회복지법인 삼성생명공익재단 | lesion area detection device, lesion area detection method, and computer program |
KR20200061311A (en) | 2018-11-23 | 2020-06-02 | 가천대학교 산학협력단 | Apparatus and method for extractiing brain images of pet-mri multiple brain images |
KR20200108686A (en) * | 2019-03-11 | 2020-09-21 | 가천대학교 산학협력단 | Programs and applications for sarcopenia analysis using deep learning algorithms |
KR20210004562A (en) * | 2019-07-05 | 2021-01-13 | 넷마블 주식회사 | Method for saving and utilizing game data based on block chain network |
WO2022054711A1 (en) * | 2020-09-10 | 2022-03-17 | 株式会社Splink | Computer program, information processing device, terminal device, information processing method, learned model generation method, and image output device |
KR102456338B1 (en) * | 2021-08-03 | 2022-10-20 | 주식회사 뉴로젠 | Apparatus and method for predicting amyloid beta deposition |
WO2023013959A1 (en) * | 2021-08-03 | 2023-02-09 | 주식회사 뉴로젠 | Apparatus and method for predicting amyloid beta accumulation |
Also Published As
Publication number | Publication date |
---|---|
KR101917947B1 (en) | 2018-11-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101917947B1 (en) | Method of predicting recurrence region and generating pet image using deep learning, and apparatus thereof | |
KR101854071B1 (en) | Method of generating image of interest region using deep learning and apparatus thereof | |
US9141763B2 (en) | Method and system for patient-specific computational modeling and simulation for coupled hemodynamic analysis of cerebral vessels | |
WO2022001623A1 (en) | Image processing method and apparatus based on artificial intelligence, and device and storage medium | |
CN108629736A (en) | System and method for designing super-resolution depth convolutional neural networks | |
WO2015180397A1 (en) | Method and device for recognizing data category based on deep neural network | |
US9280819B2 (en) | Image segmentation techniques | |
Duan et al. | The $ L_ {0} $ regularized Mumford–Shah model for bias correction and segmentation of medical images | |
US11144782B2 (en) | Generating video frames using neural networks | |
CN114283151A (en) | Image processing method, device, equipment and storage medium for medical image | |
WO2014120727A2 (en) | Method and apparatus for generating a derived image using images of different types | |
CN111373439B (en) | Method for image segmentation using CNN | |
CN109522395A (en) | Automatic question-answering method and device | |
EP3555850A1 (en) | System and method for image segmentation using a joint deep learning model | |
KR102328198B1 (en) | Method and apparatus for measuring volume of organ using artificial neural network | |
CN107330935B (en) | Method and device for extracting central line of tubular target | |
CN111862261B (en) | FLAIR modal magnetic resonance image generation method and system | |
CN114187624A (en) | Image generation method, image generation device, electronic equipment and storage medium | |
CN113192175A (en) | Model training method and device, computer equipment and readable storage medium | |
Tang et al. | Multi-atlas brain parcellation using squeeze-and-excitation fully convolutional networks | |
Li et al. | Pancreas segmentation via spatial context based u-net and bidirectional lstm | |
CN114120454A (en) | Training method and device of living body detection model, electronic equipment and storage medium | |
CN115190999A (en) | Classifying data outside of a distribution using contrast loss | |
CN113554550B (en) | Training method and device for image processing model, electronic equipment and storage medium | |
US20210312634A1 (en) | Image reconstruction based on edge loss |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E90F | Notification of reason for final refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |