KR20180097214A - Method of predicting recurrence region and generating pet image using deep learning, and apparatus thereof - Google Patents

Method of predicting recurrence region and generating pet image using deep learning, and apparatus thereof Download PDF

Info

Publication number
KR20180097214A
KR20180097214A KR1020170023876A KR20170023876A KR20180097214A KR 20180097214 A KR20180097214 A KR 20180097214A KR 1020170023876 A KR1020170023876 A KR 1020170023876A KR 20170023876 A KR20170023876 A KR 20170023876A KR 20180097214 A KR20180097214 A KR 20180097214A
Authority
KR
South Korea
Prior art keywords
image
images
pet
recognizer
recurrence
Prior art date
Application number
KR1020170023876A
Other languages
Korean (ko)
Other versions
KR101917947B1 (en
Inventor
성준경
김정훈
Original Assignee
고려대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 고려대학교 산학협력단 filed Critical 고려대학교 산학협력단
Priority to KR1020170023876A priority Critical patent/KR101917947B1/en
Publication of KR20180097214A publication Critical patent/KR20180097214A/en
Application granted granted Critical
Publication of KR101917947B1 publication Critical patent/KR101917947B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/037Emission tomography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30016Brain
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Public Health (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radiology & Medical Imaging (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Surgery (AREA)
  • Optics & Photonics (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Quality & Reliability (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Image Analysis (AREA)

Abstract

Disclosed are a method and an apparatus for predicting a recurrence area by using deep learning to generate a PET image. The method according to an embodiment of the present invention comprises the steps of performing preprocessing on a plurality of images and predicting a recurrence area based on a plurality of preprocessed images, wherein the plurality of images are multimodal MR images including at least one of a T1 image, a T1CE image, a T2 image, a FLAIR image, and an ADC image.

Description

딥러닝을 사용하여 재발 부위를 예측하고, PET 이미지를 생성하는 방법과 장치{METHOD OF PREDICTING RECURRENCE REGION AND GENERATING PET IMAGE USING DEEP LEARNING, AND APPARATUS THEREOF}TECHNICAL FIELD [0001] The present invention relates to a method and apparatus for predicting a recurrence site using deep learning,

아래 실시예들은 딥러닝을 사용하여 재발 부위를 예측하고, PET 이미지를 생성하는 방법과 장치에 관한 것이다.The following examples relate to methods and apparatus for predicting recurrence sites using deep running and generating PET images.

일반적으로 딥 러닝(Deep learning)은 여러 비선형 변환기법의 조합을 통해 높은 수준의 추상화를 시도하는 기계학습 알고리즘의 집합으로 정의되며, 큰 틀에서 사람의 사고방식을 컴퓨터에게 가르치는 기계학습의 한 분야이다.Deep learning is generally defined as a set of machine learning algorithms that try to achieve a high level of abstraction through a combination of several nonlinear transformation techniques and is one area of machine learning that teaches computers to people's minds in a large framework .

어떠한 데이터가 있을 때 이를 컴퓨터가 알아 들을 수 있는 형태(예를 들어 이미지의 경우는 픽셀정보를 열벡터로 표현하는 등)로 표현하고 이를 학습에 적용하기 위해 많은 연구가 진행되고 있으며, 이러한 노력의 결과로 deep neural networks, convolutional deep neural networks, deep believe networks와 같은 다양한 딥러닝 기법들이 컴퓨터비젼, 음성인식, 자연어처리, 음성/신호처리 등의 분야에 적용되어 최첨단의 결과들을 보여주고 있다.Many researches have been carried out to express some data in a form that can be understood by the computer (for example, in the case of images, pixel information is represented by a column vector) and applied to learning. As a result, various deep learning techniques such as deep neural networks, convolutional deep neural networks, and deep believe networks are applied to fields such as computer vision, speech recognition, natural language processing, and voice / signal processing.

실시예들은 뇌 종양이 발생한 환자의 멀티모달 MR 이미지로부터 뇌 종양 재발 부위를 예측하는 기술을 제공할 수 있다.Embodiments can provide a technique for predicting a brain tumor recurrence site from a multi-modal MR image of a patient suffering from a brain tumor.

또한, 실시예들은 멀티모달 MR 이미지로부터 PET 이미지를 생성하는 기술을 제공할 수 있다.Embodiments can also provide a technique for generating a PET image from a multi-modal MR image.

일 실시예에 따른 재발 부위 예측 방법은 복수의 이미지에 전처리를 수행하는 단계와, 전처리된 복수의 이미지에 기초하여 재발 부위를 예측하는 단계를 포함하고, 상기 복수의 이미지는 T1(T1-weighted) 이미지, T1CE(Contrast-enhanced T1-weight) 이미지, T2(T2-weighted) 이미지, FLAIR(Fluid Attenuated Inversion Recovery) 이미지, ADC(Apparent Diffusion Coefficient) 이미지, 및 Segmentation 이미지 중 적어도 하나를 포함하는 멀티모달(multimodal) MR 이미지이다.A method for predicting a recurrence site according to an exemplary embodiment includes performing a pre-processing on a plurality of images, and predicting a recurrence site based on a plurality of preprocessed images, wherein the plurality of images are T1- Modal (including at least one of an image, a Contrast-enhanced T1-weight (T1CE) image, a T2-weighted image, a Fluid Attenuated Inversion Recovery (FLAIR) image, an ADC (Apparent Diffusion Coefficient) multimodal MR images.

상기 복수의 이미지는 자기 공명 영상(Magnetic Resonance Imaging(MRI)) 장치로부터 획득될 수 있다.The plurality of images may be obtained from a magnetic resonance imaging (MRI) device.

상기 예측하는 단계는, 기 학습된 인식기에 상기 전처리된 복수의 이미지를 입력하는 단계와, 상기 기 학습된 인식기가 상기 재발 부위를 예측하는 단계를 포함할 수 있다.The predicting step may include inputting the plurality of pre-processed images to the previously learned recognizer, and predicting the recurrence site by the previously learned recognizer.

상기 방법은 예측된 상기 재발 부위와 실제 재발 부위의 차이가 최소화되도록 상기 기 학습된 인식기를 학습시키는 단계를 더 포함할 수 있다.The method may further include learning the learned recognizer so that the difference between the predicted recurrence site and the actual recurrence site is minimized.

상기 전처리를 수행하는 단계는, 상기 T1CE 이미지, 상기 T2 이미지, 상기 FLAIR 이미지, 및 상기 ADC 이미지를 상기 T1 이미지에 기초하여 정합하는 단계를 포함할 수 있다.Performing the preprocessing may include matching the T1CE image, the T2 image, the FLAIR image, and the ADC image based on the T1 image.

상기 전처리를 수행하는 단계는, 상기 복수의 이미지에 brain skull stripping을 수행하는 단계를 포함할 수 있다.The step of performing the preprocessing may include performing brain skull stripping on the plurality of images.

일 실시예에 따른 재발 부위 예측 장치는 복수의 이미지에 전처리를 수행하는 전처리기와, 전처리된 복수의 이미지에 기초하여 재발 부위를 예측하는 컨트롤러를 포함하고, 상기 복수의 이미지는 T1(T1-weighted) 이미지, T1CE(Contrast-enhanced T1-weight) 이미지, T2(T2-weighted) 이미지, FLAIR(Fluid Attenuated Inversion Recovery) 이미지, ADC(Apparent Diffusion Coefficient) 이미지, 및 Segmentation 이미지 중 적어도 하나를 포함하는 멀티모달(multimodal) MR 이미지이다.The apparatus for predicting a recurrence site according to an embodiment includes a preprocessor for pre-processing a plurality of images, and a controller for predicting a recurrence site based on a plurality of preprocessed images, wherein the plurality of images are T1- Modal (including at least one of an image, a Contrast-enhanced T1-weight (T1CE) image, a T2-weighted image, a Fluid Attenuated Inversion Recovery (FLAIR) image, an ADC (Apparent Diffusion Coefficient) multimodal MR images.

상기 복수의 이미지는 자기 공명 영상(Magnetic Resonance Imaging(MRI)) 장치로부터 획득될 수 있다.The plurality of images may be obtained from a magnetic resonance imaging (MRI) device.

상기 장치는 상기 전처리된 복수의 이미지를 수신하여 상기 재발 부위를 예측하는 기 학습된 인식기를 더 포함하고, 상기 컨트롤러는, 상기 기 학습된 인식기에 상기 전처리된 복수의 이미지를 입력할 수 있다.The apparatus further includes a learned recognizer that receives the plurality of preprocessed images and predicts the recurrence site, and the controller can input the plurality of preprocessed images to the learned recognizer.

상기 컨트롤러는, 예측된 상기 재발 부위와 실제 재발 부위의 차이가 최소화되도록 상기 기 학습된 인식기를 학습시킬 수 있다.The controller can learn the learned recognizer so that the difference between the predicted recurrence site and the actual recurrence site is minimized.

상기 전처리기는, 상기 T1CE 이미지, 상기 T2 이미지, 상기 FLAIR 이미지, 및 상기 ADC 이미지를 상기 T1 이미지에 기초하여 정합할 수 있다.The preprocessor may match the T1CE image, the T2 image, the FLAIR image, and the ADC image based on the T1 image.

상기 전처리기는, 상기 복수의 이미지에 brain skull stripping을 수행할 수 있다.The preprocessor may perform brain skull stripping on the plurality of images.

일 실시예에 따른 PET 이미지 생성 방법은 T1(T1-weighted) MR 이미지에 전처리를 수행하는 단계와, 전처리된 T1 MR 이미지를 기 학습된 인식기에 입력하는 단계와, 및 상기 기 학습된 인식기가 PET(positron Emission Tomography) 이미지를 생성하는 단계를 포함한다.A method of generating a PET image according to an exemplary embodiment includes performing a pre-processing on a T1 (T1-weighted) MR image, inputting a preprocessed T1 MR image to a pre-learned recognizer, (Positron Emission Tomography) image.

상기 T1 MR 이미지는 자기 공명 영상(MRI) 장치로부터 획득될 수 있다.The T1 MR image may be acquired from a magnetic resonance imaging (MRI) device.

상기 수행하는 단계는, 상기 T1 MR 이미지에 brain skull stripping을 수행하는 단계를 포함할 수 있다.The performing may comprise performing brain skull stripping on the T1 MR image.

상기 방법은 생성된 PET 이미지와 실제 PET 이미지의 차이가 최소화되도록 상기 기 학습된 인식기를 학습시키는 단계를 더 포함할 수 있다.The method may further include learning the learned recognizer so that the difference between the generated PET image and the actual PET image is minimized.

상기 학습시키는 단계는, 상기 생성된 PET 이미지와 상기 실제 PET 이미지를 매칭하는 단계를 포함할 수 있다.The step of learning may include matching the generated PET image with the actual PET image.

일 실시예에 따른 PET 이미지 생성 장치는 T1 MR 이미지에 전처리를 수행하는 전처리기와, 전처리된 T1 MR 이미지를 기 학습된 인식기에 입력하는 컨트롤러와, 상기 전처리된 T1 MR 이미지에 기초하여 PET 이미지를 생성하는 기 학습된 인식기를 포함한다.The apparatus includes a preprocessor for pre-processing a T1 MR image, a controller for inputting the preprocessed T1 MR image to a pre-learned recognizer, and a PET image generator for generating a PET image based on the preprocessed T1 MR image And the learned recognizer.

상기 T1 MR 이미지는 자기 공명 영상(MRI) 장치로부터 획득될 수 있다.The T1 MR image may be acquired from a magnetic resonance imaging (MRI) device.

상기 전처리기는, 상기 T1 MR 이미지에 brain skull stripping을 수행할 수 있다.The preprocessor may perform brain skull stripping on the T1 MR image.

상기 컨트롤러는, 생성된 PET 이미지와 실제 PET 이미지의 차이가 최소화되도록 상기 기 학습된 인식기를 학습시킬 수 있다.The controller can learn the learned recognizer so that the difference between the generated PET image and the actual PET image is minimized.

상기 컨트롤러는, 상기 생성된 PET 이미지와 상기 실제 PET 이미지를 매칭할 수 있다.The controller may match the generated PET image with the actual PET image.

도 1은 일 실시예에 따른 재발 부위 학습 장치의 블록도의 일 예를 나타낸다.
도 2는 도 1에 도시된 전처리기의 동작의 일 예를 설명하기 위한 도면이다.
도 3은 도 1에 도시된 전처리기의 동작의 다른 예를 설명하기 위한 도면이다.
도 4a는 일 실시예에 따른 재발 부위를 예측하기 위한 학습을 설명하기 위한 도면이다.
도 4b는 도 4a에 도시된 인식기의 구조도의 일 예를 나타낸다.
도 5는 일 실시예에 따른 PET 이미지 생성 학습 장치의 블록도의 일 예를 나타낸다.
도 6a는 일 실시예에 따른 PET 이미지를 생성하기 위한 학습을 설명하기 위한 도면이다.
도 6b는 도 6a에 도시된 인식기의 구조도의 일 예를 나타낸다.
FIG. 1 shows an example of a block diagram of a recurrence site learning apparatus according to an embodiment.
FIG. 2 is a view for explaining an example of the operation of the preprocessor shown in FIG. 1. FIG.
FIG. 3 is a diagram for explaining another example of the operation of the preprocessor shown in FIG. 1. FIG.
4A is a diagram for explaining learning for predicting a recurrence site according to an embodiment.
Fig. 4B shows an example of the structure of the recognizer shown in Fig. 4A.
5 shows an example of a block diagram of a PET image generation learning apparatus according to an embodiment.
6A is a diagram for explaining learning for generating a PET image according to an embodiment.
6B shows an example of the structure of the recognizer shown in FIG. 6A.

본 명세서에 개시되어 있는 본 발명의 개념에 따른 실시예들에 대해서 특정한 구조적 또는 기능적 설명들은 단지 본 발명의 개념에 따른 실시예들을 설명하기 위한 목적으로 예시된 것으로서, 본 발명의 개념에 따른 실시예들은 다양한 형태로 실시될 수 있으며 본 명세서에 설명된 실시예들에 한정되지 않는다.It is to be understood that the specific structural or functional descriptions of embodiments of the present invention disclosed herein are presented for the purpose of describing embodiments only in accordance with the concepts of the present invention, May be embodied in various forms and are not limited to the embodiments described herein.

본 발명의 개념에 따른 실시예들은 다양한 변경들을 가할 수 있고 여러 가지 형태들을 가질 수 있으므로 실시예들을 도면에 예시하고 본 명세서에 상세하게 설명하고자 한다. 그러나, 이는 본 발명의 개념에 따른 실시예들을 특정한 개시형태들에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Embodiments in accordance with the concepts of the present invention are capable of various modifications and may take various forms, so that the embodiments are illustrated in the drawings and described in detail herein. However, it is not intended to limit the embodiments according to the concepts of the present invention to the specific disclosure forms, but includes changes, equivalents, or alternatives falling within the spirit and scope of the present invention.

제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만, 예를 들어 본 발명의 개념에 따른 권리 범위로부터 이탈되지 않은 채, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.The terms first, second, or the like may be used to describe various elements, but the elements should not be limited by the terms. The terms may be named for the purpose of distinguishing one element from another, for example without departing from the scope of the right according to the concept of the present invention, the first element being referred to as the second element, Similarly, the second component may also be referred to as the first component.

어떤 구성요소가 다른 구성요소에 “연결되어” 있다거나 “접속되어” 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 “직접 연결되어” 있다거나 “직접 접속되어” 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성요소들 간의 관계를 설명하는 표현들, 예를 들어 “~사이에”와 “바로~사이에” 또는 “~에 직접 이웃하는” 등도 마찬가지로 해석되어야 한다.It is to be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, . On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between. Expressions that describe the relationship between components, for example, "between" and "immediately" or "directly adjacent to" should be interpreted as well.

본 명세서에서 사용한 용어는 단지 특정한 실시예들을 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, “포함하다” 또는 “가지다” 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, the terms " comprises ", or " having ", and the like, are used to specify one or more of the features, numbers, steps, operations, elements, But do not preclude the presence or addition of steps, operations, elements, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries are to be interpreted as having a meaning consistent with the meaning of the context in the relevant art and, unless explicitly defined herein, are to be interpreted as ideal or overly formal Do not.

이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 그러나, 특허출원의 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. However, the scope of the patent application is not limited or limited by these embodiments. Like reference symbols in the drawings denote like elements.

도 1은 일 실시예에 따른 재발 부위 학습 장치의 블록도의 일 예를 나타내고, 도 2는 도 1에 도시된 전처리기의 동작의 일 예를 설명하기 위한 도면이고, 도 3은 도 1에 도시된 전처리기의 동작의 다른 예를 설명하기 위한 도면이다.FIG. 1 is a block diagram of a recurrence site learning apparatus according to an embodiment of the present invention. FIG. 2 is a view for explaining an example of the operation of the preprocessor shown in FIG. 1. FIG. Fig. 8 is a diagram for explaining another example of the operation of the preprocessor.

도 1 내지 도 3을 참조하면, 재발 부위 학습 장치(100)는 전처리기(110) 및 컨트롤러(130)를 포함한다.Referring to FIGS. 1 to 3, the recurrence site learning apparatus 100 includes a preprocessor 110 and a controller 130.

재발 부위 학습 장치(100)는 입력 데이터(또는 입력물) 및 출력 데이터(또는 출력물) 검토를 위해 PC(personal computer), 데이터 서버, 또는 휴대용 전자 장치에 구현(또는 탑재)될 수 있다.The recurrence site learning apparatus 100 may be implemented (or mounted) in a personal computer (PC), a data server, or a portable electronic device for reviewing input data (or input data) and output data (or output data).

휴대용 전자 장치는 랩탑(laptop) 컴퓨터, 이동 전화기, 스마트 폰(smart phone), 태블릿(tablet) PC, 모바일 인터넷 디바이스(mobile internet device(MID)), PDA(personal digital assistant), EDA(enterprise digital assistant), 디지털 스틸 카메라(digital still camera), 디지털 비디오 카메라(digital video camera), PMP(portable multimedia player), PND(personal navigation device 또는 portable navigation device), 휴대용 게임 콘솔(handheld console), e-북(e-book), 또는 스마트디바이스(smart device)로 구현될 수 있다. 예를 들어, 스마트 디바이스는 스마트 와치(smart watch) 또는 스마트 밴드(smart band)로 구현될 수 있다.The portable electronic device may be a laptop computer, a mobile phone, a smart phone, a tablet PC, a mobile internet device (MID), a personal digital assistant (PDA), an enterprise digital assistant A digital still camera, a digital video camera, a portable multimedia player (PMP), a personal navigation device or a portable navigation device (PND), a portable game console (handheld console), an e-book e-book, or a smart device. For example, a smart device can be implemented as a smart watch or a smart band.

재발 부위 학습 장치(100)는 복수의 이미지로부터 재발 부위 예측을 위한 인식기를 학습시킬 수 있다. 복수의 이미지는 멀티모달(multimodal) MR 이미지이고, 뇌 종양 재발 전의 MR 이미지 및 뇌 뇌 종양 재발 후의 MR 이미지를 포함하는 트레이닝 데이터일 수 있다. 예를 들어, 재발 부위 학습 장치(100)는 멀티모달 MR 이미지 및 재발 부위 이미지가 포함된 트레이닝 데이터를 수신하고, 수신된 트레이닝 데이터를 이용하여 재발 부위를 예측하는 인식기를 학습시킬 수 있다.The recurrence site learning apparatus 100 can learn a recognizer for predicting a recurrence site from a plurality of images. The plurality of images may be multimodal MR images and may be training data including MR images before brain tumor recurrence and MR images after brain tumor recurrence. For example, the recurrence site learning apparatus 100 may receive training data including a multi-modal MR image and a recurrence site image, and may learn a recognizer that predicts a recurrence site using the received training data.

멀티모달 MR 이미지는 자기 공명 영상(Magnetic Resonance Imaging(MRI)) 장치로부터 획득한 뇌(예를 들어, 인간의 뇌) 부분 이미지일 수 있다. 뇌 종양 재발 전의 MR 이미지는 T1(T1-weighted) 이미지, T1CE(Contrast-enhanced T1-weight) 이미지, T2(T2-weighted) 이미지, FLAIR(Fluid Attenuated Inversion Recovery) 이미지, 및 ADC(Apparent Diffusion Coefficient) 이미지(또는 맵) 중 적어도 하나를 포함할 수 있다. 뇌 종양 재발 후의 MR 이미지는 T1 이미지 및 T1CE 이미지 중 적어도 하나를 포함할 수 있다. 멀티모달 MR 이미지의 특성은 표 1과 같을 수 있다.The multi-modal MR image may be a brain (e.g., a human brain) partial image acquired from a magnetic resonance imaging (MRI) device. MR images prior to the recurrence of brain tumors include T1-weighted images, Contrast-enhanced T1-weighted images, T2-weighted images, Fluid Attenuated Inversion Recovery (FLAIR) images, and ADC (Apparent Diffusion Coefficient) An image (or a map). The MR image after recurrence of a brain tumor may include at least one of T1 image and T1CE image. The characteristics of the multi-modal MR image can be as shown in Table 1.

Figure pat00001
Figure pat00001

전처리기(110)는 복수의 이미지에 전처리를 수행할 수 있다.The preprocessor 110 may perform preprocessing on a plurality of images.

뇌 종양 재발 전의 MR 이미지를 처리하는 경우, 전처리기(110)는 뇌 종양 재발 전의 MR 이미지의 사이즈가 [240 x 240 x 240]이고 zero 이미지로 처리할 수 있다. 전처리기(110)는 뇌 종양 재발 전의 MR 이미지의 가장 긴 축을 240 크기에 맞춰서, 전체 이미지를 비율에 맞게 축소하고, zero 이미지의 중앙에 T1 이미지를 배치할 수 있다. 또한, 전처리기(110)는 T1 이미지에서 생성한 mask 이미지를 불러들여, foreground로 해당되는 값을 가지고, T1 이미지의 데이터를 정규화(normalization)시킬 수 있다. 전처리기(110)는 이와 같은 작업을 T1 이미지 외에도 T1CE 이미지, T2 이미지, FLAIR 이미지, 및 ADC 이미지(또는 맵)에 동일하게 적용할 수 있다. 전처리기(110)는 완성된 T1 이미지, T1CE 이미지, T2 이미지, FLAIR 이미지, ADC 이미지(또는 맵) 및 후술할 Segmentation 이미지를 6 채널(6 ch)로 구성하여 [6 x 240 x 240]의 입력용 데이터를 생성할 수 있다.When processing an MR image before the recurrence of a brain tumor, the preprocessor 110 can process the MR image before the recurrence of a brain tumor with a size of [240 x 240 x 240] and a zero image. The preprocessor 110 may scale the longest axis of the MR image before brain tumor recurrence to 240 size, scaling the entire image proportionally, and placing the T1 image in the center of the zero image. Also, the preprocessor 110 may invoke the mask image generated in the T1 image, normalize the data of the T1 image with a corresponding value in the foreground. The preprocessor 110 may equally apply this operation to the T1CE image, the T2 image, the FLAIR image, and the ADC image (or map) in addition to the T1 image. The preprocessor 110 includes six channels (6 channels) of a complete T1 image, T1CE image, T2 image, FLAIR image, ADC image (or map) Data can be generated.

뇌 종양 재발 후의 MR 이미지를 처리하는 경우, 사용자는 뇌 종양 재발 후의 MR 이미지에서 manual segmentation을 사용하여 수동으로 뇌 종양 재발 부위를 추출하여 T1CE_segmentation 이미지를 생성할 수 있다. T1CE_segmentation 이미지는 사이즈가 [x 7 x y 7 x z 7]이고, 데이터 타입이 bool 타입일 수 있다. 전처리기(110)는 T1CE_segmentation 이미지를 사이즈가 [240 x 240 x 240]인 zero 이미지로 처리할 수 있다. 전처리기(110)는 T1CE_segmentation 이미지의 가장 긴 축을 240 크기에 맞춰서, 전체 이미지를 비율에 맞게 축소하고, zero 이미지의 중앙에 T1CE_segmentation 이미지를 배치할 수 있다. 즉, 전처리기(110)는 뇌 종양 재발 부위에 관한 [1 x 240 x 240]의 입력용 데이터를 생성할 수 있다.In the case of MR images after the recurrence of brain tumor, the user can manually generate the T1CE_segmentation image by manually using the manual segmentation in the MR image after recurrence of the brain tumor. The T1CE_segmentation image may have a size of [ x 7 x y 7 x z 7 ] and a data type of bool type. The preprocessor 110 may process the T1CE_segmentation image as a zero image of size [240 x 240 x 240]. The preprocessor 110 may scale the longest axis of the T1CE_segmentation image to 240, reduce the entire image proportionally, and position the T1CE_segmentation image in the center of the zero image. That is, the preprocessor 110 may generate [1 x 240 x 240] input data regarding the brain tumor recurrence site.

이하에서는 이를 실현하는 전처리기(110)의 동작을 구체적으로 설명하도록 한다.Hereinafter, the operation of the preprocessor 110 for realizing this will be described in detail.

전처리기(110)는 복수의 이미지를 T1 이미지를 기준으로 정합(co-registration)하는 동작, 복수의 이미지의 차원(dimension, 또는 사이즈)을 확인하는 동작, 3D 이미지에 대한 슬라이스 이미지를 생성하는 동작, 3D 이미지에서 축(axial) 방향으로 슬라이스를 추출하는 동작, 및 입력을 위하여 슬라이스(slice) 이미지를 최종적으로 정리하는 동작 중 적어도 하나의 동작을 수행할 수 있다.The preprocessor 110 may perform operations such as co-registration of a plurality of images with respect to a T1 image, ascertaining the dimensions (dimensions or sizes) of a plurality of images, an operation of generating a slice image , Extracting the slice in the axial direction from the 3D image, and finally organizing the slice image for input.

전처리기(110)가 복수의 이미지를 T1 이미지를 기준으로 정합하는 경우, 뇌 종양 재발 전의 MR 이미지를 정합하는 경우와, 뇌 종양 재발 후의 MR 이미지를 정합하는 경우가 있을 수 있다.In the case where the preprocessor 110 matches a plurality of images based on the T1 image, there may be a case of matching the MR image before the recurrence of the brain tumor and a case of matching the MR image after the recurrence of the brain tumor.

전처리기(110)가 뇌 종양 재발 전의 MR 이미지를 정합하는 경우, 전처리기(110)는 뇌 종양 재발 전의 MR 이미지(T1 이미지, T1CE 이미지, T2 이미지, FLAIR 이미지, 및 ADC 이미지(또는 맵))의 사이즈를 모두 [x 1 x y 1 x z 1]로, 데이터 타입은 float 타입으로 정합할 수 있다.When the preprocessor 110 matches the MR image before brain tumor recurrence, the preprocessor 110 generates an MR image (T1 image, T1CE image, T2 image, FLAIR image, and ADC image (or map) Can be matched as [ x 1 x y 1 x z 1 ] and the data type can be float type.

전처리기(110)가 뇌 종양 재발 후의 MR 이미지를 정합하는 경우, 전처리기(110)는 뇌 종양 재발 후의 MR 이미지(T1 이미지, T1CE 이미지, 및 T1CE_segmentation 이미지)의 사이즈를 모두 [x 6 x y 6 x z 6]로 정합할 수 있다. 전처리기(110)는 T1 이미지 및 T1CE 이미지의 데이터 타입을 float 타입으로, T1CE_segmentation 이미지의 데이터 타입을 bool 타입으로 정합할 수 있다.When the preprocessor 110 matches the MR image after the brain tumor recurrence, the preprocessor 110 resizes the MR images (T1 image, T1CE image, and T1CE_segmentation image) after brain tumor recurrence to [ x 6 x y 6 x z 6 ]. The preprocessor 110 can match the data type of the T1 image and the T1CE image to the float type and the data type of the T1CE_segmentation image to the bool type.

전처리기(110)는 뇌 종양 재발 후의 MR 이미지를 뇌 종양 재발 전의 MR 이미지에 정합하여 변환 행렬 Mt2 ->t1을 생성할 수 있다. 이때, 뇌 종양 재발 전의 시점을 t1, 뇌 종양 재발 후의 시점을 t2라 할 수 있다. 전처리기(110)는 T1CE_segmentation 이미지에 변환 행렬 Mt2 ->t1을 적용하여 정합할 수 있다. 이때, 정합된 T1CE_segmentation 이미지는 사이즈가 [x 1 x y 1 x z 1]이고, 데이터 타입이 bool 타입으로 정합될 수 있다.The preprocessor 110 may generate the transformation matrix M t2 -> t 1 by matching the MR image after the recurrence of brain tumor with the MR image before the recurrence of brain tumor. At this time, the time point before the recurrence of brain tumors is t1, and the time point after recurrence of brain tumors is t2. The preprocessor 110 may apply the transformation matrix M t2 -> t 1 to the T1CE_segmentation image to match. At this time, the matched T1CE_segmentation image has a size of [ x 1 x y 1 x z 1 ] and the data type can be matched to the bool type.

전처리기(110)는 모든 뇌 영상 MR 이미지의 차원(또는 사이즈)이 [x 1 x y 1 x z 1]인지 확인하고, 모든 이미지를 T1 이미지와 동일한 공간(space)에 위치하도록 배치할 수 있다. 전처리기(110)가 복수의 이미지를 정합한 결과는 도 2에 도시된 바와 같을 수 있다. 전처리기(110)는 복수의 이미지(210)을 정합하여 정합된 이미지(230)를 생성할 수 있다. 전처리기(110)는 뇌 종양 재발 전의 T1CE 이미지, T2 이미지, FLAIR 이미지, 및 ADC 이미지(또는 맵)를 뇌 종양 재발 전의 T1 이미지와 동일한 공간에 위치하도록 매칭할 수 있다. 또한, 전처리기(110)는 뇌 종양 재발 후의 T1CE 이미지를 뇌 종양 재발 후의 T1 이미지와 동일한 공간에 위치하도록 매칭한 후, 뇌 종양 재발 전의 T1 이미지와 동일한 공간에 위치하도록 매칭할 수 있다.The preprocessor 110 can check that the dimension (or size) of all the brain image MR images is [ x 1 x y 1 x z 1 ] and arrange all the images to be located in the same space as the T1 image . The result of the preprocessor 110 matching a plurality of images may be as shown in FIG. The preprocessor 110 may match the plurality of images 210 to produce a matched image 230. The preprocessor 110 can match the T1CE image, T2 image, FLAIR image, and ADC image (or map) before brain tumor recurrence to be located in the same space as the T1 image before brain tumor recurrence. The preprocessor 110 may match the T1CE image after the recurrence of the brain tumor to the same space as the T1 image after the recurrence of the brain tumor and then match the same to the T1 image before the recurrence of the brain tumor.

전처리기(110)가 3D 이미지에 대한 슬라이스 이미지를 생성하는 경우, 전처리기(110)는 brain extraction tool을 사용하여 brain skull stripping을 수행할 수 있으며, 이 3D 이미지를 기반으로 [240 x 240 x 240] volume 이미지의 정 가운데(center)에 배치하고, brain skull stripping을 수행하여 skull stripping 이미지를 생성할 수 있다. 이때, 생성된 skull stripping 이미지는 brain mask 이미지이고, 사이즈가 [240 x 240 x 240]이고, 데이터 타입이 bool 타입일 수 있다. 전처리기(110)가 생성한 brain mask는 도 3에 도시된 바와 같을 수 있다. 전처리기(110)는 정합된 이미지(230)의 이미지에 brain skull stripping을 사용하여 brain mask 이미지(250)를 생성할 수 있다.When the preprocessor 110 generates a slice image for a 3D image, the preprocessor 110 can perform brain skull stripping using a brain extraction tool, and based on the 3D image, a 240 x 240 x 240 ] volume It is possible to generate a skull stripping image by placing it at the center of the image and performing brain skull stripping. At this time, the generated skull stripping image is a brain mask image, the size is [240 x 240 x 240], and the data type is bool type. The brain mask generated by the preprocessor 110 may be as shown in FIG. The preprocessor 110 may generate a brain mask image 250 using brain skull stripping on the image of the matched image 230.

전처리기(110)는 3D 이미지에서 축(axial) 방향, 시상면(sagital) 방향, 및 관상면(coronal) 방향으로 슬라이스를 추출할 수 있다. 예를 들어, 전처리기(110)는 brain mask 이미지를 사용하여 skull stripping한 이미지를 추출할 수 있다. 전처리기(110)는 brain mask 이미지에서 픽셀의 값이 0인 부분(뇌가 아닌 부분)에 대해서 -1로 픽셀 값을 매핑하고, 픽셀의 값이 1인 부분(뇌인 부분)에 대해서는 각각의 픽셀을 정규화(normalization)을 수행할 수 있다. 즉, 전처리기(110)는 brain mask 이미지에서 픽셀의 값이 1인 픽셀의 평균(mean)으로 빼고 표준 편차(standard deviation)로 나눠줄 수 있다. 전처리기(110)는 추출할 슬라이스 이미지의 brain mask 슬라이스 이미지에서 픽셀의 값이 전부 0인 경우, 추출을 진행하지 않을 수 있다.The preprocessor 110 may extract slices in the axial, sagital, and coronal directions in the 3D image. For example, the preprocessor 110 may extract a skull stripping image using a brain mask image. The preprocessor 110 maps a pixel value to -1 for a portion having a pixel value of 0 (a portion other than the brain) in the brain mask image, and for each portion (brain portion) having a pixel value of 1, Can be normalized. That is, the preprocessor 110 may divide the brain mask image into standard deviations by subtracting the mean of pixels having a value of 1 from the brain mask image. Preprocessor 110 may not proceed with extraction if the pixel values in the brain mask slice image of the slice image to be extracted are all zeros.

전처리기(110)가축(axial) 방향, 시상면(sagital) 방향, 및 관상면(coronal) 방향으로 추출한 슬라이스 이미지의 특성은 표 2와 같을 수 있다.The characteristics of the slice images extracted in the axial direction, sagital direction, and coronal direction of the preprocessor 110 may be as shown in Table 2.

Figure pat00002
Figure pat00002

전처리기(110)는 뇌 종양 재발 전의 MR 이미지(T1 이미지, T1CE 이미지, T2 이미지, 및 FLAIR 이미지)를 segmentation용으로 기 학습된 인식기를 사용하여 segmentation 이미지를 생성할 수 있다. 이때, segmentation 이미지는 사이즈가 [240 x 240 x 1 x k]이고, 데이터 타입이 int 타입일 수 있다. 또한 생성된 이미지는 인식기의 입력으로 사용된다.The preprocessor 110 can generate a segmentation image using a recognizer that has been learned for segmentation of MR images (T1 image, T1CE image, T2 image, and FLAIR image) before brain tumor recurrence. At this time, the segmentation image may have a size of [240 x 240 x 1 x k] and a data type of int type. The generated image is also used as input to the recognizer.

전처리기(110)는 슬라이스 이미지를 인식기의 입력 노드(input node)에 입력하기 위하여 최종적으로 정리하는 경우, 각각의 슬라이스 이미지의 모달리티(modality)가 채널 형태로 구성될 수 있다. 즉, 전처리기(110)는 슬라이스 이미지의 사이즈를 [240 x 240 x 6] x k로 하고, 데이터 타입을 float 타입으로 설정할 수 있다.When the preprocessor 110 finally arranges the slice image for input to the input node of the recognizer, the modality of each slice image may be configured in the form of a channel. That is, the preprocessor 110 may set the slice image size to [240 x 240 x 6] x k and set the data type to the float type.

전처리기(110)는 인식기의 출력 노드(output node)에서 재발 부위 예측의 역 전파(back propagation) 기법과 관련된 손실(loss) 계산을 위한 이미지의 사이즈를 [240 x 240 x 1] x k로 하고, 데이터 타입을 bool 타입으로 설정할 수 있다.The preprocessor 110 sets the size of the image for calculating the loss associated with the back propagation technique of the recurrence site prediction at the output node of the recognizer as [240 x 240 x 1] xk, The data type can be set to bool type.

전처리기(110)는 모든 환자에 대하여 슬라이스 이미지를 최종적으로 정리할 수 있다. 예를 들어, 전처리기(110)는 인식기의 입력 노드에 입력하는 슬라이스 이미지의 사이즈를 [240 x 240 x 6] x k x 환자 수로 하고, 데이터 타입을 float 타입으로 설정할 수 있다. 전처리기(110)는 인식기의 출력 노드에서 재발 부위 예측의 역 전파 기법과 관련된 손실 계산을 위한 이미지의 사이즈를 [240 x 240 x 1] x k x 환자 수로 하고, 데이터 타입을 bool 타입으로 설정할 수 있다.The preprocessor 110 may finally organize the slice images for all patients. For example, the preprocessor 110 can set the size of the slice image input to the input node of the recognizer as [240 x 240 x 6] x k x patient numbers and set the data type to float type. The preprocessor 110 may set the size of the image for loss calculation related to the back propagation technique of the recurrence site prediction at the output node of the recognizer to [240 x 240 x 1] x k x patient number and set the data type to bool type.

전처리기(110)는 모듈로 구현될 수 있다. 모듈은 전처리기(110)의 기능과 동작을 수행할 수 있는 하드웨어를 의미할 수도 있고, 특정 기능과 동작을 수행할 수 있는 프로그램 코드를 의미할 수도 있고, 또는 특정 기능과 동작을 수행시킬 수 있는 컴퓨터 프로그램 코드가 탑재된 전자적 기록 매체, 예를 들어 프로세서 또는 마이크로 프로세서를 의미할 수 있다. 다시 말해, 모듈이란 전처리기(110)의 동작을 수행하기 위한 하드웨어 및/또는 하드웨어를 구동하기 위한 소프트웨어의 기능적 및/또는 구조적 결합을 의미할 수 있다.The preprocessor 110 may be implemented as a module. The module may denote hardware capable of performing the functions and operations of the preprocessor 110, may refer to program codes capable of performing specific functions and operations, For example, a processor or a microprocessor having computer program code embodied therein. In other words, a module may refer to a functional and / or structural combination of software for operating hardware and / or hardware to perform the operation of the preprocessor 110.

컨트롤러(130)는 전처리된 복수의 이미지에 기초하여 재발 부위를 예측할 수 있다. 예를 들어, 컨트롤러(130)는 전처리된 복수의 이미지에 기초하여 재발 부위 이미지를 생성할 수 있다. 컨트롤러(130)는 복수의 이미지 및 재발 부위 이미지를 분석하여 복수의 이미지 및 재발 부위 이미지 사이의 상관 관계를 획득할 수 있다.The controller 130 can predict the recurrence site based on the plurality of preprocessed images. For example, the controller 130 may generate a recurrence site image based on a plurality of preprocessed images. The controller 130 may analyze the plurality of images and the recurrence site images to obtain a correlation between the plurality of images and the recurrence site images.

컨트롤러(130)는 복수의 이미지 및 재발 부위 이미지 사이의 상관 관계에 기초하여 재발 부위를 예측(또는 재발 부위 이미지를 생성)하도록 인식기를 학습시킬 수 있다. 인식기의 학습 방법에 대해서는 도 4a 및 도 4b를 참조하여 상세히 설명한다.The controller 130 may learn the recognizer to predict the recurrence site (or generate a recurrence site image) based on the correlation between the plurality of images and the recurrence site image. The learning method of the recognizer will be described in detail with reference to Figs. 4A and 4B.

도 4a는 일 실시예에 따른 재발 부위를 예측하기 위한 학습을 설명하기 위한 도면이고, 도 4b는 도 4a에 도시된 인식기의 구조도의 일 예를 나타낸다.FIG. 4A is a diagram for explaining learning for predicting a recurrence site according to an embodiment, and FIG. 4B illustrates an example of a structure of the recognizer shown in FIG. 4A.

도 4a를 참조하면, 컨트롤러(130)는 복수의 이미지 및 재발 부위 이미지 사이의 상관 관계를 인식기(150-1)에 입력할 수 있다.Referring to FIG. 4A, the controller 130 may input the correlation between the plurality of images and the recurrence site images to the recognizer 150-1.

도 4a에 도시된 컨트롤러(130)는 도 1에 도시된 컨트롤러(130)와 구성 및 동작이 실질적으로 동일할 수 있다.The controller 130 shown in FIG. 4A may have substantially the same configuration and operation as the controller 130 shown in FIG.

인식기(150-1)는 복수의 입력 값에 기초하여 재발 부위를 예측(또는 재발 부위 이미지를 생성)할 수 있다. 인식기(150-1)는 CNN(Convolutional Neural Network)으로 구현될 수 있다. CNN은 복수의 입력 값에 기초하여 단일의 출력 이미지를 생성하는 다중 입력-단일 출력 구조를 가질 수 있다. 예를 들어, 인식기(150-1)는 컨볼루션 레이어(convolution layer), 풀링 레이어(pooling layer), 언풀링 레이어(un-pooling player), 완전 연결 레이어(fully connected layer), 또는 이들의 다양한 조합에 기초하여 출력 값을 생성할 수 있다. 즉, 인식기(150-1)는 인공 신경망(artificial network)으로 구성될 수 있다.The recognizer 150-1 can predict a recurrence site (or generate a recurrence site image) based on a plurality of input values. The recognizer 150-1 may be implemented as a Convolutional Neural Network (CNN). The CNN may have a multiple input-single output structure that produces a single output image based on a plurality of input values. For example, the recognizer 150-1 may include a convolution layer, a pooling layer, an un-pooling player, a fully connected layer, or various combinations thereof To generate an output value. That is, the recognizer 150-1 may be configured as an artificial network.

인공 신경망은 입력 레이어, 히든 레이어, 및 출력 레이어를 포함할 수 있다. 각 레이어는 복수의 노드들을 포함하고, 인접한 레이어 사이의 노드들은 연결 가중치를 가지고 서로 연결될 수 있다. 각 노드들은 활성화 모델에 기초하여 동작할 수 있다. 활성화 모델에 따라 입력 값에 대응하는 출력 값이 결정될 수 있다. 임의의 노드의 출력 값은 해당 노드와 연결된 다음 레이어의 노드로 입력될 수 있다. 다음 레이어의 노드는 복수의 노드들로부터 출력되는 값들을 입력 받을 수 있다. 임의의 노드의 출력 값이 다음 레이어의 노드로 입력되는 과정에서, 연결 가중치가 적용될 수 있다. 다음 레이어의 노드는 활성화 모델에 기초하여 입력 값에 대응하는 출력 값을 해당 노드와 연결된 그 다음 레이어의 노드로 출력할 수 있다.The artificial neural network may include an input layer, a hidden layer, and an output layer. Each layer includes a plurality of nodes, and nodes between adjacent layers can be connected to each other with connection weights. Each node may operate based on an activation model. The output value corresponding to the input value can be determined according to the activation model. The output value of an arbitrary node can be input to the node of the next layer connected to that node. A node of the next layer can receive values output from a plurality of nodes. In the process of inputting the output value of an arbitrary node to the node of the next layer, a connection weight can be applied. The node of the next layer can output the output value corresponding to the input value to the node of the next layer connected to the node based on the activation model.

출력 레이어는 원거리 이미지 객체의 깊이에 대응하는 노드들을 포함할 수 있다. 출력 레이어의 노드들은 원거리 이미지 객체의 깊이에 대응하는 특징 값들을 출력할 수 있다.The output layer may include nodes corresponding to the depth of the distant image object. The nodes of the output layer can output characteristic values corresponding to the depth of the distant image object.

인식기(150-1)는 인공 신경망에서 출력되는 특징 값들에 기초하여 재발 부위를 예측(또는 재발 부위 이미지를 생성)할 수 있다. 컨트롤러(130)는 실제 재발 부위를 알고 있으므로, 인식기(150-1)를 통해 출력(생성)된 재발 부위 이미지와 실제 재발 부위의 차이를 계산할 수 있다.The recognizer 150-1 can predict the recurrence site (or generate the recurrence site image) based on the feature values output from the artificial neural network. Since the controller 130 knows the actual recurrence site, it can calculate the difference between the recurrence site image output (generated) through the recognizer 150-1 and the actual recurrence site.

이에, 컨트롤러(130)는 역 전파(back propagation) 기법을 이용하여 차이가 감소되도록 인식기(150-1)를 업데이트할 수 있다. 예를 들어, 컨트롤러(130)는 인식기(150-1) 내 인공 신경망의 출력 레이어로부터 히든 레이어를 거쳐 입력 레이어로 향하는 역 방향으로 차이를 전파시킬 수 있다. 차이가 역 방향으로 전파되는 과정에서, 차이가 감소되도록 노드들 사이의 연결 가중치들이 업데이트될 수 있다. 이처럼, 컨트롤러(130)는 차이를 고려하여 인식기(150-1)를 학습시킬 수 있다. 상술한 학습 동작은 차이가 미리 정해진 임계 값 미만이 될 때까지 반복적으로 수행될 수 있다.Accordingly, the controller 130 can update the recognizer 150-1 so that the difference is reduced using a back propagation technique. For example, the controller 130 may propagate the difference from the output layer of the artificial neural network in the recognizer 150-1 to the input layer via the hidden layer in the reverse direction. In the process of propagating the difference in the reverse direction, the connection weights between nodes may be updated such that the difference is reduced. In this manner, the controller 130 can learn the recognizer 150-1 in consideration of the difference. The above-described learning operation can be repeatedly performed until the difference becomes less than a predetermined threshold value.

재발 부위 이미지를 생성하는 인공 신경망을 업데이트 하기 위하여, 컨트롤러(130)는 역 전파 기법에 표 3과 같은 파라미터(parameter)를 사용할 수 있다.In order to update the artificial neural network that generates the recurrent site image, the controller 130 may use the parameters as shown in Table 3 in the back propagation method.

Figure pat00003
Figure pat00003

이때, Epoch가 10 증가할 때마다 Learning rate는 5%씩 감소할 수 있다. 즉, Epoch가 1~10일 때 Learning rate는 0.0015이고, Epoch가 11~20일 때 Learning rate는 0.0015*0.95이고, Epoch가 21~30일 때 Learning rate는 0.0015*0.952이고, Epoch가 191~200일 때 Learning rate는 0.0015*0.9519일 수 있다.At this time, the learning rate can be reduced by 5% every time the Epoch increases by 10. The learning rate is 0.0015 * 0.95 when Epoch is 1 ~ 10, the learning rate is 0.0015 * 0.95 when Epoch is 11 ~ 20, the learning rate is 0.0015 * 0.95 2 when Epoch is 21 ~ 30, At 200, the learning rate may be 0.0015 * 0.95 19 .

컨트롤러(130)는 인식기(150-1)를 통해 출력(생성)된 재발 부위 이미지와 실제 재발 부위 이미지의 차이가 최소화되도록 인식기(150-1)를 학습시킬 수 있다.The controller 130 can learn the recognizer 150-1 so that the difference between the recurrence site image output (generated) through the recognizer 150-1 and the actual recurrence site image is minimized.

도 4b를 참조하면, 인식기(150-1)는 복수의 슬라이스 이미지를 수신할 수 있다. 예를 들어, 복수의 슬라이스 이미지는 [240 x 240]의 사이즈를 갖고, 6 채널(6 ch)로 구성된 T1 이미지, T1CE 이미지, T2 이미지, FLAIR 이미지, ADC 이미지, Segmentation 이미지를 포함할 수 있다. 인식기(150-1)는 복수의 슬라이스 이미지에 기초하여 재발 부위를 추정(또는 재발 부위 이미지를 생성)할 수 있다.Referring to FIG. 4B, the recognizer 150-1 may receive a plurality of slice images. For example, a plurality of slice images may have a size of [240 x 240], and may include a T1 image, a T1CE image, a T2 image, a FLAIR image, an ADC image, and a segmentation image composed of 6 channels (6 channels). The recognizer 150-1 can estimate a recurrence site (or generate a recurrence site image) based on a plurality of slice images.

복수의 슬라이스 이미지의 좌측의 숫자 값은 [x x y]의 사이즈를 의미하고, 상단의 숫자 값은 채널의 개수를 의미할 수 있다. 인식기(150-1)는 아래 단계(레이어)로 진행할수록 이미지의 수축(contraction)이 일어나고, 무엇(what)에 대한 관심부위 이미지와의 추상화된 유의미한 핵심정보를 출력할 수 있다. 인식기(150-1)는 윗 단계(레이어)로 진행할수록 이미지의 확장(expansion)이 일어나고, 무엇(what)이 어디에(where) 있는지 정밀하게 고해상도(high-resolution) 이미지를 출력할 수 있다.The numerical value on the left side of the plurality of slice images means the size of [ x x y ], and the numerical value on the upper side can mean the number of channels. The recognizer 150-1 can perform contraction of the image as it goes down to the next layer and output abstract meaningful core information to the region of interest for what. The recognizer 150-1 can expand the image as it goes to the upper level (layer), and can output a high-resolution image precisely where and what.

인식기(150-1) 내에서의 서로 다른 동작(operation)은 다른 종류의 화살표로 표현되었다. 예를 들어, 인식기(150-1)는 [3 x 3]에 기초한 컨볼루션(convolution), 복사(copy), [2 x 2]에 기초한 맥스 풀링(max pooling), 및 [2 x 2]에 기초한 업 컨볼루션(up-convolution) 중 적어도 하나의 동작을 수행할 수 있다.Different operations within the recognizer 150-1 are represented by different kinds of arrows. For example, the recognizer 150-1 may perform convolution based on [3 x 3], copy, max pooling based on [2 x 2], and [2 x 2] And up-convolution based on the received signal.

도 5는 일 실시예에 따른 PET 이미지 생성 학습 장치의 블록도의 일 예를 나타낸다.5 shows an example of a block diagram of a PET image generation learning apparatus according to an embodiment.

도 5를 참조하면, PET 이미지 생성 학습 장치(300)는 전처리기(310) 및 컨트롤러(330)를 포함한다.Referring to FIG. 5, the PET image generation learning apparatus 300 includes a preprocessor 310 and a controller 330.

도 5에 도시된 전처리기(330) 및 컨트롤러(330)는 도 1에 도시된 전처리기(110) 및 컨트롤러(130)와 구성이 실질적으로 동일할 수 있다.The preprocessor 330 and the controller 330 shown in FIG. 5 may have substantially the same configuration as the preprocessor 110 and the controller 130 shown in FIG.

PET 이미지 생성 학습 장치(300)는 T1 MR 이미지로부터 PET 이미지 생성을 위한 인식기를 학습시킬 수 있다. PET 이미지 생성 학습 장치(300)는 사용하는 트레이서(tracer)에 따라 상이한 타입의 PET 이미지를 생성할 수 있다. PET 이미지는 PET 이미지 생성 학습 장치(300)가 생성하는 모든 타입의 PET 이미지 중 하나의 타입일 수 있다. 예를 들어, PET 이미지는 tau-PET 이미지, AV45-PET 이미지 등일 수 있다. T1 MR 이미지는 인식기를 학습시키는 트레이닝 데이터일 수 있다. T1 MR 이미지는 자기 공명 영상(MRI) 장치로부터 획득한 뇌(예를 들어, 인간의 뇌) 부분 이미지일 수 있다.The PET image generation learning apparatus 300 can learn a recognizer for PET image generation from a T1 MR image. The PET image generation learning apparatus 300 may generate different types of PET images according to the tracer used. The PET image may be a type of any of the types of PET images produced by the PET image generation learning device 300. For example, the PET image may be a tau-PET image, an AV45-PET image, or the like. The T1 MR image may be training data to train the recognizer. The T1 MR image may be a brain (e.g., a human brain) partial image acquired from a magnetic resonance imaging (MRI) device.

인식기로 입력되는 트레이닝 데이터는 T1 MR 이미지 및 PET 이미지일 수 있다. 트레이닝 데이터의 특성은 표 5와 같을 수 있다.The training data input to the recognizer may be a T1 MR image and a PET image. The characteristics of the training data can be as shown in Table 5.

Figure pat00004
Figure pat00004

전처리기(310)는 T1 MR 이미지 및 PET 이미지에 전처리를 수행할 수 있다.The preprocessor 310 may perform preprocessing on the T1 MR image and the PET image.

전처리기(310)는 PET 이미지를 T1 이미지를 기준으로 정합(co-registration)하는 동작, T1 MR 이미지 및 PET 이미지의 차원(dimension, 또는 사이즈)을 확인하는 동작, 3D 이미지에 대한 슬라이스 이미지를 생성하는 동작, 3D 이미지에서 축(axial) 방향으로 슬라이스를 추출하는 동작, 및 입력을 위하여 슬라이스(slice) 이미지를 최종적으로 정리하는 동작 중 적어도 하나의 동작을 수행할 수 있다.The preprocessor 310 includes operations for co-registration of the PET image with respect to the T1 image, operation for ascertaining the dimension (or size) of the T1 MR image and the PET image, generating a slice image for the 3D image , Extracting slices in an axial direction from the 3D image, and finally organizing the slice images for input.

전처리기(310)가 PET 이미지를 T1 MR 이미지를 기준으로 정합하는 경우, PET 이미지를 T1 MR 이미지의 사이즈 [x 1 x y 1 x z 1]와 같게 정합할 수 있다. 정합된 PET 이미지 및 T1 MR 이미지로부터 global SUVR 값(gSUVR)을 추출하고, 부위별로 평균 SUVR 값(lSUVR i )을 추출할 수 있다. 이때, i는 1부터 N까지의 임의의 수이다. 또한 추출하는 부위는 기존에 정의된 영역(Desikan-Killiany Atlas, Destrieux Atlas , Automated Anatomical Labeling)이 될 수도 있으며, 본 작업을 수행하는 자에 의에 임의로 정의된 영역을 일컫는다.If the preprocessor 310 matches the PET image with respect to the T1 MR image, then the PET image can be matched to the size of the T1 MR image [ x 1 x y 1 x z 1 ]. The global SUVR value ( gSUVR ) can be extracted from the matched PET image and the T1 MR image, and an average SUVR value ( lSUVR i ) can be extracted for each region. Here, i is an arbitrary number from 1 to N. The region to be extracted may also be a defined region (Desikan-Killiany Atlas, Destrieux Atlas, Automated Anatomical Labeling) and refers to an area defined arbitrarily by the person performing this work.

전처리기(310)는 global SUVR 값(gSUVR) 및 평균 SUVR 값(lSUVR i )을 사용하여 각 부위에 해당하는 픽셀에 값을 매핑할 수 있다. 예를 들어, 전처리기(310)는 gSUVR > lSUVR i 를 통해 각 부위에 해당하는 픽셀에 참(1) 또는 거짓(0)의 값을 매핑할 수 있다. 이에, 전처리기(310)는 데이터 타입이 bool 타입인 PET 이미지를 생성할 수 있다.The preprocessor 310 may map a value to a pixel corresponding to each region using a global SUVR value ( gSUVR ) and an average SUVR value ( lSUVR i ). For example, the preprocessor 310 may map true (1) or false (0) values to pixels corresponding to each region through gSUVR > lSUVR i . Accordingly, the preprocessor 310 can generate a PET image whose data type is bool type.

전처리기(310)는 PET 이미지를 T1 MR 이미지의 차원(또는 사이즈)이 [x 1 x y 1 x z 1]인지 확인할 수 있다. 차원이 맞지 않는 경우, 전처리기(310)는 차원을 맞추는 동작을 수행할 수 잇다.Preprocessor 310 may determine whether the PET image dimension T1 MR image (or size) is [x 1 x 1 x y z 1]. If the dimension does not fit, the preprocessor 310 can perform a dimension matching operation.

전처리기(310)가 3D 이미지에 대한 슬라이스 이미지를 생성하는 경우, brain skull stripping을 수행하여 skull stripping 이미지를 생성하고, 이 이미지를 기반으로 3D 이미지를 [240 x 240 x 240] volume 이미지의 정 가운데(center)에 배치하여 생성 할 수 있다. 이때, 전처리기(310)는 brain extraction tool을 사용하여 brain skull stripping을 수행할 수 있다. 생성된 skull stripping 이미지는 brain mask 이미지이고, 사이즈가 [240 x 240 x 240]이고, 데이터 타입이 bool 타입일 수 있다.When the preprocessor 310 generates a slice image for a 3D image, a skull stripping image is generated by performing brain skull stripping, and a 3D image is formed on the basis of this image in a [240 x 240 x 240] (center). At this time, the preprocessor 310 can perform brain skull stripping using a brain extraction tool. The generated skull stripping image is a brain mask image, the size is [240 x 240 x 240], and the data type is bool type.

전처리기(310)는 3D 이미지에서 축(axial) 방향으로 슬라이스를 추출할 수 있다. 예를 들어, 전처리기(310)는 brain mask 이미지를 사용하여 skull stripping한 이미지를 추출할 수 있다. 전처리기(310)는 brain mask 이미지에서 픽셀의 값이 0인 부분(뇌가 아닌 부분)에 대해서 -1로 픽셀 값을 매핑하고, 픽셀의 값이 1인 부분(뇌인 부분)에 대해서는 각각의 픽셀을 정규화(normalization)을 수행할 수 있다. 즉, 전처리기(310)는 brain mask 이미지에서 픽셀의 값이 1인 픽셀의 평균(mean)으로 빼고 표준 편차(standard deviation)로 나눠줄 수 있다. 전처리기(310)는 추출할 슬라이스 이미지의 brain mask 슬라이스 이미지에서 픽셀의 값이 전부 0인 경우, 추출을 진행하지 않을 수 있다. 전처리기(310)가 추출한 슬라이스는 T1 MR 이미지의 경우 사이즈가 [240 x 240 x 1 x k]이고, 데이터 타입이 float 타입이고, PET 이미지의 경우 사이즈가 [240 x 240 x 1 x k]이고, 데이터 타입이 bool 타입일 수 있다.The preprocessor 310 may extract the slice in the axial direction from the 3D image. For example, the preprocessor 310 may extract a skull stripping image using a brain mask image. The preprocessor 310 maps a pixel value to -1 for a portion having a pixel value of 0 (a portion other than a brain) in the brain mask image, and for each portion (brain portion) having a pixel value of 1, Can be normalized. That is, the preprocessor 310 may divide the brain mask image into standard deviations by subtracting the mean of pixels having a value of 1 from the brain mask image. The preprocessor 310 may not proceed with extraction if the pixel values in the brain mask slice image of the slice image to be extracted are all zeros. The slice extracted by the preprocessor 310 has a size of [240 x 240 x 1 xk] for a T1 MR image, a size of [240 x 240 x 1 xk] for a PET image, a data type of a float, The type may be a bool type.

전처리기(310)는 슬라이스 이미지를 인식기의 입력 노드(input node)에 입력하기 위하여 최종적으로 정리하는 경우, 각각의 슬라이스 이미지의 모달리티(modality)가 채널 형태로 구성될 수 있다. 즉, 전처리기(310)는 슬라이스 이미지의 사이즈를 [240 x 240 x 1 x k]로 하고, 데이터 타입을 float 타입으로 설정할 수 있다.When the preprocessor 310 finally arranges the slice image for input to the input node of the recognizer, the modality of each slice image may be configured in the form of a channel. That is, the preprocessor 310 can set the size of the slice image to [240 x 240 x 1 x k] and set the data type to the float type.

전처리기(310)는 인식기의 출력 노드(output node)에서 PET 이미지 생성의 역 전파(back propagation) 기법과 관련된 손실(loss) 계산을 위한 이미지의 사이즈를 [240 x 240 x 1 x k]로 하고, 데이터 타입을 bool 타입으로 설정할 수 있다.The preprocessor 310 sets the size of the image for calculating the loss associated with the back propagation technique of PET image generation at the output node of the recognizer to [240 x 240 x 1 xk] The data type can be set to bool type.

전처리기(310)는 모든 환자에 대하여 슬라이스 이미지를 최종적으로 정리할 수 있다. 예를 들어, 전처리기(310)는 인식기의 입력 노드에 입력하는 슬라이스 이미지의 사이즈를 [240 x 240 x 1] x k 슬라이스 x 환자 수로 하고, 데이터 타입을 float 타입으로 설정할 수 있다. 전처리기(310)는 인식기의 출력 노드에서 PET 이미지 생성의 역 전파 기법과 관련된 손실 계산을 위한 이미지의 사이즈를 [240 x 240 x 1] x k 슬라이스 x 환자 수로 하고, 데이터 타입을 bool 타입으로 설정할 수 있다.The preprocessor 310 may finally organize the slice images for all patients. For example, the preprocessor 310 may set the size of the slice image input to the input node of the recognizer as [240 x 240 x 1] x k slices x the number of patients and set the data type to the float type. The preprocessor 310 sets the size of the image for loss calculation related to the back propagation technique of PET image generation at the output node of the recognizer as [240 x 240 x 1] xk slice x patient number, and sets the data type to bool type have.

전처리기(310)는 모듈로 구현될 수 있다. 모듈은 전처리기(310)의 기능과 동작을 수행할 수 있는 하드웨어를 의미할 수도 있고, 특정 기능과 동작을 수행할 수 있는 프로그램 코드를 의미할 수도 있고, 또는 특정 기능과 동작을 수행시킬 수 있는 컴퓨터 프로그램 코드가 탑재된 전자적 기록 매체, 예를 들어 프로세서 또는 마이크로 프로세서를 의미할 수 있다. 다시 말해, 모듈이란 전처리기(310)의 동작을 수행하기 위한 하드웨어 및/또는 하드웨어를 구동하기 위한 소프트웨어의 기능적 및/또는 구조적 결합을 의미할 수 있다.The preprocessor 310 may be implemented as a module. The module may denote hardware capable of performing the functions and operations of the preprocessor 310, may refer to program codes capable of performing specific functions and operations, For example, a processor or a microprocessor having computer program code embodied therein. In other words, a module may refer to a functional and / or structural combination of hardware and / or software to drive the operations of the preprocessor 310. [

컨트롤러(330)는 전처리된 T1 MR 이미지에 기초하여 PET 이미지를 생성할 수 있다. 컨트롤러(330)는 T1 MR 이미지 및 PET 이미지를 분석하여 T1 MR 이미지 및 PET 이미지 사이의 상관 관계를 획득할 수 있다. 컨트롤러(330)는 T1 MR 이미지 및 PET 이미지 사이의 상관 관계에 기초하여 PET 이미지를 생성하도록 인식기를 학습시킬 수 있다. 인식기의 학습 방법에 대해서는 도 6a 및 도 6b를 참조하여 상세히 설명한다.The controller 330 may generate a PET image based on the preprocessed T1 MR image. The controller 330 may analyze the T1 MR image and the PET image to obtain a correlation between the T1 MR image and the PET image. The controller 330 may learn the recognizer to produce a PET image based on the correlation between the T1 MR image and the PET image. The learning method of the recognizer will be described in detail with reference to Figs. 6A and 6B.

도 6a는 일 실시예에 따른 PET 이미지를 생성하기 위한 학습을 설명하기 위한 도면이고, 도 6b는 도 6a에 도시된 인식기의 구조도의 일 예를 나타낸다.FIG. 6A is a diagram for explaining learning for generating a PET image according to an embodiment, and FIG. 6B shows an example of the structure of the recognizer shown in FIG. 6A.

도 6a를 참조하면, 컨트롤러(330)는 T1 MR 이미지 및 PET 이미지 사이의 상관 관계를 인식기(150-2)에 입력할 수 있다.Referring to FIG. 6A, the controller 330 may input the correlation between the T1 MR image and the PET image to the recognizer 150-2.

도 6a에 도시된 컨트롤러(330)는 도 5에 도시된 컨트롤러(330)와 구성 및 동작이 실질적으로 동일하고, 인식기(150-2)는 도 4a에 도시된 인식기(150-1)와 구성이 실질적으로 동일할 수 있다.The controller 330 shown in FIG. 6A is substantially the same in configuration and operation as the controller 330 shown in FIG. 5, and the recognizer 150-2 includes the recognizer 150-1 shown in FIG. May be substantially the same.

인식기(150-2)는 T1 MR 이미지에 기초하여 PET 이미지를을 생성할 수 있다. 인식기(150-2)는 CNN으로 구현될 수 있다. CNN은 복수의 입력 값에 기초하여 단일의 출력 값을 생성하는 다중 입력-단일 출력 구조를 가질 수 있다. CNN은 무수히 많은 T1 MR 이미지 및 PET 이미지에 기초하여 기 학습이 되어있을 수 있다. 인식기(150-2)는 컨볼루션 레이어(convolution layer), 풀링 레이어(pooling layer), 언풀링 레이어(un-pooling player), 완전 연결 레이어(full connected layer), 또는 이들의 다양한 조합에 기초하여 출력 값을 생성할 수 있다. 즉, 인식기(150-2)는 인공 신경망(artificial network)으로 구성될 수 있다.The recognizer 150-2 may generate a PET image based on the T1 MR image. The recognizer 150-2 may be implemented as a CNN. CNN may have a multiple input-single output structure that generates a single output value based on a plurality of input values. CNN may be based on a myriad of T1 MR images and PET images. The recognizer 150-2 may output the output based on a convolution layer, a pooling layer, an un-pooling player, a full connected layer, or various combinations thereof. Value can be generated. That is, the recognizer 150-2 may be configured as an artificial network.

인식기(150-2)는 인공 신경망에서 출력되는 특징 값들에 기초하여 PET 이미지를 생성할 수 있다. 컨트롤러(330)는 실제 PET 이미지를 알고 있으므로, 인식기(150-2)를 통해 출력(생성)된 PET 이미지와 실제 PET 이미지의 차이를 계산할 수 있다.The recognizer 150-2 can generate the PET image based on the feature values output from the artificial neural network. Since the controller 330 knows the actual PET image, it can calculate the difference between the PET image output (generated) and the actual PET image through the recognizer 150-2.

이에, 컨트롤러(330)는 역 전파(back propagation) 기법을 이용하여 차이가 감소되도록 인식기(150-2)를 업데이트할 수 있다. 예를 들어, 컨트롤러(330)는 인식기(150-2) 내 인공 신경망의 출력 레이어로부터 히든 레이어를 거쳐 입력 레이어로 향하는 역 방향으로 차이를 전파시킬 수 있다. 차이가 역 방향으로 전파되는 과정에서, 차이가 감소되도록 노드들 사이의 연결 가중치들이 업데이트될 수 있다. 이처럼, 컨트롤러(330)는 차이를 고려하여 인식기(150-2)를 학습시킬 수 있다. 상술한 학습 동작은 차이가 미리 정해진 임계 값 미만이 될 때까지 반복적으로 수행될 수 있다.Accordingly, the controller 330 may update the recognizer 150-2 so that the difference is reduced using a back propagation technique. For example, the controller 330 can propagate the difference from the output layer of the artificial neural network in the recognizer 150-2 to the input layer via the hidden layer in the reverse direction. In the process of propagating the difference in the reverse direction, the connection weights between nodes may be updated such that the difference is reduced. In this way, the controller 330 can learn the recognizer 150-2 in consideration of the difference. The above-described learning operation can be repeatedly performed until the difference becomes less than a predetermined threshold value.

PET 이미지를 생성하는 인공 신경망을 업데이트 하기 위하여, 컨트롤러(330)는 역 전파 기법에 표 4와 같은 파라미터를 사용할 수 있다.In order to update the artificial neural network that produces the PET image, the controller 330 may use parameters as shown in Table 4 for the back propagation technique.

Figure pat00005
Figure pat00005

컨트롤러(330)는 인식기(150-2)를 통해 출력(생성)된 PET 이미지와 실제 PET 이미지의 차이가 최소화되도록 인식기(150-2)를 학습시킬 수 있다.The controller 330 may learn the recognizer 150-2 so that the difference between the PET image output (generated) and the actual PET image through the recognizer 150-2 is minimized.

도 6b를 참조하면, 인식기(150-2)는 T1 MR 이미지를 수신할 수 있다. T1 MR 이미지는 [128 x 128] 사이즈이고, 1 채널로 구성될 수 있다. 인식기(150-2)는 T1 MR 이미지에 기초하여 PET 이미지를 생성할 수 있다.Referring to FIG. 6B, the recognizer 150-2 may receive a T1 MR image. The T1 MR image is [128 x 128] in size and can consist of one channel. The recognizer 150-2 may generate a PET image based on the T1 MR image.

복수의 슬라이스 이미지의 좌측의 숫자 값은 [x x y]의 사이즈를 의미하고, 상단의 숫자 값은 채널의 개수를 의미할 수 있다. 인식기(150-2)는 아래 단계(레이어)로 진행할수록 이미지의 수축(contraction)이 일어나고, 무엇(what)에 대한 관심부위 이미지와의 추상화된 유의미한 핵심정보를 출력할 수 있다. 인식기(150-2)는 윗 단계(레이어)로 진행할수록 이미지의 확장(expansion)이 일어나고, 무엇(what)이 어디에(where) 있는지 정밀하게 고해상도(high-resolution) 이미지를 출력할 수 있다.The numerical value on the left side of the plurality of slice images means the size of [ x x y ], and the numerical value on the upper side can mean the number of channels. As the recognizer 150-2 proceeds to the lower level (layer), the contraction of the image occurs and the abstracted meaningful core information of the region of interest with respect to what can be output. The recognizer 150-2 can expand the image as it goes to the upper level (layer), and can output a high-resolution image precisely where and what.

인식기(150-2) 내에서의 서로 다른 동작(operation)은 다른 종류의 화살표로 표현되었다. 예를 들어, 인식기(150-2)는 [3 x 3]에 기초한 컨볼루션(convolution), 복사(copy), [2 x 2]에 기초한 맥스 풀링(max pooling), 및 [2 x 2]에 기초한 업 컨볼루션(up-convolution) 중 적어도 하나의 동작을 수행할 수 있다.Different operations within the recognizer 150-2 are represented by different kinds of arrows. For example, the recognizer 150-2 may perform convolution based on [3 x 3], copy, max pooling based on [2 x 2], and [2 x 2] And up-convolution based on the received signal.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 컨트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 컨트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components. For example, the apparatus and components described in the embodiments may be implemented within a computer system, such as, for example, a processor, controller, arithmetic logic unit (ALU), digital signal processor, microcomputer, field programmable gate array (FPGA) , A programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For ease of understanding, the processing apparatus may be described as being used singly, but those skilled in the art will recognize that the processing apparatus may have a plurality of processing elements and / As shown in FIG. For example, the processing apparatus may comprise a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as a parallel processor.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the foregoing, and may be configured to configure the processing device to operate as desired or to process it collectively or collectively Device can be commanded. The software and / or data may be in the form of any type of machine, component, physical device, virtual equipment, computer storage media, or device , Or may be permanently or temporarily embodied in a transmitted signal wave. The software may be distributed over a networked computer system and stored or executed in a distributed manner. The software and data may be stored on one or more computer readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (22)

복수의 이미지에 전처리를 수행하는 단계; 및
전처리된 복수의 이미지에 기초하여 재발 부위를 예측하는 단계
를 포함하고,
상기 복수의 이미지는 T1(T1-weighted) 이미지, T1CE(Contrast-enhanced T1-weight) 이미지, T2(T2-weighted) 이미지, FLAIR(Fluid Attenuated Inversion Recovery) 이미지, ADC(Apparent Diffusion Coefficient) 이미지, 및 Segmentation 이미지 중 적어도 하나를 포함하는 멀티모달(multimodal) MR 이미지인 재발 부위 예측 방법.
Performing preprocessing on a plurality of images; And
Predicting a recurrence site based on a plurality of preprocessed images
Lt; / RTI >
The plurality of images may include a T1-weighted image, a Contrast-enhanced T1-weighted image, a T2-weighted image, a Fluid Attenuated Inversion Recovery (FLAIR) image, an ADC (Apparent Diffusion Coefficient) Segmentation image that is a multimodal MR image comprising at least one of a segmentation image and a segmentation image.
제1항에 있어서,
상기 복수의 이미지는 자기 공명 영상(Magnetic Resonance Imaging(MRI)) 장치로부터 획득된 재발 부위 예측 방법.
The method according to claim 1,
Wherein the plurality of images are obtained from a magnetic resonance imaging (MRI) apparatus.
제1항에 있어서,
상기 예측하는 단계는,
기 학습된 인식기에 상기 전처리된 복수의 이미지를 입력하는 단계; 및
상기 기 학습된 인식기가 상기 재발 부위를 예측하는 단계
를 포함하는 재발 부위 예측 방법.
The method according to claim 1,
Wherein the predicting comprises:
Inputting the preprocessed plurality of images to the learned recognizer; And
Wherein the recognizer recognizes the recurrence site
Of the recurrence site.
제3항에 있어서,
예측된 상기 재발 부위와 실제 재발 부위의 차이가 최소화되도록 상기 기 학습된 인식기를 학습시키는 단계
를 더 포함하는 재발 부위 예측 방법.
The method of claim 3,
Learning the learned recognizer so that the difference between the predicted recurrence site and the actual recurrence site is minimized
Wherein the recurrence site predicting method further comprises:
제1항에 있어서,
상기 전처리를 수행하는 단계는,
상기 T1CE 이미지, 상기 T2 이미지, 상기 FLAIR 이미지, 및 상기 ADC 이미지를 상기 T1 이미지에 기초하여 정합하는 단계
를 포함하는 재발 부위 예측 방법.
The method according to claim 1,
The step of performing the pre-
Matching the T1CE image, the T2 image, the FLAIR image, and the ADC image based on the T1 image
Of the recurrence site.
제1항에 있어서,
상기 전처리를 수행하는 단계는,
상기 복수의 이미지에 brain skull stripping을 수행하는 단계
를 포함하는 재발 부위 예측 방법.
The method according to claim 1,
The step of performing the pre-
Performing brain skull stripping on the plurality of images
Of the recurrence site.
복수의 이미지에 전처리를 수행하는 전처리기; 및
전처리된 복수의 이미지에 기초하여 재발 부위를 예측하는 컨트롤러
를 포함하고,
상기 복수의 이미지는 T1(T1-weighted) 이미지, T1CE(Contrast-enhanced T1-weight) 이미지, T2(T2-weighted) 이미지, FLAIR(Fluid Attenuated Inversion Recovery) 이미지, ADC(Apparent Diffusion Coefficient) 이미지, 및 Segmentation 이미지 중 적어도 하나를 포함하는 멀티모달(multimodal) MR 이미지인 재발 부위 예측 장치.
A preprocessor for performing preprocessing on a plurality of images; And
A controller for predicting a recurrence site based on a plurality of preprocessed images
Lt; / RTI >
The plurality of images may include a T1-weighted image, a Contrast-enhanced T1-weighted image, a T2-weighted image, a Fluid Attenuated Inversion Recovery (FLAIR) image, an ADC (Apparent Diffusion Coefficient) Segmentation image, wherein the MR image is a multimodal MR image comprising at least one of the segmentation images.
제7항에 있어서,
상기 복수의 이미지는 자기 공명 영상(Magnetic Resonance Imaging(MRI)) 장치로부터 획득된 재발 부위 예측 장치.
8. The method of claim 7,
Wherein the plurality of images are obtained from a magnetic resonance imaging (MRI) apparatus.
제7항에 있어서,
상기 전처리된 복수의 이미지를 수신하여 상기 재발 부위를 예측하는 기 학습된 인식기
를 더 포함하고,
상기 컨트롤러는,
상기 기 학습된 인식기에 상기 전처리된 복수의 이미지를 입력하는 재발 부위 예측 장치.
8. The method of claim 7,
A plurality of pre-processed images are received,
Further comprising:
The controller comprising:
And inputs the pre-processed plurality of images to the pre-learned recognizer.
제9항에 있어서,
상기 컨트롤러는,
예측된 상기 재발 부위와 실제 재발 부위의 차이가 최소화되도록 상기 기 학습된 인식기를 학습시키는
재발 부위 예측 장치.
10. The method of claim 9,
The controller comprising:
Learning the learned recognizer so that the difference between the predicted recurrence site and the actual recurrence site is minimized
Recurrence site prediction device.
제7항에 있어서,
상기 전처리기는,
상기 T1CE 이미지, 상기 T2 이미지, 상기 FLAIR 이미지, 및 상기 ADC 이미지를 상기 T1 이미지에 기초하여 정합하는
재발 부위 예측 장치.
8. The method of claim 7,
The pre-
The T1CE image, the T2 image, the FLAIR image, and the ADC image based on the T1 image
Recurrence site prediction device.
제7항에 있어서,
상기 전처리기는,
상기 복수의 이미지에 brain skull stripping을 수행하는
재발 부위 예측 장치.
8. The method of claim 7,
The pre-
Performing brain skull stripping on the plurality of images
Recurrence site prediction device.
T1(T1-weighted) MR 이미지에 전처리를 수행하는 단계;
전처리된 T1 MR 이미지를 기 학습된 인식기에 입력하는 단계; 및
상기 기 학습된 인식기가 PET(positron Emission Tomography) 이미지를 생성하는 단계
를 포함하는 PET 이미지 생성 방법.
Performing a pre-processing on a T1 (T1-weighted) MR image;
Inputting a preprocessed T1 MR image to a pre-learned recognizer; And
The step of generating the positron emission tomography (PET) image by the learned recognizer
/ RTI >
제13항에 있어서,
상기 T1 MR 이미지는 자기 공명 영상(MRI) 장치로부터 획득된 PET 이미지 생성 방법.
14. The method of claim 13,
Wherein the T1 MR image is obtained from a magnetic resonance imaging (MRI) device.
제13항에 있어서,
상기 수행하는 단계는,
상기 T1 MR 이미지에 brain skull stripping을 수행하는 단계
를 포함하는 PET 이미지 생성 방법.
14. The method of claim 13,
Wherein the performing comprises:
Performing brain skull stripping on the T1 MR image
/ RTI >
제13항에 있어서,
생성된 PET 이미지와 실제 PET 이미지의 차이가 최소화되도록 상기 기 학습된 인식기를 학습시키는 단계
를 더 포함하는 PET 이미지 생성 방법.
14. The method of claim 13,
Learning the learned recognizer so that the difference between the generated PET image and the actual PET image is minimized
Further comprising the steps of:
제16항에 있어서,
상기 학습시키는 단계는,
상기 생성된 PET 이미지와 상기 실제 PET 이미지를 매칭하는 단계
를 포함하는 PET 이미지 생성 방법.
17. The method of claim 16,
Wherein the learning step comprises:
Matching the generated PET image with the actual PET image
/ RTI >
T1 MR 이미지에 전처리를 수행하는 전처리기;
전처리된 T1 MR 이미지를 기 학습된 인식기에 입력하는 컨트롤러; 및
상기 전처리된 T1 MR 이미지에 기초하여 PET 이미지를 생성하는 기 학습된 인식기
를 포함하는 PET 이미지 생성 장치.
A preprocessor for pre-processing the T1 MR image;
A controller for inputting the preprocessed T1 MR image to a pre-learned recognizer; And
A processor for generating a PET image based on the preprocessed T1 MR image,
And a PET image generating device.
제18항에 있어서,
상기 T1 MR 이미지는 자기 공명 영상(MRI) 장치로부터 획득된 PET 이미지 생성 장치.
19. The method of claim 18,
Wherein the T1 MR image is obtained from a magnetic resonance imaging (MRI) device.
제18항에 있어서,
상기 전처리기는,
상기 T1 MR 이미지에 brain skull stripping을 수행하는
PET 이미지 생성 장치.
19. The method of claim 18,
The pre-
And performing brain skull stripping on the T1 MR image
PET imaging device.
제18항에 있어서,
상기 컨트롤러는,
생성된 PET 이미지와 실제 PET 이미지의 차이가 최소화되도록 상기 기 학습된 인식기를 학습시키는
PET 이미지 생성 장치.
19. The method of claim 18,
The controller comprising:
The learned recognizer is learned so that the difference between the generated PET image and the actual PET image is minimized
PET imaging device.
제21항에 있어서,
상기 컨트롤러는,
상기 생성된 PET 이미지와 상기 실제 PET 이미지를 매칭하는
PET 이미지 생성 장치.
22. The method of claim 21,
The controller comprising:
And comparing the generated PET image with the actual PET image
PET imaging device.
KR1020170023876A 2017-02-23 2017-02-23 Method of predicting recurrence region and generating pet image using deep learning, and apparatus thereof KR101917947B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170023876A KR101917947B1 (en) 2017-02-23 2017-02-23 Method of predicting recurrence region and generating pet image using deep learning, and apparatus thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170023876A KR101917947B1 (en) 2017-02-23 2017-02-23 Method of predicting recurrence region and generating pet image using deep learning, and apparatus thereof

Publications (2)

Publication Number Publication Date
KR20180097214A true KR20180097214A (en) 2018-08-31
KR101917947B1 KR101917947B1 (en) 2018-11-12

Family

ID=63407680

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170023876A KR101917947B1 (en) 2017-02-23 2017-02-23 Method of predicting recurrence region and generating pet image using deep learning, and apparatus thereof

Country Status (1)

Country Link
KR (1) KR101917947B1 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200056871A (en) * 2018-11-15 2020-05-25 사회복지법인 삼성생명공익재단 lesion area detection device, lesion area detection method, and computer program
KR20200058268A (en) * 2018-11-14 2020-05-27 주식회사 투아트 Deep learning based image analysis method, system and mobile terminal
KR20200061311A (en) 2018-11-23 2020-06-02 가천대학교 산학협력단 Apparatus and method for extractiing brain images of pet-mri multiple brain images
JP6746160B1 (en) * 2018-09-12 2020-08-26 株式会社Splink Diagnostic support system and method
KR20200108686A (en) * 2019-03-11 2020-09-21 가천대학교 산학협력단 Programs and applications for sarcopenia analysis using deep learning algorithms
KR20210004562A (en) * 2019-07-05 2021-01-13 넷마블 주식회사 Method for saving and utilizing game data based on block chain network
WO2022054711A1 (en) * 2020-09-10 2022-03-17 株式会社Splink Computer program, information processing device, terminal device, information processing method, learned model generation method, and image output device
KR102456338B1 (en) * 2021-08-03 2022-10-20 주식회사 뉴로젠 Apparatus and method for predicting amyloid beta deposition

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102068279B1 (en) 2019-10-04 2020-01-20 주식회사 루닛 Method and System for analysing image
KR102068277B1 (en) 2019-10-04 2020-02-11 주식회사 루닛 Method and System for analysing image
KR102601738B1 (en) 2019-10-04 2023-11-13 주식회사 루닛 Method and System for analysing image
WO2023163444A1 (en) * 2022-02-25 2023-08-31 재단법인 아산사회복지재단 Method and device for generating precise ndt brain image

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6148265B2 (en) * 2015-02-04 2017-06-14 エヌ・ティ・ティ・コムウェア株式会社 Learning device, learning method, and program

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6746160B1 (en) * 2018-09-12 2020-08-26 株式会社Splink Diagnostic support system and method
CN112702947A (en) * 2018-09-12 2021-04-23 株式会社Splink Diagnosis support system and method
US11978557B2 (en) 2018-09-12 2024-05-07 Splink, Inc. Diagnosis support system and method
KR20200058268A (en) * 2018-11-14 2020-05-27 주식회사 투아트 Deep learning based image analysis method, system and mobile terminal
KR20200056871A (en) * 2018-11-15 2020-05-25 사회복지법인 삼성생명공익재단 lesion area detection device, lesion area detection method, and computer program
KR20200061311A (en) 2018-11-23 2020-06-02 가천대학교 산학협력단 Apparatus and method for extractiing brain images of pet-mri multiple brain images
KR20200108686A (en) * 2019-03-11 2020-09-21 가천대학교 산학협력단 Programs and applications for sarcopenia analysis using deep learning algorithms
KR20210004562A (en) * 2019-07-05 2021-01-13 넷마블 주식회사 Method for saving and utilizing game data based on block chain network
WO2022054711A1 (en) * 2020-09-10 2022-03-17 株式会社Splink Computer program, information processing device, terminal device, information processing method, learned model generation method, and image output device
KR102456338B1 (en) * 2021-08-03 2022-10-20 주식회사 뉴로젠 Apparatus and method for predicting amyloid beta deposition
WO2023013959A1 (en) * 2021-08-03 2023-02-09 주식회사 뉴로젠 Apparatus and method for predicting amyloid beta accumulation

Also Published As

Publication number Publication date
KR101917947B1 (en) 2018-11-12

Similar Documents

Publication Publication Date Title
KR101917947B1 (en) Method of predicting recurrence region and generating pet image using deep learning, and apparatus thereof
KR101854071B1 (en) Method of generating image of interest region using deep learning and apparatus thereof
US9141763B2 (en) Method and system for patient-specific computational modeling and simulation for coupled hemodynamic analysis of cerebral vessels
WO2022001623A1 (en) Image processing method and apparatus based on artificial intelligence, and device and storage medium
CN108629736A (en) System and method for designing super-resolution depth convolutional neural networks
WO2015180397A1 (en) Method and device for recognizing data category based on deep neural network
US9280819B2 (en) Image segmentation techniques
Duan et al. The $ L_ {0} $ regularized Mumford–Shah model for bias correction and segmentation of medical images
US11144782B2 (en) Generating video frames using neural networks
CN114283151A (en) Image processing method, device, equipment and storage medium for medical image
WO2014120727A2 (en) Method and apparatus for generating a derived image using images of different types
CN111373439B (en) Method for image segmentation using CNN
CN109522395A (en) Automatic question-answering method and device
EP3555850A1 (en) System and method for image segmentation using a joint deep learning model
KR102328198B1 (en) Method and apparatus for measuring volume of organ using artificial neural network
CN107330935B (en) Method and device for extracting central line of tubular target
CN111862261B (en) FLAIR modal magnetic resonance image generation method and system
CN114187624A (en) Image generation method, image generation device, electronic equipment and storage medium
CN113192175A (en) Model training method and device, computer equipment and readable storage medium
Tang et al. Multi-atlas brain parcellation using squeeze-and-excitation fully convolutional networks
Li et al. Pancreas segmentation via spatial context based u-net and bidirectional lstm
CN114120454A (en) Training method and device of living body detection model, electronic equipment and storage medium
CN115190999A (en) Classifying data outside of a distribution using contrast loss
CN113554550B (en) Training method and device for image processing model, electronic equipment and storage medium
US20210312634A1 (en) Image reconstruction based on edge loss

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant