KR102348869B1 - Method and apparatus for prediting medical image using conditional generative adversarial network - Google Patents

Method and apparatus for prediting medical image using conditional generative adversarial network Download PDF

Info

Publication number
KR102348869B1
KR102348869B1 KR1020200053181A KR20200053181A KR102348869B1 KR 102348869 B1 KR102348869 B1 KR 102348869B1 KR 1020200053181 A KR1020200053181 A KR 1020200053181A KR 20200053181 A KR20200053181 A KR 20200053181A KR 102348869 B1 KR102348869 B1 KR 102348869B1
Authority
KR
South Korea
Prior art keywords
medical images
image
discriminator
medical
generator
Prior art date
Application number
KR1020200053181A
Other languages
Korean (ko)
Other versions
KR20210135039A (en
Inventor
박상현
정의진
Original Assignee
재단법인대구경북과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인대구경북과학기술원 filed Critical 재단법인대구경북과학기술원
Priority to KR1020200053181A priority Critical patent/KR102348869B1/en
Publication of KR20210135039A publication Critical patent/KR20210135039A/en
Application granted granted Critical
Publication of KR102348869B1 publication Critical patent/KR102348869B1/en

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/40Detecting, measuring or recording for evaluating the nervous system
    • A61B5/4076Diagnosing or monitoring particular conditions of the nervous system
    • A61B5/4088Diagnosing of monitoring cognitive diseases, e.g. Alzheimer, prion diseases or dementia
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Psychiatry (AREA)
  • Animal Behavior & Ethology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Surgery (AREA)
  • Biophysics (AREA)
  • Neurology (AREA)
  • Physiology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Signal Processing (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Radiology & Medical Imaging (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Child & Adolescent Psychology (AREA)
  • Developmental Disabilities (AREA)
  • Hospice & Palliative Care (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Psychology (AREA)
  • Neurosurgery (AREA)
  • Fuzzy Systems (AREA)
  • Databases & Information Systems (AREA)

Abstract

본 발명은 조건부 생성 적대적 네트워크를 이용한 의료 영상의 예측을 위한 방법 및 장치에 관한 것이다. 본 발명의 일 실시 예에 따른 방법은 조건부 생성 적대적 네트워크(conditional generative adversarial network, cGAN)를 이용하며, 컴퓨팅 장치 또는 컴퓨팅 네트워크에서 수행되는 의료 영상의 예측을 위한 방법으로서, 인접한 다수의 2차원 의료 영상 및 조건을 입력 받아 해당 조건에 따른 다른 2차원 의료 영상들을 생성하여 출력하는 생성기와, 2차원 의료 영상 및 조건을 입력 받아 그 2차원 의료 영상에 대한 해당 조건의 일치 여부 및 실제 2차원 의료 영상 슬라이스의 부합 여부를 판별하는 제1 판별기와, 하나의 축 방향에서 인접한 2차원 의료 영상들을 입력 받아 그 2차원 의료 영상들에 대한 실제 3차원 영상 슬라이스의 부합 여부를 판별하는 제2 판별기를 적대 학습시키는 학습 단계; 및 학습된 생성기에 대상물인 인접한 다수의 2차원 의료 영상 및 조건을 입력하여 해당 조건에 대해 예측되는 3차원 의료 영상을 생성하는 예측 단계를 포함한다.The present invention relates to a method and apparatus for prediction of a medical image using a conditionally generated adversarial network. A method according to an embodiment of the present invention uses a conditional generative adversarial network (cGAN) and is a method for predicting a medical image performed in a computing device or a computing network, and a plurality of adjacent two-dimensional medical images and a generator that receives a condition and generates and outputs other 2D medical images according to the condition, receives a 2D medical image and a condition, and determines whether the condition matches the 2D medical image and slices the actual 2D medical image A first discriminator that determines whether or not the 2D medical images are adjacent in one axial direction and a second discriminator that determines whether the actual 3D image slice matches the 2D medical images by adversarial learning learning stage; and a prediction step of generating a 3D medical image predicted for the condition by inputting a plurality of adjacent 2D medical images and conditions that are objects to the learned generator.

Description

조건부 생성 적대적 네트워크를 이용한 의료 영상의 예측을 위한 방법 및 장치{METHOD AND APPARATUS FOR PREDITING MEDICAL IMAGE USING CONDITIONAL GENERATIVE ADVERSARIAL NETWORK}Method and apparatus for prediction of medical images using conditionally generated adversarial networks

본 발명은 의료 영상의 예측을 위한 방법 및 장치에 관한 것으로서, 더욱 상세하게는 조건부 생성 적대적 네트워크를 이용한 의료 영상의 예측을 위한 방법 및 장치에 관한 것이다.The present invention relates to a method and apparatus for predicting a medical image, and more particularly, to a method and apparatus for predicting a medical image using a conditionally generated adversarial network.

알츠하이머병(Alzheimer's Disease; AD)은 아밀로이드 베타 단백질, 타우 단백질 등의 이상 단백질이 뇌 속에 쌓이면서 뇌 신경세포가 서서히 죽는 퇴행성 신경 질환이다. 이러한 알츠하이머병은 정상(Normal Condition; NC), 경도인지장애(Mild Cognitive Impairment; MCI) 및 AD의 순서로 진행되며, 그 진행 정도는 자기 공명 영상(Magnetic Resonance Image; MRI) 등의 의료 영상을 통해 보다 정확히 파악될 수 있다. 이하, NC, MCI 및 AD 등과 같이 어느 질병의 진행 정도에 관련된 단계를 “질병 진행 단계”라 지칭한다.Alzheimer's disease (AD) is a degenerative neurological disease in which abnormal proteins such as amyloid beta protein and tau protein accumulate in the brain and brain neurons slowly die. This Alzheimer's disease progresses in the order of Normal Condition (NC), Mild Cognitive Impairment (MCI), and AD, and the degree of progression is measured through medical images such as Magnetic Resonance Image (MRI). can be identified more accurately. Hereinafter, a stage related to the progression of a certain disease, such as NC, MCI, and AD, is referred to as a “disease progression stage”.

최근에는 다양한 머신 러닝(machine learning)의 알고리즘을 적용하여 의료 영상을 처리하여 예측하는 다양한 기법들이 개발되고 있다. 다만, 자기 공명 영상촬영(Magnetic Resonance Imaging; MRI) 영상 등의 의료 영상에 대한 정확한 예측을 위해서는 예측 모델의 학습 시에 많은 양의 의료 영상 데이터가 필요하지만, 의료 영상 데이터는 특성 상 그 양이 한정적일 수밖에 없다.Recently, various techniques for processing and predicting medical images by applying various machine learning algorithms have been developed. However, in order to accurately predict a medical image such as a Magnetic Resonance Imaging (MRI) image, a large amount of medical image data is required when a predictive model is trained, but the amount of medical image data is limited due to its characteristics. has no choice but to work

이러한 의료 영상 데이터 제한의 문제를 해결하기 위해, 생성 적대적 네트워크(Generative Adversarial Network; GAN)를 기반으로 하는 합성 영상 데이터 생성에 대한 연구가 제안되었다. 예를 들어, MRI 영상으로부터 컴퓨터 단층촬영(Computed Tomography; CT) 영상, MRI 영상으로부터 양전자 방출 단층촬영(Positron Emission Tomography; PET) 영상, CT 영상으로부터 PET 영상을 각각 생성하도록, GAN 모델이 적용될 수 있다. 하지만, 이러한 방식은 미리 정의된 2개의 도메인(domain) 사이에서만 도메인 변환이 수행되는 방식이다. 따라서, GAN은 특정 조건에 해당하는 영상만을 생성하는 것이 불가능하다.In order to solve the problem of this limitation of medical image data, a study on synthetic image data generation based on a generative adversarial network (GAN) has been proposed. For example, a GAN model may be applied to generate a Computed Tomography (CT) image from an MRI image, a Positron Emission Tomography (PET) image from an MRI image, and a PET image from a CT image, respectively. . However, this method is a method in which domain conversion is performed only between two predefined domains. Therefore, it is impossible for the GAN to generate only an image corresponding to a specific condition.

한편, GAN의 한계를 해결하기 위해, 특정 목표 조건(target condition)을 적용함으로써 소스 영상(source image)를 목표 조건의 도메인으로 변환할 수 있는 조건부 생성 적대 네트워크(conditional Generative Adversarial Network; cGAN)이 새롭게 제안될 수 있다. 즉, cGAN을 이용하면 소스 영상을 특정 조건에 해당하는 영상으로 변환할 수 있다.Meanwhile, in order to solve the limitations of GAN, a conditional generative adversarial network (cGAN) that can transform a source image into a domain of a target condition by applying a specific target condition has been newly developed. can be suggested. That is, by using cGAN, a source image can be converted into an image corresponding to a specific condition.

하지만, cGAN을 이용하는 종래 기술의 경우, 연령의 조건에 따른 해당 의료 영상을 생성하기 위한 기술에 불과할 뿐, NC, MCI 또는 AD 등과 같은 특정 질병 단계의 조건에 따른 해당 의료 영상을 생성하기 위한 기술이 아니다. 또한, 종래 기술은 2차원(2 Dimension; 2D) 영상 생성에 관련된 기술인데, 이는 처리해야 할 데이터 양이 많아 3차원(3D) 영상을 직접 생성하는 모델에 대한 최적화가 어렵다. 특히, 종래 기술을 통해 생성된 2D 영상들을 연결해 3D 영상을 재구성할 경우, 해당 각 2D 영상이 독립적으로 생성된 것이므로, 2D의 GAN 모델의 훈련(train) 시에 사용되지 않는 다른 축들에 걸쳐 불연속적 부분이 나타나는 문제를 초래한다.However, in the case of the prior art using cGAN, it is only a technology for generating a corresponding medical image according to an age condition, and a technology for generating a corresponding medical image according to a condition of a specific disease stage such as NC, MCI, or AD is not available. no. In addition, the prior art is a technology related to two-dimensional (2D) image generation, which has a large amount of data to be processed, so it is difficult to optimize a model that directly generates a three-dimensional (3D) image. In particular, when a 3D image is reconstructed by connecting 2D images generated through the prior art, since each 2D image is independently generated, it is discontinuous across other axes that are not used during training of the 2D GAN model. The part appears to cause problems.

상기한 바와 같은 종래 기술의 문제점을 해결하기 위하여, 본 발명은 조건부 생성 적대적 네트워크(cGAN)을 이용하여 어느 질병 진행 단계의 의료 영상을 기반으로 다른 질병 진행 단계의 의료 영상을 예측하여 생성하는 방법 및 장치를 제공하는데 그 목적이 있다.In order to solve the problems of the prior art as described above, the present invention provides a method for predicting and generating a medical image of another disease progression stage based on a medical image of a certain disease stage using a conditionally generated adversarial network (cGAN); The purpose is to provide a device.

또한, 본 발명은 적은 메모리의 소요로 3D의 각 축에 걸쳐 연속적인 3D 의료 영상을 재구성할 수 있게 하는 의료 영상을 예측하여 생성하는 방법 및 장치를 제공하는데 그 다른 목적이 있다.Another object of the present invention is to provide a method and apparatus for predicting and generating a medical image, which can reconstruct a continuous 3D medical image across each axis of 3D with a small memory requirement.

다만, 본 발명이 해결하고자 하는 과제는 이상에서 언급한 과제에 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.However, the problems to be solved by the present invention are not limited to the problems mentioned above, and other problems not mentioned can be clearly understood by those of ordinary skill in the art to which the present invention belongs from the description below. There will be.

상기와 같은 과제를 해결하기 위한 본 발명의 일 실시 예에 따른 방법은 조건부 생성 적대적 네트워크(conditional generative adversarial network, cGAN)를 이용하며, 컴퓨팅 장치 또는 컴퓨팅 네트워크에서 수행되는 의료 영상의 예측을 위한 방법으로서, (1) 인접한 다수의 2차원 의료 영상 및 조건을 입력 받아 해당 조건에 따른 다른 2차원 의료 영상을 생성하여 출력하는 생성기와, 2차원 의료 영상 및 조건을 입력 받아 그 2차원 의료 영상에 대한 해당 조건의 일치 여부 및 실제 2차원 의료 영상 슬라이스의 부합 여부를 판별하는 제1 판별기와, 하나의 축 방향에서 인접한 2차원 의료 영상들을 입력 받아 그 2차원 의료 영상들에 대한 실제 3차원 영상 슬라이스의 부합 여부를 판별하는 제2 판별기를 적대 학습시키는 학습 단계, (2) 학습된 생성기에 대상물인 인접한 다수의 2차원 의료 영상 및 조건을 입력하여 해당 조건에 대해 예측되는 3차원 의료 영상을 생성하는 예측 단계를 포함한다.A method according to an embodiment of the present invention for solving the above problems uses a conditional generative adversarial network (cGAN), and is a method for predicting a medical image performed in a computing device or a computing network. , (1) a generator that receives a plurality of adjacent two-dimensional medical images and conditions and generates and outputs other two-dimensional medical images according to the corresponding conditions; A first discriminator that determines whether conditions match and whether a slice of a real 2D medical image is matched; A learning step of adversarially learning a second discriminator to determine whether or not, (2) a prediction step of generating a 3D medical image predicted for the condition by inputting a plurality of adjacent 2D medical images and conditions that are objects to the learned generator includes

상기 조건은 질병의 진행 정도에 관련된 질병 진행 단계들 중 어느 하나를 포함할 수 있다.The condition may include any one of disease progression stages related to disease progression.

상기 의료 영상은 뇌 측정 영상을 포함할 수 있으며, 상기 질병은 알츠하이머병을 포함할 수 있다.The medical image may include a brain measurement image, and the disease may include Alzheimer's disease.

상기 질병 진행 단계는 정상(Normal Condition; NC) 단계, 경도인지장애(Mild Cognitive Impairment; MCI) 단계 및 알츠하이머((Alzheimer's Disease; AD) 단계를 포함할 수 있다.The disease progression stage may include a Normal Condition (NC) stage, a Mild Cognitive Impairment (MCI) stage, and an Alzheimer's Disease (AD) stage.

상기 학습 단계에서, 제1 및 제2 판별기가 학습된 후에 생성자가 학습되는 과정이 반복 수행될 수 있다.본 발명의 일 실시 예에 따른 장치는 조건부 생성 적대적 네트워크(conditional generative adversarial network, cGAN)를 이용하며, 컴퓨팅 장치 또는 컴퓨팅 네트워크에서 수행되는 의료 영상의 예측을 위한 장치이며, 상기 cGAN은, (1) 인접한 다수의 2차원 의료 영상 및 조건을 입력 받아 해당 조건에 따른 다른 2차원 의료 영상들을 생성하여 출력하는 생성기, (2) 2차원 의료 영상 및 조건을 입력 받아 그 2차원 의료 영상에 대한 해당 조건의 일치 여부 및 실제 2차원 의료 영상 슬라이스의 부합 여부를 판별하는 제1 판별기, (3) 하나의 축 방향에서 인접한 2차원 의료 영상들을 입력 받아 그 2차원 의료 영상들에 대한 실제 3차원 영상 슬라이스의 부합 여부를 판별하는 제2 판별기를 포함한다.In the learning step, after the first and second discriminators are learned, the process of learning the generator may be repeatedly performed. The apparatus according to an embodiment of the present invention implements a conditional generative adversarial network (cGAN). A device for predicting a medical image performed in a computing device or a computing network, wherein the cGAN (1) receives a plurality of adjacent two-dimensional medical images and conditions and generates other two-dimensional medical images according to the corresponding conditions (2) a first discriminator that receives a 2D medical image and condition and determines whether the corresponding condition for the 2D medical image and the actual 2D medical image slice match, (3) and a second discriminator configured to receive adjacent 2D medical images in one axial direction and determine whether the 2D medical images match an actual 3D image slice.

상기 cGAN은 생성기에 대해 제1 판별기 및 제2 판별기가 적대 학습될 수 있다.In the cGAN, the first discriminator and the second discriminator may be adversarially learned with respect to the generator.

학습된 상기 생성기는 대상물인 인접한 다수의 2차원 의료 영상 및 조건이 입력되면 해당 조건에 대해 예측되는 3차원 의료 영상을 생성할 수 있다.The learned generator may generate a plurality of adjacent two-dimensional medical images that are objects and a three-dimensional medical image predicted for a corresponding condition when a condition is input.

상기와 같이 구성되는 본 발명은 cGAN을 이용하여 어느 질병 진행 단계의 의료 영상을 기반으로 다른 질병 진행 단계의 의료 영상을 정확히 예측하여 생성할 수 있는 이점이 있다. The present invention configured as described above has an advantage in that it is possible to accurately predict and generate a medical image of a different disease progression stage based on a medical image of a certain disease stage using cGAN.

또한, 본 발명은 적은 메모리의 소요로 3D의 각 축에 걸쳐 연속적인 3D 의료 영상을 재구성할 수 있게 하는 의료 영상을 예측하여 생성할 수 있는 이점이 있다.In addition, the present invention has the advantage of predicting and generating a medical image that can reconstruct a continuous 3D medical image across each 3D axis with a small memory requirement.

본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects obtainable in the present invention are not limited to the above-mentioned effects, and other effects not mentioned may be clearly understood by those of ordinary skill in the art to which the present invention belongs from the following description. will be.

도 1은 본 발명의 일 실시 예에 따른 의료 영상의 예측 장치(100)를 나타낸다.
도 2는 본 발명의 일 실시 예에 따른 조건부 생성 적대적 네트워크(conditional generative adversarial network)(200)의 블록 구성도를 나타낸다.
도 3은 본 발명의 일 실시 예에 따른 조건부 생성 적대적 네트워크(200)의 동작 원리를 나타낸다.
도 4는 본 발명의 일 실시 예에 따른 예측 방법의 순서도를 나타낸다.
도 6은 해마(hippocampus), 심실(ventricle) 및 회백질 영역(gray matter region)에 대해 본 발명의 cGAN(200)을 사용하여 생성한 합성 영상을 나타낸다.
도 7은 본 발명의 cGAN(200), 2D cGAN 및 3D cGAN를 사용하여 생성한 합성 영상과, 그 원본 영상을 각각 나타낸다.
1 shows an apparatus 100 for predicting a medical image according to an embodiment of the present invention.
2 is a block diagram of a conditional generative adversarial network 200 according to an embodiment of the present invention.
3 illustrates an operating principle of a conditionally generated adversarial network 200 according to an embodiment of the present invention.
4 is a flowchart of a prediction method according to an embodiment of the present invention.
6 shows a composite image generated using the cGAN 200 of the present invention for the hippocampus, ventricle, and gray matter region.
7 shows a synthesized image generated using the cGAN 200, 2D cGAN, and 3D cGAN of the present invention, and an original image thereof, respectively.

본 발명의 상기 목적과 수단 및 그에 따른 효과는 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해질 것이며, 그에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하기로 한다.The above object and means of the present invention and its effects will become more apparent through the following detailed description in relation to the accompanying drawings, and accordingly, those of ordinary skill in the art to which the present invention pertains can easily understand the technical idea of the present invention. will be able to carry out In addition, in describing the present invention, if it is determined that a detailed description of a known technology related to the present invention may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted.

본 명세서에서 사용된 용어는 실시 예들을 설명하기 위한 것이며, 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 경우에 따라 복수형도 포함한다. 본 명세서에서, "포함하다", “구비하다”, “마련하다” 또는 “가지다” 등의 용어는 언급된 구성요소 외의 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다.The terminology used herein is for the purpose of describing the embodiments, and is not intended to limit the present invention. In the present specification, the singular form also includes the plural form as the case may be, unless otherwise specified in the phrase. In this specification, terms such as “include”, “provide”, “provide” or “have” do not exclude the presence or addition of one or more other components other than the mentioned components.

본 명세서에서, “또는”, “적어도 하나” 등의 용어는 함께 나열된 단어들 중 하나를 나타내거나, 또는 둘 이상의 조합을 나타낼 수 있다. 예를 들어, “또는 B”“및 B 중 적어도 하나”는 A 또는 B 중 하나만을 포함할 수 있고, A와 B를 모두 포함할 수도 있다.In this specification, terms such as “or” and “at least one” may indicate one of the words listed together, or a combination of two or more. For example, “or B” and “at least one of B” may include only one of A or B, or both A and B.

본 명세서에서, “예를 들어” 등에 따르는 설명은 인용된 특성, 변수, 또는 값과 같이 제시한 정보들이 정확하게 일치하지 않을 수 있고, 허용 오차, 측정 오차, 측정 정확도의 한계와 통상적으로 알려진 기타 요인을 비롯한 변형과 같은 효과로 본 발명의 다양한 실시 예에 따른 발명의 실시 형태를 한정하지 않아야 할 것이다.In the present specification, descriptions according to “for example” and the like may not exactly match the information presented, such as recited properties, variables, or values, tolerances, measurement errors, limits of measurement accuracy, and other commonly known factors The embodiments of the present invention according to various embodiments of the present invention should not be limited by effects such as modifications including .

본 명세서에서, 어떤 구성요소가 다른 구성요소에 '연결되어’ 있거나 '접속되어' 있다고 기재된 경우, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성 요소에 '직접 연결되어' 있다거나 '직접 접속되어' 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해될 수 있어야 할 것이다.In this specification, when a component is described as being 'connected' or 'connected' to another component, it may be directly connected or connected to the other component, but other components may exist in between. It should be understood that there is On the other hand, when it is mentioned that a certain element is 'directly connected' or 'directly connected' to another element, it should be understood that the other element does not exist in the middle.

본 명세서에서, 어떤 구성요소가 다른 구성요소의 '상에' 있다거나 '접하여' 있다고 기재된 경우, 다른 구성요소에 상에 직접 맞닿아 있거나 또는 연결되어 있을 수 있지만, 중간에 또 다른 구성요소가 존재할 수 있다고 이해되어야 할 것이다. 반면, 어떤 구성요소가 다른 구성요소의 '바로 위에' 있다거나 '직접 접하여' 있다고 기재된 경우에는, 중간에 또 다른 구성요소가 존재하지 않은 것으로 이해될 수 있다. 구성요소 간의 관계를 설명하는 다른 표현들, 예를 들면, '~사이에'와 '직접 ~사이에' 등도 마찬가지로 해석될 수 있다.In this specification, when it is described that a certain element is 'on' or 'in contact with' another element, it may be directly in contact with or connected to the other element, but another element may exist in the middle. It should be understood that On the other hand, when it is described that a certain element is 'directly on' or 'directly' of another element, it may be understood that another element does not exist in the middle. Other expressions describing the relationship between the elements, for example, 'between' and 'directly between', etc. may be interpreted similarly.

본 명세서에서, '제1', '제2' 등의 용어는 다양한 구성요소를 설명하는데 사용될 수 있지만, 해당 구성요소는 위 용어에 의해 한정되어서는 안 된다. 또한, 위 용어는 각 구성요소의 순서를 한정하기 위한 것으로 해석되어서는 안되며, 하나의 구성요소와 다른 구성요소를 구별하는 목적으로 사용될 수 있다. 예를 들어, '제1구성요소'는 '제2구성요소'로 명명될 수 있고, 유사하게 '제2구성요소'도 '제1구성요소'로 명명될 수 있다.In this specification, terms such as 'first' and 'second' may be used to describe various components, but the components should not be limited by the above terms. In addition, the above terms should not be construed as limiting the order of each component, and may be used for the purpose of distinguishing one component from another. For example, a 'first component' may be referred to as a 'second component', and similarly, a 'second component' may also be referred to as a 'first component'.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다. Unless otherwise defined, all terms used herein may be used with meanings commonly understood by those of ordinary skill in the art to which the present invention pertains. In addition, terms defined in a commonly used dictionary are not to be interpreted ideally or excessively unless specifically defined explicitly.

이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 일 실시 예를 상세히 설명하도록 한다.Hereinafter, a preferred embodiment according to the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시 예에 따른 의료 영상의 예측 장치(100)를 나타낸다. 또한, 도 2는 본 발명의 일 실시 예에 따른 조건부 생성 적대적 네트워크(conditional generative adversarial network)(200)의 블록 구성도를 나타낸다.1 shows an apparatus 100 for predicting a medical image according to an embodiment of the present invention. Also, FIG. 2 shows a block diagram of a conditional generative adversarial network 200 according to an embodiment of the present invention.

본 발명의 일 실시 예에 따른 예측 장치(100)는 조건부 생성 적대적 네트워크(conditional generative adversarial network; cGAN)(200)를 이용하여 특정 질병 단계의 의료 영상을 기반으로 다른 질병 진행 단계의 의료 영상을 예측하여 생성(합성)하는 장치일 수 있다. 이러한 예측 장치(100)는 영상획득장치에서 획득된 의료 영상의 데이터에 대해 예측 동작할 수 있다.The prediction apparatus 100 according to an embodiment of the present invention predicts a medical image of another disease progression stage based on a medical image of a specific disease stage using a conditional generative adversarial network (cGAN) 200 . It may be a device for generating (synthesizing) The prediction apparatus 100 may perform a prediction operation on data of a medical image obtained by the image acquisition apparatus.

예를 들어, 영상획득장치는 X-ray 장치, 초음파 장치, 컴퓨터 단층촬영(Computed Tomography; CT) 장치, 자기 공명 영상촬영(Magnetic Resonance Imaging; MRI) 장치, 양전자 방출 단층촬영(Positron Emission Tomography; PET) 장치 등일 수 있으며, 의료 영상은 X-ray 영상, 초음파 영상, CT 영상, MRI 영상(또는 MR 영상), PET 영상 등일 수 있으나, 이에 한정되는 것은 아니다.For example, the image acquisition device includes an X-ray device, an ultrasound device, a computed tomography (CT) device, a magnetic resonance imaging (MRI) device, and a positron emission tomography (PET) device. ) device, and the like, and the medical image may be an X-ray image, an ultrasound image, a CT image, an MRI image (or MR image), a PET image, or the like, but is not limited thereto.

예측 장치(100)는 영상획득장치에 포함된 컴퓨팅 장치일 수 있으며, 별도로 마련된 컴퓨팅 장치 또는 컴퓨팅 네트워크일 수 있다. 도 1을 참조하면, 예측 장치(100)는 입력부(110), 통신부(120), 디스플레이(130), 메모리(140), 프로세서(150) 등을 포함할 수 있다.The prediction device 100 may be a computing device included in the image acquisition device, and may be a separately provided computing device or computing network. Referring to FIG. 1 , the prediction apparatus 100 may include an input unit 110 , a communication unit 120 , a display 130 , a memory 140 , a processor 150 , and the like.

입력부(110)는 조건 등에 관한 사용자의 입력에 대응하여, 입력데이터를 발생시킨다. 입력부(110)는 다양한 입력수단을 포함할 수 있다. 예를 들어, 입력부(110)는 키보드(key board), 키패드(key pad), 돔 스위치(dome switch), 터치 패널(touch panel), 터치 키(touch key), 터치 패드(touch pad), 마우스(mouse), 메뉴 버튼(menu button) 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.The input unit 110 generates input data in response to a user's input regarding a condition or the like. The input unit 110 may include various input means. For example, the input unit 110 may include a keyboard, a keypad, a dome switch, a touch panel, a touch key, a touch pad, and a mouse. (mouse), a menu button (menu button) and the like may be included, but is not limited thereto.

통신부(120)는 영상획득장치, 서버 등의 외부장치와의 통신을 수행하는 구성으로서, 의료 영상 데이터 등을 송수신할 수 있다. 예를 들어, 통신부(120)는 5G(5th generation communication), LTE-A(long term evolution-advanced), LTE(long term evolution), 블루투스, BLE(bluetooth low energe), NFC(near field communication), 와이파이(WiFi) 통신 등의 무선 통신을 수행할 수 있고, 케이블 통신 등의 유선 통신을 수행할 수 있으나, 이에 한정되는 것은 아니다.The communication unit 120 is a component that communicates with an external device such as an image acquisition device and a server, and may transmit/receive medical image data and the like. For example, the communication unit 120 is 5th generation communication (5G), long term evolution-advanced (LTE-A), long term evolution (LTE), Bluetooth, bluetooth low energe (BLE), near field communication (NFC), Wireless communication such as Wi-Fi communication may be performed, and wired communication such as cable communication may be performed, but is not limited thereto.

디스플레이(130)는 의료 영상 등의 다양한 영상 데이터를 화면으로 표시한다. 또한, 표시부(130)는 입력부(120)와 결합되어 터치 스크린(touch screen) 등으로 구현될 수 있다. 예를 들어, 표시부(130)는 비발광형 패널이나 발광형 패널로 구성될 수 있으나, 이에 한정되는 것은 아니다.The display 130 displays various image data such as medical images on the screen. Also, the display unit 130 may be combined with the input unit 120 to be implemented as a touch screen or the like. For example, the display unit 130 may be configured as a non-emissive panel or a light-emitting panel, but is not limited thereto.

메모리(140)는 예측 장치(100)의 동작에 필요한 각종 정보를 저장한다. 예를 들어, 저장 정보는 의료 영상 데이터, cGAN에 관련된 정보, 후술할 예측 방법에 관련된 프로그램 정보 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.The memory 140 stores various types of information necessary for the operation of the prediction apparatus 100 . For example, the storage information may include, but is not limited to, medical image data, information related to cGAN, program information related to a prediction method to be described later, and the like.

프로세서(150)는 예측 장치(100)의 다양한 제어동작을 수행할 수 있다. 예를 들어, 프로세서(150)는 후술할 예측 방법의 수행을 제어할 수 있으며, 예측 장치(100)의 나머지 구성, 즉 입력부(110), 통신부(120), 디스플레이(130), 메모리(140), 프로세서(150) 등의 동작을 제어할 수 있으나, 이에 한정되는 것은 아니다.The processor 150 may perform various control operations of the prediction apparatus 100 . For example, the processor 150 may control execution of a prediction method to be described later, and the remaining components of the prediction apparatus 100 , that is, the input unit 110 , the communication unit 120 , the display 130 , and the memory 140 . , the operation of the processor 150 and the like may be controlled, but the present invention is not limited thereto.

한편, 의료 영상의 예측에 이용되는 본 발명의 일 실시 예에 따른 cGAN(200)은, 도 2에 도시된 바와 같이, 생성기(generator)(G), 제1 판별기(first discriminator 또는 2D discriminator(F), 제2 판별기(second discriminator 또는 3D discriminator)(H)를 포함한다. 이들은 적대 학습(adversarial learning)될 수 있으며, 학습된 모델을 각각 '생성 모델', '제1 판별 모델', '제2 판별 모델'이라고 지칭할 수도 있다.Meanwhile, the cGAN 200 according to an embodiment of the present invention used for prediction of a medical image, as shown in FIG. 2 , includes a generator G, a first discriminator, or a 2D discriminator. F), and a second discriminator (or 3D discriminator) H. These can be subjected to adversarial learning, and the learned models are classified as 'generic model', 'first discriminator', ' It may also be referred to as a 'second discriminant model'.

이러한 cGAN(200)에 관련된 대한 정보는 메모리(140)에 저장될 수 있으며, 프로세서(150)에서 적어도 하나의 프로세스(process)를 통해 수행될 수 있다. 다만, 이들 생성기(G), 제1 판별기(F) 및 제2 판별기(H)에 대해서는 후술할 예측 방법에서 더욱 상세히 설명하도록 한다.Information related to the cGAN 200 may be stored in the memory 140 , and may be performed by the processor 150 through at least one process. However, the generator (G), the first discriminator (F), and the second discriminator (H) will be described in more detail in the prediction method to be described later.

이하, 프로세서(150)에 의해 제어 동작되는 본 발명의 일 실시 예에 따른 예측 방법에 대하여 설명하도록 한다.Hereinafter, a prediction method according to an embodiment of the present invention controlled by the processor 150 will be described.

다만, 이하에서는 cGAN(200)을 이용하여 알츠하이머병(Alzheimer's Disease, AD)의 정상(Normal Condition; NC), 경도인지장애(Mild Cognitive Impairment; MCI) 및 AD로 진행되는 질병 진행 단계 중 어느 질병 진행 단계의 의료 영상(뇌에 관한 MRI 영상)을 기반으로 다른 질병 진행 단계의 의료 영상을 예측하여 생성하는 방법에 대해서 설명하도록 하나, 본 발명이 이에 한정되는 것은 아니다. 즉, 본 발명은 알츠하이머병 외에도 다른 질병에 대한 어느 질병 진행 단계의 의료 영상을 기반으로 다른 질병 진행 단계의 의료 영상을 예측하여 생성하는 방법에도 적용될 수 있다. 이때, 의료 영상은 뇌를 촬영한 영상 외에 다른 부위를 촬영한 영상일 수도 있다. However, in the following, any disease progression of Alzheimer's Disease (AD) using the cGAN 200 is used in Normal Condition (NC), Mild Cognitive Impairment (MCI) and AD. A method of predicting and generating a medical image of another disease progression stage based on a medical image of the stage (MRI image of the brain) will be described, but the present invention is not limited thereto. That is, the present invention can also be applied to a method of predicting and generating a medical image of another disease progression stage based on a medical image of a disease stage other than Alzheimer's disease. In this case, the medical image may be an image obtained by photographing a part other than the image obtained by photographing the brain.

또한, 이하에서, '영상'은 의료 영상을 지칭할 수 있으며, '합성 영상'은 생성기(G)에 의해 생성된 영상을 지칭할 수 있다. 또한, 실제 2D 영상의 슬라이스(slice)는 'x2D'로, 합성 2D 영상의 슬라이스는 's2D'로, 실제 3D 영상의 슬라이스는 'x3D'로, 합성 3D 영상의 슬라이스는 's3D'로 각각 표현될 수 있다.Also, hereinafter, 'image' may refer to a medical image, and 'synthetic image' may refer to an image generated by the generator (G). In addition, the slice of the actual 2D image is expressed as 'x2D', the slice of the synthesized 2D image is expressed as 's2D', the slice of the actual 3D image is expressed as 'x3D', and the slice of the synthesized 3D image is expressed as 's3D', respectively. can be

도 3은 본 발명의 일 실시 예에 따른 조건부 생성 적대적 네트워크(200)의 동작 원리를 나타낸다.3 illustrates an operating principle of a conditionally generated adversarial network 200 according to an embodiment of the present invention.

생성기(G)는 2D 영상의 합성을 위한 구성이다. 즉, 생성기(G)는 입력되는 2D 영상(x2D 또는 s2D)으로부터 목표 조건(condition)(c)(즉, NC, MCI 또는 AD)에 해당하는 s2D를 생성한다. 특히, 생성기(G)는 인접한 다수의 2D 영상 및 조건(c)으로부터 인접한 s2D를 생성함으로써, 그와 관련된 3D 영상의 합성이 가능하게 한다. 이 생성기(G)는 질병에 의해 영향을 받는 뇌 영역을 수정하기 위해 적대적 학습(adversarial learning)에 의해 훈련되는 한편, 순환 학습(cycle learning)을 통해 변형을 역전시킴(reversing the transformation)으로써 환자의 정체성을 유지한다. The generator G is a component for synthesizing 2D images. That is, the generator G generates an s2D corresponding to a target condition c (ie, NC, MCI, or AD) from an input 2D image (x2D or s2D). In particular, the generator G generates an adjacent s2D from a plurality of adjacent 2D images and condition (c), thereby enabling synthesis of a 3D image related thereto. This generator (G) is trained by adversarial learning to modify the brain regions affected by the disease, while reversing the transformation through cycle learning. maintain identity.

생성기(G)는 인코더(encoder), 전이 계층(transition layer) 및 디코더(decoder)를 포함할 수 있다. 인코더는 3개의 컨볼루션 레이어(convolutional layer)를 통해 피쳐 맵(feature map)을 x2D의 원래 크기의 1/4로 줄인다. 그 다음, 전이 계층은 6개의 잔차 블록(residual block)을 통해 피쳐 맵을 처리한다. 이때, 조건(c)와 피쳐 맵이 결합된다. 생성기(G)의 최종 단계에서, 3개의 전치 컨볼루션 계층(transpose convolution layer)에 의해 정의된 디코더는 잠재 표현(latent representation)을 x2D와 동일한 크기의 s2D로 변환한다.The generator G may include an encoder, a transition layer, and a decoder. The encoder reduces the feature map to 1/4 of the original size of x2D through three convolutional layers. Then, the transition layer processes the feature map through 6 residual blocks. At this time, the condition (c) and the feature map are combined. In the final stage of the generator G, the decoder defined by three transpose convolution layers transforms the latent representation into s2D of the same size as x2D.

제1 판별기(F)는 목표 조건을 충족하는 현실적인 2D 영상 슬라이스가 합성되도록 보장하기 위한 구성이다. 즉, 제1 판별기(F)는 입력된 2D 영상에 대해 조건의 레이블(label)(c)에 대한 일치 여부와, x2D에 대한 부합 여부(즉, 입력된 2D 영상이 x2D에 해당하는지 또는 s2D에 해당하는지 여부)를 판별한다.The first discriminator F is configured to ensure that realistic 2D image slices satisfying the target condition are synthesized. That is, the first discriminator F determines whether the label (c) of the condition for the input 2D image matches, and whether the condition matches the x2D (ie, whether the input 2D image corresponds to x2D or s2D). to determine whether it corresponds to ).

제1 판별기(F)는 5개의 2D 컨볼루션 계층(convolution layer)과 2개의 완전 연결 계층(fully connected layer)을 포함한 CNN(convolutional neural network)로 구성될 수 있다. 2개의 완전 연결 계층은 2D 영상에 대한 실제 분류(Fa)(즉, 실제인지 합성인지 여부를 분류) 및 조건에 대한 분류(Fb)(즉, NC, MCI 또는 AD인지 여부를 분류)를 수행한다. F의 입력은 횡축(axial)의 x2D이거나 s2D이다.The first discriminator F may be composed of a convolutional neural network (CNN) including five 2D convolutional layers and two fully connected layers. Two fully connected layers perform an actual classification (Fa) for a 2D image (ie, to classify whether it is real or synthetic) and a classification (Fb) for a condition (ie, to classify whether it is NC, MCI, or AD). . The input of F is axial x2D or s2D.

제2 판별기(H)는 3D 영상의 생성 및 판별 시 발생하는 메모리 제한의 문제를 해결하면서 3D 구조를 보장하기 위한 구성이다. 즉, 제2 판별기(H)는 부드러운(smoothing) 3D 영상을 생성하는데 도움을 줄 수 있다.The second discriminator H is configured to ensure a 3D structure while solving a problem of a memory limitation that occurs when generating and discriminating a 3D image. That is, the second discriminator H may help to generate a smoothing 3D image.

생성기(G)에서는 3D 공간에서 합성되는 영상의 부드러움을 고려해, k개(단, k는 2이상의 자연수)의 인접 영상들(neighboring images)을 횡축(axial) 방향으로 순차적으로 배치한다. 즉, 미니 배치(mini-batch)에 각 영상에 대한 인접 영상들인 s1 2D, s2 2D, ..., sk 2D가 생성된다. 제2 판별기(H)는 이 인접 영상들이 x3D에 대한 부합 여부(즉, x3D 또는 s3D에 해당하는지 여부)를 판별한다. 이에 따라, 제2 판별기(H)는 3D 공간의 영상 품질을 향상시켜, 종래 기술에서 복수 축들에 걸쳐 불연속적 부분이 나타나는 문제점을 해결할 수 있다. 즉, 본 발명은 제2 판별기(H)를 통해 3D의 각 축에 걸쳐 연속적인 3D 영상을 재구성할 수 있게 한다. 이때, x3D는 인접한 실제 2D 영상들인 x1 2D, x2 2D, ..., xk 2D가 연쇄 처리(concatenation)된 것이며, s3D는 인접한 합성 2D 영상들인 s1 2D, s2 2D, ..., sk 2D가 연쇄 처리된 것이다.In the generator G, in consideration of the smoothness of images synthesized in 3D space, k (however, k is a natural number greater than or equal to 2) is sequentially arranged in the axial direction. That is, the adjacent images which are 2D 1 s, 2 s 2D, ..., s k for each 2D image on the mini-batch (mini-batch) is generated. The second discriminator H determines whether the adjacent images correspond to x3D (ie, whether they correspond to x3D or s3D). Accordingly, the second discriminator H may improve the image quality of the 3D space, thereby solving the problem of discontinuous portions appearing across a plurality of axes in the prior art. That is, the present invention makes it possible to reconstruct a continuous 3D image across each axis of 3D through the second discriminator (H). In this case, x3D is a concatenation of adjacent real 2D images x 1 2D , x 2 2D , ..., x k 2D , and s3D is adjacent synthetic 2D images s 1 2D , s 2 2D , .. ., s k 2D is concatenated.

제2 판별기(H)는 제1 판별기(F)와 마찬가지로 CNN으로 구성될 수 있다. 다만, 제2 판별기(H)의 CNN은 5개의 3D 컨볼루션 레이어와, 그 입력이 인접 2D 슬라이스들이 x3D에 해당하는지 또는 s3D에 해당하는지를 구별하는 하나의 완전 연결 레이어로 구성된다. 이에 따라, 제2 판별기(H)는 모델이 3D의 3축 모두에서 우수한 품질의 3D 영상을 생성하도록 보장할 수 있다. 즉, 도 2를 참조하면, k개의 연속 2D 슬라이스(consecutive 2D slice)들인 s2D를 연쇄 처리하여 s3D를 재구성하는 모습을 볼 수 있다.Like the first discriminator (F), the second discriminator (H) may be configured as a CNN. However, the CNN of the second discriminator H consists of five 3D convolutional layers and one fully connected layer whose input distinguishes whether adjacent 2D slices correspond to x3D or s3D. Accordingly, the second discriminator H can ensure that the model generates a 3D image of excellent quality in all three axes of 3D. That is, referring to FIG. 2 , it can be seen that s3D is reconstructed by concatenating s2D, which is k consecutive 2D slices.

정리하면, 제2 판별기(H)는 생성기(G)에 의해 생성되어 연쇄 작업된 미니 배치에 있는 인접 2D 슬라이스들에 대해 작업을 수행한다. 이러한 제2 판별기(H)에 따라, 생성기(G)는 3D 공간의 정보를 고려한 2D 영상들을 합성하도록 학습된다.In summary, the second discriminator (H) performs an operation on adjacent 2D slices in the mini-batch concatenated and generated by the generator (G). According to the second discriminator H, the generator G is trained to synthesize 2D images in consideration of information in 3D space.

도 4는 본 발명의 일 실시 예에 따른 예측 방법의 순서도를 나타낸다.4 is a flowchart of a prediction method according to an embodiment of the present invention.

도 4를 참조하면, 본 발명의 일 실시 예에 따른 예측 방법은 S10 및 S20을 포함한다.Referring to FIG. 4 , the prediction method according to an embodiment of the present invention includes S10 and S20.

먼저, S10에서는 생성기(G), 제1 판별기(F) 및 제2 판별기(H)을 적대 학습시킨다. 이때, 2D와 3D 공간에서 다음의 (1) 및 (2)과 같이 적대적 손실 함수(adversarial loss function)(L2D-adv, L2D-adv)를 이용하여 cGAN(200)을 훈련(train)시킬 수 있다.First, in S10, the generator (G), the first discriminator (F), and the second discriminator (H) are subjected to adversarial learning. At this time, in 2D and 3D space, the cGAN 200 is trained using an adversarial loss function (L 2D-adv , L 2D-adv ) as shown in (1) and (2) below. can

Figure 112020045064634-pat00001
Figure 112020045064634-pat00001

즉, L2D-adv는 2D 영상에 대한 적대적 손실 함수이며, L3D-adv는 3D 영상에 대한 적대적 손실 함수이다. 식 (1)의 L2D-adv에 관련된 첫번째 항은 제1 판별기(F)에 실제(real) 2D 영상(x2D)이 입력되면 1에 가까운 확률 값을 출력하는 함수를, 두 번째 항은 제1 판별기(F)에 가짜 2D 영상(s2D)이 입력되면 0에 가까운 확률 값을 출력하는 함수이다. 식(2)의 L3D-adv에 관련된 첫번째 항은 제2 판별기(H)에 실제 3D 영상(즉, 연속한 2D 영상들)(x3D)이 입력되면 1에 가까운 확률 값을 출력하는 함수를, 두 번째 항은 제2 판별기(H)에 가짜 3D 영상(즉, 연속한 2D 영상들)(s3D)이 입력되면 0에 가까운 확률 값을 출력하는 함수이다.That is, L 2D-adv is a hostile loss function for a 2D image, and L 3D-adv is a hostile loss function for a 3D image. The first term related to L 2D-adv in Equation (1) is a function that outputs a probability value close to 1 when a real 2D image (x2D) is input to the first discriminator (F), and the second term is the second term 1 This is a function that outputs a probability value close to 0 when a fake 2D image s2D is input to the discriminator F. The first term related to L 3D-adv in Equation (2) is a function that outputs a probability value close to 1 when an actual 3D image (ie, continuous 2D images) (x3D) is input to the second discriminator (H). , the second term is a function that outputs a probability value close to 0 when a fake 3D image (ie, consecutive 2D images) (s3D) is input to the second discriminator H.

s2D는 x2D와 유사해야 하며 목표 조건(c)을 충족해야 한다. 이를 해결하기 위해, Fb는 입력된 2D 영상 슬라이스에 대한 조건을 분류한다. 한편, s2D에 대해 예측된 조건은 제2 판별기(G)를 최적화하는데 사용되며, x2D에 대해 예측된 조건은 제1 판별기(F)를 최적화하는데 사용된다. 따라서 실제 영상에 대한 분류 손실(Lr cls)과 합성 영상에 대한 손실(Ls cls)은 다음의 (3) 및 (4)와 같이 정의된다.s2D must be similar to x2D and must satisfy target condition (c). To solve this, Fb classifies conditions for the input 2D image slice. Meanwhile, the condition predicted for s2D is used to optimize the second discriminator (G), and the condition predicted for x2D is used to optimize the first discriminator (F). Accordingly, the classification loss for the real image (L r cls ) and the loss for the synthetic image (L s cls ) are defined as follows (3) and (4).

Figure 112020045064634-pat00002
Figure 112020045064634-pat00002

즉, 식 (3)에서 Lr cls은 제1 판별기(F)에 실제 2D 영상 슬라이스(x2D)가 주어졌을 때 그 조건(c) 일치 여부를 맞출 확률에 -log 값을 취한 값으로 표현될 수 있으며, 해당 조건 일치 여부가 맞으면 0 값이 되고 틀리면 그 보다 큰 값이 된다. 식 (4)에서 Ls cls 제1 판별기(F)에 가짜 2D 영상 슬라이스(s2D)가 주어졌을 때 그 조건 일치 여부를 맞출 확률에 -log 값을 취한 값으로 표현될 수 있으며, 해당 조건 일치 여부가 맞으면 0 값이 되고 틀리면 그 보다 큰 값이 된다. That is, in Equation (3), L r cls is a value obtained by taking the -log value of the probability of matching the condition (c) when an actual 2D image slice (x2D) is given to the first discriminator (F). If the corresponding condition is met, a value of 0 is obtained, and if it is incorrect, a value greater than that value is obtained. In equation (4), L s cls is When a fake 2D image slice (s2D) is given to the first discriminator (F), it can be expressed as a value obtained by taking the -log value of the probability of matching the condition. value greater than that.

합성된 영상은 입력 영상의 정체성을 유지해야 하기 때문에 적대적 손실과 함께 순환 일관성 손실(cycle consistency loss)(Lcyc)을 추가하였다. 다음의 (5)와 같이, 순환 일관성 손실(Lcyc)은 x2D의 원래 조건(c')과 s2D를 사용하여 생성기(G)를 사용하여 변환을 되돌린다.Since the synthesized image must maintain the identity of the input image, a cycle consistency loss (L cyc ) is added along with the adversarial loss. As shown in the following (5), the cyclic coherence loss (L cyc ) returns the transformation using the original condition (c') of x2D and the generator (G) using s2D.

Figure 112020045064634-pat00003
Figure 112020045064634-pat00003

즉, 식 (5)에서, Lcyc는 실제 2D 영상(x2D)과, 생성기(G)에 가짜 2D 영상(s2D) 및 조건(c')를 입력하여 생성한 영상인 G(s2D, c')과의 차이로 표현될 수 있다.That is, in Equation (5), L cyc is the real 2D image (x2D), the fake 2D image (s2D) and the condition (c'), which is an image generated by inputting the generator (G), G(s2D, c') It can be expressed as a difference between

마지막으로, 다음의 (6) 내지 (8)과 같이, 생성기(G), 제1 판별기(F) 및 제2 판별기(H)는 각각의 손실 함수(LG, LF 및 LH)를 최적화하면서 동시에 학습된다.Finally, as in the following (6) to (8), the generator (G), the first discriminator (F) and the second discriminator (H) have respective loss functions (L G , L F and L H ) is learned while optimizing.

Figure 112020045064634-pat00004
Figure 112020045064634-pat00004

이때, 동시 학습은 모든 손실(loss)를 고려해서 학습이 진행된다는 것으로서, 제1 및 제2 판별기(F, H)와 생성자(G)를 번갈아 가며 학습이 진행되는 것을 의미한다. 즉, 제1 및 제2 판별기(F, H)가 먼저 학습된 후, 학습된 제1 및 제2 판별기(F, H)를 기반으로 생성자(G)가 학습되며, 다시 제1 및 제2 판별기(F, H)가 업데이트가 되고 생성기(G)가 업데이트되며, 이러한 과정이 반복될 수 있다. 예를 들어, 이러한 과정은 각 손실 함수(LG, LF 및 LH)가 기 설정된 적정 값으로 세팅되는 방향으로, 또는 각 손실 함수(LG, LF 및 LH)를 줄이는 방향으로, 또는 각 손실 함수(LG, LF 및 LH)를 최소화하는 방향으로 학습이 진행되고 업데이트될 수 있으나, 이에 한정되는 것은 아니다.At this time, simultaneous learning means that learning is carried out in consideration of all losses, meaning that learning is carried out by alternating the first and second discriminators (F, H) and the generator (G). That is, after the first and second discriminators (F, H) are first learned, the generator (G) is learned based on the learned first and second discriminators (F, H), and again the first and second discriminators (F, H) are trained. 2 The discriminators F and H are updated and the generator G is updated, and this process may be repeated. For example, this process is performed in a direction in which each loss function (L G , L F and L H ) is set to a predetermined appropriate value, or in a direction to decrease each loss function (L G , L F and L H ), Alternatively, learning may be progressed and updated in a direction that minimizes each of the loss functions L G , L F and L H , but is not limited thereto.

또한, (6) 내지 (8)에서 각 손실 효과를 최적화하기 위한 파라미터를 적용할 수 있다. 즉, cls와 λcyc은 각각 손실 효과의 균형을 맞추기 위한 하이퍼 파라미터(hyperparameter)로서, cls는 1일 수 있으며, λcyc는 0.1일 수 있으나, 이에 한정되는 것은 아니다.In addition, parameters for optimizing each loss effect in (6) to (8) can be applied. That is, cls and λ cyc are hyperparameters for balancing loss effects, respectively, and cls may be 1 and λ cyc may be 0.1, but is not limited thereto.

이후, S20에서는 최적 학습된 cGAN(200)을 이용하여 실제 대상이 되는 영상에 적용하는 단계이다. 즉, S20에서, 최적 학습된 생성기(G)에 대상물인 2차원 영상 및 조건을 입력함으로써, 해당 조건에 대해 예측되는 2차원 영상을 생성할 수 있다. Thereafter, in S20, it is a step of applying the optimally learned cGAN 200 to an actual target image. That is, in S20 , by inputting the target 2D image and the condition to the optimally learned generator G, the 2D image predicted for the condition may be generated.

예를 들어, 알츠하이머병에 대한 검사 대상 환자의 MRI 영상과 그 조건(NC, MCI 또는 AD)을 기 학습된 생성기(G)에 입력하면, 생성기(G)는 해당 조건(NC, MCI 또는 AD)에 대해 예측되는 MRI 영상을 생성할 수 있다. 특히, 학습된 생성기(G)에 인접한 다수의 2차원 영상 및 조건을 입력하면, 해당 조건에 대해 예측되는 인접한 2차원 영상들을 생성할 수 있으며, 그 결과 생성된 인접 2차원 영상들을 통해 그에 관련된 3차원 영상이 합성될 수 있다.For example, if an MRI image of a patient to be tested for Alzheimer's disease and its condition (NC, MCI, or AD) are input to the pre-learned generator (G), the generator (G) will generate the corresponding condition (NC, MCI, or AD). A predicted MRI image may be generated. In particular, if a plurality of 2D images and conditions adjacent to the learned generator G are input, adjacent 2D images predicted for the corresponding condition can be generated, and 3 related 3D images are generated through the resultant adjacent 2D images. A dimensional image may be synthesized.

<실험 결과><Experiment result>

1) 데이터세트(dataset)1) Dataset

알츠하이머 병 신경화 이니셔티브(Alzheimer's Disease Neuroimaging Initiative; ADNI)의 데이터세트를 사용하였다. AD 대상의 200개의 MRI 영상과, MCI 대상의 400개의 MRI 영상과, 정상 대조군인 NC 대상의 200개의 MRI 영상을 수집하였다. 모든 영상의 크기가 192 × 192 × 160이 되도록, 아핀 변환(affine transformation)을 사용하여 영상을 정렬하고 그 크기를 조정하였다.The dataset from the Alzheimer's Disease Neuroimaging Initiative (ADNI) was used. 200 MRI images of AD subjects, 400 MRI images of MCI subjects, and 200 MRI images of NC subjects, a normal control group, were collected. Images were aligned and resized using affine transformation so that the size of all images was 192 × 192 × 160.

2) 구현 세부 정보(Implementation details)2) Implementation details

데이터를 2개의 짝수 하위 세트(subset)(세트 A 및 세트 B)로 나누었다. 본 발명의 모델을 사용하여, 세트 A에서 192 × 192 크기의 MR 영상의 횡축(axial) 방향 뷰를 가진 합성 영상(세트 A')을 생성하였다. 각 영상에 대해 원래 조건(c')을 제외한 다른 2가지 조건에 각각 대한 영상을 생성하였다(예를 들어, NC 영상 및 MCI 영상은 AD 영상에서 생성되며, MCI 영상 및 AD 영상은 NC 영상에서 생성됨). 생성기(G), 제1 판별기(F) 및 재2 판별기(H)를 동시에 훈련(train)시키기 위해, MRI 영상에서 k개의 연속 2D 슬라이스(consecutive 2D slice)를 샘플링(sampling)하여 훈련 미니 배치(training mini-batch)를 구성하였다. 본 실험에서는 k이 3, 6, 8의 값인 각각의 경우에 대해 평가되었다. 모델은 Adam Optimizer를 사용하여 150,000회 반복되고 일정한 감쇠와 함께 0.0001의 학습 속도로 학습되었다. 프로그램 코드는 PyTorch 딥 러닝 프레임 워크를 기반으로 개발되었으며, GTX TITAN X NVIDIA GPU에서 실행되었다.The data were divided into two even subsets (set A and set B). Using the model of the present invention, a composite image (set A') with an axial view of an MR image of size 192 × 192 in set A was generated. For each image, images were generated for each of the other two conditions except for the original condition (c') (for example, NC images and MCI images are generated from AD images, and MCI images and AD images are generated from NC images) ). In order to train the generator (G), the first discriminator (F), and the second discriminator (H) at the same time, k consecutive 2D slices from the MRI image are sampled and a training mini A training mini-batch was constructed. In this experiment, each case where k was a value of 3, 6, and 8 was evaluated. The model was trained using the Adam Optimizer with 150,000 iterations and a learning rate of 0.0001 with constant attenuation. The program code was developed based on the PyTorch deep learning framework and was run on a GTX TITAN X NVIDIA GPU.

3) 평가 설정(Evaluation setting)3) Evaluation setting

생성된 3D 영상의 품질을 정량적으로 측정하기 위해 FID(Frechet Inception Distance)가 세트 A'와 세트 B 사이에서 측정되었다. FID는 실제 영상과 생성된 영상에 대한 임베디드 표현(embedded representation)으로 변환하여 이들의 차이를 평가하며, 이들의 평균(mean)과 공분산(covariance) 차이를 측정한다. 임베디드 표현은 ImageNet 데이터 세트에서 사전 훈련된 Inception 네트워크의 두 번째 계층으로 영상을 인코딩하여 계산되었다. 사전 훈련된 2D Inception 네트워크를 3D 영상에 적용하기 위해, 3축에서 2D 영상 슬라이스를 추출한 다음, FID 점수를 축 별로 각각 측정하였다.In order to quantitatively measure the quality of the generated 3D image, FID (Frechet Inception Distance) was measured between set A' and set B. FID evaluates the difference between the real image and the embedded representation of the generated image, and measures their mean and covariance differences. The embedded representation was computed by encoding the image as a second layer of the pretrained Inception network on the ImageNet data set. To apply the pre-trained 2D Inception network to 3D images, 2D image slices were extracted from 3 axes, and then the FID score was measured for each axis.

또한, GAN-train 및 GAN-test 점수도 측정하였다. FID 점수는 실제 영상과 생성된 영상이 ImageNet 데이터 세트에 있는 영상과 유사한 가우시안 분포(Gaussian distribution)를 가지고 있다고 가정하지만, 이는 생체 의료 영상에 대한 좋은 표현이 아닐 수 있다. 다만, 실제 및 생성된 생의학적 영상 사이의 분포 유사성은 여전히 GAN-train 및 GAN-test 점수에 의해 측정될 수 있다. GAN-train 점수를 계산하기 위해 분류 모델을 생성된 데이터로 훈련한 다음 실제 데이터에서 테스트하였다. GAN-test의 경우, 모델을 실제 데이터로 학습한 다음 생성된 데이터를 테스트하였다. 각 판별 모델이 실제 데이터에 대해 훈련되고 테스트되어 GAN-train 및 GAN-test 점수가 거의 유사한 성능을 갖는 경우, 해당 GAN 모델은 효과적인 것으로 간주된다. 우리는 3가지 조건(NC vs MCI vs AD)에 대한 분류와, 비교적 쉬운 작업인 NC와 AD 간의 이진 분류(binary classification)(즉, NC vs AD)에 대한 점수를 측정하였다.In addition, GAN-train and GAN-test scores were also measured. The FID score assumes that the real and generated images have a Gaussian distribution similar to the images in the ImageNet dataset, but this may not be a good representation of biomedical imaging. However, the distribution similarity between actual and generated biomedical images can still be measured by GAN-train and GAN-test scores. To calculate the GAN-train score, a classification model was trained on the generated data and then tested on the real data. In the case of GAN-test, the model was trained with real data and then the generated data was tested. If each discriminant model is trained and tested on real data and the GAN-train and GAN-test scores have almost similar performance, the corresponding GAN model is considered effective. We measured the scores for classification for three conditions (NC vs MCI vs AD) and binary classification between NC and AD (ie, NC vs AD), which is a relatively easy task.

도 5는 분류를 위한 네트워크 아키텍처(Network architecture)를 나타낸다.5 shows a network architecture for classification.

분류 모델의 경우, “Pan, Y., Liu, M., Lian, C., Zhou, T., Xia, Y., Shen, D.: Synthesizing Missing PET from MRI with Cycle-consistent Generative Adversarial Networks for Alzheimer's Disease Diagnosis. In: Medical Image Computing and Computer Assisted Intervention. pp. 455{463 (2018)” 에 기재된 작업을 따른다. 특히, 전체 3D 볼륨의 여러 위치에서 48 × 48 × 48 크기의 27개 패치를 추출하였다. 패치를 임베디드 표현으로 인코딩한 다음 모든 임베디드 벡터(embedded vector)를 연결하여(concatenated), 3D 영상에 대한 단일 분류 결과를 최종적으로 측정하였다. 분류 모델 세부 사항은 도 5에 도시된 바와 같을 수 있다. 다만, 그 외에도 어떤 형태의 분류 모델이든지 사용될 수 있으며, 사용된 해당 모델에 따라 그 정확도가 다를 수 있다.For classification models, see “Pan, Y., Liu, M., Lian, C., Zhou, T., Xia, Y., Shen, D.: Synthesizing Missing PET from MRI with Cycle-consistent Generative Adversarial Networks for Alzheimer's Disease Diagnosis. In: Medical Image Computing and Computer Assisted Intervention. pp. 455{463 (2018)”. In particular, 27 patches with a size of 48 × 48 × 48 were extracted from various locations in the entire 3D volume. After encoding the patch into an embedded representation, all embedded vectors were concatenated (concatenated), and a single classification result for the 3D image was finally measured. Classification model details may be as shown in FIG. 5 . However, in addition to this, any type of classification model may be used, and the accuracy may vary depending on the corresponding model used.

본 발명의 cGAN(200)을 2D cGAN 및 3D cGAN과 비교하였다. 이때, 2D cGAN은 본 발명의 cGAN(200)과 유사한 구조를 가지나, 제2 판별기(G)를 사용하지 않았다. 3D cGAN도 본 발명의 cGAN(200)과 유사한 구조를 가지나, 3D 영상을 생성하는 3D 생성기를 사용한다. 다만, 메모리 제한으로 인해, 3D cGAN의 3D 생성기는 전체 3D 영상 대신 한 번에 20개의 인접한 2D 영상을 생성하도록 구현되었다. 공정한 비교를 위해, 본 발명에서 사용된 동일한 하이퍼 파라미터를 가지는 2D cGAN 및 3D cGAN을 사용하여 동일 실험을 수행하였다. 또한, 세트 A와 세트 B 사이에서 FID 및 GAN-train 스코어를 측정하여 그 상한을 나타냈다.The cGAN 200 of the present invention was compared with 2D cGAN and 3D cGAN. In this case, the 2D cGAN has a structure similar to that of the cGAN 200 of the present invention, but the second discriminator G is not used. The 3D cGAN also has a structure similar to that of the cGAN 200 of the present invention, but uses a 3D generator that generates a 3D image. However, due to memory limitations, the 3D generator of 3D cGAN was implemented to generate 20 adjacent 2D images at a time instead of the entire 3D image. For fair comparison, the same experiment was performed using 2D cGAN and 3D cGAN having the same hyperparameters used in the present invention. In addition, FID and GAN-train scores were measured between set A and set B to indicate the upper limit.

4) 정량 결과(Quantitative results)4) Quantitative results

NC vs MCI vs ADNC vs MCI vs AD NC vs ADNC vs AD ModelsModels FID(A)FID(A) FID(C)FID(C) FID(S)FID(S) GAN-TrainGAN-Train GAN-TestGAN-Test GAN-TrainGAN-Train GAN-TestGAN-Test 실제 영상real video 0.860.86 1.041.04 0.840.84 49.0049.00 -- 74.6874.68 -- 2D cGAN2D cGANs 34.3034.30 40.3640.36 46.3646.36 43.6743.67 42.2742.27 56.3256.32 75.9575.95 3D cGAN3D cGAN 60.7460.74 144.26144.26 134.72134.72 37.1637.16 29.4329.43 50.0050.00 47.2647.26 Our (k=3)Our (k=3) 42.6642.66 49.4449.44 52.3352.33 43.0043.00 45.8845.88 71.5271.52 82.0982.09 Our (k=6)Our (k=6) 44.7944.79 37.1837.18 30.5230.52 45.3345.33 52.7452.74 72.7972.79 79.7679.76 Our (k=8)Our (k=8) 30.7030.70 26.8226.82 27.2527.25 50.0050.00 52.7452.74 73.4273.42 80.3280.32

표 1은 본 발명의 cGAN(200)과, 비교 대상인 2D 및 3D cGAN에 의해 생성된 영상의 영상 품질 점수를 보여준다. 이때, FID 점수는 각각 횡축(axial)(A), 관상(coronal)(C) 및 시상(sagittal)(S) 보기에서 계산되었다. 또한, GAN-Train 및 GAN-Test 점수는 3가지 조건에 대한 분류(NC vs MCI vs AD)와, NC와 AD에 대한 이진 분류(NC vs AD)에 대해 계산되었다.2D cGAN은 횡축(axial) 방향에서 좋은 FID 점수를 달성했으나, 관상(coronal) 및 시상(sagittal) 보기에서는 FID 점수가 상대적으로 높았다. 또한, 2D cGAN은 GAN-train 및 GAN-test 점수가 낮거나 일치하지 않았다. 3D cGAN은 최악의 결과를 달성하였다. 이는 소량의 데이터를 사용하여 3D 모델이 제한된 미니 배치 크기로 훈련되어, 영상 생성 모델이 제대로 훈련되지 않았기 때문이다. 반면, 본 발명의 k=8인 모델은 3축의 FID 점수와, 3가지 조건에 대한 분류(NC vs MCI vs AD) 및 이진 분류(NC vs AD)에서의 GAN-train/GAN-test 점수가 2D 및 3D cGAN 보다 우수하다. 이 지표는 본 발명이 종래 기술에 해당할 수 있는 2D 및 3D cGAN 보다 현저하게 개선되어, 실제 데이터(실제 영상)과 유사한 점수로 실제 데이터의 기본 분포를 모델링하는 방법임을 나타낸다.Table 1 shows the image quality scores of images generated by the cGAN 200 of the present invention and 2D and 3D cGANs as comparison objects. At this time, FID scores were calculated in the axial (A), coronal (C) and sagittal (S) views, respectively. In addition, GAN-Train and GAN-Test scores were calculated for classification for three conditions (NC vs MCI vs AD) and binary classification for NC and AD (NC vs AD). 2D cGAN is axial A good FID score was achieved in the orientation, but the FID score was relatively high in the coronal and sagittal views. In addition, 2D cGAN had low or inconsistent GAN-train and GAN-test scores. 3D cGAN achieved the worst results. This is because the 3D model is trained with a limited mini-batch size using a small amount of data, so the image-generating model is not properly trained. On the other hand, in the model with k = 8 of the present invention, the 3-axis FID score and the GAN-train/GAN-test score in classification for three conditions (NC vs MCI vs AD) and binary classification (NC vs AD) were 2D and 3D cGAN. This indicator indicates that the present invention is a method of modeling a basic distribution of real data with a score similar to real data (real image), which is significantly improved over 2D and 3D cGAN, which may correspond to the prior art.

5) 정성적 결과(Qualitative results)5) Qualitative results

도 6은 해마(hippocampus), 심실(ventricle) 및 회백질 영역(gray matter region)에 대해 본 발명의 cGAN(200)을 사용하여 생성한 합성 영상을 나타낸다. 즉, 도 6에서, 상단은 NC, 중간은 MCI, 하단은 AD인 조건에 대한 합성 영상이며, 각 영상의 중요 부분의 차이는 노란색 화살표로 표시하였다.6 shows a composite image generated using the cGAN 200 of the present invention for the hippocampus, ventricle, and gray matter region. That is, in FIG. 6 , the upper part is NC, the middle part is MCI, and the lower part is AD condition, and the difference between important parts of each image is indicated by a yellow arrow.

도 7은 본 발명의 cGAN(200), 2D cGAN 및 3D cGAN를 사용하여 생성한 합성 영상과, 그 원본 영상을 각각 나타낸다. 즉, 도 7에서, 최상단은 본 발명의 cGAN(200), 두번째 줄은 2D cGAN, 세번째 줄은 3D cGAN를 각각 사용한 합성 영상을 나타내며, 최하단은 원본 영상을 나타낸다.7 shows a synthesized image generated using the cGAN 200, 2D cGAN, and 3D cGAN of the present invention, and an original image thereof, respectively. That is, in FIG. 7 , the uppermost row shows a composite image using the cGAN 200 of the present invention, the second row shows a 2D cGAN, and the third row shows a synthesized image using the 3D cGAN, and the bottom row shows the original image.

정성적 결과는 도 6 및 도 7에 나타내 바와 같다. 즉, 본 발명에 따른 cGAN(200)의 모델은 NC 환자 보다 AD 환자에서 해마와 회백질이 더 눈에 띄게 작아지는 것을 정확하게 예측함을 확인하였다. 특히, 본 발명의 합성 영상에는 2D 및 3D cGAN 모델의 합성 영상 보다 아티팩트(artifact)가 적다. 횡축(axial) 방향 관점에서 본 결과는 모든 방법에서 대부분 만족스럽지만, 관상(coronal) 또는 시상(sagittal) 관점에서 본 결과는 큰 차이가 발생한다. 즉, 해당 축 관점에서, 본 발명에 따른 cGAN(200)의 모델은 2D 및 3D cGAN 모델보다 더 선명한 경계를 나타내는 더 나은 3D 영상을 생성한다.Qualitative results are shown in FIGS. 6 and 7 . That is, it was confirmed that the cGAN (200) model according to the present invention accurately predicts that the hippocampus and gray matter become noticeably smaller in AD patients than in NC patients. In particular, the synthesized image of the present invention has fewer artifacts than the synthesized image of 2D and 3D cGAN models. The results from the axial perspective are mostly satisfactory in all methods, but there is a big difference between the results from the coronal or sagittal perspective. That is, in terms of the corresponding axis, the model of the cGAN 200 according to the present invention generates a better 3D image showing sharper boundaries than the 2D and 3D cGAN models.

6) 데이터 확대에 대한 영향(Effect on data augmentation)6) Effect on data augmentation

데이터 확대를 위해 생성된 영상에 대한 효과를 파악하기 위해, AD와 NC(AD vs NC)를 분리하고, MCI와 AD(MCI vs AD)를 분리하며, NC와 MCI(NC vs MCI)를 분리하는 각각의 이진 분류 모델을 구현하였다. 이때, 6개의 분류 모델을 훈련했는데, 3개는 실제 데이터(세트 A)만 가지고 훈련했고, 3개는 증강 데이터 및 실제 데이터(세트 A + 세트 A')를 가지고 훈련했으며, 이후 세트 B에서 테스트하였다. 그 결과는 다음의 표 2와 같다.To understand the effect on the image generated for data magnification, separate AD and NC (AD vs NC), separate MCI and AD (MCI vs AD), and separate NC and MCI (NC vs MCI) Each binary classification model was implemented. At this time, 6 classification models were trained, 3 trained only with real data (set A), 3 were trained with augmented data and real data (set A + set A'), and then tested on set B. did. The results are shown in Table 2 below.

AD vs NCAD vs NC MCI vs ADMCI vs AD NC vs MCINC vs MCI 실제 데이터(real data)real data 78.4878.48 62.9062.90 64.2564.25 실제 데이터(real data) +
합성 데이터(synthesized data)
real data +
synthesized data
81.2581.25 63.3563.35 66.0666.06

즉, 표 2는 실제 영상의 데이터(실제 데이터)와 실제 및 합성 영상의 데이터(합성 데이터)를 통해 얻은 분류 모델에 대한 각각의 이진 분류 성능을 나타낸다. 증강 데이터는 이진 분류 설정의 모든 조합에서 약 2%의 일관된 개선을 달성했다. NC 영상과 AD 영상의 차이가 비교적 명확하기 때문에 더 높은 분류 정확도가 도출되었다. 반면, NC 또는 AD로부터 MCI의 분류는 모호함(ambiguity)으로 인해 상대적으로 낮은 정확도가 도출되었다.That is, Table 2 shows the binary classification performance of each of the classification models obtained from the real image data (real data) and the real and synthetic image data (synthetic data). The augmented data achieved a consistent improvement of about 2% across all combinations of binary classification settings. Since the difference between NC and AD images is relatively clear, higher classification accuracy was derived. On the other hand, the classification of MCI from NC or AD has relatively low accuracy due to ambiguity.

상술한 바와 같이, 본 발명은 cGAN(200)을 이용하여 어느 질병 진행 단계의 의료 영상을 기반으로 다른 질병 진행 단계의 의료 영상을 예측하여 생성할 수 있는 이점이 있다. 즉, 입력되는 MRI 영상에 대해 AD의 목표 조건의 질병 단계(NC, MCI 또는 AD)의 MRI 이미지를 생성할 수 있다. 또한, 본 발명은 적은 메모리의 소요로 3D의 각 축에 걸쳐 연속적인 3D 의료 영상을 재구성할 수 있게 하는 의료 영상을 예측하여 생성할 수 있는 이점이 있다.As described above, the present invention has the advantage of predicting and generating a medical image of another disease progression stage based on a medical image of one disease stage using the cGAN 200 . That is, an MRI image of the disease stage (NC, MCI, or AD) of the target condition of AD may be generated with respect to the input MRI image. In addition, the present invention has the advantage of predicting and generating a medical image that can reconstruct a continuous 3D medical image across each 3D axis with a small memory requirement.

특히, 본 발명의 주요 기여점을 정리하면 다음과 같다.In particular, the main contributions of the present invention are summarized as follows.

(1) 현재의 질병 단계의 상태에서 다른 질병 단계의 상태로의 측정 부위의 변화(예를 들어, 뇌 변화 등)를 예측할 수 있는 cGAN(200)을 제시한다. 즉, 본 발명은 어느 한 MR 영상과 목표 조건으로부터 알츠하이머병의 NC, MCI 및 AD 영상을 합성할 수 있는 조건부 생성 적대적 네트워크(cGAN)을 제시한다. 따라서, 본 발명은 작은 데이터 세트로 정확한 예측 모델을 학습하는데 중요한 역할을 할 수 있다. 이러한 본 발명에 따른 모델은 의료 전문가가 환자의 상태가 어떻게 진행되는지를 더 잘 이해하고 질병이 진행됨에 따라 잠재적으로 큰 피해를 입을 수 있는 뇌 영역에 대한 노력에 집중할 수 있도록 도와줄 수 있다.(1) A cGAN 200 capable of predicting a change (eg, brain change, etc.) of a measurement site from a current disease stage state to another disease stage state is presented. That is, the present invention proposes a conditionally generated adversarial network (cGAN) capable of synthesizing NC, MCI, and AD images of Alzheimer's disease from any one MR image and a target condition. Thus, the present invention can play an important role in training accurate predictive models with small data sets. This model according to the present invention can help healthcare professionals better understand how a patient's condition progresses and focus their efforts on areas of the brain that can potentially suffer significant damage as the disease progresses.

(2) 생성기(G) 및 제1 판별기(F)를 가지는 2D cGAN 구조에 제2 판별기(H)를 추가함으로써, 생성기(G)는 3D 공간의 구조 정보를 고려하여 부드럽고 자연스러운 3D 영상에 부합하는 영상을 합성할 수 있다. 즉, 본 발명에 따른 모델은 3D 공간의 모든 방향에서 일관된 양질의 3D 이미지를 효율적으로 생성할 수 있다.(2) By adding the second discriminator (H) to the 2D cGAN structure having the generator (G) and the first discriminator (F), the generator (G) considers the structural information of the 3D space to generate a smooth and natural 3D image. Matching images can be synthesized. That is, the model according to the present invention can efficiently generate consistent high-quality 3D images in all directions in 3D space.

(3) 2D 영상의 적은 메모리 사용으로, 효율적인 3D 영상 생성이 가능하게 한다. 또한, 본 발명은 MR 뇌 영상에서 AD를 식별하기 위해 분류 정확도를 향상시키는 일관된 데이터 확대 방법이다. (4) 본 발명은 배경 사실(ground truth)이 없이 2D 영상 생성에 대한 GAN의 성능을 평가하도록 일반적으로 사용되는 다양한 측정을 사용한 실험 결과를 통해, 정확도 등에 대한 효과가 입증된다. 특히, GAN-train과 GAN-test 점수를 비교함으로써, 본 발명에 따른 모델에 의해 생성된 합성 영상이 실제 영상의 특징과 유사하다는 것이 증명된다.(3) Efficient 3D image creation is possible by using less memory for 2D images. In addition, the present invention is a consistent data augmentation method that improves classification accuracy to identify AD in MR brain images. (4) In the present invention, the effect on accuracy, etc. is demonstrated through experimental results using various measurements commonly used to evaluate the performance of GANs for 2D image generation without ground truth. In particular, by comparing the GAN-train and GAN-test scores, it is proved that the synthesized image generated by the model according to the present invention is similar to the characteristics of the real image.

본 발명의 상세한 설명에서는 구체적인 실시 예에 관하여 설명하였으나 본 발명의 범위에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능함은 물론이다. 그러므로 본 발명의 범위는 설명된 실시 예에 국한되지 않으며, 후술되는 청구범위 및 이 청구범위와 균등한 것들에 의해 정해져야 한다.In the detailed description of the present invention, although specific embodiments have been described, various modifications are possible without departing from the scope of the present invention. Therefore, the scope of the present invention is not limited to the described embodiments, and should be defined by the following claims and their equivalents.

100: 예측 장치 200: 조건부 생성 적대적 네트워크(cGAN)
G: 생성기 F: 제1 판별기
H: 제2 판별기
100: predictive device 200: conditionally generated adversarial network (cGAN)
G: generator F: first discriminator
H: second discriminator

Claims (8)

조건부 생성 적대적 네트워크(conditional generative adversarial network, cGAN)를 이용하며, 컴퓨팅 장치 또는 컴퓨팅 네트워크에서 수행되는 의료 영상의 예측을 위한 방법으로서,
상기 조건부 생성 적대적 네트워크는,
인접한 다수의 2차원 입력 의료 영상 및 질병의 진행 단계들 중 특정 단계를 나타내는 목표 조건을 입력 받아 상기 목표 조건에 따른 2차원 출력 의료 영상들을 생성하여 출력하는 생성기와, 상기 2차원 출력 의료 영상들 및 상기 목표 조건을 입력 받아 상기 2차원 출력 의료 영상들이 상기 목표 조건에 일치하는지 여부 및 상기 2차원 출력 의료 영상들이 실제 2차원 의료 영상 슬라이스에 부합하는지 여부를 판별하는 제1 판별기와, 상기 2차원 출력 의료 영상들 중 하나의 축 방향에서 인접한 2차원 의료 영상들을 입력 받아 상기 하나의 축 방향에서 인접한 2차원 의료 영상들이 실제 3차원 영상 슬라이스에 부합하는지 판별하는 제2 판별기를 포함하고,
상기 방법은,
상기 2차원 출력 의료 영상들이 상기 목표 조건에 일치하는지 여부, 상기 2차원 출력 의료 영상들이 실제 2차원 의료 영상 슬라이스에 부합하는지 여부 및 상기 하나의 축 방향에서 인접한 2차원 의료 영상들이 실제 3차원 영상 슬라이스에 부합하는지 여부에 관련된 손실 함수에 기초하여 상기 생성기, 상기 제1 판별기 및 상기 제2 판별기를 적대 학습시키는 학습 단계; 및
상기 학습된 생성기에 인접한 다수의 2차원 의료 영상 및 상기 목표 조건을 입력하여 상기 목표 조건에 대해 예측되는 3차원 의료 영상을 생성하는 예측 단계;
를 포함하는 방법.
A method for prediction of a medical image performed in a computing device or computing network using a conditional generative adversarial network (cGAN), the method comprising:
The conditionally generated adversarial network is
a generator for receiving a plurality of adjacent two-dimensional input medical images and a target condition indicating a specific stage among disease progression stages, and generating and outputting two-dimensional output medical images according to the target condition; a first discriminator configured to receive the target condition and determine whether the 2D output medical images match the target condition and whether the 2D output medical images match an actual 2D medical image slice; a second discriminator for receiving two-dimensional medical images adjacent in one axial direction among medical images and determining whether adjacent two-dimensional medical images in one axial direction correspond to an actual three-dimensional image slice;
The method is
Whether the 2D output medical images match the target condition, whether the 2D output medical images correspond to an actual 2D medical image slice, and whether the 2D medical images adjacent in the one axial direction are the actual 3D image slices a learning step of adversarially learning the generator, the first discriminator, and the second discriminator based on a loss function related to whether ? and
a prediction step of generating a 3D medical image predicted for the target condition by inputting a plurality of 2D medical images adjacent to the learned generator and the target condition;
How to include.
삭제delete 제1항에 있어서,
상기 다수의 2차원 입력 의료 영상 및 상기 2차원 출력 의료 영상은 뇌 측정 영상을 포함하며, 상기 질병은 알츠하이머병을 포함하는 방법.
According to claim 1,
The plurality of 2D input medical images and the 2D output medical images include brain measurement images, and the disease includes Alzheimer's disease.
제3항에 있어서,
상기 질병 진행 단계들은 정상(Normal Condition; NC) 단계, 경도인지장애(Mild Cognitive Impairment; MCI) 단계 및 알츠하이머((Alzheimer's Disease; AD) 단계를 포함하는 방법.
4. The method of claim 3,
The disease progression stages include a Normal Condition (NC) stage, a Mild Cognitive Impairment (MCI) stage, and an Alzheimer's Disease (AD) stage.
제1항에 있어서,
상기 학습 단계에서, 제1 판별기 및 제2 판별기가 학습된 후에 상기 생성기가 학습되는 과정이 반복 수행되는 방법.
According to claim 1,
In the learning step, after the first discriminator and the second discriminator are learned, the process of learning the generator is repeatedly performed.
조건부 생성 적대적 네트워크(conditional generative adversarial network, cGAN)를 이용하며, 컴퓨팅 장치 또는 컴퓨팅 네트워크에서 수행되는 의료 영상의 예측을 위한 장치로서,
인접한 다수의 2차원 입력 의료 영상 및 질병의 진행 단계들 중 특정 단계를 나타내는 목표 조건을 입력 받아 상기 목표 조건에 따른 2차원 출력 의료 영상들을 생성하여 출력하는 생성기와, 상기 2차원 출력 의료 영상들 및 상기 목표 조건을 입력 받아 상기 2차원 출력 의료 영상들이 상기 목표 조건에 일치하는지 여부 및 상기 2차원 출력 의료 영상들이 실제 2차원 의료 영상 슬라이스에 부합하는지 여부를 판별하는 제1 판별기와, 상기 2차원 출력 의료 영상들 중 하나의 축 방향에서 인접한 2차원 의료 영상들을 입력 받아 상기 하나의 축 방향에서 인접한 2차원 의료 영상들이 실제 3차원 영상 슬라이스에 부합하는지 판별하는 제2 판별기를 포함하고,
상기 장치는 상기 2차원 출력 의료 영상들이 상기 목표 조건에 일치하는지 여부, 상기 2차원 출력 의료 영상들이 실제 2차원 의료 영상 슬라이스에 부합하는지 여부 및 상기 하나의 축 방향에서 인접한 2차원 의료 영상들이 실제 3차원 영상 슬라이스에 부합하는지 여부에 관련된 손실 함수에 기초하여 상기 생성기, 상기 제1 판별기 및 상기 제2 판별기를 적대 학습시키는 장치.
A device for prediction of a medical image using a conditional generative adversarial network (cGAN) and performed in a computing device or computing network, comprising:
a generator for receiving a plurality of adjacent two-dimensional input medical images and a target condition indicating a specific stage of disease progression, and generating and outputting two-dimensional output medical images according to the target condition; a first discriminator configured to receive the target condition and determine whether the 2D output medical images match the target condition and whether the 2D output medical images match an actual 2D medical image slice; a second discriminator for receiving two-dimensional medical images adjacent in one axial direction among medical images and determining whether adjacent two-dimensional medical images in one axial direction correspond to an actual three-dimensional image slice;
The apparatus determines whether the 2D output medical images match the target condition, whether the 2D output medical images match an actual 2D medical image slice, and determines whether the 2D medical images adjacent in the one axis direction are actually 3D An apparatus for adversarially learning the generator, the first discriminator, and the second discriminator based on a loss function related to whether or not a dimensional image slice is matched.
제6항에 있어서,
상기 cGAN은 상기 생성기에 대해 상기 제1 판별기 및 상기 제2 판별기가 적대 학습되는 장치.
7. The method of claim 6,
The cGAN is an apparatus in which the first discriminator and the second discriminator are adversarially learned with respect to the generator.
제7항에 있어서,
학습된 상기 생성기는 인접한 다수의 2차원 의료 영상 및 상기 목표 조건이 입력되면 상기 목표 조건에 대해 예측되는 3차원 의료 영상을 생성하는 장치.
8. The method of claim 7,
The learned generator generates a plurality of adjacent 2D medical images and a 3D medical image predicted for the target condition when the target condition is input.
KR1020200053181A 2020-05-04 2020-05-04 Method and apparatus for prediting medical image using conditional generative adversarial network KR102348869B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200053181A KR102348869B1 (en) 2020-05-04 2020-05-04 Method and apparatus for prediting medical image using conditional generative adversarial network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200053181A KR102348869B1 (en) 2020-05-04 2020-05-04 Method and apparatus for prediting medical image using conditional generative adversarial network

Publications (2)

Publication Number Publication Date
KR20210135039A KR20210135039A (en) 2021-11-12
KR102348869B1 true KR102348869B1 (en) 2022-01-12

Family

ID=78487357

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200053181A KR102348869B1 (en) 2020-05-04 2020-05-04 Method and apparatus for prediting medical image using conditional generative adversarial network

Country Status (1)

Country Link
KR (1) KR102348869B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102437962B1 (en) 2022-03-22 2022-08-30 주식회사 스누아이랩 Device for Regression Scale-aware Cross-domain Object Detection and Driving Method Thereof

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102584545B1 (en) * 2023-03-06 2023-10-04 주식회사 젠젠에이아이 Method and apparatus for training generative model for 3d consistent medical volume data
CN117457222B (en) * 2023-12-22 2024-03-19 北京邮电大学 Alzheimer's disease brain atrophy model construction method, prediction method and device

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102001398B1 (en) 2018-01-25 2019-07-18 재단법인 아산사회복지재단 Method and apparatus for predicting brain desease change though machine learning and program for the same

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018232388A1 (en) * 2017-06-16 2018-12-20 Rensselaer Polytechnic Institute Systems and methods for integrating tomographic image reconstruction and radiomics using neural networks
KR102245693B1 (en) * 2018-09-18 2021-04-29 서울대학교산학협력단 Apparatus for three dimension image reconstruction and method thereof

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102001398B1 (en) 2018-01-25 2019-07-18 재단법인 아산사회복지재단 Method and apparatus for predicting brain desease change though machine learning and program for the same

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Kazeminia 등, GANs for Medical Image Analysis,1-40면(2019.10.10.) 1부.*
Pan 등, Synthesizing missing PET from MRI with cycle-consistent generative adversarial networks for Alzheimer’s disease diagnosis,455-463면(2018.09.) 1부.*

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102437962B1 (en) 2022-03-22 2022-08-30 주식회사 스누아이랩 Device for Regression Scale-aware Cross-domain Object Detection and Driving Method Thereof

Also Published As

Publication number Publication date
KR20210135039A (en) 2021-11-12

Similar Documents

Publication Publication Date Title
Dalmaz et al. ResViT: residual vision transformers for multimodal medical image synthesis
Chartsias et al. Multimodal MR synthesis via modality-invariant latent representation
KR102348869B1 (en) Method and apparatus for prediting medical image using conditional generative adversarial network
US20180225847A1 (en) Systems and methods for data and model-driven image reconstruction and enhancement
US11810301B2 (en) System and method for image segmentation using a joint deep learning model
Zhang et al. BPGAN: Brain PET synthesis from MRI using generative adversarial network for multi-modal Alzheimer’s disease diagnosis
JP2021521993A (en) Image enhancement using a hostile generation network
CN112435341B (en) Training method and device for three-dimensional reconstruction network, and three-dimensional reconstruction method and device
Yu et al. Sample-adaptive GANs: linking global and local mappings for cross-modality MR image synthesis
Chen et al. Generative adversarial U-Net for domain-free medical image augmentation
CN112819914A (en) PET image processing method
Liu et al. Style transfer generative adversarial networks to harmonize multisite MRI to a single reference image to avoid overcorrection
Mouches et al. Unifying brain age prediction and age-conditioned template generation with a deterministic autoencoder
Poonkodi et al. 3D-MedTranCSGAN: 3D medical image transformation using CSGAN
Amirrajab et al. Pathology synthesis of 3d consistent cardiac mr images using 2d vaes and gans
Kolařík et al. 3D Dense-U-Net for MRI brain tissue segmentation
KR102222366B1 (en) Method and Device of High Magnetic Field Magnetic Resonance Image Synthesis
WO2021184195A1 (en) Medical image reconstruction method, and medical image reconstruction network training method and apparatus
Chen et al. Medprompt: Cross-modal prompting for multi-task medical image translation
Lee et al. Study on Optimal Generative Network for Synthesizing Brain Tumor‐Segmented MR Images
CN105787922A (en) Method and apparatus for implementing automatic MPR batch processing
Sharma et al. Cross-modality breast image translation with improved resolution using generative adversarial networks
CN113850710A (en) Cross-modal medical image accurate conversion method
CA3104607A1 (en) Contrast-agent-free medical diagnostic imaging
CN117015801A (en) System and method for image segmentation

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right