KR102620790B1 - Adaptive Instance Normalization-Based Chest X-Ray Image Segmentation Mehtod and Apparatus Therefor - Google Patents

Adaptive Instance Normalization-Based Chest X-Ray Image Segmentation Mehtod and Apparatus Therefor Download PDF

Info

Publication number
KR102620790B1
KR102620790B1 KR1020210090044A KR20210090044A KR102620790B1 KR 102620790 B1 KR102620790 B1 KR 102620790B1 KR 1020210090044 A KR1020210090044 A KR 1020210090044A KR 20210090044 A KR20210090044 A KR 20210090044A KR 102620790 B1 KR102620790 B1 KR 102620790B1
Authority
KR
South Korea
Prior art keywords
segmentation
domain
lung
chest
organ
Prior art date
Application number
KR1020210090044A
Other languages
Korean (ko)
Other versions
KR20230009538A (en
Inventor
예종철
오유진
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR1020210090044A priority Critical patent/KR102620790B1/en
Publication of KR20230009538A publication Critical patent/KR20230009538A/en
Application granted granted Critical
Publication of KR102620790B1 publication Critical patent/KR102620790B1/en

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30061Lung

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Theoretical Computer Science (AREA)
  • Radiology & Medical Imaging (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • General Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Primary Health Care (AREA)
  • Veterinary Medicine (AREA)
  • Epidemiology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Data Mining & Analysis (AREA)
  • Optics & Photonics (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Artificial Intelligence (AREA)
  • Physiology (AREA)
  • Quality & Reliability (AREA)
  • Databases & Information Systems (AREA)
  • Image Analysis (AREA)

Abstract

적응적 인스턴스 정규화 기반 흉부 방사선 영상 분할 방법 및 그 장치가 개시된다. 본 발명의 일 실시예에 따른 흉부 방사선 영상 분할 방법은 흉부 방사선 영상을 수신하는 단계; 및 적응적 인스턴스 정규화(adaptive instance normalization)와 함께 미리 학습된 분할 모델 기반의 단일 뉴럴 네트워크를 이용하여 상기 흉부 방사선 영상에서 장기 영역을 분할하는 단계를 포함하며, 상기 장기 영역을 분할하는 단계는 상기 단일 뉴럴 네트워크와 사전 구축된 적응적 인스턴스 정규화 코드를 이용하여 상기 흉부 방사선 영상의 폐에서 장기 영역을 분할할 수 있다.A chest radiology image segmentation method and device based on adaptive instance normalization are disclosed. A chest radiation image segmentation method according to an embodiment of the present invention includes receiving a chest radiation image; and segmenting an organ region in the chest radiology image using a single neural network based on a pre-learned segmentation model with adaptive instance normalization, wherein the step of segmenting the organ region includes the single neural network. Organ regions can be segmented from the lungs of the chest radiology image using a neural network and a pre-built adaptive instance normalization code.

Description

적응적 인스턴스 정규화 기반 흉부 방사선 영상 분할 방법 및 그 장치 {Adaptive Instance Normalization-Based Chest X-Ray Image Segmentation Mehtod and Apparatus Therefor}Adaptive Instance Normalization-Based Chest X-Ray Image Segmentation Method and Apparatus Therefor {Adaptive Instance Normalization-Based Chest X-Ray Image Segmentation Mehtod and Apparatus Therefor}

본 발명은 적응적 인스턴스 정규화 기반 흉부 방사선 영상 분할 기술에 관한 것으로, 보다 구체적으로는 흉부 방사선 영상에서 적응적 인스턴스 정규화(Adaptive instance normalization; AdaIN)를 기반으로 하나의 뉴럴 네트워크를 활용하여 비정상(Abnormal) 폐와 정상(Normal) 폐에서 각각 장기 영역을 분할(segmentation)할 수 있는 흉부 방사선 영상 분할 방법 및 그 장치에 관한 것이다.The present invention relates to a chest radiology image segmentation technology based on adaptive instance normalization, and more specifically, to detect abnormalities in chest radiology images by utilizing a neural network based on adaptive instance normalization (AdaIN). This relates to a chest radiography image segmentation method and device capable of segmenting organ regions in lungs and normal lungs, respectively.

정확도가 높은 영상 분할은 종종 다양한 의료 이미징 작업의 첫 번째 단계 역할을 한다. 최근 딥 러닝(DL) 접근 방식은 고전적인 방법에 비해 우수한 성능 덕분에 의료 영상 분할 작업의 최첨단(SOTA) 기법이 되었다.High-accuracy image segmentation often serves as the first step in a variety of medical imaging tasks. Recently, deep learning (DL) approaches have become the state-of-the-art (SOTA) technique for medical image segmentation tasks due to their superior performance compared to classical methods.

DL 기반 분할 알고리즘의 성능은 대개 많은 양의 레이블에 따라 달라지지만, 비용이 많이 들고 시간이 많이 걸리는 주석 절차로 인해 분할 마스크가 드물다. DL 기반 의료 영상 분할의 또 다른 어려움은 이른바 도메인 이동(domain shift)이다. 즉, 특정 도메인의 데이터로 트레이닝된 분할 네트워크는 새로운 테스트 도메인(unseen test domains)에 적용될 때 종종 급격한 성능 저하를 겪는다.The performance of DL-based segmentation algorithms usually depends on a large amount of labels, but segmentation masks are sparse due to expensive and time-consuming annotation procedures. Another difficulty in DL-based medical image segmentation is so-called domain shift. In other words, segmentation networks trained with data from a specific domain often experience rapid performance degradation when applied to new test domains (unseen test domains).

예를 들어, 감염병 진단을 위한 흉부 방사선(CXR) 폐 분할에서, 정상 CXR 데이터로 트레이닝된 분할 네트워크는 세균성 폐렴과 같은 심각한 감염병으로 인한 비정상적인 CXR 영상에 적용될 때 종종 과소 분할(under-segmentation)을 생성한다. 과소 분할에서 누락된 영역에는 대부분 감염병을 진단하기 위한 폐 경화(consolidation)와 같은 중요한 특징이 포함되어 있다. 따라서 DL 기반 분류 알고리즘이 폐 외부의 관련 없는 요인을 완화하면서 전체 폐 특징을 완전히 학습하도록 보장하기 위해서는 정상 및 비정상 폐 CXR에 대한 과소 분할 없이 매우 정확한 분할이 필요하다.For example, in chest radiograph (CXR) lung segmentation for infectious disease diagnosis, segmentation networks trained on normal CXR data often produce under-segmentation when applied to abnormal CXR images due to serious infectious diseases such as bacterial pneumonia. do. The areas missed in under-segmentation mostly contain important features, such as lung consolidation, for diagnosing infectious diseases. Therefore, highly accurate segmentation without under-segmentation for normal and abnormal lung CXR is required to ensure that DL-based classification algorithms fully learn whole lung features while mitigating extraneous factors outside the lung.

레이블 희소성과 도메인 이동 문제를 해결하기 위해 제한된 트레이닝 레이블을 사용하거나 자기 지도 또는 비지도 방식으로 레이블이 지정된 데이터셋을 사용하지 않는 분할 네트워크를 트레이닝시키기 위한 광범위한 연구가 있었다. 예를 들어, 교사-학생 아키텍처와 도메인 적응은 지도 학습 과제에서 학습된 기능의 장점을 취하고, 지식을 비지도 학습 과제로 증류(Distillation)하기 위해 도입되었다. 그러나 이러한 접근 방식은 서로 다르게 나타나며, 이러한 서로 다른 접근 방식이 어떻게 시너지 효과를 발휘하여 결합될 수 있는지에 대한 합의는 존재하지 않는다.To address label sparsity and domain shift problems, there has been extensive research to train segmentation networks using limited training labels or using unlabeled datasets in self-supervised or unsupervised manner. For example, teacher-student architecture and domain adaptation were introduced to take advantage of features learned in supervised learning tasks and distill the knowledge into unsupervised learning tasks. However, these approaches appear different, and there is no consensus on how these different approaches can be combined synergistically.

본 발명의 실시예들은, 흉부 방사선 영상에서 적응적 인스턴스 정규화(Adaptive instance normalization; AdaIN)를 기반으로 하나의 뉴럴 네트워크를 활용하여 비정상(Abnormal) 폐와 정상(Normal) 폐에서 각각 장기 영역을 분할할 수 있는 흉부 방사선 영상 분할 방법 및 그 장치를 제공한다.Embodiments of the present invention utilize a neural network based on adaptive instance normalization (AdaIN) in chest radiology images to segment organ regions from abnormal lungs and normal lungs, respectively. Provides a method and device for segmenting chest radiographic images.

본 발명의 일 실시예에 따른 흉부 방사선 영상 분할 방법은 흉부 방사선 영상을 수신하는 단계; 및 적응적 인스턴스 정규화(adaptive instance normalization)와 함께 미리 학습된 분할 모델 기반의 단일 뉴럴 네트워크를 이용하여 상기 흉부 방사선 영상에서 장기 영역을 분할하는 단계를 포함한다.A chest radiation image segmentation method according to an embodiment of the present invention includes receiving a chest radiation image; and segmenting an organ region in the chest radiology image using a single neural network based on a pre-trained segmentation model with adaptive instance normalization.

상기 장기 영역을 분할하는 단계는 상기 단일 뉴럴 네트워크와 사전 구축된 적응적 인스턴스 정규화 코드를 이용하여 상기 흉부 방사선 영상의 폐에서 장기 영역을 분할할 수 있다.In the step of segmenting the organ area, the organ area in the lung of the chest radiology image may be segmented using the single neural network and a pre-built adaptive instance normalization code.

상기 장기 영역을 분할하는 단계는 상기 단일 뉴럴 네트워크의 인코더와 디코더에 대한 각각의 적응적 인스턴스 정규화 코드를 변경함으로써, 지도 학습(Supervised learning) 기반의 정상 폐에서 상기 장기 영역의 분할, 도메인 적응(Domain adaptation) 방식 기반의 비정상 폐에서 정상 폐로의 도메인 변환에 의한 상기 장기 영역의 분할 및 지도 학습과 도메인 적응을 통해 학습한 지식(Knowledge)이 증류 (Distillation)된 자기 지도 학습(Self-supervised learning) 방식 기반으로 정상 폐와 비정상 폐 각각에서 상기 장기 영역을 분할할 수 있다.The step of dividing the organ region is by changing each adaptive instance normalization code for the encoder and decoder of the single neural network, thereby dividing the organ region in the normal lung based on supervised learning and domain adaptation (Domain adaptation). Self-supervised learning method in which the knowledge learned through domain adaptation and supervised learning and domain adaptation of the organ area by domain conversion from abnormal lung to normal lung based on the adaptation method is distilled. Based on this, the organ area can be divided into normal lung and abnormal lung respectively.

상기 단일 뉴럴 네트워크는 정상 폐에서 지도 학습(Supervised learning) 기법 기반으로 폐 영역 분할을 학습한 뒤, 비정상 폐를 도메인 적응(Domain adaptation) 방식을 통해 정상 폐로 변환하는 제1 적응적 인스턴스 정규화 코드를 학습하고, 지도 학습과 도메인 적응 방식을 통해 학습된 지식(Knowledge)을 제2 적응적 인스턴스 정규화 코드에 증류(Distillation)하여 자기 지도 학습(Self-supervised learning) 방식으로 학습함으로써, 도메인 적응과 분할을 통합하여 정상 폐와 비정상 폐 각각에서 상기 장기 영역을 분할할 수 있다.The single neural network learns lung region segmentation based on supervised learning from normal lungs, and then learns a first adaptive instance normalization code that converts abnormal lungs into normal lungs through domain adaptation. And, by distilling the knowledge learned through supervised learning and domain adaptation into a second adaptive instance normalization code and learning with self-supervised learning, domain adaptation and segmentation are integrated. Thus, the organ areas can be divided into normal lungs and abnormal lungs, respectively.

상기 장기 영역을 분할하는 단계는 상기 단일 뉴럴 네트워크를 이용하여, 영상 픽셀(Pixel) 단위의 장기 라벨(Label)이 존재하는 정상 폐에서 지도 학습(Supervised learning) 기법을 기반으로 상기 흉부 방사선 영상에서 장기 영역을 분할할 수 있다.The step of dividing the organ area is performed using the single neural network, based on a supervised learning technique in normal lungs where organ labels exist in units of image pixels. Areas can be divided.

상기 장기 영역을 분할하는 단계는 상기 단일 뉴럴 네트워크를 이용한 적응적 인스턴스 정규화 기법을 활용하여 비정상 폐를 정상 폐로 도메인을 변환함으로써, 상기 정상 폐로 도메인 변환된 비정상 폐에서 상기 장기 영역을 분할할 수 있다.In the step of dividing the organ region, the domain of the abnormal lung is converted to a normal lung using an adaptive instance normalization technique using the single neural network, and the organ region can be divided from the abnormal lung whose domain has been converted to the normal lung.

상기 장기 영역을 분할하는 단계는 상기 단일 뉴럴 네트워크를 이용한 자기 지도 학습 기반으로 정상 폐로 도메인 변환된 비정상 폐와 라벨이 있는 정상 폐 각각에서 상기 장기 영역을 분할할 수 있다.In the step of dividing the organ region, the organ region may be divided from each of the abnormal lung domain-converted to the normal lung and the labeled normal lung based on self-supervised learning using the single neural network.

본 발명의 일 실시예에 따른 흉부 방사선 영상 분할 장치는 흉부 방사선 영상을 수신하는 수신부; 및 적응적 인스턴스 정규화(adaptive instance normalization)와 함께 미리 학습된 분할 모델 기반의 단일 뉴럴 네트워크를 이용하여 상기 흉부 방사선 영상에서 장기 영역을 분할하는 분할부를 포함한다.A chest radiation image segmentation apparatus according to an embodiment of the present invention includes a receiver for receiving a chest radiation image; and a segmentation unit for segmenting organ regions in the chest radiology image using a single neural network based on a pre-learned segmentation model with adaptive instance normalization.

상기 분할부는 상기 단일 뉴럴 네트워크와 사전 구축된 적응적 인스턴스 정규화 코드를 이용하여 상기 흉부 방사선 영상의 폐에서 장기 영역을 분할할 수 있다.The segmentation unit may segment an organ region in the lungs of the chest radiology image using the single neural network and a pre-built adaptive instance normalization code.

상기 분할부는 상기 단일 뉴럴 네트워크의 인코더와 디코더에 대한 각각의 적응적 인스턴스 정규화 코드를 변경함으로써, 지도 학습(Supervised learning) 기반의 정상 폐에서 상기 장기 영역의 분할, 도메인 적응(Domain adaptation) 방식 기반의 비정상 폐에서 정상 폐로의 도메인 변환에 의한 상기 장기 영역의 분할 및 지도 학습과 도메인 적응을 통해 학습한 지식(Knowledge)이 증류 (Distillation)된 자기 지도 학습(Self-supervised learning) 방식 기반으로 정상 폐와 비정상 폐 각각에서 상기 장기 영역을 분할할 수 있다.The division unit changes the adaptive instance normalization code for each encoder and decoder of the single neural network, thereby dividing the organ region in the normal lung based on supervised learning and domain adaptation method. Division of the organ area by domain conversion from abnormal lung to normal lung, and a self-supervised learning method in which knowledge learned through supervised learning and domain adaptation is distilled, normal lung and The organ region can be segmented from each abnormal lung.

상기 단일 뉴럴 네트워크는 정상 폐에서 지도 학습(Supervised learning) 기법 기반으로 폐 영역 분할을 학습한 뒤, 비정상 폐를 도메인 적응(Domain adaptation) 방식을 통해 정상 폐로 변환하는 제1 적응적 인스턴스 정규화 코드를 학습하고, 지도 학습과 도메인 적응 방식을 통해 학습된 지식(Knowledge)을 제2 적응적 인스턴스 정규화 코드에 증류(Distillation)하여 자기 지도 학습(Self-supervised learning) 방식으로 학습함으로써, 도메인 적응과 분할을 통합하여 정상 폐와 비정상 폐 각각에서 상기 장기 영역을 분할할 수 있다.The single neural network learns lung region segmentation based on supervised learning from normal lungs, and then learns a first adaptive instance normalization code to convert abnormal lungs into normal lungs through domain adaptation. And, by distilling the knowledge learned through supervised learning and domain adaptation into a second adaptive instance normalization code and learning with self-supervised learning, domain adaptation and segmentation are integrated. Thus, the organ areas can be divided into normal lungs and abnormal lungs, respectively.

상기 분할부는 상기 단일 뉴럴 네트워크를 이용하여, 영상 픽셀(Pixel) 단위의 장기 라벨(Label)이 존재하는 정상 폐에서 지도 학습(Supervised learning) 기법을 기반으로 상기 흉부 방사선 영상에서 장기 영역을 분할할 수 있다.The segmentation unit can use the single neural network to segment organ areas in the chest radiology image based on a supervised learning technique in normal lungs where organ labels exist in pixel units. there is.

상기 분할부는 상기 단일 뉴럴 네트워크를 이용한 적응적 인스턴스 정규화 기법을 활용하여 비정상 폐를 정상 폐로 도메인을 변환함으로써, 상기 정상 폐로 도메인 변환된 비정상 폐에서 상기 장기 영역을 분할할 수 있다.The segmentation unit may convert the domain of an abnormal lung into a normal lung using an adaptive instance normalization technique using the single neural network, thereby dividing the organ region from the abnormal lung whose domain has been converted into the normal lung.

상기 분할부는 상기 단일 뉴럴 네트워크를 이용한 자기 지도 학습 기반으로 정상 폐로 도메인 변환된 비정상 폐와 라벨이 있는 정상 폐 각각에서 상기 장기 영역을 분할할 수 있다.The segmentation unit may divide the organ region from each of the abnormal lung domain-converted to normal lung and the labeled normal lung based on self-supervised learning using the single neural network.

본 발명의 실시예들에 따르면, 흉부 방사선 영상에서 적응적 인스턴스 정규화(Adaptive instance normalization)를 기반으로 하나의 뉴럴 네트워크를 활용하여 비정상(Abnormal) 폐와 정상(Normal) 폐에서 각각 장기 영역을 분할할 수 있다. According to embodiments of the present invention, organ regions can be segmented from abnormal lungs and normal lungs respectively by using a neural network based on adaptive instance normalization in chest radiology images. You can.

본 발명의 실시예들에 따르면, 영상 픽셀(Pixel) 단위의 장기 영역 라벨(Label) 생성은 비용과 시간이 많이 소요되고, 특히 비정상(Abnormal) 폐에 대해서는 라벨이 부족하기 때문에, 먼저 하나의 통합된 알고리즘에서 정상 폐에서 지도 학습(Supervised learning) 기법 기반으로 폐 영역 분할을 학습한 뒤, 비정상 폐를 도메인 적응(Domain adaptation) 방식을 통해 정상 폐로 변환하는 제1 적응적 인스턴스 정규화 코드를 학습하고, 지도 학습과 도메인 적응 방식을 통해 학습된 지식(Knowledge)을 또 다른 제2 적응적 인스턴스 정규화 코드에 증류(Distillation)하여 자기 지도 학습(Self-supervised learning) 방식을 통해 정상 폐와 도메인 변환된 비정상 폐 각각에서 우수한 성능으로 장기를 분할할 수 있다.According to embodiments of the present invention, generating an organ area label in units of image pixels is costly and time-consuming, and in particular, there is a lack of labels for abnormal lungs, so first, an integration is performed. In the algorithm, lung region segmentation is learned from normal lungs based on supervised learning techniques, and then a first adaptive instance normalization code is learned to convert abnormal lungs into normal lungs through domain adaptation. The knowledge learned through supervised learning and domain adaptation is distilled into another second adaptive instance normalization code, and the normal lung and the domain are converted to the abnormal lung through self-supervised learning. In each case, organs can be divided with excellent performance.

도 1은 본 발명의 일 실시예에 따른 흉부 방사선 영상 분할 방법에 대한 동작 흐름도를 나타낸 것이다.
도 2는 통합 도메인 적응과 분할 프레임워크를 설명하기 위한 일 예시도를 나타낸 것이다.
도 3은 본 발명의 뉴럴 네트워크의 아키텍처에 대한 일 예시도를 나타낸 것이다.
도 4는 다중 헤드 판별기, AdaIN 코드 생성기와 스타일 인코더의 아키텍처에 대한 일 예시도를 나타낸 것이다.
도 5는 본 발명의 일 실시예에 따른 흉부 방사선 영상에서 비정상 폐에 대한 장기 분할 결과를 비교한 일 예시도를 나타낸 것이다.
도 6은 본 발명의 일 실시예에 따른 흉부 방사선 영상 분할 장치에 대한 구성을 나타낸 것이다.
Figure 1 shows an operation flowchart for a chest radiology image segmentation method according to an embodiment of the present invention.
Figure 2 shows an example diagram to explain the integrated domain adaptation and segmentation framework.
Figure 3 shows an example diagram of the architecture of the neural network of the present invention.
Figure 4 shows an example diagram of the architecture of a multi-head discriminator, AdaIN code generator, and style encoder.
Figure 5 shows an example diagram comparing organ segmentation results for abnormal lungs in chest radiography images according to an embodiment of the present invention.
Figure 6 shows the configuration of a chest radiation image segmentation device according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.The advantages and features of the present invention and methods for achieving them will become clear by referring to the embodiments described in detail below along with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below and will be implemented in various different forms, but the present embodiments only serve to ensure that the disclosure of the present invention is complete and are within the scope of common knowledge in the technical field to which the present invention pertains. It is provided to fully inform those who have the scope of the invention, and the present invention is only defined by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며, 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.The terminology used herein is for describing embodiments and is not intended to limit the invention. As used herein, singular forms also include plural forms, unless specifically stated otherwise in the context. As used herein, “comprises” and/or “comprising” refers to the presence of one or more other components, steps, operations and/or elements. or does not rule out addition.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in this specification may be used with meanings that can be commonly understood by those skilled in the art to which the present invention pertains. Additionally, terms defined in commonly used dictionaries are not interpreted ideally or excessively unless clearly specifically defined.

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예들을 보다 상세하게 설명하고자 한다. 도면 상의 동일한 구성요소에 대해서는 동일한 참조 부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.Hereinafter, preferred embodiments of the present invention will be described in more detail with reference to the attached drawings. The same reference numerals are used for the same components in the drawings, and duplicate descriptions for the same components are omitted.

본 발명의 실시예들은, 흉부 방사선 영상에서 적응적 인스턴스 정규화(Adaptive instance normalization; AdaIN)를 기반으로 하나의 뉴럴 네트워크를 활용하여 비정상(Abnormal) 폐와 정상(Normal) 폐에서 각각 장기 영역을 분할하는 것을 그 요지로 한다.Embodiments of the present invention utilize a neural network based on adaptive instance normalization (AdaIN) in chest radiology images to segment organ regions in abnormal lungs and normal lungs, respectively. That is the gist of it.

여기서, 본 발명은 도메인 적응, 자기 지도(self-supervised) 및 지도 트레이닝을 시너지 효과를 발휘하여 향상된 분할을 제공할 수 있는 통합 지식 증류 프레임워크를 제안하는 것으로, 본 발명의 프레임워크는 종종 발생하는 분할 마스크가 정상 데이터에만 사용 가능하지만 트레이닝된 방법이 정상 및 비정상 영상 모두에 적용될 수 있다.Here, the present invention proposes an integrated knowledge distillation framework that can provide improved segmentation by synergistically utilizing domain adaptation, self-supervised, and supervised training. Although segmentation masks can only be used on normal data, the trained method can be applied to both normal and abnormal images.

본 발명의 주요 아이디어는 적응형 인스턴스 정규화(AdaIN)와 함께 트레이닝된 단일 생성기가 단순히 AdaIN 코드를 변경함으로써, 정상 도메인와 비정상 도메인 사이의 도메인 적응뿐만 아니라 일반 데이터에 대한 분할을 수행할 수 있다는 것이다. 네트워크는 또한 도메인 적응 및 후속 분할을 통해 직접 분할 결과가 다른 분할 결과와 일치하도록 하기 위해 자기 지도 방식으로 트레이닝될 수 있다. 그런 다음 다른 AdaIN 코드를 사용하여 비정상 영상의 직접 분할을 정확하게 수행할 수 있다. 단일 생성기는 AdaIN 코드의 단순한 변경만으로 모든 작업에 사용되므로, 네트워크는 지식 증류를 통해 모든 작업에서 공통적인 특징을 시너지 효과로 학습할 수 있다.The main idea of the present invention is that a single generator trained with Adaptive Instance Normalization (AdaIN) can perform segmentation on normal data as well as domain adaptation between normal and abnormal domains, simply by changing the AdaIN code. The network can also be trained in a self-supervised manner to ensure that direct segmentation results match other segmentation results through domain adaptation and subsequent segmentation. Then, other AdaIN codes can be used to accurately perform direct segmentation of abnormal images. A single generator is used for all tasks with simple changes to the AdaIN code, allowing the network to synergistically learn common features across all tasks through knowledge distillation.

본 발명을 설명하기에 앞서, 본 발명과 관련된 기존 기술에 대해 설명하면 다음과 같다.Before explaining the present invention, existing technology related to the present invention will be described as follows.

영상 스타일 전송Video Style Transfer

영상 스타일 전송의 목적은 콘텐츠 영상을 특정 스타일화된 영상으로 변환하는 것이다. 현재 영상 스타일 전송에는 두 가지 유형의 접근 방식이 가장 많이 사용된다. 먼저 콘텐츠 영상과 스타일 참조 영상이 뉴럴 네트워크로 전달되고, 콘텐츠 영상을 스타일 참조에서 스타일을 모방하도록 변환하는 것이다. 예를 들어, 적응형 인스턴스 정규화(AdaIN)는 간단하지만 강력한 방법으로 제안되었다. 구체적으로, AdaIN 계층은 참조된 스타일 형상의 평균과 표준 편차를 추정하여 이를 사용하고 콘텐츠 특징의 평균과 표준 편차를 수정한다. 예를 들어, 일 실시예 기술은 영상을 콘텐츠와 스타일 코드로 분해하는 멀티모달 비지도 영상 간 변환(MUNIT)과 원하는 도메인에 대한 인코딩된 스타일 코드가 디코더에서 AdaIN 계층의 affine 파라미터를 대체한다.The purpose of video style transfer is to convert content video into a specific stylized video. Currently, two types of approaches are most commonly used for video style transfer. First, the content video and the style reference video are transmitted to the neural network, and the content video is converted from a style reference to imitating the style. For example, Adaptive Instance Normalization (AdaIN) has been proposed as a simple but powerful method. Specifically, the AdaIN layer estimates the mean and standard deviation of the referenced style features and uses them to modify the mean and standard deviation of the content features. For example, one embodiment technique is Multimodal Unsupervised Image Interchange (MUNIT), which decomposes an image into content and style codes, and the encoded style code for the desired domain replaces the affine parameter of the AdaIN layer at the decoder.

반면, cycleGAN과 같은 비지도 스타일 전송 접근 방식은 단일 스타일 영상보다는 목표 데이터 분포를 학습한다. 하지만, cycleGAN 접근 방식은 N 도메인 간 변환을 활성화하기 위해 N(N-1) 개의 생성기를 필요로 한다. 이를 처리하기 위해 다중 도메인 영상 변환 접근법이 제안되었다. 특히 StarGANv2(Choi, Y., Uh, Y., Yoo, J., Ha, J.W., 2020. Stargan v2: Diverse image synthesis for multiple domains, in: Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pp. 8188-8197.)는 AdaIN 계층의 도메인별 스타일 코드를 변경하여 여러 도메인에서 스타일을 전송하는 고급 단일 생성기 기반 프레임워크를 도입하였다.On the other hand, unsupervised style transfer approaches such as cycleGAN learn a target data distribution rather than a single style image. However, the cycleGAN approach requires N(N-1) generators to enable translation between N domains. To handle this, a multi-domain image transformation approach was proposed. In particular, StarGANv2 (Choi, Y., Uh, Y., Yoo, J., Ha, J.W., 2020. Stargan v2: Diverse image synthesis for multiple domains, in: Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pp. 8188-8197.) introduced an advanced single generator-based framework for transferring styles across multiple domains by changing the domain-specific style code in the AdaIN layer.

도메인 적응을 통한 준지도 학습Semi-supervised learning through domain adaptation

의료 영상 분할을 위한 도메인 적응 접근법에서, 특정 도메인(예를 들어, 일반 CXR)의 레이블이 지정된 데이터셋을 사용하여 트레이닝된 DL 기반 모델은 준지도, 자기 지도 또는 비지도 방식에서 서로 다른 도메인 데이터셋에 대해 정제된다. 이러한 접근 방식은 특정 도메인의 지도 학습에서 학습된 특징을 활용하고, 지식을 보이지 않는 도메인의 비지도 학습 작업으로 증류하려고 한다. 구체적으로, 일 실시예의 기술은 심장 MR 영상 분할 작업에 준지도 학습 접근 방식을 적용하였으며 사전 트레이닝된 모델이 있는 레이블이 지정되지 않은 데이터셋에 대한 의사(pseudo) 레이블을 생성하고 레이블이 지정된 데이터와 의사 레이블이 있는 데이터셋에서 네트워크를 트레이닝시켜 지도된 기준 모델과 비교하여 더 높은 성능을 지속적으로 달성하였다. 또 다른 일 실시예의 기술은 영상 대 영상 스타일 전송 프레임워크를 통해 의사 영상을 생성함으로써 폐렴 폐 분할 작업에 대한 준지도 접근법을 도입하였으며, 이어서 레이블 지정 및 의사 레이블 지정 데이터셋을 모두 사용하여 다른 분할 네트워크를 트레이닝하였다.In domain adaptive approaches for medical image segmentation, a DL-based model trained using labeled datasets from a specific domain (e.g., generic CXR) is trained on different domain datasets in a semi-supervised, self-supervised, or unsupervised manner. is refined for. These approaches leverage features learned from supervised learning in a specific domain and attempt to distill that knowledge into unsupervised learning tasks in an unseen domain. Specifically, the technique in one embodiment applies a semi-supervised learning approach to the task of cardiac MR image segmentation and generates pseudo labels for an unlabeled dataset with a pre-trained model and By training the network on a pseudo-labeled dataset, it consistently achieved higher performance compared to a supervised baseline model. Another embodiment of the technique introduces a semi-supervised approach to the task of pneumonia lung segmentation by generating pseudo-images via an image-to-image style transfer framework, followed by another segmentation network using both labeled and pseudo-labeled datasets. trained.

교사-학생 접근법Teacher-Student Approach

교사-학생 프레임워크는 학생과 교사 모델 등 두 개의 개별 네트워크로 구성된다. 학생 모델은 학생 모델 출력이 레이블이 지정되지 않은 데이터셋을 가진 교사 모델의 출력과 일치하도록 강제하는 자기 지도 방식으로 트레이닝될 뿐만 아니라 지도 방식으로도 트레이닝될 수 있다.The teacher-student framework consists of two separate networks: the student and teacher models. Student models can be trained in a supervised manner as well as self-supervised, which forces the student model output to match the output of a teacher model with an unlabeled dataset.

구체적으로, 일 실시예의 기술은 분할 작업에 대한 이중 교사 프레임워크를 도입하였는데, 이는 도메인 내 지식을 위한 전통적인 교사 모델과 도메인 간 지식 증류를 위한 추가 교사 모델이라는 두 가지 교사 모델로 구성된다. 분할 레이블이 있는 도메인 간 데이터셋을 활용하기 위해 도메인 이동 데이터셋의 영상은 의사 영상으로 스타일 전송된다. 의사 레이블 영상을 통해 지도되는 방식으로 트레이닝된 추가 도메인 간 교사 및 학생은 스타일 전송 영상을 고려할 때 일관된 출력을 예측하도록 강제된다. 따라서, 주요 목표는 레이블 지정, 레이블 미지정, 의사 레이블 지정 도메인 간 데이터셋의 정보를 학생 모델이 완전히 활용하도록 하는 것이다.Specifically, the technology in one embodiment introduces a dual teacher framework for partitioning tasks, which consists of two teacher models: a traditional teacher model for intra-domain knowledge and an additive teacher model for cross-domain knowledge distillation. To utilize the inter-domain dataset with segmentation labels, images from the domain shift dataset are style-transferred as pseudo-images. Additional cross-domain teachers and students trained in a supervised manner over pseudo-labeled images are forced to predict consistent output when considering style transfer images. Therefore, the main goal is to ensure that the student model fully utilizes the information in labeled, unlabeled, and pseudo-labeled cross-domain datasets.

자기 지도 학습self-directed learning

최근 자기 지도 학습에 대한 새로운 연구는 서로 다른 섭동(perturbations)으로 동일한 입력이 주어진 모델 출력 간의 일관성을 촉진하거나 보조 프록시 작업을 트레이닝함으로써, 의료 도메인 적응 또는 영상 분할 작업에 큰 개선을 가져왔다. 일반적으로 보조 자기 지도 손실로 트레이닝된 DL 모델은 특히 레이블이 지정된 데이터셋과 레이블이 지정되지 않은 풍부한 데이터셋을 사용하여 트레이닝할 때 더 나은 일반화 기능뿐만 아니라 더 나은 기본 작업 성능을 달성한다는 것이 입증된다.Recently, new research on self-supervised learning has brought about significant improvements in medical domain adaptation or image segmentation tasks by promoting consistency between model outputs given the same input with different perturbations or by training auxiliary proxy tasks. In general, it is demonstrated that DL models trained with auxiliary self-supervised loss achieve better baseline task performance as well as better generalization capabilities, especially when trained using labeled and rich unlabeled datasets. .

예를 들어, 일 실시예의 기술은 레이블이 지정되지 않은 도메인 데이터셋을 활용하는 보조 에지 생성 작업을 구성하여 자기 지도 학습의 도움을 받는 교차 양식 도메인 적응에 대한 SOTA 성능을 달성하였다. 또 다른 일 실시예의 기술은 다른 확대(augmentation)와 함께 레이블이 지정되지 않은 입력이 주어질 때 학생 모델과 교사 모델 사이의 출력 일관성 손실을 소개하였다.For example, the technique of one embodiment configured an auxiliary edge generation task that leverages an unlabeled domain dataset to achieve SOTA performance for cross-modality domain adaptation with the help of self-supervised learning. Another embodiment of the technique introduced loss of output consistency between the student and teacher models when given unlabeled input with different augmentations.

도 1은 본 발명의 일 실시예에 따른 흉부 방사선 영상 분할 방법에 대한 동작 흐름도를 나타낸 것이다.Figure 1 shows an operation flowchart for a chest radiology image segmentation method according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 흉부 방사선 영상 분할 방법은 분할하고자 하는 흉부 방사선 영상을 수신하고, 적응적 인스턴스 정규화(adaptive instance normalization)와 함께 미리 학습된 분할 모델 기반의 단일 뉴럴 네트워크를 이용하여 흉부 방사선 영상에서 장기 영역을 분할한다(S110, S120).Referring to FIG. 1, the chest radiology image segmentation method according to an embodiment of the present invention receives a chest radiology image to be segmented, and uses a single neural segment based on a pre-learned segmentation model with adaptive instance normalization. Organ regions are segmented from chest radiology images using a network (S110, S120).

여기서, 단계 S120은 단일 뉴럴 네트워크와 사전 구축된 적응적 인스턴스 정규화 코드를 이용하여 흉부 방사선 영상의 폐에서 장기 영역을 분할할 수 있다.Here, step S120 can segment the organ region in the lungs of the chest radiology image using a single neural network and a pre-built adaptive instance normalization code.

여기서, 단계 S120은 단일 뉴럴 네트워크의 인코더와 디코더에 대한 각각의 적응적 인스턴스 정규화 코드를 변경함으로써, 지도 학습(Supervised learning) 기반의 정상 폐에서 장기 영역의 분할, 도메인 적응(Domain adaptation) 방식 기반의 비정상 폐에서 정상 폐로의 도메인 변환에 의한 장기 영역의 분할 및 지도 학습과 도메인 적응을 통해 학습한 지식(Knowledge)이 증류 (Distillation)된 자기 지도 학습(Self-supervised learning) 방식 기반으로 정상 폐와 비정상 폐 각각에서 장기 영역을 분할할 수 있다.Here, step S120 changes the adaptive instance normalization code for each encoder and decoder of a single neural network, thereby dividing the organ region in the normal lung based on supervised learning and domain adaptation method. Normal lungs and abnormal lungs are divided into organ regions by domain conversion from abnormal lungs to normal lungs and are based on a self-supervised learning method that distills the knowledge learned through supervised learning and domain adaptation. Organ regions can be segmented from each lung.

이 때, 단일 뉴럴 네트워크는 정상 폐에서 지도 학습(Supervised learning) 기법 기반으로 폐 영역 분할을 학습한 뒤, 비정상 폐를 도메인 적응(Domain adaptation) 방식을 통해 정상 폐로 변환하는 제1 적응적 인스턴스 정규화 코드를 학습하고, 지도 학습과 도메인 적응 방식을 통해 학습된 지식(Knowledge)을 제2 적응적 인스턴스 정규화 코드에 증류(Distillation)하여 자기 지도 학습(Self-supervised learning) 방식으로 학습함으로써, 도메인 적응과 분할을 통합하여 정상 폐와 비정상 폐 각각에서 장기 영역을 분할할 수 있다.At this time, a single neural network learns lung region segmentation based on a supervised learning technique from normal lungs, and then uses a first adaptive instance normalization code that converts abnormal lungs into normal lungs through domain adaptation. Domain adaptation and segmentation by learning through self-supervised learning by distilling the knowledge learned through supervised learning and domain adaptation into a second adaptive instance normalization code. By integrating, it is possible to segment organ areas in normal lungs and abnormal lungs, respectively.

여기서, 단계 S120은 단일 뉴럴 네트워크를 이용하여, 영상 픽셀(Pixel) 단위의 장기 라벨(Label)이 존재하는 정상 폐에서 지도 학습(Supervised learning) 기법을 기반으로 상기 흉부 방사선 영상에서 장기 영역을 분할할 수 있다.Here, step S120 uses a single neural network to segment the organ area in the chest radiology image based on a supervised learning technique in normal lungs where organ labels exist in pixel units. You can.

여기서, 단계 S120은 단일 뉴럴 네트워크를 이용한 적응적 인스턴스 정규화 기법을 활용하여 비정상 폐를 정상 폐로 도메인을 변환함으로써, 정상 폐로 도메인 변환된 비정상 폐에서 장기 영역을 분할할 수 있다.Here, in step S120, the domain of the abnormal lung is converted to a normal lung using an adaptive instance normalization technique using a single neural network, thereby dividing the organ region from the abnormal lung that has been domain converted to a normal lung.

여기서, 단계 S120은 단일 뉴럴 네트워크를 이용한 자기 지도 학습 기반으로 정상 폐로 도메인 변환된 비정상 폐와 라벨이 있는 정상 폐 각각에서 장기 영역을 분할할 수 있다.Here, step S120 is based on self-supervised learning using a single neural network, and the organ region can be divided from each of the abnormal lungs domain-converted to normal lungs and the labeled normal lungs.

이러한 본 발명의 방법에 대하여 도 2 내지 도 5를 참조하여 상세하게 설명하면 다음과 같다.The method of the present invention will be described in detail with reference to FIGS. 2 to 5 as follows.

StarGANv2 영상 변환 접근 방식의 고유한 특징 중 하나는 공유 네트워크 계층을 통해 여러 도메인에 걸쳐 공통 특징을 시너지 효과를 발휘하여 모든 트레이닝 데이터셋을 완벽하게 활용할 수 있지만, 여전히 서로 다른 AdaIN 코드를 사용하여 도메인별 적응을 가능하게 한다는 것이다. 본 발명의 네트워크는 AdaIN 기반 지식 증류를 통해 도메인 적응과 분할을 통합할 수 있다.One of the unique features of the StarGANv2 image transformation approach is that it can fully utilize all training datasets by synergizing common features across multiple domains through a shared network layer, but still uses different AdaIN codes to enable domain-specific This means that adaptation is possible. The network of the present invention can integrate domain adaptation and segmentation through AdaIN-based knowledge distillation.

구체적으로, 본 발명의 프레임워크는 트레이닝 데이터를 분할 마스크(MASK), 일치된 입력 영상 도메인(INTRA), 분할 레이블이 지정되지 않은 도메인 이동 입력 영상(INTER)의 세 가지 그룹으로 분류한다. 보다 구체적으로, 도 2에 도시된 바와 같이, INTRA 도메인의 트레이닝 데이터는 MASK 도메인의 분할 마스크와 일치하는 반면, INTER 도메인의 많은 수의 트레이닝 데이터셋에는 분할 마스크가 없다.Specifically, the framework of the present invention classifies the training data into three groups: segmentation mask (MASK), matched input image domain (INTRA), and segmentation unlabeled domain moving input image (INTER). More specifically, as shown in Figure 2, training data in the INTRA domain matches segmentation masks in the MASK domain, while many training datasets in the INTER domain do not have segmentation masks.

INTRA 도메인과 INTER 도메인 간의 도메인 이동으로 인해, INTRA 데이터를 사용하는 지도 방식으로 트레이닝된 네트워크는 INTER 도메인 영상에 대해 잘 일반화되지 않는다. 이 문제를 완화하기 위해, 본 발명은 적응형 인스턴스 정규화(AdaIN)와 함께 트레이닝된 단일 생성기가 도 2a에 도시된 바와 같이, 특정 AdaIN 코드에 대해 INTRA 데이터를 사용하여 지도 분할을 수행할 수 있을 뿐만 아니라 도 2b에 도시된 바와 같이, 다른 AdaIN 코드를 사용하여 INTER 도메인과 INTRA 도메인 간 도메인 적응을 수행할 수 있다는 것이다. 그런 다음 네트워크는 도 2c에 도시된 바와 같이, 도메인 적응 후 분할을 통해 다른 분할 결과와 일치하도록 직접 분할 결과를 강제하는 자기 지도 방식으로 트레이닝되므로, INTER 영상을 사용한 직접 분할은 또 다른 AadIN 코드를 사용하여 수행할 수 있다. 이를 통해 다양한 작업 간에 지식을 증류할 수 있다.Due to the domain shift between the INTRA and INTER domains, a supervised network trained using INTRA data does not generalize well to INTER domain images. To alleviate this problem, the present invention allows a single generator trained with Adaptive Instance Normalization (AdaIN) to not only perform supervised segmentation using INTRA data for a specific AdaIN code, as shown in Figure 2A. Rather, as shown in Figure 2b, domain adaptation between the INTER domain and the INTRA domain can be performed using a different AdaIN code. The network is then trained in a self-supervised manner that forces the direct segmentation results to match other segmentation results through domain adaptation post-segmentation, as shown in Figure 2c, so direct segmentation using INTER images uses another AadIN code. It can be done by doing this. This allows knowledge to be distilled across different tasks.

네트워크가 트레이닝되면, INTRA 및 INTER 도메인 영상 분할에 대해 추론 단계에서 단일 생성기와 사전 구축된 AdaIN 코드만 사용할 수 있다.Once the network is trained, only a single generator and pre-built AdaIN code can be used in the inference step for INTRA and INTER domain image segmentation.

본 발명의 뉴럴 네트워크의 전체 아키텍처는 도 3에 도시된 바와 같이, 단일 생성기 G, 스타일 인코더 S, 각각의 인코더와 디코더의 AdaIN 코드 생성기(Fe 및 Fd), 다중 헤드 판별기 D로 구성될 수 있다. 단일 생성기는 두 개의 AdaIN 코드 생성기와 한 개의 스타일 인코더와 연결되고, 잔여 블록들의 시리즈로 구성되는 인코더와 디코더로 나눠질 수 있으며, AdaIN 코드 생성기들 또는 스타일 인코더로부터 생성된 출력 코드는 각 잔여 블록의 AdaIN 계층에 연결될 수 있다. 스타일 인코더 S를 도입한 이유 중 하나는 AdaIN 코드 생성기가 의미 있는 코드를 생성하기 위해 정규화될 수 있도록 AdaIN 코드 생성에 추가 제약을 가하기 위함이다. 여기서, 스타일 인코더, AdaIN 코드 생성기 및 판별기는 다중 헤드 구조를 가질 수 있다.As shown in Figure 3, the overall architecture of the neural network of the present invention will be composed of a single generator G, a style encoder S, AdaIN code generators (F e and F d ) of each encoder and decoder, and a multi-head discriminator D. You can. A single generator is connected to two AdaIN code generators and a style encoder, and can be divided into an encoder and a decoder consisting of a series of residual blocks, and the output code generated from the AdaIN code generators or style encoder is the output code of each residual block. Can be connected to the AdaIN layer. One of the reasons for introducing the style encoder S is to place additional constraints on the AdaIN code generation so that the AdaIN code generator can be normalized to generate meaningful code. Here, the style encoder, AdaIN code generator and discriminator may have a multi-head structure.

본 발명의 네트워크와 StarGANv2의 주요 차이점 중 하나는 인코더와 디코더를 위한 독립적인 AdaIN 코드 계층을 갖는 인코더-디코더 아키텍처이다. 인코더와 디코더에 대한 두 개의 별도 AdaIN 코드 때문에, 본 발명에서의 생성기는 아래 <표 1>에 도시된 바와 같이, 두 AdaIN 코드 생성기의 AdaIN 코드 조합을 변경하기만 하면 지도 분할, 도메인 적응 및 자기 지도 학습을 수행할 수 있다.One of the main differences between our network and StarGANv2 is the encoder-decoder architecture with independent AdaIN code layers for the encoder and decoder. Because of the two separate AdaIN codes for the encoder and decoder, the generator in the present invention can perform supervised segmentation, domain adaptation, and self-map by simply changing the AdaIN code combination of the two AdaIN code generators, as shown in Table 1 below. Learning can be done.

예를 들어, 분할 작업의 경우, 상수 AdaIN 코드 (0, 1)가 인코더와 디코더 모두에 사용되어 표준 인스턴스 정규화로 이어진다. 한편, 학습 가능한 AdaIN 코드는 INTRA 및 INTER 도메인으로의 변환에서 디코더 AdaIN 계층에 사용된다. 그러나 다양한 경로에서 일관된 재구성을 시행하기 위해 자기 지도 학습 작업을 위해 인코더 AdaIN 계층에 학습 가능한 또 다른 AdaIN 코드가 사용될 수 있다. For example, for segmentation operations, the constant AdaIN code (0, 1) is used for both encoder and decoder, leading to standard instance normalization. Meanwhile, the learnable AdaIN code is used in the decoder AdaIN layer in the conversion to INTRA and INTER domains. However, another learnable AdaIN code can be used in the encoder AdaIN layer for a self-supervised learning task to enforce consistent reconstruction across various paths.

특히, X, Y, Z가 확률 분포 PX, PY 및 PZ와 관련된 INTRA, INTER 및 MASK 도메인을 참조한다 하면, 생성기는 아래 <수학식 1>과 같이 정의할 수 있다.In particular, if X , Y, and Z refer to INTRA, INTER , and MASK domains related to probability distributions P

<수학식 1><Equation 1>

여기서, u는 X 또는 Y의 입력 영상을 의미하고, a∈{aseg, a'seg, aX da, aY da, aself}는 상기 표 1에 표시된 AdaIN 코드를 의미할 수 있다. 입력 데이터 및 AdaIN 코드에 따라 네트워크 출력 v는 X, Y, Z 중 하나일 수 있다. Here, u refers to the input image of X or Y , and a∈{ a seg , a ' seg , a Depending on the input data and AdaIN code, the network output v can be one of X, Y, or Z.

본 발명에서 트레이닝 손실은 StarGANv2의 트레이닝 손실에서 확장되며, 분할 작업과 자기 지도 학습을 포함할 수 있다.In the present invention, the training loss extends from that of StarGANv2 and can include segmentation tasks and self-supervised learning.

지도 분할split map

도 2a는 INTRA에서 MASK 도메인으로의 변환으로 간주될 수 있는 지도 분할을 나타낸 것으로, 생성기는 아래 <수학식 2>와 같이 학습될 수 있다.Figure 2a shows a map segmentation that can be considered a conversion from INTRA to MASK domain, and the generator can be learned as shown in Equation 2 below.

<수학식 2><Equation 2>

여기서, λseg와 λstyle은 하이퍼 파라미터를 의미하며, 분할 손실 lseg는 생성된 출력과 일치하는 레이블 사이의 교차 엔트로피(cross-entropy) 손실에 의해 정의되고, 분할 손실 lseg는 아래 <수학식 3>과 같이 나타낼 수 있다.Here, λ seg and λ style mean hyperparameters, and the segmentation loss l seg is defined by the cross-entropy loss between the generated output and the matching label, and the segmentation loss l seg is defined by the equation below: 3> It can be expressed as follows.

<수학식 3><Equation 3>

여기서, zi는 입력 영상 x ∈ X와 관련하여 지상검증(ground truth) 분할 마스크 z ∈ Z의 i번째 픽셀을 의미하며, 는 G(x, aseg)에 의해 생성된 가짜 영상에 있는 i번째 픽셀의 소프트맥스 확률 함수를 의미할 수 있다.Here, z i refers to the ith pixel of the ground truth segmentation mask z ∈ Z with respect to the input image x ∈ may refer to the softmax probability function of the ith pixel in the fake image generated by G(x, a seg ).

주어진 AdaIN 스타일 코드에 대한 분할 결과가 생성되면, 분할 결과를 입력으로 가지는 스타일 인코더는 MASK 도메인의 스타일 인코더에서 생성된 더미 AdaIN 코드 a'seg와 일치하도록 강제된다. 이는 아래 <수학식 4>의 스타일 손실을 사용하여 달성할 수 있다.Once a segmentation result for a given AdaIN style code is generated, the style encoder with the segmentation result as input is forced to match the dummy AdaIN code a' seg generated by the style encoder in the MASK domain. This can be achieved using the style loss in <Equation 4> below.

<수학식 4><Equation 4>

여기서, a'seg는 MASK 도메인 별 AdaIN 코드를 의미할 수 있다. 이 코드가 분할에 직접 사용되지 않지만, 스타일 코드 생성기 또는 스타일 코드 생성기에서 이 AdaIN 코드를 생성하는 것은 AdaIN 코드 생성기와 스타일 인코더의 다중 헤드 구조에서 공유 계층을 트레이닝시키는 데 중요할 수 있다.Here, a' seg may mean the AdaIN code for each MASK domain. Although this code is not used directly for segmentation, generating this AdaIN code from a style code generator or style code generator can be important for training shared layers in the multi-head structure of the AdaIN code generator and style encoder.

도메인 적응domain adaptation

도메인 적응 트레이닝은 기본적으로 StarGANv2와 유사하다. 도 2b는 X와 Y 사이의 도메인 적응 트레이닝 방식을 보여주는 것으로, 본 발명은 아래 <수학식 5>와 같은 최적화 문제를 해결하여 본 발명의 네트워크를 트레이닝시킬 수 있다.Domain adaptive training is basically similar to StarGANv2. Figure 2b shows a domain adaptation training method between

<수학식 5><Equation 5>

여기서, 도메인 적응 손실(lda)은 아래 <수학식>과 같이 나타낼 수 있다.Here, the domain adaptation loss (l da ) can be expressed as <Equation> below.

여기서, λcycle, λstyle, λdiv는 하이퍼 파라미터을 의미하고, ladv는 적대적 손실을 의미하는 것으로, 적대적 손실은 아래 <수학식 6>과 같이 나타낼 수 있다.Here, λ cycle , λ style , and λ div mean hyperparameters, and l adv means adversarial loss. The adversarial loss can be expressed as <Equation 6> below.

<수학식 6><Equation 6>

여기서, 도메인 S와 T는 소스 및 타겟 도메인을 의미하며, 도 4a에 도시된 바와 같이 X와 Y에서 무작위로 선택되므로 상기 수학식 6은 판별기의 다른 헤더가 각 X 또는 Y 도메인에 최적화될 수 있도록 소스 도메인과 타상 도메인의 모든 조합을 고려할 수 있다. 또한 AdaIN 코드 aτ da의 학습 가능한 부분은 도 4b와 도 4c에 도시된 바와 같이, 인코더 AdaIN 코드 생성기 Fd 또는 참조 타겟 t ∈ T가 주어진 스타일 인코더 S(x)에서 생성되어 헤더도 최적화될 수 있다. 이 기술은 StarGANv2에서 사용한 절차를 그대로 따를 수 있다.Here, the domains S and T refer to the source and target domains, and are randomly selected from All combinations of the source domain and the other domain can be considered. Additionally, the learnable part of the AdaIN code a τ da is generated from the encoder AdaIN code generator F d or the style encoder S(x) given the reference target t ∈ T, as shown in Figures 4b and 4c, so that the header can also be optimized. there is. This technology can follow the procedures used in StarGANv2.

본 발명은 소스 도메인과 타겟 도메인의 유사한 무작위 선택을 사용하여, 아래 <수학식 7>과 같은 사이클 일관성 손실 lcycle을 정의할 수 있다.The present invention can use similar random selection of the source domain and target domain to define the cycle consistency loss l cycle as shown in Equation 7 below.

<수학식 7><Equation 7>

영상에서의 사이클 일관성 손실 lcycle과 유사하게, AdaIN 코드 도메인에서 사이클 일관성을 강화하기 위하여 상기 수학식 4의 스타일 손실 lstyle을 도입할 수 있다. 보다 구체적으로, 도메인 별 AdaIN 코드를 사용하여 가짜 영상이 생성되면 가짜 영상을 입력으로 사용하는 스타일 인코더는 원래의 AdaIN 코드를 재현해야 한다. 이는 아래 <수학식 8>과 같은 스타일 손실을 사용하여 달성할 수 있다.Similar to the cycle consistency loss lcycle in the video, the style loss lstyle of Equation 4 above can be introduced to strengthen cycle consistency in the AdaIN code domain. More specifically, when a fake image is generated using a domain-specific AdaIN code, a style encoder using the fake image as input must reproduce the original AdaIN code. This can be achieved by using a style loss as shown in Equation 8 below.

<수학식 8><Equation 8>

마지막으로, 생성된 가짜 영상을 다양하게 만들려면 두 개의 서로 다른 AdaIN 코드로 생성된 두 가짜 영상 간의 차이를 최대화해야 한다. 이는 아래 <수학식 9>와 같은 손실을 최대화함으로써 달성할 수 있다.Lastly, to make the generated fake images diverse, we need to maximize the difference between two fake images generated with two different AdaIN codes. This can be achieved by maximizing the loss as shown in Equation 9 below.

<수학식 9><Equation 9>

여기서, aτ da와 a'τ da는 AdaIN 코드 생성기에서 무작위로 생성되거나 두 개의 다른 영상이 주어진 스타일 인코더 S에서 생성될 수 있다.Here, a τ da and a' τ da can be generated randomly from the AdaIN code generator or from a style encoder S given two different images.

자기 지도 학습self-directed learning

자기 지도 학습의 목표는 INTER 도메인의 영상이 도 2c의 빨간색 화살표로 설명된 대로 분할 결과를 직접 생성할 수 있다는 것이다.The goal of self-supervised learning is that images in the INTER domain can directly generate segmentation results, as illustrated by the red arrow in Figure 2c.

특히, INTER 도메인은 분할 마스크가 없으므로, 지도 학습과 도메인 적응에서 학습한 지식을 증류해야 한다. 따라서, 본 발명의 기여는 새로운 제약 조건을 도입하는 데서 온다. 자기 지도 방식으로 트레이닝된 분할 출력은 각각 도 2c에서 녹색 화살표와 검은색 화살표로 설명되는 도메인 적응을 통해 생성된 다른 분할 출력과 일치해야 한다. 또한 추론 단계에서는 입력이 어느 도메인에서 왔는지 알기 어려운 경우가 많다. 그러므로 하나의 AdaIN 코드는 INTRA 및 INTER 도메인 영상 분할을 모두 처리해야 한다. 이는 아래 <수학식 10>과 같은 자기 일관성 손실을 가져온다.In particular, the INTER domain does not have a segmentation mask, so the knowledge learned from supervised learning and domain adaptation must be distilled. Therefore, the contribution of the present invention comes from introducing new constraints. Segmentation outputs trained in a self-supervised manner should match other segmentation outputs generated through domain adaptation, illustrated by green and black arrows in Figure 2c, respectively. Additionally, in the inference stage, it is often difficult to know which domain the input came from. Therefore, one AdaIN code must process both INTRA and INTER domain image segmentation. This results in self-consistency loss as shown in Equation 10 below.

<수학식 10><Equation 10>

여기서, linter와 lintra는 각각 inter-도메인 자가 상관 손실과 inter-도메인 자가 상관 손실을 의미하고, λinter와 λintra는 inter-도메인과 inter-도메인 각각에 대한 하이퍼 파라미터를 의미할 수 있다.Here, l inter and l intra may mean inter-domain autocorrelation loss and inter-domain autocorrelation loss, respectively, and λ inter and λ intra may mean hyperparameters for inter-domain and inter-domain, respectively.

사실, 이 절차는 교사-학생 접근법으로 간주될 수 있다. 도 2c의 간접 경로는 도 2c의 직접 경로에서 학생 네트워크의 트레이닝 절차를 안내하는 교사 네트워크이다. 그러나 기존의 교사-학생 접근 방식과는 대조적으로, 본 발명의 접근 방식은 교사와 학생을 위한 별도의 네트워크가 필요하지 않다. 대신, 서로 다른 AdaIN 조합을 가진 동일 생성기가 교사 또는 학생 역할을 하며, 이는 본 발명의 방법에서 또 다른 큰 장점이다.In fact, this procedure can be considered a teacher-student approach. The indirect path in Figure 2c is a teacher network that guides the training procedure of the student network in the direct path in Figure 2c. However, in contrast to existing teacher-student approaches, our approach does not require separate networks for teachers and students. Instead, the same generator with different AdaIN combinations acts as teacher or student, which is another great advantage of the method of the present invention.

지도 분할 성능을 희생하지 않고 자기 지도 학습 작업을 위한 단일 생성기 프레임워크를 트레이닝하기 위해, 인코더에 AdaIN 코드 생성기 Fe를 도입하는 반면 디코더는 상기 표 1에 기재된 바와 같이 여전히 표준 인스턴스 정규화에 해당하는 고정 AdaIN 코드(1, 0)을 사용할 수 있다.To train a single-generator framework for self-supervised learning tasks without sacrificing supervised segmentation performance, we introduce an AdaIN code generator F e in the encoder, while the decoder is a fixed generator that still corresponds to standard instance normalization as listed in Table 1 above. AdaIN codes (1, 0) can be used.

네트워크 아키텍처network architecture

본 발명의 생성기 G는 도 3에 도시된 바와 같이, 인코더와 디코더 모듈로 구성될 수 있다. 특히 인코더 부분은 4개의 다운샘플링 잔여 블록과 2개의 중간 잔여 블록으로 구성되고, 디코더 부분은 중간 잔여 블록 2개와 업샘플링 잔여 블록 4개로 구성된다. 각 잔여 블록은 각각 AdaIN 계층, 활성화 계층, 컨볼루션 계층으로 구성된다. 모든 AdaIN 계층이 AdaIN 코드 생성기에 연결되어 있으며, 디코더 모듈의 경우 스타일 인코더 또한 도메인 적응 작업을 위해 연결된다.Generator G of the present invention may be composed of an encoder and a decoder module, as shown in FIG. 3. In particular, the encoder part consists of 4 downsampling residual blocks and 2 middle residual blocks, and the decoder part consists of 2 middle residual blocks and 4 upsampling residual blocks. Each residual block consists of an AdaIN layer, an activation layer, and a convolution layer, respectively. All AdaIN layers are connected to the AdaIN code generator, and in the case of the decoder module, a style encoder is also connected for domain adaptation tasks.

StarGANv2와 유사하게, 본 발명의 판별기 D는 도 4a에 도시된 바와 같이 각 영상 도메인 즉, INTER, INTRA에 대한 다중 헤드 비공유 컨볼루션 계층으로 구성된다. 판별기에서 입력 영상은 각 도메인에 대해 개별적으로 1 또는 0으로 분류될 수 있으며, 여기서 1은 진짜 영상을 의미하고, 0은 가짜 영상을 의미할 수 있다. AdaIN 코드 생성기는 도 4b에 도시된 바와 같이, 공유 선형 계층 다음에 각 도메인에 대한 다중 헤드 비공유 선형 계층로 구성된다. 그러므로, 각 도메인에 대한 AdaIN 코드는 각각 공유 계층을 통해 생성될 수 있고, 이어서 도메인별 비공유 계층을 통해 생성될 수 있다. 또한 스타일 인코더는 도 4c에 도시된 바와 같이, 공유 컨볼루션 계층에 이어 각 도메인에 대한 다중 헤드 비공유 선형 계층으로 구성된다. 스타일 인코더에서 입력 영상은 공유 계층과 비공유 계층을 통해 각 도메인에 대한 도메인별 AdaIN 코드로 디코딩될 수 있다.Similar to StarGANv2, the discriminator D of the present invention is composed of a multi-head non-shared convolution layer for each image domain, that is, INTER and INTRA, as shown in Figure 4a. In the discriminator, the input image can be classified as 1 or 0 for each domain individually, where 1 can mean a real image and 0 can mean a fake image. The AdaIN code generator consists of a shared linear layer followed by a multi-head non-shared linear layer for each domain, as shown in Figure 4b. Therefore, the AdaIN code for each domain can be generated through a shared layer, respectively, and then through a non-shared layer for each domain. Additionally, the style encoder consists of a shared convolutional layer followed by a multi-head non-shared linear layer for each domain, as shown in Figure 4c. In the style encoder, the input video can be decoded into a domain-specific AdaIN code for each domain through a shared layer and a non-shared layer.

공유 계층의 존재 덕분에, 특정 도메인 번역의 지식을 다른 도메인으로 증류하여 판별기의 전반적인 성능을 향상시킬 수 있다.Thanks to the existence of a shared layer, the knowledge of a specific domain translation can be distilled to other domains, improving the overall performance of the discriminator.

데이터셋dataset

본 발명의 도메인 적응 및 분할 작업의 성능을 평가하기 위해 공개 CXR 데이터셋을 활용할 수 있다. 지도 분할 작업의 경우 SCR 데이터셋에서 쌍으로 된 폐 주석을 가진 JSRT 데이터셋의 일반 CXR 영상이 각각 INTRA 및 MASK 도메인으로 사용될 수 있다. 비정상적인 CXR 영상 즉, INTER 도메인에 대해서는, RSNA COVID19 데이터셋, Cohen 폐렴 데이터셋, BRIXIA COVID-19 데이터셋, BIMCV 데이터셋 등 4가지 소스에서 폐렴 CXR 데이터셋을 수집할 수 있으며 각각의 특성은 표 2에 도시된 바와 같다.The public CXR dataset can be utilized to evaluate the performance of the domain adaptation and segmentation tasks of the present invention. For supervised segmentation tasks, regular CXR images from the JSRT dataset with paired lung annotations from the SCR dataset can be used as INTRA and MASK domains, respectively. For abnormal CXR images, that is, INTER domain, pneumonia CXR datasets can be collected from four sources, including RSNA COVID19 dataset, Cohen pneumonia dataset, BRIXIA COVID-19 dataset, and BIMCV dataset, and the characteristics of each are Table 2 As shown in .

구현 상세내용Implementation details

본 발명의 네트워크는 무작위로 선택된 두 개의 도메인 쌍에서 입력 영상을 공급하여 트레이닝될 수 있으며, 하나는 소스 도메인용이고, 다른 하나는 타겟 도메인용이다. 예를 들어, INTER 도메인과 INTRA 도메인으로 구성된 도메인 쌍을 네트워크에 공급하는 경우, 네트워크는 도메인 적응 작업을 위해 트레이닝된다. 소스로서의 INTRA와 타겟 도메인으로서 MASK로 구성된 도메인 쌍이 네트워크에 공급되면, 네트워크는 지도 분할 작업에 대해 트레이닝된다. 자기 지도 학습의 경우, INTRA에서 MASK 도메인뿐만 아니라 MASK 도메인의 분할 마스크를 출력하기 위한 원본 도메인으로 INTRA에서 MASK 도메인으로 영상이 공급될 수 있다. 트레이닝 시퀀스의 관점에서, 자기 지도 트레이닝은 지도 분할 및 도메인 적응 작업이 수행된 후에 시작한다.The network of the present invention can be trained by feeding input images from two randomly selected pairs of domains, one for the source domain and the other for the target domain. For example, if you feed the network a domain pair consisting of an INTER domain and an INTRA domain, the network is trained for the domain adaptation task. Once the network is fed with a domain pair consisting of INTRA as the source and MASK as the target domain, the network is trained for the supervised segmentation task. In the case of self-supervised learning, an image can be supplied from INTRA to the MASK domain as a source domain for outputting not only the MASK domain from INTRA but also the segmentation mask of the MASK domain. In terms of training sequence, self-supervised training starts after the supervised segmentation and domain adaptation tasks are performed.

본 발명의 방법은 PyTorch 라이브러리로 구현될 수 있으며, Adam optimizer를 적용하여 모델을 교육하고 배치 크기를 1로 설정할 수 있다. 이 모델은 NVIDIA GeForce GTX 1080Ti GPU를 사용하여 트레이닝될 수 있으며, 하이퍼 파라미터는 λcycle = 2, λstyle = 1, λdiv = 1, λseg = 5, λinter = 10, λintra = 1로 선택될 수 있고, 학습 속도는 0.0001로 최적화될 수 있다.The method of the present invention can be implemented with the PyTorch library, and the Adam optimizer can be applied to train the model and set the batch size to 1. This model can be trained using an NVIDIA GeForce GTX 1080Ti GPU, the hyperparameters can be selected as λcycle = 2, λstyle = 1, λdiv = 1, λseg = 5, λinter = 10, λintra = 1, and the learning rate is can be optimized to 0.0001.

모든 입력 CXR 영상 및 레이블의 크기는 256Х256으로 조정될 수 있고, 픽셀 강도를 [-1,0,1.0]으로 정규화하는 것을 제외하고 어떠한 사전 처리 또는 데이터 확대도 수행하지 않을 수 있다. 네트워크는 도메인 적응과 지도 분할 작업을 동시에 트레이닝하기 위해 20K 반복 트레이닝할 수 있으며, 지도 분할 작업의 유효성 검사 성능을 기반으로 조기 중지 전략을 채택할 수 있다. 분할 및 도메인 적응 작업이 특정 성능을 보장할 때까지 트레이닝한 후, 네트워크는 추가 5K 반복에 대해 자기 지도 방식으로 계속 트레이닝될 수 있으며, 트레이닝 반복이 전체 반복에서 특정 고정 반복 지점에 도달하면, 학습 속도는 factor 10만큼 감소할 수 있다.All input CXR images and labels can be resized to 256Х256, and no preprocessing or data augmentation can be performed except normalizing pixel intensities to [-1,0,1.0]. The network can be trained for 20K iterations to simultaneously train domain adaptation and supervised segmentation tasks, and an early stopping strategy can be adopted based on the validation performance of the supervised segmentation task. After training until the segmentation and domain adaptation tasks guarantee a certain performance, the network can continue to be trained in a self-supervised manner for additional 5K iterations, and once the training iterations reach a certain fixed iteration point across all iterations, the learning rate can be reduced by a factor of 10.

도메인 적응 작업을 위해 MUNIT와 원래의 StarGANv2를 비교 연구의 기준 모델로 사용할 수 있으며, 본 발명의 모델의 것과 동일한 실험 설정을 가진 INTRA 및 INTER 도메인 영상으로 모델을 트레이닝시킬 수 있다. 분할 작업의 경우, 본 발명은 U-Net을 기준으로 사용하고 분할 작업의 설정과 동일한 실험 설정으로 트레이닝할 수 있다. 도메인 적응 및 분할 작업의 시너지 효과를 비교하기 위해 XLSor를 추가 기준치로 추가할 수 있다. XLSor는 사전 트레이닝된 가중치를 활용하여 테스트할 수 있는데, 이 가중치는 MUNIT를 통해 대규모로 생성된 의사 레이블 지정 폐렴 데이터셋을 사용하여 준지도 방식으로 트레이닝될 수 있다.For the domain adaptation task, MUNIT and the original StarGANv2 can be used as reference models for comparative studies, and the model can be trained with INTRA and INTER domain images with the same experimental settings as that of the model of the present invention. For the segmentation task, the present invention uses U-Net as a reference and can be trained with the same experimental settings as the settings for the segmentation task. XLSor can be added as an additional baseline to compare the synergy of domain adaptation and segmentation operations. XLSor can be tested utilizing pre-trained weights, which can be trained in a semi-supervised manner using a pseudo-labeled pneumonia dataset generated at scale via MUNIT.

추론 단계에서 분할 작업의 후 처리 단계로 윤곽 영역을 기준으로 두 개의 가장 큰 윤곽이 자동으로 선택될 수 있으며 각 윤곽 내의 모든 구멍이 채워질 수 있고, 공정한 비교를 위해 모든 방법에 동일한 후처리 단계가 적용될 수 있다.In the inference phase, as a post-processing step of the segmentation task, the two largest contours can be automatically selected based on the contour area and all holes within each contour can be filled, and the same post-processing steps will be applied to all methods to ensure a fair comparison. You can.

CXR 데이터셋의 경우, 지상검증 분할 마스크가 있는 새로운 정상 CXR 데이터와 관련된 분할 성능은 양쪽 폐 윤곽의 다이스 유사도 점수(Dice) 인덱스를 사용하여 정량화될 수 있다. 한편, 지상검증(또는 실측) 레이블의 부족으로 인해, INTER 도메인의 도메인 적응 및 자기 지도 분할 성능은 고도로 경화된 영역으로 덮인 예상 폐 구조의 생성을 기반으로 평가될 수 있으며, 각 폐 구조를 완전히 덮는 직사각형 상자는 CXR 영상에 수동으로 그려질 수 있고, 그런 다음 생성된 가짜 영상과 분할 결과에 대한 적합도를 정성적으로 평가할 수 있다.For CXR datasets, the segmentation performance relative to new normal CXR data with a ground-truth segmentation mask can be quantified using the Dice similarity score (Dice) index of both lung contours. Meanwhile, due to the lack of ground truth (or ground truth) labels, the domain adaptation and self-supervised segmentation performance of the INTER domain can be evaluated based on the generation of predicted lung structures covered by highly hardened regions, completely covering each lung structure. Rectangular boxes can be manually drawn on the CXR image, and then the goodness of fit between the generated fake images and the segmentation results can be qualitatively assessed.

도 5는 외부 테스트 데이터셋을 이용한 비지도 분할 결과를 비교한 예시도를 나타낸 것으로, 두 개의 COVID-19 폐렴 데이터베이스로 구성된 외부 테스트 데이터세은 도 5a에 도시된 바와 같이, 다양한 강도 분포를 가지고 있다. 그리고, 도 5b에 도시된 바와 같이, U-Net은 대부분 폐렴 폐에서 정상적인 폐 모양을 분할하는 데 실패한 것을 알 수 있으며, 소스 도메인의 강도 분포를 보여주는 것을 알 수 있다. 그리고, 도 5c에 도시된 바와 같이, XLSor는 경미한 불투명성 폐렴 사례에서 뛰어난 분할 성능(4번째와 12번째 열)을 보여주지만 심각한 폐렴 사례의 경우 XLSor는 폐 영역이 분할되지 않거나 도메인 이동 입력에 대해 일반화(1 번째, 5 번째 및 10 번째 열)되는 것을 알 수 있다. 본 발명의 방법은 새로운 데이터셋에서 가장 뛰어난 분할 성능을 보여준다. 도 5d 내지 도 5e에 도시된 본 발명의 방법은 과소 분할 또는 심각한 과 분할없이 도메인 이동 입력에서 폐 구조를 성공적으로 분할하는 것을 알 수 있다. 더욱이, 자기 일관성 손실로 트레이닝된 본 발명의 모델에 의해 생성된 분할 결과는 자기 지도 학습이 없는 본 발명의 방법에 비해 예상 폐 영역에 더 나은 적합성을 보여주는 것을 알 수 있다. 즉, 도 5를 통해 알 수 있듯이, 비정상 폐 영상에서의 장기 분할에 대한 본 발명의 모델의 정성적 성능은 다른 분할 알고리즘 대비 월등히 우수한 폐 분할 성능을 보여주는 것을 알 수 있다.Figure 5 shows an example diagram comparing the results of unsupervised segmentation using an external test dataset. The external test dataset consisting of two COVID-19 pneumonia databases has various intensity distributions, as shown in Figure 5a. And, as shown in Figure 5b, U-Net mostly fails to segment the normal lung shape from pneumonia lung, and shows the intensity distribution of the source domain. And, as shown in Figure 5c, XLSor shows excellent segmentation performance in mild opaque pneumonia cases (4th and 12th columns), but for severe pneumonia cases, XLSor does not segment lung regions or generalizes to domain-shifted inputs. (1st, 5th and 10th columns). The method of the present invention shows the best segmentation performance in a new dataset. It can be seen that the method of the present invention shown in FIGS. 5D to 5E successfully segments the lung structure from the domain shift input without under-segmentation or severe over-segmentation. Moreover, it can be seen that the segmentation results generated by our model trained with self-consistency loss show a better fit to the expected lung area compared to our method without self-supervised learning. That is, as can be seen from Figure 5, the qualitative performance of the model of the present invention for organ segmentation in abnormal lung images shows that it shows significantly superior lung segmentation performance compared to other segmentation algorithms.

아래 <표 3>은 일반 CXR 데이터셋의 분할 성능을 나타낸 것으로, 본 발명의 네트워크와 다른 네트워크를 이용하여 일반 CXR 영상에 대한 지도 분할 성능을 비교한 것이다. 표 3의 페 분할 결과의 Dice 지수를 통해 알 수 있듯이, 현재 딥 러닝 기반 정상 폐 분할의 SOTA 성능인 Dice 지수 0.976의 U-Net 및 XLSor과 비교하여, 본 발명의 방법은 비정상적인 CXR에 대해 탁월한 성능을 제공하는 것 뿐만 아니라 유사한 Dice 지수를 보여주는 것을 알 수 있다. 즉, 본 발명의 방법은 현재 업계 최고로 평가되는 모델의 성능과 견줄 수 있는 성능을 도출하는 것을 확인할 수 있다.<Table 3> below shows the segmentation performance of the general CXR dataset, and compares the map segmentation performance for general CXR images using the network of the present invention and other networks. As can be seen from the Dice index of the lung segmentation results in Table 3, compared with U-Net and XLSor with a Dice index of 0.976, which is the current SOTA performance of deep learning-based normal lung segmentation, our method shows excellent performance for abnormal CXR. It can be seen that it not only provides , but also shows similar Dice indices. In other words, it can be confirmed that the method of the present invention produces performance comparable to that of the model currently considered the best in the industry.

이와 같이, 본 발명의 실시예들에 따른 흉부 방사선 영상 분할 방법은 흉부 방사선 영상에서 적응적 인스턴스 정규화(Adaptive instance normalization)를 기반으로 하나의 뉴럴 네트워크를 활용하여 비정상(Abnormal) 폐와 정상(Normal) 폐에서 각각 장기 영역을 분할할 수 있다. As such, the chest radiology image segmentation method according to embodiments of the present invention utilizes a neural network based on adaptive instance normalization in the chest radiology image to separate abnormal lungs and normal lungs. In the lungs, each organ region can be divided.

영상 픽셀(Pixel) 단위의 장기 영역 라벨(Label) 생성은 비용과 시간이 많이 소요되고, 특히 비정상(Abnormal) 폐에 대해서는 라벨이 부족하기 때문에, 본 발명의 실시예들에 따른 흉부 방사선 영상 분할 방법은 하나의 통합된 알고리즘에서 정상 폐에서 지도 학습(Supervised learning) 기법 기반으로 폐 영역 분할을 학습한 뒤, 비정상 폐를 도메인 적응(Domain adaptation) 방식을 통해 정상 폐로 변환하는 제1 적응적 인스턴스 정규화 코드를 학습하고, 지도 학습과 도메인 적응 방식을 통해 학습된 지식(Knowledge)을 또 다른 제2 적응적 인스턴스 정규화 코드에 증류(Distillation)하여 자기 지도 학습(Self-supervised learning) 방식을 통해 정상 폐와 도메인 변환된 비정상 폐 각각에서 우수한 성능으로 장기를 분할할 수 있다.Generating organ area labels in units of image pixels is costly and time-consuming, and in particular, labels are insufficient for abnormal lungs, so the chest radiography image segmentation method according to embodiments of the present invention The first adaptive instance normalization code learns lung region segmentation based on supervised learning from normal lungs in one integrated algorithm and then converts abnormal lungs into normal lungs through domain adaptation. Learning, and distilling the knowledge learned through supervised learning and domain adaptation into another second adaptive instance normalization code, normal lung and domain through self-supervised learning. Organs can be segmented with excellent performance from each converted abnormal lung.

도 6은 본 발명의 일 실시예에 따른 흉부 방사선 영상 분할 장치에 대한 구성을 나타낸 것으로, 도 1 내지 도 5의 방법을 수행하는 장치에 대한 개념적인 구성을 나타낸 것이다.FIG. 6 shows the configuration of a chest radiation image segmentation device according to an embodiment of the present invention, and shows the conceptual configuration of the device that performs the method of FIGS. 1 to 5.

도 6을 참조하면, 본 발명의 일 실시예에 따른 흉부 방사선 영상 분할 장치(600)는 수신부(610)와 분할부(620)를 포함한다.Referring to FIG. 6, the chest radiation image segmentation apparatus 600 according to an embodiment of the present invention includes a receiving unit 610 and a dividing unit 620.

수신부(610)는 장기 영역을 분할하고자 하는 흉부 방사선 영상을 수신한다.The receiver 610 receives a chest radiation image for segmenting an organ region.

분할부(620)는 적응적 인스턴스 정규화(adaptive instance normalization)와 함께 미리 학습된 분할 모델 기반의 단일 뉴럴 네트워크를 이용하여 흉부 방사선 영상에서 장기 영역을 분할한다.The segmentation unit 620 divides organ regions in the chest radiology image using a single neural network based on a pre-learned segmentation model with adaptive instance normalization.

여기서, 분할부(620)는 단일 뉴럴 네트워크와 사전 구축된 적응적 인스턴스 정규화 코드를 이용하여 흉부 방사선 영상의 폐에서 장기 영역을 분할할 수 있다.Here, the segmentation unit 620 may segment the organ region in the lungs of the chest radiology image using a single neural network and a pre-built adaptive instance normalization code.

여기서, 분할부(620)는 단일 뉴럴 네트워크의 인코더와 디코더에 대한 각각의 적응적 인스턴스 정규화 코드를 변경함으로써, 지도 학습(Supervised learning) 기반의 정상 폐에서 장기 영역의 분할, 도메인 적응(Domain adaptation) 방식 기반의 비정상 폐에서 정상 폐로의 도메인 변환에 의한 장기 영역의 분할 및 지도 학습과 도메인 적응을 통해 학습한 지식(Knowledge)이 증류 (Distillation)된 자기 지도 학습(Self-supervised learning) 방식 기반으로 정상 폐와 비정상 폐 각각에서 장기 영역을 분할할 수 있다.Here, the segmentation unit 620 changes the adaptive instance normalization code for each encoder and decoder of a single neural network, thereby performing domain adaptation and division of the organ region in the normal lung based on supervised learning. Division of organ areas by domain conversion from abnormal lungs to normal lungs based on method and self-supervised learning method based on distillation of knowledge learned through supervised learning and domain adaptation. Organ regions can be segmented from lungs and abnormal lungs respectively.

이 때, 단일 뉴럴 네트워크는 정상 폐에서 지도 학습(Supervised learning) 기법 기반으로 폐 영역 분할을 학습한 뒤, 비정상 폐를 도메인 적응(Domain adaptation) 방식을 통해 정상 폐로 변환하는 제1 적응적 인스턴스 정규화 코드를 학습하고, 지도 학습과 도메인 적응 방식을 통해 학습된 지식(Knowledge)을 제2 적응적 인스턴스 정규화 코드에 증류(Distillation)하여 자기 지도 학습(Self-supervised learning) 방식으로 학습함으로써, 도메인 적응과 분할을 통합하여 정상 폐와 비정상 폐 각각에서 장기 영역을 분할할 수 있다.At this time, a single neural network learns lung region segmentation based on a supervised learning technique from normal lungs, and then uses a first adaptive instance normalization code that converts abnormal lungs into normal lungs through domain adaptation. Domain adaptation and segmentation by learning through self-supervised learning by distilling the knowledge learned through supervised learning and domain adaptation into a second adaptive instance normalization code. By integrating, it is possible to segment organ areas in normal lungs and abnormal lungs, respectively.

여기서, 분할부(620)는 단일 뉴럴 네트워크를 이용하여, 영상 픽셀(Pixel) 단위의 장기 라벨(Label)이 존재하는 정상 폐에서 지도 학습(Supervised learning) 기법을 기반으로 상기 흉부 방사선 영상에서 장기 영역을 분할할 수 있다.Here, the segmentation unit 620 uses a single neural network to determine the organ area in the chest radiology image based on a supervised learning technique in normal lungs where organ labels exist in units of image pixels. can be divided.

여기서, 분할부(620)는 단일 뉴럴 네트워크를 이용한 적응적 인스턴스 정규화 기법을 활용하여 비정상 폐를 정상 폐로 도메인을 변환함으로써, 정상 폐로 도메인 변환된 비정상 폐에서 장기 영역을 분할할 수 있다.Here, the segmentation unit 620 converts the domain of the abnormal lung into the normal lung using an adaptive instance normalization technique using a single neural network, thereby dividing the organ region from the abnormal lung that has been domain-converted into the normal lung.

여기서, 분할부(620)는 단일 뉴럴 네트워크를 이용한 자기 지도 학습 기반으로 정상 폐로 도메인 변환된 비정상 폐와 라벨이 있는 정상 폐 각각에서 장기 영역을 분할할 수 있다.Here, the segmentation unit 620 can segment the organ regions from each of the abnormal lungs that have been domain converted to normal lungs and the labeled normal lungs based on self-supervised learning using a single neural network.

비록, 도 6의 장치에서 그 설명이 생략되었더라도, 도 6을 구성하는 각 구성 수단은 도 1 내지 도 5에서 설명한 모든 내용을 포함할 수 있으며, 이는 이 기술 분야에 종사하는 당업자에게 있어서 자명하다.Even if the description is omitted in the device of FIG. 6, each component constituting FIG. 6 may include all the contents described in FIGS. 1 to 5, and this is obvious to those skilled in the art.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다.  또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다.  이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다.  예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다.  또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The device described above may be implemented with hardware components, software components, and/or a combination of hardware components and software components. For example, devices and components described in embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA), It may be implemented using one or more general-purpose or special-purpose computers, such as a programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions. A processing device may execute an operating system (OS) and one or more software applications that run on the operating system. Additionally, a processing device may access, store, manipulate, process, and generate data in response to the execution of software. For ease of understanding, a single processing device may be described as being used; however, those skilled in the art will understand that a processing device includes multiple processing elements and/or multiple types of processing elements. It can be seen that it may include. For example, a processing device may include a plurality of processors or one processor and one controller. Additionally, other processing configurations, such as parallel processors, are possible.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다.  소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다.  소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of these, which may configure a processing unit to operate as desired, or may be processed independently or collectively. You can command the device. Software and/or data may be used on any type of machine, component, physical device, virtual equipment, computer storage medium or device to be interpreted by or to provide instructions or data to a processing device. It can be embodied in . Software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer-readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다.  상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다.  상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다.  컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다.  프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.  The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc., singly or in combination. Program instructions recorded on the medium may be specially designed and configured for the embodiment or may be known and available to those skilled in the art of computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -Includes optical media (magneto-optical media) and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, etc. Examples of program instructions include machine language code, such as that produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter, etc.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다.  예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with limited examples and drawings, various modifications and variations can be made by those skilled in the art from the above description. For example, the described techniques are performed in a different order than the described method, and/or components of the described system, structure, device, circuit, etc. are combined or combined in a different form than the described method, or other components are used. Alternatively, appropriate results may be achieved even if substituted or substituted by an equivalent.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents of the claims also fall within the scope of the claims described below.

Claims (14)

흉부 방사선 영상을 수신하는 단계; 및
적응적 인스턴스 정규화(adaptive instance normalization)와 함께 미리 학습된 분할 모델 기반의 단일 뉴럴 네트워크를 이용하여 상기 흉부 방사선 영상에서 장기 영역을 분할하는 단계
를 포함하고,
상기 장기 영역을 분할하는 단계는
상기 단일 뉴럴 네트워크를 이용한 자기 지도 학습 기반으로 정상 폐로 도메인 변환된 비정상 폐와 라벨이 있는 정상 폐 각각에서 상기 장기 영역을 분할하는 것을 특징으로 하는 흉부 방사선 영상 분할 방법.
Receiving a chest radiology image; and
Segmenting an organ region in the chest radiology image using a single neural network based on a pre-trained segmentation model with adaptive instance normalization.
Including,
The step of dividing the organ area is
A chest radiology image segmentation method, characterized in that the organ region is segmented from each of the abnormal lungs domain-converted to normal lungs and the labeled normal lungs based on self-supervised learning using the single neural network.
제1항에 있어서,
상기 장기 영역을 분할하는 단계는
상기 단일 뉴럴 네트워크와 사전 구축된 적응적 인스턴스 정규화 코드를 이용하여 상기 흉부 방사선 영상의 폐에서 장기 영역을 분할하는 것을 특징으로 하는 흉부 방사선 영상 분할 방법.
According to paragraph 1,
The step of dividing the organ area is
A chest radiology image segmentation method, characterized in that segmenting an organ region in the lungs of the chest radiology image using the single neural network and a pre-built adaptive instance normalization code.
흉부 방사선 영상을 수신하는 단계; 및
적응적 인스턴스 정규화(adaptive instance normalization)와 함께 미리 학습된 분할 모델 기반의 단일 뉴럴 네트워크를 이용하여 상기 흉부 방사선 영상에서 장기 영역을 분할하는 단계
를 포함하고,
상기 장기 영역을 분할하는 단계는
상기 단일 뉴럴 네트워크의 인코더와 디코더에 대한 각각의 적응적 인스턴스 정규화 코드를 변경함으로써, 지도 학습(Supervised learning) 기반의 정상 폐에서 상기 장기 영역의 분할, 도메인 적응(Domain adaptation) 방식 기반의 비정상 폐에서 정상 폐로의 도메인 변환에 의한 상기 장기 영역의 분할 및 지도 학습과 도메인 적응을 통해 학습한 지식(Knowledge)이 증류 (Distillation)된 자기 지도 학습(Self-supervised learning) 방식 기반으로 정상 폐와 비정상 폐 각각에서 상기 장기 영역을 분할하는 것을 특징으로 하는 흉부 방사선 영상 분할 방법.
Receiving a chest radiology image; and
Segmenting an organ region in the chest radiology image using a single neural network based on a pre-trained segmentation model with adaptive instance normalization.
Including,
The step of dividing the organ area is
By changing each adaptive instance normalization code for the encoder and decoder of the single neural network, segmentation of the organ region in normal lung based on supervised learning and abnormal lung based on domain adaptation method are performed. Normal lung and abnormal lung respectively based on a self-supervised learning method that distills the knowledge learned through division and supervised learning and domain adaptation of the organ area by domain conversion to normal lung. A chest radiography image segmentation method, characterized in that segmenting the organ region.
흉부 방사선 영상을 수신하는 단계; 및
적응적 인스턴스 정규화(adaptive instance normalization)와 함께 미리 학습된 분할 모델 기반의 단일 뉴럴 네트워크를 이용하여 상기 흉부 방사선 영상에서 장기 영역을 분할하는 단계
를 포함하고,
상기 단일 뉴럴 네트워크는
정상 폐에서 지도 학습(Supervised learning) 기법 기반으로 폐 영역 분할을 학습한 뒤, 비정상 폐를 도메인 적응(Domain adaptation) 방식을 통해 정상 폐로 변환하는 제1 적응적 인스턴스 정규화 코드를 학습하고, 지도 학습과 도메인 적응 방식을 통해 학습된 지식(Knowledge)을 제2 적응적 인스턴스 정규화 코드에 증류(Distillation)하여 자기 지도 학습(Self-supervised learning) 방식으로 학습함으로써, 도메인 적응과 분할을 통합하여 정상 폐와 비정상 폐 각각에서 상기 장기 영역을 분할하는 것을 특징으로 하는 흉부 방사선 영상 분할 방법.
Receiving a chest radiology image; and
Segmenting an organ region in the chest radiology image using a single neural network based on a pre-trained segmentation model with adaptive instance normalization.
Including,
The single neural network is
After learning lung region segmentation from normal lungs based on supervised learning techniques, a first adaptive instance normalization code is learned to convert abnormal lungs into normal lungs through domain adaptation, and supervised learning and Knowledge learned through the domain adaptation method is distilled into a second adaptive instance normalization code and learned using a self-supervised learning method, integrating domain adaptation and segmentation into normal lung and abnormal lung. A chest radiography image segmentation method characterized by segmenting the organ region in each lung.
제1항에 있어서,
상기 장기 영역을 분할하는 단계는
상기 단일 뉴럴 네트워크를 이용하여, 영상 픽셀(Pixel) 단위의 장기 라벨(Label)이 존재하는 정상 폐에서 지도 학습(Supervised learning) 기법을 기반으로 상기 흉부 방사선 영상에서 장기 영역을 분할하는 것을 특징으로 하는 흉부 방사선 영상 분할 방법.
According to paragraph 1,
The step of dividing the organ area is
Characterized by segmenting the organ area in the chest radiology image based on a supervised learning technique in normal lungs where organ labels exist in pixel units using the single neural network. Chest radiography image segmentation method.
제1항에 있어서,
상기 장기 영역을 분할하는 단계는
상기 단일 뉴럴 네트워크를 이용한 적응적 인스턴스 정규화 기법을 활용하여 비정상 폐를 정상 폐로 도메인을 변환함으로써, 상기 정상 폐로 도메인 변환된 비정상 폐에서 상기 장기 영역을 분할하는 것을 특징으로 하는 흉부 방사선 영상 분할 방법.
According to paragraph 1,
The step of dividing the organ area is
A chest radiology image segmentation method comprising converting the domain of an abnormal lung into a normal lung using an adaptive instance normalization technique using the single neural network, thereby segmenting the organ region from the abnormal lung whose domain has been converted to the normal lung.
삭제delete 흉부 방사선 영상을 수신하는 수신부; 및
적응적 인스턴스 정규화(adaptive instance normalization)와 함께 미리 학습된 분할 모델 기반의 단일 뉴럴 네트워크를 이용하여 상기 흉부 방사선 영상에서 장기 영역을 분할하는 분할부
를 포함하고,
상기 분할부는
상기 단일 뉴럴 네트워크를 이용한 자기 지도 학습 기반으로 정상 폐로 도메인 변환된 비정상 폐와 라벨이 있는 정상 폐 각각에서 상기 장기 영역을 분할하는 것을 특징으로 하는 흉부 방사선 영상 분할 장치.
A receiving unit that receives a chest radiography image; and
A segmentation unit that segments organ regions in the chest radiology image using a single neural network based on a pre-trained segmentation model with adaptive instance normalization.
Including,
The division part is
A chest radiology image segmentation device, characterized in that the organ region is segmented from each of the abnormal lungs domain-converted to normal lungs and the labeled normal lungs based on self-supervised learning using the single neural network.
제8항에 있어서,
상기 분할부는
상기 단일 뉴럴 네트워크와 사전 구축된 적응적 인스턴스 정규화 코드를 이용하여 상기 흉부 방사선 영상의 폐에서 장기 영역을 분할하는 것을 특징으로 하는 흉부 방사선 영상 분할 장치.
According to clause 8,
The division part is
A chest radiology image segmentation device, characterized in that segmenting an organ region in the lungs of the chest radiology image using the single neural network and a pre-built adaptive instance normalization code.
흉부 방사선 영상을 수신하는 수신부; 및
적응적 인스턴스 정규화(adaptive instance normalization)와 함께 미리 학습된 분할 모델 기반의 단일 뉴럴 네트워크를 이용하여 상기 흉부 방사선 영상에서 장기 영역을 분할하는 분할부
를 포함하고,
상기 분할부는
상기 단일 뉴럴 네트워크의 인코더와 디코더에 대한 각각의 적응적 인스턴스 정규화 코드를 변경함으로써, 지도 학습(Supervised learning) 기반의 정상 폐에서 상기 장기 영역의 분할, 도메인 적응(Domain adaptation) 방식 기반의 비정상 폐에서 정상 폐로의 도메인 변환에 의한 상기 장기 영역의 분할 및 지도 학습과 도메인 적응을 통해 학습한 지식(Knowledge)이 증류 (Distillation)된 자기 지도 학습(Self-supervised learning) 방식 기반으로 정상 폐와 비정상 폐 각각에서 상기 장기 영역을 분할하는 것을 특징으로 하는 흉부 방사선 영상 분할 장치.
A receiving unit that receives a chest radiography image; and
A segmentation unit that segments organ regions in the chest radiology image using a single neural network based on a pre-trained segmentation model with adaptive instance normalization.
Including,
The division part is
By changing each adaptive instance normalization code for the encoder and decoder of the single neural network, segmentation of the organ region in normal lung based on supervised learning and abnormal lung based on domain adaptation method are performed. Normal lung and abnormal lung respectively based on a self-supervised learning method that distills the knowledge learned through division and supervised learning and domain adaptation of the organ area by domain conversion to normal lung. A chest radiography image segmentation device, characterized in that segmenting the organ region.
흉부 방사선 영상을 수신하는 수신부; 및
적응적 인스턴스 정규화(adaptive instance normalization)와 함께 미리 학습된 분할 모델 기반의 단일 뉴럴 네트워크를 이용하여 상기 흉부 방사선 영상에서 장기 영역을 분할하는 분할부
를 포함하고,
상기 단일 뉴럴 네트워크는
정상 폐에서 지도 학습(Supervised learning) 기법 기반으로 폐 영역 분할을 학습한 뒤, 비정상 폐를 도메인 적응(Domain adaptation) 방식을 통해 정상 폐로 변환하는 제1 적응적 인스턴스 정규화 코드를 학습하고, 지도 학습과 도메인 적응 방식을 통해 학습된 지식(Knowledge)을 제2 적응적 인스턴스 정규화 코드에 증류(Distillation)하여 자기 지도 학습(Self-supervised learning) 방식으로 학습함으로써, 도메인 적응과 분할을 통합하여 정상 폐와 비정상 폐 각각에서 상기 장기 영역을 분할하는 것을 특징으로 하는 흉부 방사선 영상 분할 장치.
A receiving unit that receives a chest radiography image; and
A segmentation unit that segments organ regions in the chest radiology image using a single neural network based on a pre-trained segmentation model with adaptive instance normalization.
Including,
The single neural network is
After learning lung region segmentation from normal lungs based on supervised learning techniques, a first adaptive instance normalization code is learned to convert abnormal lungs into normal lungs through domain adaptation, and supervised learning and Knowledge learned through the domain adaptation method is distilled into a second adaptive instance normalization code and learned using a self-supervised learning method, integrating domain adaptation and segmentation into normal lung and abnormal lung. A chest radiography image segmentation device, characterized in that segmenting the organ region in each lung.
제8항에 있어서,
상기 분할부는
상기 단일 뉴럴 네트워크를 이용하여, 영상 픽셀(Pixel) 단위의 장기 라벨(Label)이 존재하는 정상 폐에서 지도 학습(Supervised learning) 기법을 기반으로 상기 흉부 방사선 영상에서 장기 영역을 분할하는 것을 특징으로 하는 흉부 방사선 영상 분할 장치.
According to clause 8,
The division part is
Characterized by segmenting the organ area in the chest radiology image based on a supervised learning technique in normal lungs where organ labels exist in pixel units using the single neural network. Chest radiography image segmentation device.
제8항에 있어서,
상기 분할부는
상기 단일 뉴럴 네트워크를 이용한 적응적 인스턴스 정규화 기법을 활용하여 비정상 폐를 정상 폐로 도메인을 변환함으로써, 상기 정상 폐로 도메인 변환된 비정상 폐에서 상기 장기 영역을 분할하는 것을 특징으로 하는 흉부 방사선 영상 분할 장치.
According to clause 8,
The division part is
A chest radiology image segmentation device that converts the domain of an abnormal lung into a normal lung using an adaptive instance normalization technique using the single neural network, thereby segmenting the organ region from the abnormal lung whose domain has been converted to the normal lung.
삭제delete
KR1020210090044A 2021-07-09 2021-07-09 Adaptive Instance Normalization-Based Chest X-Ray Image Segmentation Mehtod and Apparatus Therefor KR102620790B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210090044A KR102620790B1 (en) 2021-07-09 2021-07-09 Adaptive Instance Normalization-Based Chest X-Ray Image Segmentation Mehtod and Apparatus Therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210090044A KR102620790B1 (en) 2021-07-09 2021-07-09 Adaptive Instance Normalization-Based Chest X-Ray Image Segmentation Mehtod and Apparatus Therefor

Publications (2)

Publication Number Publication Date
KR20230009538A KR20230009538A (en) 2023-01-17
KR102620790B1 true KR102620790B1 (en) 2024-01-05

Family

ID=85111367

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210090044A KR102620790B1 (en) 2021-07-09 2021-07-09 Adaptive Instance Normalization-Based Chest X-Ray Image Segmentation Mehtod and Apparatus Therefor

Country Status (1)

Country Link
KR (1) KR102620790B1 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102378746B1 (en) * 2019-08-16 2022-03-25 서울여자대학교 산학협력단 Abnominal organ automatic segmentation based on deep learning in a medical image
KR20210060895A (en) * 2019-11-19 2021-05-27 (주)메디칼이노베이션디벨로퍼 Apparatus for diagnosis of chest X-ray employing Artificial Intelligence
KR20210074748A (en) * 2019-12-12 2021-06-22 삼성전자주식회사 Operating apparatus, operating method, and training method of network based on domain adaptation

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Kim M, 외. Automatic Lung Segmentation on Chest X-rays Using Self-Attention Deep Neural Network. Sensors (Basel). 2021. 2021.01.07. 공개.*

Also Published As

Publication number Publication date
KR20230009538A (en) 2023-01-17

Similar Documents

Publication Publication Date Title
Carion et al. End-to-end object detection with transformers
Tang et al. Attention-guided curriculum learning for weakly supervised classification and localization of thoracic diseases on chest radiographs
Zhou et al. Deep learning of the sectional appearances of 3D CT images for anatomical structure segmentation based on an FCN voting method
Denton et al. Semi-supervised learning with context-conditional generative adversarial networks
Pu et al. Boosting continuous sign language recognition via cross modality augmentation
Žbontar et al. Stereo matching by training a convolutional neural network to compare image patches
Li et al. Lvit: language meets vision transformer in medical image segmentation
Khosravan et al. Pan: Projective adversarial network for medical image segmentation
He et al. Self domain adapted network
Huang et al. Medical image segmentation using deep learning with feature enhancement
Isensee et al. Or-unet: an optimized robust residual u-net for instrument segmentation in endoscopic images
Liu et al. A source-free domain adaptive polyp detection framework with style diversification flow
Kalapos et al. Self-supervised pretraining for 2d medical image segmentation
Muhtar et al. Cmid: A unified self-supervised learning framework for remote sensing image understanding
KR20220122455A (en) Method for segmenting object contained in video data, and device performing the same
Yoon et al. Sadm: Sequence-aware diffusion model for longitudinal medical image generation
Yang et al. Deep hybrid convolutional neural network for segmentation of melanoma skin lesion
Liu et al. Medical visual question answering via conditional reasoning and contrastive learning
You et al. Action++: improving semi-supervised medical image segmentation with adaptive anatomical contrast
Cheng et al. Correcting and reweighting false label masks in brain tumor segmentation
Wang et al. GSAL: Geometric structure adversarial learning for robust medical image segmentation
Tang et al. Transformer lesion tracker
Haque et al. Generalized multi-task learning from substantially unlabeled multi-source medical image data
KR102620790B1 (en) Adaptive Instance Normalization-Based Chest X-Ray Image Segmentation Mehtod and Apparatus Therefor
Adhikari et al. Synthetic Boost: Leveraging Synthetic Data for Enhanced Vision-Language Segmentation in Echocardiography

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right