KR20230139257A - 기계 학습 모델 기반의 ct 영상을 분류 및 분할하기 위한 방법 및 장치 - Google Patents

기계 학습 모델 기반의 ct 영상을 분류 및 분할하기 위한 방법 및 장치 Download PDF

Info

Publication number
KR20230139257A
KR20230139257A KR1020220037668A KR20220037668A KR20230139257A KR 20230139257 A KR20230139257 A KR 20230139257A KR 1020220037668 A KR1020220037668 A KR 1020220037668A KR 20220037668 A KR20220037668 A KR 20220037668A KR 20230139257 A KR20230139257 A KR 20230139257A
Authority
KR
South Korea
Prior art keywords
model
encoder
segmentation
classification
patient
Prior art date
Application number
KR1020220037668A
Other languages
English (en)
Inventor
김남국
경성구
신기원
홍길선
Original Assignee
재단법인 아산사회복지재단
울산대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인 아산사회복지재단, 울산대학교 산학협력단 filed Critical 재단법인 아산사회복지재단
Priority to KR1020220037668A priority Critical patent/KR20230139257A/ko
Publication of KR20230139257A publication Critical patent/KR20230139257A/ko

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radiology & Medical Imaging (AREA)
  • Artificial Intelligence (AREA)
  • Pathology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Primary Health Care (AREA)
  • Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Epidemiology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Physiology (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • Computing Systems (AREA)
  • Fuzzy Systems (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Pulmonology (AREA)
  • Psychiatry (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

일 실시예에 따른 전자 장치는 트레이닝 입력 이미지에 기계 학습 모델의 인코더(encoder)를 적용함으로써 피처 맵(feature map)을 추출하고, 상기 피처 맵에 상기 기계 학습 모델의 범용 분류 모듈을 적용함으로써 상기 트레이닝 입력 이미지에 병변(lesion)이 나타날 제1 가능성 점수(possibility score)를 획득하며, 상기 피처 맵에 상기 기계 학습 모델의 범용 분할 모듈을 적용함으로써 상기 트레이닝 입력 이미지로부터 병변 영역을 추출하고, 상기 획득된 제1 가능성 점수 및 상기 추출된 병변 영역에 기초하여, 상기 범용 분류 모듈 및 상기 범용 분할 모듈의 출력들 간의 일관성(consistency)을 나타내는, 일관성 손실(consistency loss)을 가지는 목적함수 값을 계산하며, 상기 계산된 목적함수 값을 이용하여 상기 기계 학습 모델의 파라미터를 업데이트하는 프로세서를 포함할 수 있다.

Description

기계 학습 모델 기반의 CT 영상을 분류 및 분할하기 위한 방법 및 장치{DEVICE AND METHOD FOR CLASSIFYING AND SEGMENTING CT IMAGE BASED ON MACHINE LEARNING MODEL}
이하, 기계 학습 모델 기반의 의료 영상을 분류하기 위한 기술이 개시된다.
두개내출혈(Intracranial hemorrhage; ICH)의 분류(classification; CLS) 및 분할(segmentation; SEG) 중 하나의 단일 태스크(single task)를 위한 기계 학습 모델에 관한 연구들이 존재할 수 있다.
환자 레벨(patient level)의 ICH의 분류 및 분할 태스크는 두 가지 유형들이 존재할 수 있다.
첫째, 체적(volumetric) 문제를 해결하기 위한 ICH의 분류 및 분할에 대한 3차원 기반 모델이 존재할 수 있다. 가변적인 3D U-Net 구조는 ICH의 분할을 위해 이용될 수 있다. 예를 들어, 모델의 아키텍처 및 전처리는 트레이닝 CT 스캔들의 통계적인 분석에 기초하여 선택될 수 있다. 다른 예를 들어, 18개 레이어들 ResNet의 3D 버전이 ICH의 분류 태스크를 위한 이용될 수 있다. 3D 기반 방법에서, 일반적으로 GPU 리소스의 제한으로 인해, 패치(patch) 기반 접근 방식 및 작은 깊이의 3D 컨볼루션 레이어가 이용될 수 있다. 그러나, 패치 기반 접근 방식은 종종 위양성들(false positives)과 과민성(over-sensitivity)을 유발할 수 있다.
둘째, ICH의 분류 및 분할 태스크에 대한 2D 슬라이스 레벨에 대한 모델이 존재할 수 있다. 2D 기반 접근 방식이 3D 체적 정보에 취약하지만(vulnerable) 두꺼운 슬라이스 두께를 가진 이방성(anisotropic) CT 데이터에 유리하다고 주장될 수 있다. 2D 슬라이스 단위 U-net 네트워크는 이용될 수 있고, 슬라이스 분할 결과는 환자 레벨의 ICH 분할 태스크를 위하여 누적될 수 있다. 또한, 2D 기반 CNN 네트워크의 결과가 누적된 이후에, 환자 레벨의 ICH 분류 작업으로 확장하기 위해 누적된 피처를 양방향 LSTM으로 전송될 수 있다. 확장을 위한 전이 학습(transfer learning)이 수행될 때, 3-스테이지(three-stage) end-to-end 학습 프로세스가 수행되어야 한다는 것이 주장될 수 있다.
다중 태스크 학습은 ICH 분류 작업을 해결하는 데 사용될 수 있다. 예를 들어, 분류 결과는 블리딩(bleeding) 양에 대한 정보로 변환될 수 있고, 이를 MLP(Multi-Linear Perceptron) 레이어에 연결하여 분류 태스크의 성능이 개선될 수 있다. 다른 예를 들어, Dilated Residual Network는 해상도를 백본으로 유지하기 위하여 채택될 수 있고, 또한 마지막 레이어에서 분기되어 다중 태스크가 수행될 수 있다. 다른 예를 들어, 5개의 연속적인 CT 슬라이스들이 입력으로 이용될 수 있다. Mask R-CNN으로 전이시키기 위하여, 3D 컨볼루션 연산자에 의하여 획득된 3D 피처는 2D 피처로 투영될 수 있다. 모든 슬라이스들에 대하여 반복되어 최종 3D 결과를 획득해야 하므로, 과도하고 중복된 3D 컨볼루션 연산이 발생될 수 있다. 다른 예를 들어, 분류 성능을 높이기 위해 다중 태스크 학습이 수행될 수 있다. 각 DenseNet 블록 뒤에 보조 분할 작업이 추가될 수 있고, 양방향 LSTM 레이어는 슬라이스 간의 공간 종속성을 결합하기 위하여 사용될 수 있다. 다른 예를 들어, 3D U-Net [24] 구조의 병목 현상에서 ConvLSTM을 사용하여 환자 레벨의 다중 태스크가 수행될 수 있고, 3가지 유형의 Hounsfield Unit(HU) 범위는 3개의 채널로 사용될 수 있다. 그러나, GPU 리소스의 요구는 CT 슬라이스의 개수가 증가함에 따라 기하급수적으로 증가할 수 있다. 다른 예를 들어, 분할 태스크를 위한 디코더는 지도 학습되고 재구성 태스크를 위한 디코더는 비지도 학습됨으로써 분할 태스크의 성능을 향상시키기 위한 준지도 다중 작업 학습이 수행될 수 있다. 다중 태스크 학습은 ICH 작업에 적용되지 않을 수 있으나, COVID-19와 같은 의학적 문제를 효과적으로 해결하는 데 이용될 수 있다.
마지막으로, 전이 학습(transfer learning) 접근 방식과 밀접하게 관련된 모델이 존재할 수 있다.
전이 학습은 종종 ICH 태스크를 위하여 이용될 수 있다. ImageNet 사전 훈련 모델은 인기 있고 적용하기 쉬운 전이 학습 모델일 수 있고, 객체의 저수준 특징(low-level features)(예: 엣지들(edges), 텍스처들(textures))을 캡처하는 데 유용할 수 있다. 그러나, ImageNet 사전 학습 모델은 RGB 기반의 3채널을 다루기 때문에 1채널을 주로 사용하는 의료 영역에서 부적절할 수 있다. 또한, 체적 CT 데이터는 슬라이스 방식으로만 적용해야 하는 불편함이 존재할 수 있다. 예를 들어, 전이 학습을 통한 표현 학습(representation learning)를 이용하여 3D 의료 영역 및 2D 의료 영역에 대한 적절한 사전 학습 가중치를 효과적으로 생성하는 프레임워크가 도입될 수 있다. 상술한 프레임워크는 의료 영상 분야에서 왜곡된 영상을 원본으로 복원하여 CT 자체의 표현(representation)을 모델이 학습한 후, 전이 학습을 통해 분할 작업을 개선하는 2단계를 포함할 수 있다. 이러한 접근 방식은 1채널로 비교적 작은 데이터 세트의 의학적 문제를 해결할 때 도움이 된다고 주장될 수 있다.
두개내출혈(Intracranial hemorrhage; ICH)은 경미하게 발생하더라도 긴급한 치료가 필요한 치명적인 질병일 수 있다. 트리아쥬 시스템(triage system)은 비조영두부 CT(non-contrast head CT; NCCT)에 컴퓨터 지원 진단(computer-aided diagnosis; CAD)을 이용하여 자동화되면, 바쁜 응급실의 업무량을 줄일 수 있으므로 외상성(traumatic) ICH 환자의 생존율은 증가될 수 있다. 따라서, ICH 환자를 정확하게 감지하기 위한 높은 민감도(high sensitivity) 모델뿐만 아니라 응급 상황에서 불필요한 작업량을 감소시키기 위한 높은 특이도(high specificity) 모델은 요구될 수 있다. 우수한 성능의 연구들이 여러 차례 수행되었음에도 불구하고, 여전히 더 높은 성능은 요구될 수 있고 외부 데이터 세트와 실제 발생률 데이터 세트에 대한 불안정한 성능이 개선되는 것이 요구될 수 있다.
두개내출혈(Intracranial hemorrhage; ICH)은 해부학에 따라 뇌실질출혈(cerebral parenchymal hemorrhage; CPH), 뇌실내출혈(intraventricular hemorrhage; IVH), 경막외출혈(epidural hemorrhage; EDH), 경막하출혈(subdural hemorrhage; SDH), 지주막하출혈(subarachnoid hemorrhage; SAH)의 5가지 하위 유형들 중 하나로 분류될 수 있다. 모든 유형의 ICH는 경미하게 발생하더라도 갑자기 재앙을 일으킬 수 있으므로 긴급한 치료를 요구할 수 있다. 딥 러닝 기반 컴퓨터 지원 진단(computer-aided diagnosis; CAD)을 이용한 분류 시스템은, 응급 상황에서 치료 지연과 평가 오류로 인해 예방 가능한 사망을 해결하기 위해, 제안될 수 있다. 방사선과 전문의는 분류(classification; CLS) 태스크에서 출혈이 있는 환자를 간단히 파악할 수 있고, 분할(segmentation; SEG) 태스크에서 위치와 출혈량을 정확하게 인식할 수 있다. 응급 상황에서 분류 태스크 및 분할 태스크의 두 가지 태스크들을 수행하는 딥 러닝 모델을 통해, 뇌출혈 환자의 우선 순위는 빠르게 지정될 수 있다. 따라서, 모델은 더 심각환 환자에게 적절한 치료를 분배하기 위하여, ICH 환자를 감지하는 데 높은 감도(sensitivity) 및 정상 환자에 대한 높은 특이성(specificity) 모두를 가질 것이 요구될 수 있다. 딥 러닝을 기반으로 한 최근의 이전 ICH 연구에 따른 모델은 자동 분류 및 분할 태스크를 가능하게 할 수 있다.
그러나, 실제 응급 상황에 적용되는 경우의 문제는 여전히 존재할 수 있다.
이질성(Heterogeneity): 비조영두부 CT(non-contrast head CT; NCCT)에서 출혈의 텍스처(texture), 강도(intensity), 크기(size) 및 위치(position)는 매우 다양하기 때문에, 감지(detection)는 전문 영상의학과 의사에게도 어려울 수 있다. 특히, 뇌출혈의 CT 강도는 시간이 지날수록 감소할 수 있다.
클래스 불균형(Class-imbalance): 5가지 유형들의 ICH는 여러 두개 내 위치에서 복합적으로 발생할 수 있고, 다양한 심각도를 가질 수 있다. ICH가 고르지 않고 실제로는 거의 발생하지 않을 수 있으므로, 균형 잡힌 데이터 세트를 수집하는 것이 어려울 수 있다.
외부 데이터에 대한 견고성(Robustness): 기존의 대부분의 ICH 연구에 따른 모델에서 견고성을 고려하지 않았기 때문에, 외부 데이터에 대한 견고성은 측정되기 어려울 수 있다. 기존의 모델은 몇 가지 외부 데이터 세트들에 의하여 검증되므로, 외부 데이터에 적용되거나 정상 환자 비율이 높은 실제 임상 환경에 적용되는 경우 신뢰할 수 없는 결과를 초래할 수 있다. 예를 들어, 데이터 세트에 따른 ICH의 유형과 양으로 인해 이전 보고서보다 외부 검증 데이터 세트에서 분류 성능이 예기치 않게 낮을 수 있다는 것이 개시될 수 있다.
환자 레벨의 태스크: ICH는 주로 CT를 사용하여 진단될 수 있다. 상당한 양의 GPU 리소스는 3D 체적 CT 스캔을 처리하기 위하여 요구될 수 있다. 기존 연구에서는 이러한 문제를 우회하기 위하여, 주로 슬라이스 기반 및 패치 기반 방법이 이용될 수 있다. 패치 기반 방법은 우수한 감도를 보여줄 수 있다. 그러나 많은 오탐지들이 발생할 수 있다. 반면, 슬라이스 기반 방법은 피처를 스택함으로써 GPU 리소스를 절약할 수 있다. 그러나 슬라이스 기반 방법은 결국 환자 레벨로 확장되어야 하고, 슬라이스 기반 방법의 학습은 3D CT 스캔으로 확장되는 동안 불안정하고 복잡할 수 있다.
다중 태스크 학습(Multi-task learning; MTL)은 여러 관련된 태스크들에 포함된 의미 정보를 활용하여 모든 태스크들의 일반화 성능을 향상시킬 수 있다. 다중 태스크 학습에 의해 트레이닝된 모델은, 모든 태스크들을 만족시키는 피처를 포착해야 하므로, 과적합(overfitting)의 위험을 크게 감소시킬 수 있고, 다른 태스크를 위한 시너지 효과를 얻을 수 있다. 그러나, 다중 태스크 환경에서는 전체 평균 성능은 향상될 수 있지만, 다중 태스크 모델의 일부 특정 태스크에 대한 성능은 단일 작업 모델의 성능보다 나쁠 수 있다. 예를 들어, 하나의 태스크가 다중 태스크 학습 전체를 지배할 수 있고 그 결과 다른 태스크에 대한 성능이 저하되고 부정적인 전이 학습 효과가 발생할 수 있기 때문에, 파인 튜닝(fine tuning), 모델 용량(model capacity) 및 태스크 간의 공분산(covariance)과 같은 몇 가지가 존재할 수 있다.
전이 학습(Transfer learning)은 미리 정의된 태스크에 의해 사전 훈련된 모델을 대상 태스크에 적용하기 위해 재사용하는 것을 나타낼 수 있다. 전이 학습은 컴퓨터 비전 작업에서 자주 이용될 수 있다. 특히, 1000개 클래스들의 대규모 자연 이미지 데이터 세트에 의한 ImageNet 사전 학습된 접근 방식은, 다양한 태스크에 적용될 수 있다. 또한 전이 학습을 수행하는 트레이닝은, 전이 학습을 수행하지 않는 트레이닝보다 빠른 수렴과 향상된 성능을 가질 수 있다. 따라서, 사전 학습된 모델은, 상대적으로 작은 데이터 세트(예: 의료 영역의 데이터 세트)에서 효과적인 피처 추출기로서 자주 이용될 수 있다. 전이 학습은 사전 정의된 태스크에 따라 다양할 수 있다. 일반적으로, Autoencoder, Model Genesis와 같이, 입력 데이터에서 피처를 추출하거나, 왜곡되거나 압축된 이미지에서 원본 이미지를 복원함으로써 표현 학습(representation learning)이라고 하는 방식으로 초기에 표현(representation)을 학습한 후 대상 태스크를 수행하는 것은 효과적일 수 있다.
환자 레벨의 ICH 감지 문제를 해결하기 위하여, 이미지 스케일 변경, 치환 강도(permutation intensity) 및 노이즈 추가와 같은 강력한 증강 방법은 ICH의 이질성(heterogeneity)을 해결하기 위하여 사용될 수 있다.
ICH의 클래스 불균형을 해결하기 위하여, 모든 ICH는 이진화되어 정상 대 ICH 환자 분류가 수행될 수 있다. 다만, 트리아쥬(triage) 시스템의 목적에는 적합할 수 있다.
외부 데이터에 대한 견고성을 위하여, 다중 태스크 전이 학습을 사용하는 일 실시예에 따른 기계 학습 모델은 환자 레벨의 ICH의 분류 및 분할하기 위해 제안될 수 있다. 일 실시예에 따른 기계 학습 모델은 2D 기반 인코더를 공유할 수 있고, 분류(classification; CLS), 분할(segmentation; SEG), 및 재구성(reconstruction; REC)의 3가지 다중 태스크들을 수행할 수 있다. 또한, 일 실시예에 따른 기계 학습 모델의 학습은, 분류 및 분할 작업의 출력들 간의 일관성을 나타내는 일관성(consistency; CON) 손실을 기계 학습 모델의 파라미터의 업데이트에 이용할 수 있다. 다중 태스크 학습은 인코더가 3개의 태스크들을 모두 포함하는 글로벌화된 의미론적 피처를 캡처하도록 트레이닝될 수 있고 균형 정확도(balanced accuracy) 및 외부 데이터 세트에 대한 견고성(robustness)을 높일 수 있다. 마지막으로 환자 레벨의 태스크에 대하여, 인코더에 의해 누적된 피처들은 3D 분류기인 LSTM 기반 네트워크로 전송되거나 환자 수준 ICH 작업을 위한 3D 분할기인 Conv3D 기반 네트워크로 전송될 수 있다.
다만, 기술적 과제는 상술한 기술적 과제들로 한정되는 것은 아니며, 다른 기술적 과제들이 존재할 수 있다.
일 실시예에 따른 프로세서에 의하여 수행되는 방법은, 트레이닝 입력 이미지에 기계 학습 모델의 인코더(encoder)를 적용함으로써 피처 맵(feature map)을 추출하는 단계, 상기 피처 맵에 상기 기계 학습 모델의 범용 분류 모듈을 적용함으로써 상기 트레이닝 입력 이미지에 병변(lesion)이 나타날 제1 가능성 점수(possibility score)를 획득하는 단계, 상기 피처 맵에 상기 기계 학습 모델의 범용 분할 모듈을 적용함으로써 상기 트레이닝 입력 이미지로부터 병변 영역을 추출하는 단계, 상기 획득된 제1 가능성 점수 및 상기 추출된 병변 영역에 기초하여, 상기 범용 분류 모듈 및 상기 범용 분할 모듈의 출력들 간의 일관성(consistency)을 나타내는, 일관성 손실(consistency loss)을 가지는 목적함수 값을 계산하는 단계, 및 상기 계산된 목적함수 값을 이용하여 상기 기계 학습 모델의 파라미터를 업데이트하는 단계를 포함할 수 있다.
상기 목적함수 값을 계산하는 단계는, 상기 범용 분류 모듈에 관한 분류 손실(classification loss) 및 상기 범용 분할 모듈에 관한 분할 손실(segmentation loss)을 더 가지는 상기 목적함수 값을 계산하는 단계를 포함할 수 있다.
상기 목적함수 값을 계산하는 단계는, 상기 추출된 병변 영역을 이용하여 상기 트레이닝 입력 이미지에 병변이 나타날 제2 가능성 점수를 획득하는 단계, 및 상기 제1 가능성 점수 및 상기 제2 가능성 점수 간의 차이에 기초하여 상기 일관성 손실을 계산하는 단계를 포함할 수 있다.
상기 제2 가능성 점수를 획득하는 단계는, 상기 추출된 병변 영역에 평균 풀링 레이어(average pooling layer) 및 최대 풀링 레이어(max pooling layer) 중 적어도 하나를 적용함으로써 상기 제2 가능성 점수를 획득하는 단계를 포함할 수 있다.
상기 일관성 손실을 계산하는 단계는, 상기 제1 가능성 점수 및 상기 제2 가능성 점수의 차이의 제곱(square)을 계산하는 단계, 및 배치(batch)에 포함된 이미지들 각각에 대하여 계산된 상기 제1 가능성 점수 및 상기 제2 가능성 점수의 차이의 제곱을 평균함으로써 상기 일관성 손실을 계산하는 단계를 포함할 수 있다.
일 실시예에 따른 방법은 상기 피처 맵에 상기 기계 학습 모델의 복원 모듈을 적용함으로써 상기 피처 맵으로부터 복원 이미지(reconstruction image)를 획득하는 단계를 더 포함할 수 있고, 상기 목적함수 값을 계산하는 단계는, 상기 트레이닝 입력 이미지 및 상기 복원 이미지에 기초하여 상기 복원 모듈에 관한 복원 손실(reconstruction loss)을 계산하는 단계를 포함할 수 있다.
상기 복원 손실을 계산하는 단계는, 상기 트레이닝 입력 이미지의 픽셀 및 상기 트레이닝 입력 이미지의 상기 픽셀에 대응하는 상기 복원 이미지의 픽셀 간의 강도(intensity) 차이의 평균 절대 오차(mean absolute error) 값을 계산하는 단계를 포함할 수 있다.
일 실시예에 따른 방법은, 상기 기계 학습 모델의 상기 인코더 및 상기 인코더에 연결되는 환자 레벨(patient level)의 분류 모듈(classification module)을 포함하는 분류 모델을 생성하는 단계, 트레이닝 데이터 세트의 대상 환자에 대한 CT 촬영에 기초하여 획득된 복수의 이미지들에 상기 분류 모델의 상기 인코더를 적용함으로써 복수의 피처 맵들을 획득하는 단계, 상기 획득된 복수의 피처 맵들에 상기 환자 레벨의 분류 모듈을 적용함으로써 상기 복수의 이미지들 중 적어도 한 이미지에 병변이 나타날 가능성 점수를 획득하는 단계, 및 상기 복수의 이미지들에 대한 가능성 점수 및 상기 트레이닝 데이터 세트에서 상기 복수의 이미지들에 대해 매핑된 참값 클래스를 이용하여 계산된 목적 함수 값에 기초하여 상기 분류 모델의 파라미터를 업데이트하는 단계를 포함할 수 있다.
상기 복수의 피처 맵들을 획득하는 단계는, 상기 복수의 이미지들 각각에 상기 분류 모델의 상기 인코더를 적용함으로써 피처 맵을 획득하는 것을 반복하는 단계를 포함할 수 있다.
상기 분류 모델의 파라미터를 업데이트하는 단계는, 트레이닝 반복들 중 적어도 일부 반복(iteration)에서 상기 분류 모델의 인코더의 파라미터를 고정한 채로 상기 환자 레벨의 분류 모듈의 파라미터를 업데이트하는 단계, 및 상기 트레이닝 반복들 중 다른 반복에서 상기 분류 모델의 인코더의 파라미터의 고정을 해제하고, 상기 분류 모델의 인코더 및 상기 환자 레벨의 분류 모듈의 파라미터를 업데이트하는 단계를 포함할 수 있다.
일 실시예에 따른 상기 기계 학습 모델의 상기 인코더 및 상기 인코더에 연결되는 디코더(decoder)와 환자 레벨(patient level)의 분할 모듈(segmentation module)을 포함하는 분할 모델을 생성하는 단계, 트레이닝 데이터 세트의 대상 환자에 대한 CT 촬영에 기초하여 획득된 복수의 이미지들에 상기 인코더 및 상기 디코더를 적용함으로써 복수의 피처 맵들을 획득하는 단계, 상기 획득된 복수의 피처 맵들에 상기 환자 레벨의 분할 모듈을 적용함으로써 상기 복수의 이미지들로부터 병변 영역을 추출하는 단계, 및 상기 추출된 병변 영역 및 상기 트레이닝 데이터 세트에서 상기 복수의 이미지들에 매핑된 참값 병변 영역을 이용하여 계산된 목적 함수 값에 기초하여 상기 분할 모델의 파라미터를 업데이트하는 단계를 더 포함할 수 있다.
상기 복수의 피처 맵들을 획득하는 단계는, 상기 복수의 이미지들 각각에 상기 분할 모델의 상기 인코더 및 상기 디코더를 적용함으로써 피처 맵을 획득하는 것을 반복하는 단계를 포함할 수 있다.
상기 분할 모델의 파라미터를 업데이트하는 단계는, 트레이닝 반복들 중 적어도 일부 반복(iteration)에서 상기 분할 모델의 인코더의 파라미터를 고정한 채로 상기 환자 레벨의 분할 모듈의 파라미터를 업데이트하는 단계 및 상기 트레이닝 반복들 중 다른 반복에서 상기 분할 모델의 인코더의 파라미터의 고정을 해제하고, 상기 분할 모델의 인코더 및 상기 환자 레벨의 분할 모듈의 파라미터를 업데이트하는 단계를 포함할 수 있다.
일 실시예에 따른 전자 장치는 트레이닝 입력 이미지에 기계 학습 모델의 인코더(encoder)를 적용함으로써 피처 맵(feature map)을 추출하고, 상기 피처 맵에 상기 기계 학습 모델의 범용 분류 모듈을 적용함으로써 상기 트레이닝 입력 이미지에 병변(lesion)이 나타날 제1 가능성 점수(possibility score)를 획득하며, 상기 피처 맵에 상기 기계 학습 모델의 범용 분할 모듈을 적용함으로써 상기 트레이닝 입력 이미지로부터 병변 영역을 추출하고, 상기 획득된 제1 가능성 점수 및 상기 추출된 병변 영역에 기초하여, 상기 범용 분류 모듈 및 상기 범용 분할 모듈의 출력들 간의 일관성(consistency)을 나타내는, 일관성 손실(consistency loss)을 가지는 목적함수 값을 계산하며, 상기 계산된 목적함수 값을 이용하여 상기 기계 학습 모델의 파라미터를 업데이트하는 프로세서를 포함할 수 있다.
상기 프로세서는, 상기 기계 학습 모델의 상기 인코더 및 상기 인코더에 연결되는 환자 레벨(patient level)의 분류 모듈(classification module)을 포함하는 분류 모델을 생성하고, 트레이닝 데이터 세트의 대상 환자에 대한 CT 촬영에 기초하여 획득된 복수의 이미지들에 상기 분류 모델의 상기 인코더를 적용함으로써 복수의 피처 맵들을 획득하며, 상기 획득된 복수의 피처 맵들에 상기 환자 레벨의 분류 모듈을 적용함으로써 상기 복수의 이미지들 중 적어도 한 이미지에 병변이 나타날 가능성 점수를 획득하고, 상기 복수의 이미지들에 대한 가능성 점수 및 상기 트레이닝 데이터 세트에서 상기 복수의 이미지들에 대해 매핑된 참값 클래스를 이용하여 계산된 목적 함수 값에 기초하여 상기 분류 모델의 파라미터를 업데이트할 수 있다.
상기 프로세서는, 상기 기계 학습 모델의 상기 인코더 및 상기 인코더에 연결되는 디코더(decoder)와 환자 레벨(patient level)의 분할 모듈(segmentation module)을 포함하는 분할 모델을 생성하고, 트레이닝 데이터 세트의 대상 환자에 대한 CT 촬영에 기초하여 획득된 복수의 이미지들에 상기 인코더 및 상기 디코더를 적용함으로써 복수의 피처 맵들을 획득하며, 상기 획득된 복수의 피처 맵들에 상기 환자 레벨의 분할 모듈을 적용함으로써 상기 복수의 이미지들로부터 병변 영역을 추출하고, 상기 추출된 병변 영역 및 상기 트레이닝 데이터 세트에서 상기 복수의 이미지들에 매핑된 참값 병변 영역을 이용하여 계산된 목적 함수 값에 기초하여 상기 분할 모델의 파라미터를 업데이트할 수 있다.
일 실시예에 따른 기계 학습 모델의 인코더는 3개의 다중 태스크를 모두 충족하는 전역화된 피처를 캡처하도록 학습될 수 있다. 인코더는 균형 정확도(balanced accuracy)의 측면에서 개선될 수 있고, 외부 데이터 세트(external data set)에서 강력할 수 있다.
일 실시예에 따른 기계 학습 모델의 인코더는, 다중 태스크를 통해 학습되어 연속적이거나 체적 피처를 이용하는 3D 오퍼레이터(operator)에 대한 전이 학습을 통해 환자 레벨의 태스크(예: 분류, 분할)로 확장될 수 있다.
일 실시예에 따른 기계 학습 모델은, 실제 임상 환경을 반영한 2개의 외부 데이터 세트 및 ICH의 감지하기 어려운 사례가 있는 공개 데이터 세트를 통해 비교 실시예에 따른 기계 학습 모델보다 우수한 성능을 가질 수 있다.
도 1은 일 실시예에 따른 환자 레벨의 분류 모델 및 환자 레벨의 분할 모델을 나타낸다.
도 2는 일 실시예에 따른 다중 태스크 학습을 통한 인코더의 사전 학습을 나타낸다.
도 3은 일 실시예에 따른 환자 레벨의 분류 모델의 트레이닝을 나타낸다.
도 4는 일 실시예에 따른 환자 레벨의 분할 모델의 트레이닝을 나타낸다.
도 5 은 일 실시예에 따른 내부 데이터 세트 및 외부 데이터 세트들의 ICH의 양(amount)에 따른 빈도(frequency)를 나타낼 수 있다.
도 6은 일 실시예에 따른 내부 데이터 세트 및 외부 데이터 세트들의 ICH의 부피(volume) 및 강도(intensity)을 나타낼 수 있다.
도 7은 일 실시예 및 비교 실시예에 따른 다중 태스크 모델을 이용하여 학습된 인코더들의 활성화 맵들을 나타낼 수 있다.
도 8은 일 실시예에 따른 환자 레벨의 분류 모델 및 비교 실시예에 따른 분류 모델의 성능 비교를 나타낸다.
도 9은 일 실시예에 따른 환자 레벨의 분류 모델 및 비교 실시예들에 따른 분류 모델 간의 차이 및 견고성을 나타낼 수 있다.
도 10는 일 실시예 및 비교 실시예들에 따른 분할 모델의 결과를 나타낸다.
도 11은 일 실시예 및 비교 실시예들에 따른 분할 모델의 ICH 부피들을 나타낸다.
실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 구현될 수 있다. 따라서, 실제 구현되는 형태는 개시된 특정 실시예로만 한정되는 것이 아니며, 본 명세서의 범위는 실시예들로 설명한 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.
제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 설명된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 해당 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하, 실시예들을 첨부된 도면들을 참조하여 상세하게 설명한다. 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조 부호를 부여하고, 이에 대한 중복되는 설명은 생략하기로 한다.
기계 학습 모델의 트레이닝을 위하여, 전이 학습(transfer learning)이 이용될 수 있다. 전이 학습은, 트레이닝된 제1 기계 학습 모델의 적어도 일부를 제2 기계 학습 모델의 적어도 일부로서 이용하여 제2 기계 학습 모델을 트레이닝시키는 기법을 나타낼 수 있다. 제1 기계 학습 모델은 프리텍스트 태스크(pretext task)를 수행하기 위한 모델을 나타낼 수 있고, 제2 기계 학습 모델은 대상 태스크(target task)를 수행하기 위한 모델을 나타낼 수 있다. 프리텍스트 태스크(또는, 업스트림 태스크(upstream task)라고도 함)는 제2 기계 학습 모델의 트레이닝에 이용되는 제1 기계 학습 모델을 통해 수행되는 태스크를 나타낼 수 있다. 대상 태스크(또는, 다운스트림 태스크(downstream task)라고도 함)는 수행하고자 하는 목표가 되는 태스크로서, 제2 기계 학습 모델을 통해 수행되는 태스크를 나타낼 수 있다.
제2 기계 학습 모델은, 트레이닝 데이터의 한계 및/또는 트레이닝 속도의 한계 등 다양한 문제들로 인하여, 초기 상태에서부터 트레이닝되기 어려울 수 있다.
제2 기계 학습 모델을 초기 상태에서부터 트레이닝시키는 것 대신에, 제1 기계 학습 모델을 트레이닝시키고, 이후에, 트레이닝된 제1 기계 학습 모델의 적어도 일부를 제2 기계 학습 모델의 적어도 일부로 이용하여 제2 기계 학습 모델을 트레이닝시킬 수 있다.
프리텍스트 태스크를 위한 제1 기계 학습 모델은 트레이닝될 수 있다. 제1 기계 학습 모델의 트레이닝은 제2 기계 학습 모델의 사전 학습(pre-training)으로 수행될 수 있다.
제2 기계 학습 모델의 트레이닝을 위한 초기 모델은, 트레이닝된 제1 기계 학습 모델의 적어도 일부를 포함할 수 있다. 예를 들어, 제1 기계 학습 모델 및 제2 기계 학습 모델은 인코더의 구조를 공유할 수 있다. 트레이닝된 제1 기계 학습 모델의 인코더는 제2 기계 학습 모델의 초기 모델의 인코더로서 이용될 수 있다.
제2 기계 학습 모델의 초기 모델은 트레이닝될 수 있다. 트레이닝된 제1 기계 학습 모델의 적어도 일부를 초기 모델로서 이용한 제2 기계 학습 모델의 트레이닝은 제1 기계 학습 모델에 기초하여 획득된 제2 기계 학습 모델의 적어도 일부의 파인 튜닝(fine-tuning)을 포함할 수 있다.
이하, 슬라이스 레벨의 다중 태스크(예: 분류(classification) 태스크, 분할(segmentation) 태스크, 및 복원(reconstruction) 태스크)를 프리텍스트 태스크로 다중 태스크 모델의 인코더를 사전 학습하고, 환자 레벨의 태스크(예: 환자 레벨의 병변 유무의 분류 태스크 및 환자 레벨의 병변 영역의 분할 태스크 중 하나)를 대상 태스크로 기계 학습 모델(예: 환자 레벨의 분류 모델 및 환자 레벨의 분할 모델)을 트레이닝시키는 장치 및 방법에 대하여 도 1 내지 도 11에서 후술한다.
도 1은 일 실시예에 따른 환자 레벨의 분류 모델 및 환자 레벨의 분할 모델을 나타낸다.
환자 레벨 분류 장치(110)는, 환자 레벨에서 병변 유무를 분류하기 위하여, 복수의 이미지들(112)(예: CT 슬라이스들)에 기초하여 대상 환자의 대상 신체 부위에 병변이 포함될 가능성 점수(possibility score)(114)를 출력하는 장치를 나타낼 수 있다. 환자 레벨 분할 장치(120)는, 환자 레벨에서 병변 영역을 분할하기 위하여, 복수의 이미지들(122)(예: CT 슬라이스들)에 기초하여 대상 환자의 대상 신체 부위 중 병변 영역(124)을 분할하는 장치를 나타낼 수 있다.
대상 환자는, 대상 환자의 대상 신체 부위에 병변이 존재하는지 여부를 분류하거나, 대상 환자의 대상 신체 부위 중 병변 영역을 추출함으로써 병변 영역을 분할하려는 환자를 나타낼 수 있다. 대상 신체 부위는 CT 촬영된 신체 부위를 나타낼 수 있고, 예시적으로, 뇌(brain)를 포함할 수 있다. 병변은, 두개내출혈(ICH)으로 인한 육체적인 또는 생리적인 변화를 나타낼 수 있고, 예시적으로, 병변 영역은 뇌 중에서 두개내출혈의 발생 부위를 나타낼 수 있다.
복수의 이미지들은, 대상 환자에 대한 CT 촬영에 기초하여 획득될 수 있다. 복수의 이미지들은 한 번의 CT 촬영에 기초하여 획득된 CT 슬라이스들을 나타낼 수 있다. CT 슬라이스는, 엑스선 생성기와 엑스선 검출기가 대상 환자를 두고 쌍으로 회전하여 전 방향에서 촬영된 엑스선 영상(예: 사이노그램(sinogram))을 역 라돈 변환 계산을 통해 복원함으로써 획득된 횡단면 영상을 나타낼 수 있다. CT 슬라이스의 각 픽셀은 해당 픽셀에 대응하는 부분의 감쇠율을 나타낼 수 있다.
이하, 환자 레벨 분류 장치(110) 및 환자 레벨 분할 장치(120)를 각각 설명한다.
일 실시예에 따른 환자 레벨 분류 장치(110)는 프로세서(111)를 포함할 수 있다. 환자 레벨 분류 장치(110)는, 복수의 이미지들(112)(예: CT 슬라이스들)에 환자 레벨(patient level)의 분류 모델(classification model)(113)(분류 모델이라고도 함)을 적용함으로써 가능성 점수(possibility score)(114)를 획득할 수 있다.
분류 모델(113)은 대상 환자의 병변(lesion) 유무를 분류하기 위한 기계 학습 모델을 나타낼 수 있다. 분류 모델(113)는, 인코더(encoder)(113a) 및 인코더(113a)에 연결되는 환자 레벨의 분류 모듈(classification module)(113b)을 포함할 수 있다. 후술하겠으나, 인코더(113a)는 다중 태스크 모델을 통해 사전 학습될 수 있다.
프로세서(111)는, 복수의 이미지들(112)에 인코더(113a)를 적용함으로써 복수의 피처 맵들(feature maps)을 획득할 수 있다. 프로세서(111)는 하나의 이미지에 인코더(113a)를 적용함으로써 하나의 피처 맵을 획득할 수 있다. 프로세서(111)는 복수의 이미지들(112) 각각에 인코더(113a)를 적용함으로써 피처 맵을 획득하는 것을 반복함으로써 복수의 피처 맵들을 획득할 수 있다.
프로세서(111)는, 복수의 피처 맵들에 환자 레벨의 분류 모듈(113b)를 적용함으로써 가능성 점수(114)를 획득할 수 있다. 가능성 점수(114)는, 복수의 이미지들에 나타난 대상 환자의 대상 신체 부위의 적어도 일부에 병변이 존재할 가능성을 나타낼 수 있다. 예를 들어, 가능성 점수(114)는 복수의 이미지들 중 적어도 한 이미지에 병변이 나타날 가능성을 나타낼 수 있다.
프로세서(111)는, 가능성 점수(114)에 기초하여 병변 유무를 분류할 수 있다. 예를 들어, 프로세서(111)는 가능성 점수(114)가 임계 점수를 초과하는 경우, 대상 환자의 대상 신체 부위에 병변이 포함된 것(예: ICH 클래스(ICH class))으로 분류할 수 있다. 프로세서(111)는, 가능성 점수(114)가 임계 점수 미만인 경우, 대상 환자의 대상 신체 부위에 병변이 포함되지 않은 것(예: 정상 클래스(normal class))으로 분류할 수 있다. 임계 점수는 병변 유무 분류의 기준이 되는 점수를 나타낼 수 있다.
일 실시예에 따른 환자 레벨 분할 장치(120)는 프로세서(121)를 포함할 수 있다. 환자 레벨 분할 장치(120)는, 복수의 이미지들(122)(예: CT 슬라이스들)에 환자 레벨의 분할 모델(segmentation model)(123)(분할 모델이라고도 함)을 적용함으로써 병변 영역을 획득할 수 있다. 환자 레벨의 분할 태스크는 병변(예: ICH)를 국소화(localize)하고 환자 레벨에서 뇌출혈을 측정하기 위하여 수행될 수 있다.
환자 레벨의 분할 모델(123)은 대상 환자의 신체 중 병변 영역을 분할하기 위한 기계 학습 모델을 나타낼 수 있다. 환자 레벨의 분할 모델(123)는, 인코더(123a) 및 인코더(123a)에 연결되는 디코더(123b)와 환자 레벨의 분할 모듈(123c)를 포함할 수 있다. 후술하겠으나, 인코더(123a)는 다중 태스크 모델을 통해 사전 학습될 수 있다.
프로세서(121)는, 복수의 이미지들(122)에 인코더(123a) 및 디코더(123b)를 적용함으로써 복수의 피처 맵들(feature maps)을 획득할 수 있다. 프로세서(121)는 하나의 이미지에 인코더(123a) 및 디코더(123b)를 적용함으로써 하나의 피처 맵을 획득할 수 있다. 프로세서(121)는 복수의 이미지들(122) 각각에 인코더(123a) 및 디코더(123b)를 적용함으로써 피처 맵을 획득하는 것을 반복함으로써 복수의 피처 맵들을 획득할 수 있다.
프로세서(121)는, 복수의 피처 맵들에 환자 레벨의 분할 모듈(123b)를 적용함으로써 병변 영역(124)를 획득할 수 있다. 병변 영역(124)은, 복수의 이미지들에 나타난 하나 이상의 병변 영역을 포함할 수 있다. 병변 영역(124)은 복수의 이미지들(122) 각각에 나타난 병변 영역이 누적된 영역을 나타낼 수 있다.
도 2는 일 실시예에 따른 다중 태스크 학습을 통한 인코더의 사전 학습을 나타낸다.
일 실시예에 따른 전자 장치는 프로세서를 포함할 수 있다. 전자 장치는, 프리텍스트 태스크를 위한 기계 학습 모델을 이용하여 대상 태스크를 위한 기계 학습 모델의 인코더를 사전 학습시킬 수 있다. 다중 태스크 모델은 프리텍스트 태스크가 다중 태스크(multi-task)인 경우, 프리텍스트 태스크를 수행하기 위한 기계 학습 모델을 나타낼 수 있다.
다중 태스크 모델(200)은, 분류 모델(예: 도 1의 환자 레벨의 분류 모델(113)) 및/또는 분할 모델(예: 도 1의 환자 레벨의 분할 모델(123))의 인코더를 사전 학습하는 데 이용될 수 있다.
일 실시예에 따른 다중 태스크 모델(200)은 인코더(210), 인코더(210)에 연결되는 범용 분류 모듈(220), 인코더(210)에 연결되는 범용 분할 모듈(230), 인코더에 연결되는 복원 모듈(240)(reconstruction module)을 포함할 수 있다.
다중 태스크 모델(200)은 하나의 공유 인코더 및 복수의 작업별 모듈들을 포함하는 하드 파라미터 공유 아키텍처(hard parameter sharing architecture)를 가질 수 있다. 하드 파라미터 공유 아키텍처는, 뿌리 모델(예: 인코더)을 공유하고 이후 각각의 표현(representation)을 학습하는 아키텍처를 나타낼 수 있다. 인코더(210)는 다양한 ICH 피처들을 캡처하도록 트레이닝될 수 있다. 예시적으로, 인코더는 ResNet-50로 구현될 수 있다. ResNet-50의 구조는 상대적으로 가볍고, ResNet-50는 동작을 수행하기 위해 ResBlock로 제어하기 쉬운 4개의 단계들을 가질 수 있다.
다중 태스크 모델(200)은 입력 이미지에 적용됨으로써 제1 가능성 점수 및 분할 영역을 출력할 수 있다. 다중 태스크 모델(200)은 제1 가능성 점수 및 분할 영역과 함께 복원 이미지를 더 출력할 수 있다.
다중 태스크 모델(200)의 트레이닝 데이터 세트는, 트레이닝 입력 이미지(211), 참값 클래스, 참값 병변 영역을 포함할 수 있다. 참값 클래스 및 참값 병변 영역은 트레이닝 입력 이미지(211)에 매핑될 수 있다. 참값 클래스는 트레이닝 입력 이미지(211)에 병변이 나타나는지 여부를 지시하는 클래스를 나타낼 수 있다. 예를 들어, 참값 클래스는 병변이 나타나는 트레이닝 입력 이미지(211)에 병변 클래스(예: ICH 클래스)로, 병변이 나타나지 않는 트레이닝 입력 이미지(211)에 정상 클래스(normal class)로 매핑될 수 있다. 참값 병변 영역은, 트레이닝 입력 이미지(211) 중에서 실제 병변에 대응하는 영역을 나타낼 수 있다.
전자 장치의 프로세서는 트레이닝 입력 이미지(211)를 다중 태스크 모델(200)에 적용함으로써 제1 가능성 점수(221), 분할 영역(231), 및 복원 이미지(241) 중 적어도 하나를 출력할 수 있다. 후술하겠으나, 참값 클래스 및 참값 병변 영역은 다중 태스크 모델(200)의 목적 함수 값을 계산하는 데 이용될 수 있다.
전자 장치의 프로세서는 트레이닝 입력 이미지(211)에 인코더(210)를 적용함으로써 피처 맵(212)을 추출할 수 있다. 피처 맵(212)은, 트레이닝 입력 이미지(211)의 특징들을 추출한 것으로서, 트레이닝 입력 이미지(211)에 합성 곱을 수행함으로써 획득된 결과를 나타낼 수 있다.
전자 장치의 프로세서는 피처 맵(212)에 범용 분류 모듈(220)을 적용함으로써 제1 가능성 점수(221)를 획득할 수 있다. 범용 분류 모듈(220)은, 슬라이스 레벨의 분류 태스크를 위한 모듈로서, 피처 맵(212)으로부터 제1 가능성 점수(221)를 출력하는 모듈을 나타낼 수 있다. 제1 가능성 점수(221)는 트레이닝 입력 이미지(211)에 병변이 나타날 가능성을 나타낼 수 있다. 예시적으로, 제1 가능성 점수(221)는 0보다 크거나 같고 1보다 작거나 같은 실수 값으로서, 0에 가까운 값을 가질수록 트레이닝 입력 이미지(211)에 병변이 나타날 가능성이 낮은 것을 나타내고, 1에 가까운 값을 가질수록 트레이닝 입력 이미지(211)에 병변이 나타날 가능성이 높은 것을 나타낼 수 있다.
슬라이스 레벨의 분류 태스크는, 각 CT 슬라이스에서 ICH의 존재 여부를 판단하기 위하여 수행될 수 있다. 인코더는, 슬라이스 레벨의 분류 태스크를 통해, 키 피처(key feature)를 찾을 수 있도록 학습될 수 있다. 예시적으로, 범용 분류 모듈(220)은 선형 분류기(예: 선형 블록(linear block))를 포함할 수 있다.
전자 장치의 프로세서는 피처 맵(212)에 범용 분할 모듈(230)을 적용함으로서 병변 영역(231)을 추출할 수 있다. 범용 분할 모듈(230)은, 슬라이스 레벨의 분할 태스크를 위한 모듈로서, 피처 맵(212)에 적용됨으로써 트레이닝 입력 이미지(211)로부터 추출된 병변 영역(231)을 출력하는 모듈을 나타낼 수 있다. 병변 영역(231)은 트레이닝 입력 이미지(211) 중 병변에 대응하는 영역을 나타낼 수 있다.
슬라이스 레벨의 분할 태스크는 ICH를 국소화(localize)하고 각 CT 슬라이스에서 뇌출혈을 측정하기 위하여 수행될 수 있다. 인코더는, 슬라이스 레벨의 분할 태스크를 통해, 로컬 피처(local feature)를 찾을 수 있도록 학습될 수 있다. 예시적으로, 범용 분할 모듈(230)은 스킵 연결들(skip connections)을 포함하는 U-Net 디코더(decoder)를 포함할 수 있다. 범용 분할 모듈(230)은 5 깊이들을 가지고, 스킵 연결을 이용하여 ResNet-50의 각 단계의 마지막 피처를 디코더로 전달할 수 있다. 추가적으로, SCSE(spatial and channel squeeze and excitation) 블록들은 피처를 보다 효과적으로 집중하며(with attention to the feature) 각 디코더 블록의 첫번째 및 마지막에 부착(attach)될 수 있다.
전자 장치의 프로세서는 피처 맵(212)에 복원 모듈(240)을 적용함으로써 복원 이미지(241)를 획득할 수 있다. 복원 모듈(240)은, 슬라이스 레벨의 복원 태스크를 위한 모듈로서, 피처 맵(212)으로부터 복원 이미지(241)를 츨력할 수 있다. 복원 이미지(241)는 피처 맵(212)에 기초하여 트레이닝 입력 이미지(211)를 복원하도록 생성된 이미지를 나타낼 수 있다.
슬라이스 레벨의 복원 태스크는 각 CT 슬라이스에 대하여 인코더에 의하여 압축된 출력으로부터 원본 CT 슬라이드를 복원하기 위하여 수행될 수 있다. 인코더는 슬라이스 레벨의 복원 태스크를 통해 ICH의 표현(representation)을 학습할 수 있다. 예시적으로, 복원 모듈(240)은 PixelShuffle 디코더를 포함할 수 있다. PixelShuffle 디코더는 디콘볼루션 레이어에 비해 낮은 계산 비용으로 저해상도(low-resolution) 데이터를 고해상도(high-resolution) 데이터로 초해상화(super-resolving)하는 것이 가능할 수 있다. 복원 모듈(240)은 사소한 솔루션들(trivial solutions)을 방지하기 위하여 스킵 연결들이 없는 Autoencoder와 같은 구조를 가질 수 있다. 인코더는 보다 더 의미있는 피처(meaningful feature)를 추출할 수 있다.
전자 장치의 프로세서는 다중 태스크 모델(200)의 목적 함수를 계산할 수 있다.
다중 태스크 모델(200)의 목적 함수는, 분류 손실(classification loss), 분할 손실(segmentation loss), 복원 손실(reconstruction loss), 및 일관성 손실(consistency loss)을 가질 수 있다. 예를 들어, 다중 태스크 모델(200)의 목적 함수 값은, 4개의 손실들에 대하여 모두 동일한 가중치로 다음과 같이 계산될 수 있다:
여기서, Total Loss는 다중 태스크 모델(200)의 목적 함수 값을 나타내고, SEG Loss는 분할 손실을 나타내며, CLS Loss는 분류 손실을 나타내고, CON Loss는 일관성 손실을 나타내며, REC Loss는 복원 손실을 나타낼 수 있다.
전자 장치의 프로세서는 분류 손실을 계산할 수 있다. 분류 손실은 인코더(210) 및 범용 분류 모듈(220)의 성능과 관련될 수 있다. 전자 장치의 프로세서는 제1 가능성 점수(221) 및 트레이닝 입력 이미지(211)에 매핑된 참값 클래스에 기초하여 분류 손실을 계산할 수 있다. 예시적으로, 분류 손실은 바이너리 크로스 엔트로피 손실(binary cross-entropy loss; BCE loss)로서 계산될 수 있다.
전자 장치의 프로세서는 분할 손실을 계산할 수 있다. 분할 손실은 인코더(210) 및 범용 분할 모듈(230)의 성능과 관련될 수 있다. 전자 장치의 프로세서는, 병변 영역(231) 및 참값 병변 영역에 기초하여 분할 손실을 계산할 수 있다. 예시적으로, 분할 손실은, 바이너리 크로스 엔트로피 손실(BCE loss) 및 중첩 기반 다이스 계수 손실(Dice-coefficient loss; DICE loss)의 일대일 조합(one-to-one combination)(예: 바이너리 크로스 엔트로피 손실 및 중첩 기반 다이스 계수 손실의 합)으로 계산될 수 있다.
전자 장치의 프로세서는 복원 손실을 계산할 수 있다. 복원 손실은 인코더(210) 및 복원 모듈(240)의 성능과 관련될 수 있다. 전자 장치의 프로세서는, 트레이닝 입력 이미지(211) 및 복원 이미지(241)에 기초하여 분할 손실을 계산할 수 있다. 예를 들어, 전자 장치의 프로세서는, 트레이닝 입력 이미지(211)의 픽셀 및 상기 트레이닝 입력 이미지(211)의 픽셀에 대응하는 복원 이미지(241)의 픽셀 간의 강도(intensity) 차이의 평균 절대 오차(mean absolute error)를 계산할 수 있다. 예시적으로, 분할 손실은 평균 절대 오차 손실(예: L1 손실)로 계산될 수 있다.
전자 장치의 프로세서는 일관성 손실(250)을 계산할 수 있다. 일관성 손실은 범용 분류 모듈(220) 및 범용 분할 모듈(230)의 출력들(예: 제1 가능성 점수(221) 및 병변 영역(231)) 간의 일관성을 나타낼 수 있다.
범용 분류 모듈(220)의 출력 및 범용 분할 모듈(230)의 출력이 병변 유무를 서로 다르게 지시하는 경우, 일관성 손실(250)은 높은 값을 가질 수 있다. 예를 들어, 제1 가능성 점수(221)는 1에 가까운 값을 가지고 병변 영역(231)이 추출되지 않은 경우, 일관성 손실(250)은 높은 값을 가질 수 있다. 다른 예를 들어, 제1 가능성 점수(221)는 0에 가까운 값을 가지고 병변 영역(231)이 추출된 경우, 일관성 손실(250)은 높은 값을 가질 수 있다.
범용 분류 모듈(220)의 출력 및 범용 분할 모듈(230)의 출력이 병변 유무를 서로 같게 지시하는 경우, 일관성 손실(250)은 낮은 값을 가질 수 있다. 예를 들어, 제1 가능성 점수(221)는 1에 가까운 값을 가지고 병변 영역(231)이 추출된 경우, 일관성 손실(250)은 낮은 값을 가질 수 있다. 다른 예를 들어, 제1 가능성 점수(221)는 0에 가까운 값을 가지고 병변 영역(231)이 추출되지 않은 경우, 일관성 손실(250)은 낮은 값을 가질 수 있다.
일관성 손실(250)의 계산은 각 CT 슬라이스에서 범용 분류 모듈(220) 및 범용 분할 모듈(230) 간의 일치를 위하여 수행될 수 있다. 인코더(210)는, 일관성 손실(250)의 계산을 통해, 슬라이스 레벨의 분류 태스크 및 슬라이스 레벨의 분할 태스크의 보다 더 공통적인 피처(common feature)를 학습할 수 있다.
전자 장치의 프로세서는, 제1 가능성 점수(221) 및 제2 가능성 점수에 기초하여 일관성 손실(250)을 계산할 수 있다. 제2 가능성 점수는 트레이닝 입력 이미지(211)에 병변이 나타날 가능성을 나타낼 수 있다.
전자 장치의 프로세서는 추출된 병변 영역(231)을 이용하여 제2 가능성 점수를 획득할 수 있다. 전자 장치의 프로세서는 추출된 병변 영역(231)에 평균 풀링 레이어(average pooling layer) 및 최대 풀링 레이어(max pooling layer) 중 적어도 하나를 적용함으로써 제2 가능성 점수를 획득할 수 있다. 예시적으로, 전자 장치의 프로세서는 ResNet-50의 마지막 피처의 16x16 크기로 인하여, 추출된 병변 영역(231)에 4 개의 평균 풀링 레이어들 및 1 개의 최대 풀링 레이어를 적용할 수 있다. 전자 장치의 프로세서는, 제2 가능성 점수를 획득함으로써, 범용 분할 모듈(230)의 출력의 해상도를 범용 분류 모듈(220)의 출력 모듈의 해상도와 일치시킬 수 있다.
참고로, 제1 가능성 점수 및 제2 가능성 점수는 모두 트레이닝 입력 이미지(211)에 병변이 나타날 가능성을 나타낼 수 있다. 다만, 제1 가능성 점수(221)는 범용 분류 모듈(220)에 기초하여 획득된 점수를 나타낼 수 있고, 제2 가능성 점수는 범용 분할 모듈(230)에 기초하여 획득된 점수를 나타낼 수 있다. 따라서, 제1 가능성 점수(221) 및 제2 가능성 점수의 차이가 큰 경우, 범용 분류 모듈(220) 및 범용 분할 모듈(230)의 출력들 간의 일관성이 낮을 수 있다. 반대로, 제1 가능성 점수(221) 및 제2 가능성 점수의 차이가 작은 경우, 범용 분류 모듈(220) 및 범용 분할 모듈(230)의 출력들 간의 일관성이 높을 수 있다.
전자 장치의 프로세서는 제1 가능성 점수(221) 및 제2 가능성 점수 간의 차이에 기초하여 일관성 손실(250)을 계산할 수 있다. 예를 들어, 전자 장치의 프로세서는 제1 가능성 점수(221) 및 제2 가능성 점수의 차이의 제곱(square)을 이미지 각각에 대하여 계산할 수 있다. 전자 장치의 프로세서는 제1 가능성 점수(221) 및 제2 가능성 점수의 차이의 제곱을 평균할 수 있다. 배치(batch)는 하나 이상의 이미지들을 포함할 수 있다. 전자 장치의 프로세서는, 제1 가능성 점수(221) 및 제2 가능성 점수의 차이의 제곱을 배치에 대하여 평균함으로써 상기 일관성 손실을 계산할 수 있다.
예시적으로, 일관성 손실( CON Loss)은 다음의 식에 의하여 계산될 수 있다.
여기서, 는 각각 범용 분류 모듈(220) 및 범용 분할 모듈(230)의 출력을 나타내고, N은 CT 슬라이스들의 개수를 나타내며, 는 4 개의 평균 풀링 레이어들 및 1 개의 최대 풀링 레이어의 조합을 나타낼 수 있다.
도 3은 일 실시예에 따른 환자 레벨의 분류 모델의 트레이닝을 나타낸다.
도 1에서 전술된 바와 같이, 분류 모델(300)은 인코더(310), 인코더에 연결되는 환자 레벨의 분류 모듈(320)을 포함할 수 있다. 분류 모델(300)은, 복수의 이미지들(311)에 적용됨으로써 가능성 점수(322)를 출력할 수 있다.
분류 모델(300)의 트레이닝 데이터 세트는, 복수의 이미지들(311) 및 복수의 이미지들(311)에 매핑된 참값 클래스를 포함할 수 있다. 후술하겠으나, 참값 클래스는 분류 모델(300)의 목적 함수 값의 계산을 위하여 이용될 수 있다.
전자 장치의 프로세서는 분류 모델(300)을 생성할 수 있다. 분류 모델(300)은 인코더(310) 및 인코더(310)에 연결되는 환자 레벨의 분류 모듈(320)(예: 도 3의 3D Classifier)을 포함할 수 있다. 인코더(310)는 트레이닝된 다중 태스크 모델(예: 도 2의 다중 태스크 모델(200))의 인코더에 기초하여 획득될 수 있다. 예를 들어, 전자 장치의 프로세서는 인코더(310)를 다중 태스크 모델을 이용하여 사전 학습시킬 수 있다. 전자 장치의 프로세서는 다중 태스크 모델의 사전 학습된 인코더를 포함하는 분류 모델(300)을 생성할 수 있다.
전자 장치의 프로세서는 복수의 이미지들(311)에 인코더(310)를 적용함으로써 복수의 피처 맵들을 획득할 수 있다. 전자 장치의 프로세서는 하나의 이미지에 인코더(310)를 적용함으로써 하나의 피처 맵을 획득할 수 있다. 전자 장치의 프로세서는 복수의 이미지들(311) 각각에 인코더(310)를 적용함으로써 피처 맵을 획득하는 것을 반복함으로써 복수의 피처 맵들을 획득할 수 있다.
하나의 피처 맵은 2차원 의료 영상(예: 하나의 CT 슬라이스)에 대한 2D 피처를 나타낼 수 있고, 스택(stack)된 복수의 피처 맵들은 3차원 의료 영상(예: 복수의 CT 슬라이스들)에 대한 3D 피처를 나타낼 수 있다. 예를 들어, 전자 장치의 프로세서는 CT 슬라이스들의 개수만큼 반복적으로 2D 피처들을 스택(stack)함으로써 3D 피처를 추출할 수 있다. 추출된 3D 피처들은, 체적(volumetric) 정보를 보완하기 위하여 환자 레벨의 분류 모듈(320)에 입력될 수 있다.
전자 장치의 프로세서는 복수의 피처 맵들에 환자 레벨의 분류 모듈(320)을 적용함으로써 가능성 점수(322)를 획득할 수 있다. 가능성 점수(322)는 복수의 이미지들 중 적어도 한 이미지에 병변이 나타날 가능성을 나타낼 수 있다.
환자 레벨의 분류 태스크에서, 병변은 복수의 이미지들 중 적어도 일부의 연속하는 이미지들에서 나타날 수 있다. 환자 레벨의 분류 모듈(320)은 연속하는 이미지들에서 나타나는 병변의 순차적인 정보를 캡처하고 CT 슬라이스의 가변 길이를 제어할 수 있도록 LSTM(Long Short Term Memory)로 구현될 수 있다. 예를 들어, 환자 레벨의 분류 모듈(320)은 2 개의 선형 레이어들(linear layers) 및 양방향(bi-directional) LSTM을 가질 수 있다. 환자 레벨의 분류 모듈(320)은 양방향 LSTM을 통해 ICH 감지 성능을 개선시킬 수 있다.
전자 장치의 프로세서는 분류 모델(300)의 목적 함수 값을 계산할 수 있다. 전자 장치의 프로세서는 가능성 점수(322) 및 복수의 이미지들(311)에 매핑된 참값 클래스에 기초하여 목적 함수 값을 계산할 수 있다. 예를 들어, 전자 장치의 프로세서는 분류 모델(300)의 목적 함수 값을 바이너리 크로스 엔트로피 손실(binary cross-entropy loss; BCE loss)로 계산할 수 있다.
전자 장치의 프로세서는 목적 함수 값에 기초하여 분류 모델(300)의 파라미터를 업데이트할 수 있다.
전자 장치의 프로세서는, 분류 모델(300) 중 사전 학습된 부분 모델의 파라미터를 고정한 채로(예: 프리즈(freeze)된 채로), 사전 학습되지 않은 나머지 부분 모델의 파라미터를 업데이트할 수 있다. 예를 들어, 전자 장치의 프로세서는, 트레이닝 반복들 중 적어도 일부 반복(iteration)에서, 분류 모델(300)의 인코더(310)의 파라미터를 고정한 채로 환자 레벨의 분류 모듈(320)의 파라미터를 업데이트할 수 있다.
전자 장치의 프로세서는, 분류 모델(300) 중 사전 학습된 부분 모델의 파라미터의 고정을 해제하고(예: 언프리즈(unfreeze)된 채로), 분류 모델(300)의 적어도 일부의 파라미터를 업데이트할 수 있다. 예를 들어, 전자 장치의 프로세서는, 트레이닝 반복들 중 다른 반복에서 분류 모델(300)의 인코더(310)의 파라미터의 고정을 해제하고, 분류 모델(300)의 인코더(310) 및 환자 레벨의 분류 모듈(320)의 파라미터를 업데이트할 수 있다.
일 실시예에 따른 전자 장치의 프로세서는, 확장(expansion)의 프로세스에서, 즉시 인코더(310)의 파인 튜닝을 수행하지 않을 수 있다. 대신에, 전자 장치의 프로세서는, 단계적으로 분류 모델(300)의 트레이닝 및 인코더(310)의 파인 튜닝을 수행할 수 있다. 예를 들어, 전자 장치의 프로세서는 점진적인(gradual) 언프리즈(unfreeze) 접근법을 이용할 수 있다. 전자 장치의 프로세서는 인코더(310)의 파라미터를 고정한 채로 환자 레벨의 분류 모델의 트레이닝을 100 에폭(epochs) 동안 수행할 수 있다. 그 이후에, 전자 장치의 프로세서는 인코더(310)의 파라미터의 고정을 점진적으로 해제할 수 있다. 전자 장치의 프로세서는, 10 에폭마다 인코더(310)의 파라미터의 고정을 해제할 수 있다.
도 4는 일 실시예에 따른 환자 레벨의 분할 모델의 트레이닝을 나타낸다.
도 1에서 전술된 바와 같이, 분할 모델(400)은 인코더(410) 및 인코더(410)에 연결되는 디코더(420)와 환자 레벨의 분할 모듈(430)(예: 도 4의 3D Segmentor)을 포함할 수 있다. 분할 모델(400)은, 복수의 이미지들(411)에 적용됨으로써 병변 영역(432)를 출력할 수 있다.
분할 모델(400)의 트레이닝 데이터 세트는, 복수의 이미지들(411) 및 복수의 이미지들(411)에 매핑된 참값 병변 영역을 포함할 수 있다. 후술하겠으나, 참값 병변 영역은 분할 모델(400)의 목적 함수 값의 계산을 위하여 이용될 수 있다.
전자 장치의 프로세서는 분할 모델(400)을 생성할 수 있다. 분할 모델(400)은 인코더(410) 및 인코더(410)에 연결되는 디코더(420)와 환자 레벨의 분할 모듈(430)을 포함할 수 있다. 인코더(410)는 트레이닝된 다중 태스크 모델(예: 도 2의 다중 태스크 모델(200))의 인코더에 기초하여 획득될 수 있다. 예를 들어, 전자 장치의 프로세서는 인코더(410)를 다중 태스크 모델을 이용하여 사전 학습시킬 수 있다. 전자 장치의 프로세서는 다중 태스크 모델의 사전 학습된 인코더를 포함하는 분할 모델(400)을 생성할 수 있다.
전자 장치의 프로세서는 복수의 이미지들(411)에 인코더(410) 및 디코더(420)를 적용함으로써 복수의 피처 맵들을 획득할 수 있다. 전자 장치의 프로세서는 하나의 이미지에 인코더(410) 및 디코더(420)를 적용함으로써 하나의 피처 맵을 획득할 수 있다. 전자 장치의 프로세서는 복수의 이미지들(411) 각각에 인코더(410) 및 디코더(420)를 적용함으로써 피처 맵을 획득하는 것을 반복함으로써 복수의 피처 맵들을 획득할 수 있다.
하나의 피처 맵은 2차원 의료 영상(예: 하나의 CT 슬라이스)에 대한 2D 피처를 나타낼 수 있고, 스택(stack)된 복수의 피처 맵들은 3차원 의료 영상(예: 복수의 CT 슬라이스들)에 대한 3D 피처를 나타낼 수 있다. 예를 들어, 전자 장치의 프로세서는 CT 슬라이스들의 개수만큼 반복적으로 2D 피처들을 스택(stack)함으로써 3D 피처를 추출할 수 있다. 추출된 3D 피처들은, 체적(volumetric) 정보를 보완하기 위하여 환자 레벨의 분할 모듈(430)에 입력될 수 있다.
전자 장치의 프로세서는 복수의 피처 맵들에 환자 레벨의 분할 모듈(430)을 적용함으로써 병변 영역(432)을 추출할 수 있다. 병변 영역(432)은 복수의 이미지들(411)에 나타난 병변에 대응하는 영역을 나타낼 수 있다. 분할 모듈(430)은 3D 컨볼루션 레이어(3D convolution layer; Conv3D)를 가질 수 있다.
전자 장치의 프로세서는 분할 모델(400)의 목적 함수 값을 계산할 수 있다. 전자 장치의 프로세서는 병변 영역(432) 및 복수의 이미지들(411)에 매핑된 참값 병변 영역에 기초하여 목적 함수 값을 계산할 수 있다. 예를 들어, 전자 장치의 프로세서는 분할 모델(400)의 목적 함수 값을 바이너리 크로스 엔트로피 손실(BCE loss) 및 다이스 계수 손실(DICE loss)의 조합으로 계산할 수 있다.
전자 장치의 프로세서는 목적 함수 값에 기초하여 분할 모델(400)의 파라미터를 업데이트할 수 있다.
전자 장치의 프로세서는, 분할 모델(400) 중 사전 학습된 부분 모델의 파라미터를 고정한 채로(예: 프리즈(freeze)된 채로), 사전 학습되지 않은 나머지 부분 모델의 파라미터를 업데이트할 수 있다. 예를 들어, 전자 장치의 프로세서는, 트레이닝 반복들 중 적어도 일부 반복(iteration)에서, 분할 모델(400)의 인코더(410)의 파라미터를 고정한 채로 디코더(420) 및 환자 레벨의 분할 모듈(430)의 파라미터를 업데이트할 수 있다.
전자 장치의 프로세서는, 분할 모델(400) 중 사전 학습된 부분 모델의 파라미터의 고정을 해제하고(예: 언프리즈(unfreeze)된 채로), 분할 모델(400)의 적어도 일부의 파라미터를 업데이트할 수 있다. 예를 들어, 전자 장치의 프로세서는, 트레이닝 반복들 중 다른 반복에서 분할 모델(400)의 인코더(410)의 파라미터의 고정을 해제하고, 분할 모델(400)의 인코더(410), 디코더(420), 및 환자 레벨의 분할 모듈(430)의 파라미터를 업데이트할 수 있다.
일 실시예에 따른 전자 장치의 프로세서는, 확장(expansion)의 프로세스에서, 즉시 인코더(410)의 파인 튜닝을 수행하지 않을 수 있다. 대신에, 전자 장치의 프로세서는, 단계적으로 분할 모델(400)의 학습 및 인코더(410)의 파인 튜닝을 수행할 수 있다. 예를 들어, 전자 장치의 프로세서는 점진적인(gradual) 언프리즈(unfreeze) 접근법을 이용할 수 있다. 전자 장치의 프로세서는 인코더(410)의 파라미터를 고정한 채로 환자 레벨의 분할 모델(400)의 학습을 100 에폭(epochs) 동안 수행할 수 있다. 그 이후에, 전자 장치의 프로세서는 인코더(410)의 파라미터의 고정을 점진적으로 해제할 수 있다. 전자 장치의 프로세서는, 10 에폭마다 인코더(410)의 파라미터의 고정을 해제할 수 있다.
도 5 은 일 실시예에 따른 내부 데이터 세트 및 외부 데이터 세트들의 ICH의 양(amount)에 따른 빈도(frequency)를 나타낼 수 있다. 도 6은 일 실시예에 따른 내부 데이터 세트 및 외부 데이터 세트들의 ICH의 부피(volume) 및 강도(intensity)을 나타낼 수 있다.
일 실시예에 따른 기계 학습 모델은, 내부 테스트 세트(도 5 및 도 6에서, AMC)와 함께, 실제 응급 상황에서의 성능을 입증하기 위하여 정상 환자 비율이 높은 두 개의 외부 테스트 세트들(도 5 및 도 6에서, External1, External2), 및 작고 희미한 출혈로 인해 감지하기 어려운 케이스에 대한 견고성을 검증하기 위한 다른 외부 테스트 세트(도 5 및 도 6에서, External3)(예: 하나의 오픈 소스 ICH 데이터 세트인 PhysioNet 데이터 세트)를 이용하여 평가될 수 있다.
내부 데이터 세트는 기계 학습 모델의 트레이닝, 검증, 및 테스트에 사용되는 데이터 세트를 나타낼 수 있다. 예시적으로, 내부 데이터 세트는 트레이닝 데이터 세트, 검증(validation) 데이터 세트, 및 테스트(test) 데이터 세트를 가질 수 있다.
도 7은 일 실시예 및 비교 실시예에 따른 다중 태스크 모델을 이용하여 학습된 인코더들의 활성화 맵들을 나타낼 수 있다.
활성화 맵들은 인코더의 마지막 컨볼루션 계층에서 출력된 피처 맵을 이용하여 채널별로 평균되고, 시그모이드 활성화로 정규화되며, 그 이후 입력 해상도와 매칭하도록 보간(interpolate)됨으로써 획득될 수 있다.
일 실시예 및 비교 실시예에 따른 다중 태스크 모델들의 인코더들은 공정한 비교를 위해 동일한 구조의 인코더(예: ResNet-50 인코더) 및 동일한 트레이닝 설정(예: 입력 크기, 학습률, 최적화, 증강 등)으로 트레이닝되고 평가될 수 있다. 일 실시예 및 비교 실시예에 따른 다중 태스크 모델들의 인코더들 간의 유일한 차이점은 슬라이스 레벨의 태스크의 조합에 따른 모듈(예: 범용 분류 모듈, 범용 분할 모듈, 및 복원 모듈)일 수 있다.
ICH 케이스의 중증도(severity)에 따른 비교를 수행하기 위하여, 2개의 중증 케이스들(severe cases), 2개의 중등도 케이스들(moderate cases), 및 4개의 경증 케이스들(mild cases)은 비교될 수 있다.
인코더는 슬라이스 레벨의 분류 태스크를 통해 전역(global) 정보를 집중적으로 추출하도록 학습될 수 있는 반면, 슬라이스 레벨의 분할 태스크를 통해 로컬(local) 특징들을 조밀하게(densely)하게 캡처할 수 있도록 학습될 수 있다. 인코더가 보다 더 다양한 태스크들을 수행하는 다중 태스크 모델을 통해 트레이닝되는 경우, 보다 더 의미론적인 피처들(more semantic features)이 추출될 수 있다.
도 7에서 나타난 바와 같이, 인코더가 초점을 맞추는 영역을 나타내는 활성화 맵은, 슬라이스 레벨의 태스크들의 다양한 조합에 따라 달라질 수 있다.
슬라이스 레벨의 분류 태스크, 분할 태스크, 복원 태스크, 및 일관성 손실 각각의 개성은 활성화 맵을 통해 명확하게 나타날 수 있다. 예를 들어, 슬라이스 레벨의 분류 태스크를 위한 모델의 인코더(도 7에서, CLS로 표시됨)는 ICH의 가장 두드러진 지점에 초점을 맞추는 활성화 맵을 가질 수 있다. 슬라이스 레벨의 복원 태스크를 위한 모델의 인코더(도 7에서, REC로 표시됨) 및 슬라이스 레벨의 분할 태스크를 위한 모델의 인코더(도 7에서, SEG로 표시됨)는 픽셀 단위의 조밀 예측을 수행할 수 있고, 전체 이미지에 대한 특징을 캡처할하는 활성화 맵을 가질 수 있다. 슬라이스 레벨의 복원 태스크를 위한 모델의 인코더(REC)는 뇌 영역 내에서 슬라이스 레벨의 분할 태스크를 위한 모델의 인코더(SEG)에 비해 상대적으로 고르게 활성화되는 활성화 맵을 가질 수 있다. 슬라이스 레벨의 분할 태스크(SEG)를 위한 모델의 인코더는 전체 이미지 중에서 다소 산발적으로 초점이 맞춰진 활성화 맵을 가질 수 있다. 슬라이스 레벨의 분류 태스크 및 분할 태스크와 함께 일관성 손실을 이용하는 모델의 인코더(도 7에서, CLS+SEG+CON로 표시됨)는, 슬라이스 레벨의 분류 태스크를 위한 모델의 인코더(CLS)에서 나타난 두드러지는 부분에 집중하는 경향과 슬라이스 레벨의 분할 태스크를 위한 모델의 인코더(SEG)에서 나타난 산발적인 초점이 맞춰지는 경향 사이의 균형을 갖는 활성화 맵을 가질 수 있다.
슬라이스 레벨의 복수의 태스크들을 위한 모델의 인코더와 관련하여, 슬라이스 레벨의 태스크들의 다양성은 활성화 맵에 영향을 미칠 수 있다. 인코더가 많은 태스크들를 위한 모델을 이용하여 트레이닝되는 경우, 눈에 띄고 명확한 활성화 영역이 나타날 수 있다.
일 실시예에 따른 다중 태스크 모델의 인코더(도 7에서 MRI-Net으로 표시됨)는 비교 실시예들에 따른 인코더들에 비해 가장 이상적인 활성화 맵을 가질 수 있고, 이상적인 활성화 맵은 태스크의 기여도들 간의 균형을 맞출 수 있다. 일 실시예에 따른 다중 태스크 모델의 인코더는, 비교 실시예들(도 7에서 ImageNet 및 Model Genesis로 표시됨)에 따른 인코더들에 비하여 뇌의 가장자리 및 경계 영역에서 크게 활성화될 수 있다. 추가적으로, 더욱이 비교 실시예(도 7에서 Model Genesis로 표시됨)에 따른 인코더(예: ResNet-50 인코더)는 뇌 영역 내에서 고르게 활성화되는 슬라이스 레벨의 복원 태스크를 위한 모델(REC)의 인코더(도 7에서 REC로 표시됨)의 활성화 맵과 유사한 패턴의 활성화 맵을 가질 수 있다.
표 1은 내부 데이터 세트 및 외부 데이터 세트들의 세부사항(detail)을 나타낼 수 있다.
[표 1]
환자 레벨의 분류 모델 및 환자 레벨의 분할 모델의 견고성은 정상 환자 비율이 높은 외부 데이터 세트들을 통해 검증될 수 있다. 환자 레벨의 분류 모델 및 환자 레벨의 분할 모델의 견고성은 상술한 다른 외부 데이터 세트를 통해 작고 희미한 출혈로 인해 감지하기 어려운 케이스에 대하여 검증될 수 있다.
예시적으로, 데이터 세트는 높은 클래스 불균형을 갖는 5가지 유형(예: CPH, IVH, EDH, SDH 및 SAH)의 ICH 환자에 대한 데이터를 포함할 수 있다. 모든 종류의 ICH 클래스들은 환자 레벨의 분류 태스크(예: 바이너리 분류 태스크)를 위하여 하나의 클래스(예: ICH 클래스)로 통합될 수 있다. ICH 클래스들의 통합은 ICH에 대한 클래스 불균형을 해소할 수 있고, 기계 학습 모델은 응급 상황에서의 뇌출혈 여부에 집중할 수 있다.
ICH 환자의 분할 마스크(segmentation mask)의 라벨링은 14년 이상의 경험을 가진 3명의 선임 방사선과 전문의에 의하여 수행될 수 있다. 모든 CT 스캔들은 512×512 픽셀의 크기를 가질 수 있고, 다양한 깊이(depths)(예: CT 슬라이스의 개수)를 가질 수 있다.
4개의 ICH 데이터 세트(예: 내부 데이터 세트 및 3개의 외부 데이터 세트들)의 CT 스캔은 표 1과 같은 응급실의 비증강 NCCT 프로토콜에 따라 약 5.0mm 두께로 획득될 수 있다. 내부 데이터 세트의 깊이는 28보다 크거나 같고 50보다 작거나 같은 범위에 분포될 수 있고, 내부 데이터 세트의 슬라이스 개수의 평균은 38.89일 수 있다.
내부 데이터 세트는 AMC(Asan Medical Center)의 기관 윤리 위원회의 승인을 받은 데이터 세트를 나타낼 수 있다. 내부 데이터 세트의 CT 스캔은, 일정 시간 구간 동안(예: 2009년 9월부터 2017년 6월까지) 연속적으로 NCCT 검사를 받은 환자에 대해 데이터베이스를 후향적으로(retrospectively) 검색함으로써 획득될 수 있다. 획득된 CT 스캔의 임상 방사선 보고서에 기초하여, 내부 데이터 세트는 총 811명의 ICH 환자들 및 521명의 정상 환자들에 대응하는 데이터를 포함할 수 있다.
정상 비율이 높은 두 개의 외부 데이터 세트는 실제 임상 환경에서 모델을 검증하기 위하여 사용될 수 있다. 제1 외부 데이터 세트(External1)은 2018년 7월부터 2018년 10월까지 국내 노원을지병원에서 연속적으로 수집된 데이터를 나타낼 수 있다. 제2 외부 데이터 세트(External2)는 2019년 3월부터 2019년 6월까지 포항 뇌졸중 및 척추병원에서 연속적으로 수집된 데이터를 나타낼 수 있다. 제1 외부 데이터 세트 및 제2 외부 데이터 세트는 수동으로 선택되지 않을 수 있고, 제1 외부 데이터 세트 및 제2 외부 데이터 세트의 ICH 환자의 비율은 실제 임상에서의 발병률을 나타낼 수 있다.
제3 외부 데이터 세트(External3)는 희미한 소량의 출혈이 나타난 데이터 세트에서 모델의 성능을 확인하기 위해 이용될 수 있다. 예를 들어, 75건(예: 75개의 CT 스캔들)을 가지는 PhysioNet 1.3.1 버전의 공개 데이터 세트는 제3 외부 데이터 세트로 사용될 수 있다. 제3 외부 데이터 세트 중 ICH 환자의 2개의 CT 스캔들은 방사선 전문의에 의하여 품질이 좋지 않은 것으로 판단되어 제외될 수 있다. 제3 외부 데이터 세트(예: PhysioNet 데이터 세트)의 평균 ICH 부피는 15.10mL일 수 있다. 외부 데이터 세트에서 주로 소량의 뇌출혈이 관찰될 수 있다.
일 실시예에 따른 기계 학습 모델 및 비교 실시예에 따른 기계 학습 모델의 성능은 비교될 수 있다.
일 실시예에 따른 기계 학습 모델(예: 환자 레벨의 분류 모델 및 환자 레벨의 분할 모델)은 예시적으로, NVIDIA TITAN RTX 24GB GPU로 가속화된 Pytorch에서 구현될 수 있다.
전처리는 이미지(예: CT 슬라이스)에 40HU 너비, 140HU 수준의 브레인 윈도우(brain window)의 적용을 포함할 수 있다. 또한, Albummentation 라이브러리의 CLAHE(contrast limited adaptive histogram equalization)는 이미지의 콘트라스트(contrast)를 증가시키기 위해 적용될 수 있다. GPU 리소스의 제한으로 인해, 이미지는 선형 보간법을 통해 256×256의 크기로 축소될 수 있다.
데이터 증강(data augmentation)은 Albumentation 라이브러리 및 MONAI 프레임워크의 이용을 포함할 수 있다. 예를 들어, ICH의 이질성을 해결하기 위하여, ShiftScaleRotate, RandShiftIntensity, HorizontalFlip, Brightness-Contrast, Gauss Noise, 및 Blur와 같은 증강 기법이 이용될 수 있다.
설정(setting)은 배치 크기의 설정을 포함할 수 있다. 모든 실험들에서 배치 크기는 단일 GPU 메모리에 대해 최대로 설정될 수 있다. 따라서, 배치 크기는 모델에 따라 다를 수 있다. 일 실시예에 따른 기계 학습 모델 및 비교 실시예에 따른 기계 학습 모델은 유니폼 Xavier(uniform Xavier)에 의해 초기화될 수 있고, 5 Epoch의 워밍업, 5e-4의 가중치 감소 및 구간 (0.9, 0.999) 내의 베타를 사용하여 학습률이 1e-4인 Adam 옵티마이저를 이용하여 트레이닝될 수 있다. 학습률은 다음의 폴리 학습률 스케쥴에 따라 트레이닝 중에 감소될 수 있다: . 사전 학습의 에폭 수는 최대 1000일 수 있고, 학습 및 파인 튜닝(예: 다운스트림 태스크에 대한 학습)의 에폭 수는 최대 500일 수 있다. 그러나, 실험에 사용된 각 모델은 가장 높은 검증 점수를 기록한 수렴 모델일 수 있다.
일 실시예에 따른 기계 학습 모델 및 비교 실시예들에 따른 기계 학습 모델들 중 최고 성능을 갖는 모델은, 검증 데이터 세트에 대한 평가를 통해 결정될 수 있다. 검증 데이터 세트는 트레이닝 데이터 세트와 분리된 데이터 세트를 나타낼 수 있다. 일 실시예에 따른 기계 학습 모델 및 비교 실시예에 따른 기계 학습 모델에 대한 실험은, 동일한 트레이닝 설정(예: 입력 크기, 학습률, 옵티마이저(optimizer), 증강 조합(augmentation combinations) 등)에서 수행될 수 있다.
표 2는 일 실시예에 따른 환자 레벨의 분류 모델 및 비교 실시예에 따른 환자 레벨의 분류 모델 간의 성능의 비교를 나타낼 수 있다.
[표 2]
비교 실시예 1 내지 6에 따른 분류 모델은 종래 기술에 따른 분류 모델을 나타낼 수 있다. 비교 실시예 7 내지 14에 따른 분류 모델은 일 실시예에 따른 분류 모델을 기준으로 인코더의 사전 학습을 위한 다중 태스크 모델의 프리텍스트 태스크를 조정(예: 절제(ablation))한 모델을 나타낼 수 있다. 표 2의 데이터 세트의 평가 메트릭마다, 일 실시예 및 비교실시예들에 따른 분류 모델들 중에서, 밑줄체는 최대 값을 갖는 모델의 평가 메트릭을 나타내고, 볼드체는 두번째로 큰 값을 갖는 모델의 평가 메트릭을 나타낼 수 있다.
구체적으로, 비교 실시예 1에 따른 분류 모델은 논문 'A. Patel, S. C. Van De Leemput, M. Prokop, B. Van Ginneken, and R. Manniesing, "Image Level Training and Prediction: Intracranial Hemorrhage Identification in 3D Non-Contrast CT," (in English), Ieee Access, vol. 7, pp. 92355-92364, 2019, doi: 10.1109/Access.2019.2927792.'에 개시된 모델의 3 단계 학습의 풀 버전(full version)이고, 비교 실시예 2에 따른 분류 모델은 논문 'A. Patel, S. C. Van De Leemput, M. Prokop, B. Van Ginneken, and R. Manniesing, "Image Level Training and Prediction: Intracranial Hemorrhage Identification in 3D Non-Contrast CT," (in English), Ieee Access, vol. 7, pp. 92355-92364, 2019, doi: 10.1109/Access.2019.2927792.'에 개시된 모델의 심플 버전(simple version)이며, 비교 실시예 3에 따른 분류 모델은 논문 'S. P. Singh, L. Wang, S. Gupta, B. Gulyαs, and P. Padmanabhan, "Shallow 3D CNN for detecting acute brain hemorrhage from medical imaging sensors," IEEE Sensors Journal, 2020'에 개시되고, 비교 실시예 4에 따른 분류 모델은 Scratch 모델을 나타내며, 비교 실시예 5에 따른 분류 모델은 논문 'K. He, R. Girshick, and P. Dollαr, "Rethinking imagenet pre-training," in Proceedings of the IEEE/CVF International Conference on Computer Vision, 2019, pp. 4918-4927.'에 개시되고, 비교 실시예 6에 따른 분류 모델은 논문 'Z. Zhou, V. Sodha, J. Pang, M. B. Gotway, and J. Liang, "Models genesis," Medical image analysis, vol. 67, p. 101840, 2021'에 개시될 수 있다.
인코더의 사전 학습을 위한 최상의 다중 태스크 모델을 발견하기 위하여, 슬라이스 레벨의 분류 태스크, 분할 태스크, 복원 태스크, 및 일관성 손실의 모든 조합들에 대한 다중 태스크 모델들은 테스트될 수 있다.
비교 실시예 7(CLS로 표시될 수 있음)에 따른 분류 모델은 인코더의 사전 학습을 위하여 슬라이스 레벨의 분류 태스크를 수행하는 모델을 이용하는 모델을 나타내고, 비교 실시예 8(SEG로 표시될 수 있음)에 따른 분류 모델은 인코더의 사전 학습을 위하여 슬라이스 레벨의 분할 태스크를 수행하는 모델을 이용하는 모델을 나타내며, 비교 실시예 9(REC로 표시될 수 있음)에 따른 분류 모델은 인코더의 사전 학습을 위하여 슬라이스 레벨의 복원 태스크를 수행하는 모델을 이용하는 모델을 나타낼 수 있다.
비교 실시예 10(CLS+SEG로 표시될 수 있음)에 따른 분류 모델은 인코더의 사전 학습을 위하여 슬라이스 레벨의 분류 태스크 및 분할 태스크를 수행하는 모델을 이용하는 모델을 나타내고, 비교 실시예 11(CLS+REC로 표시될 수 있음)에 따른 분류 모델은 인코더의 사전 학습을 위하여 슬라이스 레벨의 분류 태스크 및 복원 태스크를 수행하는 모델을 이용하는 모델을 나타내며, 비교 실시예 12(SEG+REC로 표시될 수 있음)에 따른 분류 모델은 인코더의 사전 학습을 위하여 슬라이스 레벨의 분할 태스크 및 복원 태스크를 수행하는 모델을 이용하는 모델을 나타낼 수 있다.
비교 실시예 13(CLS+SEG+CON로 표시될 수 있음)에 따른 분류 모델은 인코더의 사전 학습을 위하여 슬라이스 레벨의 분류 태스크 및 분할 태스크를 수행하는 모델을 이용하고 일관성 손실을 가지는 목적 함수 값을 이용하여 사전 학습된 인코더를 포함하는 모델을 나타내고, 비교 실시예 14(CLS+SEG+REC로 표시될 수 있음)에 따른 분류 모델은 인코더의 사전 학습을 위하여 슬라이스 레벨의 분류 태스크, 분할 태스크, 및 복원 태스크를 수행하는 모델을 이용하는 모델을 나타낼 수 있다.
일 실시예에 따른 환자 레벨의 분류 모델 및 비교 실시예에 따른 분류 모델은 평가 메트릭(evaluation metric)을 이용하여 정량적으로 평가될 수 있다. 평가 메트릭 중 분류 태스크에 관한 평가 메트릭은, ROC 곡선 아래 면적(area under the ROC curve; AUC), 민감도(sensitivity; SEN), 특이성(specificity; SPE), 균형 정확도(balanced accuracy; B-ACC) 및 F1 점수(F1 score)를 포함할 수 있다.
여러가지 비교 실험들은 전이 학습의 환자 레벨의 분류 태스크로의 확장성 및 다중 태스크 학습의 효율성을 검증하기 위하여, 수행될 수 있다. 비교 실시예 1 내지 3은 종래 기술에 따른 분류 모델일 수 있고, 비교 실시예 5 및 6은 종래의 전이 학습을 이용한 분류 모델일 수 있다.
표 2는 각 데이터 세트에 대한 일 실시예 및 비교 실시예들의 성능을 나타낼 수 있다. 표 2의 상단(표 2에서, previous works)은 종래의 모델 및 전이 학습 접근법에 관한 비교 실시예들에 해당하고, 표 2의 하단(표 2에서, ablation studies)은 일 실시예에 따른 기계 학습 모델의 절제 연구(ablation study)에 관한 비교 실시예들에 해당할 수 있다.
일 실시예에 따른 환자 레벨의 분류 모델은 AUROC 점수 측면 및 외부 테스트 세트에서도 균형이 잘 잡혀 있고, 비교 실시예들에 따른 분류 모델의 대부분보다 훨씬 좋은 성능을 가질 수 있다. 또한 F1, B-ACC, SEN, SPE의 관점에서 일 실시예에 따른 분류 모델은 비교 실시예들에 따른 분류 모델보다 더 좋은 성능을 가질 수 있다. 특히, 비교 실시예 1 내지 3에 따른 분류 모델들은 외부 데이터 세트에서 불안정한 결과를 가질 수 있다. 일 실시예에 따른 분류 모델은 종래의 전이 학습을 이용한 비교 실시예에 따른 분류 모델에 비하여 대부분의 데이터 세트들에 대해 비교 실시예 5 및 6에 따른 분류 모델보다 훨씬 우수할 수 있다. 비교 실시예 5 및 6에 따른 분류 모델은 외부 데이터 세트에서도 불안정한 결과를 가질 수 있다.
도 8은 일 실시예에 따른 환자 레벨의 분류 모델 및 비교 실시예에 따른 분류 모델의 성능 비교를 나타낸다.
도 8에서, 일 실시예에 따른 환자 레벨의 분류 모델(도 8에서 MRI-Net으로 표시됨)의 ROC는 비교 실시예에 따른 환자 레벨의 분류 모델의 ROC와 비교될 수 있다. 통계적 유의성은 DeLong 등의 방법으로 결정될 수 있다. 0.05 미만의 p 밸류(p value)를 갖는 비교 실시예는 *로 표시되고, 0.01 미만의 p 밸류를 갖는 비교 실시예는 **로 표시되며, 0.001 미만의 p 밸류를 갖는 비교 실시예는 ***로 표시될 수 있다.
일 실시예에 따른 분류 모델의 AUC는 비교 실시예 1 내지 6에 따른 분류 모델들의 AUC보다 클 수 있다. 일 실시예에 따른 분류 모델 및 비교 실시예들의 분류 모델들 간의 차이는 내부 데이터 세트에 대한 ROC 그래프(810)에서보다 외부 데이터 세트에 대한 ROC 그래프(820, 830, 840)에서 더 두드러지게 나타날 수 있다.
도 9은 일 실시예에 따른 환자 레벨의 분류 모델 및 비교 실시예들에 따른 분류 모델 간의 차이 및 견고성을 나타낼 수 있다.
일 실시예에 따른 분류 모델의 인코더의 사전 학습에 관하여, 슬라이스 레벨의 다중 태스크 모델의 인코더를 환자 레벨의 분류 태스크로 확장시키기에 적합한 다중 태스크 모델의 프리텍스트 태스크를 획득하기 위하여, 프리텍스트 태스크의 모든 조합들에 대한 절제 연구는 수행될 수 있다. 분류 모델의 성능은 다중 태스크 모델의 프리텍스트 태스크의 조합에 의존할 수 있다.
표 2에서, 단일 태스크 모델을 이용하여 사전 학습된 인코더를 포함하는 비교 실시예들 중에서, 비교 실시예 7(CLS)에 따른 분류 모델는 4개의 데이터 세트들의 평균 F1으로 0.663의 값을 가지므로, 환자 레벨의 분류 태스크로 확장하는 데 가장 적합한 태스크일 수 있다. 듀얼 태스크(dual task) 모델을 이용하여 사전 학습된 인코더를 포함하는 비교 실시예들 중에서, 비교 실시예 11(CSL+REC)에 따른 분류 모델은 4개의 데이터 세트들의 평균 F1으로 0.766의 최고의 성능을 가질 수 있다. 비교 실시예 13 및 14 중에서, 비교 실시예 14(CLS+SEG+REC)에 따른 분류 모델은 4개의 데이터 세트들의 평균 F1으로 0.799을 가질 수 있다.
비교 실시예 10(CLS+SEG)에 따른 분류 모델과 비교 실시예 13(CLS+SEG+CON)에 따른 분류 모델은 비교될 수 있다. 비교 실시예 13(CLS+SEG+CON)에 따른 분류 모델은 일관성 손실을 더 이용함으로써 비교 실시예 10(CLS+SEG)에 따른 분류 모델보다 2.8% 만큼 증가된 F1 점수를 가질 수 있다. 일 실시예는 직접 트레이닝된 스크래치 모델의 비교 실시예 4에 따른 분류 모델에 비해, 21.1% 만큼 증가된 F1 점수, 13.1% 만큼 증가된 균형 정확도(B-ACC), 18.8% 만큼 증가된 민감도(SEN), 및 12.8% 만큼 증가된 특이성(SPE)을 가질 수 있다. 일 실시예에 따른 분류 모델은 3개의 태스크들 및 일관성 손실을 통해 가장 좋은 이득(gain)을 가질 수 있다.
표 3은 ICH 부피에 따른 환자 레벨의 분류 모델의 성능을 나타낸다.
[표 3]
일 실시예에 따른 분류 모델이 임상적으로 분류 시스템에 적용될 수 있는지 확인하기 위하여, 분류 모델의 ICH 유무 분류 성능(예: ICH 탐지 성능)은 분석될 수 있다. 분류 모델의 ICH 유무 분류 성능 중 30mL 이상의 ICH를 분류하는 성능은 사망률의 측면에서 중요할 수 있다. 표3에서 나타난 바와 같이, ICH 부피에 따른 ICH 환자 분류의 오류율은 분석될 수 있다. 일 실시예에 따른 분류 모델은, 내부 데이터 세트의 내부 테스트 세트 및 3개의 외부 데이터 세트들의 모든 30mL 이상의 ICH 클래스들을 분류할 수 있다. 분류 모델은, 내부 데이터 세트의 내부 테스트 세트 및 3개의 외부 데이터 세트들에서 각각 3.0%, 12.3%, 5.4% 및 25.6%의 위양성률(false positive rates)을 가질 수 있다. 분류 모델은, 또한 내부 테스트 세트 및 외부 데이터 세트들의 15mL 내지 30mL의 ICH 출혈을 갖는 환자들 모두를 완벽하게 분류할 수 있다. 다만, 분류 모델은 15mL 미만의 부피를 갖는 ICH 환자의 경우에서 위음성(false negative) 케이스를 가질 수 있다. 15mL 미만의 부피를 갖는 ICH 클래스의 복수의 이미지들에 대한 오류율은 내부 테스트 세트 및 3개의 외부 데이터 세트들에서 각각 7.1%, 16.6%, 44.4% 및 6.9%의 값을 가질 수 있다.
표 4는 일 실시예에 따른 환자 레벨의 분할 모델 및 비교 실시예에 따른 환자 레벨의 분할 모델 간의 성능의 비교를 나타낼 수 있다.
[표 4]
비교 실시예 4 내지 6 및 15 내지 17에 따른 분할 모델은 종래 기술에 따른 분할 모델을 나타낼 수 있다. 비교 실시예 7 내지 14에 따른 모델은 일 실시예에 따른 분할 모델을 기준으로 인코더의 사전 학습을 위한 다중 태스크 모델의 프리텍스트 태스크를 조정(예: 절제(ablation))한 모델을 나타낼 수 있다. 표 4의 데이터 세트의 평가 메트릭마다, 일 실시예 및 비교실시예들에 따른 분할 모델들 중에서, 밑줄체는 최대 값을 갖는 모델의 평가 메트릭을 나타내고, 볼드체는 두번째로 큰 값을 갖는 모델의 평가 메트릭을 나타낼 수 있다. 일 실시예에 따른 환자 레벨의 분할 모델과 비교 실시예들에 따른 분할 모델들 각각에 대하여 paired t-test가 수행될 수 있다. 0.05 미만의 p 밸류(p value)를 갖는 비교 실시예는 *로 표시되고, 0.01 미만의 p 밸류를 갖는 비교 실시예는 **로 표시되며, 0.001 미만의 p 밸류를 갖는 비교 실시예는 ***로 표시될 수 있다.
구체적으로, 비교 실시예 4에 따른 분할 모델은 Scratch 모델을 나타내며, 비교 실시예 5에 따른 분할 모델은 논문 'K. He, R. Girshick, and P. Dollαr, "Rethinking imagenet pre-training," in Proceedings of the IEEE/CVF International Conference on Computer Vision, 2019, pp. 4918-4927.'에 개시되고, 비교 실시예 6에 따른 분할 모델은 논문 'Z. Zhou, V. Sodha, J. Pang, M. B. Gotway, and J. Liang, "Models genesis," Medical image analysis, vol. 67, p. 101840, 2021'에 개시될 수 있다. 비교 실시예 15에 따른 분할 모델은 논문 'A. Patel et al., "Intracerebral Haemorrhage Segmentation in Non-Contrast CT," Sci Rep, vol. 9, no. 1, p. 17858, Nov 28 2019, doi: 10.1038/s41598-019-54491-6.'에 개시될 수 있고, 비교 실시예 16 및 17에 따른 분할 모델은 논문 'F. Isensee, P. F. Jaeger, S. A. Kohl, J. Petersen, and K. H. Maier-Hein, "nnU-Net: a self-configuring method for deep learning-based biomedical image segmentation," Nature methods, vol. 18, no. 2, pp. 203-211, 2021.'에 개시된 모델의 2D 버전 및 3D 버전의 모델을 나타낼 수 있다.
인코더의 사전 학습을 위한 최상의 다중 태스크 모델을 발견하기 위하여, 슬라이스 레벨의 분류 태스크, 분할 태스크, 복원 태스크, 및 일관성 손실의 모든 조합들에 대한 다중 태스크 모델들은 테스트될 수 있다.
비교 실시예 7(CLS로 표시될 수 있음)에 따른 분할 모델은 인코더의 사전 학습을 위하여 슬라이스 레벨의 분류 태스크를 수행하는 모델을 이용하는 모델을 나타내고, 비교 실시예 8(SEG로 표시될 수 있음)에 따른 분할 모델은 인코더의 사전 학습을 위하여 슬라이스 레벨의 분할 태스크를 수행하는 모델을 이용하는 모델을 나타내며, 비교 실시예 9(REC로 표시될 수 있음)에 따른 분할 모델은 인코더의 사전 학습을 위하여 슬라이스 레벨의 복원 태스크를 수행하는 모델을 이용하는 모델을 나타낼 수 있다.
비교 실시예 10(CLS+SEG로 표시될 수 있음)에 따른 분할 모델은 인코더의 사전 학습을 위하여 슬라이스 레벨의 분류 태스크 및 분할 태스크를 수행하는 모델을 이용하는 모델을 나타내고, 비교 실시예 11(CLS+REC로 표시될 수 있음)에 따른 분할 모델은 인코더의 사전 학습을 위하여 슬라이스 레벨의 분류 태스크 및 복원 태스크를 수행하는 모델을 이용하는 모델을 나타내며, 비교 실시예 12(SEG+REC로 표시될 수 있음)에 따른 분할 모델은 인코더의 사전 학습을 위하여 슬라이스 레벨의 분할 태스크 및 복원 태스크를 수행하는 모델을 이용하는 모델을 나타낼 수 있다.
비교 실시예 13(CLS+SEG+CON로 표시될 수 있음)에 따른 분할 모델은 인코더의 사전 학습을 위하여 슬라이스 레벨의 분류 태스크 및 분할 태스크를 수행하는 모델을 이용하고 일관성 손실을 가지는 목적 함수 값을 이용하여 사전 학습된 인코더를 포함하는 모델을 나타내고, 비교 실시예 14(CLS+SEG+REC로 표시될 수 있음)에 따른 분할 모델은 인코더의 사전 학습을 위하여 슬라이스 레벨의 분류 태스크, 분할 태스크, 및 복원 태스크를 수행하는 모델을 이용하는 모델을 나타낼 수 있다.
일 실시예에 따른 환자 레벨의 분할 모델 및 비교 실시예에 따른 분할 모델은 평가 메트릭(evaluation metric)을 이용하여 정량적으로 평가될 수 있다.
평가 메트릭 중 분할 태스크에 관한 평가 메트릭은, 다이스 유사성 계수(dice similarity coefficient; DSC)를 포함할 수 있다. 다이스 유사성 계수(DSC)는 양성 케이스(positive case)에 대하여만 측정되는 중첩 메트릭(overlap metric)을 나타낼 수 있다. 평가 메트릭 중 분할 태스크에 관한 평가 메트릭은, 위 양성 부피(False Positive Volumes; FPV)를 포함할 수 있다. 위 양성 부피(FPV)는, 정상 환자의 정상 영역 중에서 모델에 의하여 병변 영역으로 잘못 추출된 영역의 부피를 나타낼 수 있다. 정상 환자의 정상 영역은, 정상으로 라벨링된 환자에 관한 복수의 이미지들의 전체에 대응하는 영역을 나타낼 수 있다. 위 양성 부피(FPV)는 이미지의 픽셀을 부피(예: 단위 μL의 값)로 변환함으로써 획득될 수 있고, 임상적인 해석에서 환자의 공간 정보(spacing information)을 반영할 수 있다. 예를 들어, 위 양성 부피(FPV)는 다음과 같은 식에 따라 계산될 수 있다:
여기서, 는 환자 레벨의 분할 모델의 출력을 나타내고, spacing xyz 는 부피 단위로 변환하기 위한 CT 슬라이스의 메타 정보를 나타낼 수 있다.
분할 모델은 ICH 환자의 경우 다이스 유사성 계수(DSC) 및 정상 환자의 경우 위 양성 부피(FPV)로 평가될 수 있다. 분할 모델은, 다이스 유사성 계수(DSC) 및 위 양성 부피(FPV)로 모두 평가됨으로써 균형 잡힌 모델(balanced model)인지에 관하여 평가될 수 있다.
여러가지 비교 실험들은 전이 학습의 환자 레벨의 분할 태스크로의 확장성 및 다중 태스크 학습의 효율성을 검증하기 위하여 수행될 수 있다. 비교 실시예 15 내지 17은 종래 기술에 따른 분할 모델일 수 있고, 비교 실시예 5 및 6은 종래의 전이 학습을 이용한 분할 모델일 수 있다.
표 4는 각 데이터 세트에 대한 일 실시예 및 비교 실시예들의 성능을 나타낼 수 있다. 표 4의 상단(표 4에서, previous works)은 종래의 모델 및 전이 학습 접근법에 관한 비교 실시예들에 해당하고, 표 4의 하단(표 4에서, ablation studies)은 일 실시예에 따른 기계 학습 모델의 절제 연구(ablation study)에 관한 비교 실시예들에 해당할 수 있다.
일 실시예에 따른 분할 모델은 다이스 유사성 계수(DSC) 및 위 양성 부피(FPV) 측면에서, 내부 테스트 세트뿐만 아니라 외부 데이터 세트들에서도, 비교 실시예들에 따른 분할 모델의 대부분보다 훨씬 좋은 성능을 가질 수 있다.
일 실시예에 따른 분할 모델는, 비교 실시예 15에 따른 분할 모델에 비하여 4개의 데이터 세트들의 11.5%의 다이스 유사성 계수(DSC) 증가 및 75.8μL의 위 양성 부피(FPV)의 감소를 가질 수 있고, 대부분의 데이터 세트에 대하여 비교 실시예 15에 따른 분할 모델보다 훨씬 우수한 성능을 가질 수 있다.
비교 실시예 17에 따른 분할 모델은 데이터 세트에 따라 불안정한 결과를 가질 수 있다. 특히, 비교실시예 17에 따른 분할 모델은, 3D 컨볼루션 레이어 연산자(Conv3D Operator)를 갖는 패치 기반 방법의 과적합으로 인한 높은 민감도에도 불구하고 매우 높은 위 양성을 가질 수 있다. 비교 실시예 16에 따른 분할 모델은 높은 민감도를 가지지만 660 μL의 평균 위 양성 부피(FPV)를 가질 수 있다.
비교 실시에 16에 따른 분할 모델은 민감도 및 특이도가 비교 실시예 17에 따른 분할 모델보다는 더 균형잡힐 수 있다. 일 실시예에 따른 분할 모델은 비교 실시예 16에 따른 분할 모델보다 4 개의 데이터 세트에 대한 1.1%의 다이스 유사성 계수(DSC) 증가 및 75.8μL의 위 양성 부피(FPV)의 감소를 가질 수 있다.
전이 학습의 관점에서, 비교 실시예 5에 따른 분할 모델은 비교 실시예 6에 따른 분할 모델보다 민감하지만, 비교 실시예 6에 따른 분할 모델은 비교 실시예 5에 따른 분할 모델보다 위 양성 부피(FPV)의 감소에서 더 좋은 성능을 가질 수 있다. 일 실시예에 따른 환자 레벨의 분할 모델은 비교 실시예 5에 따른 분할 모델보다 2.1%의 다이스 유사성 계수(DSC) 증가를 가지고, 비교 실시예 6에 따른 분할 모델보다 50.4 μL의 위 양성 부피(FPV) 감소를 가질 수 있다. 일 실시예에 따른 분할 모델 및 비교 실시예 5에 따른 분할 모델의 성능들 간의 내부 데이터 세트에서 p 밸류는 0.05미만의 값을 가질 수 있고, 통계적 유의성을 가질 수 있다.
일 실시예에 따른 분할 모델의 인코더의 사전 학습에 관하여, 슬라이스 레벨의 다중 태스크 모델이 환자 레벨의 분할 태스크로 확장되기에 적합한 프리텍스트 태스크를 평가하기 위하여, 프리텍스트 태스크의 모든 조합들에 대한 절제 연구는 수행될 수 있다. 환자 레벨의 분할 모델의 성능은 프리텍스트 태스크의 조합에 의존할 수 있다.
표 4에서, 단일 태스크 모델을 이용하여 사전 학습된 인코더를 포함하는 비교 실시예들 중에서, 비교 실시예 8(SEG)에 따른 분할 모델이 4개의 데이터 세트들의 평균 다이스 유사성 계수(DSC)로 0.554의 값 및 위 양성 부피(FPV)로 22.1μL을 가지므로, 슬라이스 레벨의 분할 태스크는 환자 레벨의 분할 태스크로 확장하는 데 가장 적합한 태스크일 수 있다. 듀얼 태스크(dual task) 모델을 이용하여 사전 학습된 인코더를 포함하는 비교 실시예들 중에서, 비교 실시예 10(CLS+SEG)에 따른 분할 모델은 4개의 데이터 세트들의 평균 다이스 유사성 계수(DSC)의 최대 값 0.553을 가질 수 있고, 비교 실시예 11(CLS+REC)에 따른 분할 모델은 4개의 데이터 세트들의 평균 위 양성 부피(FPV)의 최소 값 15.6μL을 가질 수 있다.
비교 실시예 13 및 14 중에서, 비교 실시예 14(CLS+SEG+REC)에 따른 분할 모델은 4개의 데이터 세트들의 평균 다이스 유사성 계수(DSC)의 최대 값 0.557 및 평균 위 양성 부피(FPV)의 최소 값 6.8μL을 가질 수 있다.
비교 실시예 10(CLS+SEG)에 따른 분할 모델과 비교 실시예 13(CLS+SEG+CON)에 따른 분할 모델은 비교될 수 있다. 비교 실시예 13(CLS+SEG+CON)에 따른 분할 모델은 일관성 손실을 더 이용함으로써 비교 실시예 10(CLS+SEG)에 따른 분할 모델보다 0.4% 만큼 증가된 다이스 유사성 계수(DSC) 및 52.5μL만큼 감소된 위 양성 부피(FPV)를 가질 수 있다.
일 실시예에 따른 분할 모델은 직접 트레이닝된 스크래치 모델의 비교 실시예 4에 따른 분할 모델에 비해, 13.5% 만큼 증가된 다이스 유사성 계수(DSC), 21.8μL 만큼 감소된 위 양성 부피(FPV)를 가질 수 있다. 일 실시예에 분할 모델은 3개의 태스크들 및 일관성 손실로 가장 좋은 이득(gain)을 가질 수 있다.
도 10는 일 실시예 및 비교 실시예들에 따른 분할 모델의 결과를 나타낸다. 도 11은 일 실시예 및 비교 실시예들에 따른 분할 모델의 ICH 부피들을 나타낸다.
육안 검사(visual inspection)를 위하여, 중증 뇌출혈(severe brain hemorrhage), 경증 뇌출혈(mild brain hemorrhage), 빔 경화 인공물이 있는 정상 케이스(normal case with beam hardening artifact), 및 정상 케이스(normal case) 총 4가지 경우들에 대한 분할 모델의 성능은 비교될 수 있다.
일 실시예에 따른 분할 모델은 비교 실시예들에 따른 분할 모델보다 수치적으로 더 우수할 뿐만 아니라 중증 뇌출혈 및 경증 뇌출혈 모두에서 시각적으로도 더 우수할 수 있다. 특히, 정상 환자(예: 빔 경화 인공물이 있는 정상 케이스 및 정상 케이스 중 하나)의 경우 비교 실시예들에 따른 분할 모델들은 빔 경화 인공물에 민감하게 반응하지만, 일 실시예에 따른 분할 모델은 은 위 양성 부피(FPV)에 대하여 강건함을 가질 수 있다.
도 11에서 나타난 바와 같이, 일 실시예에 따른 분할 모델은 비교 실시예에 따른 분할 모델에 비해 정상 환자의 경우에 매우 큰 위 양성 부피(FPV) 감소 성능을 가질 수 있다. 일 실시예에 따른 분할 모델은 외부 데이터 세트에서도 비교 실시예에 따른 분할 모델보다 좋은 성능을 가질 수 있다.
3차원의 비조영두부 CT(NCCT)에 대하여 환자 레벨에서 ICH의 유무를 분류하고, 병변 영역(예: ICH 영역)을 분할하기 위한 다중 태스크 모델을 이용한 전이 학습 방법이 제안될 수 있다. 다중 태스크 모델을 이용한 전이 학습 방법은 외부 데이터 세트에 대한 높은 균형 잡힌 정확도 및 견고함을 갖고, 실제 임상 환경에서 환자 레벨의 ICH 태스크(예: 분류 및 분할)를 위해 적용될 가능성을 가질 수 있다. 일 실시예에 따른 환자 레벨의 분할 모델 및/또는 분류 모델의 인코더는 직접 트레이닝된 스크래치 모델보다 다양한 태스크들을 통해 다양한 관점에서 피처를 캡처하도록 트레이닝될 수 있다. 인코더는 4개의 태스크들의 프리텍스트 태스크를 위한 다중 태스크 모델을 이용하여 사전 훈련될 수 있다.
절제 연구를 통해, 다중 태스크 모델의 태스크 조합 및 대상 태스크(예: 환자 레벨의 분류 태스크, 환자 레벨의 분할 태스크)에 따라 기계 학습 모델의 적어도 일부의 전이가능성(transferability) 및 성능이 달라질 수 있는 것이 발견될 수 있다. 프리텍스트 태스크가 단일 태스크인 경우, 대상 태스크와 동일한 종류의 프리텍스트 태스크로 사전 훈련된 인코더가 대상 태스크를 위한 기계 학습 모델의 성능에 있어서 가장 효과적일 수 있다. 다만, 프리텍스트 태스크가 여러 태스크들인 경우, 인코더가 많은 태스크들에 의하여 함께 훈련될수록 인코더의 환자 레벨 태스크로의 전이가능성 및 대상 태스크에 대한 성능이 향상될 수 있고, 대상 태스크를 위한 모델은 실제 임상 환경 및 외부 데이터 세트에 대해 더 견고할 수 있다.
예를 들어, 슬라이스 레벨의 분류 태스크 및 복원 태스크(CLS+REC라고도 표시됨)는 듀얼 태스크를 이용하여 사전 학습된 인코더 중에서, 환자 레벨의 분류 모델에 대하여 최고 성능을 가지는 반면, 환자 레벨의 분할 모델에 대하여 최저 성능을 가질 수 있다. 일관성 손실(CON라고도 표시됨)은 슬라이스 레벨의 분류 태스크의 희소 예측 및 슬라이스 레벨의 분할 태스크의 밀집 예측 간의 균형을 맞출 수 있고, 환자 레벨의 분류 모델 및 분할 모델이 대상 태스크에 대해 균형을 이루고 정확해지도록 할 수 있다. Model Genesis 접근법에서 픽셀 단위 밀집 예측 태스크(예: 슬라이스 레벨의 분할 태스크, 슬라이스 레벨의 복원 태스크)를 위한 모델을 통해 사전 훈련된 인코더는, 환자 레벨의 분류 모델로의 낮은 전이가능성을 나타낼 수 있다. 특히, Model Genesis 접근법은 부정적인 전이 효과로 인하여, 스크래치 모델보다 환자 레벨의 분류 모델에서 더 낮은 성능을 가질 수 있다. 밀집 예측 태스크를 통해 표현 학습(representation learning)의 수행은 환자 레벨의 분류 태스크의 사전 학습에 적합하지 않을 수 있다. 쉽게 적용할 수 있는 ImageNet 접근법의 경우, ICH 감지를 위해 물체의 가장자리 및 텍스처와 같은 낮은 수준의 특징을 추출하는 것은 환자 레벨의 분류 모델 및 분할 모델 모두 스크래치 모델보다 성능이 우수할 수 있다.
이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 컨트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있으며 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.
위에서 설명한 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 또는 복수의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 이를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (17)

  1. 프로세서에 의하여 수행되는 방법에 있어서,
    트레이닝 입력 이미지에 기계 학습 모델의 인코더(encoder)를 적용함으로써 피처 맵(feature map)을 추출하는 단계;
    상기 피처 맵에 상기 기계 학습 모델의 범용 분류 모듈을 적용함으로써 상기 트레이닝 입력 이미지에 병변(lesion)이 나타날 제1 가능성 점수(possibility score)를 획득하는 단계;
    상기 피처 맵에 상기 기계 학습 모델의 범용 분할 모듈을 적용함으로써 상기 트레이닝 입력 이미지로부터 병변 영역을 추출하는 단계;
    상기 획득된 제1 가능성 점수 및 상기 추출된 병변 영역에 기초하여, 상기 범용 분류 모듈 및 상기 범용 분할 모듈의 출력들 간의 일관성(consistency)을 나타내는, 일관성 손실(consistency loss)을 가지는 목적함수 값을 계산하는 단계; 및
    상기 계산된 목적함수 값을 이용하여 상기 기계 학습 모델의 파라미터를 업데이트하는 단계
    를 포함하는 방법.

  2. 제1항에 있어서,
    상기 목적함수 값을 계산하는 단계는,
    상기 범용 분류 모듈에 관한 분류 손실(classification loss) 및 상기 범용 분할 모듈에 관한 분할 손실(segmentation loss)을 더 가지는 상기 목적함수 값을 계산하는 단계를 포함하는,
    방법.
  3. 제1항에 있어서,
    상기 목적함수 값을 계산하는 단계는,
    상기 추출된 병변 영역을 이용하여 상기 트레이닝 입력 이미지에 병변이 나타날 제2 가능성 점수를 획득하는 단계; 및
    상기 제1 가능성 점수 및 상기 제2 가능성 점수 간의 차이에 기초하여 상기 일관성 손실을 계산하는 단계를 포함하는,
    방법.
  4. 제3항에 있어서,
    상기 제2 가능성 점수를 획득하는 단계는,
    상기 추출된 병변 영역에 평균 풀링 레이어(average pooling layer) 및 최대 풀링 레이어(max pooling layer) 중 적어도 하나를 적용함으로써 상기 제2 가능성 점수를 획득하는 단계를 포함하는,
    방법.
  5. 제3항에 있어서,
    상기 일관성 손실을 계산하는 단계는,
    상기 제1 가능성 점수 및 상기 제2 가능성 점수의 차이의 제곱(square)을 계산하는 단계; 및
    배치(batch)에 포함된 이미지들 각각에 대하여 계산된 상기 제1 가능성 점수 및 상기 제2 가능성 점수의 차이의 제곱을 평균함으로써 상기 일관성 손실을 계산하는 단계를 포함하는,
    방법.
  6. 제1항에 있어서,
    상기 피처 맵에 상기 기계 학습 모델의 복원 모듈을 적용함으로써 상기 피처 맵으로부터 복원 이미지(reconstruction image)를 획득하는 단계
    를 더 포함하고,
    상기 목적함수 값을 계산하는 단계는,
    상기 트레이닝 입력 이미지 및 상기 복원 이미지에 기초하여 상기 복원 모듈에 관한 복원 손실(reconstruction loss)을 계산하는 단계를 포함하는,
    방법.
  7. 제6항에 있어서,
    상기 복원 손실을 계산하는 단계는,
    상기 트레이닝 입력 이미지의 픽셀 및 상기 트레이닝 입력 이미지의 상기 픽셀에 대응하는 상기 복원 이미지의 픽셀 간의 강도(intensity) 차이의 평균 절대 오차(mean absolute error) 값을 계산하는 단계를 포함하는,
    방법.
  8. 제1항에 있어서,
    상기 기계 학습 모델의 상기 인코더 및 상기 인코더에 연결되는 환자 레벨(patient level)의 분류 모듈(classification module)을 포함하는 분류 모델을 생성하는 단계;
    트레이닝 데이터 세트의 대상 환자에 대한 CT 촬영에 기초하여 획득된 복수의 이미지들에 상기 분류 모델의 상기 인코더를 적용함으로써 복수의 피처 맵들을 획득하는 단계;
    상기 획득된 복수의 피처 맵들에 상기 환자 레벨의 분류 모듈을 적용함으로써 상기 복수의 이미지들 중 적어도 한 이미지에 병변이 나타날 가능성 점수를 획득하는 단계; 및
    상기 복수의 이미지들에 대한 가능성 점수 및 상기 트레이닝 데이터 세트에서 상기 복수의 이미지들에 대해 매핑된 참값 클래스를 이용하여 계산된 목적 함수 값에 기초하여 상기 분류 모델의 파라미터를 업데이트하는 단계
    를 포함하는 방법.
  9. 제8항에 있어서,
    상기 복수의 피처 맵들을 획득하는 단계는,
    상기 복수의 이미지들 각각에 상기 분류 모델의 상기 인코더를 적용함으로써 피처 맵을 획득하는 것을 반복하는 단계를 포함하는,
    방법.
  10. 제8항에 있어서,
    상기 분류 모델의 파라미터를 업데이트하는 단계는,
    트레이닝 반복들 중 적어도 일부 반복(iteration)에서 상기 분류 모델의 인코더의 파라미터를 고정한 채로 상기 환자 레벨의 분류 모듈의 파라미터를 업데이트하는 단계; 및
    상기 트레이닝 반복들 중 다른 반복에서 상기 분류 모델의 인코더의 파라미터의 고정을 해제하고, 상기 분류 모델의 인코더 및 상기 환자 레벨의 분류 모듈의 파라미터를 업데이트하는 단계를 포함하는,
    방법.
  11. 제1항에 있어서,
    상기 기계 학습 모델의 상기 인코더 및 상기 인코더에 연결되는 디코더(decoder)와 환자 레벨(patient level)의 분할 모듈(segmentation module)을 포함하는 분할 모델을 생성하는 단계;
    트레이닝 데이터 세트의 대상 환자에 대한 CT 촬영에 기초하여 획득된 복수의 이미지들에 상기 인코더 및 상기 디코더를 적용함으로써 복수의 피처 맵들을 획득하는 단계;
    상기 획득된 복수의 피처 맵들에 상기 환자 레벨의 분할 모듈을 적용함으로써 상기 복수의 이미지들로부터 병변 영역을 추출하는 단계; 및
    상기 추출된 병변 영역 및 상기 트레이닝 데이터 세트에서 상기 복수의 이미지들에 매핑된 참값 병변 영역을 이용하여 계산된 목적 함수 값에 기초하여 상기 분할 모델의 파라미터를 업데이트하는 단계
    를 더 포함하는 방법.
  12. 제11항에 있어서,
    상기 복수의 피처 맵들을 획득하는 단계는,
    상기 복수의 이미지들 각각에 상기 분할 모델의 상기 인코더 및 상기 디코더를 적용함으로써 피처 맵을 획득하는 것을 반복하는 단계를 포함하는,
    방법.
  13. 제11항에 있어서,
    상기 분할 모델의 파라미터를 업데이트하는 단계는,
    트레이닝 반복들 중 적어도 일부 반복(iteration)에서 상기 분할 모델의 인코더의 파라미터를 고정한 채로 상기 환자 레벨의 분할 모듈의 파라미터를 업데이트하는 단계; 및
    상기 트레이닝 반복들 중 다른 반복에서 상기 분할 모델의 인코더의 파라미터의 고정을 해제하고, 상기 분할 모델의 인코더 및 상기 환자 레벨의 분할 모듈의 파라미터를 업데이트하는 단계를 포함하는,
    방법.
  14. 하드웨어와 결합되어 제1항 내지 제13항 중 어느 하나의 항의 방법을 실행시키기 위하여 컴퓨터 판독 가능한 기록매체에 저장된 컴퓨터 프로그램.
  15. 전자 장치에 있어서,
    트레이닝 입력 이미지에 기계 학습 모델의 인코더(encoder)를 적용함으로써 피처 맵(feature map)을 추출하고, 상기 피처 맵에 상기 기계 학습 모델의 범용 분류 모듈을 적용함으로써 상기 트레이닝 입력 이미지에 병변(lesion)이 나타날 제1 가능성 점수(possibility score)를 획득하며, 상기 피처 맵에 상기 기계 학습 모델의 범용 분할 모듈을 적용함으로써 상기 트레이닝 입력 이미지로부터 병변 영역을 추출하고, 상기 획득된 제1 가능성 점수 및 상기 추출된 병변 영역에 기초하여, 상기 범용 분류 모듈 및 상기 범용 분할 모듈의 출력들 간의 일관성(consistency)을 나타내는, 일관성 손실(consistency loss)을 가지는 목적함수 값을 계산하며, 상기 계산된 목적함수 값을 이용하여 상기 기계 학습 모델의 파라미터를 업데이트하는 프로세서
    를 포함하는 전자 장치.
  16. 제15항에 있어서,
    상기 프로세서는,
    상기 기계 학습 모델의 상기 인코더 및 상기 인코더에 연결되는 환자 레벨(patient level)의 분류 모듈(classification module)을 포함하는 분류 모델을 생성하고,
    트레이닝 데이터 세트의 대상 환자에 대한 CT 촬영에 기초하여 획득된 복수의 이미지들에 상기 분류 모델의 상기 인코더를 적용함으로써 복수의 피처 맵들을 획득하며,
    상기 획득된 복수의 피처 맵들에 상기 환자 레벨의 분류 모듈을 적용함으로써 상기 복수의 이미지들 중 적어도 한 이미지에 병변이 나타날 가능성 점수를 획득하고,
    상기 복수의 이미지들에 대한 가능성 점수 및 상기 트레이닝 데이터 세트에서 상기 복수의 이미지들에 대해 매핑된 참값 클래스를 이용하여 계산된 목적 함수 값에 기초하여 상기 분류 모델의 파라미터를 업데이트하는,
    전자 장치.
  17. 제15항에 있어서,
    상기 프로세서는,
    상기 기계 학습 모델의 상기 인코더 및 상기 인코더에 연결되는 디코더(decoder)와 환자 레벨(patient level)의 분할 모듈(segmentation module)을 포함하는 분할 모델을 생성하고,
    트레이닝 데이터 세트의 대상 환자에 대한 CT 촬영에 기초하여 획득된 복수의 이미지들에 상기 인코더 및 상기 디코더를 적용함으로써 복수의 피처 맵들을 획득하며,
    상기 획득된 복수의 피처 맵들에 상기 환자 레벨의 분할 모듈을 적용함으로써 상기 복수의 이미지들로부터 병변 영역을 추출하고,
    상기 추출된 병변 영역 및 상기 트레이닝 데이터 세트에서 상기 복수의 이미지들에 매핑된 참값 병변 영역을 이용하여 계산된 목적 함수 값에 기초하여 상기 분할 모델의 파라미터를 업데이트하는,
    전자 장치.
KR1020220037668A 2022-03-25 2022-03-25 기계 학습 모델 기반의 ct 영상을 분류 및 분할하기 위한 방법 및 장치 KR20230139257A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220037668A KR20230139257A (ko) 2022-03-25 2022-03-25 기계 학습 모델 기반의 ct 영상을 분류 및 분할하기 위한 방법 및 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220037668A KR20230139257A (ko) 2022-03-25 2022-03-25 기계 학습 모델 기반의 ct 영상을 분류 및 분할하기 위한 방법 및 장치

Publications (1)

Publication Number Publication Date
KR20230139257A true KR20230139257A (ko) 2023-10-05

Family

ID=88293915

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220037668A KR20230139257A (ko) 2022-03-25 2022-03-25 기계 학습 모델 기반의 ct 영상을 분류 및 분할하기 위한 방법 및 장치

Country Status (1)

Country Link
KR (1) KR20230139257A (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230144087A (ko) * 2021-03-29 2023-10-13 미쓰비시덴키 가부시키가이샤 학습 장치

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230144087A (ko) * 2021-03-29 2023-10-13 미쓰비시덴키 가부시키가이샤 학습 장치

Similar Documents

Publication Publication Date Title
EP3553742B1 (en) Method and device for identifying pathological picture
US10991100B2 (en) Disease detection algorithms trainable with small number of positive samples
CN110599476B (zh) 基于机器学习的疾病分级方法、装置、设备及介质
CN111325739B (zh) 肺部病灶检测的方法及装置,和图像检测模型的训练方法
Roth et al. Detection of sclerotic spine metastases via random aggregation of deep convolutional neural network classifications
Sert et al. Ensemble of convolutional neural networks for classification of breast microcalcification from mammograms
Singh et al. A quantum-clustering optimization method for COVID-19 CT scan image segmentation
Ashwin et al. Efficient and reliable lung nodule detection using a neural network based computer aided diagnosis system
CN112581458B (zh) 一种图像处理方法和装置
US11830187B2 (en) Automatic condition diagnosis using a segmentation-guided framework
US20210145389A1 (en) Standardizing breast density assessments
Liu et al. A vessel-focused 3D convolutional network for automatic segmentation and classification of coronary artery plaques in cardiac CTA
Maity et al. Automatic lung parenchyma segmentation using a deep convolutional neural network from chest X-rays
Appan K et al. Retinal image synthesis for cad development
Zhou et al. Mammogram classification using convolutional neural networks
Major et al. Interpreting medical image classifiers by optimization based counterfactual impact analysis
KR20230139257A (ko) 기계 학습 모델 기반의 ct 영상을 분류 및 분할하기 위한 방법 및 장치
Teng et al. Identifying regions of interest in medical images using self-organizing maps
Sangeetha et al. Diagnosis of pneumonia using image recognition techniques
Bhatnagar et al. Classification of normal and abnormal images of lung cancer
Chaudhury et al. Using features from tumor subregions of breast dce-mri for estrogen receptor status prediction
Kaya et al. Implementation of CNN based COVID-19 classification model from CT images
Wen et al. A novel lesion segmentation algorithm based on U-Net network for Tuberculosis CT image
Tallapragada et al. A novel COVID diagnosis and feature extraction based on discrete wavelet model and classification using X-ray and CT images
US11875898B2 (en) Automatic condition diagnosis using an attention-guided framework