KR20230106359A - 컴퓨팅 장치가 이미지 데이터에 대한 분류 정보를 출력하는 방법 및 이를 위한 장치 - Google Patents

컴퓨팅 장치가 이미지 데이터에 대한 분류 정보를 출력하는 방법 및 이를 위한 장치 Download PDF

Info

Publication number
KR20230106359A
KR20230106359A KR1020220002160A KR20220002160A KR20230106359A KR 20230106359 A KR20230106359 A KR 20230106359A KR 1020220002160 A KR1020220002160 A KR 1020220002160A KR 20220002160 A KR20220002160 A KR 20220002160A KR 20230106359 A KR20230106359 A KR 20230106359A
Authority
KR
South Korea
Prior art keywords
classification
model
local
attention
information
Prior art date
Application number
KR1020220002160A
Other languages
English (en)
Inventor
박창현
오현우
이동수
정우석
김진영
Original Assignee
주식회사 뷰노
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 뷰노 filed Critical 주식회사 뷰노
Priority to KR1020220002160A priority Critical patent/KR20230106359A/ko
Publication of KR20230106359A publication Critical patent/KR20230106359A/ko

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/40Detecting, measuring or recording for evaluating the nervous system
    • A61B5/4076Diagnosing or monitoring particular conditions of the nervous system
    • A61B5/4088Diagnosing of monitoring cognitive diseases, e.g. Alzheimer, prion diseases or dementia
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • G06V10/765Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects using rules for classification or partitioning the feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/20ICT specially adapted for the handling or processing of patient-related medical or healthcare data for electronic clinical trials or questionnaires
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Public Health (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Primary Health Care (AREA)
  • Multimedia (AREA)
  • Neurology (AREA)
  • Epidemiology (AREA)
  • Pathology (AREA)
  • Data Mining & Analysis (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Psychology (AREA)
  • Psychiatry (AREA)
  • Veterinary Medicine (AREA)
  • Physiology (AREA)
  • Computational Linguistics (AREA)
  • Surgery (AREA)
  • Neurosurgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • General Engineering & Computer Science (AREA)
  • Animal Behavior & Ethology (AREA)
  • Mathematical Physics (AREA)
  • Hospice & Palliative Care (AREA)
  • Developmental Disabilities (AREA)
  • Child & Adolescent Psychology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)

Abstract

다양한 실시예에 따른 컴퓨팅 장치가 컴퓨팅 장치가 이미지 데이터에 대한 분류 정보 및 임상 정보를 출력하는 방법 및 이를 위한 장치가 개시된다. 상기 이미지 데이터로부터 특징 맵 및 로컬 특징들을 추출하는 단계, 상기 특징 맵을 지역화 모델에 입력하여 상기 이미지 데이터의 이미지 영역을 제1 로컬 영역들로 지역화한 어텐션 맵 (attention map)을 출력하는 단계, 및 분류 모델 및 예측 모델 각각에 상기 로컬 특징들 및 상기 어텐션 맵을 입력하여 상기 분류 모델의 분류 정보 및 상기 예측 모델의 임상 정보를 출력하는 단계를 포함하고, 상기 어텐션 맵은 상기 제1 로컬 영역들 각각에 대해 예측된 어텐션 값을 포함하는 방법 및 이를 위한 장치가 개시된다.

Description

컴퓨팅 장치가 이미지 데이터에 대한 분류 정보를 출력하는 방법 및 이를 위한 장치 {A method for a computing device to output classification information for image data and an apparatus therefor}
컴퓨팅 장치가 이미지 데이터에 대한 분류 정보, 임상 정보 및 지역화 정보를 출력하는 방법 및 이를 위한 장치에 대한 것이다.
알츠하이머(AD, Alzheimer) 질병은 기억, 사고 및 행동에 문제를 일으키는 치매의 한 유형으로 뇌신경의 죽음으로 이어지고 뇌량을 감소시켜 심각한 기억 상실을 발생할 수 있다. 많은 사람이 알츠하이머 질병을 앓고 있으나 알츠하이머 질병에 대하여 충분한 효능 및 안정성을 가진 약물 및 치료방법은 아직 보고되지 않고 있다. 따라서, 알츠하이머 질병의 초기 단계에 있는 환자를 조기에 진단함으로써 중증으로 발전하는 것을 방지하는 것이 중요하다.
이와 같은 조기 진단은 신경망 모델에 기반한 뇌에 대한 의료 이미지에 대한 분류, 객체 검출, 객체 경계의 추출, 서로 다른 영상의 정합을 통해 수행될 수 있다. 여기서, 신경망 모델(Neural Network model)은 생물학에서의 뉴런 구조로부터 착안된 지도 학습(supervised learning) 알고리즘이다. 신경망 모델의 기본적인 작동 원리는 여러 개의 뉴런들을 상호 연결하여 입력값에 대한 최적의 출력값을 예측하는 것이다. 통계적인 관점에서 보면 신경망 모델은 입력 변수의 선형 결합에 비선형 함수를 취하는 사영추적회귀로 볼 수 있다. 특히, 의료 이미지에서의 상술한 객체 등 특징의 추출은 컨볼루션 신경망(Convolution neural networks; CNN)가 가장 많이 활용되고 있다.
해결하고자 하는 과제는 컴퓨팅 장치가 분류 모델, 예측 모델 및 지역화 모델을 이용하여 각 태스크의 이미지 레벨 예측에서 각 로컬 영역의 기여도가 추가적으로 표현된 분류 정보 및 임상 정보를 제공하는 것이다.
기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
상기한 바와 같은 본 발명의 목적을 달성하고, 후술하는 본 발명의 특징적인 효과를 실현하기 위한 본 발명의 특징적인 구성은 하기와 같다.
일 측면에 따른, 컴퓨팅 장치가 이미지 데이터에 대한 분류 정보 및 임상 정보를 출력하는 방법은 상기 이미지 데이터로부터 특징 맵 및 로컬 특징들을 추출하는 단계, 상기 특징 맵을 지역화 모델에 입력하여 상기 이미지 데이터의 이미지 영역을 제1 로컬 영역들로 지역화한 어텐션 맵 (attention map)을 출력하는 단계, 및 분류 모델 및 예측 모델 각각에 상기 로컬 특징들 및 상기 어텐션 맵을 입력하여 상기 분류 모델의 분류 정보 및 상기 예측 모델의 임상 정보를 출력하는 단계를 포함하고, 상기 어텐션 맵은 상기 제1 로컬 영역들 각각에 대해 예측된 어텐션 값을 포함할 수 있다.
또는, 상기 어텐션 값은 상기 제1 로컬 영역들 각각이 상기 분류 정보 및 상기 임상 정보의 예측에 기여한 정도 또는 중요도를 예측한 확률 값인 것을 특징으로 한다.
또는, 상기 로컬 특징들은 상기 특징 맵에 기초하여 상기 이미지 영역의 제2 로컬 영역들 각각에 대해 추출되는 것을 특징으로 한다.
또는, 상기 분류 모델은 상기 로컬 특징들에 기초하여 상기 제2 로컬 영역들 각각에 대응하는 로컬 분류 값들을 산출하는 것을 특징으로 한다.
또는, 상기 분류 모델은 상기 어텐션 맵에 기반하여 상기 로컬 분류 값들 각각에 대응하는 어텐션 값을 적용하여 상기 분류 정보를 출력하는 것을 특징으로 한다.
또는, 상기 분류 모델은 상기 로컬 분류 값들에 대해 상기 어텐션 맵에 기반한 어텐션 풀링을 수행하여 상기 분류 정보를 출력하는 것을 특징으로 한다.
또는, 상기 예측 모델은 상기 로컬 특징들에 기초하여 상기 제2 로컬 영역들에 대한 로컬 임상 값들을 산출하고, 상기 로컬 임상 값들에 대해 상기 어텐션 맵에 기반한 어텐션 풀링을 수행하여 상기 임상 정보를 출력하는 것을 특징으로 한다.
또는, 상기 제2 로컬 영역들은 상기 제1 로컬 영역들과 대응하는 것을 특징으로 한다.
또는, 상기 분류 모델은 상기 어텐션 맵을 이용하여 각 제1 로컬 영역이 상기 분류 정보의 이미지 레벨 예측에 기여한 정도를 표현한 제1 히트맵을 더 출력하고, 상기 예측 모델은 상기 어텐션 맵을 이용하여 상기 각 제1 로컬 영역이 상기 임상 정보의 이미지 레벨 예측에 기여한 정도를 표현한 제2 히트맵을 더 출력하는 것을 특징으로 한다.
또는, 상기 분류 모델, 상기 예측 모델 및 상기 지역화 모델은 복수의 학습 이미지들을 포함하는 학습 레이블 데이터에 기반하여 동시 학습된 것을 특징으로 한다.
또는, 상기 컴퓨팅 장치는 각 학습 이미지에 대한 상기 분류 정보 및 분류 레이블 정보에 기초하여 산출된 제1 손실 값, 상기 각 학습 이미지에 대한 상기 임상 정보 및 임상 레이블 정보에 기초하여 산출된 제2 손실 값이 최소화되도록 상기 분류 모델, 상기 예측 모델 및 상기 지역화 모델을 학습시키는 것을 특징으로 한다.
또는, 상기 컴퓨팅 장치는 상기 복수의 학습 이미지들에 대해 출력된 상기 어텐션 맵들 간의 차이인 로컬 손실 값을 추가적으로 고려하여 상기 분류 모델, 상기 예측 모델 및 상기 지역화 모델의 학습을 규제하는 것을 특징으로 한다.
또는, 상기 분류 모델은 AD (Alzheimer's disease)에 대한 분류 정보를 출력하는 AD 분류 모델이고, 상기 예측 모델은 상기 AD와 관련성이 높은 MTA (medial temporal lobe atrophy)에 대한 임상 정보를 출력하는 MTA 예측 모델인 것을 특징으로 한다.
다른 측면에 따른, 이미지 데이터에 대한 분류 정보를 출력하는 컴퓨팅 장치는 통신부, 및 상기 통신부와 연결되는 프로세서를 포함하고, 상기 프로세서는 상기 이미지 데이터로부터 특징 맵 및 로컬 특징들을 추출하고, 상기 특징 맵을 지역화 모델에 입력하여 상기 이미지 데이터의 이미지 영역을 제1 로컬 영역들로 지역화한 어텐션 맵 (attention map)을 출력하며, 분류 모델 및 예측 모델 각각에 상기 로컬 특징들 및 상기 어텐션 맵을 입력하여 상기 분류 모델의 분류 정보 및 상기 예측 모델의 임상 정보를 출력하고, 상기 어텐션 맵은 상기 제1 로컬 영역들 각각에 대해 예측된 어텐션 값을 포함할 수 있다.
다양한 실시예들은 컴퓨팅 장치는 분류 모델, 예측 모델 및 지역화 모델을 이용하여 각 태스크의 이미지 레벨 예측에서 각 로컬 영역의 기여도가 추가적으로 표현된 분류 정보 및 임상 정보를 출력하여 상기 분류 정보 및 상기 임상 정보에 대한 설명력을 크게 향상시킬 수 있다.
또한, 컴퓨팅 장치는 분류 모델, 예측 모델 및 지역화 모델을 공동으로 학습시켜 상기 분류 모델, 상기 예측 모델 및 상기 지역화 모델이 일반화 가능성이 높은 지역화 정보, 정확도 높고 견고한 분류 정보 및 예측 정보를 출력하도록 학습시킬 수 있다.
다양한 실시예에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 명세서에 첨부되는 도면은 본 발명에 대한 이해를 제공하기 위한 것으로서 본 발명의 다양한 실시형태들을 나타내고 명세서의 기재와 함께 본 발명의 원리를 설명하기 위한 것이다.
본 명세서에 첨부되는 도면은 본 발명에 대한 이해를 제공하기 위한 것으로서 본 발명의 다양한 실시형태들을 나타내고 명세서의 기재와 함께 본 발명의 원리를 설명하기 위한 것이다.
도 1은 MRI 장치를 이용하여 획득한 이미지 데이터인 MRI들을 설명하기 위한 도면이다.
도 2은 인공 신경망을 이용하여 이미지 데이터에 대한 분류 정보를 출력하는 컴퓨팅 장치를 설명하기 위한 도면이다.
도 3은 컴퓨팅 장치가 분류 모델 및 예측 모델을 학습시키는 방법을 설명하기 위한 도면이다.
도 4는 이미지 영역을 지역화시키는 지역화 모델을 설명하기 위한 도면이다.
도 5는 일 예에 따른 이미지 영역을 지역화시키는 지역화 모델의 세부적 구조를 도시한 블록도이다.
도 6은 컴퓨팅 장치가 상기 분류 모델, 상기 예측 모델 및 지역화 모델을 학습시키는 방법을 설명하기 위한 도면이다.
도 7은 컴퓨팅 장치가 지역화 모델, AD 분류 모델 및 MTA 예측 모델을 학습시키는 방법을 설명하기 위한 도면이다.
도 8은 어텐션 분류부의 동작을 설명하기 위한 도면이다.
도 9는 컴퓨팅 장치가 입력된 이미지 데이터에 대한 분류 정보를 출력하는 방법을 설명하기 위한 도면이다.
후술하는 본 발명에 대한 상세한 설명은, 본 발명의 목적들, 기술적 해법들 및 장점들을 분명하게 하기 위하여 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 통상의 기술자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다.
본 명세서의 상세한 설명 및 청구항들에 걸쳐 이용된 "영상" 또는 "영상 데이터"라는 용어는 이산적 영상 요소들(예컨대, 2차원 영상에 있어서는 픽셀, 3차원 영상에 있어서는 복셀)로 구성된 다차원 데이터를 지칭한다.
예를 들어 "영상"은 현미경을 이용하여 관찰되는 소정 조직에 대한 슬라이드에 대응하는 2차원 영상을 의미할 수 있으나, "영상"은 이에 한정되는 것이 아니고, (콘-빔형; cone-beam) 전산화 단층 촬영(computed tomography), MRI(magnetic resonance imaging), 초음파 또는 본 발명의 기술분야에서 공지된 임의의 다른 의료 영상 시스템의 의하여 수집된 피검체(subject)의 의료 영상일 수 있다. 또한 영상은 비의료적 맥락에서 제공될 수도 있는바, 예를 들어 원격 감지 시스템(remote sensing system), 전자현미경(electron microscopy) 등등이 있을 수 있다.
본 명세서의 상세한 설명 및 청구항들에 걸쳐, '영상'은 (예컨대, 화면에 표시된) 눈으로 볼 수 있는 영상 또는 영상의 디지털 표현물을 지칭하는 용어이다.
설명의 편의를 위하여 제시된 도면에서는 슬라이드 영상 데이터가 예시적 영상 형식(modality)인 것으로 도시되었다. 그러나 통상의 기술자는 본 발명의 다양한 실시예에서 이용되는 영상 형식들이 X선 영상, MRI, CT, PET(positron emission tomography), PET-CT, SPECT, SPECT-CT, MR-PET, 3D 초음파 영상 등등을 포함하나 예시적으로 열거된 형식에 한정되지 않는다는 점을 이해할 수 있을 것이다.
본 명세서의 상세한 설명 및 청구항들에 걸쳐 설명되는 의료 영상은 'DICOM(Digital Imaging and Communications in Medicine; 의료용 디지털 영상 및 통신)' 표준에 따를 수 있다. DICOM 표준은 의료용 기기에서 디지털 영상 표현과 통신에 이용되는 여러 가지 표준을 총칭하는 용어인바, DICOM 표준은 미국 방사선 의학회(ACR)와 미국 전기 공업회(NEMA)에서 구성한 연합 위원회에서 발표한다.
또한, 본 명세서의 상세한 설명 및 청구항들에 걸쳐 설명되는 의료 영상은 '의료영상 저장 전송 시스템(PACS; Picture Archiving and Communication System)'을 통해 저장되거나 전송될 수 있으며, 의료영상 저장 전송 시스템은 DICOM 표준에 맞게 의료 영상을 저장, 가공, 전송하는 시스템일 수 있다. X선, CT, MRI와 같은 디지털 의료영상 장비를 이용하여 획득된 의료영상은 DICOM 형식으로 저장되고 네트워크를 통하여 병원 내외의 단말로 전송이 가능하며, 이에는 관찰 결과 및 진료 기록이 추가될 수 있다.
그리고 본 명세서의 상세한 설명 및 청구항들에 걸쳐 '학습' 혹은 '러닝'은 절차에 따른 컴퓨팅을 통하여 기계 학습(machine learning)을 수행함을 일컫는 용어인바, 인간의 교육 활동과 같은 정신적 작용을 지칭하도록 의도된 것이 아니며, 훈련(training)은 기계 학습에 관하여 일반적으로 받아들여지는 의미로 쓰인 것이다. 예를 들어, '딥 러닝'은 심층 인공 신경망을 이용한 기계 학습을 의미한다. 심층 신경망은 다층의 인공 신경망으로 이루어진 구조에서 다량의 데이터를 학습시킴으로써 각각의 데이터의 특징을 자동으로 학습하고, 이를 통해 목적/손실 함수, 즉 분류 정확도의 에러를 최소화시키는 방식으로 학습을 진행하는 기계 학습 모델이며, 점, 선, 면 등의 저수준의 특징에서부터 복잡하고 의미 있는 고수준의 특징까지 다양한 수준의 특징을 추출하고 분류할 수 있다.
그리고 본 명세서의 상세한 설명 및 청구항들에 걸쳐, '포함하다'라는 단어 및 그 변형은 다른 기술적 특징들, 부가물들, 구성요소들 또는 단계들을 제외하는 것으로 의도된 것이 아니다. 또한, '하나' 또는 '한'은 하나 이상의 의미로 쓰인 것이며, '또 다른'은 적어도 두 번째 이상으로 한정된다.
통상의 기술자에게 본 발명의 다른 목적들, 장점들 및 특성들이 일부는 본 명세서로부터, 그리고 일부는 본 발명의 실시로부터 드러날 것이다. 아래의 예시 및 도면은 실례로서 제공되며, 본 발명을 한정하는 것으로 의도된 것이 아니다. 따라서, 특정 구조나 기능에 관하여 본 명세서에 개시된 상세 사항들은 한정하는 의미로 해석되어서는 아니되고, 단지 통상의 기술자가 실질적으로 적합한 임의의 상세 구조들로써 본 발명을 다양하게 실시하도록 지침을 제공하는 대표적인 기초 자료로 해석되어야 할 것이다.
더욱이 본 발명은 본 명세서에 나타난 실시예들의 모든 가능한 조합들을 망라한다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예에 관련하여 본 발명의 사상 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 사상 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.
본 명세서에서 달리 표시되거나 분명히 문맥에 모순되지 않는 한, 단수로 지칭된 항목은, 그 문맥에서 달리 요구되지 않는 한, 복수의 것을 아우른다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.
이하, 통상의 기술자가 본 발명을 용이하게 실시할 수 있도록 하기 위하여, 본 발명의 바람직한 실시예들에 관하여 첨부된 도면을 참조하여 상세히 설명하기로 한다.
도 1은 MRI 장치를 이용하여 획득한 이미지 데이터인 MRI들을 설명하기 위한 도면이다.
자기공명영상(magnetic resonance imaging, MRI) 장치는 특정 세기의 자기장에서 발생하는 RF(Radio Frequency) 신호에 대한 MR(Magnetic Resonance) 신호의 세기를 명암 대비로 표현하여 대상체 (또는, 환자)의 단층 부위에 대한 이미지를 획득하는 기기이다. 예컨대, 대상체를 강력한 자기장 속에 눕힌 후 특정의 원자핵(예컨대, 수소 원자핵 등)만을 공명시키는 RF 신호를 대상체에 순간적으로 조사했다가 중단하면 특정의 원자핵에서 MR 신호가 방출되는데, MRI 장치는 이 MR 신호를 수신하여 MR 이미지를 획득할 수 있다. MR 신호는 대상체로부터 방사되는 RF 신호를 의미한다. 여기서, MR 신호의 크기는 대상체에 포함된 소정의 원자(예컨대, 수소 등)의 농도, 이완시간 T1, 이완시간 T2 및 혈류 등의 흐름에 의해 결정될 수 있다.
MRI 장치는 다른 이미징 장치들과는 다른 특징들을 포함한다. 이미지의 획득이 감지 하드웨어(detectinghardware)의 방향에 의존하는 CT와 같은 이미징 장치들과 달리, MRI 장치는 임의의 지점으로 지향된 2D 이미지 또는 3D 볼륨 이미지를 획득할 수 있다. 또한, MRI 장치는, CT, X-ray, PET 및 SPECT와 달리, 대상체 및 검사자에게 방사선을 노출시키지 않으며, 높은 연부 조직(soft tissue) 대조도를 갖는 이미지의 획득이 가능하여, 비정상적인 조직의 명확한 묘사가 중요한 신경(neurological) 이미지, 혈관 내부(intravascular) 이미지, 근 골격(musculoskeletal) 이미지 및 종양(oncologic) 이미지 등을 획득할 수 있다.
구체적으로, 상기 MRI 장치는 T1-w (T1-weighted) MRI, T2-w (T2-weighted) MRI, FLAIR(Fluid attenuated inversion recovery) MRI, 및/또는, T1-w MRI, T2-w MRI, FLAIR MRI에 기반한 3D sMRI (structural MRI) 등의 MRI를 획득할 수 있다. 상기, T1-w 및 T2-w MRI는 TR (repetition time) 및 TE (time to echo)를 조절하여 특정 조직의 T1 또는 T2 효과가 강조된 영상이다. 여기서, 상기 TR은 같은 크기의 RF 펄스를 인가하는 시간 간격으로서, 반복시간이다. 상기 TE는 지연시간 또는 에코시간이다 MRI의 과정에서, 인가하였던 RF(radio frequency) 펄스를 차단하면 조직의 양성자는 흡수하였던 에너지를 주변 조직에 방출하면서 외부 자기장(B0) 방향(Z축 방향)으로 재정렬하게 된다.
여기서, T1은 종축인 Z축을 따라 양성자의 스핀들이 재정렬하는 시간, 즉 Z축 방향 자화가 회복되는 곡선의 시간상수이다. T1은 자화 회복의 시간상수로서 종축 이완시간 또는, 스핀-격자 이완시간(spin-lattice relaxation time)이라고 부른다. 한편, RF 펄스가 차단되면, 자화의 XY성분은 붕괴한다.
또한, T2는 자화의 XY 성분 붕괴 곡선의 시간 상수로서 횡 이완시간 또는, 스핀-스핀 이완시간 (spin-spin relaxation time)으로 부른다. T1 및 T2는 조직의 고유값이며, 물, 고체, 지방, 단백질마다 다른 값을 가진다. 여기서, TR을 길게 하면 T1 효과를 감소시킨다. 반대로, TR을 짧게 하면 T1 효과(대조도)를 증대, 즉, T1-w MRI가 획득된다. TE를 짧게 하면 T2 효과를 감소시키고, 길게 하면 T2 효과를 증대, 즉, T2-w MRI가 획득된다.
FLAIR MRI는 긴 역전 시간과 에코 시간으로 뇌척수액의 신호를 약화시켜 T2-w MRI에서 놓치기 쉬운 병변의 발견을 더욱 용이하게 한 자기영상장치를 이용한 신호 획득 기법이나 이 기법으로 획득되는 영상을 지칭한다. FLAIR MRI은 유체 감쇠 반전 복구 MRI로 지칭될 수도 있다.
상기 MRI를 통해 획득한 영상은 뇌 질환의 진단, 뇌 병변을 검출 또는 식별하는데 이용될 수 있다. 특히, T1-w MRI은 뇌실질의 구조를 살피는 데 적합한 종류의 영상이며, 이 T1-w MRI을 알츠하이머병에 대한 정보를 얻기 위하여 의료진은 그 영상에 나타난 뇌의 회백질의 크기를 측정하여 뇌의 위축 정보를 살피는데 이용될 수 있다.
도 2은 인공 신경망을 이용하여 이미지 데이터에 대한 분류 정보를 출력하는 컴퓨팅 장치를 설명하기 위한 도면이다.
도 2을 참조하면, 컴퓨팅 장치(100)는, 통신부(110) 및 프로세서(120)를 포함하며, 상기 통신부(110)를 통하여 외부 컴퓨팅 장치(미도시)와 직간접적으로 통신할 수 있다. 여기서, 통신부 (110)는 타 컴퓨팅 장치와 요청과 응답을 송수신할 수 있는 송수신기와 대응하거나 상기 송수신기를 포함할 수 있다.
구체적으로, 컴퓨팅 장치(100)는, 전형적인 컴퓨터 하드웨어(예컨대, 컴퓨터 프로세서, 메모리, 스토리지, 입력 장치 및 출력 장치, 기타 기존의 영상 처리 장치의 구성요소들을 포함할 수 있는 장치; 라우터, 스위치 등과 같은 전자 통신 장치; 네트워크 부착 스토리지(NAS; network-attached storage) 및 스토리지 영역 네트워크(SAN; storage area network)와 같은 전자 정보 스토리지 시스템)와 컴퓨터 소프트웨어(즉, 컴퓨팅 장치로 하여금 특정의 방식으로 기능하게 하는 명령어들)의 조합을 이용하여 원하는 시스템 성능을 달성하는 것일 수 있다.
이와 같은 통신부(110)는 연동되는 타 영상 처리 장치와 요청과 응답을 송수신할 수 있는바, 일 예시로서 그러한 요청과 응답은 동일한 TCP(transmission control protocol) 세션(session)에 의하여 이루어질 수 있지만, 이에 한정되지는 않는바, 예컨대 UDP(user datagram protocol) 데이터그램(datagram)으로서 송수신될 수도 있을 것이다. 덧붙여, 넓은 의미에서 상기 통신부(110)는 명령어 또는 지시 등을 전달받기 위한 키보드, 마우스와 같은 포인팅 장치(pointing device), 기타 외부 입력장치, 프린터, 디스플레이, 기타 외부 출력장치를 포함할 수 있다.
또한, 컴퓨팅 장치(100)의 프로세서(120)는 MPU(micro processing unit), CPU(central processing unit), GPU(graphics processing unit) 또는 TPU(tensor processing unit), 캐시 메모리(cache memory), 데이터 버스(data bus) 등의 하드웨어 구성을 포함할 수 있다. 또한, 운영체제, 특정 목적을 수행하는 애플리케이션의 소프트웨어 구성을 더 포함할 수도 있다. 프로세서(120)는 이하에서 설명하는 신경망의 기능을 수행하기 위한 명령어들을 실행할 수 있다.
프로세서(120)는 도 1을 참조하여 설명한 MRI (2D MRI, 3D MRI) 등의 이미지들을 이용하여 뇌 질환 (알츠하이머 등)의 진단과 관련된 인공 신경망 (또는, 분류 모델)을 학습시키고, 학습된 인공 신경망을 이용하여 뇌 질환 진단과 관련된 분류 정보 (또는, 진단 정보)를 출력할 수 있다.
프로세서(120)는 높은 해상도를 갖는 sMRI를 이용하여 상기 뇌 질환 등에 대한 분류 정보를 출력하는 인공 신경망에 기반한 분류 모델을 학습시킬 수 있다. 이 경우, 상기 sMRI의 높은 해상도로 인해 상기 분류 모델의 학습의 복잡도가 크게 증가하여 과적합 문제가 발생할 수 있다. 이러한 과적합 문제를 해소하기 위해, 뇌 질환 분류와 관련된 뇌 영역을 사전에 정의하고 사전에 정의된 뇌 영역을 위주로 상기 분류 모델을 학습시키거나, 임상 정보 (clinical information)의 예측과 관련된 예측 모델 (또는, 뇌 질환의 분류와 관련된 바이오마커 (biomarker) 정보를 출력하는 예측 모델)을 상기 분류 모델과 함께 멀티 태스크 러닝시키는 방법을 고려할 수 있다.
상기 멀티 태스크 러닝과 관련하여, 뇌 질환의 분류 모델의 분류 결과와 상기 예측 모델에 의해 예측되는 임상 정보 간의 상당히 높은 상관 관계(correlation)가 요구될 수 있다. 예컨대, 상기 예측 모델에 의해 예측되는 임상 정보와 뇌 질환의 분류 모델의 분류 결과 간의 상관 관계 (correlation)가 높지 않을 경우, 오히려 상기 분류 모델의 전역 최소값 (global minimum) 지점으로 최적화에 방해가 될 수 있다.
따라서, 상기 분류 모델과 함께 멀티 태스크를 구성할 예측 모델은 상기 분류 모델과 상관 관계가 높은 임상 정보 또는 바이오마커를 예측 또는 출력할 수 있는 예측 모델이어야 한다. 예컨대, MTA (medial temporal lobe atrophy)는 뇌 질환인 AD (Alzheimer's Disease)를 분류하는 분류 모델과 상당히 높은 상관 관계를 갖는 AD 분류를 위한 중요한 임상 정보 또는 바이오마커일 수 있다. 이와 같은 높은 상관 관계를 고려하여, 뇌 질환인 AD (Alzheimer's Disease)를 분류하는 분류 모델과 상기 MTA 임상 정보를 출력하는 예측 모델은 상호 보완적으로 공동 학습 (또는, 멀티 태스크 학습)될 수 있다. 이 경우, 상기 멀티 태스크 학습을 통해 상기 분류 모델 및 예측 모델의 예측성 및 정확성을 향상시키고 학습의 과적합 문제를 효율적으로 해결할 수 있다.
이하에서는, 상기 분류 모델인 AD 분류 모델과, 상관 관계가 높은 예측 모델은 MTA 예측 모델 간의 멀티 태스크를 구성하는 방법을 자세히 설명한다.
도 3은 컴퓨팅 장치가 분류 모델 및 예측 모델을 학습시키는 방법을 설명하기 위한 도면이다.
컴퓨팅 장치는 학습 데이터를 입력 받을 수 있다. 상기 학습 데이터는 MRI 등과 관련된 학습 이미지 (X) 및 레이블 정보를 포함할 수 있다. 여기서, 학습 이미지 (X)는 3D MRI인 sMRI를 포함할 수 있다. 또는, 상기 학습 데이터는 3D MRI들로 구성된 N개의 미니 배치 (mini-batch)들을 포함할 수 있다. 상기 레이블 정보는 학습 이미지 (X)에 대해 레이블링된 분류 정보인 분류 레이블 정보, 학습 이미지 (X)에 대해 레이블링된 임상 정보 (또는, 바이오마커)인 임상 레이블 정보를 포함할 수 있다.
도 3을 참조하면, 상기 컴퓨팅 장치는 상기 학습 데이터를 이용하여 분류 모델 (220) 및 예측 모델 (230)을 공동 학습시킬 수 있다.
상기 컴퓨팅 장치는 특징 추출부 (210)를 이용하여 입력된 학습 이미지 (X)로부터 특징들을 추출할 수 있다. 여기서, 특징 추출부 (210)는 학습 이미지 (X)에 필터를 적용하여 특징들을 추출하는 컨벌루선 레이어 (Convolution layer) 및 상기 특징 (또는, 특징 맵)의 크기를 줄이는 풀링 레이어 (pooling layer)를 포함할 수 있다.
상기 컴퓨팅 장치는 상기 추출된 특징들을 분류 모델 (220) 및 예측 모델 (230)에 입력할 수 있다. 여기서, 분류 모델 (220)은 상기 추출된 특징들에 기반하여 뇌 질환과 관련된 분류 결과를 출력하는 모델이고, 예측 모델 (230)은 분류 모델 (220)의 분류 결과와 관련하여 상관 관계가 높은 임상 정보 (또는, 바이오마커)를 예측하는 모델이다. 예컨대, 분류 모델 (220)이 AD (Alzheimer's disease)와 관련된 분류를 수행하는 AD 분류 모델일 경우, 예측 모델 (230)은 상관 관계가 높은 내측두엽 위축 정도 (MTA)를 예측하는 MTA 예측 모델일 수 있다. 이 경우, AD 분류 모델 (220)은 학습 이미지 (X)에 대한 AD (Alzheimer's disease), MCI (mild cognitive impairment) 및 NC (normal controls)와 관련된 분류 결과 (또는 AD, MCI 및 NC 각각에 대한 확률 값)을 출력할 수 있고, MTA 예측 모델 (230)은 상기 추출된 특징들에 기반하여 학습 이미지 (X)에서의 내측두엽 위축 정도와 관련된 MTA 스코어에 대한 MTA 임상 결과 또는 MTA 임상 정보를 출력할 수 있다.
상기 컴퓨팅 장치는 분류 모델 (220)로부터 학습 이미지 (X)에 대한 분류 결과를 획득하고, 상기 획득한 분류 결과 및 상기 분류 레이블 정보에 기반하여 제1 손실 값 (L1)을 산출할 수 있다. 또한, 상기 컴퓨팅 장치는 예측 모델 (230)로부터 학습 이미지 (X)에 대해 예측한 임상 정보를 획득하고, 획득한 임상 정보 및 상기 임상 레이블 정보에 기반하여 제2 손실 값 (L2)을 산출할 수 있다. 또는, 상기 컴퓨팅 장치는 분류 모델 (220)로부터 제1 손실 값(L1)을 획득하고, 예측 모델 (230)로부터 제2 손실 값 (L2)을 획득할 수 있다.
상기 컴퓨팅 장치는 제1 손실 값 (L1) 및 제2 손실 값 (L2)이 최소화되도록 분류 모델 (220) 및 예측 모델 (230)를 학습시킬 수 있다. 이 경우, 상기 컴퓨팅 장치는 분류 모델 (220) 및 예측 모델 (230)을 상호 보완적으로 동시에 학습시킴으로써 높은 해상도의 입력 이미지 데이터에 의한 학습의 과적합 문제를 해소할 수 있다.
한편, 뇌 질환의 분류 과정에서 상기 분류 모델의 태스크에 영향을 준 뇌 영역의 지역화 및/또는 상기 지역화와 관련된 영역 정보는 상기 분류 정보 (또는, 분류 결과)의 분석에 있어서 임상적으로 매우 중요한 정보일 수 있다. 예컨대, 상기 분류 모델이 뇌 영역 중 어떤 영역을 집중적으로 관심을 두고 분류 정보를 출력하는지에 대한 영역 정보 또는 지역화 정보를 추가적으로 제공할 경우에 상기 출력된 분류 정보에 대해 설명력을 크게 향상시킬 수 있다. 따라서, 상기 지역화 정보 및 영역 정보를 추가적으로 제공하는 방법이 고려될 필요가 있다. 다만, 높은 해상도의 뇌 영상에 대해서 복셀 수준 주석 (voxel-level annotation)을 수행의 복잡성 등의 한계가 있는 바, 뇌 질환의 분류와 관련된 뇌 영역의 지역화에서 weakly supervised object localization의 방법이 고려될 수 있다.
이하에서는, 상기 weakly supervised object localization과 관련하여 상기 학습 이미지 (X)의 이미지 영역을 지역화시킬 수 있는 지역화 모델을 자세히 설명한다.
도 4는 이미지 영역을 지역화시키는 지역화 모델을 설명하기 위한 도면이다.
도 4를 참조하면, 컴퓨팅 장치는 지역화 모델을 통해 학습 이미지 (X)의 이미지의 전체 영역 (이하, 이미지 영역)을 복수의 제1 로컬 영역들로 지역화시킬 수 있다.
지역화 모델 (300)은 특징 맵 추출부 (211)를 통해 학습 이미지 (X)로부터 추출된 로우-레벨 특징인 특징 맵을 입력 받을 수 있다. 지역화 모델 (300)은 상기 특징 맵에 기반하여 상기 이미지 영역을 복수의 제1 로컬 영역들로 지역화시킬 수 있다. 이를 위해, 지역화 모델 (300)은 상기 특징 맵에 기반하여 학습 이미지 (X)와 관련된 코스 (Coarse) 특징 및 파인 특징의 표현을 순차적으로 추출 및 통합할 수 있다. 지역화 모델 (300)은 상기 코스 특징 및 파인 특징의 표현의 통합을 통해 상기 이미지 영역의 콘텍스트 (context) 정보를 획득하면서 미세한 영역인 상기 복수의 제1 로컬 영역들로 지역화를 수행할 수 있다.
구체적으로, 지역화 모델 (300)은 상기 특징 맵에 기초하여 학습 이미지 (X)와 관련된 코스 특징의 표현부터 파인 특징의 표현을 순차적으로 추출 및 통합할 수 있다. 지역화 모델 (300)은 통합 결과를 이용하여 상기 이미지 영역에 대한 복수의 제1 로컬 영역들로의 지역화를 수행하고, 지역화 결과인 어텐션 맵 (A)을 출력할 수 있다. 상기 어텐션 맵은 상기 분류 모델 및 예측 모델의 태스크에서 각 제1 로컬 영역이 기여한 정도 및/또는 중요도를 확률적으로 표현할 수 있다. 예컨대, 어텐션 맵 (A)은 상기 분류 모델 및 예측 모델의 태스크와 관련하여 각 제1 로컬 영역이 기여할 것으로 예측된 기여도 또는 중요도에 대한 확률 값인 어텐션 값들에 대한 정보를 포함할 수 있다. 예컨대, 상기 어텐션 값은 0 내지 1 사이의 값으로 설정될 수 있고, 어텐션 맵 (A)에서 지역화된 상기 복수의 제1 로컬 영역들 중 중요도가 상대적으로 낮게 예측된 제1 로컬 영역들에 대해선 0에 가까운 어텐션 값이 설정될 수 있고, 중요도가 상대적으로 높게 예측된 제1 로컬 영역들에 대해선 1에 가까운 어텐션 값이 설정될 수 있다.
이와 같이, 지역화 모델 (300)은 입력된 특징 맵에 기반하여 상기 이미지 영역을 복수의 제1 로컬 영역들로 지역화하고 각 제1 로컬 영역 별로 대응하는 어텐션 값이 설정된 어텐션 맵 (A)을 출력할 수 있다.
도 5는 일 예에 따른 이미지 영역을 지역화시키는 지역화 모델의 세부적 구조를 도시한 블록도이다.
도 5를 참조하면, 지역화 모델 (301)은 더블 컨벌루션 블록들 (301, 302, 303, 304, 305), 삼선형 업샘플 블록들 (Trilinear upsample, 311, 312, 313) 및 어텐션 모듈 (315)를 포함할 수 있다. 여기서, 더블 컨벌루션 블록들 (301, 302, 303, 304, 305) 각각은 상기 특징 맵에 기반하여 학습 이미지 (X)와 관련된 파인 특징 및/또는 코스 특징을 추출할 수 있다. 삼선형 업샘플 블록들 (311, 312, 313)은 비-모수추정함수 (non-parametric function)에 기반하여 추출된 파인 특징 및/또는 코스 (coarse) 특징을 선형 보간하는 블록일 수 있다. 상기 어텐션 모듈 (315)은 시그모이드 활성화 함수 (sigmoid activation function) 및 컨벌루션 레이어를 포함할 수 있다.
지역화 모델 (301)은 제1 특징 추출부가 추출한 특징 맵을 입력 받을 수 있다. 지역화 모델 (301)은 더블 컨벌루션 블록들 (301, 302, 303, 304, 305) 및 삼선형 업샘플 블록들 (Trilinear upsample, 311, 312, 313)을 이용하여 학습 이미지 (X)와 관련된 파인 특징 (또는, 파인 특징의 표현) 및 코스 특징 (또는, 코스 특징의 표현)을 순차적으로 추출 및 통합시킬 수 있다. 다음으로, 어텐션 모듈 (315)은 상기 통합된 파인 특징 및 코스 특징을 이용하여 상기 학습 이미지의 이미지 영역을 복수의 제1 로컬 영역들로 지역화시킨 지역화 결과인 어텐션 맵 (A)을 출력할 수 있다.
한편, 지역화 모델 (300, 301)이 출력하는 지역화 결과를 효과적으로 반영할 수 있도록 상기 분류 모델 및 상기 예측 모델에 대응한 분류 예측 값 및 임상 예측 값도 지역화시킬 필요가 있다. 예컨대, 상기 분류 모델 및 상기 예측 모델은 상기 이미지 영역을 세분화한 제2 로컬 영역들 각각에 대한 로컬 특징을 입력 받고, 각 제2 로컬 영역에 대응하는 로컬 특징을 이용하여 각 제2 로컬 영역에 대한 분류 예측 값 및 임상 예측 값을 출력하는 방식으로 분류 예측 값 및 임상 예측 값을 지역화시킬 수 있다. 다시 말하자면, 지역화 모델 (300, 301)의 어텐션 맵을 효과적으로 반영할 수 있도록, 상기 분류 모델 및 상기 예측 모델은 각 제2 로컬 영역 별로 분류 예측 값 (또는, 로컬 분류 값) 및 임상 예측 값 (또는, 로컬 임상 값)을 산출할 수 필요가 있다.
이하에서는, 이와 같은 분류 결과 및 예측 결과의 지역화에 기반하여 상기 분류 모델, 상기 예측 모델 및 지역화 모델을 학습시키는 방법을 자세히 설명한다.
도 6은 컴퓨팅 장치가 상기 분류 모델, 상기 예측 모델 및 지역화 모델을 학습시키는 방법을 설명하기 위한 도면이다.
도 6을 참조하면, 컴퓨팅 장치는 학습 이미지 (X)를 포함하는 학습 데이터를 이용하여 분류 모델 (220), 예측 모델 (230) 및 지역화 모델 (300)을 학습시킬 수 있다. 상기 학습 데이터는 상기 학습 이미지 (X)에 대해 레이블된 분류 레이블 정보 및 임상 레이블 정보를 더 포함할 수 있다. 또는, 상기 학습 데이터는 복수의 미니-배치 (mini-batch)들로 구성된 복수의 학습 이미지들을 포함할 수 있다.
특징 추출부 (210)는 특징 맵 추출부 (211) 및 로컬 특징 추출부 (213)를 포함할 수 있다. 특징 맵 추출부 (211)는 학습 이미지 (X)에 대한 로우-레벨 특징인 특징 맵을 추출할 수 있다. 예컨대, 특징 맵 추출부 (211)는 학습 이미지 (X)의 이미지 영역 전체에 대한 특징 맵을 추출할 수 있다.
로컬 특징 추출부 (213)는 상기 특징 맵을 입력 받을 수 있다. 로컬 특징 추출부 (213)는 학습 이미지 (X)의 이미지 영역에 대응하는 제2 로컬 영역들 각각에 대한 로컬 특징들을 상기 특징 맵으로부터 추출할 수 있다. 여기서, 상기 제2 로컬 영역들은 제한된 수용 필드 범위에 기반하여 미리 설정될 수 있다. 또는, 상기 학습 이미지 (X)가 3D 이미지인 경우, 제2 로컬 영역들은 상기 3D 이미지 영역을 분할한 3D 패치들과 대응하도록 미리 구성될 수 있다. 또는, 상기 제2 로컬 영역은 지역화 모델 (300)에 의해 지역화된 제1 로컬 영역과 동일한 로컬 영역으로 구성될 수 있다.
지역화 모델 (300)은 도 4 및 도 5를 참조하여 설명한 바와 같이 상기 특징 맵을 입력 받고, 학습 이미지 (X)의 이미지 영역을 복수의 제1 로컬 영역들로 지역화시킨 어텐션 맵 (A)을 출력할 수 있다. 상술한 바와 같이, 어텐션 맵 (A)은 복수의 제1 로컬 영역들 각각에 대해 예측된 어텐션 값들을 포함할 수 있다.
분류 모델 (220)은 상기 로컬 특징들을 입력 받을 수 있다. 분류 모델 (220)은 상기 로컬 특징들에 기반하여 각 제2 로컬 영역에 대한 로컬 분류 값 (또는, local class evidence)을 산출 또는 추론할 수 있다. 즉, 분류 모델 (220)은 제2 로컬 영역들에 대한 로컬 분류 값들을 산출할 수 있다. 또한, 분류 모델 (220)은 지역화 모델 (300)이 출력한 학습 이미지 (X)에 대한 어텐션 맵 (A)을 입력 받을 수 있다. 이 경우, 분류 모델 (220)은 어텐션 맵 (A)에 기반하여 상기 로컬 분류 값들에 대해 어텐션 풀링 (attention pooling)을 수행하고, 어텐션 풀링 수행 결과에 기반하여 상기 분류 정보를 출력할 수 있다. 예컨대, 분류 모델 (220)은 어텐션 맵 (A)에 기반하여 로컬 분류 값에 대응하는 어텐션 값을 적용 (또는, 곱)하는 방식으로 상기 로컬 분류 값들에 대해 어텐션 풀링(attention pooling)을 수행할 수 있다. 이 경우, 어텐션 맵 (A)에서 어텐션 값은 대응하는 제1 로컬 영역의 중요도가 높을수록 높은 값이 설정된 바, 분류 모델 (220)은 어텐션 맵 (A)에 기반한 어텐션 풀링을 통해 상대적으로 높은 어텐션 값들이 설정된 제1 로컬 영역들에 대응하는 로컬 분류 값들의 기여도를 높인 상기 분류 정보를 출력할 수 있다. 한편, 상기 로컬 분류 값에 대응하는 어텐션 값은 상기 로컬 분류 값의 제2 로컬 영역과 어텐션 값의 제1 로컬 영역 간의 대응 관계 (예컨대, 상기 이미지 영역 상 위치 관계)에 기초하여 결정될 수 있다.
또한, 예측 모델 (230)은 상기 로컬 특징들에 기반하여 제2 로컬 영역 별로 로컬 임상 값 (또는, local class evidence)을 산출 또는 추론하고, 어텐션 맵 (A)에 기반하여 상기 로컬 임상 값들에 대해 어텐션 풀링(attention pooling)을 수행할 수 있고, 어텐션 풀링 수행 결과에 기반하여 상기 임상 정보를 출력할 수 있다.
또는, 분류 모델 (220)은 상기 어텐션 맵을 이용하여 각 제1 로컬 영역이 상기 분류 정보의 이미지 레벨 예측에 기여한 정도를 표현한 제1 히트맵을 출력할 수 있다. 예컨대, 분류 모델 (220)은 상기 제1 로컬 영역 및 상기 제2 로컬 영역 간의 대응 관계에 기초하여 서로 대응하는 로컬 분류 값과 어텐션 값을 곱하는 방식 (element-wise production 방식)으로 어텐션 맵 (A)에 로컬 분류 값들을 곱할 수 있다. 이 경우, 분류 모델 (220)은 대응하는 로컬 분류 값이 곱해진 어텐션 값들 (이하, 로컬 값들)을 포함하는 어텐션 맵 (A)인 제1 히트 맵 (HAD)을 획득하여 출력할 수 있다. 마찬가지로, 예측 모델 (230)은 상기 어텐션 맵을 이용하여 상기 각 제1 로컬 영역이 상기 임상 정보의 이미지 레벨 예측에 기여한 정도를 표현한 제2 히트맵을 출력할 수 있다.
컴퓨팅 장치는 학습 이미지 (X)에 대한 분류 정보 및 학습 데이터 (X)에 대한 분류 레이블 정보에 기초하여 제1 손실 값 (L1)을 산출하고, 학습 데이터 (X)에 대한 임상 정보 및 학습 데이터 (X)에 대한 임상 레이블 정보에 기초하여 제2 손실 값 (L2)을 산출할 수 있다. 또는, 분류 모델 (220)은 학습 이미지 (X)에 대한 분류 정보 및 학습 이미지 (X)에 대한 분류 레이블 정보에 기초하여 제1 손실 값(L1)을 산출하고, 예측 모델 (230)은 학습 이미지 (X)에 대한 임상 정보 및 학습 이미지 (X)에 대한 임상 레이블 정보에 기초하여 제2 손실 값(L2)을 산출할 수도 있다.
이 경우, 하나의 학습 이미지 (X)에 대한 학습 관련하여, 상기 분류 모델 (220) 및 예측 모델 (230)은 지역화 모델 (300)의 어텐션 맵을 추가적으로 고려하여 분류 정보 및 임상 정보를 출력하되 제1 손실 값 (L1) 및 제2 손실 값 (L2)이 최소화되도록 학습될 수 있다. 이 때, 상기 분류 모델 (220) 및 예측 모델 (230)은 어텐션 맵 (A)에 의해 중요도가 높은 제1 로컬 영역을 집중하여 상기 분류 정보 및 임상 정보를 출력할 수 있도록 학습될 수 있다. 또한, 지역화 모델 (300)도 분류 모델 (220) 및 예측 모델 (230)의 학습 과정에서 각 제1 로컬 영역에 대한 어텐션 값이 정확하게 예측된 어텐션 맵 (A)을 출력할 수 있도록 학습될 수 있다.
또한, 상술한 바와 같이 상기 학습 데이터는 복수의 학습 이미지들을 포함할 수 있다. 이 경우, 컴퓨팅 장치는 지역화 모델 (300)의 지역화 손실 값 (LSKD)을 최소화하는 목적 함수 (objective function)를 추가적으로 정의하여 상기 분류 모델 (220), 예측 모델 (230) 및 지역화 모델 (300)의 지역화 학습을 규제할 수 있다. 구체적으로, 상기 컴퓨팅 장치는 학습을 규제하는 추가적인 목적 함수에 기초하여 복수의 학습 이미지들 (즉, 복수의 피실험자들에 대한 복수의 학습 이미지들)에 대해 지역화 모델 (300)이 출력한 지역화 결과들 간의 차이가 최소화되도록 상기 분류 모델 (220), 예측 모델 (230) 및 지역화 모델 (300)의 지역화 학습을 규제할 수 있다.
여기서, 추가 정의되는 상기 목적 함수는 SKD 손실 (self-knowledge distillation loss)에 기반하는 함수 및/또는 상기 지역화 결과들 (또는, 어텐션 분포들) 간의 차이가 최소화하는 쿨백-라이블러 발산 (Kullback-Leibler divergence)에 대한 함수일 수 있다. 예컨대, 상기 학습 데이터는 N개의 미니 배치 (mini-batch)들로 구성된 복수의 이미지를 포함할 수 있다. 이 경우, 지역화 모델 (300)은 N개의 미니 배치들에 대한 지역화 결과들을 출력할 수 있고, 상기 컴퓨팅 장치는 상기 목적 함수를 이용하여 상기 지역화 결과들 간의 차이가 최소화되도록 상기 분류 모델 (220), 예측 모델 (230) 및 지역화 모델 (300)의 학습을 규제할 수 있다. 이와 같은 학습 규제를 통해, 지역화 모델 (300)은 입력된 이미지의 개별의 형태학적 변화의 영향이 최소화된 일반화 가능성이 높은 지역화 결과 (또는, 어텐션 맵)을 출력하도록 학습될 수 있다.
따라서, 복수의 학습 이미지들을 포함하는 학습 데이터를 이용하여 상기 모델을 학습시키는 경우, 전체 손실은 하이퍼파라미터를 정의한 수학식 1과 같이 정의될 수 있다. 상기 컴퓨팅 장치는 상기 전체 손실에 기반하여 엔드 투 엔드 방식 (end-to-end manner)으로 분류 모델 (220), 예측 모델 (230) 및/또는 지역화 모델 (300)을 학습시킬 수 있다.
Figure pat00001
여기서, λ1, λ2 및 λ3은 사용자에 의해 설정되는 하이퍼파라미터이고, L1은 분류 모델의 제1 손실 값, L2는 예측 모델의 제2 손실 값이며, LSKD는 지역화 모델의 지역화 손실 값이다.
이와 같이, 상기 분류 모델 및 상기 예측 모델은 상기 어텐션 맵에 기반하여 중요도가 높은 로컬 영역에 대해 집중하여 상기 분류 정보 및 상기 임상 정보를 출력할 수 있도록 학습되고 상기 지역화 모델은 정확하고 이미지의 개별 형태학적인 특성을 최소화한 일반화 가능성이 높은 지역화 결과인 어텐션 맵을 출력하도록 학습될 수 있다.
도 7은 상기 컴퓨팅 장치가 지역화 모델, AD 분류 모델 및 MTA 예측 모델을 학습시키는 방법을 설명하기 위한 도면이고, 도 8은 어텐션 분류부의 동작을 설명하기 위한 도면이다.
도 7을 참조하면, 컴퓨팅 장치는 학습 이미지 (X)를 포함하는 학습 데이터를 이용하여 지역화 모델 (300), AD 분류 모델 (225) 및 MTA 예측 모델 (235)를 학습시킬 수 있다. 또는, 상기 학습 데이터는 복수의 피실험자들에 대한 복수의 학습 이미지들을 포함할 수 있고, 상기 각 학습 이미지에 대해 레이블링된 MTA 레이블 정보 및 AD 분류 레이블 정보를 포함할 수 있다.
지역화 모델 (300)은 도 4를 참조하여 설명한 바와 같이 특징 맵 추출부 (211)로부터 추출된 특징 맵에 기반하여 상기 학습 이미지 (X)의 이미지 영역을 복수의 제1 로컬 영역들로 지역화시킨 어텐션 맵 (A)을 출력할 수 있다.
AD 분류 모델 (225)은 제2 로컬 영역들에 대한 AD 로컬 분류 값들을 출력하는 모델이다. AD 분류 모델 (225)은 도 6을 참조하여 설명한 바와 같이 로컬 특징 추출부 (213)로부터 추출된 로컬 특징들에 기반하여 제2 로컬 영역들 각각에 대응하는 AD 로컬 분류 값 (RAD)들을 산출할 수 있다. 또한, MTA 분류 모델 (235)는 학습 이미지 (X)에 대한 임상 정보 또는 바이오마커인 MTA 스코어와 관련된 MTA 예측 값들을 출력하는 모델로써, 상기 로컬 특징들을 입력 받아 제2 로컬 영역들 각각에 대응하는 MTA 예측 값 (RMTA)들을 출력할 수 있다.
한편, 어텐션 분류부 (250)는 도 6을 참조하여 설명한 분류 모델 및 예측 모델의 동작들 중 어텐션 풀링과 관련된 일부 동작을 수행하는 구성으로 별도로 구성될 수도 있다. 여기서, 설명의 편의상 분류 모델 및 예측 모델의 동작을 수행하는 별도 구성으로 어텐션 풀링 기반 분류부 (250)가 정의될 뿐, 본 발명에서 어텐션 분류부 (250)가 별도로 구성된 경우로만 제한되지 않는다.
어텐션 분류부 (250)은 어텐션 풀링을 수행하는 어텐션 풀링 레이어 (또는, 어텐션 풀링부) 및 소프트맥스 (Softmax) 레이어 (또는, 소브트맥스부)를 포함할 수 있다. 어텐션 분류부 (250)은 어텐션 풀링 레이어를 통해 어텐션 맵 (A)에 기반하여 상기 AD 분류 값 (RAD)들 및 MTA 예측 값(RMTA)들에 대한 어텐션 풀링을 수행할 수 있다. 또한, 어텐션 분류부 (250)은 소프트맥스 레이어를 통해 상기 어텐션 풀링 결과에 대응하는 AD 분류 정보 및 MTA 예측 정보를 출력하는 구성일 수 있다.
구체적으로, 어텐션 분류부 (250)는 AD 분류 모델 (225)의 AD 로컬 분류 값(RAD)들, MTA 분류 모델 (235)의 MTA 예측 값 (RMTA)들 및 지역화 모델 (300)의 어텐션 맵 (A)을 입력 받을 수 있다. 어텐션 분류부 (250)는 어텐션 맵 (A)에 기반하여 AD 로컬 분류 값 (RAD)들에 대해 어텐션 풀링을 수행하고, 어텐션 맵 (A)에 기반하여 MTA 예측 값 (RMTA)들에 대해 어텐션 풀링을 수행할 수 있다. 어텐션 분류부 (250)는 상기 어텐션 풀링 결과에 기반하여 AD 분류 정보 및 MTA 예측 정보를 출력할 수 있다.
또는, 도 8을 참조하면, 어텐션 분류부 (250)는 엘리먼트-와이즈 곱 (element-wise production) 방식으로 어텐션 맵 (A)에 AD 로컬 분류 값 (RAD)들을 곱할 수 있다. 예컨대, 어텐션 분류부 (250)는 상기 제1 로컬 영역 및 상기 제2 로컬 영역 간의 대응 관계 (예컨대, 이미지 영역 상 위치 관계)에 기초하여 서로 대응하는 AD 로컬 분류 값 (RAD)과 어텐션 값을 곱하는 방식으로 어텐션 맵 (A)에 AD 로컬 분류 값 (RAD)들을 곱할 수 있다. 이 경우, 어텐션 분류부 (250)는 상기 대응하는 AD 로컬 분류 값 (RAD)이 곱해진 어텐션 값들 (이하, 로컬 값들)을 포함하는 어텐션 맵 (A)인 제1 히트 맵 (HAD)을 획득할 수 있다. 이 때, 제1 히트 맵 (HAD)는 각 제1 로컬 영역이 AD 분류 정보의 이미지 레벨 예측에 기여한 정도를 표현할 수 있다. 다음으로, 어텐션 분류부 (250)는 상기 제1 히트 맵 (HAD)에 포함된 상기 로컬 값들에 대한 풀링 (또는, 총합)을 수행하고, 풀링 수행 결과에 어텐션 맵 (A)의 어텐션 값들의 총합의 역수를 곱하여 정규화시킬 수 있다. 어텐션 분류부 (250)는 상기 정규화된 풀링 수행 결과를 선형화 (sigmoid activation function을 통해)하여 최종 분류 결과인 AD 분류 정보를 예측할 수 있다. 이 때, 어텐션 분류부 (250)는 제1 히트 맵 (HAD)을 통해 각 제1 로컬 영역이 상기 AD 분류 정보의 이미지 레벨 예측에 기여한 정도가 추가적으로 표현된 분류 정보 (
Figure pat00002
AD)를 출력할 수 있다.
이와 마찬가지로, 어텐션 분류부 (250)는 상기 MTA 예측 값 (RMTA)들 및 어텐션 맵(A)을 이용하여 제2 히트맵 (HMTA)를 획득하고, 제2 히트맵 (HMTA)를 통해 서 각 제1 로컬 영역이 MTA 임상 정보의 이미지 레벨 예측에 기여한 정도가 추가적으로 표현된 MTA 임상 정보 (
Figure pat00003
MTA)를 출력할 수 있다.
한편, 제1 히트 맵 (HAD) 및 제2 히트맵 (HMTA)은 선형 보간법 등을 이용하여 상기 입력된 학습 이미지 (X)의 크기와 대응하는 크기로 업샘플링 (upsampling)되어 출력될 수 있다.
이 경우, 상기 컴퓨팅 장치는 상기 AD 분류 정보 및 AD 분류 레이블 정보에 기초하여 제1 손실 값 (LAD)을 산출하고, 상기 MTA 예측 정보 및 MTA 레이블 정보에 기초하여 제2 손실 값 (LMTA)을 산출할 수 있다. 도 6를 참조하여 설명한 바와 같이, 상기 컴퓨팅 장치는 상술한 수학식 1에 기반한 전체 손실이 최소화되도록 상기 지역화 모델 (300), AD 분류 모델 (225) 및/또는 MTA 예측 모델 (235)을 학습시킬 수 있다.
도 9는 컴퓨팅 장치가 입력된 이미지 데이터에 대한 분류 정보를 출력하는 방법을 설명하기 위한 도면이다.
도 9를 참조하면, 컴퓨팅 장치는 도 3 내지 도 8을 참조하여 설명한 학습이 완료된 분류 모델, 예측 모델 및 지역화 모델을 이용하여 상기 이미지 데이터에 대한 분류 정보, 임상 정보 및 어텐션 맵을 출력할 수 있다. 또한, 상기 분류 모델 및 상기 예측 모델은 도 6 및 도 8을 참조하여 설명한 바와 같이 제1 로컬 영역들 각각이 상기 분류 정보의 이미지 레벨 예측에 기여한 정도를 표현한 제1 히트맵 및 상기 제1 로컬 영역들 각각이 상기 임상 정보의 이미지 레벨 예측에 기여한 정도를 표현한 제2 히트맵을 출력할 수 있다.
구체적으로, 상기 컴퓨팅 장치는 상기 입력된 이미지 데이터로부터 특징 맵을 추출하고, 상기 특징 맵으로부터 제2 로컬 영역들 각각에 대응하는 로컬 특징들을 추출할 수 있다 (S901).
상기 컴퓨팅 장치는 상기 특징 맵을 지역화 모델에 입력하여 어텐션 맵을 출력할 수 있다 (S903). 상술한 바와 같이, 어텐션 맵은 상기 이미지 데이터의 이미지 영역을 복수의 제1 로컬 영역들로 지역화시킨 맵으로써, 상기 복수의 제1 로컬 영역들에 대한 어텐션 값들을 포함할 수 있다. 즉, 상기 어텐션 맵은 상기 복수의 제1 로컬 영역들 및 어텐션 값들을 일대일로 대응시킨 지역화 정보를 포함할 수 있다.
상기 컴퓨팅 장치는 분류 모델 및 예측 모델 각각에 상기 로컬 특징들 및 상기 어텐션 맵을 입력하여 분류 정보 및 임상 정보를 출력할 수 있다 (S905). 상술한 바와 같이, 상기 분류 모델 및 상기 예측 모델은 상기 로컬 특징들로부터 상기 제2 로컬 영역들에 대한 분류 로컬 값들 및 임상 로컬 값들을 산출하고, 상기 어텐션 맵에 기반하여 상기 산출된 임상 로컬 값들 및 분류 로컬 값들 각각에 대한 어텐션 풀링을 수행하여 상기 진단 정보 및 상기 임상 정보를 출력할 수 있다.
또는, 상술한 바와 같이, 상기 분류 모델은 상기 어텐션 맵을 이용하여 각 제1 로컬 영역이 상기 분류 정보의 이미지 레벨 예측에 기여한 정도를 표현한 제1 히트맵을 출력할 수 있다. 또한, 상기 예측 모델은 상기 어텐션 맵을 이용하여 상기 각 제1 로컬 영역이 상기 임상 정보의 이미지 레벨 예측에 기여한 정도를 표현한 제2 히트맵을 출력할 수 있다. 또한, 상기 분류 모델 및 상기 예측 모델 상기 제1 히트맵 및 상기 제2 히트맵을 이용하여 각 제1 로컬 영역이 상기 분류 정보 및 상기 임상 정보 각각의 이미지 레벨 예측에 기여한 정도를 추가적으로 표현한 상기 분류 정보 및 상기 임상 정보를 출력할 수도 있다. 여기서, 제1 히트 맵 (HAD) 및 제2 히트맵 (HMTA)은 선형 보간법 등을 이용하여 상기 입력된 이미지 데이터의 이미지 크기와 대응하는 크기로 업샘플링 (upsampling)되어 출력될 수 있다.
이와 같이, 컴퓨팅 장치는 상기 분류 모델, 상기 예측 모델 및 상기 지역화 모델을 이용하여 상기 이미지 데이터에 대한 분류 정보 및 예측 정보를 출력할 수 있다. 또한, 컴퓨팅 장치는 상기 분류 모델, 상기 예측 모델 및 상기 지역화 모델을 이용하여 상기 분류 정보에 대한 이미지 레벨 예측에서 상기 각 제1 로컬 영역이 기여한 정도를 표현한 제1 히트 맵 및 상기 임상 정보에 대한 이미지 레벨 예측에서 각 제1 로컬 영역이 기여한 정도를 표현한 제2 히트 맵을 출력할 수 있다. 이 경우, 컴퓨팅 장치는 상기 제1 히트 맵 및 상기 제2 히트 맵을 통해 출력된 분류 정보 및 임상 정보의 설명력을 크게 향상시킬 수 있다.
나아가, 상술한 바와 같이, 상기 분류 모델 및 상기 예측 모델은 상기 어텐션 맵에 기반하여 중요도가 높은 로컬 영역에 대해 집중하여 상기 분류 정보 및 상기 임상 정보를 출력할 수 있도록 학습되고 상기 지역화 모델은 정확하고 이미지의 개별 형태학적인 특성을 최소화한 일반화 가능성이 높은 어텐션 맵을 출력하도록 학습된다. 이 경우, 컴퓨팅 장치는 상기 학습된 분류 모델, 예측 모델 및 지역화 모델을 이용하여 보다 견고하고 정확도가 높으며 일반화 가능성이 높은 각 제1 로컬 영역에 대한 기여도가 추가적으로 표현된 분류 정보 및 예측 정보를 출력할 수 있다.
위 실시예의 설명에 기초하여 해당 기술분야의 통상의 기술자는, 본 발명의 방법 및/또는 프로세스들, 그리고 그 단계들이 하드웨어, 소프트웨어 또는 특정 용례에 적합한 하드웨어 및 소프트웨어의 임의의 조합으로 실현될 수 있다는 점을 명확하게 이해할 수 있다. 상기 하드웨어는 범용 컴퓨터 및/또는 전용 컴퓨팅 장치 또는 특정 컴퓨팅 장치 또는 특정 컴퓨팅 장치의 특별한 모습 또는 구성요소를 포함할 수 있다. 상기 프로세스들은 내부 및/또는 외부 메모리를 가지는, 하나 이상의 마이크로프로세서, 마이크로컨트롤러, 임베디드 마이크로컨트롤러, 프로그래머블 디지털 신호 프로세서 또는 기타 프로그래머블 장치에 의하여 실현될 수 있다. 게다가, 혹은 대안으로서, 상기 프로세스들은 주문형 집적회로(application specific integrated circuit; ASIC), 프로그래머블 게이트 어레이(programmable gate array), 프로그래머블 어레이 로직(Programmable Array Logic; PAL) 또는 전자 신호들을 처리하기 위해 구성될 수 있는 임의의 다른 장치 또는 장치들의 조합으로 실시될 수 있다. 더욱이 본 발명의 기술적 해법의 대상물 또는 선행 기술들에 기여하는 부분들은 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 기계 관찰 가능한 기록 매체에 기록될 수 있다. 상기 기계 관찰 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 기계 관찰 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야의 통상의 기술자에게 공지되어 사용 가능한 것일 수도 있다. 기계 관찰 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD, Blu-ray와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 전술한 장치들 중 어느 하나뿐만 아니라 프로세서, 프로세서 아키텍처 또는 상이한 하드웨어 및 소프트웨어의 조합들의 이종 조합, 또는 다른 어떤 프로그램 명령어들을 실행할 수 있는 기계 상에서 실행되기 위하여 저장 및 컴파일 또는 인터프리트될 수 있는, C와 같은 구조적 프로그래밍 언어, C++ 같은 객체지향적 프로그래밍 언어 또는 고급 또는 저급 프로그래밍 언어(어셈블리어, 하드웨어 기술 언어들 및 데이터베이스 프로그래밍 언어 및 기술들)를 사용하여 만들어질 수 있는바, 기계어 코드, 바이트코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 이에 포함된다.
따라서 본 명세서에 따른 일 태양에서는, 앞서 설명된 방법 및 그 조합들이 하나 이상의 컴퓨팅 장치들에 의하여 수행될 때, 그 방법 및 방법의 조합들이 각 단계들을 수행하는 실행 가능한 코드로서 실시될 수 있다. 다른 일 태양에서는, 상기 방법은 상기 단계들을 수행하는 시스템들로서 실시될 수 있고, 방법들은 장치들에 걸쳐 여러 가지 방법으로 분산되거나 모든 기능들이 하나의 전용, 독립형 장치 또는 다른 하드웨어에 통합될 수 있다. 또 다른 일 태양에서는, 위에서 설명한 프로세스들과 연관된 단계들을 수행하는 수단들은 앞서 설명한 임의의 하드웨어 및/또는 소프트웨어를 포함할 수 있다. 그러한 모든 순차 결합 및 조합들은 본 명세서의 범위 내에 속하도록 의도된 것이다.
예를 들어, 상기 하드웨어 장치는 본 명세서에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다. 상기 하드웨어 장치는, 프로그램 명령어를 저장하기 위한 ROM/RAM 등과 같은 메모리와 결합되고 상기 메모리에 저장된 명령어들을 실행하도록 구성되는 MPU, CPU, GPU, TPU와 같은 프로세서를 포함할 수 있으며, 외부 장치와 신호를 주고받을 수 있는 통신부를 포함할 수 있다. 덧붙여, 상기 하드웨어 장치는 개발자들에 의하여 작성된 명령어들을 전달받기 위한 키보드, 마우스, 기타 외부 입력장치를 포함할 수 있다.
이상에서 본 발명이 구체적인 구성요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나, 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명이 상기 실시예들에 한정되는 것은 아니며, 본 발명이 속하는 기술분야에서 통상적인 지식을 가진 사람이라면 이러한 기재로부터 다양한 수정 및 변형을 꾀할 수 있다.
따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등하게 또는 등가적으로 변형된 모든 것들은 본 발명의 사상의 범주에 속한다고 할 것이다.
그와 같이 균등하게 또는 등가적으로 변형된 것에는, 예컨대 본 명세서에 따른 방법을 실시한 것과 동일한 결과를 낼 수 있는, 논리적으로 동치(logically equivalent)인 방법이 포함될 것인바, 본 발명의 진의 및 범위는 전술한 예시들에 의하여 제한되어서는 아니되며, 법률에 의하여 허용 가능한 가장 넓은 의미로 이해되어야 한다.

Claims (15)

  1. 컴퓨팅 장치가 이미지 데이터에 대한 분류 정보 및 임상 정보를 출력하는 방법에 있어서,
    상기 이미지 데이터로부터 특징 맵 및 로컬 특징들을 추출하는 단계;
    상기 특징 맵을 지역화 모델에 입력하여 상기 이미지 데이터의 이미지 영역을 제1 로컬 영역들로 지역화한 어텐션 맵 (attention map)을 출력하는 단계; 및
    분류 모델 및 예측 모델 각각에 상기 로컬 특징들 및 상기 어텐션 맵을 입력하여 상기 분류 모델의 분류 정보 및 상기 예측 모델의 임상 정보를 출력하는 단계를 포함하고,
    상기 어텐션 맵은 상기 제1 로컬 영역들 각각에 대해 예측된 어텐션 값을 포함하는, 방법.
  2. 제1항에 있어서,
    상기 어텐션 값은 상기 제1 로컬 영역들 각각이 상기 분류 정보 및 상기 임상 정보의 예측에 기여한 정도 또는 중요도를 예측한 확률 값인 것을 특징으로 하는, 방법.
  3. 제1항에 있어서,
    상기 로컬 특징들은 상기 특징 맵에 기초하여 상기 이미지 영역의 제2 로컬 영역들 각각에 대해 추출되는 것을 특징으로 하는, 방법.
  4. 제3항에 있어서,
    상기 분류 모델은 상기 로컬 특징들에 기초하여 상기 제2 로컬 영역들 각각에 대응하는 로컬 분류 값들을 산출하는 것을 특징으로 하는, 방법.
  5. 제4항에 있어서,
    상기 분류 모델은 상기 어텐션 맵에 기반하여 상기 로컬 분류 값들 각각에 대응하는 어텐션 값을 적용하여 상기 분류 정보를 출력하는 것을 특징으로 하는, 방법.
  6. 제4항에 있어서,
    상기 분류 모델은 상기 어텐션 맵에 기반한 상기 로컬 분류 값들의 어텐션 풀링 (attention pooling)을 수행하여 상기 분류 정보를 출력하는 것을 특징으로 하는, 방법.
  7. 제3항에 있어서,
    상기 예측 모델은 상기 로컬 특징들에 기초하여 상기 제2 로컬 영역들에 대한 로컬 임상 값들을 산출하고, 상기 어텐션 맵에 기반한 상기 로컬 임상 값들의 어텐션 풀링을 수행하여 상기 임상 정보를 출력하는 것을 특징으로 하는, 방법.
  8. 제3항에 있어서,
    상기 제2 로컬 영역들은 상기 제1 로컬 영역들과 대응하는 것을 특징으로 하는, 방법.
  9. 제1항에 있어서,
    상기 분류 모델은 상기 어텐션 맵을 이용하여 각 제1 로컬 영역이 상기 분류 정보의 이미지 레벨 예측에 기여한 정도를 표현한 제1 히트맵을 더 출력하고,
    상기 예측 모델은 상기 어텐션 맵을 이용하여 상기 각 제1 로컬 영역이 상기 임상 정보의 이미지 레벨 예측에 기여한 정도를 표현한 제2 히트맵을 더 출력하고 것을 특징으로 하는, 방법.
  10. 제1항에 있어서,
    상기 분류 모델, 상기 예측 모델 및 상기 지역화 모델은 복수의 학습 이미지들을 포함하는 학습 레이블 데이터에 기반하여 동시 학습된 것을 특징으로 하는, 방법.
  11. 제10항에 있어서,
    상기 컴퓨팅 장치는 각 학습 이미지에 대한 상기 분류 정보 및 분류 레이블 정보에 기초하여 산출된 제1 손실 값, 상기 각 학습 이미지에 대한 상기 임상 정보 및 임상 레이블 정보에 기초하여 산출된 제2 손실 값이 최소화되도록 상기 분류 모델, 상기 예측 모델 및 상기 지역화 모델을 학습시키는 것을 특징으로 하는, 방법.
  12. 제11항에 있어서,
    상기 컴퓨팅 장치는 상기 복수의 학습 이미지들에 대해 출력된 상기 어텐션 맵들 간의 차이인 로컬 손실 값을 추가적으로 고려하여 상기 분류 모델, 상기 예측 모델 및 상기 지역화 모델의 학습을 규제하는 것을 특징으로 하는, 방법.
  13. 제1항에 있어서,
    상기 분류 모델은 AD (Alzheimer's disease)에 대한 분류 정보를 출력하는 AD 분류 모델이고, 상기 예측 모델은 상기 AD와 관련성이 높은 MTA (medial temporal lobe atrophy)에 대한 임상 정보를 출력하는 MTA 예측 모델인 것을 특징으로 하는, 방법.
  14. 컴퓨팅 장치로 하여금, 제1항 내지 제13항 중 어느 한 항의 방법을 수행하도록 구현된 명령들(instructions)을 포함하는, 매체에 저장된 컴퓨터 프로그램.
  15. 이미지 데이터에 대한 분류 정보를 출력하는 컴퓨팅 장치에 있어서,
    통신부; 및
    상기 통신부와 연결되는 프로세서를 포함하고,
    상기 프로세서는 상기 이미지 데이터로부터 특징 맵 및 로컬 특징들을 추출하고, 상기 특징 맵을 지역화 모델에 입력하여 상기 이미지 데이터의 이미지 영역을 제1 로컬 영역들로 지역화한 어텐션 맵 (attention map)을 출력하며, 분류 모델 및 예측 모델 각각에 상기 로컬 특징들 및 상기 어텐션 맵을 입력하여 상기 분류 모델의 분류 정보 및 상기 예측 모델의 임상 정보를 출력하고,
    상기 어텐션 맵은 상기 제1 로컬 영역들 각각에 대해 예측된 어텐션 값을 포함하는. 컴퓨팅 장치.
KR1020220002160A 2022-01-06 2022-01-06 컴퓨팅 장치가 이미지 데이터에 대한 분류 정보를 출력하는 방법 및 이를 위한 장치 KR20230106359A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220002160A KR20230106359A (ko) 2022-01-06 2022-01-06 컴퓨팅 장치가 이미지 데이터에 대한 분류 정보를 출력하는 방법 및 이를 위한 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220002160A KR20230106359A (ko) 2022-01-06 2022-01-06 컴퓨팅 장치가 이미지 데이터에 대한 분류 정보를 출력하는 방법 및 이를 위한 장치

Publications (1)

Publication Number Publication Date
KR20230106359A true KR20230106359A (ko) 2023-07-13

Family

ID=87160290

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220002160A KR20230106359A (ko) 2022-01-06 2022-01-06 컴퓨팅 장치가 이미지 데이터에 대한 분류 정보를 출력하는 방법 및 이를 위한 장치

Country Status (1)

Country Link
KR (1) KR20230106359A (ko)

Similar Documents

Publication Publication Date Title
CN111344801B (zh) 针对前列腺癌的多模态计算机辅助诊断系统和方法
Zhang et al. BPGAN: Brain PET synthesis from MRI using generative adversarial network for multi-modal Alzheimer’s disease diagnosis
JP7399102B2 (ja) 医用イメージングにおける自動スライス選択
KR101894278B1 (ko) 일련의 슬라이스 영상을 재구성하는 방법 및 이를 이용한 장치
US11893729B2 (en) Multi-modal computer-aided diagnosis systems and methods for prostate cancer
US11580642B2 (en) Disease region extraction apparatus, disease region extraction method, and disease region extraction program
JP2022539063A (ja) スキャナ内患者データ取得分析のための改良された医療スキャンプロトコル
US11049251B2 (en) Apparatus, method, and program for learning discriminator discriminating infarction region, discriminator for discriminating infarction region, and apparatus, method, and program for discriminating infarction region
JP2021140769A (ja) 医用情報処理装置、医用情報処理方法及び医用情報処理プログラム
Rajeev et al. A review on magnetic resonance spectroscopy for clinical diagnosis of brain tumour using deep learning
KR101948701B1 (ko) 피검체의 뇌 구조를 기술하는 잠재 변수에 기반하여 상기 피검체의 뇌질환을 판정하는 방법 및 이를 이용한 장치
Baxter et al. Validation in the age of machine learning: A framework for describing validation with examples in transcranial magnetic stimulation and deep brain stimulation
EP3965117A1 (en) Multi-modal computer-aided diagnosis systems and methods for prostate cancer
KR20230106359A (ko) 컴퓨팅 장치가 이미지 데이터에 대한 분류 정보를 출력하는 방법 및 이를 위한 장치
KR20230030810A (ko) 데이터 생성 방법 및 이를 이용한 학습방법 및 장치
US11176413B2 (en) Apparatus, method, and program for training discriminator discriminating disease region, discriminator discriminating disease region, disease region discrimination apparatus, and disease region discrimination program
Akan et al. Vision Transformers and Bi-LSTM for Alzheimer's Disease Diagnosis from 3D MRI
KR102597647B1 (ko) 인공 신경망에 기반하여 분류 정보를 출력하는 방법 및 이를 위한 장치
CN114097041A (zh) 针对深度学习电特性断层摄影的不确定度图
Hussein et al. Brain mri-to-pet synthesis using 3d convolutional attention networks
KR102595045B1 (ko) Icv 세그먼테이션 정보를 출력하는 방법 및 이를 위한 장치
KR20230094670A (ko) 인공 신경망을 이용한 이미지 데이터에 대한 분류 방법 및 이를 위한 장치
Jiao et al. Anatomy-aware self-supervised fetal MRI synthesis from unpaired ultrasound images
Mohapatra et al. Meta-Analysis of Transfer Learning for Segmentation of Brain Lesions
KR20230034762A (ko) 기계학습 방법 및 장치