KR20230094672A - 인공 신경망에 기반하여 분류 정보를 출력하는 방법 및 이를 위한 장치 - Google Patents

인공 신경망에 기반하여 분류 정보를 출력하는 방법 및 이를 위한 장치 Download PDF

Info

Publication number
KR20230094672A
KR20230094672A KR1020210184015A KR20210184015A KR20230094672A KR 20230094672 A KR20230094672 A KR 20230094672A KR 1020210184015 A KR1020210184015 A KR 1020210184015A KR 20210184015 A KR20210184015 A KR 20210184015A KR 20230094672 A KR20230094672 A KR 20230094672A
Authority
KR
South Korea
Prior art keywords
classification
information
image data
fazekas
segmentation
Prior art date
Application number
KR1020210184015A
Other languages
English (en)
Other versions
KR102597647B1 (ko
Inventor
이동수
오현우
정우석
김진영
박창현
Original Assignee
주식회사 뷰노
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 뷰노 filed Critical 주식회사 뷰노
Priority to KR1020210184015A priority Critical patent/KR102597647B1/ko
Priority to PCT/KR2022/018461 priority patent/WO2023121005A1/ko
Publication of KR20230094672A publication Critical patent/KR20230094672A/ko
Application granted granted Critical
Publication of KR102597647B1 publication Critical patent/KR102597647B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/40Detecting, measuring or recording for evaluating the nervous system
    • A61B5/4076Diagnosing or monitoring particular conditions of the nervous system
    • A61B5/4088Diagnosing of monitoring cognitive diseases, e.g. Alzheimer, prion diseases or dementia
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • A61B5/004Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part
    • A61B5/0042Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part for the brain
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R33/00Arrangements or instruments for measuring magnetic variables
    • G01R33/20Arrangements or instruments for measuring magnetic variables involving magnetic resonance
    • G01R33/44Arrangements or instruments for measuring magnetic variables involving magnetic resonance using nuclear magnetic resonance [NMR]
    • G01R33/48NMR imaging systems
    • G01R33/54Signal processing systems, e.g. using pulse sequences ; Generation or control of pulse sequences; Operator console
    • G01R33/56Image enhancement or correction, e.g. subtraction or averaging techniques, e.g. improvement of signal-to-noise ratio and resolution
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R33/00Arrangements or instruments for measuring magnetic variables
    • G01R33/20Arrangements or instruments for measuring magnetic variables involving magnetic resonance
    • G01R33/44Arrangements or instruments for measuring magnetic variables involving magnetic resonance using nuclear magnetic resonance [NMR]
    • G01R33/48NMR imaging systems
    • G01R33/54Signal processing systems, e.g. using pulse sequences ; Generation or control of pulse sequences; Operator console
    • G01R33/56Image enhancement or correction, e.g. subtraction or averaging techniques, e.g. improvement of signal-to-noise ratio and resolution
    • G01R33/5608Data processing and visualization specially adapted for MR, e.g. for feature analysis and pattern recognition on the basis of measured MR data, segmentation of measured MR data, edge contour detection on the basis of measured MR data, for enhancing measured MR data in terms of signal-to-noise ratio by means of noise filtering or apodization, for enhancing measured MR data in terms of resolution by means for deblurring, windowing, zero filling, or generation of gray-scaled images, colour-coded images or images displaying vectors instead of pixels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/042Knowledge-based neural networks; Logical representations of neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Pathology (AREA)
  • Artificial Intelligence (AREA)
  • Veterinary Medicine (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Theoretical Computer Science (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Neurology (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Signal Processing (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Psychiatry (AREA)
  • Physiology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Databases & Information Systems (AREA)
  • Hospice & Palliative Care (AREA)
  • Fuzzy Systems (AREA)
  • Developmental Disabilities (AREA)

Abstract

다양한 실시예에 따른 컴퓨팅 장치가 이미지 데이터에 대한 분류 정보를 출력하는 방법 및 이를 위한 장치가 개시된다. 상기 이미지 데이터를 입력 받는 단계, 및 파제카스 (Fazekas) 분류 모델에 상기 이미지 데이터를 입력하여 상기 분류 정보를 출력하는 단계를 포함하고, 상기 파제카스 분류 모델은 상기 이미지 데이터로부터 추출된 제1 특징 벡터에 WMH (white matter hyperintensity) 세그먼테이션 정보를 연결 (concatenation)한 제2 특징 벡터에 기초하여 상기 분류 정보를 출력할 수 있는 방법 및 장치가 개시된다.

Description

인공 신경망에 기반하여 분류 정보를 출력하는 방법 및 이를 위한 장치 {Method for outputting classification information based on artificial neural network and apparatus therefor}
인공 신경망에 기반하여 분류 정보를 출력하는 방법으로써, 구체적으로 파제카스 분류 모델 및 세그먼테이션 모델을 동시에 학습시켜 상기 분류 정보를 출력하는 방법 및 이를 위한 장치에 대한 것이다.
혈관성 치매는 뇌혈관 질환으로 인해 뇌조직의 손상이 초래되어 나타나는 치매로 분류될 수 있다. 뇌혈관 질환은 발생기전에 따라서는 뇌혈관이 막혀 발생하는 허혈성 뇌혈관 질환 (뇌경색 또는 뇌 허혈 상태)과 뇌혈관이 터져서 생기는 출혈성 뇌혈관 질환(뇌출혈)으로 나눌 수 있다. 일반적으로, 뇌혈관 질환이 반복해서 발생함으로써 혈관성 치매가 생기는 경우가 많지만, 예외적으로 뇌혈관 질환이 주요 뇌 부위에 단 한 차례 발생함으로써 치매 증상이 생길 수 있다.
혈관성 치매에서 중요한 사실은 알츠하이머병 등 다른 치매 원인에 비해 예방 가능성이 높다는 점이다. 즉, 뇌혈관 질환에 대한 위험인자가 비교적 잘 알려져 있으며 이들 위험인자를 교정하거나 조절함으로써 일차적으로 뇌혈관 질환을 줄일 수 있고, 결과적으로 혈관성 치매의 발생도 예방할 수 있다. 뇌혈관 질환 및 혈관성 치매의 대표적인 위험 요인들로는 고혈압, 흡연, 심근경색, 심방세동, 당뇨병, 고콜레스테롤혈증 등이 있다. 그 밖에도 혈액 중 적혈구 용적 (헤마토크리트)의 상승, 지혈 이상, 말초혈관 질환, 과다한 알코올 섭취 등의 관련성도 시사되고 있다.
이와 같은 혈관성 치매에 대한 조기 진단은 신경망 모델에 기반한 뇌에 대한 의료 이미지에 대한 분류, 객체 검출, 객체 경계의 추출, 서로 다른 영상의 정합을 통해 수행될 수 있다. 여기서, 신경망 모델(Neural Network model)은 생물학에서의 뉴런 구조로부터 착안된 지도 학습(supervised learning) 알고리즘이다. 신경망 모델의 기본적인 작동 원리는 여러 개의 뉴런들을 상호 연결하여 입력값에 대한 최적의 출력값을 예측하는 것이다. 통계적인 관점에서 보면 신경망 모델은 입력 변수의 선형 결합에 비선형 함수를 취하는 사영추적회귀로 볼 수 있다. 특히, 의료 이미지에서의 상술한 객체 등 특징의 추출은 컨볼루션 신경망(Convolution neural networks; CNN)가 가장 많이 활용되고 있다.
해결하고자 하는 과제는 세그먼테이션 모델에서 출력된 이미지 데이터에 대한 정량적 특징을 추가적으로 고려한 파제카스 분류 모델의 분류 정보에 기초하여 세그먼테이션 모델 및 파제카스 분류 모델을 동시 학습시켜 두 모델의 분류 성능 및 견고성을 확보할 수 있는 방법 및 장치를 제공하는 것이다.
기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
상기한 바와 같은 본 발명의 목적을 달성하고, 후술하는 본 발명의 특징적인 효과를 실현하기 위한 본 발명의 특징적인 구성은 하기와 같다.
일 측면에 따른, 컴퓨팅 장치가 이미지 데이터에 대한 분류 정보를 출력하는 방법은 상기 이미지 데이터를 입력 받는 단계, 및 파제카스 (Fazekas) 분류 모델에 상기 이미지 데이터를 입력하여 상기 분류 정보를 출력하는 단계를 포함하고, 상기 파제카스 분류 모델은 상기 이미지 데이터로부터 추출된 제1 특징 벡터에 WMH (white matter hyperintensity) 세그먼테이션 정보를 연결 (concatenation)한 제2 특징 벡터에 기초하여 상기 분류 정보를 출력할 수 있다.
또는, 상기 WMH 세그먼테이션 정보는 세그먼테이션 모델에 상기 이미지 데이터를 입력하여 산출되는 것을 특징으로 한다.
또는, 상기 파제카스 분류 모델 및 상기 세그먼테이션 모델은 학습 데이터를 이용하여 산출된 분류 손실 및 세그먼테이션 손실에 기초하여 동시에 학습된 것을 특징으로 한다.
또는, 상기 학습 데이터는 학습 이미지 데이터, 파제카스 스케일과 관련된 제1 레이블 정보 및 상기 WMH와 관련된 제2 레이블 정보를 포함하는 것을 특징으로 한다.
또는, 상기 제2 특징 벡터는 상기 이미지 데이터에 대한 메타 데이터가 더 연결 (concatenation)된 것을 특징으로 한다.
또는, 상기 세그먼테이션 정보는 DWMH (Deep WMH)에 대한 제1 부피 정보 및 PVWMH (Periventricular WMH)에 대한 제2 부피 정보를 포함하는 것을 특징으로 한다.
또는, 상기 파제카스 분류 모델은 상기 제2 특징 벡터들에 포함된 변수들을 부트스트랩 샘플링 (Bootstrap sampling)하여 형성된 복수의 변수 세트들에 기반하여 상기 분류 정보를 출력하는 것을 특징으로 한다.
또는, 상기 파제카스 분류 모델은 상기 분류 정보에서 상기 변수들 각각이 영향을 준 정도에 대한 중요도 정보를 더 출력하는 것을 특징으로 한다.
또는, 상기 변수들은 상기 제1 특징 벡터들에 포함된 요소들, 상기 세그먼테이션 정보로부터 획득한 DWMH (Deep WMH)에 대한 제1 부피 및 PVWMH (Periventricular WMH)에 대한 제2 부피와 관련된 변수들을 포함하는 것을 특징으로 한다.
또는, 상기 분류 정보는 제1 지표, 제2 지표 및 제3 지표 각각에 대한 확률 값 또는 예측 값을 포함하는 것을 특징으로 한다.
또는, 상기 파제카스 분류 모델은 CNN (Convolutional neural network)에 기반한 서브 모델을 포함하고, 상기 서브 모델은 상기 이미지 데이터로부터 상기 제1 특징 벡터를 추출하는 것을 특징으로 한다.
다른 측면에 따른, 이미지 데이터에 대한 분류 정보를 출력하는 컴퓨팅 장치는 통신부 및 상기 통신부와 연결되는 프로세서를 포함하고, 상기 프로세서는 상기 이미지 데이터를 입력 받고, 파제카스 (Fazekas) 분류 모델에 상기 이미지 데이터를 입력하여 상기 분류 정보를 출력하며, 상기 파제카스 분류 모델은 상기 이미지 데이터로부터 추출된 제1 특징 벡터에 WMH (white matter hyperintensity) 세그먼테이션 정보를 연결 (concatenation)한 제2 특징 벡터에 기초하여 상기 분류 정보를 출력할 수 있다.
다양한 실시예들은 세그먼테이션 모델에서 출력된 이미지 데이터에 대한 정량적 특징을 추가적으로 고려한 파제카스 분류 모델의 분류 정보에 기초하여 세그먼테이션 모델 및 파제카스 분류 모델을 동시 학습시킴으로써 상기 두 모델의 분류 성능 및 견고성을 확보할 수 있다.
다양한 실시예에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 명세서에 첨부되는 도면은 본 발명에 대한 이해를 제공하기 위한 것으로서 본 발명의 다양한 실시형태들을 나타내고 명세서의 기재와 함께 본 발명의 원리를 설명하기 위한 것이다.
도 1은 CNN의 구조를 설명하기 위한 도면이다.
도 2은 MRI 장치를 이용하여 획득한 이미지 데이터인 MRI들을 설명하기 위한 도면이다.
도 3은 인공 신경망에 기반한 파제카스 분류 모델을 학습시키는 컴퓨팅 장치를 설명한다.
도 4은 컴퓨팅 장치가 파제카스 분류 모델을 학습시키는 방법을 설명하기 위한 도면이다.
도 5은 컴퓨팅 장치가 세그먼테이션 모델 및 파제카스 분류 모델을 학습시키는 방법을 설명하기 위한 도면이다.
도 6 및 도 7은 컴퓨팅 장치가 학습 데이터를 이용하여 세그먼테이션 모델 및 파제카스 분류 모델을 학습시키는 방법을 설명하기 위한 도면이다.
도 8은 컴퓨팅 장치가 입력된 이미지 데이터에 대한 분류 정보를 출력하는 방법을 설명하기 위한 도면이다.
후술하는 본 발명에 대한 상세한 설명은, 본 발명의 목적들, 기술적 해법들 및 장점들을 분명하게 하기 위하여 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 통상의 기술자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다.
본 명세서의 상세한 설명 및 청구항들에 걸쳐 이용된 "영상" 또는 "영상 데이터"라는 용어는 이산적 영상 요소들(예컨대, 2차원 영상에 있어서는 픽셀, 3차원 영상에 있어서는 복셀)로 구성된 다차원 데이터를 지칭한다.
예를 들어 "영상"은 현미경을 이용하여 관찰되는 소정 조직에 대한 슬라이드에 대응하는 2차원 영상을 의미할 수 있으나, "영상"은 이에 한정되는 것이 아니고, (콘-빔형; cone-beam) 전산화 단층 촬영(computed tomography), MRI(magnetic resonance imaging), 초음파 또는 본 발명의 기술분야에서 공지된 임의의 다른 의료 영상 시스템의 의하여 수집된 피검체(subject)의 의료 영상일 수 있다. 또한 영상은 비의료적 맥락에서 제공될 수도 있는바, 예를 들어 원격 감지 시스템(remote sensing system), 전자현미경(electron microscopy) 등등이 있을 수 있다.
본 명세서의 상세한 설명 및 청구항들에 걸쳐, '영상'은 (예컨대, 화면에 표시된) 눈으로 볼 수 있는 영상 또는 영상의 디지털 표현물을 지칭하는 용어이다.
설명의 편의를 위하여 제시된 도면에서는 슬라이드 영상 데이터가 예시적 영상 형식(modality)인 것으로 도시되었다. 그러나 통상의 기술자는 본 발명의 다양한 실시예에서 이용되는 영상 형식들이 X선 영상, MRI, CT, PET(positron emission tomography), PET-CT, SPECT, SPECT-CT, MR-PET, 3D 초음파 영상 등등을 포함하나 예시적으로 열거된 형식에 한정되지 않는다는 점을 이해할 수 있을 것이다.
본 명세서의 상세한 설명 및 청구항들에 걸쳐 설명되는 의료 영상은 'DICOM(Digital Imaging and Communications in Medicine; 의료용 디지털 영상 및 통신)' 표준에 따를 수 있다. DICOM 표준은 의료용 기기에서 디지털 영상 표현과 통신에 이용되는 여러 가지 표준을 총칭하는 용어인바, DICOM 표준은 미국 방사선 의학회(ACR)와 미국 전기 공업회(NEMA)에서 구성한 연합 위원회에서 발표한다.
또한, 본 명세서의 상세한 설명 및 청구항들에 걸쳐 설명되는 의료 영상은 '의료영상 저장 전송 시스템(PACS; Picture Archiving and Communication System)'을 통해 저장되거나 전송될 수 있으며, 의료영상 저장 전송 시스템은 DICOM 표준에 맞게 의료 영상을 저장, 가공, 전송하는 시스템일 수 있다. X선, CT, MRI와 같은 디지털 의료영상 장비를 이용하여 획득된 의료영상은 DICOM 형식으로 저장되고 네트워크를 통하여 병원 내외의 단말로 전송이 가능하며, 이에는 관찰 결과 및 진료 기록이 추가될 수 있다.
그리고 본 명세서의 상세한 설명 및 청구항들에 걸쳐 '학습' 혹은 '러닝'은 절차에 따른 컴퓨팅을 통하여 기계 학습(machine learning)을 수행함을 일컫는 용어인바, 인간의 교육 활동과 같은 정신적 작용을 지칭하도록 의도된 것이 아니며, 훈련(training)은 기계 학습에 관하여 일반적으로 받아들여지는 의미로 쓰인 것이다. 예를 들어, '딥 러닝'은 심층 인공 신경망을 이용한 기계 학습을 의미한다. 심층 신경망은 다층의 인공 신경망으로 이루어진 구조에서 다량의 데이터를 학습시킴으로써 각각의 데이터의 특징을 자동으로 학습하고, 이를 통해 목적/손실 함수, 즉 분류 정확도의 에러를 최소화시키는 방식으로 학습을 진행하는 기계 학습 모델이며, 점, 선, 면 등의 저수준의 특징에서부터 복잡하고 의미 있는 고수준의 특징까지 다양한 수준의 특징을 추출하고 분류할 수 있다.
그리고 본 명세서의 상세한 설명 및 청구항들에 걸쳐, '포함하다'라는 단어 및 그 변형은 다른 기술적 특징들, 부가물들, 구성요소들 또는 단계들을 제외하는 것으로 의도된 것이 아니다. 또한, '하나' 또는 '한'은 하나 이상의 의미로 쓰인 것이며, '또 다른'은 적어도 두 번째 이상으로 한정된다.
통상의 기술자에게 본 발명의 다른 목적들, 장점들 및 특성들이 일부는 본 명세서로부터, 그리고 일부는 본 발명의 실시로부터 드러날 것이다. 아래의 예시 및 도면은 실례로서 제공되며, 본 발명을 한정하는 것으로 의도된 것이 아니다. 따라서, 특정 구조나 기능에 관하여 본 명세서에 개시된 상세 사항들은 한정하는 의미로 해석되어서는 아니되고, 단지 통상의 기술자가 실질적으로 적합한 임의의 상세 구조들로써 본 발명을 다양하게 실시하도록 지침을 제공하는 대표적인 기초 자료로 해석되어야 할 것이다.
더욱이 본 발명은 본 명세서에 나타난 실시예들의 모든 가능한 조합들을 망라한다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예에 관련하여 본 발명의 사상 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 사상 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.
본 명세서에서 달리 표시되거나 분명히 문맥에 모순되지 않는 한, 단수로 지칭된 항목은, 그 문맥에서 달리 요구되지 않는 한, 복수의 것을 아우른다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.
이하, 통상의 기술자가 본 발명을 용이하게 실시할 수 있도록 하기 위하여, 본 발명의 바람직한 실시예들에 관하여 첨부된 도면을 참조하여 상세히 설명하기로 한다.
도 1은 인공 신경망인 CNN의 구조를 설명하기 위한 도면이다.
CNN(Convolutional Neural Network)은 합성곱 연산을 사용하는 ANN (Artificial Neural Network, 인공 신경망)의 한 종류이다. CNN은 이미지 특징 추출을 위해 입력 이미지 (또는, 입력 데이터)를 필터가 순회하며 합성곱을 계산하고, 상기 합성곱의 계산 결과를 이용하여 특징 맵 (Feature map) 또는 활성 맵 (Activation Map)을 생성할 수 있다.
상기 CNN은 각 레이어의 입출력 데이터의 형상 유지하고, 이미지의 공간 정보를 유지하면서 인접 이미지와의 특징을 효과적으로 인식하며, 복수의 필터로 이미지의 특징 추출 및 학습시킬 수 있고, 추출한 이미지의 특징을 모으고 강화하는 풀링 레이어를 선택적으로 포함할 수 있고, 필터를 공유 파라미터로 사용하기 때문에 일반 인공 신경망과 비교하여 학습 파라미터가 매우 적은 장점이 있다.
구체적으로, 도 1을 참조하면, 상기 CNN은 입력 이미지 (또는, 입력 데이터)로부터 특징을 추출하는 특징 추출 영역과 상기 추출된 특징을 분류하는 이미지 분류 영역을 포함할 수 있다. 상기 특징 추출 영역은 필터 (Filter)를 사용하여 공유 파라미터 수를 최소화하면서 이미지의 특징을 찾는 적어도 하나의 컨벌루션 (Convolution) 레이어를 포함할 수 있다. 또는, 상기 특징 추출 영역은 상기 특징을 강화하고 모으는 적어도 하나의 풀링 (Pooling) 레이어를 더 포함할 수도 있다. 즉, 상기 풀링 레이어는 생략될 수도 있다.
상기 컨벌루션 레이어는 입력 이미지 (또는, 입력 데이터)에 필터를 적용 후 활성화 함수를 반영하는 레이어이다. 상기 컨벌루션 레이어에 유입되는 입력 이미지에는 한 개 이상의 필터가 적용될 수 있다. 상기 1개 필터는 상기 특징 맵 (Feature Map)의 채널을 구성할 수 있다. 예컨대, 상기 컨벌루션 레이어에 n개의 필터가 적용될 경우, 상기 특징 맵 또는 상기 활성 맵 (또는, 출력 데이터)는 n개의 채널을 갖게 된다.
상기 풀링 레이어는 상기 컨벌루션 레이어 다음에 위치하는 선택적인 레이어이다. 상기 풀링 레이어는 컨볼류션 레이어의 출력 데이터를 입력으로 받아서 출력 데이터의 크기를 줄이거나 특정 데이터를 강조하기 위한 레이어로 사용될 수 있다. 상기 플링 레이어를 처리하는 방법은 최대 풀링 (Max Pooling), 평균 풀링 (Average Pooning), 최소 풀링 (Min Pooling)이 있다. 풀링 레이어는 학습 대상 파라미터가 없고, 행렬의 크기 감소시킬 수 있으며, 채널 수를 변경시키기 않는다.
상기 CNN은 필터 (Filter) 크기, Stride, 패딩 (Padding) 적용 여부, 최대 풀링 (Max Pooling) 크기에 따라서 출력 데이터의 형태 (Shape) 또는 크기가 조절될 수 있고, 필터의 개수를 통해 채널을 결정할 수 있다.
상기 FC 레이어는 인식 및 분류 동작을 위한 레이어로써, 기존 신경망에서 각 레이어 별로 연결에 사용하는 전결합 레이어이다. 상기 FC 레이어는 상기 특징 추출 영역에서의 출력 데이터의 2차원의 배열 형태를 1차원의 평탄화 작업을 수행할 수 있다. 상기 1차원의 평탄화된 상기 출력 데이터는 SoftMAx 함수를 통해 분류될 수 있다.
도 2은 MRI 장치를 이용하여 획득한 이미지 데이터인 MRI들을 설명하기 위한 도면이다.
자기공명영상(magnetic resonance imaging, MRI) 장치는 특정 세기의 자기장에서 발생하는 RF(Radio Frequency) 신호에 대한 MR(Magnetic Resonance) 신호의 세기를 명암 대비로 표현하여 대상체 (또는, 환자)의 단층 부위에 대한 이미지를 획득하는 기기이다. 예컨대, 대상체를 강력한 자기장 속에 눕힌 후 특정의 원자핵(예컨대, 수소 원자핵 등)만을 공명시키는 RF 신호를 대상체에 순간적으로 조사했다가 중단하면 특정의 원자핵에서 MR 신호가 방출되는데, MRI 장치는 이 MR 신호를 수신하여 MR 이미지를 획득할 수 있다. MR 신호는 대상체로부터 방사되는 RF 신호를 의미한다. 여기서, MR 신호의 크기는 대상체에 포함된 소정의 원자(예컨대, 수소 등)의 농도, 이완시간 T1, 이완시간 T2 및 혈류 등의 흐름에 의해 결정될 수 있다.
MRI 장치는 다른 이미징 장치들과는 다른 특징들을 포함한다. 이미지의 획득이 감지 하드웨어(detectinghardware)의 방향에 의존하는 CT와 같은 이미징 장치들과 달리, MRI 장치는 임의의 지점으로 지향된 2D 이미지 또는 3D 볼륨 이미지를 획득할 수 있다. 또한, MRI 장치는, CT, X-ray, PET 및 SPECT와 달리, 대상체 및 검사자에게 방사선을 노출시키지 않으며, 높은 연부 조직(soft tissue) 대조도를 갖는 이미지의 획득이 가능하여, 비정상적인 조직의 명확한 묘사가 중요한 신경(neurological) 이미지, 혈관 내부(intravascular) 이미지, 근 골격(musculoskeletal) 이미지 및 종양(oncologic) 이미지 등을 획득할 수 있다.
구체적으로, 도 2을 참조하면, 상기 MRI 장치는 T1-w (T1-weighted) MRI, T2-w (T2-weighted) MRI, FLAIR(Fluid attenuated inversion recovery) MRI 등을 획득할 수 있다.
상기, T1-w 및 T2-w MRI는 TR (repetition time) 및 TE (time to echo)를 조절하여 특정 조직의 T1 또는 T2 효과가 강조된 영상이다. 여기서, 상기 TR은 같은 크기의 RF 펄스를 인가하는 시간 간격으로서, 반복시간이다. 상기 TE는 지연시간 또는 에코시간이다 MRI의 과정에서, 인가하였던 RF(radio frequency) 펄스를 차단하면 조직의 양성자는 흡수하였던 에너지를 주변 조직에 방출하면서 외부 자기장(B0) 방향(Z축 방향)으로 재정렬하게 된다.
여기서, T1은 종축인 Z축을 따라 양성자의 스핀들이 재정렬하는 시간, 즉 Z축 방향 자화가 회복되는 곡선의 시간상수이다. T1은 자화 회복의 시간상수로서 종축 이완시간 또는, 스핀-격자 이완시간(spin-lattice relaxation time)이라고 부른다. 한편, RF 펄스가 차단되면, 자화의 XY성분은 붕괴한다.
또한, T2는 자화의 XY 성분 붕괴 곡선의 시간 상수로서 횡 이완시간 또는, 스핀-스핀 이완시간 (spin-spin relaxation time)으로 부른다. T1 및 T2는 조직의 고유값이며, 물, 고체, 지방, 단백질마다 다른 값을 가진다. 여기서, TR을 길게 하면 T1 효과를 감소시킨다. 반대로, TR을 짧게 하면 T1 효과(대조도)를 증대, 즉, T1-w MRI가 획득된다. TE를 짧게 하면 T2 효과를 감소시키고, 길게 하면 T2 효과를 증대, 즉, T2-w MRI가 획득된다.
FLAIR MRI는 긴 역전 시간과 에코 시간으로 뇌척수액의 신호를 약화시켜 T2-w MRI에서 놓치기 쉬운 병변의 발견을 더욱 용이하게 한 자기영상장치를 이용한 신호 획득 기법이나 이 기법으로 획득되는 영상을 지칭한다. FLAIR MRI은 유체 감쇠 반전 복구 MRI로 지칭될 수도 있다.
상기 MRI를 통해 획득한 영상은 뇌 질환의 진단, 뇌 병변을 검출 또는 식별하는데 이용될 수 있다. 특히, 상기 MRI들을 통해 혈관성 치매에 대한 정보를 획득할 수 있다.
도 3은 인공 신경망에 기반한 파제카스 분류 모델을 학습시키는 컴퓨팅 장치를 설명한다.
도 3을 참조하면, 컴퓨팅 장치(100)는, 통신부(110) 및 프로세서(120)를 포함하며, 상기 통신부(110)를 통하여 외부 컴퓨팅 장치(미도시)와 직간접적으로 통신할 수 있다. 여기서, 통신부 (110)는 타 컴퓨팅 장치와 요청과 응답을 송수신할 수 있는 송수신기와 대응하거나 상기 송수신기를 포함할 수 있다.
구체적으로, 컴퓨팅 장치(100)는, 전형적인 컴퓨터 하드웨어(예컨대, 컴퓨터 프로세서, 메모리, 스토리지, 입력 장치 및 출력 장치, 기타 기존의 영상 처리 장치의 구성요소들을 포함할 수 있는 장치; 라우터, 스위치 등과 같은 전자 통신 장치; 네트워크 부착 스토리지(NAS; network-attached storage) 및 스토리지 영역 네트워크(SAN; storage area network)와 같은 전자 정보 스토리지 시스템)와 컴퓨터 소프트웨어(즉, 컴퓨팅 장치로 하여금 특정의 방식으로 기능하게 하는 명령어들)의 조합을 이용하여 원하는 시스템 성능을 달성하는 것일 수 있다.
이와 같은 통신부(110)는 연동되는 타 영상 처리 장치와 요청과 응답을 송수신할 수 있는바, 일 예시로서 그러한 요청과 응답은 동일한 TCP(transmission control protocol) 세션(session)에 의하여 이루어질 수 있지만, 이에 한정되지는 않는바, 예컨대 UDP(user datagram protocol) 데이터그램(datagram)으로서 송수신될 수도 있을 것이다. 덧붙여, 넓은 의미에서 상기 통신부(110)는 명령어 또는 지시 등을 전달받기 위한 키보드, 마우스와 같은 포인팅 장치(pointing device), 기타 외부 입력장치, 프린터, 디스플레이, 기타 외부 출력장치를 포함할 수 있다.
또한, 컴퓨팅 장치(100)의 프로세서(120)는 MPU(micro processing unit), CPU(central processing unit), GPU(graphics processing unit) 또는 TPU(tensor processing unit), 캐시 메모리(cache memory), 데이터 버스(data bus) 등의 하드웨어 구성을 포함할 수 있다. 또한, 운영체제, 특정 목적을 수행하는 애플리케이션의 소프트웨어 구성을 더 포함할 수도 있다. 프로세서(120)는 이하에서 설명하는 신경망의 기능을 수행하기 위한 명령어들을 실행할 수 있다.
프로세서(120)는 상기 인공 신경망에 기반한 파제카스 스케일 (Fazekas scale)과 관련된 모델들을 학습시킬 수 있다. 여기서, 상기 파제카스 스케일은 뇌 백질변성 (white matter hyperintensity, WMH)의 정도 (grade)를 분류해주는 지표 중 하나로써 혈관성 치매인 VAD (Vascular Dementia) 진단과 관련된 예측 및 분석에 이용될 수 있다. 파제카스 스케일은 0, 1, 2 및 3 (이하, 분류 정보)으로 정도가 분류되는 지표일 수 있다. 상기 파제카스 스케일은 지표의 값이 커질수록 VAD와 관련된 증상이 심해지는 걸 의미할 수 있다.
구체적으로, 프로세서(120)는 상기 모델들에 학습 데이터를 입력하고, 상기 학습 데이터에 포함된 MRI 등 이미지 데이터에 대한 특징을 추출할 수 있다. 여기서, 프로세서(120)는 추출된 특징에 기반하여 상기 모델이 출력하는 파제카스 스케일에 대한 분류 정보를 획득할 수 있다. 프로세서(120)는 획득한 분류 정보와 상기 학습 데이터에 포함된 레이블 정보를 이용하여 상기 모델들과 관련된 손실 함수가 최소화되도록 상기 모델들에 대한 파라미터들 (또는 가중치들)을 조정하여 상기 모델들을 학습시킬 수 있다. 상기 레이블 정보는 상기 학습 데이터에 포함된 MRI에 대응하여 평가된 파제카스 스케일과 관련된 분류 정보를 포함할 수 있다. 프로세서(120)는 상기 분류 정보에 기반하여 VAD 등 질환에 대한 예측 및 분석을 수행할 수 있다.
도 4은 컴퓨팅 장치가 파제카스 분류 모델을 학습시키는 방법을 설명하기 위한 도면이다.
도 4를 참조하면, 파제카스 분류 모델(200)은 이미지 데이터로부터 파제카스와 관련된 이미지 특징에 대한 제1 특징 벡터를 추출하고, 상기 제1 특징 벡터를 이용하여 상기 이미지 데이터에 대한 분류 정보를 출력할 수 있다.
구체적으로, 상기 컴퓨팅 장치는 이미지 데이터 (10) 및 레이블 정보를 포함하는 학습 데이터를 입력 받을 수 있다. 상기 컴퓨팅 장치는 파제카스 분류 모델 (200)에 이미지 데이터 (10)를 입력할 수 있다.
파제카스 분류 모델 (200)는 이미지 데이터 (10)에 기반하여 상기 파제카스 스케일과 관련된 상기 제1 특징 벡터를 추출할 수 있다. 예컨대, 파제카스 분류 모델 (200)은 도 1을 참조하여 설명한 CNN을 기반으로 이미지 데이터 (10)로부터 상기 제1 특징 벡터를 추출 할 수 있다. 한편, 상기 파제카스 분류 모델이 상기 제1 특징 벡터를 추출하는 인공 신경망으로 CNN을 제시하고 있으나, 이에 제한되지 않고 상기 이미지 데이터로부터 제1 특징 벡터를 추출할 수 있는 Deep Neural Network (DNN), Recurrent Neural Network (RNN), Long Short-Term Memory models (LSTM), BRDNN (Bidirectional Recurrent Deep Neural Network), Convolutional Neural Networks (CNN) 등 다양한 종류의 신경망 중 어느 하나에 기반할 수도 있다.
다음으로, 파제카스 분류 모델 (200)은 추출된 상기 제1 특징 벡터에 기반하여 이미지 데이터 (10)에 대응하는 분류 정보를 출력할 수 있다. 예컨대, 분류 정보는 파제카스 스케일과 관련된 지표 값에 대한 확률 값 또는 예측 값을 포함할 수 있다. 상기 컴퓨팅 장치는 상기 분류 정보와 및 레이블 정보에 기반하여 파제카스 분류 모델 (200)에 대한 손실 함수가 최소화되도록 파제카스 분류 모델 (200)을 학습시킬 수 있다.
한편, 상기 학습 데이터는 이미지 데이터 (10)에 대해 평가자 (의사 등)가 진단 또는 평가한 파제카스 스케일의 값을 포함하는 레이블 정보를 포함할 수 있다. 상기 레이블 정보는 평가자 (의사 등)가 상기 이미지 데이터에 대한 DWMH (Deep WMH) 및/또는 PVWMH (Periventricular WMH)을 고려하여 미리 평가된 파제카스 스케일의 값을 포함할 수 있다.
여기서, 이미지 데이터 (10)에 대한 레이블 정보는 상기 평가자의 주관에 따라 상이해질 수 있다. 구체적으로, 상기 파제카스 스케일의 값들의 구분 기준이 명확하지 않고 상기 파제카스 스케일의 값들 간의 상호 관계 (또는, correlation)에 의해 상기 평가자가 정확한 파제카스 스케일의 값을 해석 또는 예측하기 어렵다. 이런 점에서, 상기 파제카스 스케일의 값은 상기 평가자의 주관적 해석에 따라 상이해질 수 있다. 이 경우, 컴퓨팅 장치가 상기 레이블 정보를 이용하여 상기 파제카스 분류 모델을 학습시킬 경우, 상기 레이블 값의 주관성 및 불명확한 평가 기준에 의해 상기 파제카스 분류 모델의 정확도 및 분류 능력이 저하될 수 있다.
따라서, 임상환경에서 유의미하게 활용할 수 있도록 상기 평가자의 주관적 해석의 영향의 우려를 최소화한 상기 파제카스 분류 모델의 학습 방법이 필요하다. 예컨대, 상기 컴퓨팅 장치가 상기 레이블 정보 등에 의한 주관성 및 불명확성을 해소하기 위해 객관성이 확보된 별도의 정량 특징을 추가적으로 반영하여 상기 파제카스 분류 모델을 학습시키는 방법이 고려될 필요가 있다.
이하에서는, 학습 과정에서 상기 파제카스 스케일의 예측 및 해석의 정확도를 향상시키기 위해서 객관성이 확보된 특징인 정량 특징을 출력하는 세그먼테이션 모델을 추가적으로 정의하고, 상기 세그먼테이션 모델 및 상기 파제카스 분류 모델로 구성된 멀티 태스크에 기반하여 상기 세그먼테이션 모델 및 상기 파제카스 분류 모델을 학습시키는 방법을 자세히 설명한다.
도 5은 컴퓨팅 장치가 세그먼테이션 모델 및 파제카스 분류 모델을 학습시키는 방법을 설명하기 위한 도면이다.
도 5를 참조하면, 파제카스 분류 모델 (201)에 정량 특징을 추가적으로 반영하기 위해서 뇌 백질변성 (white matter hyperintensity, WMH)과 관련된 세그먼테이션 정보를 출력하는 세그먼테이션 모델 (300)이 추가적으로 이용될 수 있다. 즉, 파제카스 분류 모델 (201) 및 세그먼테이션 모델 (300)를 포함하는 멀티 태스크 학습을 구성하여 분류 성능 및 정확도가 높아지도록 파제카스 분류 모델 (201)을 학습시킬 수 있다.
컴퓨팅 장치는 상기 멀티 태스크 학습과 관련된 학습 데이터를 입력 받을 수 있다. 상기 학습 데이터는 이미지 데이터 (10), 파제카스 분류 모델 (201)에 대한 제1 레이블 정보 (예컨대, 상기 이미지 데이터에 대해 미리 결정된 파제카스 스케일의 지표 값), 세그먼테이션 모델 (300)에 대한 제2 레이블 정보 (예컨대, 상기 이미지 데이터에서WMH (DWMH, PVWMH)에 대해 세그먼테이션된 마스크 (또는, 부피 값)를 포함할 수 있다. 예컨대, 상기 제2 레이블 정보는 이미지 데이터 (10)에 대해 미리 산출된 DWMH에 대한 DWMH에 대해 세그먼테이션된 제1 마스크 및 PVWMH에 대한 PVWMH에 대해 세그먼테이션된 제2 마스크를 포함할 수 있다. 예컨대, 상기 제2 레이블 정보는 이미지 데이터 (10)에서 상기 DWMH와 관련된 영역이 마스킹된 제1 마스크 및 이미지 데이터 (10)에서 상기 PVWMH와 관련된 영역이 마스킹된 제2 마스크에 대한 정보를 포함할 수 있다. 이미지 데이터 (10)는 3D 영상 (또는, FLAIR 전체 이미지 영상)을 포함할 수 있다.
한편, 상기 제1 레이블 정보에 포함된 파제카스 스케일에 대한 지표 값은 상기 제2 레이블 정보에 포함된 제1 마스크 및 제2 마스크에 기초하여 평가된 파제카스 스케일 값과 대응할 수 있다. 예컨대, 이미지 데이터 (10)에 대한 제1 마스크에 기반하여 제1 파제카스 스케일 값이 미리 평가되고, 이미지 데이터 (10)에 대한 제2 마스크에 기반하여 제2 파제카스 스케일 값이 미리 평가될 수 있다., 상기 제1 레이블 정보는 상기 제1 파제카스 스케일 값 및 상기 제2 파제카스 스케일 값 중에서 큰 값을 포함할 수 있다. 이를 통해, 상기 제1 레이블 정보의 주관성을 완화시킬 수 있다. 아울러, 상기 파제카스 스케일 값은 일반적으로 0, 1, 2 및 3 중 어느 하나로 결정될 수 있으나, (0, 1)의 구분은 임상적인 의미가 크지 않는 바 (0,1)의 경우에 구분 없이 1로 구성될 수 있다.
파제카스 분류 모델 (201)은 이미지 데이터 (10)으로부터 획득된 특정 축 방향에 대해 획득한 일부 2D 이미지들 (예컨대, 상하 축 (axial) 방향의 2D-FLAIR)가 입력될 수 있다. 예컨대, 파제카스 분류 모델 (201)은 특정 축 방향에 대한 복수의 2D 이미지들 중 가운데에 위치한 (예컨대, 상하 축 방향을 기준으로 뇌의 가운데) 2D 이미지를 기준으로 미리 설정된 범위 (예컨대,
Figure pat00001
7)에 있는 일부 2D 이미지들을 입력 받을 수 있다. 파제카스 분류 모델 (201)은 상기 입력된 2D 이미지들로부터 이미지 특징 (shape, location, distribution 등)과 관련된 제1 특징 벡터를 추출할 수 있다. 예컨대, 상기 제1 특징 벡터는 2D 이미지들에 대한 이미지 특징과 관련된 제1 로짓 (logit1), 제2 로짓 (logit2) 등을 포함할 수 있다.
세그먼테이션 모델 (300)은 이미지 데이터 (10)로부터 특정 축 방향에 대해 획득한 2D 이미지들 전부가 입력될 수 있다. 또는, 세그먼테이션 모델 (300)은 이미지 데이터 (10)로부터 3개 축 방향 ((Sagittal axis, Axial axis 및 Coronal axis) 각각에 대해 획득한 전체 복수의 2D 이미지 (2D MRI Slice)들이 입력되거나 상기 3D 영상의 전체가 입력될 수 있다.
세그먼테이션 모델 (300)은 이미지 데이터 (10)로부터 WMH와 관련된 세그먼테이션 정보를 출력하기 위한 특징 (W)을 추출하고, 상기 특징 (W)에 기반하여 세그먼테이션 정보 (Z)를 출력할 수 있다. 세그먼테이션 정보 (Z)는 상기 DWMH (Deep WMH)에 대한 제1 부피 정보 (또는, 제1 부피 값, 상기 제1 부피 값과 관련된 제1 확률 값) 및/또는 PVWMH에 대한 제2 부피 정보 (또는, 제2 부피 값, 제2 부피 값과 관련된 제2 확률 값)를 포함할 수 있다. 또한, 세그먼테이션 모델 (300)은 세그먼테이션 정보 (Z) 및 상기 제2 레이블 정보에 기초하여 산출된 세그먼테이션 손실 (segmentation loss)를 출력할 수 있다. 또는, 상기 컴퓨팅 장치는 세그먼테이션 정보 (Z) 및 상기 제2 레이블 정보에 기초하여 세그먼테이션 손실을 산출할 수 있다.
파제카스 분류 모델 (201)은 세그먼테이션 모델 (300)가 출력한 세그먼테이션 정보를 추가적으로 고려하여 분류 정보를 출력할 수 있다. 예컨대, 상기 제1 특징 벡터는 상기 세그먼테이션 정보 (또는, 세그먼테이션 정보에 포함된 부피 값들의 변수들)와 연결 (concatenation)될 수 있다. 파제카스 분류 모델 (201)은 상기 세그먼테이션 정보와 연결된 상기 제1 특징 벡터인 제2 특징 벡터를 이용하여 이미지 데이터 (10)에 대한 분류 정보를 출력할 수 있다. 상술한 바와 같이, 상기 분류 정보는 파제카스 스케일 또는 파제카스 스코어와 관련된 값인 1, 2 및 3 각각에 대한 확률 값 또는 예측 값을 포함할 수 있다.
또는, 파제카스 분류 모델 (201)은 이미지 데이터 (10)와 관련하여 입력된 메타 데이터도 추가적으로 고려하여 상기 분류 정보를 출력할 수 있다. 여기서, 상기 메타 데이터는 이미지 데이터 (10)의 대상체 (환자 등)의 특성인 나이, 성별 등에 대한 정보 및/또는 상기 이미지 데이터를 획득한 장치 (예컨대, MRI 장치)의 특성 (MRI vendor, magnetic field strength)을 포함할 수 있다. 이 경우, 파제카스 분류 모델 (201)은 상기 세그먼테이션 정보 및 상기 메타 데이터와 관련된 변수들이 연결 (concatenation)된 상기 제1 특징 벡터인 제2 특징 벡터를 이용하여 상기 분류 정보를 출력할 수 있다.
즉, 파제카스 분류 모델 (201)은 2D 이미지들에 대한 이미지 특징 (shape, location, distribution)을 포함하는 제1 특징 벡터뿐만 아니라 객관성이 확보된 정량적 특징인 세그먼테이션 정보 및/또는 메타 데이터를 추가적으로 고려하여 분류 정보를 출력할 수 있다.
상기 컴퓨팅 장치는 상기 분류 정보 및 상기 제1 레이블 정보를 이용하여, 파제카스 분류 모델 (201)과 관련된 분류 손실을 산출할 수 있다. 예컨대, 상기 컴퓨팅 장치는 파제카스 분류 모델 (201)의 손실 함수에 상기 분류 정보에 포함된 확률 값 및 상기 제1 레이블 정보에 포함된 레이블 값을 반영하여 상기 분류 손실을 산출할 수 있다.
상기 컴퓨팅 장치는 세그먼테이션 모델 (300)이 출력한 세그먼테이션 손실 및 상기 분류 손실에 기반하여 파제카스 분류 모델 (201) 및 세그먼테이션 모델 (300)을 학습시킬 수 있다. 예컨대, 상기 컴퓨팅 장치는 상기 분류 손실 및 상기 세그먼테이션 손실 각각을 항으로 포함하는 전체 손실 함수의 손실 값이 최소화되도록 파제카스 분류 모델 (201) 및 세그먼테이션 모델 (300) 각각의 파라미터들 또는 가중치들을 조정하여 파제카스 분류 모델 (201) 및 세그먼테이션 모델 (300)을 학습시킬 수 있다.
도 6 및 도 7은 컴퓨팅 장치가 세그먼테이션 모델 및 학습 데이터를 이용하여 파제카스 분류 모델을 학습시키는 방법을 설명하기 위한 도면이다.
도 6을 참조하면, 컴퓨팅 장치는 입력된 학습데이터를 이용하여 세그먼테이션 모델 (300) 및 파제카스 분류 모델 (201)을 학습시킬 수 있다.
여기서, 파제카스 분류 모델 (201)은 상기 학습데이터에 포함된 이미지 데이터(10)에 기반하여 제1 특징 벡터 (X)를 추출하는 특징 추출부 (210), 제1 특징 벡터(X)에 정량 특징을 연결시켜 제2 특징 벡터를 생성하는 특징 연결부 (220) 및 상기 제2 특징 벡터에 기반하여 분류 정보를 출력하는 분류부 (230)를 포함할 수 있다. 한편, 특징 추출부 (210) 및 분류부(230)는 인공 신경망에 기반하여 제1 특징 벡터 (X)를 추출하고 상기 분류 정보를 출력할 수 있다.
파제카스 분류 모델 (201)은 도 5를 참조하여 설명한 바와 같이 이미지 데이터 (10)로부터 특정 축 방향에 대해 획득한 일부 2D 이미지들 (예컨대, 상하 축 (axial) 방향의 2D-FLAIR)가 입력될 수 있다. 이 경우, 특징 추출부 (200)은 상기 입력된 2D 이미지들로부터 이미지 특징 (shape, location, distribution 등)과 관련된 제1 특징 벡터 (X)를 추출할 수 있다. 예컨대, 제1 특징 벡터 (X)는 2D 이미지들에 대한 이미지 특징과 관련된 제1 로짓 (logit1), 제2 로짓 (logit2) 등을 포함할 수 있다. 또는, 파제카스 분류 모델 (201)은 이미지 데이터 (10)와 관련된 메타 데이터 (M)를 추가적으로 입력 받을 수 있다.
세그먼테이션 모델 (300)은 도 5를 참조하여 설명한 바와 같이 이미지 데이터 (10)로부터 특정 축 방향에 대해 획득한 2D 이미지들 전부 또는 이미지 데이터(10) 전체가 입력될 수 있다. 세그먼테이션 모델 (300)은 이미지 데이터 (10)로부터 WMH와 관련된 세그먼테이션 정보를 출력하기 위한 특징을 추출하고, 상기 특징 에 기반하여 세그먼테이션 정보 (Z)를 출력할 수 있다. 세그먼테이션 정보 (Z)는 상기 DWMH (Deep WMH)에 대한 제1 부피 정보 (또는, 제1 부피 값, 상기 제1 부피 값과 관련된 제1 확률 값) 및/또는 PVWMH에 대한 제2 부피 정보 (또는, 제2 부피 값, 제2 부피 값과 관련된 제2 확률 값)를 포함할 수 있다.
또한, 세그먼테이션 모델 (300)은 세그먼테이션 정보 (Z) 및 상기 제2 레이블 정보에 기초하여 세그먼테이션 손실 (segmentation loss)를 산출할 수 있다. 여기서, 세그먼테이션 손실 (segmentation loss)은 분류 난이도 (또는, 분류 에러)에 따라 손실 함수에 대한 가중치를 부가하는 방식인 포칼 손실 (Focal loss)에 기반하여 산출될 수 있다.
예컨대, 세그먼테이션 모델 (300)은 분류 에러 또는 분류 난이도가 높은 경우 손실 함수에 큰 가중치가 부여되고, 분류 에러 또는 분류 난이도가 낮은 경우 (즉, 상기 세그먼테이션 정보가 상기 제2 레이블 정보에 근접한 정도)에 대해 손실 함수에 작은 가중치가 부여될 수 있다. 예컨대, 상기 제2 레이블 정보 및 상기 세그먼테이션 정보에 기초하여 상기 가중치가 결정될 수 있다. 세그먼테이션 모델 (300)은 하기의 수학식 1에 정의된 손실 함수를 이용하여 세그먼테이션 정보 (Z)에 대한 상기 세그먼테이션 손실을 출력할 수 있다.
Figure pat00002
여기서, α는 상술한 가중치이고, p는 세그먼테이션 모델이 예측한 확률 값 (또는, 세그먼테이션 정보에 포함된 확률 값)으로 0 내지 1 사이의 값을 갖고, r은 포커싱 파라미터로써 0~5 사이의 값을 가질 수 있다.
특징 연결부 (220)는 제1 특징 벡터 (X) 및 세그먼테이션 정보 (Z)를 입력받을 수 있다. 특징 연결부 (220)는 제1 특징 벡터 (X)에 세그먼테이션 정보 (Z)와 관련된 변수를 연결 (concatenation)시킬 수 있다. 여기서, 세그먼테이션 정보 (Z)와 관련된 변수는 상기 세그먼테이션 정보에 기반하여 산출되는 DWMH에 대한 제1 부피 값 및/또는 상기 PVWMH에 대한 제2 부피 값일 수 있다. 이 경우, 특징 연결부 (220)는 상기 제1 부피 값 및/또는 제2 부피 값을 제1 특징 벡터 (X)에 연결시켜 제2 특징 벡터를 생성할 수 있다. 예컨대, 상기 제1 특징 벡터는 제1 로짓 (logit 1), 제2 로짓 (logit 2) 등 복수의 로짓들에 대한 변수들을 포함할 수 있고, 특징 연결부 (220)는 상기 제1 부피 값 및 상기 제2 부피 값에 대한 변수를 상기 제1 특징 벡터에 포함시켜 복수의 로짓들, 제1 부피 값 및 제2 부피 값에 대한 변수를 포함하는 상기 제2 특징 벡터를 생성할 수 있다. 또는, 제1 특징 벡터 (X)가 복수개인 경우, 특징 연결부 (220)는 제1 특징 벡터 (X)들 각각에 대해 세그먼테이션 정보 (Z)와 관련된 변수를 연결 (concatenation)시킬 수 있다.
또는, 특징 연결부 (220)는 상기 이미지 데이터와 관련된 메타 데이터 (M)도 추가적으로 입력 받을 수 있다. 메타 데이터 (M)는 상기 이미지 데이터의 대상체 (환자 등)의 특성인 나이, 성별 등에 대한 정보 및/또는 상기 이미지 데이터를 획득한 장치 (예컨대, MRI 장치)의 특성 (MRI vendor, magnetic field strength)을 포함할 수 있다. 이 경우, 특징 연결부 (220)는 제1 특징 벡터 (X)에 상기 제1 부피 값, 상기 제2 부피 값, 나이, 성별 등을 연결하여 상기 제2 특징 벡터를 생성할 수 있다. 예컨대, 특징 연결부 (220)는 복수의 로짓들, 제1 부피 값, 제2 부피 값, 나이, 성별 등의 변수들을 상기 제2 특징 벡터를 생성할 수 있다. 또는, 제1 특징 벡터 (X)가 복수개인 경우, 특징 연결부 (220)는 제1 특징 벡터 (X)들 각각에 대해 세그먼테이션 정보 (Z)와 관련된 변수 및 상게 메타 데이터 (M)와 관련된 변수를 연결 (concatenation)시킬 수 있다.
한편, 특징 연결부 (220)는 파제카스 분류 모델 (201)에 포함되지 않을 수도 있다. 이 경우, 파제카스 분류 모델 (201)은 제1 특징 벡터 (X)를 출력하고, 컴퓨팅 장치에 의해 세그먼테이션 정보 및/또는 메타 데이터가 연결된 제1 특징 벡터 (X)인 제2 특징 벡터를 입력받아 분류 정보를 출력할 수 있다. 즉, 특징 연결부 (220)는 파제카스 분류 모델 (201)에 포함되거나 상기 컴퓨팅 장치의 동작과 관련된 별도 유닛일 수도 있다.
분류부 (230)는 상기 제2 특징 벡터들을 입력 받을 수 있다. 분류부 (230)는 입력된 제2 특징 벡터에 기초하여 상기 이미지 데이터에 대응하는 분류 정보를 출력할 수 있다. 여기서, 상기 분류 정보는 파제카스 스케일과 관련된 확률 값 또는 예측 값을 포함할 수 있다. 예컨대, 상기 분류 정보는 파제카스 스케일 또는 파제카스 스코어와 관련된 값인 1, 2 및 3 각각에 대한 확률 값 또는 예측 값을 포함할 수 있다.
분류부 (230)는 랜덤 포레스트 (random forest) 모델에 기반하여 분류 정보를 출력할 수 있다. 예컨대, 분류부 (230)는 입력되는 제2 특징 벡터의 요소들 (또는, 복수의 변수들)을 부트스트랩 샘플링 (Bootstrap sampling)하여 복수의 변수 세트들을 생성하고, 상기 복수의 변수 세트들에 기반하여 의사 결정 트리들을 형성할 수 있다. 분류부 (230)는 형성된 의사 결정 트리들의 투표 등의 결과에 기초하여 입력되는 제2 특징 벡터와 관련된 분류 정보를 출력할 수 있다. 아울러, 분류부 (230)는 상기 제2 특징 벡터에 포함된 변수들 각각이 상기 분류 정보에 영향을 준 정도에 대한 중요도 정보도 함께 출력할 수 있다. 한편, 상술한 랜덤 포레스트 모델의 동작은 하나의 예시일 뿐, 분류부 (230)는 다양한 타입 또는 다양한 형태의 랜덤 포레스트 모델에 기반하여 분류 정보를 출력할 수 있다.
구체적으로, 도 7을 참조하면, 분류부 (230)는 상기 의사 결정 트리들의 투표 등의 결과에 기초하여 상기 제2 특징 벡터들에 포함된 변수들 각각이 상기 분류 정보에 영향을 미치는 정도 (중요도)를 출력할 수 있다. 예컨대, 제2 특징 벡터가 제1 특징 벡터에 포함된 변수들 (logit1, logit2), 제1 부피 값 (즉, DWMH), 제2 부피 값 (즉, PVWMH), 나이, 성별 등의 변수들을 포함하는 경우, 분류부 (230)는 제2 부피값 (PVWMH), 나이, 제1 부피 값 (DWMH), 제1 로짓 (logit1) 및 제2 로짓 (logit2) 순서로 중요도를 표현하는 중요도 정보를 출력할 수 있다.
또한, 분류부 (230) 또는 컴퓨팅 장치는 하기의 수학식 2에 기반하여 상기 분류 정보에 대한 분류 손실을 산출할 수 있다.
Figure pat00003
상기 K은 데이터 셋의 수, y는 그라운드 트루스 값 (또는, 레이블 값),
Figure pat00004
는 상기 분류 정보에 포함된 확률 값일 수 있다.
상기 컴퓨팅 장치는 상기 분류 손실 및 상기 세그먼테이션 손실 각각을 항으로 포함하는 전체 손실함수에 기초하여 파제카스 분류 모델 (201) 및 세그먼테이션 모델 (300)을 학습시킬 수 있다. 또는, 상기 컴퓨팅 장치는 파제카스 분류 모델 (201)에서 특징 추출부 (210) 및 세그먼테이션 모델 (300)을 학습시킬 수 있다. 여기서, 상기 전체 손실함수는 하기의 수학식 3과 같이 정의될 수 있다.
Figure pat00005
Lseg는 상술한 세그먼테이션 손실이고, Lclass는 상술한 분류 손실이며, λ는 상기 두 손실과 관련된 가중치일 수 있다.
상기 컴퓨팅 장치는 상기 전체 손실함수에 의한 손실 값이 최소화될 수 있도록 파제카스 분류 모델 (201) 및 세그먼테이션 모델 (300) 각각에 대한 파라미터들 (또는 가중치들)을 조정하여 파제카스 분류 모델 (201) 및 세그먼테이션 모델 (300)을 학습시킬 수 있다.
이와 같이, 상기 컴퓨팅 장치는 세그먼테이션 모델 (300)에서 출력된 정량 특징 (제1 부피 값 및/또는 제2 부피 값)이 이미지 데이터 (10)에 대한 분류 정보에서 유의미한 영향을 줄 수 있도록 분류 손실 및 세그먼테이션 손실을 동시에 고려하여 파제카스 분류 모델 (201) 및 세그먼테이션 모델 (300)을 동시에 학습시킬 수 있다. 이 경우, 파제카스 분류 모델 (201)은 정량적 특징을 추가적으로 고려하여 학습 과정에서 기존 레이블 정보에 의한 주관성이 크게 완화되어 견고한 분류 정보를 출력할 수 있도록 학습될 수 있다. 또한, 주관성의 완화 및 객관적인 기준인 정량적 특징의 추가 고려로, 파제카스 분류 모델 (201) 및 세그먼테이션 모델 (300)은 분해 성능 및 정확도가 크게 향상되도록 학습될 수 있다. 나아가, 상기 컴퓨팅 장치는 상기 제2 특징 벡터에 메타 데이터 (M)와 관련된 특성도 추가적으로 포함시킴으로써 보다 견고하고 정확한 분류 정보를 출력하도록 파제카스 분류 모델 (201) 및 세그먼테이션 모델 (300)을 동시에 학습시킬 수 있다.
도 8은 컴퓨팅 장치가 입력된 이미지 데이터에 대한 분류 정보를 출력하는 방법을 설명하기 위한 도면이다.
도 8을 참조하면, 컴퓨팅 장치는 파제카스와 관련된 지표 값을 분류하기 위한 이미지 데이터 (11)를 입력 받을 수 있다. 상술한 바와 같이 이미지 데이터 (11)는 3D 영상 (또는, FLAIR 전체 이미지 영상)을 포함할 수 있다. 이 경우, 파제카스 분류 모델 (202)은 도 5에 참조하여 설명한 바와 같이 특정 축 방향에 대해 획득한 2D 이미지들 (예컨대, 특정 축 방향에 대해 획득할 수 있는 복수의 2D 이미지들 중 가운데 2D 이미지를 기준으로 일부 2D 이미지들)이 입력될 수 있고, 세그먼테이션 모델 (302)은 상기 3D 영상의 전체가 입력될 수 있다.
파제카스 분류 모델 (202)은 2D 이미지들로부터 제1 특징 벡터 (X)를 추출할 수 있다. 예컨대, 파제카스 분류 모델 (202)은 CNN에 기반하여 상기 2D 이미지들로부터 이미지 특징인 제1 특징 벡터 (X)를 추출할 수 있다. 제1 특징 벡터 (X)는 상기 이미지 특징과 관련된 제1 로짓 (logit 1), 제2 로짓 (logit 2) 등의 정보를 포함 (또는, 벡터의 요소로써 포함)할 수 있다.
세그먼테이션 모델 (302)은 입력된 3D 영상에 기초하여 PWMH 및/또는 DWMH를 산출하기 위한 세그먼테이션 정보 (Z)를 생성할 수 있다. 상기 세그먼테이션 정보 (Z)는 PWMH 및/또는 DWMH 값의 산출과 관련된 확률 값 (또는, 예측 값)을 포함할 수 있다.
파제카스 분류 모델 (202)은 상기 세그먼테이션 정보에 기반하여 산출된 부피 값들 (Z) 및 입력된 메타 데이터 (M) (나이, 성별 등)가 연결된 제1 특징 벡터 (X)인 제2 특징 벡터에 기반하여 상기 이미지 데이터에 대한 분류 정보를 출력할 수 있다. 예컨대, 상기 제2 특징 벡터는 제1 특징 벡터 (X)에 포함된 변수들 (제1 로짓, 및 제2 로짓 등), 제1 부피 값 (DWMH 값) 및 제2 부피 값 (PWMH 값)에 대한 변수들, 나이 및 성별에 대한 변수들 포함할 수 있다.
구체적으로, 파제카스 분류 모델 (202)은 도 6를 참조하여 설명한 바와 같이, 랜덤 포레스트 모델에 기반하여 제2 특징 벡터들에 포함된 변수들을 부트스트랩 샘플링 (Bootstrap sampling)할 수 있다. 파제카스 분류 모델 (202)은 부트스트랩 샘플링에 의해 생성된 복수의 변수 세트들을 이용하여 파제카스 스코어 또는 파제카스 스케일에 대한 분류 정보를 출력할 수 있다. 또는, 파제카스 분류 모델 (202)은 도 6 및 도 7을 참조하여 설명한 바와 같이 상기 제2 특징 벡터들과 관련된 변수들 각각에 대한 중요도 정보를 추가적으로 출력할 수 있다.
이와 같이, 파제카스 분류 모델 (202)은 이미지 데이터에 대한 이미지 특징 (shape, location, distribution) 및 세그먼테이션 모델 (302)을 이용하여 정량적 특징인 세그먼테이션 정보 (PVWMH 부피 값, DWMH 부피 값)를 모두 고려하여 분류 정보를 출력할 수 있다. 이 경우, 파제카스 분류 모델 (202)은 기존 이미지 특징 (shape, location, distribution)에 의존하여 파제카스 스케일과 관련한 분류 정보를 출력하는 경우보다 분류 성능 및 정확도가 크게 향상될 수 있다. 나아가, 파제카스 분류 모델 (202)은 랜덤 포레스트 모델에 기반하여 상기 제2 특징 벡터에 포함된 변수들 각각에 대한 중요도 정보를 추가적으로 출력함으로써 이미지 데이터 (11)에 대한 해석력을 크게 증가시킬 수 있다.
위 실시예의 설명에 기초하여 해당 기술분야의 통상의 기술자는, 본 발명의 방법 및/또는 프로세스들, 그리고 그 단계들이 하드웨어, 소프트웨어 또는 특정 용례에 적합한 하드웨어 및 소프트웨어의 임의의 조합으로 실현될 수 있다는 점을 명확하게 이해할 수 있다. 상기 하드웨어는 범용 컴퓨터 및/또는 전용 컴퓨팅 장치 또는 특정 컴퓨팅 장치 또는 특정 컴퓨팅 장치의 특별한 모습 또는 구성요소를 포함할 수 있다. 상기 프로세스들은 내부 및/또는 외부 메모리를 가지는, 하나 이상의 마이크로프로세서, 마이크로컨트롤러, 임베디드 마이크로컨트롤러, 프로그래머블 디지털 신호 프로세서 또는 기타 프로그래머블 장치에 의하여 실현될 수 있다. 게다가, 혹은 대안으로서, 상기 프로세스들은 주문형 집적회로(application specific integrated circuit; ASIC), 프로그래머블 게이트 어레이(programmable gate array), 프로그래머블 어레이 로직(Programmable Array Logic; PAL) 또는 전자 신호들을 처리하기 위해 구성될 수 있는 임의의 다른 장치 또는 장치들의 조합으로 실시될 수 있다. 더욱이 본 발명의 기술적 해법의 대상물 또는 선행 기술들에 기여하는 부분들은 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 기계 관찰 가능한 기록 매체에 기록될 수 있다. 상기 기계 관찰 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 기계 관찰 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야의 통상의 기술자에게 공지되어 사용 가능한 것일 수도 있다. 기계 관찰 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD, Blu-ray와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 전술한 장치들 중 어느 하나뿐만 아니라 프로세서, 프로세서 아키텍처 또는 상이한 하드웨어 및 소프트웨어의 조합들의 이종 조합, 또는 다른 어떤 프로그램 명령어들을 실행할 수 있는 기계 상에서 실행되기 위하여 저장 및 컴파일 또는 인터프리트될 수 있는, C와 같은 구조적 프로그래밍 언어, C++ 같은 객체지향적 프로그래밍 언어 또는 고급 또는 저급 프로그래밍 언어(어셈블리어, 하드웨어 기술 언어들 및 데이터베이스 프로그래밍 언어 및 기술들)를 사용하여 만들어질 수 있는바, 기계어 코드, 바이트코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 이에 포함된다.
따라서 본 명세서에 따른 일 태양에서는, 앞서 설명된 방법 및 그 조합들이 하나 이상의 컴퓨팅 장치들에 의하여 수행될 때, 그 방법 및 방법의 조합들이 각 단계들을 수행하는 실행 가능한 코드로서 실시될 수 있다. 다른 일 태양에서는, 상기 방법은 상기 단계들을 수행하는 시스템들로서 실시될 수 있고, 방법들은 장치들에 걸쳐 여러 가지 방법으로 분산되거나 모든 기능들이 하나의 전용, 독립형 장치 또는 다른 하드웨어에 통합될 수 있다. 또 다른 일 태양에서는, 위에서 설명한 프로세스들과 연관된 단계들을 수행하는 수단들은 앞서 설명한 임의의 하드웨어 및/또는 소프트웨어를 포함할 수 있다. 그러한 모든 순차 결합 및 조합들은 본 명세서의 범위 내에 속하도록 의도된 것이다.
예를 들어, 상기 하드웨어 장치는 본 명세서에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다. 상기 하드웨어 장치는, 프로그램 명령어를 저장하기 위한 ROM/RAM 등과 같은 메모리와 결합되고 상기 메모리에 저장된 명령어들을 실행하도록 구성되는 MPU, CPU, GPU, TPU와 같은 프로세서를 포함할 수 있으며, 외부 장치와 신호를 주고받을 수 있는 통신부를 포함할 수 있다. 덧붙여, 상기 하드웨어 장치는 개발자들에 의하여 작성된 명령어들을 전달받기 위한 키보드, 마우스, 기타 외부 입력장치를 포함할 수 있다.
이상에서 본 발명이 구체적인 구성요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나, 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명이 상기 실시예들에 한정되는 것은 아니며, 본 발명이 속하는 기술분야에서 통상적인 지식을 가진 사람이라면 이러한 기재로부터 다양한 수정 및 변형을 꾀할 수 있다.
따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등하게 또는 등가적으로 변형된 모든 것들은 본 발명의 사상의 범주에 속한다고 할 것이다.
그와 같이 균등하게 또는 등가적으로 변형된 것에는, 예컨대 본 명세서에 따른 방법을 실시한 것과 동일한 결과를 낼 수 있는, 논리적으로 동치(logically equivalent)인 방법이 포함될 것인바, 본 발명의 진의 및 범위는 전술한 예시들에 의하여 제한되어서는 아니되며, 법률에 의하여 허용 가능한 가장 넓은 의미로 이해되어야 한다.

Claims (12)

  1. 컴퓨팅 장치가 이미지 데이터에 대한 분류 정보를 출력하는 방법에 있어서,
    상기 이미지 데이터를 입력 받는 단계; 및
    파제카스 (Fazekas) 분류 모델에 상기 이미지 데이터를 입력하여 상기 분류 정보를 출력하는 단계를 포함하고,
    상기 파제카스 분류 모델은 상기 이미지 데이터로부터 추출된 제1 특징 벡터에 WMH (white matter hyperintensity) 세그먼테이션 정보를 연결 (concatenation)한 제2 특징 벡터에 기초하여 상기 분류 정보를 출력하는, 방법.
  2. 제1항에 있어서,
    상기 WMH 세그먼테이션 정보는 세그먼테이션 모델에 상기 이미지 데이터를 입력하여 산출되는 것을 특징으로 하는, 방법.
  3. 제2항에 있어서,
    상기 파제카스 분류 모델 및 상기 세그먼테이션 모델은 학습 데이터를 이용하여 산출된 분류 손실 및 세그먼테이션 손실에 기초하여 동시에 학습된 것을 특징으로 하는, 방법.
  4. 제3항에 있어서,
    상기 학습 데이터는 학습 이미지 데이터, 파제카스 스케일과 관련된 제1 레이블 정보 및 상기 WMH와 관련된 제2 레이블 정보를 포함하는 것을 특징으로 하는, 방법.
  5. 제1항에 있어서,
    상기 제2 특징 벡터는 상기 이미지 데이터에 대한 메타 데이터가 더 연결 (concatenation)된 것을 특징으로 하는, 방법.
  6. 제1항에 있어서,
    상기 세그먼테이션 정보는 DWMH (Deep WMH)에 대한 제1 부피 정보 및 PVWMH (Periventricular WMH)에 대한 제2 부피 정보를 포함하는 것을 특징으로 하는, 방법.
  7. 제1항에 있어서,
    상기 파제카스 분류 모델은 상기 제2 특징 벡터들에 포함된 변수들을 부트스트랩 샘플링 (Bootstrap sampling)하여 형성된 복수의 변수 세트들에 기반하여 상기 분류 정보를 출력하는 것을 특징으로 하는, 방법.
  8. 제7항에 있어서,
    상기 파제카스 분류 모델은 상기 분류 정보에서 상기 변수들 각각이 영향을 준 정도에 대한 중요도 정보를 더 출력하는 것을 특징으로 하는, 방법.
  9. 제8항에 있어서,
    상기 변수들은 상기 제1 특징 벡터들에 포함된 요소들, 상기 세그먼테이션 정보로부터 획득한 DWMH (Deep WMH)에 대한 제1 부피 및 PVWMH (Periventricular WMH)에 대한 제2 부피와 관련된 변수들을 포함하는 것을 특징으로 하는, 방법.
  10. 제1항에 있어서,
    상기 분류 정보는 제1 지표, 제2 지표 및 제3 지표 각각에 대한 확률 값 또는 예측 값을 포함하는 것을 특징으로 하는, 방법.
  11. 제1항에 있어서,
    상기 파제카스 분류 모델은 CNN (Convolutional neural network)에 기반한 서브 모델을 포함하고, 상기 서브 모델은 상기 이미지 데이터로부터 상기 제1 특징 벡터를 추출하는 것을 특징으로 하는, 방법.
  12. 이미지 데이터에 대한 분류 정보를 출력하는 컴퓨팅 장치에 있어서,
    통신부; 및
    상기 통신부와 연결되는 프로세서를 포함하고,
    상기 프로세서는 상기 이미지 데이터를 입력 받고, 파제카스 (Fazekas) 분류 모델에 상기 이미지 데이터를 입력하여 상기 분류 정보를 출력하며,
    상기 파제카스 분류 모델은 상기 이미지 데이터로부터 추출된 제1 특징 벡터에 WMH (white matter hyperintensity) 세그먼테이션 정보를 연결 (concatenation)한 제2 특징 벡터에 기초하여 상기 분류 정보를 출력하는, 컴퓨팅 장치.
KR1020210184015A 2021-12-21 2021-12-21 인공 신경망에 기반하여 분류 정보를 출력하는 방법 및 이를 위한 장치 KR102597647B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020210184015A KR102597647B1 (ko) 2021-12-21 2021-12-21 인공 신경망에 기반하여 분류 정보를 출력하는 방법 및 이를 위한 장치
PCT/KR2022/018461 WO2023121005A1 (ko) 2021-12-21 2022-11-22 인공 신경망에 기반하여 분류 정보를 출력하는 방법 및 이를 위한 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210184015A KR102597647B1 (ko) 2021-12-21 2021-12-21 인공 신경망에 기반하여 분류 정보를 출력하는 방법 및 이를 위한 장치

Publications (2)

Publication Number Publication Date
KR20230094672A true KR20230094672A (ko) 2023-06-28
KR102597647B1 KR102597647B1 (ko) 2023-11-03

Family

ID=86902893

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210184015A KR102597647B1 (ko) 2021-12-21 2021-12-21 인공 신경망에 기반하여 분류 정보를 출력하는 방법 및 이를 위한 장치

Country Status (2)

Country Link
KR (1) KR102597647B1 (ko)
WO (1) WO2023121005A1 (ko)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021038202A1 (en) * 2019-08-23 2021-03-04 Oxford University Innovation Limited Computerised tomography image processing
KR102300228B1 (ko) * 2020-12-30 2021-09-10 뉴로핏 주식회사 진단보조정보를 제공하는 방법 및 이를 수행하는 장치
US20210343008A1 (en) * 2018-09-28 2021-11-04 The Board Of Regents Of The University Of Texas System Methods, apparatuses, and systems for 3-d phenotyping and physiological characterization of brain lesions and surrounding tissue

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102300234B1 (ko) * 2020-12-30 2021-09-10 뉴로핏 주식회사 진단보조정보를 제공하는 방법 및 이를 수행하는 장치
KR102300226B1 (ko) * 2020-12-30 2021-09-10 뉴로핏 주식회사 진단보조정보를 제공하는 방법 및 이를 수행하는 장치

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210343008A1 (en) * 2018-09-28 2021-11-04 The Board Of Regents Of The University Of Texas System Methods, apparatuses, and systems for 3-d phenotyping and physiological characterization of brain lesions and surrounding tissue
WO2021038202A1 (en) * 2019-08-23 2021-03-04 Oxford University Innovation Limited Computerised tomography image processing
KR102300228B1 (ko) * 2020-12-30 2021-09-10 뉴로핏 주식회사 진단보조정보를 제공하는 방법 및 이를 수행하는 장치

Also Published As

Publication number Publication date
KR102597647B1 (ko) 2023-11-03
WO2023121005A1 (ko) 2023-06-29

Similar Documents

Publication Publication Date Title
EP3367331B1 (en) Deep convolutional encoder-decoder for prostate cancer detection and classification
US11403750B2 (en) Localization and classification of abnormalities in medical images
Karthik et al. Neuroimaging and deep learning for brain stroke detection-A review of recent advancements and future prospects
US9858665B2 (en) Medical imaging device rendering predictive prostate cancer visualizations using quantitative multiparametric MRI models
JP7399102B2 (ja) 医用イメージングにおける自動スライス選択
KR101919866B1 (ko) 뼈 스캔 영상에서 암 전이 여부의 판정을 지원하는 방법 및 이를 이용한 장치
US11893729B2 (en) Multi-modal computer-aided diagnosis systems and methods for prostate cancer
US20210174937A1 (en) Machine learning on raw medical imaging data for clinical decision support
Huang et al. Deep learning for brain metastasis detection and segmentation in longitudinal MRI data
Saad et al. Review of brain lesion detection and classification using neuroimaging analysis techniques
US11049251B2 (en) Apparatus, method, and program for learning discriminator discriminating infarction region, discriminator for discriminating infarction region, and apparatus, method, and program for discriminating infarction region
US20210219839A1 (en) Method for classifying fundus image of subject and device using same
Heydarheydari et al. Auto-segmentation of head and neck tumors in positron emission tomography images using non-local means and morphological frameworks
Yalçın et al. Brain stroke classification and segmentation using encoder-decoder based deep convolutional neural networks
Zhan et al. LR-cGAN: Latent representation based conditional generative adversarial network for multi-modality MRI synthesis
Zhang et al. Learning-based structurally-guided construction of resting-state functional correlation tensors
Dong et al. Identifying carotid plaque composition in MRI with convolutional neural networks
Marin et al. Numerical surrogates for human observers in myocardial motion evaluation from SPECT images
US11900606B2 (en) Tumor segmentation tool
Abbasi et al. Automatic brain ischemic stroke segmentation with deep learning: A review
Kanumuri et al. A survey: Brain tumor detection using MRI image with deep learning techniques
Chen et al. All answers are in the images: A review of deep learning for cerebrovascular segmentation
Al-Qazzaz Deep learning-based brain tumour image segmentation and its extension to stroke lesion segmentation
KR102597647B1 (ko) 인공 신경망에 기반하여 분류 정보를 출력하는 방법 및 이를 위한 장치
KR20230030810A (ko) 데이터 생성 방법 및 이를 이용한 학습방법 및 장치

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant