KR20230094670A - 인공 신경망을 이용한 이미지 데이터에 대한 분류 방법 및 이를 위한 장치 - Google Patents
인공 신경망을 이용한 이미지 데이터에 대한 분류 방법 및 이를 위한 장치 Download PDFInfo
- Publication number
- KR20230094670A KR20230094670A KR1020210184013A KR20210184013A KR20230094670A KR 20230094670 A KR20230094670 A KR 20230094670A KR 1020210184013 A KR1020210184013 A KR 1020210184013A KR 20210184013 A KR20210184013 A KR 20210184013A KR 20230094670 A KR20230094670 A KR 20230094670A
- Authority
- KR
- South Korea
- Prior art keywords
- vectors
- neural network
- feature vectors
- image data
- artificial neural
- Prior art date
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 126
- 238000000034 method Methods 0.000 title claims abstract description 42
- 239000013598 vector Substances 0.000 claims abstract description 245
- 208000024827 Alzheimer disease Diseases 0.000 claims description 41
- 238000002595 magnetic resonance imaging Methods 0.000 claims description 34
- 238000013527 convolutional neural network Methods 0.000 claims description 22
- 238000004891 communication Methods 0.000 claims description 14
- 239000000284 extract Substances 0.000 claims description 12
- 208000010877 cognitive disease Diseases 0.000 claims description 11
- 208000027061 mild cognitive impairment Diseases 0.000 claims description 11
- 238000012549 training Methods 0.000 claims description 8
- 230000003044 adaptive effect Effects 0.000 claims description 4
- 238000010606 normalization Methods 0.000 claims description 4
- 238000003745 diagnosis Methods 0.000 abstract description 25
- 230000004927 fusion Effects 0.000 description 21
- 230000000694 effects Effects 0.000 description 14
- 230000006870 function Effects 0.000 description 14
- 238000010586 diagram Methods 0.000 description 12
- 238000011176 pooling Methods 0.000 description 12
- 238000000605 extraction Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 238000012545 processing Methods 0.000 description 8
- 230000015654 memory Effects 0.000 description 7
- 210000001519 tissue Anatomy 0.000 description 6
- 210000004556 brain Anatomy 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 4
- 230000005415 magnetization Effects 0.000 description 4
- 238000003062 neural network model Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000002600 positron emission tomography Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 208000014644 Brain disease Diseases 0.000 description 2
- 230000004913 activation Effects 0.000 description 2
- 238000013145 classification model Methods 0.000 description 2
- 238000002059 diagnostic imaging Methods 0.000 description 2
- 229940079593 drug Drugs 0.000 description 2
- 239000003814 drug Substances 0.000 description 2
- 239000012530 fluid Substances 0.000 description 2
- 229910052739 hydrogen Inorganic materials 0.000 description 2
- 239000001257 hydrogen Substances 0.000 description 2
- 238000002075 inversion recovery Methods 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 238000002603 single-photon emission computed tomography Methods 0.000 description 2
- 238000002604 ultrasonography Methods 0.000 description 2
- 208000000044 Amnesia Diseases 0.000 description 1
- 208000024806 Brain atrophy Diseases 0.000 description 1
- 206010051290 Central nervous system lesion Diseases 0.000 description 1
- 206010012289 Dementia Diseases 0.000 description 1
- UFHFLCQGNIYNRP-UHFFFAOYSA-N Hydrogen Chemical compound [H][H] UFHFLCQGNIYNRP-UHFFFAOYSA-N 0.000 description 1
- 208000026139 Memory disease Diseases 0.000 description 1
- CYTYCFOTNPOANT-UHFFFAOYSA-N Perchloroethylene Chemical compound ClC(Cl)=C(Cl)Cl CYTYCFOTNPOANT-UHFFFAOYSA-N 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 125000004429 atom Chemical group 0.000 description 1
- 230000002238 attenuated effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 210000001175 cerebrospinal fluid Anatomy 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000002591 computed tomography Methods 0.000 description 1
- 238000013170 computed tomography imaging Methods 0.000 description 1
- 210000003792 cranial nerve Anatomy 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 238000013399 early diagnosis Methods 0.000 description 1
- 238000001493 electron microscopy Methods 0.000 description 1
- 239000003925 fat Substances 0.000 description 1
- 210000004884 grey matter Anatomy 0.000 description 1
- 125000004435 hydrogen atom Chemical class [H]* 0.000 description 1
- 230000003902 lesion Effects 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000006984 memory degeneration Effects 0.000 description 1
- 208000023060 memory loss Diseases 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 230000000926 neurological effect Effects 0.000 description 1
- 230000000771 oncological effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 102000004169 proteins and genes Human genes 0.000 description 1
- 108090000623 proteins and genes Proteins 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 210000004872 soft tissue Anatomy 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/469—Contour-based spatial representations, e.g. vector-coding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
Abstract
다양한 실시예에 따른 컴퓨팅 장치가 이미지 데이터에 대한 분류 정보를 출력하는 방법 및 이를 위한 장치가 개시된다. 상기 이미지 데이터로부터 N 채널들에 대한 제1 특징 벡터들을 추출하는 단계, 제1 인공 신경망을 이용하여 입력된 메타 데이터에 대한 확장 메타 벡터들을 생성하되, 상기 확장 메타 벡터들은 상기 N 채널들에 대응하도록 M 개 생성된, 단계, 상기 확장 메타 벡터들 및 상기 제1 특징 벡터들에 기초하여 제2 특징 벡터들을 생성하는 단계, 및 상기 제2 특징 벡터들을 제2 인공 신경망에 입력하여 상기 이미지 데이터에 대한 분류 정보를 출력하는 단계를 포함하는 방법 및 이를 위한 장치가 개시된다.
Description
인공 신경망을 이용하여 이미지 데이터를 분류 방법 및 이를 위한 장치에 대한 것이다.
알츠하이머(AD, Alzheimer) 질병은 기억, 사고 및 행동에 문제를 일으키는 치매의 한 유형으로 뇌신경의 죽음으로 이어지고 뇌량을 감소시켜 심각한 기억 상실을 발생할 수 있다. 많은 사람이 알츠하이머 질병을 앓고 있으나 알츠하이머 질병에 대하여 충분한 효능 및 안정성을 가진 약물 및 치료방법은 아직 보고되지 않고 있다. 따라서, 알츠하이머 질병의 초기 단계에 있는 환자를 조기에 진단함으로써 중증으로 발전하는 것을 방지하는 것이 중요하다.
이와 같은 조기 진단은 신경망 모델에 기반한 뇌에 대한 의료 이미지에 대한 분류, 객체 검출, 객체 경계의 추출, 서로 다른 영상의 정합을 통해 수행될 수 있다. 여기서, 신경망 모델(Neural Network model)은 생물학에서의 뉴런 구조로부터 착안된 지도 학습(supervised learning) 알고리즘이다. 신경망 모델의 기본적인 작동 원리는 여러 개의 뉴런들을 상호 연결하여 입력값에 대한 최적의 출력값을 예측하는 것이다. 통계적인 관점에서 보면 신경망 모델은 입력 변수의 선형 결합에 비선형 함수를 취하는 사영추적회귀로 볼 수 있다. 특히, 의료 이미지에서의 상술한 객체 등 특징의 추출은 컨볼루션 신경망(Convolution neural networks; CNN)가 가장 많이 활용되고 있다.
해결하고자 하는 과제는 입력된 메타 데이터가 유의미하게 영향을 줄 수 있도록 인공 신경망들을 학습시키고, 상기 학습된 인공 신경망들을 이용하여 보다 정확하고 견고한 이미지 데이터에 대한 분류 정보 또는 AD 진단 정보를 출력 또는 생성하는 방법 및 장치를 제공하는 것이다.
기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
상기한 바와 같은 본 발명의 목적을 달성하고, 후술하는 본 발명의 특징적인 효과를 실현하기 위한 본 발명의 특징적인 구성은 하기와 같다.
일 측면에 따른 컴퓨팅 장치가 이미지 데이터에 대한 분류 정보를 출력하는 방법은 입력된 상기 이미지 데이터로부터 N 채널들에 대한 제1 특징 벡터들을 추출하는 단계, 제1 인공 신경망을 이용하여 입력된 메타 데이터에 대한 확장 메타 벡터들을 생성하되, 상기 확장 메타 벡터들은 상기 N 채널들에 대응하도록 M 개 생성된, 단계, 상기 확장 메타 벡터들 및 상기 제1 특징 벡터들에 기초하여 제2 특징 벡터들을 생성하는 단계, 및 상기 제2 특징 벡터들을 제2 인공 신경망에 입력하여 상기 이미지 데이터에 대한 분류 정보를 출력하는 단계를 포함할 수 있다.
또는, 상기 확장 메타 벡터들에 기초하여 상기 N 채널들 각각에 대한 특성 값을 산출하는 단계를 더 포함하고, 상기 제2 특징 벡터들은 각 채널 별로 상기 특성 값이 상기 제1 특징 벡터들에 적용되어 생성되는 것을 특징으로 한다.
또는, 하나의 채널에 대한 상기 특성 값은 상기 하나의 채널에 대한 제1 특징 벡터를 적응형 인스턴스 정규화 (Adaptive Instance Normalization, AdaIN)시키기 위한 스케일 팩터 및 바이어스로 이용되는 것을 특징으로 한다.
또는, 상기 하나의 채널에 대한 특성 값은 하나의 확장 메타 벡터에 포함된 엘리먼트들의 평균 및 분산을 포함하고, 상기 평균은 상기 바이어스로, 상기 분산은 상기 스케일 팩터로 이용되는 것을 특징으로 한다.
또는 상기 하나의 채널에 대한 특성 값은 하나의 확장 메타 벡터에 포함된 엘리먼트들의 평균 및 다른 하나의 확장 메타 벡터에 포함된 엘리먼트들의 분산을 포함하고, 상기 평균은 상기 바이어스로 상기 분산은 상기 스케일 팩터로 이용되는 것을 특징으로 한다.
또는, 상기 M은 상기 N 채널들의 수와 동일한 N이거나 2N인 것을 특징으로 한다.
또는, 상기 제2 특징 벡터들은 상기 AdaIN된 제1 특징 벡터들에 상기 추출된 제1 특징 벡터들을 더 부가하여 생성되는 것을 특징으로 한다.
또는, 상기 제1 특징 벡터들은 상기 AdaIN되기 전에 정규화되는 것을 특징으로 한다.
또는, 상기 메타 데이터는 상기 이미지 데이터에 대응하는 대상체의 특성, 상기 이미지 데이터를 획득한 장치의 특성을 포함하는 것을 특징으로 한다.
또는, 상기 이미지 데이터는 MRI (Magnetic resonance imaging)이고, 상기 분류 정보는 AD (Alzheimer's disease), MCI (mild cognitive impairment) 또는 NC (normal controls)에 대한 정보를 포함하는 것을 특징으로 한다.
또는, 상기 제1 특징 벡터들은 CNN (Convolutional neural network)를 이용하여 상기 이미지 데이터로부터 추출되는 것을 특징으로 한다.
또는, 상기 컴퓨팅 장치는 학습 데이터를 이용하여 생성한 상기 제2 특징 벡터를 상기 제2 인공 신경망에 입력하여 출력된 예측 값 및 상기 학습 데이터에 포함된 레이블 값에 기반하여 손실 함수의 손실 값이 최소화되도록 상기 제1 인공 신경망 및 상기 제2 인공 신경망을 학습시킨 것을 특징으로 한다.
다른 측면에 따른, 이미지 데이터에 대한 분류 정보를 출력하는 컴퓨팅 장치는 상기 이미지 데이터 및 상기 이미지 데이터와 관련된 메타 데이터를 획득하기 위한 통신부, 및 상기 통신부와 연결되는 프로세서를 포함하고, 상기 프로세서는, 상기 이미지 데이터로부터 N 채널들에 대한 제1 특징 벡터들을 추출하고, 제1 인공 신경망을 이용하여 상기 메타 데이터에 대한 확장 메타 벡터들을 생성하되, 상기 확장 메타 벡터들은 상기 N 채널들에 대응하도록 M개 생성되며, 상기 확장 메타 벡터들 및 상기 제1 특징 벡터들에 기초하여 제2 특징 벡터들을 생성하고, 상기 제2 특징 벡터들을 제2 인공 신경망에 입력하여 상기 이미지 데이터에 대한 분류 정보를 출력할 수 있다.
다양한 실시예들은 입력된 메타 데이터가 유의미하게 영향을 줄 수 있도록 인공 신경망들을 학습시키고, 상기 학습된 인공 신경망들을 이용하여 보다 정확하고 견고한 이미지 데이터에 대한 분류 정보 또는 AD 진단 정보를 출력 또는 생성할 수 있다.
다양한 실시예에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 명세서에 첨부되는 도면은 본 발명에 대한 이해를 제공하기 위한 것으로서 본 발명의 다양한 실시형태들을 나타내고 명세서의 기재와 함께 본 발명의 원리를 설명하기 위한 것이다.
도 1은 CNN의 구조를 설명하기 위한 도면이다.
도 2은 MRI 장치를 이용하여 획득한 이미지 데이터인 MRI들을 설명하기 위한 도면이다.
도 3은 AD 진단 모델을 위한 인공 신경망을 학습시키는 컴퓨팅 장치를 설명한다.
도 4는 컴퓨팅 장치가 상기 메타 데이터를 제1 인공 신경망에 입력하여 복수의 채널들에 대한 확장 메타 벡터들을 생성하는 방법을 설명하기 위한 도면이다.
도 5 및 도 6은 컴퓨팅 장치가 확장 메타 벡터들에 기초하여 제1 특징 벡터들에 상기 메타 데이터의 특성을 적용하는 방법을 설명하기 위한 도면이다.
도 7은 상기 컴퓨팅 장치가 상기 제2 특징 벡터들에 기반하여 제1 및 제2 인공 신경망을 학습시키는 방법을 설명하기 위한 도면이다.
도 8은 컴퓨팅 장치가 학습된 인공 신경망을 통해 분류 정보를 출력하는 방법을 설명하기 위한 도면이다.
도 1은 CNN의 구조를 설명하기 위한 도면이다.
도 2은 MRI 장치를 이용하여 획득한 이미지 데이터인 MRI들을 설명하기 위한 도면이다.
도 3은 AD 진단 모델을 위한 인공 신경망을 학습시키는 컴퓨팅 장치를 설명한다.
도 4는 컴퓨팅 장치가 상기 메타 데이터를 제1 인공 신경망에 입력하여 복수의 채널들에 대한 확장 메타 벡터들을 생성하는 방법을 설명하기 위한 도면이다.
도 5 및 도 6은 컴퓨팅 장치가 확장 메타 벡터들에 기초하여 제1 특징 벡터들에 상기 메타 데이터의 특성을 적용하는 방법을 설명하기 위한 도면이다.
도 7은 상기 컴퓨팅 장치가 상기 제2 특징 벡터들에 기반하여 제1 및 제2 인공 신경망을 학습시키는 방법을 설명하기 위한 도면이다.
도 8은 컴퓨팅 장치가 학습된 인공 신경망을 통해 분류 정보를 출력하는 방법을 설명하기 위한 도면이다.
후술하는 본 발명에 대한 상세한 설명은, 본 발명의 목적들, 기술적 해법들 및 장점들을 분명하게 하기 위하여 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 통상의 기술자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다.
본 명세서의 상세한 설명 및 청구항들에 걸쳐 이용된 "영상" 또는 "영상 데이터"라는 용어는 이산적 영상 요소들(예컨대, 2차원 영상에 있어서는 픽셀, 3차원 영상에 있어서는 복셀)로 구성된 다차원 데이터를 지칭한다.
예를 들어 "영상"은 현미경을 이용하여 관찰되는 소정 조직에 대한 슬라이드에 대응하는 2차원 영상을 의미할 수 있으나, "영상"은 이에 한정되는 것이 아니고, (콘-빔형; cone-beam) 전산화 단층 촬영(computed tomography), MRI(magnetic resonance imaging), 초음파 또는 본 발명의 기술분야에서 공지된 임의의 다른 의료 영상 시스템의 의하여 수집된 피검체(subject)의 의료 영상일 수 있다. 또한 영상은 비의료적 맥락에서 제공될 수도 있는바, 예를 들어 원격 감지 시스템(remote sensing system), 전자현미경(electron microscopy) 등등이 있을 수 있다.
본 명세서의 상세한 설명 및 청구항들에 걸쳐, '영상'은 (예컨대, 화면에 표시된) 눈으로 볼 수 있는 영상 또는 영상의 디지털 표현물을 지칭하는 용어이다.
설명의 편의를 위하여 제시된 도면에서는 슬라이드 영상 데이터가 예시적 영상 형식(modality)인 것으로 도시되었다. 그러나 통상의 기술자는 본 발명의 다양한 실시예에서 이용되는 영상 형식들이 X선 영상, MRI, CT, PET(positron emission tomography), PET-CT, SPECT, SPECT-CT, MR-PET, 3D 초음파 영상 등등을 포함하나 예시적으로 열거된 형식에 한정되지 않는다는 점을 이해할 수 있을 것이다.
본 명세서의 상세한 설명 및 청구항들에 걸쳐 설명되는 의료 영상은 'DICOM(Digital Imaging and Communications in Medicine; 의료용 디지털 영상 및 통신)' 표준에 따를 수 있다. DICOM 표준은 의료용 기기에서 디지털 영상 표현과 통신에 이용되는 여러 가지 표준을 총칭하는 용어인바, DICOM 표준은 미국 방사선 의학회(ACR)와 미국 전기 공업회(NEMA)에서 구성한 연합 위원회에서 발표한다.
또한, 본 명세서의 상세한 설명 및 청구항들에 걸쳐 설명되는 의료 영상은 '의료영상 저장 전송 시스템(PACS; Picture Archiving and Communication System)'을 통해 저장되거나 전송될 수 있으며, 의료영상 저장 전송 시스템은 DICOM 표준에 맞게 의료 영상을 저장, 가공, 전송하는 시스템일 수 있다. X선, CT, MRI와 같은 디지털 의료영상 장비를 이용하여 획득된 의료영상은 DICOM 형식으로 저장되고 네트워크를 통하여 병원 내외의 단말로 전송이 가능하며, 이에는 관찰 결과 및 진료 기록이 추가될 수 있다.
그리고 본 명세서의 상세한 설명 및 청구항들에 걸쳐 '학습' 혹은 '러닝'은 절차에 따른 컴퓨팅을 통하여 기계 학습(machine learning)을 수행함을 일컫는 용어인바, 인간의 교육 활동과 같은 정신적 작용을 지칭하도록 의도된 것이 아니며, 훈련(training)은 기계 학습에 관하여 일반적으로 받아들여지는 의미로 쓰인 것이다. 예를 들어, '딥 러닝'은 심층 인공 신경망을 이용한 기계 학습을 의미한다. 심층 신경망은 다층의 인공 신경망으로 이루어진 구조에서 다량의 데이터를 학습시킴으로써 각각의 데이터의 특징을 자동으로 학습하고, 이를 통해 목적/손실 함수, 즉 분류 정확도의 에러를 최소화시키는 방식으로 학습을 진행하는 기계 학습 모델이며, 점, 선, 면 등의 저수준의 특징에서부터 복잡하고 의미 있는 고수준의 특징까지 다양한 수준의 특징을 추출하고 분류할 수 있다.
그리고 본 명세서의 상세한 설명 및 청구항들에 걸쳐, '포함하다'라는 단어 및 그 변형은 다른 기술적 특징들, 부가물들, 구성요소들 또는 단계들을 제외하는 것으로 의도된 것이 아니다. 또한, '하나' 또는 '한'은 하나 이상의 의미로 쓰인 것이며, '또 다른'은 적어도 두 번째 이상으로 한정된다.
통상의 기술자에게 본 발명의 다른 목적들, 장점들 및 특성들이 일부는 본 명세서로부터, 그리고 일부는 본 발명의 실시로부터 드러날 것이다. 아래의 예시 및 도면은 실례로서 제공되며, 본 발명을 한정하는 것으로 의도된 것이 아니다. 따라서, 특정 구조나 기능에 관하여 본 명세서에 개시된 상세 사항들은 한정하는 의미로 해석되어서는 아니되고, 단지 통상의 기술자가 실질적으로 적합한 임의의 상세 구조들로써 본 발명을 다양하게 실시하도록 지침을 제공하는 대표적인 기초 자료로 해석되어야 할 것이다.
더욱이 본 발명은 본 명세서에 나타난 실시예들의 모든 가능한 조합들을 망라한다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예에 관련하여 본 발명의 사상 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 사상 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.
본 명세서에서 달리 표시되거나 분명히 문맥에 모순되지 않는 한, 단수로 지칭된 항목은, 그 문맥에서 달리 요구되지 않는 한, 복수의 것을 아우른다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.
이하, 통상의 기술자가 본 발명을 용이하게 실시할 수 있도록 하기 위하여, 본 발명의 바람직한 실시예들에 관하여 첨부된 도면을 참조하여 상세히 설명하기로 한다.
도 1은 인공 신경망인 CNN의 구조를 설명하기 위한 도면이다.
CNN(Convolutional Neural Network)은 합성곱 연산을 사용하는 ANN (Artificial Neural Network, 인공 신경망)의 한 종류이다. CNN은 이미지 특징 추출을 위해 입력 이미지 (또는, 입력 데이터)를 필터가 순회하며 합성곱을 계산하고, 상기 합성곱의 계산 결과를 이용하여 특징 맵 (Feature map) 또는 활성 맵 (Activation Map)을 생성할 수 있다.
상기 CNN은 각 레이어의 입출력 데이터의 형상 유지하고, 이미지의 공간 정보를 유지하면서 인접 이미지와의 특징을 효과적으로 인식하며, 복수의 필터로 이미지의 특징 추출 및 학습시킬 수 있고, 추출한 이미지의 특징을 모으고 강화하는 풀링 레이어를 선택적으로 포함할 수 있고, 필터를 공유 파라미터로 사용하기 때문에 일반 인공 신경망과 비교하여 학습 파라미터가 매우 적은 장점이 있다.
구체적으로, 도 1을 참조하면, 상기 CNN은 입력 이미지 (또는, 입력 데이터)로부터 특징을 추출하는 특징 추출 영역과 상기 추출된 특징을 분류하는 이미지 분류 영역을 포함할 수 있다. 상기 특징 추출 영역은 필터 (Filter)를 사용하여 공유 파라미터 수를 최소화하면서 이미지의 특징을 찾는 적어도 하나의 컨벌루션 (Convolution) 레이어를 포함할 수 있다. 또는, 상기 특징 추출 영역은 상기 특징을 강화하고 모으는 적어도 하나의 풀링 (Pooling) 레이어를 더 포함할 수도 있다. 즉, 상기 풀링 레이어는 생략될 수도 있다.
상기 컨벌루션 레이어는 입력 이미지 (또는, 입력 데이터)에 필터를 적용 후 활성화 함수를 반영하는 레이어이다. 상기 컨벌루션 레이어에 유입되는 입력 이미지에는 한 개 이상의 필터가 적용될 수 있다. 상기 1개 필터는 상기 특징 맵 (Feature Map)의 채널을 구성할 수 있다. 예컨대, 상기 컨벌루션 레이어에 n개의 필터가 적용될 경우, 상기 특징 맵 또는 상기 활성 맵 (또는, 출력 데이터)는 n개의 채널을 갖게 된다.
상기 풀링 레이어는 상기 컨벌루션 레이어 다음에 위치하는 선택적인 레이어이다. 상기 풀링 레이어는 컨볼류션 레이어의 출력 데이터를 입력으로 받아서 출력 데이터의 크기를 줄이거나 특정 데이터를 강조하기 위한 레이어로 사용될 수 있다. 상기 플링 레이어를 처리하는 방법은 최대 풀링 (Max Pooling), 평균 풀링 (Average Pooning), 최소 풀링 (Min Pooling)이 있다. 풀링 레이어는 학습 대상 파라미터가 없고, 행렬의 크기 감소시킬 수 있으며, 채널 수를 변경시키기 않는다.
상기 CNN은 필터 (Filter) 크기, Stride, 패딩 (Padding) 적용 여부, 최대 풀링 (Max Pooling) 크기에 따라서 출력 데이터의 형태 (Shape) 또는 크기가 조절될 수 있고, 필터의 개수를 통해 채널을 결정할 수 있다.
상기 FC 레이어는 인식 및 분류 동작을 위한 레이어로써, 기존 신경망에서 각 레이어 별로 연결에 사용하는 전결합 레이어이다. 상기 FC 레이어는 상기 특징 추출 영역에서의 출력 데이터의 2차원의 배열 형태를 1차원의 평탄화 작업을 수행할 수 있다. 상기 1차원의 평탄화된 상기 출력 데이터는 SoftMAx 함수를 통해 분류될 수 있다.
도 2은 MRI 장치를 이용하여 획득한 이미지 데이터인 MRI들을 설명하기 위한 도면이다.
자기공명영상(magnetic resonance imaging, MRI) 장치는 특정 세기의 자기장에서 발생하는 RF(Radio Frequency) 신호에 대한 MR(Magnetic Resonance) 신호의 세기를 명암 대비로 표현하여 대상체 (또는, 환자)의 단층 부위에 대한 이미지를 획득하는 기기이다. 예컨대, 대상체를 강력한 자기장 속에 눕힌 후 특정의 원자핵(예컨대, 수소 원자핵 등)만을 공명시키는 RF 신호를 대상체에 순간적으로 조사했다가 중단하면 특정의 원자핵에서 MR 신호가 방출되는데, MRI 장치는 이 MR 신호를 수신하여 MR 이미지를 획득할 수 있다. MR 신호는 대상체로부터 방사되는 RF 신호를 의미한다. 여기서, MR 신호의 크기는 대상체에 포함된 소정의 원자(예컨대, 수소 등)의 농도, 이완시간 T1, 이완시간 T2 및 혈류 등의 흐름에 의해 결정될 수 있다.
MRI 장치는 다른 이미징 장치들과는 다른 특징들을 포함한다. 이미지의 획득이 감지 하드웨어(detectinghardware)의 방향에 의존하는 CT와 같은 이미징 장치들과 달리, MRI 장치는 임의의 지점으로 지향된 2D 이미지 또는 3D 볼륨 이미지를 획득할 수 있다. 또한, MRI 장치는, CT, X-ray, PET 및 SPECT와 달리, 대상체 및 검사자에게 방사선을 노출시키지 않으며, 높은 연부 조직(soft tissue) 대조도를 갖는 이미지의 획득이 가능하여, 비정상적인 조직의 명확한 묘사가 중요한 신경(neurological) 이미지, 혈관 내부(intravascular) 이미지, 근 골격(musculoskeletal) 이미지 및 종양(oncologic) 이미지 등을 획득할 수 있다.
구체적으로, 도 2을 참조하면, 상기 MRI 장치는 T1-w (T1-weighted) MRI, T2-w (T2-weighted) MRI, FLAIR(Fluid attenuated inversion recovery) MRI 등을 획득할 수 있다.
상기, T1-w 및 T2-w MRI는 TR (repetition time) 및 TE (time to echo)를 조절하여 특정 조직의 T1 또는 T2 효과가 강조된 영상이다. 여기서, 상기 TR은 같은 크기의 RF 펄스를 인가하는 시간 간격으로서, 반복시간이다. 상기 TE는 지연시간 또는 에코시간이다 MRI의 과정에서, 인가하였던 RF(radio frequency) 펄스를 차단하면 조직의 양성자는 흡수하였던 에너지를 주변 조직에 방출하면서 외부 자기장(B0) 방향(Z축 방향)으로 재정렬하게 된다.
여기서, T1은 종축인 Z축을 따라 양성자의 스핀들이 재정렬하는 시간, 즉 Z축 방향 자화가 회복되는 곡선의 시간상수이다. T1은 자화 회복의 시간상수로서 종축 이완시간 또는, 스핀-격자 이완시간(spin-lattice relaxation time)이라고 부른다. 한편, RF 펄스가 차단되면, 자화의 XY성분은 붕괴한다.
또한, T2는 자화의 XY 성분 붕괴 곡선의 시간 상수로서 횡 이완시간 또는, 스핀-스핀 이완시간 (spin-spin relaxation time)으로 부른다. T1 및 T2는 조직의 고유값이며, 물, 고체, 지방, 단백질마다 다른 값을 가진다. 여기서, TR을 길게 하면 T1 효과를 감소시킨다. 반대로, TR을 짧게 하면 T1 효과(대조도)를 증대, 즉, T1-w MRI가 획득된다. TE를 짧게 하면 T2 효과를 감소시키고, 길게 하면 T2 효과를 증대, 즉, T2-w MRI가 획득된다.
FLAIR MRI는 긴 역전 시간과 에코 시간으로 뇌척수액의 신호를 약화시켜 T2-w MRI에서 놓치기 쉬운 병변의 발견을 더욱 용이하게 한 자기영상장치를 이용한 신호 획득 기법이나 이 기법으로 획득되는 영상을 지칭한다. FLAIR MRI은 유체 감쇠 반전 복구 MRI로 지칭될 수도 있다.
상기 MRI를 통해 획득한 영상은 뇌 질환의 진단, 뇌 병변을 검출 또는 식별하는데 이용될 수 있다. 특히, T1-w MRI은 뇌실질의 구조를 살피는 데 적합한 종류의 영상이며, 이 T1-w MRI을 알츠하이머병에 대한 정보를 얻기 위하여 의료진은 그 영상에 나타난 뇌의 회백질의 크기를 측정하여 뇌의 위축 정보를 살피는데 이용될 수 있다.
이하에서는, 상기 MRI 등에 상기 이미지 데이터에 대한 인공 신경망 (또는, 의료용 인공 신경망)을 학습시키는 방법을 자세히 설명한다.
도 3은 AD 진단 모델을 위한 인공 신경망을 학습시키는 컴퓨팅 장치를 설명한다.
도 3을 참조하면, 컴퓨팅 장치(100)는, 통신부(110) 및 프로세서(120)를 포함하며, 상기 통신부(110)를 통하여 외부 컴퓨팅 장치(미도시)와 직간접적으로 통신할 수 있다. 여기서, 통신부 (110)는 타 컴퓨팅 장치와 요청과 응답을 송수신할 수 있는 송수신기와 대응하거나 상기 송수신기를 포함할 수 있다.
구체적으로, 컴퓨팅 장치(100)는, 전형적인 컴퓨터 하드웨어(예컨대, 컴퓨터 프로세서, 메모리, 스토리지, 입력 장치 및 출력 장치, 기타 기존의 영상 처리 장치의 구성요소들을 포함할 수 있는 장치; 라우터, 스위치 등과 같은 전자 통신 장치; 네트워크 부착 스토리지(NAS; network-attached storage) 및 스토리지 영역 네트워크(SAN; storage area network)와 같은 전자 정보 스토리지 시스템)와 컴퓨터 소프트웨어(즉, 컴퓨팅 장치로 하여금 특정의 방식으로 기능하게 하는 명령어들)의 조합을 이용하여 원하는 시스템 성능을 달성하는 것일 수 있다.
이와 같은 통신부(110)는 연동되는 타 영상 처리 장치와 요청과 응답을 송수신할 수 있는바, 일 예시로서 그러한 요청과 응답은 동일한 TCP(transmission control protocol) 세션(session)에 의하여 이루어질 수 있지만, 이에 한정되지는 않는바, 예컨대 UDP(user datagram protocol) 데이터그램(datagram)으로서 송수신될 수도 있을 것이다. 덧붙여, 넓은 의미에서 상기 통신부(110)는 명령어 또는 지시 등을 전달받기 위한 키보드, 마우스와 같은 포인팅 장치(pointing device), 기타 외부 입력장치, 프린터, 디스플레이, 기타 외부 출력장치를 포함할 수 있다.
또한, 컴퓨팅 장치(100)의 프로세서(120)는 MPU(micro processing unit), CPU(central processing unit), GPU(graphics processing unit) 또는 TPU(tensor processing unit), 캐시 메모리(cache memory), 데이터 버스(data bus) 등의 하드웨어 구성을 포함할 수 있다. 또한, 운영체제, 특정 목적을 수행하는 애플리케이션의 소프트웨어 구성을 더 포함할 수도 있다. 프로세서(120)는 이하에서 설명하는 신경망의 기능을 수행하기 위한 명령어들을 실행할 수 있다.
프로세서(120)는 상기 이미지 데이터 (예컨대, MRI 등)를 이용하여 AD (Alzheimer's Disease) 진단 모델을 위한 인공 신경망을 학습시킬 수 있다. 예컨대, 프로세서(120)는 도 1을 참조하여 설명한 CNN을 이용하여 상기 이미지 데이터로부터 제1 특징 벡터들을 추출하고, 상기 제1 특징 벡터들에 기반하여 상기 이미지 데이터로에서의 뇌 질환을 분류, 검출, 진단과 관련된 상기 AD 진단 모델을 위한 인공 신경망 (예컨대, 제1 인공 신경망, 제2 인공 신경망)을 학습시킬 수 있다. 또는, 상기 AD 진단 모델을 위한 인공 신경망은 상기 CNN 등의 특징 추출을 위한 인공 신경을 포함할 수도 있다.
프로세서(120)는 특징 추출부 (미도시)를 이용하여 입력된 이미지 데이터로부터 제1 특징 벡터들을 추출하는 추출 동작을 수행할 수 있다. 상기 제1 특징 벡터들은 2D의 이미지 데이터에 기반하여 추출된 2D 특징 벡터들일 수 있다. 여기서, 상기 특징 추출부는 상기 이미지 데이터로부터 제1 특징 벡터들을 추출할 수 있는 Deep Neural Network (DNN), Recurrent Neural Network (RNN), Long Short-Term Memory models (LSTM), BRDNN (Bidirectional Recurrent Deep Neural Network), Convolutional Neural Networks (CNN) 등 다양한 종류의 신경망 중 어느 하나를 포함할 수 있다.
예컨대, 프로세서 (120)는 상기 특징 추출부인 CNN을 이용하여 N 채널들에 대한 제1 특징 벡터들 (또는, N개의 제1 특징 벡터들)을 추출할 수 있다. 예컨대, 상기 CNN이 N 개의 필터를 이용하여 상기 이미지 데이터로부터 제1 특징 벡터들을 추출한 경우, 프로세서 (120)는 상기 특징 추출부로부터 N 채널들에 대한 제1 특징 벡터들 (또는, N 개의 특징 벡터들)을 추출할 수 있다. 즉, 하나의 특징 벡터는 하나의 채널을 구성할 수 있고, 상기 N개의 제1 특징 벡터들은 N개의 채널들을 구성할 수 있다.
프로세서(120)는 상기 제1 특징 벡터들을 AD 진단 모델 (또는, 분류 모델)을 위한 인공 신경망에 입력할 수 있고, 상기 입력된 제1 특징 벡터들에 기반하여 상기 AD 진단 모델을 위한 인공 신경망을 학습시킬 수 있다.
한편, 상기 이미지 데이터 외에도 상기 이미지 데이터에 대응하는 환자 등 대상체의 특성, 상기 이미지 데이터를 획득한 장치의 특성인 메타 데이터도 상기 AD 진단 모델에 의한 AD 진단에 있어서 유의한 영향을 미칠 수 있다. 따라서, 컴퓨팅 장치(100)는 상기 메타 데이터를 추가적으로 고려하여 상기 인공 신경망을 학습시킬 수 있다.
구체적으로, 컴퓨팅 장치(100)는 상기 제1 특징 벡터들에 상기 메타 데이터에 기반하여 환자의 특성 및/또는 장치의 특성도 효율적으로 반영하여 상기 인공 신경망을 학습시킬 수 있다. 여기서, 상기 메타 데이터는 상술한 바와 같이 환자 등 대상체의 나이, 성별, 이미지 데이터 획득 장치의 프로토콜 정보 정보 (예컨대, MRI vendor, magnetic field strength) 등에 대한 특성 정보를 포함할 수 있다.
컴퓨팅 장치(100)는 상기 메타 데이터에 포함된 상기 특성 정보와 관련된 특성의 수에 따라 제한적인 차원 및 채널에 대한 메타 벡터를 구성할 수 있다. 이 경우, 상기 메타 벡터의 크기 및 채널의 수는 상기 이미지 데이터로부터 추출될 특징 벡터들 (또는, 제1 특징 벡터들) 각각의 크기 (또는, 각 벡터에 포함된 요소의 수) 및/또는 채널의 수 (또는, 벡터들의 수)와 차이가 상당히 크다. 이 경우, 컴퓨팅 장치 (100)가 상기 특징 벡터들에 상기 메타 벡터를 단순히 연결 (concatenate)할 경우에 상기 인공 신경망의 학습에서 상기 메타 벡터 또는 메타 데이터의 특성이 의미 있게 반영되기 어렵다.
이런 점에서, 상기 인공 신경망의 학습 과정에서 상기 메타 벡터 및 상기 제1 특징 벡터들 간의 채널의 차이를 보완시키면서 상기 메타 데이터에 따른 특성이 상기 제1 특징 벡터들에 효율적으로 반영될 필요가 있다. 한편, 상술한 바와 같이, 상기 채널의 수는 제1 특징 벡터들의 수와 대응할 수 있다.
이하에서는, 컴퓨팅 장치 (100)가 상기 메타 데이터를 상기 인공 신경망에 입력하여 복수의 채널들에 대한 상기 확장 메타 벡터들로 확장시키고, 확장된 상기 확장 메타 벡터들에 기반하여 상기 제1 특징 벡터들에 효율적으로 메타 데이터와 관련된 특성 (또는, 특성 값)을 반영하는 방법을 자세히 설명한다.
도 4는 컴퓨팅 장치가 상기 메타 데이터를 제1 인공 신경망에 입력하여 복수의 채널들에 대한 확장 메타 벡터들을 생성하는 방법을 설명하기 위한 도면이다.
도 4를 참조하면, 상기 컴퓨팅 장치는 상기 메타 데이터에 대한 메타 벡터 (211)를 구성할 수 있다. 메타 벡터 (211)는 상기 메타 데이터에 포함된 환자의 특성 및 장치의 특성의 수에 기반하여 k 크기의 벡터 (또는, 요소의 수가 k인 벡터)로 구성될 수 있다. 또는, 메타 벡터 (211)는 상기 메타 데이터에 포함된 환자의 특성 및 장치의 특성의 수에 기반하여 k 크기의 벡터 (또는, 요소의 수가 k인 벡터)로써 하나의 채널로 구성될 수 있다.
다음으로, 상기 컴퓨팅 장치는 메타 벡터 (211)를 제1 인공 신경망 (210)에 입력하여 상기 N 채널들에 대응하도록 M개 또는 M개의 채널들에 대한 확장 메타 벡터들 (213)을 생성할 수 있다. 제1 인공 신경망 (210)은 메타 벡터 (211)를 M 개 또는 M 채널들에 대한 확장 메타 벡터들 (213)로 변환 또는 확장하는 인공 신경망으로, 상기 AD 진단 모델을 위한 인공 신경망의 일부일 수 있다. 구체적으로, 상기 컴퓨팅 장치는 제1 인공 신경망(210)에 포함된 적어도 하나의 전 연결 레이어 (FC 레이어) 및 선형 레이어를 통해 상기 하나의 채널에 대한 메타 벡터를 상기 복수의 채널인 M 채널들에 대한 확장 메타 벡터들 (또는, M개의 확장 메타 벡터들)로 확장시킬 수 있다. 한편, 상기 컴퓨팅 장치는 제1 인공 신경망(210)과 관련된 FC 레이어의 파라미터들 (또는, 가중치들, 가중치 세트)을 조정하여 확장 메타 벡터들 (213)의 요소의 값들을 조정할 수 있고, 상기 파라미터들의 조정으로 제1 인공 신경망(210)을 학습시킬 수 있다.
이와 같이, 상기 컴퓨팅 장치는 제1 인공 신경망 (210)를 이용하여 상기 메타 데이터에 대한 메타 벡터 (211)의 채널을 확장시킨 상기 M 채널들에 대한 확장 메타 벡터들 (213)을 생성할 수 있다. 예컨대, N 채널들에 대한 상기 제1 특징 벡터들이 추출된 경우, 상기 컴퓨팅 장치는 제1 인공 신경망 (210)을 이용하여 메타 벡터 (211)를 M 채널들에 대한 확장 메타 벡터들 (213)로 확장시킬 수 있고, 상기 M은 N 또는 2N과 대응할 수 있다.
한편, M 채널들에 대한 확장 메타 벡터들은 M 개의 확장 메타 벡터들과 대응하며, 이하에서는 설명의 편의를 위해 제1 인공 신경망 (210)에 의해 확장 생성된 M 채널들에 대한 확장 메타 벡터들을 M 개의 확장 메타 벡터들로 정의하여 설명한다.
이와 같이, 상기 메타 데이터는 상기 제1 인공 신경망을 통해 상기 제1 특징 벡터들과 대응하도록 M (또는, N, 2N)개의 확장 메타 벡터들 (213)로 확장될 수 있다. 상기 컴퓨팅 장치는 확장 메타 벡터들 (213)에 기초하여 각 채널 별로 제1 특징 벡터들에 메타 데이터와 관련된 특성을 효율적으로 임베딩 또는 적용할 수 있다.
이하에서는, 상기 컴퓨팅 장치가 채널-와이즈 동작으로써 확장 메타 벡터들 (213)에 기초하여 상기 N 채널들 각각에 대한 제1 특징 벡터에 효율적으로 메타 데이터의 특성을 적용하는 방법을 자세히 설명한다.
도 5 및 도 6은 컴퓨팅 장치가 확장 메타 벡터들에 기초하여 제1 특징 벡터들에 상기 메타 데이터의 특성을 적용하는 방법을 설명하기 위한 도면이다.
도 5 (a) 및 (b)를 참조하면, 컴퓨팅 장치는 제1 인공 신경망 (210)을 이용하여 상기 M 개의 확장 메타 벡터들로부터 상기 N 채널들 각각에 대한 특성 값을 산출하거나 제1 인공 신경망 (210)에 의해 생성된 상기 M 개의 확장 메타 벡터들로부터 상기 N 채널들 각각에 대한 특성 값(Y)을 산출할 수 있다. N 채널들 각각에 대한 상기 특성 값은 적어도 하나의 대한 확장 메타 벡터로부터 산출될 수 있다. 즉, 상기 컴퓨팅 장치는 제1 인공 신경망 (210)을 이용하여 상기 M 개의 확장 메타 벡터들로부터 상기 N 채널들 각각에 대한 특성 값을 산출할 수도 있고, 제1 인공 신경망 (210)에 의해 생성된 상기 M 개의 확장 메타 벡터들로부터 상기 N 채널들 각각에 대한 특성 값(Y)을 직접 산출할 수도 있다.
이하에서는, 설명의 편의를 위해, 상기 컴퓨팅 장치가 상기 M 개의 확장 메타 벡터들로부터 상기 N 채널들 각각에 대한 특성 값(Y)을 산출하는 것으로 가정하여 설명한다.
구체적으로, 상기 컴퓨팅 장치는 상기 생성된 확장 메타 벡터들에 기반하여 각 채널 별 특성 값들을 산출할 수 있다. 예컨대, 상기 컴퓨팅 장치는 상기 확장 메타 벡터들 각각에 기반하여 N 채널들 각각에 대한 특성 값(Y)을 산출할 수 있다.
제1 실시예에 따르면, 상기 컴퓨팅 장치는 상기 M개의 확장 메타 벡터들 중 둘 이상의 확장 메타 벡터들에 기반하여 하나의 채널에 대한 특성 값을 산출할 수 있다. 구체적으로, 상기 컴퓨팅 장치는 하나의 채널에 대한 특성 값으로 하나의 확장 메타 벡터의 요소들의 분산 및 다른 확장 메타 벡터에 포함된 요소들의 평균을 산출할 수 있다. 이와 같은 방식으로, 상기 컴퓨팅 장치는 상기 N 채널들 각각에 대한 특성 값 (Y)을 산출 및 결정할 수 있다.
예컨대, N 채널들에 대한 제1 특징 벡터들 (즉, N개의 제1 특징 벡터들)에 대응하여 상기 2N (즉, M이 2N)개의 확장 메타 벡터들이 생성될 수 있다. 이 경우, 상기 컴퓨팅 장치는 상기 2N 개의 확장 메타 벡터들 중에서 N 개의 확장 메타 벡터들 (또는, 첫번째 확장 메타 벡터부터 N번째 확장 메타 벡터까지 N개의 확장 메타 벡터들) 각각에 포함된 요소들의 평균을 산출하고, 나머지 N 개의 확장 메타 벡터들 (또는, N+1 번째 확장 메타 벡터부터 2N번째 확장 메타 벡터까지 나머지 N개의 확장 메타 벡터들) 각각에 포함된 요소들의 분산을 산출할 수 있다. 이 경우, 상기 N 개의 확장 메타 벡터들에 대한 N 개의 평균들 및 상기 나머지 N 개의 확장 메타 벡터들에 대한 N개의 분산들을 산출할 수 있다. 상기 컴퓨팅 장치는 N개의 분산들 중 하나의 분산 및 상기 N개의 평균들 중 하나의 평균을 상기 하나의 채널에 대한 특성 값으로 산출 또는 결정할 수 있다. 이와 같은 방식으로, 상기 컴퓨팅 장치는 N 채널들 각각에 대한 특성 값을 산출 또는 결정할 수 있다.
또는, 제2 실시예에 따르면, 상기 컴퓨팅 장치는 하나의 채널에 대한 특성 값을 상기 M개의 확장 메타 벡터들 중 하나의 확장 메타 벡터에 기반하여 산출할 수 있다. 이와 같은 방식으로 상기 컴퓨팅 장치는 상기 N 채널들 각각에 대한 특성 값을 산출할 수 있다. 구체적으로, 상기 컴퓨팅 장치는 하나의 확장 메타 벡터의 요소들의 평균 및 분산 (하나의 평균 및 분산 셋)을 산출하고, 상기 평균 및 분산 셋을 하나의 채널에 대한 특성 값으로 결정할 수 있다. 예컨대, N 채널들에 대한 제1 특징 벡터들 (즉, N개의 제1 특징 벡터들)에 대응하여 상기 N 개 (즉, M이 N)의 확장 메타 벡터들이 생성될 수 있다. 이 경우, 상기 컴퓨팅 장치는 N 개의 확장 메타 벡터들 각각의 요소들의 평균 및 분산을 산출하여 N개의 평균 및 분산 셋들을 산출할 수 있다. 상기 하나의 평균 및 분산 셋은 하나의 채널에 대한 특성 값으로 결정되어, N 개의 평균 및 분산 셋 각각은 N 채널들 각각에 대한 특성 값으로 결정될 수 있다.
다음으로, 특성 퓨전부 (220, 221, 222)는 각 채널에 대한 특성 값 (Y)과 제1 특징 벡터들 (X)을 입력 받을 수 있다. 특성 퓨전부 (220, 221, 222)는 상기 채널 별 특성 값(Y)을 채널 별로 제1 특징 벡터들 (X)에 적용하여 제2 특징 벡터들(Z)을 출력 또는 생성할 수 있다. 여기서, 상기 특성 값은 메타 데이터에 대한 특성을 포함할 수 있다. 여기서, 설명의 편의를 위해 특성 퓨전부 (220, 221, 222)를 별도로 도시하였으나, 특성 퓨전부 (220, 221, 222)는 상기 컴퓨팅 장치의 기능적 구성으로써 메타 데이터와 관련된 특성을 반영하도록 구성된 하나의 소프트웨어 또는 알고리즘일 수 있다.
구체적으로, 특성 퓨전부 (220, 221, 222)는 상기 각 채널에 대한 특성 값에 기반하여 제1 특징 벡터들(X) 각각을 적응형 인스턴스 정규화 (Adaptive Instance Normalization, AdaIN)시키는 방식으로 상기 제1 특징 벡터들(X)에 특성 값 (Y)을 적용할 수 있다. 즉, 특성 퓨전부 (220, 221, 222)는 상기 각 채널에 대한 특성 값을 상기 제1 특징 벡터들(X) 각각을 적응형 인스턴스 정규화 (Adaptive Instance Normalization, AdaIN)시키기 위한 스케일 팩터 및 바이어스로 이용할 수 있다. 예컨대, 수학식 1 및/또는 수학식 2를 참조하면, 하나의 채널에 대한 특성 값 (Y) 중 분산은 상기 하나의 채널에 대한 제1 특징 벡터를 AdaIN하기 위한 스케일 팩터로 이용되고, 평균은 상기 하나의 채널에 대한 제1 특징 벡터를 AdaIN하기 위한 바이어스로 이용될 수 있다.
한편, 특성 퓨전부 (220, 221, 222)는 각 채널 별 특성 값 (Y)을 적용하기 전에 상기 제1 특징 벡터들 (X)을 먼저 정규화 (xnorm)시킬 수 있다. 예컨대, 특성 퓨전부 (220, 221, 222)에서 제1 특징 벡터들 (X)은 컨벌루션 레이어를 거쳐 표준화 (standardization) 또는 배치 정규화 (batch normalization)될 수 있다 (예컨대, 제1 특징 벡터들 (X) 각각에 대한 평균 () 및 분산 ()에 기반한 표준화).
이하에서는, 설명의 편의를 위해 상기 정규화된 제1 특징 벡터들을 제1 정규 특징 벡터 (xnorm)들로 정의하고, 특성 값 (Y)에 기반하여 채널 별로 AdaIN된 제1 정규 특징 벡터(xnorm)들을 제2 정규 특징 벡터들로 정의한다.
상기 제1 실시예에 기반하여 채널 별로 특성 값 (Y)이 산출된 경우, 특성 퓨전부 (220, 221, 222)는 하기의 수학식 1를 이용하여 상기 채널 별로 제1 정규 특징 벡터(xnorm)들을 AdaIN시켜 상기 제2 정규 특징 벡터들을 생성할 수 있다.
예컨대, 상기 제1 실시예에 따라, 하나의 채널에 대한 특성 값인 분산 σ(y1) 및 평균 μ(y2)이 둘 이상의 확장 메타 벡터들로부터 산출될 수 있다. 즉, 하나의 채널에 대한 분산이 산출된 확장 메타 벡터 (y1)와 평균이 산출된 확장 메타 벡터 (y2)가 상이하다. 특성 퓨전부 (220, 221, 222)는 상기 수학식 1을 이용하여 하나의 채널에 대한 상기 분산 σ(y1) 및 평균 μ(y2)을 대응하는 채널의 제1 정규 특징 벡터(xnorm)에 적용하여 제2 정규 특징 벡터()를 생성할 수 있다.
상기 제2 실시예에 기반하여 채널 별로 특성 값 (Y)이 산출된 경우, 특성 퓨전부 (220, 221, 222)는 하기의 수학식 2를 이용하여 상기 채널 별로 제1 정규 특징 벡터(xnorm)들을 AdaIN시켜 제2 정규 특징 벡터들을 생성할 수 있다.
예컨대, 상기 제2 실시예에 따라, 하나의 채널에 대한 특성 값이 하나의 확장 메타 벡터에 대한 분산 σ(y1) 및 평균 μ(y1)으로 산출될 수 있다. 상기 제1 실시예와 달리, 하나의 채널에 대한 분산 및 평균은 하나의 확장 메타 벡터 (y1)로부터 산출된다. 이 경우, 특성 퓨전부 (220, 221, 222)는 상기 수학식 2을 이용하여 하나의 채널에 대한 상기 분산 σ(y1) 및 평균 μ(y1)을 대응하는 채널의 제1 정규 특징 벡터(xnorm)에 적용하여 제2 정규 특징 벡터(xnorm)를 생성할 수 있다.
일 예에 따르면, 특성 퓨전부 (220, 221, 222)는, 도 5 (a)에 도시된 바와 같이, 각 채널 별로 특성 값 (Y)이 적용된 제2 정규 특징 벡터들을 생성하고, 상기 제2 정규 특징 벡터들을 ReLU 레이어를 통해 선형화 (또는, ReLU 활성화)시켜 제2 특징 벡터(Z)들을 생성 또는 출력할 수 있다. 상기 생성 또는 출력된 제2 특징 벡터 (Z)들은 제2 인공 신경망에 입력될 수 있다.
또는, 도 5 (b)에 도시된 바와 같이, 특성 퓨전부 (220, 221, 222)는, 상기 선형화된 제2 정규 특징 벡터들에 상기 제1 특징 벡터들이 (채널 별로) 더 부가된 제2 특징 벡터(Z')들을 출력할 수 있다. 상기 제2 특징 벡터 (Z')들은 제2 인공 신경망에 입력될 수 있다.
또는, 도 6을 참조하면, 특성 퓨전부 (220, 221, 222)는, 2 개의 컨벌루션 레이어들, 2개의 AdaIN 레이어들, 2개의 ReLU 레이어들을 포함할 수 있다. 이 경우, 특성 퓨전부 (220, 221, 222)는 상기 제1 정규 특징 벡터들에 상기 특성 값(Y)들을 2회 이상 적용할 수 있다. 즉, 상기 컴퓨팅 장치는 상기 제1 특징 벡터들의 특징 표현 (feature representation)이 충분히 학습될 수 있도록 상기 상기 특성 값들을 복수 회 적용하고, 상기 특성 값들이 복수 회 적용된 상기 제2 정규 특징 벡터들에 상기 제1 특징 벡터를 더하여 상기 제2 특징 벡터 (Z'')들을 출력할 수 있다.
이와 같이, 상기 컴퓨팅 장치는 특성 퓨전부 (220, 221, 222)를 이용하여 상기 제2 특징 벡터 (Z, Z' 또는 Z'')들을 출력할 수 있고, 출력된 상기 제2 특징 벡터 (Z, Z' 또는 Z'')들을 제2 인공 신경망 (또는, AD 진단 모델을 위한 인공 신경망)에 입력할 수 있다.
도 7은 상기 컴퓨팅 장치가 상기 제2 특징 벡터들에 기반하여 제1 및 제2 인공 신경망을 학습시키는 방법을 설명하기 위한 도면이다.
도 7을 참조하면, 컴퓨팅 장치는 이미지 데이터 및 메타 데이터를 포함하는 학습 데이터를 이용하여 제1 인공 신경망 및/또는 제2 인공 신경망을 학습시킬 수 있다.
구체적으로, 컴퓨팅 장치는 상기 학습 데이터에 포함된 이미지 데이터로부터 제1 특징 벡터들을 추출하고, 상기 제1 인공 신경망을 이용하여 상기 메타 데이터에 대한 확장 메타 벡터들을 생성할 수 있다. 이 경우, 컴퓨팅 장치는 도 5 및 도 6를 참조하여 설명한 특성 퓨전부를 이용하여 상기 제2 특징 벡터들을 출력하고, 상기 출력된 제2 특징 벡터들을 제2 인공 신경망 (230)에 입력하여 상기 이미지 데이터에 대한 분류 카테고리 별 예측 값 또는 확률 값을 산출할 수 있다. 여기서, 제2 인공 신경망 (230)은 상기 제2 특징 벡터들의 크기를 줄이기 위한 폴링 레이어 (pooling layer). 소프트맥스 레이어 (softmax layer)를 포함하는 분류 모델에 대한 인공 신경망일 수 있다.
구체적으로, 제2 인공 신경망 (230)은 입력된 상기 제2 특징 벡터들을 폴링 레이어 (pooling layer)을 통해 크기를 조정하고, 크기가 조정된 제2 특징 벡터들을 복수의 FC 레이어를 거쳐 분류 카테고리들 각각에 대응하는 분류 특징 벡터들로 축소 (즉, 채널 축소)시키기고, 소프트맥스 레이어 (softmax layer)를 통해 상기 분류 카테고리들 각각에 대한 확률 값을 예측할 수 있다. 예컨대, 상기 분류 카테고리가 3개인 경우, 제2 인공 신경망 (230)은 복수의 FC 레이어를 이용하여 상기 N 채널들에 대한 상기 제2 특징 벡터들 (또는, N개의 상기 제2 특징 벡터들)을 3 개의 분류 카테고리에 대응하는 3 개의 분류 특징 벡터들로 축소시킬 수 있다. 이 경우, 제2 인공 신경망 (230)은 상기 3 개의 분류 특징 벡터들에 기초하여 상기 3 개의 분류 카테고리 각각에 대한 확률 값을 산출할 수 있다.
상기 컴퓨팅 장치는 제2 인공 신경망 (230)을 통해 산출된 분류 카테고리 별 확률 값과 상기 학습 데이터에 포함된 레이블 값 (또는, 레이블 정보)에 기초하여 손실 함수가 최소화될 수 있도록 제1 인공 신경망 (210) 및/또는 제2 인공 신경망 (230)을 학습시킬 수 있다. 예컨대, 상기 컴퓨팅 장치는 상기 손실 함수에 기초하여 제1 인공 신경망 (210)에서의 파라미터 (또는, 가중치, 가중치 세트)들 조정하여 상기 확장 메타 벡터들의 요소 값을 조정시키고, 제2 인공 신경망 (230)에서의 파라미터 (또는, 가중치, 가중치 세트)들 조정하여 상기 제1 및 제2 인공 신경망을 학습시킬 수 있다.
일 예에 따르면, 제2 인공 신경망 (230)은 AD (Alzheimer's disease), MCI (mild cognitive impairment) 및 NC (normal controls)의 분류 카테고리들을 분류하는 AD 진단 모델을 위한 인공 신경망일 수 있다. 이 경우, 상기 컴퓨팅 장치는 제2 인공 신경망 (230)에 상기 제2 특징 벡터들을 입력하여 상기 AD, MCI 및 NC 각각에 대한 확률 값 (또는, 예측 값)을 산출할 수 있다. 상기 컴퓨팅 장치는 상기 산출된 AD, MCI 및 NC 각각에 대한 확률 값 (또는, 예측 값)과 상기 이미지 데이터에 대응하는 레이블 값을 이용하여 손실 함수 (또는, 미리 설정된 손실 함수의 손실 값)가 최소화되도록 제1 인공 신경망 (210) 및 제2 인공 신경망 (230) 각각의 파라미터 (또는, 가중치, 가중치 세트)들을 조정하여 제1 인공 신경망 (210) 및 제2 인공 신경망 (230)를 학습시킬 수 있다.
또는, 상기 컴퓨팅 장치는 상기 이미지 데이터로부터 상기 제1 특징 벡터들을 추출하는 제3 인공 신경망 (미도시, 예컨대, CNN)도 함께 상기 손실 함수가 최소화되도록 학습시킬 수 있다.
상술한 바와 같이, 상기 AD 진단 모델을 위한 인공 신경망은 제1 인공 신경망 및 제2 인공 신경망을 포함할 수 있고, 도 3 내지 도 7에서 설명한 바와 같이 메타 데이터에 대응한 특성이 효율적으로 반영되도록 학습될 수 있다. 즉, 상술한 학습 방법을 통해, 상기 제1 인공 신경망 및 상기 제2 인공 신경망은 파라미터들 (또는, 가중치들, 가중치 세트) 조정을 통해 메타 데이터가 상기 분류 동작에서 유의미한 영향을 줄 수 있도록 학습될 수 있다.
이를 통해, 상기 컴퓨팅 장치는 상기 학습된 인공 신경망들을 이용하여 메타 데이터를 효과적으로 반영된 상기 이미지 데이터에 대한 분류 정보 (예컨대, AD 진단 정보)를 출력 또는 생성할 수 있다. 즉, 상기 컴퓨팅 장치는 상기 학습된 인공 신경망들을 이용하여 입력된 메타 데이터가 효과적으로 반영할 수 있고, 이를 통해 상기 이미지 데이터에 대한 진단 성능 (예컨대, AD 진단 성능) 및 견고성 (robustness)을 크게 향상시킬 수 있다.
이하에서는, 컴퓨팅 장치가 상술한 방법들로 학습된 인공 신경망들을 이용하여 이미지 데이터에 대한 분류 정보 또는 진단 정보를 출력하는 방법을 자세히 설명한다.
도 8은 컴퓨팅 장치가 학습된 인공 신경망을 통해 분류 정보를 출력하는 방법을 설명하기 위한 도면이다.
도 8을 참조하면, 컴퓨팅 장치는 도 3에서 설명한 바와 같이 MRI 등 이미지 데이터로부터 N 채널들에 대한 제1 특징 벡터들 (또는, N개의 제1 특징 벡터들)을 추출할 수 있다. 예컨대, 상기 컴퓨팅 장치는 CNN 등의 인공 신경망 (240)을 이용하여 상기 이미지 데이터로부터 상기 제1 특징 벡터들을 추출할 수 있다.
다음으로, 상기 컴퓨팅 장치는 도 4를 참조하여 설명한 바와 같이, 학습된 제1 인공 신경망 (210)을 이용 (또는, 제1 인공 신경망에 메타 데이터를 입력)하여 입력된 메타 데이터로부터 M 개 (또는, N, 2N 개)의 확장 메타 벡터들을 생성할 수 있다. 이 경우, 상기 컴퓨팅 장치는 도 7의 학습 결과 (예컨대, 학습에 따라 결정된 가중치들, 가중치 세트)를 이용하여 상기 제1 인공 신경망 (210)으로부터 M개의 확장 메타 벡터들을 생성할 수 있다. 또한, 상기 컴퓨팅 장치는 (또는, 제1 인공 신경망을 이용하여) M개의 확장 메타 벡터들에 기초하여 각 채널 별 특성 값을 산출할 수 있다.
다음으로, 상기 컴퓨팅 장치는 도 5 및 도 6를 참조하여 설명한 특성 퓨전부 (220)에서 출력된 상기 제2 특징 벡터들을 제2 인공 신경망 (230)에 입력하여 상기 이미지 데이터에 대한 분류 카테고리 별 예측 값 또는 확률 값을 산출할 수 있다. 즉, 상기 컴퓨팅 장치는 도 7의 학습 결과 (예컨대, 학습에 따라 결정된 가중치들, 가중치 세트)를 이용하여 제2 인공 신경망 (230)으로부터 분류 카테고리 별 예측 값 또는 확률 값을 산출할 수 있다.
구체적으로, 제2 인공 신경망 (230)은 입력된 상기 제2 특징 벡터들을 풀링 레이어, 복수의 FC 레이어를 거쳐 분류 카테고리들 각각에 대한 분류 특징 벡터들로 채널 및 크기를 축소 시키고, 소프트맥스 레이어 (softmax layer)를 통해 상기 분류 카테고리들 각각에 대한 확률 값을 예측할 수 있다. 예컨대, 상기 분류 카테고리가 3개인 경우, 제2 인공 신경망 (230)은 풀링 레이어를 통해 크기가 축소된 상기 제2 특징 벡터들을 복수의 FC 레이어를 이용하여 상기 N 채널들에 대한 상기 제2 특징 벡터들 (또는, N개의 상기 제2 특징 벡터들)을 3 개의 분류 카테고리에 대한 3개의 분류 특징 벡터들로 축소시킬 수 있다. 이 경우, 제2 인공 신경망 (230)은 상기 3개의 분류 특징 벡터들에 기초하여 상기 3개의 분류 카테고리 각각에 대한 확률 값을 산출할 수 있다.
상기 컴퓨팅 장치는 제2 인공 신경망 (230)을 이용하여 상기 산출된 분류 카테고리 별 확률 값에 기반하여 상기 이미지 데이터에 분류 정보 (예컨대, AD 진단 정보)를 출력할 수 있다.
일 예에 따르면, 상기 컴퓨팅 장치는 학습된 인공 신경망들 또는 학습된 AD 진단 모델을 이용하여 입력된 상기 이미지 데이터인 MRI 및 메타 데이터에 대응하는 AD 진단 정보 또는 분류 정보를 출력할 수 있다. 구체적으로, 상기 컴퓨팅 장치는 상기 MRI로부터 N 채널들에 대한 제1 특징 벡터들을 생성하고, 제1 인공 신경망 (210)을 이용하여 상기 메타 데이터로부터 M 개의 확장 메타 벡터들을 생성할 수 있다. 상기 컴퓨팅 장치는 상기 확장 메타 벡터들 각각에 대응한 특성 값인 분산 및 평균을 N 채널들 각각에 대해 산출할 수 있다. 상기 컴퓨팅 장치는 특성 퓨전부 (220)를 이용하여 각 채널 별로 산출된 분산 및 평균에 기반하여 상기 제1 특징 벡터 (또는, 제1 정규 특징 벡터)들 각각을 AdaIN시킬 수 있다. 상기 컴퓨팅 장치는 특성 퓨전부 (220)에서 출력된 제2 특징 벡터들을 제2 인공 신경망 (230)에 입력하여 상기 분류 정보를 출력할 수 있다. 여기서, 제2 인공 신경망 (230)은 상기 제2 특징 벡터들에 기초하여 AD (Alzheimer's disease), MCI (mild cognitive impairment) 및 NC (normal controls)의 분류 카테고리들을 분류할 수 있다. 이 경우, 상기 컴퓨팅 장치는 제2 인공 신경망 (230)에 상기 제2 특징 벡터들을 입력하여 상기 AD, MCI 및 NC 각각에 대한 확률 값 (또는, 예측 값)을 산출하고, 산출된 확률 값에 기반하여 상기 MRI에 대응한 분류 정보 또는 진단 정보 (AD인지 여부에 대한 정보)를 출력할 수 있다.
상술한 바와 같이, 상기 컴퓨팅 장치는 상기 입력된 메타 데이터가 유의미하게 영향을 줄 수 있도록 인공 신경망들을 학습시키고, 상기 학습된 인공 신경망들을 이용하여 보다 정확하고 견고한 상기 이미지 데이터에 대한 분류 정보 (예컨대, AD 진단 정보)를 출력 또는 생성할 수 있다. 즉, 상기 컴퓨팅 장치는 상기 학습된 인공 신경망들을 이용하여 입력된 메타 데이터를 효과적으로 이용하여 상기 이미지 데이터에 대한 진단 성능 (예컨대, AD 진단 성능) 및 견고성 (robustness)을 크게 향상시킬 수 있다.
위 실시예의 설명에 기초하여 해당 기술분야의 통상의 기술자는, 본 발명의 방법 및/또는 프로세스들, 그리고 그 단계들이 하드웨어, 소프트웨어 또는 특정 용례에 적합한 하드웨어 및 소프트웨어의 임의의 조합으로 실현될 수 있다는 점을 명확하게 이해할 수 있다. 상기 하드웨어는 범용 컴퓨터 및/또는 전용 컴퓨팅 장치 또는 특정 컴퓨팅 장치 또는 특정 컴퓨팅 장치의 특별한 모습 또는 구성요소를 포함할 수 있다. 상기 프로세스들은 내부 및/또는 외부 메모리를 가지는, 하나 이상의 마이크로프로세서, 마이크로컨트롤러, 임베디드 마이크로컨트롤러, 프로그래머블 디지털 신호 프로세서 또는 기타 프로그래머블 장치에 의하여 실현될 수 있다. 게다가, 혹은 대안으로서, 상기 프로세스들은 주문형 집적회로(application specific integrated circuit; ASIC), 프로그래머블 게이트 어레이(programmable gate array), 프로그래머블 어레이 로직(Programmable Array Logic; PAL) 또는 전자 신호들을 처리하기 위해 구성될 수 있는 임의의 다른 장치 또는 장치들의 조합으로 실시될 수 있다. 더욱이 본 발명의 기술적 해법의 대상물 또는 선행 기술들에 기여하는 부분들은 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 기계 관찰 가능한 기록 매체에 기록될 수 있다. 상기 기계 관찰 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 기계 관찰 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야의 통상의 기술자에게 공지되어 사용 가능한 것일 수도 있다. 기계 관찰 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD, Blu-ray와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 전술한 장치들 중 어느 하나뿐만 아니라 프로세서, 프로세서 아키텍처 또는 상이한 하드웨어 및 소프트웨어의 조합들의 이종 조합, 또는 다른 어떤 프로그램 명령어들을 실행할 수 있는 기계 상에서 실행되기 위하여 저장 및 컴파일 또는 인터프리트될 수 있는, C와 같은 구조적 프로그래밍 언어, C++ 같은 객체지향적 프로그래밍 언어 또는 고급 또는 저급 프로그래밍 언어(어셈블리어, 하드웨어 기술 언어들 및 데이터베이스 프로그래밍 언어 및 기술들)를 사용하여 만들어질 수 있는바, 기계어 코드, 바이트코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 이에 포함된다.
따라서 본 명세서에 따른 일 태양에서는, 앞서 설명된 방법 및 그 조합들이 하나 이상의 컴퓨팅 장치들에 의하여 수행될 때, 그 방법 및 방법의 조합들이 각 단계들을 수행하는 실행 가능한 코드로서 실시될 수 있다. 다른 일 태양에서는, 상기 방법은 상기 단계들을 수행하는 시스템들로서 실시될 수 있고, 방법들은 장치들에 걸쳐 여러 가지 방법으로 분산되거나 모든 기능들이 하나의 전용, 독립형 장치 또는 다른 하드웨어에 통합될 수 있다. 또 다른 일 태양에서는, 위에서 설명한 프로세스들과 연관된 단계들을 수행하는 수단들은 앞서 설명한 임의의 하드웨어 및/또는 소프트웨어를 포함할 수 있다. 그러한 모든 순차 결합 및 조합들은 본 명세서의 범위 내에 속하도록 의도된 것이다.
예를 들어, 상기 하드웨어 장치는 본 명세서에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다. 상기 하드웨어 장치는, 프로그램 명령어를 저장하기 위한 ROM/RAM 등과 같은 메모리와 결합되고 상기 메모리에 저장된 명령어들을 실행하도록 구성되는 MPU, CPU, GPU, TPU와 같은 프로세서를 포함할 수 있으며, 외부 장치와 신호를 주고받을 수 있는 통신부를 포함할 수 있다. 덧붙여, 상기 하드웨어 장치는 개발자들에 의하여 작성된 명령어들을 전달받기 위한 키보드, 마우스, 기타 외부 입력장치를 포함할 수 있다.
이상에서 본 발명이 구체적인 구성요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나, 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명이 상기 실시예들에 한정되는 것은 아니며, 본 발명이 속하는 기술분야에서 통상적인 지식을 가진 사람이라면 이러한 기재로부터 다양한 수정 및 변형을 꾀할 수 있다.
따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등하게 또는 등가적으로 변형된 모든 것들은 본 발명의 사상의 범주에 속한다고 할 것이다.
그와 같이 균등하게 또는 등가적으로 변형된 것에는, 예컨대 본 명세서에 따른 방법을 실시한 것과 동일한 결과를 낼 수 있는, 논리적으로 동치(logically equivalent)인 방법이 포함될 것인바, 본 발명의 진의 및 범위는 전술한 예시들에 의하여 제한되어서는 아니되며, 법률에 의하여 허용 가능한 가장 넓은 의미로 이해되어야 한다.
Claims (13)
- 컴퓨팅 장치가 이미지 데이터에 대한 분류 정보를 출력하는 방법에 있어서,
입력된 상기 이미지 데이터로부터 N 채널들에 대한 제1 특징 벡터들을 추출하는 단계;
제1 인공 신경망을 이용하여 입력된 메타 데이터에 대한 확장 메타 벡터들을 생성하되, 상기 확장 메타 벡터들은 상기 N 채널들에 대응하도록 M 개 생성된, 단계;
상기 확장 메타 벡터들 및 상기 제1 특징 벡터들에 기초하여 제2 특징 벡터들을 생성하는 단계; 및
상기 제2 특징 벡터들을 제2 인공 신경망에 입력하여 상기 이미지 데이터에 대한 분류 정보를 출력하는 단계를 포함하는 방법. - 제1항에 있어서,
상기 확장 메타 벡터들에 기초하여 상기 N 채널들 각각에 대한 특성 값을 산출하는 단계;를 더 포함하고,
상기 제2 특징 벡터들은 각 채널 별로 상기 특성 값이 상기 제1 특징 벡터들에 적용되어 생성되는 것을 특징으로 하는, 방법. - 제2항에 있어서,
하나의 채널에 대한 상기 특성 값은 상기 하나의 채널에 대한 제1 특징 벡터를 적응형 인스턴스 정규화 (Adaptive Instance Normalization, AdaIN)시키기 위한 스케일 팩터 및 바이어스로 이용되는 것을 특징으로 하는, 방법. - 제3항에 있어서,
상기 하나의 채널에 대한 특성 값은 하나의 확장 메타 벡터에 포함된 엘리먼트들의 평균 및 분산을 포함하고,
상기 평균은 상기 바이어스로, 상기 분산은 상기 스케일 팩터로 이용되는 것을 특징으로 하는, 방법. - 제3항에 있어서,
상기 하나의 채널에 대한 특성 값은 하나의 확장 메타 벡터에 포함된 엘리먼트들의 평균 및 다른 하나의 확장 메타 벡터에 포함된 엘리먼트들의 분산을 포함하고,
상기 평균은 상기 바이어스로 상기 분산은 상기 스케일 팩터로 이용되는 것을 특징으로 하는, 방법 - 제1항에 있어서,
상기 M은 상기 N 채널들의 수와 동일한 N이거나 2N인 것을 특징으로 하는, 방법. - 제3항에 있어서,
상기 제2 특징 벡터들은 상기 AdaIN된 제1 특징 벡터들에 상기 추출된 제1 특징 벡터들을 더 부가하여 생성되는 것을 특징으로 하는, 방법. - 제3항에 있어서,
상기 제1 특징 벡터들은 상기 AdaIN되기 전에 정규화되는 것을 특징으로 하는, 방법. - 제1항에 있어서,
상기 메타 데이터는 상기 이미지 데이터에 대응하는 대상체의 특성, 상기 이미지 데이터를 획득한 장치의 특성을 포함하는 것을 특징으로 하는, 방법. - 제1항에 있어서,
상기 이미지 데이터는 MRI (Magnetic resonance imaging)이고, 상기 분류 정보는 AD (Alzheimer's disease), MCI (mild cognitive impairment) 또는 NC (normal controls)에 대한 정보를 포함하는 것을 특징으로 하는 방법, - 제1항에 있어서,
상기 제1 특징 벡터들은 CNN (Convolutional neural network)를 이용하여 상기 이미지 데이터로부터 추출되는 것을 특징으로 하는, 방법. - 제1항에 있어서,
상기 컴퓨팅 장치는 학습 데이터를 이용하여 생성한 상기 제2 특징 벡터를 상기 제2 인공 신경망에 입력하여 출력된 예측 값 및 상기 학습 데이터에 포함된 레이블 값에 기반하여 손실 함수의 손실 값이 최소화되도록 상기 제1 인공 신경망 및 상기 제2 인공 신경망을 학습시킨 것을 특징으로 하는, 방법. - 이미지 데이터에 대한 분류 정보를 출력하는 컴퓨팅 장치에 있어서,
상기 이미지 데이터 및 상기 이미지 데이터와 관련된 메타 데이터를 획득하기 위한 통신부; 및
상기 통신부와 연결되는 프로세서를 포함하고,
상기 프로세서는, 상기 이미지 데이터로부터 N 채널들에 대한 제1 특징 벡터들을 추출하고, 제1 인공 신경망을 이용하여 상기 메타 데이터에 대한 확장 메타 벡터들을 생성하되, 상기 확장 메타 벡터들은 상기 N 채널들에 대응하도록 M개 생성되며, 상기 확장 메타 벡터들 및 상기 제1 특징 벡터들에 기초하여 제2 특징 벡터들을 생성하고, 상기 제2 특징 벡터들을 제2 인공 신경망에 입력하여 상기 이미지 데이터에 대한 분류 정보를 출력하는 컴퓨팅 장치.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210184013A KR20230094670A (ko) | 2021-12-21 | 2021-12-21 | 인공 신경망을 이용한 이미지 데이터에 대한 분류 방법 및 이를 위한 장치 |
PCT/KR2022/018459 WO2023121003A1 (ko) | 2021-12-21 | 2022-11-22 | 인공 신경망을 이용한 이미지 데이터에 대한 분류 방법 및 이를 위한 장치 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210184013A KR20230094670A (ko) | 2021-12-21 | 2021-12-21 | 인공 신경망을 이용한 이미지 데이터에 대한 분류 방법 및 이를 위한 장치 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20230094670A true KR20230094670A (ko) | 2023-06-28 |
Family
ID=86902951
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210184013A KR20230094670A (ko) | 2021-12-21 | 2021-12-21 | 인공 신경망을 이용한 이미지 데이터에 대한 분류 방법 및 이를 위한 장치 |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR20230094670A (ko) |
WO (1) | WO2023121003A1 (ko) |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110073404B (zh) * | 2016-10-21 | 2023-03-21 | 南坦生物组学有限责任公司 | 数字组织病理学和显微解剖 |
KR102174232B1 (ko) * | 2018-08-09 | 2020-11-04 | 연세대학교 산학협력단 | 생체신호 클래스 분류 장치 및 그 방법 |
KR20210011707A (ko) * | 2019-07-23 | 2021-02-02 | 서강대학교산학협력단 | Cnn을 기반으로 한 동영상의 씬 단위 장소 분류 방법 및 이를 이용한 장소 분류 장치 |
KR102145374B1 (ko) * | 2020-01-17 | 2020-08-18 | 성균관대학교산학협력단 | 시각화된 특징벡터와 결합된 인공 지능 신경망 장치 및 이의 데이터 분류 방법 |
KR20210147936A (ko) * | 2020-05-29 | 2021-12-07 | 고려대학교 산학협력단 | 딥 러닝 네트워크 기반 멀티 mr 이미지를 활용한 원발성뇌암 뇌전이암 구분 방법 |
-
2021
- 2021-12-21 KR KR1020210184013A patent/KR20230094670A/ko not_active Application Discontinuation
-
2022
- 2022-11-22 WO PCT/KR2022/018459 patent/WO2023121003A1/ko unknown
Also Published As
Publication number | Publication date |
---|---|
WO2023121003A1 (ko) | 2023-06-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11069056B2 (en) | Multi-modal computer-aided diagnosis systems and methods for prostate cancer | |
KR101919866B1 (ko) | 뼈 스캔 영상에서 암 전이 여부의 판정을 지원하는 방법 및 이를 이용한 장치 | |
KR101894278B1 (ko) | 일련의 슬라이스 영상을 재구성하는 방법 및 이를 이용한 장치 | |
CN110692107B (zh) | 用于临床决策支持的对原始医学成像数据的机器学习 | |
CN110807755A (zh) | 使用定位器图像进行平面选择 | |
US11893729B2 (en) | Multi-modal computer-aided diagnosis systems and methods for prostate cancer | |
US11580642B2 (en) | Disease region extraction apparatus, disease region extraction method, and disease region extraction program | |
US11049251B2 (en) | Apparatus, method, and program for learning discriminator discriminating infarction region, discriminator for discriminating infarction region, and apparatus, method, and program for discriminating infarction region | |
Saad et al. | Review of brain lesion detection and classification using neuroimaging analysis techniques | |
US20230386032A1 (en) | Lesion Detection and Segmentation | |
WO2023219963A1 (en) | Deep learning-based enhancement of multispectral magnetic resonance imaging | |
KR101948701B1 (ko) | 피검체의 뇌 구조를 기술하는 잠재 변수에 기반하여 상기 피검체의 뇌질환을 판정하는 방법 및 이를 이용한 장치 | |
EP3965117A1 (en) | Multi-modal computer-aided diagnosis systems and methods for prostate cancer | |
US12033755B2 (en) | Method and arrangement for identifying similar pre-stored medical datasets | |
US11176413B2 (en) | Apparatus, method, and program for training discriminator discriminating disease region, discriminator discriminating disease region, disease region discrimination apparatus, and disease region discrimination program | |
KR20230094670A (ko) | 인공 신경망을 이용한 이미지 데이터에 대한 분류 방법 및 이를 위한 장치 | |
KR20230030810A (ko) | 데이터 생성 방법 및 이를 이용한 학습방법 및 장치 | |
KR102597647B1 (ko) | 인공 신경망에 기반하여 분류 정보를 출력하는 방법 및 이를 위한 장치 | |
KR102595045B1 (ko) | Icv 세그먼테이션 정보를 출력하는 방법 및 이를 위한 장치 | |
KR20230106359A (ko) | 컴퓨팅 장치가 이미지 데이터에 대한 분류 정보를 출력하는 방법 및 이를 위한 장치 | |
US20240249395A1 (en) | Systems and methods for contrast dose reduction | |
KR102593628B1 (ko) | 고품질 의료 영상 생성 방법 및 시스템 | |
US20230274424A1 (en) | Appartus and method for quantifying lesion in biometric image | |
Dong | Detection and Localization of Progressive Changes in Longitudinal MRI of the Hippocampal Region in Alzheimer’s Disease With Deep Learning | |
Vaidya | Perceptually Improved Medical Image Translations Using Conditional Generative Adversarial Networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal |