KR20230057490A - Cnn 기반 딥러닝을 이용한 망막병증 예측 방법 - Google Patents
Cnn 기반 딥러닝을 이용한 망막병증 예측 방법 Download PDFInfo
- Publication number
- KR20230057490A KR20230057490A KR1020210140267A KR20210140267A KR20230057490A KR 20230057490 A KR20230057490 A KR 20230057490A KR 1020210140267 A KR1020210140267 A KR 1020210140267A KR 20210140267 A KR20210140267 A KR 20210140267A KR 20230057490 A KR20230057490 A KR 20230057490A
- Authority
- KR
- South Korea
- Prior art keywords
- cnn
- retinopathy
- values
- layer
- deep learning
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 49
- 238000013135 deep learning Methods 0.000 title claims abstract description 20
- 238000013527 convolutional neural network Methods 0.000 title claims description 49
- 206010012689 Diabetic retinopathy Diseases 0.000 title description 14
- 208000017442 Retinal disease Diseases 0.000 claims abstract description 36
- 206010038923 Retinopathy Diseases 0.000 claims abstract description 36
- 230000004256 retinal image Effects 0.000 claims abstract description 33
- 238000007781 pre-processing Methods 0.000 claims abstract description 5
- 230000006870 function Effects 0.000 claims description 20
- 230000008569 process Effects 0.000 claims description 16
- 238000012360 testing method Methods 0.000 claims description 11
- 238000012549 training Methods 0.000 claims description 11
- 238000010586 diagram Methods 0.000 description 9
- 230000004913 activation Effects 0.000 description 5
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 5
- 238000011176 pooling Methods 0.000 description 5
- 238000001514 detection method Methods 0.000 description 3
- 201000010099 disease Diseases 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 210000001525 retina Anatomy 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 208000032843 Hemorrhage Diseases 0.000 description 1
- 206010047571 Visual impairment Diseases 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000017531 blood circulation Effects 0.000 description 1
- 210000004204 blood vessel Anatomy 0.000 description 1
- 230000015271 coagulation Effects 0.000 description 1
- 238000005345 coagulation Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 206010012601 diabetes mellitus Diseases 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 208000030533 eye disease Diseases 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 210000000265 leukocyte Anatomy 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 239000012528 membrane Substances 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000002207 retinal effect Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 230000007723 transport mechanism Effects 0.000 description 1
- 208000029257 vision disease Diseases 0.000 description 1
- 230000004393 visual impairment Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/50—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/0016—Operational features thereof
- A61B3/0025—Operational features thereof characterised by electronic signal processing, e.g. eye models
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/12—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/70—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30041—Eye; Retina; Ophthalmic
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Public Health (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Databases & Information Systems (AREA)
- Molecular Biology (AREA)
- Pathology (AREA)
- Epidemiology (AREA)
- Primary Health Care (AREA)
- Evolutionary Computation (AREA)
- Heart & Thoracic Surgery (AREA)
- Ophthalmology & Optometry (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Artificial Intelligence (AREA)
- Veterinary Medicine (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Quality & Reliability (AREA)
- Radiology & Medical Imaging (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
Abstract
본 발명의 일 실시예에 따른 CNN 기반 딥러닝을 이용한 망막병증 예측 방법은, 입력되는 망막 이미지를 전처리 및 리사이징하는 단계; 상기 전처리 및 리사이징 된 망막 이미지 분류를 위한 CNN 기반의 프레임 워크를 구축하는 단계; 및 상기 생성된 CNN 기반의 프레임 워크를 적용하여 상기 전처리 및 리사이징 된 망막 이미지를 망막병증 이미지 및 그 외 이미지로 분류하여 식별하는 단계를 포함하는 점에 그 특징이 있다.
Description
본 발명은 CNN 기반 딥러닝을 이용한 망막병증 예측 방법에 관한 것으로, 특히 CNN 기반의 학습을 통해 망막병증 특징의 분류 정확도를 향상시켜 당뇨성 망막병증 예측할 수 있는 CNN 기반 딥러닝을 이용한 망막병증 예측 방법에 관한 것이다.
당뇨병성 망막병증은 다원성 질환으로 인해 조직층에 손상이 발생하면 당뇨병성 망막증을 동반한 당뇨병성 질환 중 하나이다. 이러한, 망막병증은 망막 혈관에 변화를 일으켜 출혈, 누출액 및 시력 장애를 유발하는 인간의 안과 질환으로, 망막병증의 증상은 흐린 시력, 색 지각의 변화, 붉은 반점 및 눈의 통증이며 육안으로 감지할 수 없다.
최근, 환자들 중 특히 노인들은 당뇨병성 망막병증이 발병할 가능성이 있는 다유전성 질환을 가지고 있다. 이러한 다유전성 질환에 걸린 환자들은 일단 진단되면 임상적으로 가시적인 당뇨병성 망막병증(DR)이 조기에 나타나지 않지 않지만 유도된 양의 망막 혈류, 증가된 백혈구 헌신, 금고막의 응고에 따라 망막에 구조적 변화가 인지된다.
따라서, 종래에는 망막 이미지에서 당뇨병성 망막병증(DR) 감지를 구현하는 데 여러 가지 기술이 사용되었다. 망막 이미지를 사용한 DR 감지는 기계 학습(ML) 프레임워크 분류를 사용했는데, 이는 DR 식별 수준을 정의하는 데 부족했다.
또한, 안저 영상 기반 DR 검출을 다룬 시공간 이미지이지만 실행에 더 많은 시간이 소요되고, 정확도가 떨어지는 문제점이 발생된다.
앞서 언급한 문제점을 해결하기 위하여, CNN 기반으로 영상 데이터에서 특징 추출, 컨볼루션 신경망을 시각화, 프레임 워크로 필터링의 학습을 통해 특징을 분류하여 당뇨성 망막병증의 정확도가 향상된 예측을 할 수 있는 CNN 기반 딥러닝을 이용한 망막병증 예측 방법을 제공한다.
본 발명의 일 실시예에 따른 CNN 기반 딥러닝을 이용한 망막병증 예측 방법은, 입력되는 망막 이미지를 전처리 및 리사이징하는 단계; 상기 전처리 및 리사이징 된 망막 이미지 분류를 위한 CNN 기반의 프레임 워크를 구축하는 단계; 및 상기 생성된 CNN 기반의 프레임 워크를 적용하여 상기 전처리 및 리사이징 된 망막 이미지를 망막병증 이미지 및 그 외 이미지로 분류하여 식별하는 단계를 포함하는 점에 그 특징이 있다.
여기서, 특히 상기 CNN 기반의 프레임 워크를 구축하는 단계는, 상기 프레임 워크는 망막 이미지 내에서 모든 특징들이 식별되도록 다중 클래스로 분류되고, 다중 클래스는 컨볼루션 계층(Convolution layer), 맥스-풀링 계층(max-Polling layer), ReLu 계층, 풀리-커넥티드 계층(fully connected layer) 및 소프트맥스 계층(softmax layer)을 포함하여 구축되는 점에 그 특징이 있다.
여기서, 특히 상기 맥스-풀링 계층(max-Polling layer)은 인접한 값에 대한 출력을 통합하는 복소수 값, 특징 맵 및 필터를 포함하는 점에 그 특징이 있다.
여기서, 특히 상기 망막증 이미지를 분류하여 식별하는 단계는, 상기 전처리 및 리사이징 된 망막 이미지의 픽셀 값을 스케일링하여 정규화 된 데이터 세트를 준비하는 단계; 상기 구축된 CNN 기반의 프레임워크 모델을 초기화하는 단계; 상기 초기화된 CNN 기반의 프레임워크 모델을 이용하여 망막 이미지를 학습하는 단계; 상기 학습된 망막 이미지를 테스트하는 단계; 및 매개 변수에 의한 정확도가 반영된 출력 값의 최종 출력 모델을 생성하는 단계를 포함하는 점에 그 특징이 있다.
여기서, 특히 상기 데이터 세트를 준비하는 단계는, 입력된 망막 이미지에서 패치 이미지는 모든 픽셀 값에 대해 계산되고, 모든 입력 픽셀에 진리 값을 읽고 이를 대상 클래스로 구성하고, 입력 분류의 모든 픽셀에 대해 동일한 절차를 반복하는 점에 그 특징이 있다.
여기서, 특히 상기 프레임워크 모델을 초기화하는 단계는, 모든 필터 커널은 무작위 단위에 대한 편향 값과 가중치 값이 있는 풀리 커넥티드 네트워크(fully connected networks)를 사용하고, 최대 에포크(epochs) 수는 스트라이딩(striding) 및 제로 패딩 개념(zero padding concepts)으로 배치를 훈련하는 데 사용하고, 다음 과정에 대한 손실 함수의 값을 계산하는 점에 그 특징이 있다.
여기서, 특히 상기 망막 이미지를 학습하는 단계는, 매번 학습 마다 네트워크의 모든 패치에 대한 입력 값은 출력 계층 값을 계산하는 데 사용되고, 모든 출력 계층에 대해 조건부 확률과 손실 함수를 계산하고, 학습 비율과 입력에 대한 커널 값으로 모든 네트워크의 가중치 값을 업데이트하는 하는 점에 그 특징이 있다.
여기서, 특히 상기 학습된 망막 이미지를 테스트하는 단계는, 모든 테스트 샘플의 패치는 컨볼루션 신경망(Convolutional neural network)에 통합되어 패치의 비중을 제거하고, 분류 생성 오류는 각 프로세스에서 계산하여 정확도 값이 임계 값에 도달할 때 프로세스를 종료하는 점에 그 특징이 있다.
여기서, 특히 상기 최종 출력 모델을 생성하는 단계는, 상기 매개변수는 학습 비율, 비용 함수, 컨볼루션 계층의 필터 수, 맥스풀 값(Maxpooling value), 은닉층(hidden layer)의 총량, 패치의 크기 및 결합된 계층 형태를 포함하고, 생성된 출력 값은 테스트 및 훈련 과정 동안 분류되고, 최적화된 가중치 값을 사용하여 최종 출력 모델을 생성하는 점에 그 특징이 있다.
본 발명에서 개시하고 있는 일 실시예에 따르면, CNN 기반의 학습을 통해 망막병증 특징의 분류 정확도를 향상시켜 당뇨성 망막병증 안저 질환의 발생을 예측할 수 있는 효과가 있다.
도 1은 본 발명의 일 실시예에 따른 CNN 아키텍쳐를 개략적으로 도시한 도면이다.
도 2는 본 발명의 맥스 풀링 과정을 개략적으로 도시한 도면이다.
도 3은 본 발명의 일 실시 예에 따른 CNN 기반 딥러닝을 이용한 망막병증 예측 방법에 대한 순서도이다.
도 4는 본 발명의 전처리 과정의 안구의 망막병증 이미지를 보여주는 도면이다.
도 5는 상기 도 3의 망막병증을 분류하는 과정에 대한 구체적인 단계를 도시한 순서도이다.
도 6은 본 발명의 CNN 기반의 프레임워크의 구조를 개략적으로 도시한 도면이다.
도 7은 본 발명의 일 실시 예에 따른 훈련 데이터 셋의 손실을 보여주는 그래프이다.
도 8은 본 발명의 일 실시예에 따른 실험 결과의 전체 정확도를 보여주는 그래프이다.
도 9는 최소한의 분류향을 가지는 예측 영상이 구현된 망막병증 영상 데이터셋의 손실 값을 보여주는 그래프이다.
도 10은 본 발명에 따른 CNN 기반 딥러닝을 이용한 망막병증 예측 방법과 다른 방법들을 비교한 결과를 보여주는 도면이다.
도 2는 본 발명의 맥스 풀링 과정을 개략적으로 도시한 도면이다.
도 3은 본 발명의 일 실시 예에 따른 CNN 기반 딥러닝을 이용한 망막병증 예측 방법에 대한 순서도이다.
도 4는 본 발명의 전처리 과정의 안구의 망막병증 이미지를 보여주는 도면이다.
도 5는 상기 도 3의 망막병증을 분류하는 과정에 대한 구체적인 단계를 도시한 순서도이다.
도 6은 본 발명의 CNN 기반의 프레임워크의 구조를 개략적으로 도시한 도면이다.
도 7은 본 발명의 일 실시 예에 따른 훈련 데이터 셋의 손실을 보여주는 그래프이다.
도 8은 본 발명의 일 실시예에 따른 실험 결과의 전체 정확도를 보여주는 그래프이다.
도 9는 최소한의 분류향을 가지는 예측 영상이 구현된 망막병증 영상 데이터셋의 손실 값을 보여주는 그래프이다.
도 10은 본 발명에 따른 CNN 기반 딥러닝을 이용한 망막병증 예측 방법과 다른 방법들을 비교한 결과를 보여주는 도면이다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면을 참조하여 상세하게 설명하도록 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다.
제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는이라는 용어는 복수의 관련된 기재 항목들의 조합 또는 복수의 관련된 기재 항목들 중의 어느 항목을 포함한다.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
명세서 및 청구범위 전체에서, 어떤 부분이 어떤 구성 요소를 포함한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있다는 것을 의미한다.
도 1은 본 발명의 일 실시예에 따른 CNN 아키텍쳐를 개략적으로 도시한 도면이고, 도 2는 본 발명의 맥스 풀링 과정을 개략적으로 도시한 도면이고, 도 3은 본 발명의 일 실시 예에 따른 CNN 기반 딥러닝을 이용한 망막병증 예측 방법에 대한 순서도이고, 도 4는 본 발명의 전처리 과정의 안구의 망막병증 이미지를 보여주는 도면이고, 도 5는 상기 도 3의 망막병증을 분류하는 과정에 대한 구체적인 단계를 도시한 순서도이고, 도 6은 본 발명의 CNN 기반의 프레임워크의 구조를 개략적으로 도시한 도면이다.
먼저, 도 3에 도시된 바와 같이, 본 발명의 일 실시예에 따른 CNN 기반 딥러닝을 이용한 망막병증 예측 방법은, 입력되는 망막 이미지를 전처리 및 리사이징하는 단계를 수행한다(S310).
보다 구체적으로, 도 1에 도시된 바와 같이, 입력되는 모든 이미지는 Kaggle CLI를 사용하여 이미지를 다운로드할 수 있으며, 모든 이미지의 크기는 축소되어 학습하는 데 시간을 단축할 수 있게 된다. 여기서, Scikit-Image는 이미지에 색 공간이 없기 때문에 검은색 이미지는 훈련 데이터에서 제거된다.
그리고, 도 4에 도시된 바와 같이, 모든 이미지를 회전하여 미러링하게 되고, 망막병증이 발생한 이미지를 90도, 120도, 180도 및 270도와 같이 미러링하고 회전시켜 훈련 데이터로 저장하게 된다.
그리고, 상기 전처리 및 리사이징 된 망막 이미지 분류를 위한 CNN 기반의 프레임 워크를 구축하는 단계를 수행한다(S320).
보다 구체적으로, 도 6에 도시된 바와 같이, 상기 프레임 워크는 망막 이미지 내에서 모든 특징들이 식별되도록 다중 클래스로 분류되고, 다중 클래스는 컨볼루션 계층(Convolution layer), 맥스-풀링 계층(max-Polling layer), ReLu 계층, 풀리-커넥티드 계층(fully connected layer) 및 소프트맥스 계층(softmax layer)을 포함하여 구축된다.
도 6에 도시된 바와 같이, 상기 컨볼루션 계층(Convolution layer)은 깊이가 32인 3개의 컨볼루션 계층(Convolution layer)를 사용하게 되고, 상기 맥스 풀링(Max Pooling) 계층은 크기가 (2, 2)인 3개의 컨볼루션 계층 다음에 적용된다. 어셈블 후 데이터는 128 크기의 특히 조밀한 계층 내에서 자료를 공급받고 마지막으로 두 개의 소프트 맥스(Softmax) 노드를 포함하는 출력 계층으로 전달된다. 컨볼루션 신경망(Convolutional Neural Network)은 피드포워드(feed-forward) 인공 신경망으로 개별 뉴런이 시야 내 중첩 영역으로 구성되는 곳에 연결된다.
이러한, 컨볼루션 프레임 워크는 이미지를 식별하기 위해 적층된 계층이 있는 복잡한 구조를 적용하게 된다. 구성된 프레임워크는 이미지 내에서 모든 기능이 식별되는 다중 클래스 분류에 사용된다. 15개의 계층에는 13개의 계층이 컨볼루셔널 계층이고 나머지는 완전 연결된다.
또한, 다항 요소에 대한 로지스틱 회귀 값을 확대합니다. Max-pool 계층은 정확도 향상이 필요한 3개의 컨볼루션 계층을 사용하여 구성됩니다. 도 1과 같이, 각 컨볼루셔널 계층은 ReLU 계층을 사용하여 프레임을 구성하여 훈련 공간을 늘린다. CNN은 분류 성능을 향상시키기 위해 컨볼루셔널 계층과 공간적으로 관련된 기능의 조합이다. 아키텍처 설계에는 완전히 연결된 계층이 포함된다. 이러한 CNN 프레임 워크 모델의 출력은 특정 픽셀 Pixeli에 대해 레이블 클래스 Outputi를 사용하여 분류된다. 이때, 전체 네트워크는 오류 처리 방법과 함께 역전파 알고리즘을 사용하여 훈련된다. 컨볼루션 계층을 제어하기 위한 필터와 풀리-커넥티드 계층(fully connected layer)에 대한 가중치는 오류를 기반으로 완료된다.
추출은 이미지에서 추출된 스펙트럼 특징과 함께 이미지 크기를 기반으로 하는 Pixeli를 사용하여 수행된다. 인접 픽셀에는 패치와 인접 패치에 대한 연결 창이 포함된다.
마지막으로 패치에는 도 2와 같이, 맥스-풀링 계층(max-Polling layer)은 집중할 픽셀이 포함되어 있으며, 인접한 값에 대한 출력을 통합하는 복소수 값, 특징 맵 및 필터를 포함한다.
한편, 복소수 값은 기능 및 공유 가중치에 대해 변하지 않는다. 상관 값에 기반한 연결은 방법론의 일반화와 통합된다. 활성화 함수에 대한 ReLU 형성은 Rep x Cp 크기의 특징 맵의 총량을 갖는 함수로 표시된다. 초기 컨볼루션 계층은 아래 수학식 1과 같다.
[수학식 1]
컨볼루션 계층의 특징 맵은 하기 수학식 2를 통해 계산된다.
[수학식 2]
입력 이미지는 계산되는 소스를 분류하기 위한 필터 값 및 커널 값에 대한 제로 패딩 기술을 사용하게 된다. 계산 속도와 클래스 레이블의 총량은 입력 이미지에 대한 특징 맵을 계산하는 데 필수적이다.
모든 컨볼루션 계층의 필터는 계산 시간과 저장 공간을 줄이기 위해 엄청난 양의 특징 맵에 대해 깊이와 공통 가장자리를 사용하게 된다. 따라서 매개변수는 특정 문제에 대한 안정성을 달성하는 데 사용된다.
입력 이미지의 작업 균형을 조정하는 데 사용되는 픽셀은 매개변수 스트라이드(stride)를 사용하여 계산된다. 필터는 단일 보폭(single stride) 때마다 기간에 한 픽셀씩 이동하게 된다. 공간 기반 특징 맵에서 0으로 채우는 것이 입력 이미지에 사용된다. 초기 단계에서 첫 번째 컨볼루션 계층에서 캡쳐된 기능의 수는 다음 컨볼루션 계층에 입력이 된다. 컨볼루션 함수는 수학식 1 및 2에 의해 배치된다.
출력은 최대 풀링 계층의 특징 맵이 있는 두 번째 컨볼루션 계층에서 생성된다. 컨볼루션 계층에서 위치의 특징을 사용하여 연산을 수행하더라도 전체 특징 맵의 계산 복잡도는 분류의 정확도를 떨어뜨린다. 여기서, 맥스풀링(maxpooling) 연산은 입력 특성 값을 연산 그룹으로 분리할 수 있다.
따라서 가장 높은 값은 특징 맵에서 계산된다. N x N 행렬은 수학식 3에 의해 특징 맵을 계산한다.
[수학식 3]
그 다음은 특징 맵의 강도를 제외하고 컨볼루션 계층의 초기 단계와 같다. 모든 단계의 출력 값에는 공간 값과 특징 맵이 있다. 특징 맵은 단순 작업과 같은 초기 수준의 기능으로 구성되어야 한다. 계층을 늘리는 가장 중요한 것은 최소한의 표현으로 시각적 효과를 높이는 것이다. 완전 연결 네트워크는 컨볼루션 계층에서 캡쳐된 기능을 분류하는 데 사용된다. 은닉층(hidden layer)은 최대 풀링 계층(Fully Connected Networks)의 예상 출력을 생성하는 데 사용된다. 여기서, 하기 수학식 4 및 5으로 완전 연결 네트워크의 은닉 계층을 사용하여 계산된다.
[수학식 4, 5]
컨볼루션 네트워크는 입력 이미지를 통해 작은 필터를 이동하여 사용한다. 여기서, 필터가 전체 입력 이미지에서 패턴을 인식하는 데 재사용됨을 의미한다. 이는 컨볼루션 네트워크가 비슷한 수의 변수를 가진 완전 연결 네트워크보다 훨씬 더 높은 우위를 갖게 하고, 더 빠르게 훈련시킨다.
ReLU 기반 활성화 기능은 하기 수학식 6과 함께 임계값 0을 사용하여 생성된다.
[수학식 6]
마찬가지로 인접한 계층의 노드에 대한 활성화된 출력 값은 숨겨진 계층을 사용하여 생성된다. CNN 계층의 출력은 출력 계층에서 중지된다. 식별할 클래스 레이블의 가정된 양은 노드의 총량이 포함된다. 입력 픽셀은 소프트맥스(Softmax) 활성화 기능으로 분류된다. 이때, 입력 픽셀을 분류하여 확률 출력 값과 비교하고 수학식 7을 이용하여 생성한다.
[수학식 7]
여기서 은 출력 계층에 대한 소프트맥스(Softmax) 활성화 함수의 입력이다. 출력 내에 생성된 오류는 활성화 함수로 계산된다. 훈련 단계에서 오류 값을 얻기 위해 완전히 연결된 네트워크의 가중치 함수를 사용하여 계산된다. 엔트로피 미스 함수 는 수학식 8을 이용하여 확률 함수를 찾기 위해 적용된다.
[수학식 8]
한편, 상술한 수학식들에 대한 각 기호에 대한 각 주는 아래 표 1을 참조하기로 한다.
[표 1]
이어서, 상기 생성된 CNN 기반의 프레임 워크를 적용하여 상기 전처리 및 리사이징 된 망막 이미지를 망막병증 이미지 및 그 외 이미지로 분류하여 식별하는 단계를 수행한다(S330).
보다 구체적으로, 먼저 도 4에 도시된 바와 같이, 상기 전처리 및 리사이징 된 망막 이미지의 픽셀 값을 스케일링하여 정규화 된 데이터 세트를 준비하는 단계를 수행한다(S331).
여기서, 입력된 망막 이미지에서 패치 이미지는 모든 픽셀 값에 대해 계산되고, 모든 입력 픽셀에 진리 값을 읽고 이를 대상 클래스로 구성하고, 입력 분류의 모든 픽셀에 대해 동일한 절차를 반복하게 된다.
그리고, 상기 구축된 CNN 기반의 프레임워크 모델을 초기화하는 단계를 수행한(S332).
여기서, 모든 필터 커널은 무작위 단위에 대한 편향 값과 가중치 값이 있는 풀리 커넥티드 네트워크(fully connected networks)를 사용하고, 최대 에포크(epochs) 수는 스트라이딩(striding) 및 제로 패딩 개념(zero padding concepts)으로 배치를 훈련하는 데 사용하고, 다음 과정에 대한 손실 함수의 값을 계산하게 된다.
이어, 상기 초기화된 CNN 기반의 프레임워크 모델을 이용하여 망막 이미지를 학습하는 단계를 수행한다(S333).
여기서, 매번 학습 마다 네트워크의 모든 패치에 대한 입력 값은 출력 계층 값을 계산하는 데 사용되고, 모든 출력 계층에 대해 조건부 확률과 손실 함수를 계산하고, 학습 비율과 입력에 대한 커널 값으로 모든 네트워크의 가중치 값을 업데이트하게 된다.
그 다음, 상기 학습된 망막 이미지를 테스트하는 단계를 수행한다(S334).
여기서, 모든 테스트 샘플의 패치는 컨볼루션 신경망(Convolutional neural network)에 통합되어 패치의 비중을 제거하고, 분류 생성 오류는 각 프로세스에서 계산하여 정확도 값이 임계 값에 도달할 때 프로세스를 종료하게 된다.
그리고, 매개 변수에 의한 정확도가 반영된 출력 값의 최종 출력 모델을 생성하는 단계를 수행한다(S335).
여기서, 상기 매개변수는 학습 비율, 비용 함수, 컨볼루션 계층의 필터 수, 맥스풀 값(Maxpooling value), 은닉층(hidden layer)의 총량, 패치의 크기 및 결합된 계층 형태를 포함하고, 생성된 출력 값은 테스트 및 훈련 과정 동안 분류되고, 최적화된 가중치 값을 사용하여 최종 출력 모델을 생성하게 된다.
한편, 상술한 본 발명의 CNN 기반 딥러닝을 이용한 망막병증 예측 방법과 종래의 방법들과 비교 분석하기 위해 시뮬레이션을 수행하여 하기와 같이 결과를 보여주고 있다.
도 7은 본 발명의 일 실시 예에 따른 훈련 데이터 셋의 손실을 보여주는 그래프이고, 도 8은 본 발명의 일 실시예에 따른 실험 결과의 전체 정확도를 보여주는 그래프이고, 도 9는 최소한의 분류량을 가지는 예측 영상이 구현된 망막병증 영상 데이터셋의 손실 값을 보여주는 그래프이고, 도 10은 본 발명에 따른 CNN 기반 딥러닝을 이용한 망막병증 예측 방법과 다른 방법들을 비교한 결과를 보여주는 도면이다.
도 10에 도시된 바와 같이, 본 발명의 방법을 DREAM, KNN, GD-CNN 및 SVM 과 비교한다. 여기서, Accuracy, Precision, Recall, Specificity 및 F1-score의 성능 메트릭과 비교하여 제안된 본 발명의 성능이 향상되었음을 입증하고 있다.
본 발명의 일 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다.
본 발명의 방법 및 시스템은 특정 실시예와 관련하여 설명되었지만, 그것들의 구성 요소 또는 동작의 일부 또는 전부는 범용 하드웨어 아키텍쳐를 갖는 컴퓨터 시스템을 사용하여 구현될 수 있다.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
Claims (10)
- 입력되는 망막 이미지를 전처리 및 리사이징하는 단계;
상기 전처리 및 리사이징 된 망막 이미지 분류를 위한 CNN 기반의 프레임 워크를 구축하는 단계; 및
상기 생성된 CNN 기반의 프레임 워크를 적용하여 상기 전처리 및 리사이징 된 망막 이미지를 망막병증 이미지 및 그 외 이미지로 분류하여 식별하는 단계를 포함하는 CNN 기반 딥러닝을 이용한 망막병증 예측 방법.
- 제1항에 있어서,
상기 CNN 기반의 프레임 워크를 구축하는 단계는,
상기 프레임 워크는 망막 이미지 내에서 모든 특징들이 식별되도록 다중 클래스로 분류되고, 다중 클래스는 컨볼루션 계층(Convolution layer), 맥스-풀링 계층(max-Polling layer), ReLu 계층, 풀리-커넥티드 계층(fully connected layer) 및 소프트맥스 계층(softmax layer)을 포함하여 구축되는 것을 특징으로 하는 CNN 기반 딥러닝을 이용한 망막병증 예측 방법.
- 제2항에 있어서,
상기 맥스-풀링 계층(max-Polling layer)은 인접한 값에 대한 출력을 통합하는 복소수 값, 특징 맵 및 필터를 포함하는 것을 특징으로 하는 CNN 기반 딥러닝을 이용한 망막병증 예측 방법.
- 제1항에 있어서,
상기 망막증 이미지를 분류하여 식별하는 단계는,
상기 전처리 및 리사이징 된 망막 이미지의 픽셀 값을 스케일링하여 정규화 된 데이터 세트를 준비하는 단계;
상기 구축된 CNN 기반의 프레임워크 모델을 초기화하는 단계;
상기 초기화된 CNN 기반의 프레임워크 모델을 이용하여 망막 이미지를 학습하는 단계;
상기 학습된 망막 이미지를 테스트하는 단계; 및
매개 변수에 의한 정확도가 반영된 출력 값의 최종 출력 모델을 생성하는 단계를 포함하는 것을 특징으로 하는 CNN 기반 딥러닝을 이용한 망막병증 예측 방법.
- 제4항에 있어서,
상기 데이터 세트를 준비하는 단계는,
입력된 망막 이미지에서 패치 이미지는 모든 픽셀 값에 대해 계산되고, 모든 입력 픽셀에 진리 값을 읽고 이를 대상 클래스로 구성하고, 입력 분류의 모든 픽셀에 대해 동일한 절차를 반복하는 것을 특징으로 하는 CNN 기반 딥러닝을 이용한 망막병증 예측 방법.
- 제4항에 있어서,
상기 프레임워크 모델을 초기화하는 단계는, 모든 필터 커널은 무작위 단위에 대한 편향 값과 가중치 값이 있는 풀리 커넥티드 네트워크(fully connected networks)를 사용하고, 최대 에포크(epochs) 수는 스트라이딩(striding) 및 제로 패딩 개념(zero padding concepts)으로 배치를 훈련하는 데 사용하고, 다음 과정에 대한 손실 함수의 값을 계산하는 것을 특징으로 하는 CNN 기반 딥러닝을 이용한 망막병증 예측 방법.
- 제4항에 있어서,
상기 망막 이미지를 학습하는 단계는,
매번 학습 마다 네트워크의 모든 패치에 대한 입력 값은 출력 계층 값을 계산하는 데 사용되고, 모든 출력 계층에 대해 조건부 확률과 손실 함수를 계산하고, 학습 비율과 입력에 대한 커널 값으로 모든 네트워크의 가중치 값을 업데이트하는 하는 것을 특징으로 하는 CNN 기반 딥러닝을 이용한 망막병증 예측 방법.
- 제4항에 있어서,
상기 학습된 망막 이미지를 테스트하는 단계는,
모든 테스트 샘플의 패치는 컨볼루션 신경망(convolutional neural network)에 통합되어 패치의 비중을 제거하고, 분류 생성 오류는 각 프로세스에서 계산하여 정확도 값이 임계 값에 도달할 때 프로세스를 종료하는 것을 특징으로 하는 CNN 기반 딥러닝을 이용한 망막병증 예측 방법.
- 제4항에 있어서,
상기 최종 출력 모델을 생성하는 단계는,
상기 매개변수는 학습 비율, 비용 함수, 컨볼루션 계층의 필터 수, 맥스풀 값(Maxpooling value), 은닉층(hidden layer)의 총량, 패치의 크기 및 결합된 계층 형태를 포함하고, 생성된 출력 값은 테스트 및 훈련 과정 동안 분류되고, 최적화된 가중치 값을 사용하여 최종 출력 모델을 생성하는 것을 특징으로 하는 CNN 기반 딥러닝을 이용한 망막병증 예측 방법.
- 제 1 항 내지 제 9 항 중 어느 한 항에 기재된 방법을 컴퓨터 상에서 수행하기 위한 프로그램을 기록한 컴퓨터 판독 가능한 기록 매체.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210140267A KR20230057490A (ko) | 2021-10-20 | 2021-10-20 | Cnn 기반 딥러닝을 이용한 망막병증 예측 방법 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210140267A KR20230057490A (ko) | 2021-10-20 | 2021-10-20 | Cnn 기반 딥러닝을 이용한 망막병증 예측 방법 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20230057490A true KR20230057490A (ko) | 2023-05-02 |
Family
ID=86387658
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210140267A KR20230057490A (ko) | 2021-10-20 | 2021-10-20 | Cnn 기반 딥러닝을 이용한 망막병증 예측 방법 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20230057490A (ko) |
-
2021
- 2021-10-20 KR KR1020210140267A patent/KR20230057490A/ko unknown
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Lv et al. | Attention guided U-Net with atrous convolution for accurate retinal vessels segmentation | |
EP3674968B1 (en) | Image classification method, server and computer readable storage medium | |
Mo et al. | Multi-level deep supervised networks for retinal vessel segmentation | |
Sarki et al. | Convolutional neural network for multi-class classification of diabetic eye disease | |
Lemhadri et al. | Lassonet: Neural networks with feature sparsity | |
CN112132817B (zh) | 一种混合注意力机制的眼底图像视网膜血管分割方法 | |
US9779492B1 (en) | Retinal image quality assessment, error identification and automatic quality correction | |
Lin et al. | Automatic retinal vessel segmentation via deeply supervised and smoothly regularized network | |
CN109345538A (zh) | 一种基于卷积神经网络的视网膜血管分割方法 | |
Almoosawi et al. | ResNet-34/DR: a residual convolutional neural network for the diagnosis of diabetic retinopathy | |
Popescu et al. | Retinal blood vessel segmentation using pix2pix gan | |
Thomas et al. | Intelligent prediction approach for diabetic retinopathy using deep learning based convolutional neural networks algorithm by means of retina photographs | |
Guo et al. | BSCN: bidirectional symmetric cascade network for retinal vessel segmentation | |
Chudzik et al. | DISCERN: Generative framework for vessel segmentation using convolutional neural network and visual codebook | |
Patel | Diabetic retinopathy detection and classification using pre-trained convolutional neural networks | |
Fan et al. | Automated blood vessel segmentation based on de-noising auto-encoder and neural network | |
Kumaraswamy | Key challenges in the diagnosis of cancer using artificial intelligence methods | |
Sharma et al. | Harnessing the Strength of ResNet50 to Improve the Ocular Disease Recognition | |
Shamrat et al. | An advanced deep neural network for fundus image analysis and enhancing diabetic retinopathy detection | |
Sundar et al. | Classification of Diabetic Retinopathy disease levels by extracting topological features using Graph Neural Networks | |
Tanvir et al. | Clinical Insights Through Xception: A Multiclass Classification of Ocular Pathologies | |
KR20230057490A (ko) | Cnn 기반 딥러닝을 이용한 망막병증 예측 방법 | |
Baba et al. | Detection of diabetic retinopathy with retinal images using CNN | |
Datta et al. | Glaucoma Disease Detection Using Deep Learning | |
Singh et al. | A Deep Learning Approach to Analyze Diabetic Retinopathy Lesions using Scant Data |