KR20230057490A - Cnn 기반 딥러닝을 이용한 망막병증 예측 방법 - Google Patents

Cnn 기반 딥러닝을 이용한 망막병증 예측 방법 Download PDF

Info

Publication number
KR20230057490A
KR20230057490A KR1020210140267A KR20210140267A KR20230057490A KR 20230057490 A KR20230057490 A KR 20230057490A KR 1020210140267 A KR1020210140267 A KR 1020210140267A KR 20210140267 A KR20210140267 A KR 20210140267A KR 20230057490 A KR20230057490 A KR 20230057490A
Authority
KR
South Korea
Prior art keywords
cnn
retinopathy
values
layer
deep learning
Prior art date
Application number
KR1020210140267A
Other languages
English (en)
Inventor
노승민
아룬 샘폴 토마스 지.
헤롤드 로빈슨 와이.
골든 줄리 이.
산무가나탄 비말
Original Assignee
중앙대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 중앙대학교 산학협력단 filed Critical 중앙대학교 산학협력단
Priority to KR1020210140267A priority Critical patent/KR20230057490A/ko
Publication of KR20230057490A publication Critical patent/KR20230057490A/ko

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/12Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Databases & Information Systems (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Evolutionary Computation (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Ophthalmology & Optometry (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Artificial Intelligence (AREA)
  • Veterinary Medicine (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Quality & Reliability (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)

Abstract

본 발명의 일 실시예에 따른 CNN 기반 딥러닝을 이용한 망막병증 예측 방법은, 입력되는 망막 이미지를 전처리 및 리사이징하는 단계; 상기 전처리 및 리사이징 된 망막 이미지 분류를 위한 CNN 기반의 프레임 워크를 구축하는 단계; 및 상기 생성된 CNN 기반의 프레임 워크를 적용하여 상기 전처리 및 리사이징 된 망막 이미지를 망막병증 이미지 및 그 외 이미지로 분류하여 식별하는 단계를 포함하는 점에 그 특징이 있다.

Description

CNN 기반 딥러닝을 이용한 망막병증 예측 방법{Prediction method for Diabetic Retinopathy using of Deep Learning Based Convolutional Neural Networks}
본 발명은 CNN 기반 딥러닝을 이용한 망막병증 예측 방법에 관한 것으로, 특히 CNN 기반의 학습을 통해 망막병증 특징의 분류 정확도를 향상시켜 당뇨성 망막병증 예측할 수 있는 CNN 기반 딥러닝을 이용한 망막병증 예측 방법에 관한 것이다.
당뇨병성 망막병증은 다원성 질환으로 인해 조직층에 손상이 발생하면 당뇨병성 망막증을 동반한 당뇨병성 질환 중 하나이다. 이러한, 망막병증은 망막 혈관에 변화를 일으켜 출혈, 누출액 및 시력 장애를 유발하는 인간의 안과 질환으로, 망막병증의 증상은 흐린 시력, 색 지각의 변화, 붉은 반점 및 눈의 통증이며 육안으로 감지할 수 없다.
최근, 환자들 중 특히 노인들은 당뇨병성 망막병증이 발병할 가능성이 있는 다유전성 질환을 가지고 있다. 이러한 다유전성 질환에 걸린 환자들은 일단 진단되면 임상적으로 가시적인 당뇨병성 망막병증(DR)이 조기에 나타나지 않지 않지만 유도된 양의 망막 혈류, 증가된 백혈구 헌신, 금고막의 응고에 따라 망막에 구조적 변화가 인지된다.
따라서, 종래에는 망막 이미지에서 당뇨병성 망막병증(DR) 감지를 구현하는 데 여러 가지 기술이 사용되었다. 망막 이미지를 사용한 DR 감지는 기계 학습(ML) 프레임워크 분류를 사용했는데, 이는 DR 식별 수준을 정의하는 데 부족했다.
또한, 안저 영상 기반 DR 검출을 다룬 시공간 이미지이지만 실행에 더 많은 시간이 소요되고, 정확도가 떨어지는 문제점이 발생된다.
앞서 언급한 문제점을 해결하기 위하여, CNN 기반으로 영상 데이터에서 특징 추출, 컨볼루션 신경망을 시각화, 프레임 워크로 필터링의 학습을 통해 특징을 분류하여 당뇨성 망막병증의 정확도가 향상된 예측을 할 수 있는 CNN 기반 딥러닝을 이용한 망막병증 예측 방법을 제공한다.
본 발명의 일 실시예에 따른 CNN 기반 딥러닝을 이용한 망막병증 예측 방법은, 입력되는 망막 이미지를 전처리 및 리사이징하는 단계; 상기 전처리 및 리사이징 된 망막 이미지 분류를 위한 CNN 기반의 프레임 워크를 구축하는 단계; 및 상기 생성된 CNN 기반의 프레임 워크를 적용하여 상기 전처리 및 리사이징 된 망막 이미지를 망막병증 이미지 및 그 외 이미지로 분류하여 식별하는 단계를 포함하는 점에 그 특징이 있다.
여기서, 특히 상기 CNN 기반의 프레임 워크를 구축하는 단계는, 상기 프레임 워크는 망막 이미지 내에서 모든 특징들이 식별되도록 다중 클래스로 분류되고, 다중 클래스는 컨볼루션 계층(Convolution layer), 맥스-풀링 계층(max-Polling layer), ReLu 계층, 풀리-커넥티드 계층(fully connected layer) 및 소프트맥스 계층(softmax layer)을 포함하여 구축되는 점에 그 특징이 있다.
여기서, 특히 상기 맥스-풀링 계층(max-Polling layer)은 인접한 값에 대한 출력을 통합하는 복소수 값, 특징 맵 및 필터를 포함하는 점에 그 특징이 있다.
여기서, 특히 상기 망막증 이미지를 분류하여 식별하는 단계는, 상기 전처리 및 리사이징 된 망막 이미지의 픽셀 값을 스케일링하여 정규화 된 데이터 세트를 준비하는 단계; 상기 구축된 CNN 기반의 프레임워크 모델을 초기화하는 단계; 상기 초기화된 CNN 기반의 프레임워크 모델을 이용하여 망막 이미지를 학습하는 단계; 상기 학습된 망막 이미지를 테스트하는 단계; 및 매개 변수에 의한 정확도가 반영된 출력 값의 최종 출력 모델을 생성하는 단계를 포함하는 점에 그 특징이 있다.
여기서, 특히 상기 데이터 세트를 준비하는 단계는, 입력된 망막 이미지에서 패치 이미지는 모든 픽셀 값에 대해 계산되고, 모든 입력 픽셀에 진리 값을 읽고 이를 대상 클래스로 구성하고, 입력 분류의 모든 픽셀에 대해 동일한 절차를 반복하는 점에 그 특징이 있다.
여기서, 특히 상기 프레임워크 모델을 초기화하는 단계는, 모든 필터 커널은 무작위 단위에 대한 편향 값과 가중치 값이 있는 풀리 커넥티드 네트워크(fully connected networks)를 사용하고, 최대 에포크(epochs) 수는 스트라이딩(striding) 및 제로 패딩 개념(zero padding concepts)으로 배치를 훈련하는 데 사용하고, 다음 과정에 대한 손실 함수의 값을 계산하는 점에 그 특징이 있다.
여기서, 특히 상기 망막 이미지를 학습하는 단계는, 매번 학습 마다 네트워크의 모든 패치에 대한 입력 값은 출력 계층 값을 계산하는 데 사용되고, 모든 출력 계층에 대해 조건부 확률과 손실 함수를 계산하고, 학습 비율과 입력에 대한 커널 값으로 모든 네트워크의 가중치 값을 업데이트하는 하는 점에 그 특징이 있다.
여기서, 특히 상기 학습된 망막 이미지를 테스트하는 단계는, 모든 테스트 샘플의 패치는 컨볼루션 신경망(Convolutional neural network)에 통합되어 패치의 비중을 제거하고, 분류 생성 오류는 각 프로세스에서 계산하여 정확도 값이 임계 값에 도달할 때 프로세스를 종료하는 점에 그 특징이 있다.
여기서, 특히 상기 최종 출력 모델을 생성하는 단계는, 상기 매개변수는 학습 비율, 비용 함수, 컨볼루션 계층의 필터 수, 맥스풀 값(Maxpooling value), 은닉층(hidden layer)의 총량, 패치의 크기 및 결합된 계층 형태를 포함하고, 생성된 출력 값은 테스트 및 훈련 과정 동안 분류되고, 최적화된 가중치 값을 사용하여 최종 출력 모델을 생성하는 점에 그 특징이 있다.
본 발명에서 개시하고 있는 일 실시예에 따르면, CNN 기반의 학습을 통해 망막병증 특징의 분류 정확도를 향상시켜 당뇨성 망막병증 안저 질환의 발생을 예측할 수 있는 효과가 있다.
도 1은 본 발명의 일 실시예에 따른 CNN 아키텍쳐를 개략적으로 도시한 도면이다.
도 2는 본 발명의 맥스 풀링 과정을 개략적으로 도시한 도면이다.
도 3은 본 발명의 일 실시 예에 따른 CNN 기반 딥러닝을 이용한 망막병증 예측 방법에 대한 순서도이다.
도 4는 본 발명의 전처리 과정의 안구의 망막병증 이미지를 보여주는 도면이다.
도 5는 상기 도 3의 망막병증을 분류하는 과정에 대한 구체적인 단계를 도시한 순서도이다.
도 6은 본 발명의 CNN 기반의 프레임워크의 구조를 개략적으로 도시한 도면이다.
도 7은 본 발명의 일 실시 예에 따른 훈련 데이터 셋의 손실을 보여주는 그래프이다.
도 8은 본 발명의 일 실시예에 따른 실험 결과의 전체 정확도를 보여주는 그래프이다.
도 9는 최소한의 분류향을 가지는 예측 영상이 구현된 망막병증 영상 데이터셋의 손실 값을 보여주는 그래프이다.
도 10은 본 발명에 따른 CNN 기반 딥러닝을 이용한 망막병증 예측 방법과 다른 방법들을 비교한 결과를 보여주는 도면이다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면을 참조하여 상세하게 설명하도록 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다.
제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는이라는 용어는 복수의 관련된 기재 항목들의 조합 또는 복수의 관련된 기재 항목들 중의 어느 항목을 포함한다.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
명세서 및 청구범위 전체에서, 어떤 부분이 어떤 구성 요소를 포함한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있다는 것을 의미한다.
도 1은 본 발명의 일 실시예에 따른 CNN 아키텍쳐를 개략적으로 도시한 도면이고, 도 2는 본 발명의 맥스 풀링 과정을 개략적으로 도시한 도면이고, 도 3은 본 발명의 일 실시 예에 따른 CNN 기반 딥러닝을 이용한 망막병증 예측 방법에 대한 순서도이고, 도 4는 본 발명의 전처리 과정의 안구의 망막병증 이미지를 보여주는 도면이고, 도 5는 상기 도 3의 망막병증을 분류하는 과정에 대한 구체적인 단계를 도시한 순서도이고, 도 6은 본 발명의 CNN 기반의 프레임워크의 구조를 개략적으로 도시한 도면이다.
먼저, 도 3에 도시된 바와 같이, 본 발명의 일 실시예에 따른 CNN 기반 딥러닝을 이용한 망막병증 예측 방법은, 입력되는 망막 이미지를 전처리 및 리사이징하는 단계를 수행한다(S310).
보다 구체적으로, 도 1에 도시된 바와 같이, 입력되는 모든 이미지는 Kaggle CLI를 사용하여 이미지를 다운로드할 수 있으며, 모든 이미지의 크기는 축소되어 학습하는 데 시간을 단축할 수 있게 된다. 여기서, Scikit-Image는 이미지에 색 공간이 없기 때문에 검은색 이미지는 훈련 데이터에서 제거된다.
그리고, 도 4에 도시된 바와 같이, 모든 이미지를 회전하여 미러링하게 되고, 망막병증이 발생한 이미지를 90도, 120도, 180도 및 270도와 같이 미러링하고 회전시켜 훈련 데이터로 저장하게 된다.
그리고, 상기 전처리 및 리사이징 된 망막 이미지 분류를 위한 CNN 기반의 프레임 워크를 구축하는 단계를 수행한다(S320).
보다 구체적으로, 도 6에 도시된 바와 같이, 상기 프레임 워크는 망막 이미지 내에서 모든 특징들이 식별되도록 다중 클래스로 분류되고, 다중 클래스는 컨볼루션 계층(Convolution layer), 맥스-풀링 계층(max-Polling layer), ReLu 계층, 풀리-커넥티드 계층(fully connected layer) 및 소프트맥스 계층(softmax layer)을 포함하여 구축된다.
도 6에 도시된 바와 같이, 상기 컨볼루션 계층(Convolution layer)은 깊이가 32인 3개의 컨볼루션 계층(Convolution layer)를 사용하게 되고, 상기 맥스 풀링(Max Pooling) 계층은 크기가 (2, 2)인 3개의 컨볼루션 계층 다음에 적용된다. 어셈블 후 데이터는 128 크기의 특히 조밀한 계층 내에서 자료를 공급받고 마지막으로 두 개의 소프트 맥스(Softmax) 노드를 포함하는 출력 계층으로 전달된다. 컨볼루션 신경망(Convolutional Neural Network)은 피드포워드(feed-forward) 인공 신경망으로 개별 뉴런이 시야 내 중첩 영역으로 구성되는 곳에 연결된다.
이러한, 컨볼루션 프레임 워크는 이미지를 식별하기 위해 적층된 계층이 있는 복잡한 구조를 적용하게 된다. 구성된 프레임워크는 이미지 내에서 모든 기능이 식별되는 다중 클래스 분류에 사용된다. 15개의 계층에는 13개의 계층이 컨볼루셔널 계층이고 나머지는 완전 연결된다.
또한, 다항 요소에 대한 로지스틱 회귀 값을 확대합니다. Max-pool 계층은 정확도 향상이 필요한 3개의 컨볼루션 계층을 사용하여 구성됩니다. 도 1과 같이, 각 컨볼루셔널 계층은 ReLU 계층을 사용하여 프레임을 구성하여 훈련 공간을 늘린다. CNN은 분류 성능을 향상시키기 위해 컨볼루셔널 계층과 공간적으로 관련된 기능의 조합이다. 아키텍처 설계에는 완전히 연결된 계층이 포함된다. 이러한 CNN 프레임 워크 모델의 출력은 특정 픽셀 Pixeli에 대해 레이블 클래스 Outputi를 사용하여 분류된다. 이때, 전체 네트워크는 오류 처리 방법과 함께 역전파 알고리즘을 사용하여 훈련된다. 컨볼루션 계층을 제어하기 위한 필터와 풀리-커넥티드 계층(fully connected layer)에 대한 가중치는 오류를 기반으로 완료된다.
추출은 이미지에서 추출된 스펙트럼 특징과 함께 이미지 크기를 기반으로 하는 Pixeli를 사용하여 수행된다. 인접 픽셀에는 패치와 인접 패치에 대한 연결 창이 포함된다.
마지막으로 패치에는 도 2와 같이, 맥스-풀링 계층(max-Polling layer)은 집중할 픽셀이 포함되어 있으며, 인접한 값에 대한 출력을 통합하는 복소수 값, 특징 맵 및 필터를 포함한다.
한편, 복소수 값은 기능 및 공유 가중치에 대해 변하지 않는다. 상관 값에 기반한 연결은 방법론의 일반화와 통합된다. 활성화 함수에 대한 ReLU 형성은 Rep x Cp 크기의 특징 맵의 총량을 갖는 함수로 표시된다. 초기 컨볼루션 계층은 아래 수학식 1과 같다.
[수학식 1]
Figure pat00001
컨볼루션 계층의 특징 맵은 하기 수학식 2를 통해 계산된다.
[수학식 2]
Figure pat00002
입력 이미지는 계산되는 소스를 분류하기 위한 필터 값 및 커널 값에 대한 제로 패딩 기술을 사용하게 된다. 계산 속도와 클래스 레이블의 총량은 입력 이미지에 대한 특징 맵을 계산하는 데 필수적이다.
모든 컨볼루션 계층의 필터는 계산 시간과 저장 공간을 줄이기 위해 엄청난 양의 특징 맵에 대해 깊이와 공통 가장자리를 사용하게 된다. 따라서 매개변수는 특정 문제에 대한 안정성을 달성하는 데 사용된다.
입력 이미지의 작업 균형을 조정하는 데 사용되는 픽셀은 매개변수 스트라이드(stride)를 사용하여 계산된다. 필터는 단일 보폭(single stride) 때마다 기간에 한 픽셀씩 이동하게 된다. 공간 기반 특징 맵에서 0으로 채우는 것이 입력 이미지에 사용된다. 초기 단계에서 첫 번째 컨볼루션 계층에서 캡쳐된 기능의 수는 다음 컨볼루션 계층에 입력이 된다. 컨볼루션 함수는 수학식 1 및 2에 의해 배치된다.
출력은 최대 풀링 계층의 특징 맵이 있는 두 번째 컨볼루션 계층에서 생성된다. 컨볼루션 계층에서 위치의 특징을 사용하여 연산을 수행하더라도 전체 특징 맵의 계산 복잡도는 분류의 정확도를 떨어뜨린다. 여기서, 맥스풀링(maxpooling) 연산은 입력 특성 값을 연산 그룹으로 분리할 수 있다.
따라서 가장 높은 값은 특징 맵에서 계산된다. N x N 행렬은 수학식 3에 의해 특징 맵을 계산한다.
[수학식 3]
Figure pat00003
그 다음은 특징 맵의 강도를 제외하고 컨볼루션 계층의 초기 단계와 같다. 모든 단계의 출력 값에는 공간 값과 특징 맵이 있다. 특징 맵은 단순 작업과 같은 초기 수준의 기능으로 구성되어야 한다. 계층을 늘리는 가장 중요한 것은 최소한의 표현으로 시각적 효과를 높이는 것이다. 완전 연결 네트워크는 컨볼루션 계층에서 캡쳐된 기능을 분류하는 데 사용된다. 은닉층(hidden layer)은 최대 풀링 계층(Fully Connected Networks)의 예상 출력을 생성하는 데 사용된다. 여기서, 하기 수학식 4 및 5으로 완전 연결 네트워크의 은닉 계층을 사용하여 계산된다.
[수학식 4, 5]
Figure pat00004
컨볼루션 네트워크는 입력 이미지를 통해 작은 필터를 이동하여 사용한다. 여기서, 필터가 전체 입력 이미지에서 패턴을 인식하는 데 재사용됨을 의미한다. 이는 컨볼루션 네트워크가 비슷한 수의 변수를 가진 완전 연결 네트워크보다 훨씬 더 높은 우위를 갖게 하고, 더 빠르게 훈련시킨다.
ReLU 기반 활성화 기능은 하기 수학식 6과 함께 임계값 0을 사용하여 생성된다.
[수학식 6]
Figure pat00005
마찬가지로 인접한 계층의 노드에 대한 활성화된 출력 값은 숨겨진 계층을 사용하여 생성된다. CNN 계층의 출력은 출력 계층에서 중지된다. 식별할 클래스 레이블의 가정된 양은 노드의 총량이 포함된다. 입력 픽셀은 소프트맥스(Softmax) 활성화 기능으로 분류된다. 이때, 입력 픽셀을 분류하여 확률 출력 값과 비교하고 수학식 7을 이용하여 생성한다.
[수학식 7]
Figure pat00006
여기서
Figure pat00007
은 출력 계층에 대한 소프트맥스(Softmax) 활성화 함수의 입력이다. 출력 내에 생성된 오류는 활성화 함수로 계산된다. 훈련 단계에서 오류 값을 얻기 위해 완전히 연결된 네트워크의 가중치 함수를 사용하여 계산된다. 엔트로피 미스 함수
Figure pat00008
는 수학식 8을 이용하여 확률 함수를 찾기 위해 적용된다.
[수학식 8]
Figure pat00009
한편, 상술한 수학식들에 대한 각 기호에 대한 각 주는 아래 표 1을 참조하기로 한다.
[표 1]
Figure pat00010
이어서, 상기 생성된 CNN 기반의 프레임 워크를 적용하여 상기 전처리 및 리사이징 된 망막 이미지를 망막병증 이미지 및 그 외 이미지로 분류하여 식별하는 단계를 수행한다(S330).
보다 구체적으로, 먼저 도 4에 도시된 바와 같이, 상기 전처리 및 리사이징 된 망막 이미지의 픽셀 값을 스케일링하여 정규화 된 데이터 세트를 준비하는 단계를 수행한다(S331).
여기서, 입력된 망막 이미지에서 패치 이미지는 모든 픽셀 값에 대해 계산되고, 모든 입력 픽셀에 진리 값을 읽고 이를 대상 클래스로 구성하고, 입력 분류의 모든 픽셀에 대해 동일한 절차를 반복하게 된다.
그리고, 상기 구축된 CNN 기반의 프레임워크 모델을 초기화하는 단계를 수행한(S332).
여기서, 모든 필터 커널은 무작위 단위에 대한 편향 값과 가중치 값이 있는 풀리 커넥티드 네트워크(fully connected networks)를 사용하고, 최대 에포크(epochs) 수는 스트라이딩(striding) 및 제로 패딩 개념(zero padding concepts)으로 배치를 훈련하는 데 사용하고, 다음 과정에 대한 손실 함수의 값을 계산하게 된다.
이어, 상기 초기화된 CNN 기반의 프레임워크 모델을 이용하여 망막 이미지를 학습하는 단계를 수행한다(S333).
여기서, 매번 학습 마다 네트워크의 모든 패치에 대한 입력 값은 출력 계층 값을 계산하는 데 사용되고, 모든 출력 계층에 대해 조건부 확률과 손실 함수를 계산하고, 학습 비율과 입력에 대한 커널 값으로 모든 네트워크의 가중치 값을 업데이트하게 된다.
그 다음, 상기 학습된 망막 이미지를 테스트하는 단계를 수행한다(S334).
여기서, 모든 테스트 샘플의 패치는 컨볼루션 신경망(Convolutional neural network)에 통합되어 패치의 비중을 제거하고, 분류 생성 오류는 각 프로세스에서 계산하여 정확도 값이 임계 값에 도달할 때 프로세스를 종료하게 된다.
그리고, 매개 변수에 의한 정확도가 반영된 출력 값의 최종 출력 모델을 생성하는 단계를 수행한다(S335).
여기서, 상기 매개변수는 학습 비율, 비용 함수, 컨볼루션 계층의 필터 수, 맥스풀 값(Maxpooling value), 은닉층(hidden layer)의 총량, 패치의 크기 및 결합된 계층 형태를 포함하고, 생성된 출력 값은 테스트 및 훈련 과정 동안 분류되고, 최적화된 가중치 값을 사용하여 최종 출력 모델을 생성하게 된다.
한편, 상술한 본 발명의 CNN 기반 딥러닝을 이용한 망막병증 예측 방법과 종래의 방법들과 비교 분석하기 위해 시뮬레이션을 수행하여 하기와 같이 결과를 보여주고 있다.
도 7은 본 발명의 일 실시 예에 따른 훈련 데이터 셋의 손실을 보여주는 그래프이고, 도 8은 본 발명의 일 실시예에 따른 실험 결과의 전체 정확도를 보여주는 그래프이고, 도 9는 최소한의 분류량을 가지는 예측 영상이 구현된 망막병증 영상 데이터셋의 손실 값을 보여주는 그래프이고, 도 10은 본 발명에 따른 CNN 기반 딥러닝을 이용한 망막병증 예측 방법과 다른 방법들을 비교한 결과를 보여주는 도면이다.
도 10에 도시된 바와 같이, 본 발명의 방법을 DREAM, KNN, GD-CNN 및 SVM 과 비교한다. 여기서, Accuracy, Precision, Recall, Specificity 및 F1-score의 성능 메트릭과 비교하여 제안된 본 발명의 성능이 향상되었음을 입증하고 있다.
본 발명의 일 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다.
본 발명의 방법 및 시스템은 특정 실시예와 관련하여 설명되었지만, 그것들의 구성 요소 또는 동작의 일부 또는 전부는 범용 하드웨어 아키텍쳐를 갖는 컴퓨터 시스템을 사용하여 구현될 수 있다.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.

Claims (10)

  1. 입력되는 망막 이미지를 전처리 및 리사이징하는 단계;
    상기 전처리 및 리사이징 된 망막 이미지 분류를 위한 CNN 기반의 프레임 워크를 구축하는 단계; 및
    상기 생성된 CNN 기반의 프레임 워크를 적용하여 상기 전처리 및 리사이징 된 망막 이미지를 망막병증 이미지 및 그 외 이미지로 분류하여 식별하는 단계를 포함하는 CNN 기반 딥러닝을 이용한 망막병증 예측 방법.
  2. 제1항에 있어서,
    상기 CNN 기반의 프레임 워크를 구축하는 단계는,
    상기 프레임 워크는 망막 이미지 내에서 모든 특징들이 식별되도록 다중 클래스로 분류되고, 다중 클래스는 컨볼루션 계층(Convolution layer), 맥스-풀링 계층(max-Polling layer), ReLu 계층, 풀리-커넥티드 계층(fully connected layer) 및 소프트맥스 계층(softmax layer)을 포함하여 구축되는 것을 특징으로 하는 CNN 기반 딥러닝을 이용한 망막병증 예측 방법.
  3. 제2항에 있어서,
    상기 맥스-풀링 계층(max-Polling layer)은 인접한 값에 대한 출력을 통합하는 복소수 값, 특징 맵 및 필터를 포함하는 것을 특징으로 하는 CNN 기반 딥러닝을 이용한 망막병증 예측 방법.
  4. 제1항에 있어서,
    상기 망막증 이미지를 분류하여 식별하는 단계는,
    상기 전처리 및 리사이징 된 망막 이미지의 픽셀 값을 스케일링하여 정규화 된 데이터 세트를 준비하는 단계;
    상기 구축된 CNN 기반의 프레임워크 모델을 초기화하는 단계;
    상기 초기화된 CNN 기반의 프레임워크 모델을 이용하여 망막 이미지를 학습하는 단계;
    상기 학습된 망막 이미지를 테스트하는 단계; 및
    매개 변수에 의한 정확도가 반영된 출력 값의 최종 출력 모델을 생성하는 단계를 포함하는 것을 특징으로 하는 CNN 기반 딥러닝을 이용한 망막병증 예측 방법.
  5. 제4항에 있어서,
    상기 데이터 세트를 준비하는 단계는,
    입력된 망막 이미지에서 패치 이미지는 모든 픽셀 값에 대해 계산되고, 모든 입력 픽셀에 진리 값을 읽고 이를 대상 클래스로 구성하고, 입력 분류의 모든 픽셀에 대해 동일한 절차를 반복하는 것을 특징으로 하는 CNN 기반 딥러닝을 이용한 망막병증 예측 방법.
  6. 제4항에 있어서,
    상기 프레임워크 모델을 초기화하는 단계는, 모든 필터 커널은 무작위 단위에 대한 편향 값과 가중치 값이 있는 풀리 커넥티드 네트워크(fully connected networks)를 사용하고, 최대 에포크(epochs) 수는 스트라이딩(striding) 및 제로 패딩 개념(zero padding concepts)으로 배치를 훈련하는 데 사용하고, 다음 과정에 대한 손실 함수의 값을 계산하는 것을 특징으로 하는 CNN 기반 딥러닝을 이용한 망막병증 예측 방법.
  7. 제4항에 있어서,
    상기 망막 이미지를 학습하는 단계는,
    매번 학습 마다 네트워크의 모든 패치에 대한 입력 값은 출력 계층 값을 계산하는 데 사용되고, 모든 출력 계층에 대해 조건부 확률과 손실 함수를 계산하고, 학습 비율과 입력에 대한 커널 값으로 모든 네트워크의 가중치 값을 업데이트하는 하는 것을 특징으로 하는 CNN 기반 딥러닝을 이용한 망막병증 예측 방법.
  8. 제4항에 있어서,
    상기 학습된 망막 이미지를 테스트하는 단계는,
    모든 테스트 샘플의 패치는 컨볼루션 신경망(convolutional neural network)에 통합되어 패치의 비중을 제거하고, 분류 생성 오류는 각 프로세스에서 계산하여 정확도 값이 임계 값에 도달할 때 프로세스를 종료하는 것을 특징으로 하는 CNN 기반 딥러닝을 이용한 망막병증 예측 방법.
  9. 제4항에 있어서,
    상기 최종 출력 모델을 생성하는 단계는,
    상기 매개변수는 학습 비율, 비용 함수, 컨볼루션 계층의 필터 수, 맥스풀 값(Maxpooling value), 은닉층(hidden layer)의 총량, 패치의 크기 및 결합된 계층 형태를 포함하고, 생성된 출력 값은 테스트 및 훈련 과정 동안 분류되고, 최적화된 가중치 값을 사용하여 최종 출력 모델을 생성하는 것을 특징으로 하는 CNN 기반 딥러닝을 이용한 망막병증 예측 방법.
  10. 제 1 항 내지 제 9 항 중 어느 한 항에 기재된 방법을 컴퓨터 상에서 수행하기 위한 프로그램을 기록한 컴퓨터 판독 가능한 기록 매체.
KR1020210140267A 2021-10-20 2021-10-20 Cnn 기반 딥러닝을 이용한 망막병증 예측 방법 KR20230057490A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210140267A KR20230057490A (ko) 2021-10-20 2021-10-20 Cnn 기반 딥러닝을 이용한 망막병증 예측 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210140267A KR20230057490A (ko) 2021-10-20 2021-10-20 Cnn 기반 딥러닝을 이용한 망막병증 예측 방법

Publications (1)

Publication Number Publication Date
KR20230057490A true KR20230057490A (ko) 2023-05-02

Family

ID=86387658

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210140267A KR20230057490A (ko) 2021-10-20 2021-10-20 Cnn 기반 딥러닝을 이용한 망막병증 예측 방법

Country Status (1)

Country Link
KR (1) KR20230057490A (ko)

Similar Documents

Publication Publication Date Title
Lv et al. Attention guided U-Net with atrous convolution for accurate retinal vessels segmentation
EP3674968B1 (en) Image classification method, server and computer readable storage medium
Mo et al. Multi-level deep supervised networks for retinal vessel segmentation
Sarki et al. Convolutional neural network for multi-class classification of diabetic eye disease
Lemhadri et al. Lassonet: Neural networks with feature sparsity
CN112132817B (zh) 一种混合注意力机制的眼底图像视网膜血管分割方法
US9779492B1 (en) Retinal image quality assessment, error identification and automatic quality correction
Lin et al. Automatic retinal vessel segmentation via deeply supervised and smoothly regularized network
CN109345538A (zh) 一种基于卷积神经网络的视网膜血管分割方法
Almoosawi et al. ResNet-34/DR: a residual convolutional neural network for the diagnosis of diabetic retinopathy
Popescu et al. Retinal blood vessel segmentation using pix2pix gan
Thomas et al. Intelligent prediction approach for diabetic retinopathy using deep learning based convolutional neural networks algorithm by means of retina photographs
Guo et al. BSCN: bidirectional symmetric cascade network for retinal vessel segmentation
Chudzik et al. DISCERN: Generative framework for vessel segmentation using convolutional neural network and visual codebook
Patel Diabetic retinopathy detection and classification using pre-trained convolutional neural networks
Fan et al. Automated blood vessel segmentation based on de-noising auto-encoder and neural network
Kumaraswamy Key challenges in the diagnosis of cancer using artificial intelligence methods
Sharma et al. Harnessing the Strength of ResNet50 to Improve the Ocular Disease Recognition
Shamrat et al. An advanced deep neural network for fundus image analysis and enhancing diabetic retinopathy detection
Sundar et al. Classification of Diabetic Retinopathy disease levels by extracting topological features using Graph Neural Networks
Tanvir et al. Clinical Insights Through Xception: A Multiclass Classification of Ocular Pathologies
KR20230057490A (ko) Cnn 기반 딥러닝을 이용한 망막병증 예측 방법
Baba et al. Detection of diabetic retinopathy with retinal images using CNN
Datta et al. Glaucoma Disease Detection Using Deep Learning
Singh et al. A Deep Learning Approach to Analyze Diabetic Retinopathy Lesions using Scant Data