KR20210017429A - Method for optic disc classification - Google Patents

Method for optic disc classification Download PDF

Info

Publication number
KR20210017429A
KR20210017429A KR1020190096655A KR20190096655A KR20210017429A KR 20210017429 A KR20210017429 A KR 20210017429A KR 1020190096655 A KR1020190096655 A KR 1020190096655A KR 20190096655 A KR20190096655 A KR 20190096655A KR 20210017429 A KR20210017429 A KR 20210017429A
Authority
KR
South Korea
Prior art keywords
optic nerve
image
features
mobile device
classification
Prior art date
Application number
KR1020190096655A
Other languages
Korean (ko)
Other versions
KR102282334B1 (en
Inventor
전광길
Original Assignee
인천대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 인천대학교 산학협력단 filed Critical 인천대학교 산학협력단
Priority to KR1020190096655A priority Critical patent/KR102282334B1/en
Publication of KR20210017429A publication Critical patent/KR20210017429A/en
Application granted granted Critical
Publication of KR102282334B1 publication Critical patent/KR102282334B1/en

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Abstract

The present invention relates to a method for optic disc classification including: (a) a step in which a local system acquires a fundus image for training; (b) a step in which the local system pre-treats the acquired fundus image for training; (c) a step in which the local system divides an optic disc; (d) a step in which the local system extracts features from the divided optic disc image; (e) a step in which the local system transmits the extracted optic disc features to a cloud server; (f) a step of training a classifier model using the optic disc features received at the cloud server; (g) a step in which a mobile device acquires a test fundus image; (h) a step in which the mobile device pre-treats the acquired test fundus image; (i) a step in which the mobile device divides an optic disc; (j) a step in which the mobile device extracts features from the divided optic disc image; (k) a step in which the mobile device transmits the extracted optic disc features to a cloud server; (l) a step in which the cloud server classifies the optic disc using the received optic disc features as a classifier model input; and (m) a step in which the cloud server transmits the result of the classification to the mobile device.

Description

시신경 유두 분류 방법{METHOD FOR OPTIC DISC CLASSIFICATION}Optic nerve nipple classification method {METHOD FOR OPTIC DISC CLASSIFICATION}

본 발명은 시신경 유두 분류 방법에 관한 것이다.The present invention relates to a method for classifying an optic nerve nipple.

중앙 집중형 온라인 서비스는 환자에게 진단 서비스를 제공하는 스마트 도시의 핵심이다. 모바일 클라우드 아키텍처는 일반적으로 연구자가 관련 정보를 공유하고 진단하는 데 사용된다. 모바일 컴퓨팅은 스마트 폰에서 클라우드로 다양한 활동을 수행하여 시스템 성능면에서 계산상의 복잡성을 줄이기 위한 연구에 사용된다. 이것은 특히 외진 지역 환자를 위한 신흥 연구 분야이다. 클라우드 컴퓨팅은 비용 절감, 확장성, 핵심 역량에 집중, 서비스 탄력성, 온라인 협업 촉진 및 재사용 가능성 등과 같은 다양한 이점을 제공한다.Centralized online services are the core of smart cities that provide diagnostic services to patients. Mobile cloud architecture is commonly used by researchers to share and diagnose relevant information. Mobile computing is used in research to reduce computational complexity in terms of system performance by performing various activities from a smart phone to the cloud. This is an emerging area of research, especially for patients in remote areas. Cloud computing offers a number of benefits, such as cost savings, scalability, focus on core competencies, service resilience, facilitating online collaboration and reusability.

모바일 클라우드는 스마트 도시에서 안과 의사(안과 전문의)가 환자를 원격으로 효과적으로 모니터링할 수 있도록 도와주는 중요한 역할을 한다. 이 최신 기술 시대의 최근 요구 사항은 의사와 안과 전문의가 당뇨병성 망막증을 원격지에서 스마트 시티의 의료 시설에 24시간이나 어느 장소에서나 액세스할 수 있는 권한을 부여함으로써 원격으로 진단할 수 있게 하는 것이다.Mobile cloud plays an important role in helping ophthalmologists (ophthalmologists) monitor patients remotely and effectively in smart cities. The latest requirement in this state-of-the-art age is to enable doctors and ophthalmologists to diagnose diabetic retinopathy remotely by giving them 24-hour or any location access to medical facilities in smart cities.

당뇨병은 작은 혈관, 즉 다양한 기관의 모세 혈관, 특히 망막, 신장 및 신경 조직을 교란시킨다. 망막의 모세 혈관에 영향을 미치는 당뇨병은 당뇨병성 망막증으로 알려져 있다. 모세 혈관 손상은 혈액 누출과 불규칙한 혈관 생성을 유발할 수 있으며 시력 상실의 원인이 되어 실명을 유발할 수 있다.Diabetes disturbs small blood vessels, ie the capillaries of various organs, especially the retina, kidney and nervous tissue. Diabetes, which affects the capillaries of the retina, is known as diabetic retinopathy. Capillary damage can lead to blood leakage and irregular blood vessel formation, leading to vision loss, leading to blindness.

도 1에 도시된 바와 같은 안저 사진은 주로 녹내장 및 당뇨병성 망막증과 같은 중요한 망막 질환의 사전 검출에 사용된다. 시신경 유두(OD: Optic Disc)는 망막 주변과 망막 주변에서 파생된 망막 이미지와 혈관의 주요 가시 영역이다. 황반(Macula)의 안쪽 부분은 중심부의 예리한 시야를 담당하는 중심와(fovea)이다. 비정상적인 안저 이미지는 시신경의 면적보다 큰 넓은 영역(삼출물)으로 이루어질 수 있다.The fundus photograph as shown in FIG. 1 is mainly used for pre-detection of important retinal diseases such as glaucoma and diabetic retinopathy. The optic disc (OD) is the main visible area of the retinal image and blood vessels derived from and around the retina. The inner part of the macula is the fovea responsible for the sharp vision of the center. The abnormal fundus image may consist of a large area (exudate) larger than the area of the optic nerve.

OD 국부화는 중심와, 황반부 및 혈관 변화와 같은 다른 해부학적 망막 구조를 감지하는 데 유용하다. OD 컵 대 OD 원판 비율은 녹내장의 조기 발생을 향한 기본 단계이다. 이 질병을 조기 발견하기 위한 자동화된 컴퓨터 보조 검사 프로그램은 인구가 많은 국가에서 녹내장을 검사하는 데 필수적이며 주요 단계이다.OD localization is useful for detecting other anatomical retinal structures such as fovea, macula and vascular changes. The OD cup to OD disc ratio is a basic step towards the early onset of glaucoma. Automated computer-assisted screening programs for early detection of the disease are essential and a major step in screening for glaucoma in countries with large populations.

문헌에서 많은 연구자들이 각각의 응용 분야에서 OD 분할 및 분류 작업을 수행해 왔다. 일반적으로 에지 기반의 기법이 OD 분할과 분류에 사용되었다. 이 접근법에서 적색 밴드는 RGB 색상 공간에서 추출되며, 닫는 연산자는 혈관을 채우는데 적용된 후 거대한 선택 제거를 위해 열린다. 소벨 에지(Sobel edge) 연산자는 OD 국부화에 사용된다. 유사하게, 히스토그램 매칭 기반 기법은 OD의 중심 위치 파악에 사용되었다. 이 기법은 DRIVE 데이터 세트의 이미지에서 각 색상 공간의 모델로서 히스토그램을 사용했다. 형태 기반 기법은 전경 및 배경의 분할이 다양한 형태학적 연산이 뒤따르는 임계 기법을 사용하여 수행되는 OD 국부화에도 사용된다. OD 국부화는 둥근 외곽선을 갖는 주요 결합 섹션을 사용하여 수행된다. 그러나 이러한 기술의 계산 복잡성은 시간과 공간면에서 높다.In the literature, many researchers have performed OD segmentation and classification work in each application field. In general, edge-based techniques were used for OD segmentation and classification. In this approach, the red band is extracted from the RGB color space, and the closing operator is applied to fill the vessel and then opened to remove the large selection. The Sobel edge operator is used for OD localization. Similarly, a histogram matching based technique was used to locate the center of the OD. This technique used a histogram as a model for each color space in images in the DRIVE data set. The shape-based technique is also used for OD localization in which the segmentation of the foreground and background is performed using a critical technique followed by various morphological operations. OD localization is performed using the main joining section with a round outline. However, the computational complexity of these techniques is high in terms of time and space.

허프(Hough) 변환 기법은 이미지 처리에서 원형 모양 검출에도 사용된다. 그러나 허프 변환 기법은 해상도를 수용하기 때문에 최상의 결과를 제공하지 못한다. 엔트로피 필터링 기술은 OD 국부화에 사용된다. 평활화, 분할 및 수학적 형태학 기법과 같은 다양한 사전 처리 단계를 적용한 후. 평활 영역의 엔트로피는 비 평탄 영역과 비교하여 낮다. 주성분 분석(PCA)은 또한 OD 국부화에 사용된다. 이러한 접근법에서 PCA의 다양한 배율 인수를 입력 영역과 투영 이미지 사이의 최소 거리를 찾기 위해 영역에 적용한다. OD의 중심은 모든 비율 조정 요소 중에서 후보 섹션의 최소 거리를 갖는 포인트에 배치된다. PCA 기반 기술은 높은 시간 복잡성의 한계를 가지고 있음을 주목해야 한다The Hough transform technique is also used to detect circular shapes in image processing. However, the Hough transform technique does not provide the best results because it accepts resolution. Entropy filtering technique is used for OD localization. After applying various pre-processing steps such as smoothing, segmentation and mathematical morphology techniques. The entropy of the smooth region is lower compared to the non-flat region. Principal component analysis (PCA) is also used for OD localization. In this approach, various magnification factors of PCA are applied to the area to find the minimum distance between the input area and the projected image. The center of the OD is placed at the point with the minimum distance of the candidate section among all the scaling elements. It should be noted that PCA-based technology has a limitation of high time complexity.

혈관 방향 매칭 필터는 해당 영역의 혈관의 방향을 일치시킴으로써 OD 분할에 사용된다. 마찬가지로 2D 가우시안(Gaussian) 필터를 사용하여 혈관을 분할하는 것은 안저 이미지에서 OD를 탐지하는 데에도 사용된다. 매칭 필터 사이의 분산은 네 가지 다양한 크기로 다시 조정되었다. OD의 중심은 혈관의 각 후보 영역의 인접 영역이다. OD 국부화는 혈관 지향성 패턴에 의해 수행된다. 따라서 혈관 방향을 기준으로 OD 센터가 국한되었다. 마코프 랜덤 필드(MRF: Markov random field)와 보상 인자 방법은 OD 분할을 위해 사용된다. 첫 번째 망막 혈관은 그래프 절단 기법을 사용하여 추출되고 뒤이어 혈관 정보는 OD 위치를 추정하는 데 사용된다.The blood vessel direction matching filter is used for OD segmentation by matching the direction of blood vessels in a corresponding region. Similarly, segmenting blood vessels using a 2D Gaussian filter is also used to detect OD in the fundus image. The variance between matching filters was re-adjusted to four different sizes. The center of the OD is the region adjacent to each candidate region of the blood vessel. OD localization is performed by a vascular directional pattern. Therefore, the OD center was localized based on the blood vessel direction. A Markov random field (MRF) and a compensation factor method are used for OD partitioning. The first retinal blood vessel is extracted using a graph cutting technique, followed by the blood vessel information used to estimate the OD location.

현대 건강 관리 시스템 분야의 발전은 계산 복잡성(시간 및 공간) 측면에서 저렴한 비용으로 높은 분류 정확도를 달성하기 위해 모바일 클라우드를 사용하여 OD를 실시간으로 탐지하고 분류해야 한다. 실시간 OD 탐지 및 분류에 대한 요구 사항을 충족하는 시스템은 에너지 소비, 대역폭, 가용성, 서비스 안정성 및 규제와 같은 모바일 클라우드 기반 시스템과 관련된 문제점 및 위험을 해결해야 한다.Advances in the field of modern health care systems require real-time detection and classification of ODs using a mobile cloud to achieve high classification accuracy at low cost in terms of computational complexity (time and space). Systems that meet the requirements for real-time OD detection and classification must address the challenges and risks associated with mobile cloud-based systems such as energy consumption, bandwidth, availability, service stability and regulation.

JPJP 53489825348982 B2B2

본 발명이 해결하고자 하는 과제는 환자들이 원격으로 건강 서비스에 쉽게 접근할 수 있게 할 뿐만 아니라 안과 전문의가 당뇨병성 망막증을 원격으로 진단하는 것을 용이하게 하며 안저 이미지에서 시신경 유두의 분류 정확도와 시신경 유두의 재구성 속도를 향상시킬 수 있는 시신경 유두 분류 방법을 제공하는 것이다.The problem to be solved by the present invention not only enables patients to easily access health services remotely, but also makes it easy for an ophthalmologist to diagnose diabetic retinopathy remotely, as well as the accuracy of classification of the optic nerve nipple in the fundus image and the accuracy of the optic nerve nipple. It is to provide a method for classifying optic nerve nipples that can improve the reconstruction rate.

상기 과제를 해결하기 위한 본 발명의 일 실시예에 의한 시신경 유두 분류 방법은,The method for classifying optic nerve nipples according to an embodiment of the present invention for solving the above problems,

(a) 로컬 시스템이 훈련용 안저 이미지를 획득하는 단계;(a) obtaining a training fundus image by the local system;

(b) 상기 로컬 시스템이 획득된 훈련용 안저 이미지를 전처리하는 단계;(b) preprocessing, by the local system, the acquired training fundus image;

(c) 상기 로컬 시스템이 시신경 유두(OD: Optic Disc)를 분할하는 단계;(c) dividing the optic disc (OD) by the local system;

(d) 상기 로컬 시스템이 분할된 시신경 유두 이미지에서 특징들을 추출하는 단계;(d) extracting features from the segmented optic nerve papillary image by the local system;

(e) 상기 로컬 시스템이 추출된 시신경 유두 특징들을 클라우드 서버로 전송하는 단계;(e) transmitting, by the local system, the extracted optic nerve nipple features to a cloud server;

(f) 클라우드 서버에서 수신된 시신경 유두 특징들을 사용하여 분류기 모델을 훈련시키는 단계;(f) training a classifier model using the optic nerve papillary features received from the cloud server;

(g) 모바일 장치가 테스트 안저 이미지를 획득하는 단계;(g) obtaining, by the mobile device, a test fundus image;

(h) 상기 모바일 장치가 획득된 테스트 안저 이미지를 전처리하는 단계;(h) pre-processing the acquired test fundus image by the mobile device;

(i) 상기 모바일 장치가 시신경 유두(OD)를 분할하는 단계;(i) dividing the optic nerve nipple (OD) by the mobile device;

(j) 상기 모바일 장치가 분할된 시신경 유두 이미지에서 특징들을 추출하는 단계;(j) extracting features from the segmented optic nerve papillary image by the mobile device;

(k) 상기 모바일 장치가 추출된 시신경 유두 특징들을 클라우드 서버로 전송하는 단계;(k) transmitting, by the mobile device, the extracted optic nerve nipple features to a cloud server;

(l) 상기 클라우드 서버가 수신된 시신경 유두 특징들을 분류기 모델의 입력으로 사용하여 시신경 유두를 분류하는 단계; 및(l) classifying, by the cloud server, the optic nerve nipples by using the received optic nerve nipple features as an input of a classifier model; And

(m) 상기 클라우드 서버가 분류 결과를 상기 모바일 장치로 전송하는 단계를 포함한다.(m) transmitting, by the cloud server, the classification result to the mobile device.

본 발명의 일 실시예에 의한 시신경 유두 분류 방법에 있어서, 상기 단계 (b) 및 단계 (h)의 전처리 단계는,In the optic nerve nipple classification method according to an embodiment of the present invention, the pretreatment steps of steps (b) and (h),

(b-1) 입력 이미지를 RGB 색공간에서 HSI 색공간의 이미지로 변환하는 단계;(b-1) converting the input image from an RGB color space to an HSI color space image;

(b-2) 변환된 이미지의 명도 성분을 중간값 필터를 이용하여 평활화하는 단계;(b-2) smoothing the brightness component of the converted image using an intermediate value filter;

(b-3) 콘트라스트 제한 적응적 히스토그램 등화를 이용하여 평활화된 이미지의 콘트라스트를 향상시키는 단계;(b-3) improving the contrast of the smoothed image using contrast-limited adaptive histogram equalization;

(b-4) 콘트라스트가 향상된 이미지를 HSI 색공간에서 RGB 색공간의 이미지로 변환하는 단계; 및(b-4) converting an image with improved contrast from an HSI color space to an RGB color space image; And

(b-5) 상기 RGB 이미지에서 녹색 채널 이미지를 추출하는 단계를 포함할 수 있다.(b-5) extracting a green channel image from the RGB image.

또한, 본 발명의 일 실시예에 의한 시신경 유두 분류 방법에 있어서, 상기 특징들은, 시신경 유두의 형상 특징을 포함하고,In addition, in the method for classifying the optic nerve nipple according to an embodiment of the present invention, the features include a shape feature of the optic nerve nipple,

상기 시신경 유두의 형상 특징은 시신경 유두의 면적, 둘레, 원형 및 중심을 포함할 수 있다.The shape features of the optic nerve nipple may include an area, a circumference, a circle, and a center of the optic nerve nipple.

본 발명의 일 실시예에 의한 시신경 유두 분류 방법에 의하면, 안과 의사(안과 전문의)가 다양한 안구 질환을 진단하는 데 도움을 줄 수 있다.According to the method for classifying the optic nerve nipple according to an embodiment of the present invention, an ophthalmologist (ophthalmologist) may help diagnose various eye diseases.

또한, 일반 시민들이 안구 질환과 관련된 양질의 의료 서비스를 24 시간 내내 효율적으로 기능적으로 단순화할 수 있도록 돕고, 이를 통해 의료 전문가는 대상 지역의 이상(abnormality)에 관한 시간 결정을 내림으로써 환자의 육체적 이용가능성없이 환자를 모니터링할 수 있다.In addition, it helps ordinary citizens to efficiently and functionally simplify high-quality medical services related to eye diseases around the clock, through which medical professionals can make time decisions about abnormalities in the target area, thereby making physical use of patients. Patients can be monitored without possibility.

또한, 클라우드 기반 컴퓨팅을 사용하여 시간 복잡성 감소에 대한 계산 이득을 달성할 수 있다. OD 분류를 위한 분류기는 클라우드에서 학습되며, 이미지 전체를 업로드하는 대신 이미지에서 추출된 특징들을 오프로딩함으로써 인터넷 대역폭 요구 사항을 최소화할 수 있다.Additionally, cloud-based computing can be used to achieve computational gains for time complexity reduction. Classifiers for OD classification are learned in the cloud, and Internet bandwidth requirements can be minimized by offloading features extracted from images instead of uploading the entire image.

또한, 시신경 유두 분류 정확도를 달성하기 위해 업 스케일된 전역 분할 기법이 프레임워크에 병합되어 최근에 발표된 최첨단 기법과 비교하여 향상된 분할 결과를 제공할 수 있다.In addition, an up-scaled global segmentation method may be incorporated into the framework to achieve the optic nerve papillary classification accuracy, thereby providing an improved segmentation result compared to the recently published state-of-the-art method.

도 1은 망막의 안저 이미지 및 그것의 핵심적인 해부학적 특징을 도시한 도면.
도 2는 클라우드 서버에서의 분류기 훈련을 도시한 도면.
도 3은 본 발명의 일 실시예에 의한 시신경 유두 분류 방법의 개념도를 도시한 도면.
도 4는 본 발명의 일 실시예에 의한 시신경 유두 분류 방법의 흐름도를 도시한 도면.
도 5는 전처리 단계의 상세 흐름도를 도시한 도면.
도 6은 시신경 유두 분할 단계의 상세 흐름도를 도시한 도면.
도 7(a)는 입력 이미지, 도 7(b)는 전처리된 출력 이미지를 도시한 도면.
도 8(a)는 전처리된 시신경 유두 이미지, 도 8(b)는 분할된 시신경 유두를 도시한 도면.
도 9(a)는 분할된 안저 이미지, 도 9(b)는 형태학적 연산을 적용한 안저 이미지를 도시한 도면.
도 10은 형태학적 연산을 사용하여 삭제된 시신경 유두 영역을 도시한 도면.
도 11(a) 내지 도 11(l)은 Al-Shifa 및 DRIVE 데이터 세트에 대한 시신경 유두 경계 검출을 도시한 도면.
도 12(a) 내지 도 12(l)은 DIARETDB0 및 DIARETDB1 데이터 세트에 대한 시신경 유두 경계 검출을 도시한 도면.
도 13은 DIARETDB0 및 DIARETDB1 데이터 세트에 대한 본 발명의 일 실시예에 의한 시신경 유두 분류 방법의 시신경 유두 분류와 안과 의사에 의한 시신경 유두 분류를 비교한 도면으로서, 도 13(a)는 안과 의사에 의한 시신경 유두 분류 결과, 도 13(b)는 본 발명의 일 실시예에 의한 시신경 유두 분류 방법에 의한 시신경 유두 분류 결과, 그리고 도 13(c)는 본 발명의 일 실시예에 의한 시신경 유두 분류 방법의 정확도를 도시한 도면.
도 14는 DIARETDB0 및 DIARETDB1 데이터 세트에 대한 본 발명의 일 실시예에 의한 시신경 유두 분류 방법의 시신경 유두 분류 정확도와 다른 기법들의 정확도를 비교한 도면.
1 is a diagram showing a fundus image of the retina and its key anatomical features.
2 is a diagram showing classifier training in a cloud server.
3 is a diagram showing a conceptual diagram of a method for classifying an optic nerve nipple according to an embodiment of the present invention.
4 is a diagram showing a flow chart of a method for classifying an optic nerve nipple according to an embodiment of the present invention.
5 is a diagram showing a detailed flowchart of a pre-processing step.
6 is a view showing a detailed flowchart of the step of dividing the optic nerve nipple.
7(a) is an input image, and FIG. 7(b) is a diagram showing a preprocessed output image.
Fig. 8(a) is a preprocessed optic nerve nipple image, and Fig. 8(b) shows a segmented optic nerve nipple.
9(a) is a diagram showing a divided fundus image, and FIG. 9(b) is a diagram showing a fundus image to which a morphological operation is applied.
Fig. 10 is a diagram showing an optic nerve papilla region deleted using a morphological operation.
11(a) to 11(l) are diagrams showing the detection of the optic nerve nipple boundary for the Al-Shifa and DRIVE data sets.
12(a) to 12(l) are diagrams showing the detection of the optic nerve papillary boundary for the DIARETDB0 and DIARETDB1 data sets.
13 is a diagram comparing the classification of the optic nerve nipples in the method for classifying the optic nerve nipples according to an embodiment of the present invention for the DIARETDB0 and DIARETDB1 data sets and the classification of the optic nerve nipples by an ophthalmologist, and FIG. 13(a) is The result of classification of the optic nerve nipples, FIG. 13(b) is a result of classification of the optic nerve nipples according to the method of classification of the optic nerve nipples according to an embodiment of the present invention, and FIG. Figure showing accuracy.
14 is a view comparing the accuracy of the classification of the optic nerve nipples and the accuracy of other techniques of the method of classifying the optic nerve nipple according to an embodiment of the present invention for DIARETDB0 and DIARETDB1 data sets.

본 발명의 목적, 특정한 장점들 및 신규한 특징들은 첨부된 도면들과 연관되어지는 이하의 상세한 설명과 바람직한 실시예들로부터 더욱 명백해질 것이다.Objects, specific advantages and novel features of the present invention will become more apparent from the following detailed description and preferred embodiments associated with the accompanying drawings.

이에 앞서 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이고 사전적인 의미로 해석되어서는 아니되며, 발명자가 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있는 원칙에 입각하여 본 발명의 기술적 사상에 부합되는 의미와 개념으로 해석되어야 한다.Prior to this, terms or words used in the present specification and claims should not be interpreted in a conventional and dictionary meaning, and the inventor may appropriately define the concept of the term in order to describe his own invention in the best way. It should be interpreted as a meaning and a concept consistent with the technical idea of the present invention based on the principles that exist.

본 명세서에서 각 도면의 구성요소들에 참조번호를 부가함에 있어서, 동일한 구성 요소들에 한해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 번호를 가지도록 하고 있음에 유의하여야 한다.In adding reference numerals to elements of each drawing in the present specification, it should be noted that, even though they are indicated on different drawings, only the same elements are to have the same number as possible.

또한, "제1", "제2", "일면", "타면" 등의 용어는, 하나의 구성요소를 다른 구성요소로부터 구별하기 위해 사용되는 것으로, 구성요소가 상기 용어들에 의해 제한되는 것은 아니다.In addition, terms such as "first", "second", "one side", and "the other side" are used to distinguish one component from other components, and the component is limited by the terms. It is not.

이하, 본 발명을 설명함에 있어, 본 발명의 요지를 불필요하게 흐릴 수 있는 관련된 공지 기술에 대한 상세한 설명은 생략한다.Hereinafter, in describing the present invention, detailed descriptions of related known technologies that may unnecessarily obscure the subject matter of the present invention will be omitted.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시형태를 상세히 설명하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

건강 관리 서비스는 현 시대의 미래 현실인 스마트 도시에서 중요한 역할을 한다. 시신경 유두(OD: Optic Disc) 영역의 자동 인식은 자동화된 망막 이미지 분석의 필수 단계이다. 일반적으로 당뇨병성 망막증의 주요 상징인 삼출물을 검출하기 위해서는 OD는 제외되어야 한다. 컬러 안저 이미지에서 OD를 분류하는 모바일 클라우드 지원 분류는 분류 정확도와 OD의 재구성 속도를 향상시킬 수 있다.Health care services play an important role in the future reality of the present age, smart cities. Automatic recognition of the optic disc (OD) region is an essential step in automated retinal image analysis. In general, OD should be excluded in order to detect exudate, a major symbol of diabetic retinopathy. Mobile cloud-assisted classification, which classifies OD from color fundus images, can improve classification accuracy and reconstruction speed of OD.

본 발명의 일 실시예에 의한 시신경 유두 분류 방법에서는 클라우드에서 잘 훈련된 분류 절차를 사용하여 안저 이미지에서 OD를 탐지하고 분류하기 위한 스마트 폰 기반의 클라우드 기반 클라우드 지원 리소스 인식 프레임 워크를 제안한다.In an optic nerve nipple classification method according to an embodiment of the present invention, a smart phone-based cloud-based cloud-supported resource recognition framework for detecting and classifying OD in a fundus image using a classification procedure trained in the cloud is proposed.

본 발명의 일 실시예에 의한 시신경 유두 분류 방법은 OD 및 비 OD(non OD) 클래스에 대해 클라우드에서 나이브 베이즈(Naive Bayes) 분류기에 의해 훈련된 형상 기반 특징을 포함한다. 실험은 서로 다른 대비, 조도 및 이상(abnormality)으로 현지 병원에서 개발된 3개의 온라인으로 이용가능한 데이터 세트와 실제 데이터 세트에 대해 수행된다. 본 발명의 일 실시예에 의한 시신경 유두 분류 방법은 OD의 분류에서 98.25%의 정확도를 달성한다.The optic nerve nipple classification method according to an embodiment of the present invention includes shape-based features trained by a Naive Bayes classifier in the cloud for OD and non OD classes. Experiments were conducted on three online available data sets and real data sets developed in local hospitals with different contrasts, illuminances and abnormalities. The optic nerve nipple classification method according to an embodiment of the present invention achieves an accuracy of 98.25% in the classification of OD.

모바일 클라우드 컴퓨팅은 계산 프로세스를 서비스로 사용하는 중요한 소스이다. 그것은 안전하고 쉬운 방법으로 데이터 분석을 검색, 저장 및 수행하기 위한 글로벌 액세스를 용이하게 한다. 모바일 클라우드 기반 OD 분할 및 분류는 혁신적인 기술이며 시스템 전문가와 안과 의사는 시스템을 통해 로컬 및 원격으로 작업을 쉽게 수행할 수 있다. 이것은 장치나 클라우드에서 로컬로 수행될 수 있다.Mobile cloud computing is an important source of using the computational process as a service. It facilitates global access to search, store and perform data analysis in a secure and easy way. Mobile cloud-based OD segmentation and classification is an innovative technology, and system experts and ophthalmologists can easily perform tasks locally and remotely through the system. This can be done locally on the device or in the cloud.

본 발명의 일 실시예에 의한 시신경 유두 분류 방법은 이미지 처리, 배포 및 분석을 위해 안저 망막 이미지 데이터 세트에 액세스한다. 처음에는 안저 이미지가 OD로 분할된 후 특징 추출을 로컬로 수행하여 추가 OD 분류에 사용되는 클라우드에서 추가 분류기 훈련을 실시한다. 특징들이 로컬에서 추출되면 그것은 추가 분석을 위해 클라우드 서버로 오프로드(전송)된다. 훈련된 분류기는 클라우드에 존재하여 전문가가 모바일 장치의 안저 이미지에서 OD를 분류하는 분류기를 얻을 수 있다. 처리된 이미지와 훈련된 모델은 향후 작업을 위해 클라우드의 서버에 저장될 수 있다. 도 2는 클라우드 기반 분류기의 훈련 메커니즘을 도시한 것으로, 참조번호 200은 안과 전문의의 모바일 장치, 참조번호 202는 클라우드 서버, 그리고 참조번호 204는 훈련 데이터 세트를 획득하여 클라우드 서버(202)로 전송하는 로컬 시스템이다. 그것은 많은 데이터 세트를 처리하기 위해 분류기의 훈련 시간을 압축하는데 광범위하게 사용된다.The method for classifying the optic nerve papilla according to an embodiment of the present invention accesses a fundus retinal image data set for image processing, distribution, and analysis. Initially, the fundus image is segmented into ODs, and then feature extraction is performed locally to perform additional classifier training in the cloud used for additional OD classification. Once features are extracted locally, it is offloaded (transmitted) to the cloud server for further analysis. The trained classifier exists in the cloud, allowing experts to obtain a classifier that classifies OD from fundus images on mobile devices. The processed images and trained models can be stored on a server in the cloud for future work. 2 shows a training mechanism of a cloud-based classifier, reference number 200 is a mobile device of an ophthalmologist, reference number 202 is a cloud server, and reference number 204 obtains a training data set and transmits it to the cloud server 202. It is a local system. It is used extensively to compress the training time of a classifier to process large data sets.

모바일 클라우드 지원 OD 분석Mobile cloud support OD analysis

이미지 획득 및 전처리, OD 분할 및 형태학적 연산과 같은 상이한 단계들을 통해 처리된 컬러 안저 망막 이미지에서 OD 분할 및 분류를 위한 본 발명의 일 실시예에 의한 시신경 유두 분류 방법은 분할된 OD 이미지로부터 특징들을 추출하고 두 클래스, 즉 OD 클래스와 비 OD(Non OD) 클래스 분류를 위해 이들 특징들을 통해 클라우드에서 분류기 모델을 훈련시킨다. 본 발명의 일 실시예에 의한 시신경 유두 분류 방법의 개념도가 도 3에 나와 있다.The optic nerve papillary classification method according to an embodiment of the present invention for OD segmentation and classification in a color fundus retinal image processed through different steps such as image acquisition and preprocessing, OD segmentation and morphological computation It extracts and trains a classifier model in the cloud with these features for classifying two classes, OD class and Non OD (Non OD) class. A conceptual diagram of a method for classifying an optic nerve nipple according to an embodiment of the present invention is shown in FIG. 3.

도 3에 도시된 본 발명의 일 실시예에 의한 시신경 유두 분류 방법의 개념도는, 안저 이미지를 획득하는 단계(단계 S300), 안저 이미지를 전처리하는 단계(단계 S302), 시신경 유두(OD)를 분할하는 단계(단계 S304), 분할된 시신경 유두에서 특징을 추출하는 단계(단계 S306), 추출된 특징을 클라우드 서버로 전송하는 단계(단계 S308),및 클라우드 서버가 훈련 데이터 세트를 사용하여 나이브 베이즈 분류기를 학습시킨 후, 테스트 안저 이미지에서 분할된 시신경 유두를 시신경 유두(OD) 클래스 또는 비 시신경 유두(non OD) 클래스로 분류하는 단계(단계 S310)를 포함한다.The conceptual diagram of the method for classifying an optic nerve nipple according to an embodiment of the present invention shown in FIG. 3 is a step of acquiring a fundus image (step S300), preprocessing a fundus image (step S302), and dividing the optic nerve nipple (OD). (Step S304), extracting features from the divided optic nerve nipples (Step S306), transmitting the extracted features to a cloud server (Step S308), and naive Bayes using the training data set by the cloud server After training the classifier, classifying the optic nerve nipple segmented from the test fundus image into an optic nerve nipple (OD) class or a non-optic nerve nipple (non OD) class (step S310).

도 4는 본 발명의 일 실시예에 의한 시신경 유두 분류 방법의 흐름도이다.4 is a flowchart of a method for classifying an optic nerve nipple according to an embodiment of the present invention.

도 4에 도시된 본 발명의 일 실시예에 의한 시신경 유두 분류 방법을 참조하면, 단계 S400에서 로컬 시스템(도 2의 204)은 훈련용 안저 이미지를 획득하고, 단계 S402에서 획득된 훈련용 안저 이미지를 전처리하며, 단계 S404에서 시신경 유두(OD: Optic Disc)를 분할하고, 단계 S406에서 분할된 시신경 유두 이미지에서 특징들을 추출하며, 단계 S408에서 추출된 시신경 유두 특징들을 클라우드 서버(도 2의 202)로 전송한다.Referring to the method for classifying the optic nerve nipple according to an embodiment of the present invention shown in FIG. 4, in step S400, the local system (204 in FIG. 2) acquires a training fundus image, and the training fundus image obtained in step S402 Preprocessing, splitting the optic disc (OD) in step S404, extracting features from the split optic nerve nipple image in step S406, and storing the features of the optic nerve nipple extracted in step S408 on a cloud server (202 in FIG. 2) Transfer to.

단계 S410에서 클라우드 서버(도 2의 202)는 수신된 시신경 유두 특징들을 사용하여 나이브 베이즈 분류기 모델을 훈련시킨다.In step S410, the cloud server (202 in FIG. 2) trains a naive Bayes classifier model using the received optic nerve nipple features.

한편, 단계 S412에서 안과 전문의의 모바일 장치(도 2의 200)은 테스트 안저 이미지를 획득하고, 단계 S414에서 획득된 테스트 안저 이미지를 전처리하며, 단계 S416에서 시신경 유두(OD)를 분할하고, 단계 S418에서 분할된 시신경 유두 이미지에서 특징들을 추출하며, 단계 S420에서 추출된 시신경 유두 특징들을 클라우드 서버(도 2의 202)로 전송한다.Meanwhile, in step S412, the ophthalmologist's mobile device (200 in FIG. 2) acquires a test fundus image, pre-processes the test fundus image obtained in step S414, and divides the optic nerve nipple (OD) in step S416, and step S418. Features are extracted from the optic nerve nipple image divided in step S420, and the optic nerve nipple features extracted in step S420 are transmitted to the cloud server (202 in FIG. 2).

단계 S422에서 클라우드 서버(도 2의 202)는 수신된 시신경 유두 특징들을 나이브 베이즈 분류기 모델의 입력으로 사용하여 시신경 유두를 분류하고, 단계 S424에서 분류 결과를 모바일 장치(도 2의 200)로 전송한다.In step S422, the cloud server (202 in Fig. 2) classifies the optic nerve nipples using the received optic nerve nipple features as input of the Naive Bayes classifier model, and transmits the classification result to the mobile device (200 in Fig. 2) in step S424. do.

각 단계에 대해 하기에 상세히 설명하기로 한다.Each step will be described in detail below.

데이터 수집 및 전처리Data collection and preprocessing

안저 망막 이미지는 망막, 시신경 유두, 황반 및 후부 극(posterior pole)과 같은 눈의 핵심 표면을 촬영하는 특수 안저 카메라를 통해 수집된다. 이미지의 시야는 30°내지 50°사이에서 다양하다. 두 가지 유형의 안저 카메라가 사용된다. 하나는 동공 확장이라고 불리우는 눈동자의 확장을 기반으로 하고, 다른 하나는 눈동자 확장이 필요하지 않은 비-동공 확장 안저 카메라이다. 본 발명의 일 실시예에 의한 시신경 유두 분류 방법에서, 획득된 모든 이미지는 비-동공 확장 안저 카메라를 사용하여 RGB 색 공간에 있다.Fundus retinal images are collected using a special fundus camera that photographs the core surfaces of the eye such as the retina, optic nerve papilla, macula and posterior pole. The field of view of the image varies between 30° and 50°. Two types of fundus cameras are used. One is based on pupil dilation, called pupil dilation, and the other is a non-pupil dilation fundus camera that does not require pupil dilation. In the optic nerve nipple classification method according to an embodiment of the present invention, all acquired images are in RGB color space using a non-pupillary dilated fundus camera.

도 5는 단계 S402와 단계 S414의 전처리 단계의 상세 흐름도이다. 도 5를 참조하면, 단계 S500에서 획득된 망막 이미지는 다른 두 구성 요소를 방해하지 않고 세기(Intensity) 구성 요소가 별도로 처리되기 때문에 RGB 색 공간에서 색상(Hue), 채도(Saturation) 및 명도(Intensity)(HSI) 색 공간의 이미지로 변환된다. HSI 색상 모델은 색상 및 그레이 스케일 정보를 분리하고 사람의 눈의 색상 해석과 밀접하게 일치한다. 색상은 깨끗한 색을 정의하는 특성이며 채도는 흰색 빛에 의한 순수 색의 확장이며 명도는 오브젝트의 밝기에 대한 무채색 요소이다.5 is a detailed flowchart of the preprocessing steps of steps S402 and S414. Referring to FIG. 5, since the intensity component is separately processed in the retinal image obtained in step S500 without interfering with the other two components, hue, saturation, and intensity in the RGB color space. )(HSI) is converted to an image in color space. The HSI color model separates color and gray scale information and closely matches the color interpretation of the human eye. Color is a characteristic defining clean color, saturation is the expansion of pure color by white light, and brightness is an achromatic factor for the brightness of an object.

단계 S502에서, 명도 성분은 이미지에 존재하는 노이즈를 제거하기 위해 평활화된다. 속눈썹 또는 눈꺼풀을 이미지화할 수 있는 환자의 눈 깜박임으로 인해 이미지 수집 중에 안저 이미지의 노이즈가 발생한다, 환자의 머리 움직임은 초점이 맞지 않는 이미지, 홍채가 있는 이미지, 치명적으로 조명된 망막으로 인한 검게 변하는 이미지를 초래할 수 있다. 따라서, 이러한 요인들은 예를 들어 이미지 내의 스캐너 또는 디지털 카메라에 의해 형성된 이미지의 밝기의 무작위 변동과 같은 잡음을 발생시킨다. 상이한 노이즈 제거 필터링 기술은 평균 필터링, 중간 필터링 등과 같은 노이즈 제거에 대해 평가되었다. 평균 필터는 중간값 필터median filter)와 비교하여 블러링된 이미지를 생성하기 때문에, 하기와 같이, 제안된 방법에서 중간값 필터가 입력 이미지 G(x, y)를 평활화하기 위하여 사용된다.In step S502, the brightness component is smoothed to remove noise present in the image. Noise in the fundus image occurs during image acquisition due to the blinking of the patient's eyelashes or eyelids, which can image the eyelashes, and the patient's head movement turns black due to out-of-focus images, images with irises, and fatally illuminated retinas. Can result in images. Thus, these factors generate noise, for example random fluctuations in the brightness of the image formed by a scanner or digital camera within the image. Different noise removal filtering techniques were evaluated for noise removal such as average filtering, intermediate filtering, and the like. Since the average filter generates a blurred image compared to the median filter), the median filter is used to smooth the input image G(x, y) in the proposed method as follows.

Figure pat00001
Figure pat00001

여기서 w는 이미지의 위치를 중심으로 한 이웃 픽셀을 나타낸다. F(x, y)는 출력 이미지이고, G(x, y)는 입력 이미지이다.Here, w denotes a neighboring pixel centered on the position of the image. F(x, y) is the output image, and G(x, y) is the input image.

이미지 콘트라스트 향상은 이미지의 콘트라스트를 향상시키는 프로세스이므로 결과 이미지가 시각적으로 매력적이다. 단계 S504에서, 이미지의 콘트라스트를 향상시키기 위하여, 콘트라스트 제한 적응적 히스토그램 등화(CLAHE: Contrast Limited Adaptive Histogram Equalization) 기법이 다음 수학식과 같이 적용된다.Image contrast enhancement is a process of improving the contrast of an image, so the resulting image is visually appealing. In step S504, in order to improve the contrast of an image, a contrast limited adaptive histogram equalization (CLAHE) technique is applied as shown in the following equation.

Figure pat00002
Figure pat00002

여기서 F(x, y)는 입력 이미지이고 H(x, y)는 출력 이미지이며 T는 변환 함수이다.Here, F(x, y) is the input image, H(x, y) is the output image, and T is the transform function.

이 기법에서는 전체 이미지가 균등하게 영역으로 분할되고 히스토그램 등화가 각 영역에 적용된다. 이렇게 하면 이미지의 회색 값 할당이 균등하게 분배되고 어두운 특징들이 더 잘 보인다. 그런 다음 관련된 섹션의 결과를 보간과 결합하여 전체 이미지를 재현한다. 보간은 연결된 영역의 접합부가 보이지 않도록 관련 영역을 전체 이미지로 효율적으로 결합한다.In this technique, the entire image is evenly divided into regions, and histogram equalization is applied to each region. This distributes the gray value assignment of the image evenly and makes dark features more visible. Then the results of the relevant sections are combined with interpolation to reproduce the entire image. Interpolation efficiently combines the related areas into the entire image so that the junctions of the connected areas are not visible.

도 7(a)는 입력 이미지, 도 7(b)는 전처리된 출력 이미지를 도시한 도면이다.7(a) is a diagram showing an input image, and FIG. 7(b) is a diagram showing a preprocessed output image.

단계 S506에서 전처리 과정을 거친 후 HSI 색 공간의 이미지는 RGB 색 공간의 이미지로 다시 변환되고, 단계 S508에서 녹색 채널에서 OD가 더 잘 보이기 때문에 RGB 색 공간의 이미지에서 녹색 채널 이미지를 추출한다.After pre-processing in step S506, the image in the HSI color space is converted back into an image in the RGB color space, and in step S508, since OD is better visible in the green channel, a green channel image is extracted from the image in the RGB color space.

시신경 유두(OD) 분할Optic nerve nipple (OD) segmentation

분할은 이미지를 개별 세그먼트로 분할하는 프로세스이다. 임계값은 각 픽셀에 대해 강도 값 t(임계 값)를 할당하여 전경 오브젝트가 배경에서 분리되는 이미지 분할의 중요한 부분이다. OD 임계 값은 추가 OD 분류를 위해 전경 오브젝트를 배경과 분리하기 위해 중요하다.Segmentation is the process of dividing an image into individual segments. The threshold value is an important part of image segmentation where the foreground object is separated from the background by assigning an intensity value t (threshold value) for each pixel. The OD threshold is important to separate the foreground object from the background for further OD classification.

도 6은 시신경 유두 분할 단계의 상세 흐름도를 도시한 도면이다. 단계 S600에서 전처리된 이미지는 글로벌 Otsu의 임계값 기술(Otsu 1979)을 사용하여 전경 오브젝트를 배경 영역에서 분리한다. 이 기법은 가중 클래스 내 분산을 최소화하는 임계 값을 기반으로 한다. 이것은 수학식 3에 주어진 클래스 간 분산을 최대화하는 것과 동일하다. Otsu는 다음 수학식에 주어진 전경 및 배경 가중 분산 합의 차이로 구분되는 클래스 내 분산을 감소시키는 임계 값을 체계적으로 검색한다.6 is a diagram showing a detailed flowchart of the step of dividing the optic nerve nipple. The image preprocessed in step S600 uses global Otsu's threshold technology (Otsu 1979) to separate the foreground object from the background area. This technique is based on a threshold that minimizes variance within a weighted class. This is equivalent to maximizing the variance between classes given in Equation 3. Otsu systematically searches for a threshold value that reduces the intraclass variance, which is divided by the difference between the sum of the foreground and background weighted variances given in the following equation.

Figure pat00003
Figure pat00003

여기서 q1(t)와 q2(t)는 두 클래스의 가중 확률이고, t는 임계 값이며

Figure pat00004
Figure pat00005
는 이 두 클래스의 분산이다. 총 분산
Figure pat00006
는 클래스 내 분산(가중치)과 클래스 간 분산의 합계이다. 이는 클래스 평균과 전체 평균(grand mean) 사이의 가중된 제곱 거리의 합이다.Where q 1 (t) and q 2 (t) are the weighted probabilities of the two classes, t is the threshold and
Figure pat00004
and
Figure pat00005
Is the variance of these two classes. Total variance
Figure pat00006
Is the sum of the intra-class variance (weight) and the inter-class variance. This is the sum of the weighted squared distances between the class mean and the grand mean.

도 8(a)는 전처리된 시신경 유두 이미지, 도 8(b)는 분할된 시신경 유두를 도시한 도면이다.Fig. 8(a) is a preprocessed optic nerve nipple image, and Fig. 8(b) is a view showing a segmented optic nerve nipple.

단계 S602에서, 전경 오브젝트에 대해 형태학적 연산을 적용하여 시신경 유두 영역을 검출한다.In step S602, a morphological operation is applied to the foreground object to detect the optic nerve papillary region.

분할 프로세스 동안, 혈관이나 삼출물과 같은 원하지 않는 일부 오브젝트도 감지되며 이러한 오브젝트를 제외하기 위해 형태학적 연산이 그들의 속성에 따라 이러한 오브젝트를 분리하기 위해 수행된다. 다음 수학식에 의해 주어진 것처럼 OD 영역 이외의 제거를 위한 임계 값이 설정된다.During the segmentation process, some unwanted objects, such as blood vessels or exudates, are also detected and morphological operations to exclude these objects are performed to separate these objects according to their properties. A threshold value for removal other than the OD region is set as given by the following equation.

Figure pat00007
Figure pat00007

여기서 R(x, y)는 수학식 3에서 주어진 입력 이미지이고,

Figure pat00008
는 다른 오브젝트를 제거하기 위해 설정된 임계 값이며, J(x, y)는 출력 이미지이다. 다른 임계 값
Figure pat00009
는 원하지 않는 오브젝트를 제거하는 데 사용될 수 있다. OD에 경계 픽셀을 포함하기 위해 오브젝트를 확대하고 오브젝트의 틈을 복구할 때 형태학적 확장을 사용한다. 구조화 요소
Figure pat00010
및 입력 이미지 J(x, y)는 다음 수학식을 사용하여 확장된다:Where R(x, y) is the input image given in Equation 3,
Figure pat00008
Is the threshold set to remove other objects, and J(x, y) is the output image. Different threshold
Figure pat00009
Can be used to remove unwanted objects. Enlarging the object to include the boundary pixels in the OD and using morphological expansion to repair gaps in the object. Structured element
Figure pat00010
And the input image J(x, y) is expanded using the following equation:

Figure pat00011
Figure pat00011

전경 내의 배경 픽셀의 존재는 일반적으로 구멍으로 알려져 있다. OD를 완전히 감지하려면 OD 영역 내부에 이 구멍을 채워야 한다. 이를 위해 다음 수학식과 같이 OD 영역을 완전히 검출하기 위해 형태학적 연산을 사용한다.The presence of background pixels in the foreground is commonly known as a hole. To fully detect OD, this hole must be filled inside the OD area. For this, a morphological operation is used to completely detect the OD region as shown in the following equation.

Figure pat00012
Figure pat00012

여기서 X0는 경계 내의 시작점이고, B는 구조 요소이며 Ac는 A의 보수이다.Where X 0 is the starting point within the boundary, B is the structural element, and A c is A's complement.

도 9(a)는 분할된 안저 이미지, 도 9(b)는 형태학적 연산을 적용한 안저 이미지를 도시한 도면이다.9(a) is a diagram showing a divided fundus image, and FIG. 9(b) is a diagram showing a fundus image to which a morphological operation is applied.

분할된 OD에서 특징 추출Feature extraction from segmented OD

안저 이미지에서 OD의 분류는 강력한 특징 추출을 필요로 한다. 대상은 모양, 질감 및 색상 등과 같은 다양한 매개 변수로 설명할 수 있다. 시신경 유두에서의 특징 추출은 형태학적 연산 후 OD 중심을 탐지하기 위한 후속 단계이다. OD 국부화를 위해 시신경 유두의 크기와 모양 특징이 추출된다. 이러한 특징은 OD 국부화의 기본이다.Classification of OD in fundus images requires strong feature extraction. Objects can be described by various parameters such as shape, texture and color. Feature extraction from the optic nerve papilla is a subsequent step to detect the OD center after morphological calculation. For OD localization, the size and shape features of the optic nerve papilla are extracted. These features are fundamental to OD localization.

(a) 면적: 면적은 OD 영역의 총 픽셀 수를 나타낸다. 이진 안저 이미지는 검정색 배경과 흰색 전경, 즉 OD 면적을 가지므로 흰색 픽셀(전경)의 수는 OD 면적을 나타낸다. 시신경의 면적 K(x, y)는 다음 식에 의해 계산된다.(a) Area: The area represents the total number of pixels in the OD area. Since a binary fundus image has a black background and a white foreground, that is, an OD area, the number of white pixels (foreground) represents the OD area. The area K(x, y) of the optic nerve is calculated by the following equation.

Figure pat00013
Figure pat00013

여기서

Figure pat00014
은 영역 R의 행과 열이고
Figure pat00015
는 수학식 5에 주어진 결과 이미지이다.here
Figure pat00014
Is the row and column of area R
Figure pat00015
Is the result image given in Equation 5.

(b) 둘레: 일반적으로, 둘레는 OD 영역의 경계 주위의 거리이다. 수학적으로 다음과 같이 쓸 수 있다.(b) Perimeter: Generally, perimeter is the distance around the boundary of the OD region. Mathematically, it can be written as

Figure pat00016
Figure pat00016

여기서 B는 시신경 유두

Figure pat00017
의 경계 픽셀이다.Where B is the optic nerve nipple
Figure pat00017
Is the border pixel of.

(c) 원형(Circularity): OD가 원형이기 때문에 원형 특징은 시신경 유두에서 중요하다. 안저 이미지의 분할은 하나 이상의 후보 영역을 검출할 수 있다. 따라서 다음 수학식을 사용하여 가장 큰 원형 모양 오브젝트를 검색하는 것은 탁월하다.(c) Circularity: Because the OD is circular, the circular feature is important in the optic nerve papilla. Segmentation of the fundus image may detect one or more candidate regions. Therefore, it is excellent to search for the largest circular shape object using the following equation.

Figure pat00018
Figure pat00018

조밀도는 탐지된 오브젝트의 면적을 탐지된 오브젝트의 둘레의 제곱으로 나누고 4π를 곱한 것이다.Density is the area of the detected object divided by the square of the perimeter of the detected object and multiplied by 4π.

(d) 중심(Centroid): 중심은 시신경의 중심으로 정의되며 중력 중심이라고도 한다. 모양 중심은 기본적으로 모양의 중심점이며 다음과 같이 계산된다.(d) Centroid: The center is defined as the center of the optic nerve and is also called the center of gravity. The shape center is basically the center point of the shape and is calculated as follows.

Figure pat00019
Figure pat00019

여기서 Xc는 구성 요소 픽셀들의 모든 x 좌표의 평균이고 Yc는 구성 요소 픽셀들의 모든 y 좌표의 평균이다.Where X c is the average of all x coordinates of the component pixels and Y c is the average of all y coordinates of the component pixels.

분류Classification

클래스는 형상 특징, 즉 면적, 둘레, 원형 및 중심과 같은 몇 가지 중요한 공통 속성을 갖는 오브젝트의 집합이며 오브젝트가 속한 클래스는 클래스 라벨로 표시된다. 분류란 이미지의 속성의 몇몇 표현에 따라 이미지에 라벨(OD 클래스 및 비 OD(Non OD) 클래스)을 할당하는 프로세스이다. 다양한 분류 기술이 문헌에서 사용되어 왔다. Neuve Bayesian 분류기(Friedman et al. 1997), 인공 신경망(ANN) (Gardner 외 1996), Nearest Neighbor(KNN) 및 SVM(Support Vector Machine)(Cortes and Vapnik 1995) 등이 있다. 본 발명의 일 실시예에 의한 시신경 유두 분류 방법에서 나이브 베이즈(Naive Bayes) 분류기가 안저 이미지에서의 시신경 유두(OD) 분류에 사용된다.A class is a collection of objects with some important common attributes such as shape characteristics, namely area, perimeter, circle, and center, and the class to which the object belongs is indicated by the class label. Classification is the process of assigning labels (OD class and Non OD (Non OD) class) to images according to some representation of the attributes of the image. Various classification techniques have been used in the literature. Neuve Bayesian classifier (Friedman et al. 1997), artificial neural network (ANN) (Gardner et al. 1996), Nearest Neighbor (KNN) and Support Vector Machine (SVM) (Cortes and Vapnik 1995). In the method for classifying optic nerve nipples according to an embodiment of the present invention, a Naive Bayes classifier is used for classifying optic nerve nipples (OD) in a fundus image.

나이브 베이즈(Naive Bayes) 분류기는 베이즈(Bayes) 정리를 기반으로 하는 감독된 기계 학습 기술이다. 그것은 조건부 독립성을 지원한다. 즉, 주어진 클래스(Ci)에 대한 특징(Xi)의 결과 값은 다른 특징의 값과 독립적이다. 그것은 거대한 데이터 세트에 적합하며 입력의 차원이 높을 때 가장 우수한 분류기로 간주된다. 다음은 클래스의 확률을 제공하는 나이브 베이즈(Naive Bayes) 분류 기의 수학식이다.The Naive Bayes classifier is a supervised machine learning technique based on Bayes' theorem. It supports conditional independence. That is, the resulting value of the feature (X i ) for a given class (C i ) is independent of the value of other features. It is suitable for large data sets and is considered the best classifier when the input dimension is high. The following is an equation of the Naive Bayes classifier that provides the probability of a class.

Figure pat00020
Figure pat00020

Figure pat00021
Figure pat00021

Figure pat00022
는 특징들(크기, 형상, 원형 및 조밀도)이 주어지는 경우 클래스 (OD, 비 OD(Non OD))의 사후 확률,
Figure pat00023
는 (OD, 비 OD(Non OD)) 클래스의 사전 확률,
Figure pat00024
는 특징이 주어진 클래스 (OD, 비 OD(non OD))의 확률이며,
Figure pat00025
는 주어진 특징들의 사전 확률이다.
Figure pat00022
Is the posterior probability of class (OD, Non OD (Non OD)) given features (size, shape, circularity and density),
Figure pat00023
Is the prior probability of the class (OD, Non OD),
Figure pat00024
Is the probability of a given class (OD, non OD),
Figure pat00025
Is the prior probabilities of the given features.

테스트를 위해, 추출된 형상 특징은 n개의 속성으로부터 샘플에 대해 수행된 n 개의 측정을 보여주는 특징 벡터

Figure pat00026
으로 표시된다. 클래스 라벨이 없는 X로 알려지지 않은 데이터 샘플을 제공함으로써 분류기는 X가 가장 높은 사후 확률을 갖는 클래스 Ci에 속한다는 것을 추측한다.For testing, the extracted shape features are feature vectors showing n measurements performed on the sample from n attributes.
Figure pat00026
Is indicated by By providing an unknown data sample as X without a class label, the classifier guesses that X belongs to class C i with the highest posterior probability.

실험 결과 및 토론Experiment results and discussion

이 섹션에서는 본 발명의 일 실시예에 의한 시신경 유두 분류 방법에서 사용된 망막 이미지의 데이터 세트와 제안된 기술의 실험 결과를 자세히 설명한다. 또한 안과 의사와의 상담 및 최근 발표된 관련 연구를 통해 이 기술의 정확성에 대해 토의하고 평가했다.In this section, a data set of retinal images used in the method for classifying an optic nerve papilla according to an embodiment of the present invention and experimental results of the proposed technique will be described in detail. We also discussed and evaluated the accuracy of this technique through consultations with ophthalmologists and related research recently published.

데이터 세트data set

본 발명의 일 실시예에 의한 시신경 유두 분류 방법의 성능을 측정하기 위해 표 1에 기재된 바와 같이, 네 개의 데이터 세트가 테스트되었다. 데이터 세트 중 3개는 온라인으로 이용가능한 DIARETDB0(Kauppi 외 2006), DIARETDB1(Kauppi 외 2007) 및 DRIVE(Staal 외 2004)이고, 네번째 데이터 세트는 현지 Al-Shifa(Al-Shifa 2017)에서 생성된 것이며, 본 연구에서 OD 분류를 위해 평가된다. 실제 데이터 세트 이미지는 Cannon CF-1digital 망막 카메라에 의해 수집된다. 본 발명의 일 실시예에 의한 시신경 유두 분류 방법의 기여 중 하나의 방법은 파키스탄의 Khyber Pakhtunkhwa 안과 병원 Kohat(Al-Shifa 2017)이 제공한 실제 데이터 세트를 사용하고 있다. 데이터 세트의 모든 이미지는 .JPEG 형식이다.As described in Table 1, four data sets were tested to measure the performance of the optic nerve nipple classification method according to an embodiment of the present invention. Three of the data sets are DIARETDB0 (Kauppi et al. 2006), DIARETDB1 (Kauppi et al. 2007) and DRIVE (Staal et al. 2004), which are available online, and the fourth data set is from local Al-Shifa (Al-Shifa 2017). , Evaluated for OD classification in this study. The actual data set images are collected by a Cannon CF-1digital retina camera. One of the contributions of the method for classifying optic nerve nipples according to an embodiment of the present invention uses an actual data set provided by Kohat (Al-Shifa 2017), a Khyber Pakhtunkhwa Eye Hospital in Pakistan. All images in the data set are in .JPEG format.

Figure pat00027
Figure pat00027

실험은 네 개의 데이터 세트에서 선택된 총 309개의 망막 이미지에 대해 수행되었다. Al-Shifa 데이터 세트는 50개의 망막 이미지로 구성되며, 그 중 10 개의 이미지에는 DR 표시가 없고, 나머지 40개의 이미지들은 DR에 대해 몇몇 표시가 있다. DIARETDB0 데이터 세트는 130개의 망막 이미지로 구성되며, 20개의 이미지에는 DR 표시가 없고 110개의 이미지에는 DR 표시가 있다. DIARETDB1 데이터 세트는 89개의 망막 이미지로 구성되며, 5개의 이미지에는 DR 표시가 없고 나머지 84개의 이미지에는 이상 징후의 표시가 있으며, DRIVE 데이터 세트에는 40개의 망막 이미지로 구성되고, 33개의 이미지에는 DR 표시가 없고 나머지 7 개의 이미지에는 이상 징후의 표시가 있다. 이미지의 해상도는 565×584 내지 1500×1152까지 다양하며, 안저 이미지는 시뮬레이션 요구 사항에 따라 256×256 픽셀에 익숙해진다. 안저 이미지의 시야는 35° 내지 50°에서 다양하며 이미지는 표 1에 표시된 대로 .JPEG 형식이다.The experiment was performed on a total of 309 retinal images selected from four data sets. The Al-Shifa data set consists of 50 retinal images, 10 of which do not have a DR mark, and the remaining 40 images have some marks for DR. The DIARETDB0 data set consists of 130 retinal images, 20 images without DR markers and 110 images with DR markers. The DIARETDB1 data set consists of 89 retinal images, 5 images have no DR mark, the remaining 84 images have signs of anomalies, the DRIVE data set consists of 40 retinal images, and 33 images have a DR mark. There is no indication of abnormality in the remaining 7 images. The resolution of the image varies from 565×584 to 1500×1152, and the fundus image is accustomed to 256×256 pixels depending on the simulation requirements. The field of view of the fundus image varies from 35° to 50° and the image is in .JPEG format as indicated in Table 1.

토론debate

이 하위 섹션에서는 네 가지 데이터 세트 모두에 대한 단계별 결과가 평가된다. 이미지 수집 및 전처리 결과는 다양한 전처리 단계를 적용한 후 망막 입력과 후속 전처리된 출력 이미지를 도시한 도 7에 나와 있다.In this subsection, step-by-step results are evaluated for all four data sets. The image collection and pre-processing results are shown in FIG. 7 showing the retinal input and subsequent pre-processed output images after applying various pre-processing steps.

사전 처리된 이미지의 분할은 오츠(Otsu) 기술을 사용하여 수행된다. Otsu의 분할 값은 필요한 것보다 적다. 목표 OD는 크기가 작고 글로벌적으로 가장 밝은 영역이기 때문에 임계 값은 다른 값의 인수로 조정되고 최종적으로 수학식 13에 주어진 바와 같이 α=3.20의 계수로 조정된다. 도 8은 향상된 Otsu 알고리즘을 적용한 전처리된 입력과 결과 이진 이미지를 도시한 것이다.Segmentation of the pre-processed image is performed using the Otsu technique. Otsu's partitioning value is less than necessary. Since the target OD is small in size and is the brightest globally, the threshold value is adjusted by a factor of another value and finally by a coefficient of α=3.20 as given in Equation 13. 8 shows a preprocessed input and result binary image to which the improved Otsu algorithm is applied.

Figure pat00028
Figure pat00028

여기서 I(x, y)는 Otsu 결과 이미지이다.Where I(x, y) is the Otsu result image.

분할 후에 OD 영역의 일부가 아닌 다른 오브젝트도 탐지되었으므로 잘못 식별된 영역을 제외하기 위해 도 9에 도시된 바와 같이 속성에 기반하여 오브젝트 영역을 분리하기 위해 수학식 4 내지 수학식 6이 적용된다.Since an object other than a part of the OD area was also detected after the division, Equations 4 to 6 are applied to separate the object area based on the attribute as shown in FIG. 9 in order to exclude the erroneously identified area.

OD 영역에 경계 픽셀을 포함시키기 위하여, 그것은 오브젝트를 확장하는 데 사용되기 때문에 확장 연산이 적용된다. 전경 영역, 즉 OD 영역에 존재하는 임의의 배경 픽셀은, 도 10에 도시된 바와 같이 닫힌 형상으로 둘러싸인 세그먼트에 대한 추적을 위해 형태학적 연산을 사용함으로써 제거되어야 한다.In order to include the bounding pixel in the OD area, the expansion operation is applied because it is used to expand the object. Any background pixels present in the foreground area, i.e. the OD area, must be removed by using morphological operations to track the segment enclosed by the closed shape as shown in FIG. 10.

Al-Shifa Trust와 DRIVE 데이터 세트에 대한 최종 OD 경계와 OD의 중앙 분류 결과가 도 11에 제시되어 있다. Al-Shifa와 DRIVE 데이터 세트 이미지가 제공하는 실제 데이터 세트에서 본 발명의 일 실시예에 의한 시신경 유두 분류 방법의 분할 및 분류 정확도는 98%와 100%이다.The final OD boundary for the Al-Shifa Trust and DRIVE data sets and the results of the central classification of OD are presented in FIG. 11. In the actual data set provided by the Al-Shifa and DRIVE data set images, the segmentation and classification accuracy of the optic nerve nipple classification method according to an embodiment of the present invention is 98% and 100%.

도 12는 DIARETDB0, DIARETDB1 데이터 세트에 대한 OD 경계와 OD의 중앙 분류 결과를 보여준다. DIARETDB0과 DIARETDB1 데이터 세트에서 본 발명의 일 실시예에 의한 시신경 유두 분류 방법의 분할 및 분류 정확도는 97%와 98%이다.12 shows the result of the OD boundary and the central classification of OD for the DIARETDB0 and DIARETDB1 data sets. In the DIARETDB0 and DIARETDB1 data sets, the segmentation and classification accuracy of the method for classifying the optic nerve papilla according to an embodiment of the present invention is 97% and 98%.

분류기의 성능Classifier performance

추출된 특징 벡터는 클래스 라벨을 규정된 테스트 데이터 세트 이미지에 할당하여 추가 분류를 위한 훈련 및 저장을 위해 클라우드의 나이브 베이즈(NB) 분류기로 전달된다. 본 발명의 일 실시예에 의한 시신경 유두 분류 방법의 성능 측정은 NB 분류기의 평가를 위한 혼동 행렬(CM: Confusion matrix)에 기반을 두고 있다. CM에서 진실 양성(TP)은 양성에 대한 그라운드(ground) 진실이 올바르게 양성으로 분류될 때를 의미하고, 거짓 양성(FP)은 음성 클래스가 양성으로 잘못 분류될 때를 의미한다. 마찬가지로 진실 음성(TN)은 그라운드 진실 음성 클래스가 정확하게 음성으로 분류될 때를 의미하며 거짓 음성(FN)은 음성 클래스가 양성으로 분류될 때를 의미한다. NB 분류기의 성능은 CM, 민감도, 특이성 및 정확도 등을 통해 측정되었다. 자세한 내용은 다음과 같다.The extracted feature vectors are passed to the cloud's Naive Bayes (NB) classifier for training and storage for further classification by assigning a class label to a defined test data set image. The performance measurement of the optic nerve nipple classification method according to an embodiment of the present invention is based on a confusion matrix (CM) for evaluation of an NB classifier. In CM, true positive (TP) means when the ground truth about positive is correctly classified as positive, and false positive (FP) means when a negative class is incorrectly classified as positive. Similarly, true negative (TN) means when the ground true negative class is correctly classified as negative, and false negative (FN) means when the negative class is classified as positive. The performance of the NB classifier was measured through CM, sensitivity, specificity and accuracy. Details are as follows.

- 민감도: 환자의 종양처럼 결과의 확률, 즉 진실 양성을 판정하는 측정이다.-Sensitivity: Like a patient's tumor, it is a measure that determines the probability of an outcome, that is, true positive.

Figure pat00029
Figure pat00029

- 특이성(Specificity): 환자가 종양을 갖지 않은 것처럼 결과의 확률, 즉 진실 음성을 결론짓는 측정.-Specificity: A measure that concludes the probability of an outcome, that is, true negative, as if the patient did not have a tumor.

Figure pat00030
Figure pat00030

- 정확도(Accuracy): 얼마나 많은 결과가 정확하게 분류되는지에 대한 확률을 결정하는 측정. 수학식은 하기와 같다:-Accuracy: A measure that determines the probability of how many results are classified correctly. The equation is as follows:

Figure pat00031
Figure pat00031

표 2는 본 발명의 일 실시예에 의한 시신경 유두 분류 방법에 의한 OD의 분류와 Al-Shifa의 4명의 안과 의사에 의한 수동 분류를 비교한 것이다. 본 발명의 일 실시예에 의한 시신경 유두 분류 방법에 의한 분류는 안과 의사의 결과와 동일한 309개의 이미지 중 303개에서 OD가 올바르게 분류되었기 때문에 98.25%의 정확도를 달성하였다.Table 2 compares the classification of OD by the method of classifying the optic nerve nipple according to an embodiment of the present invention and the manual classification by four ophthalmologists of Al-Shifa. Classification by the optic nerve nipple classification method according to an embodiment of the present invention achieved an accuracy of 98.25% because OD was correctly classified in 303 out of 309 images identical to the result of an ophthalmologist.

Figure pat00032
Figure pat00032

Al-Shifa, DIARETDB0, DIARETDB1 및 DRIVE 데이터 세트에서 본 발명의 일 실시예에 의한 시신경 유두 분류 방법의 분류 정확도는 각각 98%, 97%, 100% 및 98%이다. Al-Shifa, DIARETDB0, DIARETDB1 및 DRIVE 데이터 세트에서 50개의 이미지 중 49개의 이미지, 130개의 이미지 중 127개의 이미지, 89개의 이미지 중 87개의 이미지 및 40개의 이미지 중 40개의 이미지가 각각 올바르게 분류되었다. 303개의 안과의 결과와 비교할 때, 본 발명의 일 실시예에 의한 시신경 유두 분류 방법은 또한 표에 주어진 바와 같이 98.25%의 전체 분류 정확도를 달성했다. 즉 309개의 이미지 중 303개가 OD 클래스로 올바르게 분류되었다.In the Al-Shifa, DIARETDB0, DIARETDB1 and DRIVE data sets, the classification accuracy of the method for classifying the optic nerve papilla according to an embodiment of the present invention is 98%, 97%, 100%, and 98%, respectively. In the Al-Shifa, DIARETDB0, DIARETDB1 and DRIVE data sets, 49 of 50 images, 127 of 130 images, 87 of 89 images and 40 of 40 images were each correctly classified. Compared with the results of 303 ophthalmologists, the optic nerve nipple classification method according to an embodiment of the present invention also achieved an overall classification accuracy of 98.25% as given in the table. In other words, 303 out of 309 images were correctly classified into the OD class.

도 13은 DIARETDB0 및 DIARETDB1 데이터 세트에 대한 본 발명의 일 실시예에 의한 시신경 유두 분류 방법의 시신경 유두 분류와 Al-Shifa Trust Hospital의 안과 의사에 의한 시신경 유두 분류를 비교한 도면으로서, 도 13(a)는 안과 의사에 의한 시신경 유두 분류 결과, 도 13(b)는 본 발명의 일 실시예에 의한 시신경 유두 분류 방법에 의한 시신경 유두 분류 결과, 그리고 도 13(c)는 본 발명의 일 실시예에 의한 시신경 유두 분류 방법의 정확도를 도시한 도면이다.13 is a view comparing the classification of the optic nerve nipples in the method for classifying the optic nerve nipples according to an embodiment of the present invention for the DIARETDB0 and DIARETDB1 data sets and the classification of the optic nerve nipples by an ophthalmologist at Al-Shifa Trust Hospital, FIG. 13 (a ) Is an optic nerve nipple classification result by an ophthalmologist, FIG. 13 (b) is an optic nerve nipple classification result according to an optic nerve nipple classification method according to an embodiment of the present invention, and FIG. 13 (c) is according to an embodiment of the present invention. It is a diagram showing the accuracy of the method for classifying the optic nerve nipples.

본 발명의 일 실시예에 의한 시신경 유두 분류 방법은 표 3에 기재된 바와 같이, (Kovacs et al., 2010; Salazar-Gonzalez et al., 2014; Sopharak et al. 2008; Ullah et al. 2013; Yu et al. 2015)에 주어진 5가지의 최신 접근법들과 비교되었다. Al-Shifa, DIARETDB0, DIARETDB1 및 DRIVE의 네 가지 데이터 세트에 대한 제안된 기술의 전체 분류 정확도는 각각 98%, 97%, 98% 및 100%이며, 분류 정확도가 각각 97%, 95%, 96%, 95%, 98%인 (Kovacs et al. 2010; Salazar-Gonzalez et al. 2014; Sopharak et al. 2008; Ullah et al. 2015)에서의 기술들보다 더 양호하다.As described in Table 3, the method for classifying the optic nerve papilla according to an embodiment of the present invention is (Kovacs et al., 2010; Salazar-Gonzalez et al., 2014; Sopharak et al. 2008; Ullah et al. 2013; Yulah et al. 2013; Yulah et al. 2013; Yulah et al. 2013; et al. 2015). The total classification accuracy of the proposed technology for the four data sets Al-Shifa, DIARETDB0, DIARETDB1 and DRIVE is 98%, 97%, 98% and 100% respectively, and the classification accuracy is 97%, 95%, 96% respectively. , 95% and 98% (Kovacs et al. 2010; Salazar-Gonzalez et al. 2014; Sopharak et al. 2008; Ullah et al. 2015).

Figure pat00033
Figure pat00033

본 발명의 일 실시예에 의한 시신경 유두 분류 방법의 전체 평균 분류 정확도는 98.25%라는 점에 유의해야 한다. 도 14는 본 발명의 일 실시예에 의한 시신경 유두 분류 방법과 다른 방법들(Kovacs et al. 2010; Salazar-Gonzalez et al. 2014; Sopharak et al. 2008; Ullah et al. 2013; Yu et al. 2015)을 비교하기 위한 막대 그래프를 도시한 것이다.It should be noted that the overall average classification accuracy of the optic nerve nipple classification method according to an embodiment of the present invention is 98.25%. 14 is a method for classifying optic nerve nipples and other methods according to an embodiment of the present invention (Kovacs et al. 2010; Salazar-Gonzalez et al. 2014; Sopharak et al. 2008; Ullah et al. 2013; Yu et al. 2015) shows a bar graph for comparison.

에너지 소비 및 계산 복잡성 분석Energy consumption and computational complexity analysis

본 발명의 일 실시예에 의한 시신경 유두 분류 방법의 계산 복잡성과 에너지 소비 분석은 (Sriram and Khajeh-Hosseini 2010)의 결과로부터 통합되었다. 88.48J의 에너지는 8x8 크기의 패킷 데이터 전송에 필요하다. 표 4는 스마트폰과 모바일 클라우드 기반 OD 분할 및 분류의 세 가지 동일한 시나리오에 대한 에너지 소비를 보여준다. 완전한 오프로딩, 즉 완전한 OD 이미지의 전송은 단지 추출된 특징들만을 오프로딩하는 로컬 프로세싱과 비교하여 많은 에너지 및 높은 통신 비용을 소비한다. 시스템에서 로컬로 처리하면 전송 비용은 줄어들지만 전처리, 분할과 특징 추출 및 분류와 같은 복잡한 작업이 로컬 시스템에서 수행된다. 그럼에도 불구하고 스마트폰은 이러한 에너지 낭비 과제 수행에는 적합하지 않다. 따라서 클라우드 서버는 계산량이 많은 작업을 위해 스마트 폰을 능가하는 환경을 개선한다.The computational complexity and energy consumption analysis of the method for classifying optic nerve nipples according to an embodiment of the present invention were integrated from the results of (Sriram and Khajeh-Hosseini 2010). 88.48J of energy is required for 8x8 packet data transmission. Table 4 shows the energy consumption for three identical scenarios: smartphone and mobile cloud-based OD segmentation and classification. Complete offloading, i.e. transmission of a complete OD image, consumes a lot of energy and high communication cost compared to local processing that only offloads extracted features. Processing locally in the system reduces transmission costs, but complex tasks such as pre-processing, segmentation and feature extraction and classification are performed on the local system. Nevertheless, smartphones are not suitable for this energy waste task. Therefore, cloud servers improve the environment that surpasses smartphones for computationally intensive tasks.

Figure pat00034
Figure pat00034

결론conclusion

본 발명의 일 실시예에 의한 시신경 유두 분류 방법에서는 망막 이미지에서 OD 검출 및 분류를 위한 효율적인 모바일 클라우드 기반 분류 기법을 제안했다. 목표는 클라우드에서 주요 기능을 수행하여 기존 시스템의 계산 복잡성을 줄이는 것이다. 본 발명의 일 실시예에 의한 시신경 유두 분류 방법에서는 Otsu의 이진화 방법을 사용하여 전경 및 배경 영역으로 분할된 RGB 색상 공간에서 강도 밴드(색조, 채도 및 강도)를 추출한다. 면적, 둘레, 원형 및 중심과 같은 형상 특징을 추출하여 OD 국부화를 위한 특징 세트로 결합한다. 마지막으로, 이러한 추출된 특징은 시신경 유두 분류를 위한 클라우드의 나이브 베이즈 분류기를 훈련시키는데 사용된다. 본 발명의 일 실시예에 의한 시신경 유두 분류 방법은 낮은 계산 복잡도로 OD 분할을 위한 효율적인 분류 기법을 제공한다. 본 발명의 일 실시예에 의한 시신경 유두 분류 방법의 성능은 Al-Shifa Trust Hospital의 실제 데이터 세트를 포함한 4개의 데이터 세트에 대해 평가된다. 본 발명의 일 실시예에 의한 시신경 유두 분류 방법을 사용하여 얻은 분류 결과는 98.25%의 정확도를 제공한다는 것이 관찰되었다. 질적 및 양적 결과는 고무적이며, 본 발명의 일 실시예에 의한 시신경 유두 분류 방법은 에너지 소비 및 계산 시간을 절약함으로써 정확한 성과를 달성할 수 있다.In the method for classifying the optic nerve papilla according to an embodiment of the present invention, an efficient mobile cloud-based classification method for detecting and classifying OD in retinal images is proposed. The goal is to reduce the computational complexity of existing systems by performing key functions in the cloud. In the method for classifying optic nerve nipples according to an embodiment of the present invention, intensity bands (hue, saturation, and intensity) are extracted from an RGB color space divided into foreground and background regions using Otsu's binarization method. Shape features such as area, perimeter, circle and center are extracted and combined into a feature set for OD localization. Finally, these extracted features are used to train Cloud's Naive Bayes classifier for classifying optic nerve nipples. The optic nerve nipple classification method according to an embodiment of the present invention provides an efficient classification technique for OD segmentation with low computational complexity. The performance of the optic nerve nipple classification method according to an embodiment of the present invention is evaluated on four data sets including the actual data set of Al-Shifa Trust Hospital. It was observed that the classification result obtained by using the optic nerve nipple classification method according to an embodiment of the present invention provides an accuracy of 98.25%. The qualitative and quantitative results are encouraging, and the optic nerve nipple classification method according to an embodiment of the present invention can achieve accurate results by saving energy consumption and calculation time.

이상 본 발명을 구체적인 실시예를 통하여 상세하게 설명하였으나, 이는 본 발명을 구체적으로 설명하기 위한 것으로, 본 발명은 이에 한정되지 않으며, 본 발명의 기술적 사상 내에서 당 분야의 통상의 지식을 가진 자에 의해 그 변형이나 개량이 가능함은 명백하다고 할 것이다.Although the present invention has been described in detail through specific embodiments, this is for describing the present invention in detail, and the present invention is not limited thereto, and those of ordinary skill in the art within the technical scope of the present invention It will be said that it is clear that the transformation or improvement is possible.

본 발명의 단순한 변형 내지 변경은 모두 본 발명의 영역에 속하는 것으로, 본 발명의 구체적인 보호 범위는 첨부된 청구범위에 의하여 명확해질 것이다.All simple modifications to changes of the present invention belong to the scope of the present invention, and the specific scope of protection of the present invention will be made clear by the appended claims.

200 : 모바일 장치
202 : 클라우드 서버
204 : 로컬 시스템
200: mobile device
202: Cloud Server
204: local system

Claims (3)

(a) 로컬 시스템이 훈련용 안저 이미지를 획득하는 단계;
(b) 상기 로컬 시스템이 획득된 훈련용 안저 이미지를 전처리하는 단계;
(c) 상기 로컬 시스템이 시신경 유두(OD: Optic Disc)를 분할하는 단계;
(d) 상기 로컬 시스템이 분할된 시신경 유두 이미지에서 특징들을 추출하는 단계;
(e) 상기 로컬 시스템이 추출된 시신경 유두 특징들을 클라우드 서버로 전송하는 단계;
(f) 클라우드 서버에서 수신된 시신경 유두 특징들을 사용하여 분류기 모델을 훈련시키는 단계;
(g) 모바일 장치가 테스트 안저 이미지를 획득하는 단계;
(h) 상기 모바일 장치가 획득된 테스트 안저 이미지를 전처리하는 단계;
(i) 상기 모바일 장치가 시신경 유두(OD)를 분할하는 단계;
(j) 상기 모바일 장치가 분할된 시신경 유두 이미지에서 특징들을 추출하는 단계;
(k) 상기 모바일 장치가 추출된 시신경 유두 특징들을 클라우드 서버로 전송하는 단계;
(l) 상기 클라우드 서버가 수신된 시신경 유두 특징들을 분류기 모델의 입력으로 사용하여 시신경 유두를 분류하는 단계; 및
(m) 상기 클라우드 서버가 분류 결과를 상기 모바일 장치로 전송하는 단계를 포함하는 시신경 유두 분류 방법.
(a) obtaining a training fundus image by the local system;
(b) preprocessing, by the local system, the acquired training fundus image;
(c) dividing the optic disc (OD) by the local system;
(d) extracting features from the segmented optic nerve papillary image by the local system;
(e) transmitting, by the local system, the extracted optic nerve nipple features to a cloud server;
(f) training a classifier model using the optic nerve papillary features received from the cloud server;
(g) obtaining, by the mobile device, a test fundus image;
(h) pre-processing the acquired test fundus image by the mobile device;
(i) dividing the optic nerve nipple (OD) by the mobile device;
(j) extracting features from the segmented optic nerve papillary image by the mobile device;
(k) transmitting, by the mobile device, the extracted optic nerve nipple features to a cloud server;
(l) classifying, by the cloud server, the optic nerve nipples by using the received optic nerve nipple features as input to a classifier model; And
(m) The method of classifying an optic nerve nipple comprising the step of transmitting, by the cloud server, the classification result to the mobile device.
청구항 1에 있어서,
상기 단계 (b) 및 단계 (h)의 전처리 단계는,
(b-1) 입력 이미지를 RGB 색공간에서 HSI 색공간의 이미지로 변환하는 단계;
(b-2) 변환된 이미지의 명도 성분을 중간값 필터를 이용하여 평활화하는 단계;
(b-3) 콘트라스트 제한 적응적 히스토그램 등화를 이용하여 평활화된 이미지의 콘트라스트를 향상시키는 단계;
(b-4) 콘트라스트가 향상된 이미지를 HSI 색공간에서 RGB 색공간의 이미지로 변환하는 단계; 및
(b-5) 상기 RGB 이미지에서 녹색 채널 이미지를 추출하는 단계를 포함하는 시신경 유두 분류 방법.
The method according to claim 1,
The pretreatment steps of steps (b) and (h),
(b-1) converting the input image from an RGB color space to an HSI color space image;
(b-2) smoothing the brightness component of the converted image using an intermediate value filter;
(b-3) improving the contrast of the smoothed image using contrast-limited adaptive histogram equalization;
(b-4) converting an image with improved contrast from an HSI color space to an RGB color space image; And
(b-5) An optic nerve nipple classification method comprising the step of extracting a green channel image from the RGB image.
청구항 1에 있어서,
상기 특징들은, 시신경 유두의 형상 특징을 포함하고,
상기 시신경 유두의 형상 특징은 시신경 유두의 면적, 둘레, 원형 및 중심을 포함하는, 시신경 유두 분류 방법.
The method according to claim 1,
The features include the shape features of the optic nerve papilla,
The shape characteristic of the optic nerve nipple comprises an area, circumference, circle and center of the optic nerve nipple.
KR1020190096655A 2019-08-08 2019-08-08 Method for optic disc classification KR102282334B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190096655A KR102282334B1 (en) 2019-08-08 2019-08-08 Method for optic disc classification

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190096655A KR102282334B1 (en) 2019-08-08 2019-08-08 Method for optic disc classification

Publications (2)

Publication Number Publication Date
KR20210017429A true KR20210017429A (en) 2021-02-17
KR102282334B1 KR102282334B1 (en) 2021-07-28

Family

ID=74731875

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190096655A KR102282334B1 (en) 2019-08-08 2019-08-08 Method for optic disc classification

Country Status (1)

Country Link
KR (1) KR102282334B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116188810A (en) * 2023-04-25 2023-05-30 浙江一山智慧医疗研究有限公司 Method, device and application for extracting characteristics of optic disc

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5348982Y2 (en) 1972-07-08 1978-11-24
US20170032092A1 (en) * 2016-06-16 2017-02-02 Benjamin Franklin Mink Real Time Multispecialty Telehealth Interactive Patient Wellness Portal (IPWP)
JP2019005319A (en) * 2017-06-27 2019-01-17 株式会社トプコン Ophthalmologic information processing system, ophthalmologic information processing method, program, and recording medium
WO2019125026A1 (en) * 2017-12-20 2019-06-27 주식회사 메디웨일 Method and apparatus for assisting in diagnosis of cardiovascular disease
KR20190087272A (en) * 2018-01-16 2019-07-24 한국전자통신연구원 Method for diagnosing glaucoma using fundus image and apparatus therefor

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5348982Y2 (en) 1972-07-08 1978-11-24
US20170032092A1 (en) * 2016-06-16 2017-02-02 Benjamin Franklin Mink Real Time Multispecialty Telehealth Interactive Patient Wellness Portal (IPWP)
JP2019005319A (en) * 2017-06-27 2019-01-17 株式会社トプコン Ophthalmologic information processing system, ophthalmologic information processing method, program, and recording medium
WO2019125026A1 (en) * 2017-12-20 2019-06-27 주식회사 메디웨일 Method and apparatus for assisting in diagnosis of cardiovascular disease
KR20190087272A (en) * 2018-01-16 2019-07-24 한국전자통신연구원 Method for diagnosing glaucoma using fundus image and apparatus therefor

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116188810A (en) * 2023-04-25 2023-05-30 浙江一山智慧医疗研究有限公司 Method, device and application for extracting characteristics of optic disc

Also Published As

Publication number Publication date
KR102282334B1 (en) 2021-07-28

Similar Documents

Publication Publication Date Title
Gupta et al. Diabetic retinopathy: Present and past
Veena et al. A novel optic disc and optic cup segmentation technique to diagnose glaucoma using deep learning convolutional neural network over retinal fundus images
Akbar et al. Automated techniques for blood vessels segmentation through fundus retinal images: A review
Gegundez-Arias et al. Locating the fovea center position in digital fundus images using thresholding and feature extraction techniques
Ramakanth et al. Approximate nearest neighbour field based optic disk detection
Mittal et al. Computerized retinal image analysis-a survey
CN106228566A (en) Automatically detection and the recognition methods of retinal microaneurysm based on the loud analysis of gradient
Calimeri et al. Optic disc detection using fine tuned convolutional neural networks
CN113012093B (en) Training method and training system for glaucoma image feature extraction
Ahmed et al. High speed detection of optical disc in retinal fundus image
Salih et al. Fast optic disc segmentation using FFT-based template-matching and region-growing techniques
de Moura et al. Automatic identification of intraretinal cystoid regions in optical coherence tomography
Zhao et al. Attention residual convolution neural network based on U-net (AttentionResU-Net) for retina vessel segmentation
Ashok et al. Detection of retinal area from scanning laser ophthalmoscope images (SLO) using deep neural network
Ramasubramanian et al. A Comprehensive Analysis of Various Delineation method for Exudates in Fundus Images using Miniaturized Pi Board
Bouacheria et al. Automatic glaucoma screening using optic nerve head measurements and random forest classifier on fundus images
KR102282334B1 (en) Method for optic disc classification
Ullaha et al. Optic disc segmentation and classification in color fundus images: a resource-aware healthcare service in smart cities
Elbalaoui et al. Exudates detection in fundus images using mean-shift segmentation and adaptive thresholding
Krishnamoorthi et al. Hybrid feature vector based detection of Glaucoma
Shyla et al. Glaucoma detection using multiple feature set with recurrent neural network
Hanđsková et al. Diabetic rethinopathy screening by bright lesions extraction from fundus images
Maity et al. Fusion of entropy-based thresholding and active contour model for detection of exudate and optic disc in color fundus images
Kumari et al. Automated process for retinal image segmentation and classification via deep learning based cnn model
Sharma et al. A system for grading diabetic maculopathy severity level

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant