KR20230041867A - Apparatus and method for analysis of retinal disease based on deep learning - Google Patents

Apparatus and method for analysis of retinal disease based on deep learning Download PDF

Info

Publication number
KR20230041867A
KR20230041867A KR1020210124706A KR20210124706A KR20230041867A KR 20230041867 A KR20230041867 A KR 20230041867A KR 1020210124706 A KR1020210124706 A KR 1020210124706A KR 20210124706 A KR20210124706 A KR 20210124706A KR 20230041867 A KR20230041867 A KR 20230041867A
Authority
KR
South Korea
Prior art keywords
retinal
deep learning
pigment
net
retinal pigment
Prior art date
Application number
KR1020210124706A
Other languages
Korean (ko)
Other versions
KR102623722B1 (en
Inventor
박강령
알사란
박찬흠
Original Assignee
동국대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 동국대학교 산학협력단 filed Critical 동국대학교 산학협력단
Priority to KR1020210124706A priority Critical patent/KR102623722B1/en
Publication of KR20230041867A publication Critical patent/KR20230041867A/en
Application granted granted Critical
Publication of KR102623722B1 publication Critical patent/KR102623722B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/12Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Physics & Mathematics (AREA)
  • Veterinary Medicine (AREA)
  • Radiology & Medical Imaging (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Ophthalmology & Optometry (AREA)
  • Biophysics (AREA)
  • Primary Health Care (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Molecular Biology (AREA)
  • Epidemiology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Pathology (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

The present invention relates to retinal disease diagnosis technology. More specifically, provided are a device and method for diagnosing retinal diseases based on deep learning. According to an embodiment of the present invention, retinal pigments can be detected with high accuracy through deep learning-based retinal pigment detection. Retinal diseases can be diagnosed only with retinal fundus imaging without separate ophthalmic diagnosis equipment.

Description

딥러닝 기반의 망막 질환 진단 장치 및 방법{APPARATUS AND METHOD FOR ANALYSIS OF RETINAL DISEASE BASED ON DEEP LEARNING}Apparatus and method for diagnosing retinal diseases based on deep learning {APPARATUS AND METHOD FOR ANALYSIS OF RETINAL DISEASE BASED ON DEEP LEARNING}

본 발명은 망막 질환 진단 기술에 관한 것으로, 더욱 상세하게는 딥러닝 기반의 망막 질환 진단 장치 및 방법에 관한 것이다.The present invention relates to retinal disease diagnosis technology, and more particularly, to a deep learning-based retinal disease diagnosis device and method.

유전성 망막 질환(IRD)은 광수용체의 점진적인 악화를 일으키는 유전 질환으로, 망막색소상피세포가 변성되면서 시력이 영구적으로 소실되는 진행성 질환이다. 그 중에서, 색소성 망막염(RP)은 지속적인 망막 색소 저하로 인해 초기에 야맹증 또는 말초 시력 상실을 발생시킬 수 있고, 제한된 시야(VF)의 증상과 완전한 시력 상실로 이어지는 시력 감소를 나타낼 수 있어 조기 발견 및 조기 치료가 필수적인 질환이다. Hereditary retinal disease (IRD) is a genetic disease that causes gradual deterioration of photoreceptors, and is a progressive disease in which visual acuity is permanently lost as retinal pigment epithelial cells are degenerated. Among them, retinitis pigmentosa (RP) can cause night blindness or loss of peripheral vision in the early stages due to continuous retinal pigment degradation, and can show symptoms of limited visual fields (VF) and reduced vision leading to complete vision loss, leading to early detection. And it is a disease in which early treatment is essential.

이러한 망막 질환의 진단을 위해 일반적으로 컴퓨터 이용 진단(CAD)을 기반으로 한 망막색소 침착 검출 방법이 사용되고 있다. 하지만, 대부분의 망막색소 침착 검출 기술은 고가의 광간섭 단층촬영장비(OCT)를 사용하고 있어 많은 비용이 소모될 수 있다.For the diagnosis of these retinal diseases, a retinal pigmentation detection method based on computer aided diagnosis (CAD) is generally used. However, most retinal pigmentation detection technologies use expensive optical coherence tomography (OCT), which can be costly.

본 발명의 배경기술은 대한민국 등록특허 제10-1887375호에 게시되어 있다.The background art of the present invention is published in Korean Patent Registration No. 10-1887375.

본 발명은 딥러닝 기반의 망막색소 검출을 통해 높은 정확도로 망막색소를 검출할 수 있는 딥러닝 기반의 망막 질환 진단 장치 및 방법을 제공한다. The present invention provides a deep learning-based retinal disease diagnosis apparatus and method capable of detecting retinal pigments with high accuracy through deep learning-based retinal pigment detection.

본 발명은 별도의 안과 진단 장비 없이 망막 안저 영상만으로 망막 질환을 진단할 수 있는 딥러닝 기반의 망막 질환 진단 장치 및 방법을 제공한다. The present invention provides an apparatus and method for diagnosing retinal diseases based on deep learning that can diagnose retinal diseases only with retinal fundus images without separate ophthalmic diagnosis equipment.

본 발명이 이루고자 하는 기술적 과제는 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problem to be achieved by the present invention is not limited to the above-mentioned technical problem, and other technical problems not mentioned can be clearly understood by those skilled in the art from the description below. There will be.

본 발명의 일 측면에 따르면, 딥러닝 기반의 망막 질환 진단 장치가 제공된다.According to one aspect of the present invention, a device for diagnosing retinal diseases based on deep learning is provided.

본 발명의 일 실시 예에 따른 딥러닝 기반의 망막 질환 진단 장치는 망막 안저 영상을 입력 받는 입력부, 딥러닝을 기반으로 망막 안저 영상에 대한 픽셀(pixel) 단위의 객체 분류를 수행하여 망막색소를 검출하는 망막색소검출부 및 검출된 망막색소를 기반으로 망막 질환 여부를 진단하는 진단부를 포함할 수 있다.An apparatus for diagnosing retinal diseases based on deep learning according to an embodiment of the present invention detects retinal pigments by performing pixel-based object classification on retinal fundus images based on an input unit that receives retinal fundus images and deep learning. It may include a retinal pigment detection unit and a diagnostic unit for diagnosing whether or not there is a retinal disease based on the detected retinal pigment.

본 발명의 다른 일 측면에 따르면, 딥러닝 기반의 망막 질환 진단 방법이 제공된다.According to another aspect of the present invention, a method for diagnosing retinal diseases based on deep learning is provided.

본 발명의 일 실시 예에 따른 딥러닝 기반의 망막 질환 진단 방법은 망막 안저 영상을 입력 받는 단계, 딥러닝을 기반으로 망막 안저 영상에 대한 픽셀(pixel) 단위의 객체 분류를 수행하여 망막색소를 검출하는 단계 및 검출된 망막색소를 기반으로 망막 질환 여부를 진단하는 단계를 포함할 수 있다.A method for diagnosing retinal diseases based on deep learning according to an embodiment of the present invention includes receiving a retinal fundus image and detecting retinal pigments by performing pixel-based object classification on the retinal fundus image based on deep learning. and diagnosing a retinal disease based on the detected retinal pigment.

본 발명의 실시 예에 따르면, 딥러닝 기반의 망막색소 검출을 통해 높은 정확도로 망막색소를 검출할 수 있다.According to an embodiment of the present invention, retinal pigments can be detected with high accuracy through deep learning-based retinal pigment detection.

또한, 본 발명의 실시 예에 따르면, 별도의 안과 진단 장비 없이 망막 안저 영상만으로 망막 질환을 진단할 수 있다.In addition, according to an embodiment of the present invention, retinal diseases can be diagnosed only with retinal fundus images without separate ophthalmic diagnosis equipment.

본 발명의 효과는 상기한 효과로 한정되는 것은 아니며, 본 발명의 설명 또는 청구범위에 기재된 발명의 구성으로부터 추론 가능한 모든 효과를 포함하는 것으로 이해되어야 한다.The effects of the present invention are not limited to the above effects, and should be understood to include all effects that can be inferred from the description of the present invention or the configuration of the invention described in the claims.

도 1 내지 도 6은 본 발명의 일 실시 예에 따른 딥러닝 기반의 망막 질환 진단 장치를 설명하기 위한 도면들.
도 7은 본 발명의 일 실시 예에 따른 딥러닝 기반의 망막 질환 진단 방법을 설명하기 위한 도면.
도 8 내지 도 10은 본 발명의 일 실시 예에 따른 딥러닝 기반의 망막 질환 진단 장치의 망막색소 검출 성능을 예시한 도면들.
1 to 6 are diagrams for explaining an apparatus for diagnosing retinal diseases based on deep learning according to an embodiment of the present invention.
7 is a view for explaining a method for diagnosing retinal diseases based on deep learning according to an embodiment of the present invention.
8 to 10 are diagrams illustrating retinal pigment detection performance of the deep learning-based retinal disease diagnosis apparatus according to an embodiment of the present invention.

이하에서는 첨부한 도면을 참조하여 본 발명을 설명하기로 한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며, 따라서 여기에서 설명하는 실시예로 한정되는 것은 아니다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, the present invention will be described with reference to the accompanying drawings. However, the present invention may be embodied in many different forms and, therefore, is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결(접속, 접촉, 결합)"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 부재를 사이에 두고 "간접적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 구비할 수 있다는 것을 의미한다.Throughout the specification, when a part is said to be "connected (connected, contacted, combined)" with another part, this is not only "directly connected", but also "indirectly connected" with another member in between. "Including cases where In addition, when a part "includes" a certain component, it means that it may further include other components without excluding other components unless otherwise stated.

본 명세서에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Terms used in this specification are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, terms such as "include" or "have" are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, but one or more other features It should be understood that the presence or addition of numbers, steps, operations, components, parts, or combinations thereof is not precluded.

도 1 내지 도 6은 본 발명의 일 실시 예에 따른 딥러닝 기반의 망막 질환 진단 장치를 설명하기 위한 도면들이다.1 to 6 are diagrams for explaining an apparatus for diagnosing retinal diseases based on deep learning according to an embodiment of the present invention.

도 1을 참조하면, 딥러닝 기반의 망막 질환 진단 장치(100)는 입력부(110), 망막색소검출부(130) 및 진단부(150)를 포함한다. Referring to FIG. 1 , the deep learning-based retinal disease diagnosis apparatus 100 includes an input unit 110, a retinal pigment detection unit 130, and a diagnosis unit 150.

입력부(110)는 망막 안저 영상(retinal fundus images)을 입력 받는다. 여기서, 망막 안저 영상은 망막, 망막 혈관, 시신경유두 및 맥락막 중 적어도 하나를 포함할 수 있다. The input unit 110 receives retinal fundus images. Here, the retinal fundus image may include at least one of the retina, retinal blood vessels, the optic disc, and the choroid.

망막색소검출부(130)는 딥러닝을 기반으로 망막 안저 영상에 대한 픽셀(pixel) 단위의 객체 분류를 수행하여 망막색소를 검출한다. 구체적으로, 망막색소검출부(130)는 기학습된 신경망인 SSF-Net(single spatial fusion network) 또는 TSF-Net(triplet spatial fusion network) 중 적어도 하나의 모델을 이용하여 객체 분류를 수행한다. 여기서, SSF-Net 및 TSF-Net 모델은 객체 분류 기법인 semantic segmentation에 특화된 모델이다. The retinal pigment detection unit 130 detects retinal pigments by performing pixel-unit object classification on the retinal fundus image based on deep learning. Specifically, the retinal pigment detector 130 performs object classification using at least one model of a pre-learned neural network such as a single spatial fusion network (SSF-Net) or a triplet spatial fusion network (TSF-Net). Here, the SSF-Net and TSF-Net models are models specialized for semantic segmentation, an object classification technique.

도 2 및 도 3을 참조하면, SSF-Net는 3개의 특징맵 스케일(feature map scales)인 스케일-1(Scale-1), 스케일-2(Scale-2) 및 스케일-4(Scale-4)에서 확장된 컨볼루션(Dilated Convolution)을 사용하여 객체 분류를 수행한다. 구체적으로, SSF-Net는 스케일-1(Scale-1)에서 확장 팩터(dilation factor) 및 스트라이드(stride)를 1로 적용하여 특징맵(feature map)을 입력 영상의 절반 크기로 생성하고, 스케일-2(Scale-2)에서 확장 팩터(dilation factor) 및 스트라이드(stride)를 2로 적용하여 특징맵을 입력 영상의 1/4 크기로 생성하고, 스케일-4(Scale-4)에서 확장 팩터(dilation factor) 및 스트라이드(stride)를 4로 적용하여 특징맵을 입력 영상의 1/8 크기로 생성한다. 총 3개의 특징맵 스케일은 스킵 연결(skip connection)을 통해 융합(fusion)된다. 이 때, SSF-Net는 3개의 스케일을 나타내는

Figure pat00001
,
Figure pat00002
Figure pat00003
와 스킵 연결 특징인
Figure pat00004
을 융합하여 아래의 수학식 1과 같이
Figure pat00005
를 생성한다.Referring to FIGS. 2 and 3, SSF-Net has three feature map scales, Scale-1, Scale-2, and Scale-4. In , object classification is performed using Dilated Convolution. Specifically, SSF-Net generates a feature map half the size of the input image by applying a dilation factor and stride to 1 in Scale-1, and scale-1. By applying a dilation factor and a stride of 2 at 2 (Scale-2), a feature map is created with a size of 1/4 of the input image, and a dilation factor at Scale-4 (dilation factor) and stride of 4 to create a feature map with a size of 1/8 of the input image. A total of three feature map scales are fused through skip connection. At this time, SSF-Net represents three scales.
Figure pat00001
,
Figure pat00002
and
Figure pat00003
Characterized by a skip connection with
Figure pat00004
By fusion, as shown in Equation 1 below
Figure pat00005
generate

[수학식 1][Equation 1]

Figure pat00006
=
Figure pat00007
Figure pat00008
+
Figure pat00009
,
Figure pat00006
=
Figure pat00007
Figure pat00008
+
Figure pat00009
,

SSF-Net는 생성된

Figure pat00010
의 마지막 단계에서 픽셀 분류(pixel classification)를 통해 망막색소 검출을 수행한다. 최종적으로, 망막색소검출부(130)는 SSF-Net를 이용하여 검출된 망막색소를 기반으로 입력 영상에서 색소(pigment) 및 배경(background)이 구분된 마스크를 생성한다. 도 4 내지 도 6을 참조하면, TSF-Net는 SSF-Net와 동일하게 3개의 특징맵 스케일(feature map scales)에서 확장된 컨볼루션(Dilated Convolution)을 사용하여 객체 분류를 수행한다. 구체적으로, TSF-Net는 스케일-1(Scale-1)에서 확장 팩터(dilation factor) 및 스트라이드(stride)를 1로 적용하여 특징맵(feature map)을 입력 영상의 절반 크기로 생성하고, 스케일-2(Scale-2)에서 확장 팩터(dilation factor) 및 스트라이드(stride)를 2로 적용하여 특징맵을 입력 영상의 1/4 크기로 생성하고, 스케일-4(Scale-4)에서 확장 팩터(dilation factor) 및 스트라이드(stride)를 4로 적용하여 특징맵을 입력 영상의 1/8 크기로 생성한다. SSF-Net generated
Figure pat00010
In the last step of , retinal pigment detection is performed through pixel classification. Finally, the retinal pigment detection unit 130 generates a mask in which pigment and background are separated from the input image based on the detected retinal pigment using the SSF-Net. Referring to FIGS. 4 to 6 , TSF-Net performs object classification using dilated convolution on three feature map scales like SSF-Net. Specifically, TSF-Net generates a feature map half the size of the input image by applying a dilation factor and a stride of 1 in Scale-1, and scale-1. By applying a dilation factor and a stride of 2 at 2 (Scale-2), a feature map is created with a size of 1/4 of the input image, and a dilation factor at Scale-4 (dilation factor) and stride of 4 to create a feature map with a size of 1/8 of the input image.

여기서, TSF-Net는 총 3개의 특징맵 스케일은 스킵 연결(skip connection)을 통해 융합(fusion)되며, 이 때, TSF-Net는 SSF-Net와 달리 총 3번의 융합(fusions)을 통해 EF(early fusion), IF(intermediate fusion) 및 LF(late fusion)을 생성하여 최종적으로 아래의 수학식 2와 같이

Figure pat00011
를 생성한다. Here, in the TSF-Net, a total of three feature map scales are fused through skip connection. At this time, unlike the SSF-Net, the TSF-Net achieves EF ( early fusion), IF (intermediate fusion), and LF (late fusion) are finally generated as shown in Equation 2 below
Figure pat00011
generate

[수학식 2][Equation 2]

Figure pat00012
=
Figure pat00013
Figure pat00012
=
Figure pat00013

이를 통해, TSF-Net는 각 스케일의 공간 정보(spatial information)를 강화하여 정확도 높은 망막색소 검출을 수행할 수 있다. Through this, TSF-Net can perform retinal pigment detection with high accuracy by enhancing spatial information of each scale.

TSF-Net는 생성된

Figure pat00014
의 마지막 단계에서 픽셀 분류(pixel classification)를 통해 망막색소 검출을 수행한다.TSF-Net is generated
Figure pat00014
In the last step of , retinal pigment detection is performed through pixel classification.

최종적으로, 망막색소검출부(130)는 TSF-Net를 이용하여 검출된 망막색소를 기반으로 입력 영상에서 색소(pigment) 및 배경(background)이 구분된 마스크(mask)를 생성한다. Finally, the retinal pigment detection unit 130 creates a mask in which pigment and background are separated from the input image based on the detected retinal pigment using the TSF-Net.

진단부(150)는 검출된 망막색소를 기반으로 망막 질환 여부를 진단한다. 구체적으로, 진단부(150)는 아래의 수학식 3과 같이 색소의 픽셀 수(Number of pigment pixels)를 배경 픽셀 수(Number of non-pigment pixels)로 나눈 망막색소 비율(

Figure pat00015
)을 계산하여 망막 질환의 진단을 수행한다. The diagnosis unit 150 diagnoses retinal disease based on the detected retinal pigment. Specifically, the diagnosis unit 150 divides the number of pigment pixels by the number of background pixels (Number of non-pigment pixels) as shown in Equation 3 below.
Figure pat00015
) is calculated to perform diagnosis of retinal disease.

[수학식 3][Equation 3]

Figure pat00016
=
Figure pat00017
Figure pat00016
=
Figure pat00017

이 때, 진단부(150)는 계산된 망막색소 비율이 미리 설정된 임계 값보다 크면 망막 질환으로 진단할 수 있다. At this time, the diagnosis unit 150 may diagnose a retinal disease if the calculated retinal pigment ratio is greater than a preset threshold value.

도 7은 본 발명의 일 실시 예에 따른 딥러닝 기반의 망막 질환 진단 방법을 설명하기 위한 도면이다.7 is a diagram for explaining a method for diagnosing retinal diseases based on deep learning according to an embodiment of the present invention.

도 7을 참조하면, S710에서 딥러닝 기반의 망막 질환 진단 장치(100)는 망막 안저 영상(retinal fundus images)을 입력 받는다. 여기서, 망막 안저 영상은 망막, 망막 혈관, 시신경유두 및 맥락막 중 적어도 하나를 포함할 수 있다. Referring to FIG. 7 , the apparatus 100 for diagnosing retinal diseases based on deep learning in S710 receives retinal fundus images. Here, the retinal fundus image may include at least one of the retina, retinal blood vessels, the optic disc, and the choroid.

S730에서 딥러닝 기반의 망막 질환 진단 장치(100)는 딥러닝을 기반으로 망막 안저 영상에 대한 픽셀(pixel) 단위의 객체 분류를 수행하여 망막색소를 검출한다. 구체적으로, 딥러닝 기반의 망막 질환 진단 장치(100)는 기학습된 신경망인 SSF-Net(single spatial fusion network) 또는 TSF-Net(triplet spatial fusion network) 중 적어도 하나의 모델을 이용하여 객체 분류를 수행한다. 여기서, SSF-Net 및 TSF-Net 모델은 객체 분류 기법인 semantic segmentation에 특화된 모델이다. In S730, the apparatus for diagnosing retinal diseases based on deep learning 100 detects retinal pigments by performing pixel-based object classification on retinal fundus images based on deep learning. Specifically, the deep learning-based retinal disease diagnosis apparatus 100 uses at least one model of a pre-learned neural network such as a single spatial fusion network (SSF-Net) or a triplet spatial fusion network (TSF-Net) to classify objects carry out Here, the SSF-Net and TSF-Net models are models specialized for semantic segmentation, an object classification technique.

SSF-Net는 3개의 특징맵 스케일(feature map scales)인 스케일-1(Scale-1), 스케일-2(Scale-2) 및 스케일-4(Scale-4)에서 확장된 컨볼루션(Dilated Convolution)을 사용하여 객체 분류를 수행한다. 구체적으로, SSF-Net는 스케일-1(Scale-1)에서 확장 팩터(dilation factor) 및 스트라이드(stride)를 1로 적용하여 특징맵(feature map)을 입력 영상의 절반 크기로 생성하고, 스케일-2(Scale-2)에서 확장 팩터(dilation factor) 및 스트라이드(stride)를 2로 적용하여 특징맵을 입력 영상의 1/4 크기로 생성하고, 스케일-4(Scale-4)에서 확장 팩터(dilation factor) 및 스트라이드(stride)를 4로 적용하여 특징맵을 입력 영상의 1/8 크기로 생성한다. 총 3개의 특징맵 스케일은 스킵 연결(skip connection)을 통해 융합(fusion)된다. 이 때, SSF-Net는 3개의 스케일을 나타내는

Figure pat00018
,
Figure pat00019
Figure pat00020
와 스킵 연결 특징인
Figure pat00021
을 융합한다. SSF-Net는 생성된
Figure pat00022
의 마지막 단계에서 픽셀 분류(pixel classification)를 통해 망막색소 검출을 수행한다. 최종적으로, 딥러닝 기반의 망막 질환 진단 장치(100)는 SSF-Net를 이용하여 검출된 망막색소를 기반으로 입력 영상에서 색소(pigment) 및 배경(background)이 구분된 마스크를 생성한다. SSF-Net is a Dilated Convolution on three feature map scales, Scale-1, Scale-2 and Scale-4. to perform object classification. Specifically, SSF-Net generates a feature map half the size of the input image by applying a dilation factor and stride to 1 in Scale-1, and scale-1. By applying a dilation factor and a stride of 2 at 2 (Scale-2), a feature map is created with a size of 1/4 of the input image, and a dilation factor at Scale-4 (dilation factor) and stride of 4 to create a feature map with a size of 1/8 of the input image. A total of three feature map scales are fused through skip connection. At this time, SSF-Net represents three scales.
Figure pat00018
,
Figure pat00019
and
Figure pat00020
Characterized by a skip connection with
Figure pat00021
to fuse SSF-Net generated
Figure pat00022
In the last step of , retinal pigment detection is performed through pixel classification. Finally, the deep learning-based retinal disease diagnosis apparatus 100 generates a mask in which a pigment and a background are separated from an input image based on the detected retinal pigment using SSF-Net.

TSF-Net는 SSF-Net와 동일하게 3개의 특징맵 스케일(feature map scales)에서 확장된 컨볼루션(Dilated Convolution)을 사용하여 객체 분류를 수행한다. 구체적으로, TSF-Net는 스케일-1(Scale-1)에서 확장 팩터(dilation factor) 및 스트라이드(stride)를 1로 적용하여 특징맵(feature map)을 입력 영상의 절반 크기로 생성하고, 스케일-2(Scale-2)에서 확장 팩터(dilation factor) 및 스트라이드(stride)를 2로 적용하여 특징맵을 입력 영상의 1/4 크기로 생성하고, 스케일-4(Scale-4)에서 확장 팩터(dilation factor) 및 스트라이드(stride)를 4로 적용하여 특징맵을 입력 영상의 1/8 크기로 생성한다. Like SSF-Net, TSF-Net performs object classification using Dilated Convolution on three feature map scales. Specifically, TSF-Net generates a feature map half the size of the input image by applying a dilation factor and a stride of 1 in Scale-1, and scale-1. By applying a dilation factor and a stride of 2 at 2 (Scale-2), a feature map is created with a size of 1/4 of the input image, and a dilation factor at Scale-4 (dilation factor) and stride of 4 to create a feature map with a size of 1/8 of the input image.

여기서, TSF-Net는 총 3개의 특징맵 스케일은 스킵 연결(skip connection)을 통해 융합(fusion)되며, 이 때, TSF-Net는 SSF-Net와 달리 총 3번의 융합(fusions)을 통해 EF(early fusion), IF(intermediate fusion) 및 LF(late fusion)을 생성하여 최종적으로

Figure pat00023
를 생성한다. 이를 통해, TSF-Net는 각 스케일의 공간 정보(spatial information)를 강화하여 정확도 높은 망막색소 검출을 수행할 수 있다. Here, in the TSF-Net, a total of three feature map scales are fused through skip connection. At this time, unlike the SSF-Net, the TSF-Net achieves EF ( early fusion), IF (intermediate fusion) and LF (late fusion), and finally
Figure pat00023
generate Through this, TSF-Net can perform retinal pigment detection with high accuracy by enhancing spatial information of each scale.

TSF-Net는 생성된

Figure pat00024
의 마지막 단계에서 픽셀 분류(pixel classification)를 통해 망막색소 검출을 수행한다.TSF-Net is generated
Figure pat00024
In the last step of , retinal pigment detection is performed through pixel classification.

최종적으로, 딥러닝 기반의 망막 질환 진단 장치(100)는 TSF-Net를 이용하여 검출된 망막색소를 기반으로 입력 영상에서 색소(pigment) 및 배경(background)이 구분된 마스크(mask)를 생성한다. Finally, the deep learning-based retinal disease diagnosis apparatus 100 creates a mask in which pigment and background are separated from the input image based on the detected retinal pigment using TSF-Net. .

S750에서 딥러닝 기반의 망막 질환 진단 장치(100)는 검출된 망막색소를 기반으로 망막 질환 여부를 진단한다. 구체적으로, 딥러닝 기반의 망막 질환 진단 장치(100)는 색소의 픽셀 수(Number of pigment pixels)를 배경 픽셀 수(Number of non-pigment pixels)로 나눈 망막색소 비율(

Figure pat00025
)을 계산하여 망막 질환의 진단을 수행한다. In S750, the deep learning-based retinal disease diagnosis apparatus 100 diagnoses retinal disease based on the detected retinal pigment. Specifically, the deep learning-based retinal disease diagnosis apparatus 100 divides the number of pigment pixels by the number of background pixels (Number of non-pigment pixels), and the retinal pigment ratio (
Figure pat00025
) is calculated to perform diagnosis of retinal disease.

이 때, 딥러닝 기반의 망막 질환 진단 장치(100)는 계산된 망막색소 비율이 미리 설정된 임계 값보다 크면 망막 질환으로 진단할 수 있다. At this time, the deep learning-based retinal disease diagnosis apparatus 100 may diagnose a retinal disease when the calculated retinal pigment ratio is greater than a preset threshold value.

도 8 내지 도 10은 본 발명의 일 실시 예에 따른 딥러닝 기반의 망막 질환 진단 장치의 망막색소 검출 성능을 예시한 도면들이다.8 to 10 are diagrams illustrating retinal pigment detection performance of the deep learning-based retinal disease diagnosis apparatus according to an embodiment of the present invention.

여기서, 딥러닝 기반의 망막 질환 진단 장치(100)는 오픈 데이터베이스인 RIPS(Retinal Images for Pigment Signs)를 이용하여 망막색소 검출 성능 평가를 진행하였다. RIPS 데이터베이스는 1440×2160 픽셀 해상도의 안저 카메라를 통해 생성된 영상을 포함하며, 4명의 망막 안저 영상이 30개씩 구성되어 총 120개의 영상을 포함한다.Here, the retinal disease diagnosis apparatus 100 based on deep learning proceeded with retinal pigment detection performance evaluation using an open database, RIPS (Retinal Images for Pigment Signs). The RIPS database includes images generated by a fundus camera with a resolution of 1440 × 2160 pixels, and includes 30 retinal fundus images of 4 people, totaling 120 images.

도 8을 참조하면, 오픈 데이터베이스를 이용하여 망막색소 검출을 수행한 결과, 딥러닝 기반의 망막 질환 진단 장치(100)는 망막 안저 영상(a)에서 전문 안과의가 수동으로 검출한 마스크(b)와 일치하는 마스크(c,d)를 생성하는 것을 확인할 수 있다.Referring to FIG. 8 , as a result of performing retinal pigment detection using an open database, the deep learning-based retinal disease diagnosis apparatus 100 has a mask (b) and a mask (b) manually detected by a professional ophthalmologist in a retinal fundus image (a). You can see that it creates matching masks (c,d).

도 9 및 도 10을 참조하면, SSF-Net 및 TSF-Net을 포함한 다양한 망막색소 검출 방법을 통해 생성된 마스크에 대해 민감도(Se), 특이도(Sp), 정밀도(Pr), F-스코어(F-Score) 및 정확도(Acc)를 측정한 결과, SSF-Net 및 TSF-Net를 통해 생성된 측정값이 기존의 영상 예측 방법들보다 높은 것으로 확인되었다. 이를 통해, 본 발명의 일 실시 예에 따른 딥러닝 기반의 망막 질환 진단 장치(100)의 망막색소 검출 성능이 우수함을 확인할 수 있다. 9 and 10, sensitivity (Se), specificity (Sp), precision (Pr), F-score ( As a result of measuring F-Score) and accuracy (Acc), it was confirmed that the measured values generated through SSF-Net and TSF-Net were higher than those of existing image prediction methods. Through this, it can be confirmed that the retinal pigment detection performance of the deep learning-based retinal disease diagnosis apparatus 100 according to an embodiment of the present invention is excellent.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The above description of the present invention is for illustrative purposes, and those skilled in the art can understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present invention. will be. Therefore, the embodiments described above should be understood as illustrative in all respects and not limiting. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as distributed may be implemented in a combined form.

본 발명의 범위는 후술하는 청구범위에 의하여 나타내어지며, 청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is indicated by the following claims, and all changes or modifications derived from the meaning and scope of the claims and equivalent concepts should be interpreted as being included in the scope of the present invention.

Claims (9)

딥러닝 기반의 망막 질환 진단 장치에 있어서,
망막 안저 영상을 입력 받는 입력부;
딥러닝을 기반으로 상기 망막 안저 영상에 대한 픽셀(pixel) 단위의 객체 분류를 수행하여 망막색소를 검출하는 망막색소검출부; 및
상기 검출된 망막색소를 기반으로 망막 질환 여부를 진단하는 진단부를 포함하는 딥러닝 기반의 망막 질환 진단 장치.
In the deep learning-based retinal disease diagnosis device,
an input unit for receiving a retina fundus image;
a retinal pigment detection unit that detects retinal pigments by performing pixel-based object classification on the retinal fundus image based on deep learning; and
A deep learning-based retinal disease diagnosis device comprising a diagnostic unit for diagnosing whether or not there is a retinal disease based on the detected retinal pigment.
제1항에 있어서,
상기 망막색소검출부는
기학습된 신경망인 SSF-Net(single spatial fusion network) 또는 TSF-Net(triplet spatial fusion network) 중 적어도 하나의 모델을 이용하여 망막색소를 검출하는 딥러닝 기반의 망막 질환 진단 장치.
According to claim 1,
The retinal pigment detection unit
A deep learning-based retinal disease diagnosis device for detecting retinal pigments using at least one model of a pre-learned neural network, SSF-Net (single spatial fusion network) or TSF-Net (triplet spatial fusion network).
제2항에 있어서,
상기 망막색소검출부는
상기 검출된 망막색소를 기반으로 입력 영상에서 색소(pigment) 및 배경(background)이 구분된 마스크(mask)를 생성하는 딥러닝 기반의 망막 질환 진단 장치.
According to claim 2,
The retinal pigment detection unit
A deep learning-based retinal disease diagnosis device that generates a mask in which pigment and background are separated from an input image based on the detected retinal pigment.
제1항에 있어서,
상기 진단부는
망막색소의 픽셀 수를 배경 픽셀 수로 나눈 망막색소 비율을 계산하여 상기 망막색소 비율이 미리 설정된 임계 값보다 크면 망막 질환으로 진단하는 딥러닝 기반의 망막 질환 진단 장치.
According to claim 1,
The diagnosis department
A deep learning-based retinal disease diagnosis device that calculates a retinal pigment ratio by dividing the number of pixels of retinal pigment by the number of background pixels and diagnoses a retinal disease when the retinal pigment ratio is greater than a preset threshold value.
딥러닝 기반의 망막 질환 진단 방법에 있어서,
망막 안저 영상을 입력 받는 단계;
딥러닝을 기반으로 상기 망막 안저 영상에 대한 픽셀(pixel) 단위의 객체 분류를 수행하여 망막색소를 검출하는 단계; 및
상기 검출된 망막색소를 기반으로 망막 질환 여부를 진단하는 단계를 포함하는 포함하는 딥러닝 기반의 망막 질환 진단 방법.
In the method for diagnosing retinal diseases based on deep learning,
Receiving a retinal fundus image as an input;
detecting retinal pigments by performing pixel-based object classification on the retinal fundus image based on deep learning; and
Deep learning-based retinal disease diagnosis method comprising the step of diagnosing whether or not there is a retinal disease based on the detected retinal pigment.
제5항에 있어서,
상기 망막색소를 검출하는 단계는
기학습된 신경망인 SSF-Net(single spatial fusion network) 또는 TSF-Net(triplet spatial fusion network) 중 적어도 하나의 모델을 이용하여 망막색소를 검출하는 딥러닝 기반의 망막 질환 진단 방법.
According to claim 5,
The step of detecting the retinal pigment
A deep learning-based retinal disease diagnosis method for detecting retinal pigments using at least one model of a pre-learned neural network, SSF-Net (single spatial fusion network) or TSF-Net (triplet spatial fusion network).
제6항에 있어서,
상기 망막색소를 검출하는 단계는
상기 검출된 망막색소를 기반으로 입력 영상에서 색소(pigment) 및 배경(background)이 구분된 마스크(mask)를 생성하는 딥러닝 기반의 망막 질환 진단 방법.
According to claim 6,
The step of detecting the retinal pigment
A deep learning-based retinal disease diagnosis method for generating a mask in which pigment and background are separated from an input image based on the detected retinal pigment.
제5항에 있어서,
상기 검출된 망막색소를 기반으로 망막 질환 여부를 진단하는 단계는
망막색소의 픽셀 수를 배경 픽셀 수로 나눈 망막색소 비율을 계산하여 상기 망막색소 비율이 미리 설정된 임계 값보다 크면 망막 질환으로 진단하는 딥러닝 기반의 망막 질환 진단 방법.
According to claim 5,
The step of diagnosing whether or not there is a retinal disease based on the detected retinal pigment
A method for diagnosing retinal diseases based on deep learning, which calculates a retinal pigment ratio by dividing the number of pixels of retinal pigment by the number of background pixels, and diagnoses a retinal disease when the retinal pigment ratio is greater than a preset threshold value.
제5항의 딥러닝 기반의 망막 질환 진단 방법을 실행하고 컴퓨터가 판독 가능한 기록매체에 기록된 컴퓨터 프로그램.
A computer program that executes the deep learning-based retinal disease diagnosis method of claim 5 and is recorded on a computer-readable recording medium.
KR1020210124706A 2021-09-17 2021-09-17 Apparatus and method for analysis of retinal disease based on deep learning KR102623722B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210124706A KR102623722B1 (en) 2021-09-17 2021-09-17 Apparatus and method for analysis of retinal disease based on deep learning

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210124706A KR102623722B1 (en) 2021-09-17 2021-09-17 Apparatus and method for analysis of retinal disease based on deep learning

Publications (2)

Publication Number Publication Date
KR20230041867A true KR20230041867A (en) 2023-03-27
KR102623722B1 KR102623722B1 (en) 2024-01-11

Family

ID=85799741

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210124706A KR102623722B1 (en) 2021-09-17 2021-09-17 Apparatus and method for analysis of retinal disease based on deep learning

Country Status (1)

Country Link
KR (1) KR102623722B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102270659B1 (en) * 2018-07-06 2021-06-29 주식회사 메디웨일 Fundus image management device and method for determining suitability of fundus image

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102270659B1 (en) * 2018-07-06 2021-06-29 주식회사 메디웨일 Fundus image management device and method for determining suitability of fundus image

Also Published As

Publication number Publication date
KR102623722B1 (en) 2024-01-11

Similar Documents

Publication Publication Date Title
Asiri et al. Deep learning based computer-aided diagnosis systems for diabetic retinopathy: A survey
Shaban et al. A convolutional neural network for the screening and staging of diabetic retinopathy
Veena et al. A novel optic disc and optic cup segmentation technique to diagnose glaucoma using deep learning convolutional neural network over retinal fundus images
AU2021232682B2 (en) Detection of pathologies in ocular images
Valizadeh et al. Presentation of a segmentation method for a diabetic retinopathy patient’s fundus region detection using a convolutional neural network
Nyúl Retinal image analysis for automated glaucoma risk evaluation
US11883099B2 (en) Noninvasive techniques for identifying choroidal neovascularization in retinal scans
Ravudu et al. Review of image processing techniques for automatic detection of eye diseases
Karthiyayini et al. Retinal image analysis for ocular disease prediction using rule mining algorithms
Sidhu et al. Segmentation of retinal blood vessels by a novel hybrid technique-Principal Component Analysis (PCA) and Contrast Limited Adaptive Histogram Equalization (CLAHE)
Almansour et al. Peripapillary atrophy classification using CNN deep learning for glaucoma screening
KR102623722B1 (en) Apparatus and method for analysis of retinal disease based on deep learning
Noronha et al. A review of fundus image analysis for the automated detection of diabetic retinopathy
Jiang et al. Segmentation of Laser Marks of Diabetic Retinopathy in the Fundus Photographs Using Lightweight U-Net
Ahmed et al. Morphological technique for detection of microaneurysms from RGB fundus images
KR20210135778A (en) Alzheimer's diagnostic device and method
US20240020830A1 (en) System and methods of predicting parkinson's disease based on retinal images using machine learning
US11941809B1 (en) Glaucoma detection and early diagnosis by combined machine learning based risk score generation and feature optimization
US20240032784A1 (en) Integrated analysis of multiple spectral information for ophthalmology applications
Anandhand et al. IoT based automatic detection of glaucoma disease in OCT and fundus images using deep learning techniques
Valizadeh et al. Research Article Presentation of a Segmentation Method for a Diabetic Retinopathy Patient’s Fundus Region Detection Using a Convolutional Neural Network
EP4334897A1 (en) Retina image annotation, and related training methods and image processing models
KR20240004834A (en) Retinal image annotation, related training methods and image processing models.
Sumathi et al. A Systematic Review of Fundus Image Analysis for Diagnosing Diabetic Retinopathy
Mani et al. An automated hybrid decoupled convolutional network for laceration segmentation and grading of retinal diseases using optical coherence tomography (OCT) images

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant