KR102471991B1 - System and Method for Extracting Visual Function Information Through Optical Coherence Tomography based on Artificial Intelligence - Google Patents

System and Method for Extracting Visual Function Information Through Optical Coherence Tomography based on Artificial Intelligence Download PDF

Info

Publication number
KR102471991B1
KR102471991B1 KR1020220007531A KR20220007531A KR102471991B1 KR 102471991 B1 KR102471991 B1 KR 102471991B1 KR 1020220007531 A KR1020220007531 A KR 1020220007531A KR 20220007531 A KR20220007531 A KR 20220007531A KR 102471991 B1 KR102471991 B1 KR 102471991B1
Authority
KR
South Korea
Prior art keywords
function information
visual function
oct image
oct
horizontal inversion
Prior art date
Application number
KR1020220007531A
Other languages
Korean (ko)
Inventor
이지웅
이재혁
최현주
유병철
최우식
Original Assignee
부산대학교 산학협력단
부산대학교병원
주식회사 딥노이드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 부산대학교 산학협력단, 부산대학교병원, 주식회사 딥노이드 filed Critical 부산대학교 산학협력단
Priority to KR1020220007531A priority Critical patent/KR102471991B1/en
Application granted granted Critical
Publication of KR102471991B1 publication Critical patent/KR102471991B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/102Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for optical coherence tomography [OCT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10101Optical tomography; Optical coherence tomography [OCT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Ophthalmology & Optometry (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Pathology (AREA)
  • Signal Processing (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

The present invention relates to a system and method for extracting visual function information through optical coherence tomography based on artificial intelligence technology. More specifically, the system and method for extracting visual function information through optical coherence tomography based on artificial intelligence technology comprises: an OCT image extraction unit extracting an OCT image including at least one of a ganglion cell layer (GCL), a retinal nerve fiber layer (RNFL), and a plan view of the retinal nerve fiber layer (RNFL_ENFACE) for both eyes from an SS-OCT test sheet; a horizontal inversion application unit applying horizontal inversion to an arbitrary single eye in the OCT image; a preprocessing unit performing preprocessing using a histogram matching technique to improve consistency of the OCT image to which the horizontal inversion is applied, and preprocessing using a CLAHE technique to improve contrast of the OCT image to which the horizontal inversion is applied; and a visual function information output unit outputting visual function information of a subject by inputting a preprocessed OCT image to a pre-learned neural network model. Accordingly, consistency and accuracy in diagnosing eye diseases and determining progression thereof can be improved.

Description

인공지능 기술기반 광간섭단층영상을 통한 시기능 정보 추출 시스템 및 방법 {System and Method for Extracting Visual Function Information Through Optical Coherence Tomography based on Artificial Intelligence}System and Method for Extracting Visual Function Information Through Optical Coherence Tomography based on Artificial Intelligence}

본 발명은 인공지능 기술기반 광간섭단층영상을 통한 시기능 정보 추출 시스템 및 방법에 관한 것으로, 보다 구체적으로 기 학습된 신경망 모델에 전처리된 OCT 이미지를 입력함으로써 피검사자의 시기능 정보를 출력하는 인공지능 기술기반 광간섭단층영상을 통한 시기능 정보 추출 시스템 및 방법에 관한 것이다.The present invention relates to a system and method for extracting visual function information through optical coherence tomography based on artificial intelligence technology. It relates to a system and method for extracting visual function information through technology-based optical coherence tomography.

일반적으로, 광간섭단층촬영(Optical Coherence Tomography, OCT)은 빛을 투과시켜 조직 내에서 반사되는 빛의 도달 시간 차이를 이용하여 비침습적으로 안구 및 기타 인체 조직의 3차원 단층 영상을 촬영하는 기법이다. 광간섭단층촬영 장치는 안구의 단층 영상을 취득하고, 단층 영상을 연속적으로 쌓아 3차원 단층 영상을 획득하고, 마이크로미터 스케일의 해상도로 안구 조직의 3차원 단층 영상을 촬영할 수 있다. 즉, 광간섭단층촬영 영상은 안구의 망막에 발생한 질환 및 그 진행 상황을 확인하기에 용이하다. In general, optical coherence tomography (OCT) is a technique for non-invasively taking three-dimensional tomographic images of the eyeball and other human tissues by using the difference in arrival time of light reflected in tissue by passing light through it. . The optical coherence tomography apparatus may acquire a tomography image of the eyeball, acquire a 3D tomography image by successively stacking the tomographic images, and take a 3D tomographic image of the ocular tissue at micrometer scale resolution. That is, optical coherence tomography images are easy to identify diseases occurring in the retina of the eye and their progress.

다만, 광간섭단층촬영 장치로부터 영상을 획득하더라도 의료진이 임상학적으로 안구의 질환여부를 판단하고 그 진행상황을 확인함으로써, 진단의 일관성 및 정확성이 떨어지는 문제점이 발생한다. 이와 관련하여, 관련문헌 1은 기능적 OCT 데이터 처리 방법에 관한 것으로, 망막이 광 자극에 의해 반복적으로 자극되는 동안 대상체의 망막을 스캐닝하는 OCT 이미징 장치에 의해 OCT 이미지를 획득할 수 있으나, OCT 이미지로부터 안질환을 진단하거나 그 진행상황을 자동적으로 판단할 수 없는 기술적 한계가 존재한다.However, even when an image is obtained from an optical coherence tomography device, a medical staff clinically determines whether or not an eye disease is present and checks its progress, resulting in poor diagnostic consistency and accuracy. In this regard, Related Document 1 relates to a functional OCT data processing method, and an OCT image can be acquired by an OCT imaging device that scans the retina of an object while the retina is repeatedly stimulated by light stimulation, but from the OCT image There is a technical limitation that cannot diagnose an eye disease or automatically determine its progress.

KR 10-2021-0012971KR 10-2021-0012971

본 발명은 상기와 같은 문제점을 해결하기 위한 것으로 광간섭단층촬영 이미지로부터 안구 질환 진단 및 진행상황을 판단하는데 있어서 일관성 및 정확성을 향상시킬 수 있도록 기 학습된 신경망 모델에 전처리된 OCT 이미지를 입력하고 피검사자의 시기능 정보를 출력하는 인공지능 기술기반 광간섭단층영상을 통한 시기능 정보 추출 시스템 및 방법을 얻고자 하는 것을 목적으로 한다.The present invention is to solve the above problems, and in order to improve the consistency and accuracy in diagnosing eye diseases and determining the progress of eye diseases from optical coherence tomography images, input preprocessed OCT images to a pre-learned neural network model and The purpose of this study is to obtain a system and method for extracting visual function information through artificial intelligence technology-based optical coherence tomography that outputs visual function information.

상기 목적을 달성하기 위하여, 본 발명의 인공지능 기술기반 광간섭단층영상을 통한 시기능 정보 추출 시스템은 SS-OCT 검사지로부터 양안에 대한 신경절 세포층(GCL), 망막 신경 섬유층(RNFL), 망막 신경 섬유층의 평면도(RNFL_ENFACE) 중 적어도 하나를 포함하는 OCT 이미지를 추출하는 OCT 이미지 추출부; 상기 OCT 이미지에서 임의의 단안에 대해 수평 반전을 적용하는 수평 반전 적용부; 수평 반전이 적용된 상기 OCT 이미지의 일관성을 향상시킬 수 있도록 히스토그램 매칭기법을 사용하여 전처리하고, 수평 반전이 적용된 상기 OCT 이미지의 대비를 향상시킬 수 있도록 클라헤(CLAHE)기법을 사용하여 전처리하는 전처리부; 및 기 학습된 신경망 모델에 전처리된 상기 OCT 이미지를 입력함으로써, 피검사자의 시기능 정보를 출력하는 시기능 정보 출력부;를 제공한다. In order to achieve the above object, the system for extracting visual function information through optical coherence tomography based on artificial intelligence technology of the present invention is a ganglion cell layer (GCL), retinal nerve fiber layer (RNFL), and retinal nerve fiber layer for both eyes from the SS-OCT test strip. an OCT image extraction unit for extracting an OCT image including at least one of a plan view (RNFL_ENFACE) of; a horizontal inversion application unit for applying horizontal inversion to an arbitrary monocular in the OCT image; A preprocessing unit that performs preprocessing using a histogram matching technique to improve the consistency of the OCT image to which horizontal inversion is applied, and preprocessing using a CLAHE technique to improve the contrast of the OCT image to which horizontal inversion is applied. ; and a visual function information output unit configured to output visual function information of a subject by inputting the preprocessed OCT image to a pre-learned neural network model.

상기 목적을 달성하기 위하여, 본 발명의 인공지능 기술기반 광간섭단층영상을 통한 시기능 정보 추출 방법은 OCT 이미지 추출부에 의하여, SS-OCT 검사지로부터 양안에 대한 신경절 세포층(GCL), 망막 신경 섬유층(RNFL), 망막 신경 섬유층의 평면도(RNFL_ENFACE) 중 적어도 하나를 포함하는 OCT 이미지가 추출되는 OCT 이미지 추출단계; 수평 반전 적용부에 의하여, 상기 OCT 이미지에서 임의의 단안에 대해 수평 반전이 적용되는 수평 반전 적용단계; 전처리부에 의하여, 수평 반전이 적용된 상기 OCT 이미지의 일관성을 향상시킬 수 있도록 히스토그램 매칭기법이 시용되어 전처리되고, 수평 반전이 적용된 상기 OCT 이미지의 대비를 향상시킬 수 있도록 클라헤(CLAHE)기법이 사용되어 전처리되는 전처리단계; 및 시기능 정보 출력부에 의하여, 기 학습된 신경망 모델에 전처리된 상기 OCT 이미지를 입력함으로써, 피검사자의 시기능 정보가 출력되는 시기능 정보 출력단계;를 제공한다.In order to achieve the above object, the method for extracting visual function information through optical coherence tomography based on artificial intelligence technology of the present invention is a ganglion cell layer (GCL) for both eyes, a retinal nerve fiber layer, from an SS-OCT test strip by an OCT image extractor. (RNFL), an OCT image extraction step of extracting an OCT image including at least one of a plan view (RNFL_ENFACE) of a retinal nerve fiber layer; a horizontal inversion application step of applying horizontal inversion to an arbitrary monocular in the OCT image by a horizontal inversion application unit; By the pre-processing unit, a histogram matching technique is applied and preprocessed to improve the consistency of the OCT image to which horizontal inversion is applied, and a CLAHE technique is used to improve the contrast of the OCT image to which horizontal inversion is applied. A pre-processing step that is pre-processed; and a visual function information outputting step of outputting the visual function information of the subject by inputting the preprocessed OCT image to the pre-learned neural network model by the visual function information output unit.

이상과 같이 본 발명에 의하면 기 학습된 신경망 모델에 전처리된 OCT 이미지를 입력하고 피검사자의 시기능 정보를 출력함으로써, 광간섭단층촬영 이미지로부터 안구 질환 진단 및 진행상황을 판단하는데 있어서 일관성 및 정확성을 향상시킬 수 있는 현저한 효과가 있다.As described above, according to the present invention, by inputting the preprocessed OCT image to the pre-learned neural network model and outputting the test subject's visual function information, consistency and accuracy are improved in diagnosing eye diseases and determining the progress from optical coherence tomography images. There are remarkable effects that can be done.

도 1은 본 발명의 인공지능 기술기반 광간섭단층영상을 통한 시기능 정보 추출 시스템 구성도이다.
도 2는 본 발명의 일실시예에 따라 전처리 전 OCT 이미지와 전처리 된 OCT 이미지를 표시한 도면이다.
도 3은 본 발명의 일실시예에 따른 신경망 모델을 표시한 도면이다.
도 4는 본 발명의 일실시예에 따라 7개의 군집으로 군집화된 시기능 정보를 표시한 도면이다.
1 is a block diagram of a visual function information extraction system through optical coherence tomography based on artificial intelligence technology of the present invention.
2 is a diagram showing an OCT image before preprocessing and a preprocessed OCT image according to an embodiment of the present invention.
3 is a diagram showing a neural network model according to an embodiment of the present invention.
4 is a diagram showing visual function information clustered into seven clusters according to an embodiment of the present invention.

본 명세서에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.The terms used in this specification have been selected from general terms that are currently widely used as much as possible while considering the functions in the present invention, but these may vary depending on the intention of a person skilled in the art, precedent, or the emergence of new technologies. In addition, in a specific case, there is also a term arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description of the invention. Therefore, the term used in the present invention should be defined based on the meaning of the term and the overall content of the present invention, not simply the name of the term.

다르게 정의되지 않는 한 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and unless explicitly defined in this application, it should not be interpreted in an ideal or excessively formal meaning. don't

인공지능 기술기반 광간섭단층영상을 통한 시기능 정보 추출 시스템Visual function information extraction system through optical coherence tomography based on artificial intelligence technology

이하, 본 발명에 따른 실시예를 첨부한 도면을 참조하여 상세히 설명하기로 한다. 도 1은 본 발명의 인공지능 기술기반 광간섭단층영상을 통한 시기능 정보 추출 시스템 구성도이다. 도 2는 본 발명의 일실시예에 따라 전처리 전 OCT 이미지와 전처리된 OCT 이미지를 표시한 도면이다. 도 3은 본 발명의 일실시예에 따른 신경망 모델을 표시한 도면이다. 도 4는 본 발명의 일실시예에 따라 7개의 군집으로 군집화된 시기능 정보를 표시한 도면이다.Hereinafter, embodiments according to the present invention will be described in detail with reference to the accompanying drawings. 1 is a block diagram of a visual function information extraction system through optical coherence tomography based on artificial intelligence technology of the present invention. 2 is a diagram showing an OCT image before preprocessing and a preprocessed OCT image according to an embodiment of the present invention. 3 is a diagram showing a neural network model according to an embodiment of the present invention. 4 is a diagram showing visual function information clustered into seven clusters according to an embodiment of the present invention.

도 1을 보면, 본 발명의 인공지능 기술기반 광간섭단층영상을 통한 시기능 정보 추출 시스템은 OCT 이미지 추출부(100), 수평반전 적용부(200), 전처리부(300) 및 시기능 정보 출력부(400)를 포함한다. Referring to FIG. 1, the system for extracting visual function information through optical coherence tomography based on artificial intelligence technology of the present invention includes an OCT image extractor 100, a horizontal inversion application unit 200, a preprocessor 300, and output of visual function information. Includes section 400.

보다 구체적으로, 상기 OCT 이미지 추출부(100)는 SS-OCT 검사지로부터 양안에 대한 신경절 세포층(GCL), 망막 신경 섬유층(RNFL), 망막 신경 섬유층의 평면도(RNFL_ENFACE) 중 적어도 하나를 포함하는 OCT 이미지를 추출한다. More specifically, the OCT image extraction unit 100 is an OCT image including at least one of a ganglion cell layer (GCL), a retinal nerve fiber layer (RNFL), and a plan view of the retinal nerve fiber layer (RNFL_ENFACE) for both eyes from the SS-OCT test strip. extract

일반적으로 광간섭단층(Optical Coherence Tomography; OCT) 촬영기법은 불투명 또는 반투명한 물체의 표면 아래를 마이크로미터 수준의 해상도로 측정하는 기법이고, 그 중 SS-OCT(Swept Source Optical Coherence Tomography)는 파장이 가변되는 광간섭단층촬영계로 촬영하는 기법이다.In general, Optical Coherence Tomography (OCT) is a technique for measuring the subsurface of an opaque or translucent object with micrometer-level resolution, among which SS-OCT (Swept Source Optical Coherence Tomography) has a wavelength It is a technique of imaging with variable optical coherence tomography.

즉, 상기 SS-OCT 검사지는 광간섭단층 촬영기법 중에서 파장이 가변되는 광간섭단층촬영계로 3차원적으로 다양한 관점에서 촬영된 OCT 이미지가 포함될 수 있다. 여기서, 상기 OCT 이미지 추출부(100)는 이미지 자동 추출 알고리즘을 이용하여 도 2의 왼쪽에 표시된 컬러 이미지와 같은 상기 신경절 세포층(GCL) 이미지를 추출할 수 있고, 도 2의 오른쪽에 표시된 흑백 이미지와 같은 상기 망막 신경 섬유층(RNFL) 및 망막 신경 섬유층의 평면도(RNFL_ENFACE) 이미지를 추출할 수 있다. 이때, 망막 신경 섬유층의 평면도(RNFL_ENFACE) 이미지는 3차원으로 촬영된 망막 신경 섬유층을 XY 평면에서 바라본 도면을 일컫는다. That is, the SS-OCT test strip may include OCT images taken from various perspectives in three dimensions with an optical coherence tomography system in which the wavelength is variable among optical coherence tomography techniques. Here, the OCT image extraction unit 100 may extract the ganglion cell layer (GCL) image such as the color image shown on the left side of FIG. 2 using an automatic image extraction algorithm, and the black and white image shown on the right side of FIG. The same retinal nerve fiber layer (RNFL) and plan view (RNFL_ENFACE) images of the retinal nerve fiber layer can be extracted. At this time, the plan view (RNFL_ENFACE) image of the retinal nerve fiber layer refers to a view of the retinal nerve fiber layer photographed in three dimensions as viewed from the XY plane.

한편, 상기 OCT 이미지 추출부(100)는 피검사자의 고유번호에 매칭시켜 피검사자별 OCT 이미지를 저장할 수 있다. 그리고 가장 바람직하게, 상기 신경절 세포층(GCL) 이미지의 크기는 너비 200, 높이 200일 수 있고, 상기 망막 신경 섬유층(RNFL) 및 망막 신경 섬유층의 평면도(RNFL_ENFACE) 이미지는 너비 280, 높이 200일 수 있다.Meanwhile, the OCT image extraction unit 100 may store OCT images for each subject by matching the identification number of the subject to be examined. And most preferably, the size of the ganglion cell layer (GCL) image may be 200 in width and 200 in height, and the retinal nerve fiber layer (RNFL) and plan view (RNFL_ENFACE) image of the retinal nerve fiber layer may be 280 in width and 200 in height. .

다음으로, 수평반전 적용부(200)는 상기 OCT 이미지에서 임의의 단안에 대해 수평 반전을 적용한다. 즉, 상기 OCT 이미지는 양안을 대상으로 추출되었으므로, 우안 이미지와 좌안 이미지가 각각 존재하게 된다. 이때, 검사의 정확도를 향상시킬 수 있도록 모든 좌안 이미지를 우안 이미지로 수평 반전하거나 모든 우안 이미지를 좌안 이미지로 수평 반전할 수 있다, Next, the horizontal inversion application unit 200 applies horizontal inversion to an arbitrary monocular in the OCT image. That is, since the OCT image is extracted for both eyes, a right eye image and a left eye image exist respectively. At this time, all left-eye images may be horizontally inverted into right-eye images or all right-eye images may be horizontally inverted into left-eye images in order to improve the accuracy of inspection.

다음으로, 전처리부(300)는 수평 반전이 적용된 상기 OCT 이미지의 일관성을 향상시킬 수 있도록 히스토그램 매칭기법을 사용하여 전처리하고, 수평 반전이 적용된 상기 OCT 이미지의 대비를 향상시킬 수 있도록 클라헤(CLAHE)기법을 사용하여 전처리한다.Next, the preprocessing unit 300 performs preprocessing using a histogram matching technique to improve the consistency of the OCT image to which the horizontal inversion is applied, and CLAHE to improve the contrast of the OCT image to which the horizontal inversion is applied. ) technique is used for preprocessing.

상기 OCT 이미지의 일관성(Consistency)에 있어서, 상기 OCT 이미지 추출부(100)로부터 추출된 모든 OCT 이미지는 동일한 조건에서 촬영되었다고 판단할 수 없다. 촬영년도 및 일자, 촬영자, 장치 제조사, 장치 손상, 피검사자의 자세 등 수많은 변수에 따라서 밝기, 대비 등의 차이가 발생할 수 있고, 이는 상기 OCT 이미지 각 픽셀에 대한 매트릭스 계산을 수행하고 출력값을 도출하는 신경망 모델에 큰 영향을 미칠 수 있다. 따라서 상기 전처리부(300)는 상기 OCT 이미지 간의 밝기, 대비를 기준이 되는 OCT 이미지의 픽셀 확률 분포형태로 매칭시켜주는 히스토그램 매칭기법을 사용할 수 있다. 일반적으로, 히스토그램 매칭(Histogram Matching)기법은 대상 이미지의 주요 색감을 기준 이미지의 주요 색감으로 바꿔주는 방법으로, 기준 이미지의 모든 픽셀 발생빈도 수에 따라 대상 이미지의 픽셀 발생빈도 수를 맞춰줄 수 있고, 동일한 도메인을 가진 이미지에 대해서 전체적인 대비를 맞춰줄 수 있는 현저한 효과가 있다.Regarding the consistency of the OCT images, it cannot be determined that all OCT images extracted from the OCT image extraction unit 100 were captured under the same conditions. Differences in brightness and contrast may occur depending on numerous variables such as year and date of capture, photographer, device manufacturer, device damage, test subject's posture, etc. This is a neural network that performs matrix calculation for each pixel of the OCT image and derives an output value. can have a significant impact on the model. Therefore, the pre-processing unit 300 may use a histogram matching technique that matches the brightness and contrast between the OCT images to the pixel probability distribution form of the OCT image as a reference. In general, the Histogram Matching technique is a method of changing the main color of a target image to the main color of a reference image. , there is a remarkable effect of adjusting the overall contrast for images with the same domain.

또한, 상기 OCT 이미지의 대조 강화(Contrast enhancement)는 시야 손상의 정보를 파악하는데 상당히 중요하다. 상기 클라헤(CLAHE)기법은 영상의 밝기에 대한 히스토그램 분포레벨을 고르게 평탄화 하여 결과적으로 영상의 콘트라스트를 높여주는 기법이고, 이에 따라 영상 내에서 혈관 등의 정보를 보다 용이하게 판별할 수 있다. In addition, contrast enhancement of the OCT image is very important in determining visual field damage information. The CLAHE method evenly flattens the histogram distribution level for the brightness of the image and consequently increases the contrast of the image, and accordingly, information such as blood vessels in the image can be more easily identified.

상기 클라헤(CLAHE)기법은 영상을 일정한 크기를 가진 작은 블록으로 구분하고, 블록마다 히스토그램 균일화를 실행하는 방법으로, 종래 균일화를 실행하는 방법에 비해 이미지 내 노이즈를 감쇠시켜주는 현저한 효과가 있다. 여기서, 히스토그램 균일화(Histogram Equalization)는 좁은 범위에 집중되어 있는 픽셀 값들을 전체 범위인 0 내지 255 범위에 골고루 분포하도록 조정하여 이미지의 대비를 증가시키는 방법이다.The CLAHE technique divides an image into small blocks having a certain size and performs histogram equalization for each block, and has a remarkable effect of attenuating noise in an image compared to the conventional equalization method. Here, histogram equalization is a method of increasing the contrast of an image by adjusting pixel values concentrated in a narrow range to be evenly distributed over the entire range of 0 to 255.

한편, 상기 전처리부(300)는 상기 신경망 모델에 동일한 크기로 입력할 수 있도록 전처리된 상기 OCT 이미지를 수평 연결할 수 있다. 도 2를 보면, 상기 전처리부(300)는 히스토그램 매칭기법 및 클라헤(CLAHE)기법으로 전처리하고 두께를 히트맵 형태로 나타낸 신경절 세포층(GCL) 이미지와 명도의 차이로 나타낸 망막 신경 섬유층의 평면도(RNFL_ENFACE) 이미지를 수평 연결하여 너비 480, 높이 200을 갖는 이미지로 최종 전처리할 수 있다. 도 2의 (a)는 전처리되기 전 OCT 이미지가 표시된 것이고, 도 2의 (b)는 최종 전처리된 후 OCT 이미지가 표시된 것이다.Meanwhile, the pre-processing unit 300 may horizontally connect the pre-processed OCT images so that they can be input to the neural network model in the same size. Referring to FIG. 2, the pre-processing unit 300 pre-processes with the histogram matching technique and the CLAHE technique and shows the thickness of the ganglion cell layer (GCL) image in the form of a heat map and the plan view of the retinal nerve fiber layer shown as the difference in brightness ( RNFL_ENFACE) Images can be horizontally concatenated and final pre-processed into an image with a width of 480 and a height of 200. FIG. 2(a) shows an OCT image before preprocessing, and FIG. 2(b) shows an OCT image after final preprocessing.

다음으로, 상기 시기능 정보 출력부(400)는 기 학습된 신경망 모델에 전처리된 상기 OCT 이미지를 입력함으로써, 피검사자의 시기능 정보를 출력한다. Next, the visual function information output unit 400 outputs the visual function information of the subject by inputting the pre-processed OCT image to the pre-learned neural network model.

상기 신경망 모델의 아키텍처는 도 3의 일실시예와 같다. 우선, 상기 신경망 모델은 Inception ResnetV2를 기초모델로 하여 ImageNet 데이터셋을 미리 학습시킨 가중치를 적용할 수 있다. 그리고 상기 기초모델 이후에는 전역평균풀링(Global Average Pooling; GAP)을 통해 각 특징(feature) 수만큼 밀도 층(Dense Layer)을 생성하고, Relu 활성화 함수를 갖는 다수 개의 완전연결 층(Fully Connected Layer)을 거치며 상기 특징을 압축시킬 수 있다. 그리고 상기 신경망 모델은 최종적으로 기 설정된 개수만큼의 상기 시기능 정보를 추출할 수 있다.The architecture of the neural network model is the same as the embodiment of FIG. 3 . First, the neural network model may apply weights pretrained on the ImageNet dataset using Inception ResnetV2 as a base model. After the basic model, a plurality of fully connected layers having a Relu activation function are generated by generating as many dense layers as each feature through Global Average Pooling (GAP). It is possible to compress the features by going through. In addition, the neural network model may finally extract as many visual function information as a predetermined number.

예컨대, 전역평균풀링(GAP)을 통해서 2048개의 특징이 추출되면, 2048개의 밀도 층(Dense Layer)이 생성될 수 있고, 하나의 완전연결 층(Fully Connected Layer)에서 1/2로 압축된 1024개의 특징이 추출되고 다음 완전연결 층(Fully Connected Layer)에서 1/2로 압축된 512개의 특징이 추출되고 다음 완전연결 층(Fully Connected Layer)에서 1/2로 압축된 256개의 특징이 추출될 수 있다. 그리고 최종적으로 68개의 시기능 정보가 추출될 수 있고, 가장 바람직하게 각막의 형상으로 표시될 수 있다. 여기서, 상기 시기능 정보는 해당 구역에서 데시벨(dB)을 단위로 하는 수치이다.For example, if 2048 features are extracted through global average pooling (GAP), 2048 dense layers can be generated, and 1024 dense layers compressed by 1/2 in one fully connected layer. Features are extracted, 512 features compressed by 1/2 are extracted in the next fully connected layer, and 256 features compressed by 1/2 can be extracted in the next fully connected layer. . Finally, 68 visual function information can be extracted, and most preferably displayed in the shape of the cornea. Here, the visual function information is a numerical value in units of decibels (dB) in the corresponding area.

상기 완전연결 층(Fully Connected Layer)에서 1/2로 압축된 256개의 특징에서 최종적으로 68개의 시기능 정보가 추출되는 것은 Relu 활성화 함수를 통해 뉴런을 활성화하여 기 설정된 68개만큼의 시기능 정보에 대한 예측값을 각각 출력한 것이다. 따라서 상기 완전연결 층(Fully Connected Layer)으로부터 추출되는 시기능 정보의 개수는 변경될 수 있다. The final extraction of 68 visual function information from the 256 features compressed by 1/2 in the Fully Connected Layer activates neurons through the Relu activation function, It outputs the predicted value for each. Accordingly, the number of visual function information extracted from the fully connected layer may be changed.

또한, 상기 시기능 정보 출력부(400)는 다수 개의 상기 시기능 정보를 기 설정된 기준에 따라 n개의 군집으로 군집화한 후 군집 간 평균값을 산출하는 군집화부(410)를 포함하고, 상기 군집화부(410)는, 임의의 군집 내 m개의 상기 시기능 정보를 선형 변환시킨 후 상기 평균값을 산출하고, 상기 평균값을 다시 로그 변환시킬 수 있다. 여기서, n,m은 양의 정수이다.In addition, the visual function information output unit 400 includes a clustering unit 410 that clusters the plurality of visual function information into n clusters according to a predetermined criterion and calculates an average value between the clusters, and the clustering unit ( 410) may linearly transform the m pieces of visual function information in an arbitrary cluster, calculate the average value, and log-transform the average value again. Here, n and m are positive integers.

이때, 상기 시기능 정보 출력부(400)는 가장 바람직하게 Latent Class Analysis를 이용하여 다수 개의 상기 시기능 정보 중에서 악화되는 시기능 정보와 가장 관련성이 높은 인접 시기능 정보를 군집화하여 68개의 시기능 정보를 7개의 군집으로 군집화 됨으로써, 중심시야의 악화패턴을 일반적인 모델보다 더 적합하게 반영할 수 있고 중심시야의 손상패턴을 더 직관적으로 제공할 수 있는 현저한 효과가 있다. At this time, the visual function information output unit 400 most preferably uses Latent Class Analysis to cluster the visual function information that is deteriorating among a plurality of the visual function information and the adjacent visual function information that is most related to the visual function information to obtain 68 pieces of visual function information. By clustering into 7 clusters, there is a remarkable effect of reflecting the deterioration pattern of the central visual field more appropriately than the general model and providing the damage pattern of the central visual field more intuitively.

예컨대, 상기 군집화부(410)는 1군 내지 7군으로 군집화 할 수 있고, 1군은 15개의 시기능 정보를 포함할 수 있다. 그리고 상기 군집화부(410)는 15개의 시기능 정보(dB)를 하기 [수학식 1]로 선형 변환(1/Lambert)할 수 있다. For example, the clustering unit 410 may cluster into groups 1 to 7, and group 1 may include 15 visual function information. In addition, the clustering unit 410 may linearly transform (1/Lambert) 15 visual function information (dB) into [Equation 1] below.

Figure 112022006639440-pat00001
Figure 112022006639440-pat00001

그리고 상기 군집화부(410)는 선형 변환된 15개의 상기 시기능 정보(1/Lambert)에 대한 상기 평균값(1/Lambert)을 산출하고, 상기 평균값(1/Lambert)을 다시 상기 [수학식 1]에 대입하여 다시 로그 변환된 평균값(dB)을 획득할 수 있다.The clustering unit 410 calculates the average value (1/Lambert) for the linearly transformed 15 pieces of visual function information (1/Lambert), and calculates the average value (1/Lambert) again as [Equation 1]. It is possible to obtain the log-transformed average value (dB) again by substituting in .

(1/Lambert)에서 (dB)로 로그 변환하는 스케일링(Scaling)을 하게 되면 구조와 기능 간에 인위적인 곡선관계를 갖게 할 수 있으나, 낮은 수치에서는 시야 민감도의 변화를 부풀리고, 높은 수치에서는 민감도의 변화를 최소화하는 단점이 존재한다. 이러한 단점을 극복하기 위해서 상기 군집화부(410)는 선형 변환된 15개의 상기 시기능 정보(1/Lambert)에 대한 상기 평균값(1/Lambert)을 산출한 후 로그 변환하는 스케일링(Scaling)을 반드시 수행하도록 한다.Scaling of logarithmic conversion from (1/Lambert) to (dB) can lead to an artificial curvilinear relationship between structure and function. There are downsides to minimize. In order to overcome this disadvantage, the clustering unit 410 calculates the average value (1/Lambert) for the linearly transformed 15 pieces of visual function information (1/Lambert), and then performs log-transformed scaling (Scaling). let it do

인공지능 기술기반 광간섭단층영상을 통한 시기능 정보 추출 방법A method for extracting visual function information through optical coherence tomography based on artificial intelligence technology

이하, 본 발명에 따른 실시예를 첨부한 도면을 참조하여 상세히 설명하기로 한다. 본 발명의 인공지능 기술기반 광간섭단층영상을 통한 시기능 정보 추출 방법은 OCT 이미지 추출단계(S100), 수평 반전 적용단계(S200), 전처리 단계(S300) 및 시기능 정보 출력단계(S400)를 포함한다.Hereinafter, embodiments according to the present invention will be described in detail with reference to the accompanying drawings. The method for extracting visual function information through optical coherence tomography based on artificial intelligence technology of the present invention includes an OCT image extraction step (S100), a horizontal inversion application step (S200), a preprocessing step (S300), and a visual function information output step (S400). include

보다 구체적으로, 상기 OCT 이미지 추출단계(S100)는 OCT 이미지 추출부(100)에 의하여, SS-OCT 검사지로부터 양안에 대한 신경절 세포층(GCL), 망막 신경 섬유층(RNFL), 망막 신경 섬유층의 평면도(RNFL_ENFACE) 중 적어도 하나를 포함하는 OCT 이미지가 추출된다.More specifically, the OCT image extraction step (S100) is a plan view of the ganglion cell layer (GCL), retinal nerve fiber layer (RNFL), and retinal nerve fiber layer for both eyes from the SS-OCT test strip by the OCT image extraction unit 100 ( An OCT image including at least one of RNFL_ENFACE) is extracted.

가장 바람직하게, 상기 OCT 이미지 추출단계(S100)는 두께를 히트맵 형식으로 표시한 신경절 세포층(GCL) 이미지와 명암 형식으로 표시한 망막 신경 섬유층의 평면도(RNFL_ENFACE) 이미지가 추출될 수 있다. 이때, GCL 이미지는 너비 200, 높이 200의 크기일 수 있고, RNFL_ENFACE 이미지는 너비 280, 높이 200의 크기일 수 있다.Most preferably, in the OCT image extraction step (S100), a ganglion cell layer (GCL) image in which the thickness is displayed in a heat map format and a plan view (RNFL_ENFACE) image of the retinal nerve fiber layer (RNFL_ENFACE) displayed in a contrast format may be extracted. In this case, the GCL image may have a size of 200 in width and 200 in height, and the RNFL_ENFACE image may have a size of 280 in width and 200 in height.

한편, 상기 OCT 이미지 추출단계(S100)는 추출된 상기 OCT 이미지를 피검사자의 고유번호에 매칭시켜 피검사자별 OCT 이미지가 저장될 수 있다. Meanwhile, in the OCT image extraction step (S100), the OCT image for each subject may be stored by matching the extracted OCT image to the unique number of the subject.

다음으로, 상기 수평 반전 적용단계(S200)는 수평 반전 적용부(200)에 의하여, 상기 OCT 이미지에서 임의의 단안에 대해 수평 반전이 적용된다. 즉, 상기 OCT 이미지는 양안을 대상으로 추출되었으므로, 우안 이미지와 좌안 이미지가 각각 존재하게 된다. 이때, 상기 수평 반전 적용단계(S200)는 검사의 정확도를 향상시킬 수 있도록 모든 좌안 이미지가 우안 이미지로 수평 반전되거나 모든 우안 이미지가 좌안 이미지로 수평 반전될 수 있다, Next, in the horizontal inversion applying step (S200), horizontal inversion is applied to an arbitrary monocular in the OCT image by the horizontal inversion application unit 200. That is, since the OCT image is extracted for both eyes, a right eye image and a left eye image exist respectively. At this time, in the horizontal inversion application step (S200), all left-eye images may be horizontally inverted into right-eye images or all right-eye images may be horizontally inverted into left-eye images to improve the accuracy of inspection.

다음으로, 상기 전처리단계(S300)는 전처리부(300)에 의하여, 수평 반전이 적용된 상기 OCT 이미지의 일관성을 향상시킬 수 있도록 히스토그램 매칭기법이 시용되어 전처리되고, 수평 반전이 적용된 상기 OCT 이미지의 대비를 향상시킬 수 있도록 클라헤(CLAHE)기법이 사용되어 전처리된다. Next, in the preprocessing step (S300), a histogram matching technique is used to improve the consistency of the OCT image to which the horizontal inversion is applied by the preprocessor 300, and the OCT image to which the horizontal inversion is applied is contrasted. It is pretreated using the CLAHE technique to improve

우선, 상기 OCT 이미지의 일관성(Consistency)에 있어서, 상기 OCT 이미지 추출단계(S100)로부터 추출된 모든 OCT 이미지는 동일한 조건에서 촬영되었다고 판단될 수 없다. 촬영년도 및 일자, 촬영자, 장치 제조사, 장치 손사, 피검사자의 자세 등 수많은 변수에 따라서 밝기, 대비 등의 차이가 발생할 수 있고, 이는 상기 OCT 이미지 각 픽셀에 대한 매트릭스 계산을 수행하고 출?돌揚? 도출하는 신경망 모델에 큰 영상을 미칠 수 있다. First, in terms of consistency of the OCT images, it cannot be determined that all OCT images extracted from the OCT image extraction step (S100) were captured under the same conditions. Differences in brightness and contrast may occur depending on numerous variables, such as year and date of capture, photographer, device manufacturer, device damage, and test subject's posture. It can have a big impact on the neural network model it derives.

따라서 상기 전처리단계(S300)는 상기 OCT 이미지의 일관성(Consistency)을 향상시킬 수 있도록 상기 OCT 이미지 간의 밝기, 대비를 기준이 되는 OCT 이미지의 픽셀 확률 분포형태로 매칭시켜주는 히스토그램 매칭기법이 우선적으로 사용될 수 있다. 일반적으로, 히스토그램 매칭(Histogram Matching)기법은 대상 이미지의 주요 색감을 기준 이미지의 주요 색감으로 바꿔주는 방법으로, 기준 이미지의 모든 픽셀 발생빈도 수에 따라 대상 이미지의 픽셀 발생빈도 수를 맞춰줄 수 있고, 동일한 도메인을 가진 이미지에 대해서 전체적인 대비를 맞춰줄 수 있는 현저한 효과가 있다.Therefore, in the preprocessing step (S300), a histogram matching technique that matches the brightness and contrast between the OCT images to the pixel probability distribution form of the OCT image as a reference is used first to improve the consistency of the OCT images. can In general, the Histogram Matching technique is a method of changing the main color of a target image to the main color of a reference image. , there is a remarkable effect of adjusting the overall contrast for images with the same domain.

또한, 상기 전처리단계(S300)는 대조 강화(Contrast enhancement)를 통해서 시야 손상의 정보를 용이하게 파악할 수 있도록 클라헤(CLAHE)기법이 사용될 수 있다. 클라헤(CLAHE)기법은 영상의 밝기에 대한 히스토그램 분포레벨이 고르게 평탄화되어 결과적으로 영상의 콘트라스트가 높여지는 기법이고, 이에 따라 영상 내에서 혈관 등의 정보를 보다 용이하게 판별할 수 있다. In addition, in the preprocessing step (S300), a CLAHE technique may be used to easily grasp information on visual field damage through contrast enhancement. The CLAHE method is a technique in which the histogram distribution level for the brightness of an image is evenly flattened and consequently the contrast of the image is increased, and accordingly, information such as blood vessels in the image can be more easily identified.

보다 구체적으로, 상기 클라헤(CLAHE)기법은 영상을 일정한 크기를 가진 작은 블록으로 구분하고, 블록마다 히스토그램 균일화를 실행하는 방법으로, 종래 균일화를 실행하는 방법에 비해 이미지 내 노이즈를 감쇠시켜주는 현저한 효과가 있다. 여기서, 히스토그램 균일화(Histogram Equalization)는 좁은 범위에 집중되어 있는 픽셀 값들을 전체 범위인 0 내지 255 범위에 골고루 분포하도록 조정하여 이미지의 대비를 증가시키는 방법이다.More specifically, the CLAHE technique is a method of dividing an image into small blocks having a certain size and performing histogram equalization for each block. It works. Here, histogram equalization is a method of increasing the contrast of an image by adjusting pixel values concentrated in a narrow range to be evenly distributed over the entire range of 0 to 255.

한편, 상기 전처리단계(S300)는 상기 신경망 모델에 동일한 크기로 입력할 수 있도록 전처리된 상기 OCT 이미지가 수평 연결될 수 있다. 즉, 상기 전처리단계(S300)는 히스토그램 매칭기법 및 클라헤(CLAHE)기법으로 전처리되고 두께를 히트맵 형태로 나타낸 신경절 세포층(GCL) 이미지와 명도의 차이로 나타낸 망막 신경 섬유층의 평면도(RNFL_ENFACE) 이미지가 수평 연결되어 너비 480, 높이 200을 갖는 이미지로 최종 전처리될 수 있다. Meanwhile, in the preprocessing step (S300), the preprocessed OCT images may be horizontally connected so that they can be input to the neural network model in the same size. That is, in the preprocessing step (S300), the ganglion cell layer (GCL) image preprocessed by the histogram matching technique and the CLAHE technique and the thickness is shown in the form of a heat map and the plan view (RNFL_ENFACE) image of the retinal nerve fiber layer shown by the difference in brightness may be connected horizontally and finally pre-processed into an image having a width of 480 and a height of 200.

다음으로, 상기 시기능 정보 출력단계(S400)는 시기능 정보 출력부(400)에 의하여, 기 학습된 신경망 모델에 전처리된 상기 OCT 이미지를 입력함으로써, 피검사자의 시기능 정보가 출력된다.Next, in the visual function information outputting step (S400), the visual function information of the subject is output by inputting the pre-processed OCT image to the pre-learned neural network model by the visual function information output unit 400.

상기 신경망 모델의 아키텍처는 도 3의 일실시예와 같다. 우선, 상기 신경망 모델은 Inception ResnetV2를 기초모델로 하여 ImageNet 데이터셋을 미리 학습시킨 가중치가 적용될 수 있다. 그리고 상기 기초모델 이후에는 전역평균풀링(Global Average Pooling; GAP)을 통해 각 특징(feature) 수만큼 밀도 층(Dense Layer)이 생성되고, Relu 활성화 함수를 갖는 다수 개의 완전연결 층(Fully Connected Layer)을 거치며 상기 특징이 압축될 수 있다. 그리고 상기 신경망 모델은 최종적으로 기 설정된 개수만큼의 상기 시기능 정보가 추출될 수 있다.The architecture of the neural network model is the same as the embodiment of FIG. 3 . First, the neural network model may be applied with pre-learned weights of the ImageNet dataset using Inception ResnetV2 as a base model. After the basic model, Dense Layers are generated as many as the number of features through Global Average Pooling (GAP), and a plurality of Fully Connected Layers having a Relu activation function The features may be compressed through. In addition, the neural network model may finally extract as many visual function information as a preset number.

예컨대, 전역평균풀링(GAP)을 통해서 2048개의 특징이 추출되면, 2048개의 밀도 층(Dense Layer)이 생성될 수 있고, 하나의 완전연결 층(Fully Connected Layer)에서 1/2로 압축된 1024개의 특징이 추출되고 다음 완전연결 층(Fully Connected Layer)에서 1/2로 압축된 512개의 특징이 추출되고 다음 완전연결 층(Fully Connected Layer)에서 1/2로 압축된 256개의 특징이 추출될 수 있다. 그리고 최종적으로 68개의 시기능 정보가 추출될 수 있고, 가장 바람직하게 각막의 형상으로 표시될 수 있다. 여기서, 상기 시기능 정보는 해당 구역에서 데시벨(dB)을 단위로 하는 수치이다.For example, if 2048 features are extracted through global average pooling (GAP), 2048 dense layers can be generated, and 1024 dense layers compressed by 1/2 in one fully connected layer. Features are extracted, 512 features compressed by 1/2 are extracted in the next fully connected layer, and 256 features compressed by 1/2 can be extracted in the next fully connected layer. . Finally, 68 visual function information can be extracted, and most preferably displayed in the shape of the cornea. Here, the visual function information is a numerical value in units of decibels (dB) in the corresponding area.

상기 완전연결 층(Fully Connected Layer)에서 1/2로 압축된 256개의 특징에서 최종적으로 68개의 시기능 정보가 추출되는 것은 Relu 활성화 함수를 통해 뉴런이 활성화되어 기 설정된 68개만큼의 시기능 정보에 대한 예측값이 각각 출력된 것이다. 따라서 상기 완전연결 층(Fully Connected Layer)으로부터 추출되는 시기능 정보의 개수는 변경될 수 있다. Finally, 68 pieces of visual function information are extracted from the 256 features compressed by 1/2 in the Fully Connected Layer. The predicted values for each are output. Accordingly, the number of visual function information extracted from the fully connected layer may be changed.

한편, 상기 시기능 정보 출력단계(S400)는 군집화부(410)에 의하여, 다수 개의 상기 시기능 정보가 기 설정된 기준에 따라 n개의 군집으로 군집화된 후 군집 간 평균값이 산출되는 군집화단계(S410)를 포함하고, 상기 군집화단계(S410)는, 임의의 군집 내 m개의 상기 시기능 정보가 선형 변환된 후 상기 평균값이 산출되고, 상기 평균값이 다시 로그 변환될 수 있다. 여기서, n,m은 양의 정수이다. On the other hand, the visual function information output step (S400) is a clustering step (S410) in which a plurality of visual function information is clustered into n clusters by the clustering unit 410 according to a predetermined criterion and then an average value between the clusters is calculated. In the clustering step (S410), after linear transformation of the m pieces of visual function information in a random cluster, the average value may be calculated, and the average value may be log-transformed again. Here, n and m are positive integers.

이때, 상기 시기능 정보 출력단계(S400)는 가장 바람직하게 Latent Class Analysis가 이용되어 다수 개의 상기 시기능 정보 중에서 악화되는 시기능 정보와 가장 관련성이 높은 인접 시기능 정보가 군집화 되어 68개의 시기능 정보가 7개의 군집으로 군집화 됨으로써, 중심시야의 악화패턴이 일반적인 모델보다 더 적합하게 반영될 수 있고 중심시야의 손상패턴이 더 직관적으로 제공될 수 있는 현저한 효과가 있다. At this time, in the visual function information output step (S400), Latent Class Analysis is most preferably used, and among a plurality of the visual function information, the deteriorated visual function information and the adjacent visual function information most closely related are clustered to obtain 68 visual function information. By being clustered into 7 clusters, there is a remarkable effect that the deterioration pattern of the central visual field can be reflected more appropriately than the general model and the damage pattern of the central visual field can be provided more intuitively.

예컨대, 상기 군집화단계(S410)는 1군 내지 7군으로 군집화 될 수 있고, 1군은 15개의 시기능 정보가 포함될 수 있다. 그리고 상기 군집화단계(S410)는 15개의 시기능 정보(dB)가 상기 [수학식 1]로 선형 변환(1/Lambert)될 수 있다. 그리고 상기 군집화단계(S410)는 선형 변환된 15개의 상기 시기능 정보(1/Lambert)에 대한 상기 평균값(1/Lambert)이 산출되고, 상기 평균값(1/Lambert)이 다시 상기 [수학식 1]에 대입되어 다시 로그 변환된 평균값(dB)이 획득될 수 있다.For example, in the clustering step (S410), groups 1 to 7 may be clustered, and group 1 may include 15 visual function information. In the clustering step (S410), 15 visual function information (dB) may be linearly converted (1/Lambert) into [Equation 1]. In the clustering step (S410), the average value (1/Lambert) for the linearly transformed 15 pieces of visual function information (1/Lambert) is calculated, and the average value (1/Lambert) is calculated again using [Equation 1]. The average value (dB) log-transformed again can be obtained by substituting in .

(1/Lambert)에서 (dB)로 로그 변환하는 스케일링(Scaling)을 하게 되면 구조와 기능 간에 인위적인 곡선관계를 갖게 할 수 있으나, 낮은 수치에서는 시야 민감도의 변화를 부풀리고, 높은 수치에서는 민감도의 변화를 최소화하는 단점이 존재한다. 이러한 단점을 극복하기 위해서 상기 군집화부(410)는 선형 변환된 15개의 상기 시기능 정보(1/Lambert)에 대한 상기 평균값(1/Lambert)을 산출한 후 로그 변환하는 스케일링(Scaling)을 반드시 수행하도록 한다.Scaling of logarithmic conversion from (1/Lambert) to (dB) can lead to an artificial curvilinear relationship between structure and function. There are downsides to minimize. In order to overcome this disadvantage, the clustering unit 410 calculates the average value (1/Lambert) for the linearly transformed 15 pieces of visual function information (1/Lambert), and then performs log-transformed scaling (Scaling). let it do

이상과 같이 본 발명에 의하면 기 학습된 신경망 모델에 전처리된 OCT 이미지를 입력하고 피검사자의 시기능 정보를 출력함으로써, 광간섭단층촬영 이미지로부터 안구 질환 진단 및 진행상황을 판단하는데 있어서 일관성 및 정확성을 향상시킬 수 있는 현저한 효과가 있다.As described above, according to the present invention, by inputting the preprocessed OCT image to the pre-learned neural network model and outputting the test subject's visual function information, consistency and accuracy are improved in diagnosing eye diseases and determining the progress from optical coherence tomography images. There are remarkable effects that can be done.

실시예들은 하드웨어, 소프트웨어, 펌웨어, 미들웨어, 마이크로코드, 하드웨어 기술 언어, 또는 이들의 임의의 조합에 의해 구현될 수 있다. 소프트웨어, 펌웨어, 미들웨어 또는 마이크로코드로 구현되는 경우, 필요한 작업을 수행하는 프로그램 코드 또는 코드 세그먼트들은 컴퓨터 판독 가능 저장 매체에 저장되고 하나 이상의 프로세서에 의해 실행될 수 있다.Embodiments may be implemented by hardware, software, firmware, middleware, microcode, hardware description language, or any combination thereof. When implemented in software, firmware, middleware or microcode, the program code or code segments that perform necessary tasks may be stored on a computer readable storage medium and executed by one or more processors.

그리고 본 명세서에 설명된 주제의 양태들은 컴퓨터에 의해 실행되는 프로그램 모듈 또는 컴포넌트와 같은 컴퓨터 실행 가능 명령어들의 일반적인 맥락에서 설명될 수 있다. 일반적으로, 프로그램 모듈 또는 컴포넌트들은 특정 작업을 수행하거나 특정 데이터 형식을 구현하는 루틴, 프로그램, 객체, 데이터 구조를 포함한다. 본 명세서에 설명된 주제의 양태들은 통신 네트워크를 통해 링크되는 원격 처리 디바이스들에 의해 작업들이 수행되는 분산 컴퓨팅 환경들에서 실시될 수도 있다. 분산 컴퓨팅 환경에서, 프로그램 모듈들은 메모리 저장 디바이스들을 포함하는 로컬 및 원격 컴퓨터 저장 매체에 둘 다에 위치할 수 있다.And aspects of the subject matter described herein may be described in the general context of computer-executable instructions, such as a program module or component executed by a computer. Generally, program modules or components include routines, programs, objects, and data structures that perform particular tasks or implement particular data types. Aspects of the subject matter described herein may be practiced in distributed computing environments where tasks are performed by remote processing devices that are linked through a communications network. In a distributed computing environment, program modules may be located in both local and remote computer storage media including memory storage devices.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 으로 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with limited examples and drawings, those skilled in the art can make various modifications and variations from the above description. For example, the described techniques are performed in a different order than the described method, and/or the components of the system, structure, device, circuit, etc. described in are combined or combined in a different form than the described method, or in a different configuration. Appropriate results can be achieved even when substituted or substituted by elements or equivalents.

그러므로 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents of the claims are within the scope of the following claims.

100.. OCT 이미지 추출부
200.. 수평반전 적용부
300.. 전처리부
400.. 시기능 정보 출력부
410.. 군집화부
100.. OCT image extraction unit
200.. Horizontal inversion application part
300.. pre-processing
400.. Visual function information output unit
410.. Colonization Department

Claims (5)

SS-OCT 검사지로부터 양안에 대한 신경절 세포층(GCL), 망막 신경 섬유층(RNFL), 망막 신경 섬유층의 평면도(RNFL_ENFACE) 중 적어도 하나를 포함하는 OCT 이미지를 추출하는 OCT 이미지 추출부;
상기 OCT 이미지에서 임의의 단안에 대해 수평 반전을 적용하는 수평 반전 적용부;
수평 반전이 적용된 상기 OCT 이미지의 일관성을 향상시킬 수 있도록 히스토그램 매칭기법을 사용하여 전처리하고, 수평 반전이 적용된 상기 OCT 이미지의 대비를 향상시킬 수 있도록 클라헤(CLAHE)기법을 사용하여 전처리하는 전처리부; 및
기 학습된 신경망 모델에 전처리된 상기 OCT 이미지를 입력함으로써, 피검사자의 시기능 정보를 출력하는 시기능 정보 출력부;를 포함하는 인공지능 기술기반 광간섭단층영상을 통한 시기능 정보 추출 시스템.
An OCT image extraction unit for extracting an OCT image including at least one of a ganglion cell layer (GCL), a retinal nerve fiber layer (RNFL), and a plan view (RNFL_ENFACE) of the retinal nerve fiber layer for both eyes from the SS-OCT test strip;
a horizontal inversion application unit for applying horizontal inversion to an arbitrary monocular in the OCT image;
A pre-processing unit that preprocesses using a histogram matching technique to improve the consistency of the OCT image to which horizontal inversion is applied and preprocesses it using a CLAHE technique to improve the contrast of the OCT image to which horizontal inversion is applied. ; and
A visual function information extraction system through an optical coherence tomography based on artificial intelligence technology comprising: a visual function information output unit for outputting visual function information of a subject by inputting the preprocessed OCT image to a pre-learned neural network model.
제1 항에 있어서,
상기 전처리부는,
상기 신경망 모델에 동일한 크기로 입력할 수 있도록 전처리된 상기 OCT 이미지를 수평 연결하는 것을 특징으로 하는 인공지능 기술기반 광간섭단층영상을 통한 시기능 정보 추출 시스템.
According to claim 1,
The pre-processing unit,
A visual function information extraction system through artificial intelligence technology-based optical coherence tomography, characterized in that for horizontally connecting the preprocessed OCT images so that they can be input in the same size to the neural network model.
제1 항에 있어서,
상기 신경망 모델은,
Inception ResnetV2를 기초모델로 하여 ImageNet 데이터셋을 미리 학습시킨 가중치를 적용하고,
상기 기초모델 이후에는 전역평균풀링(Global Average Pooling; GAP)을 통해 특징의 수만큼 밀도 층(Dense Layer)을 생성하고,
Relu 활성화 함수를 갖는 다수 개의 완전연결 층(Fully Connected Layer)을 거치며 상기 특징을 압축시키고,
기 설정된 개수만큼의 상기 시기능 정보가 추출되는 것을 특징으로 하는 인공지능 기술기반 광간섭단층영상을 통한 시기능 정보 추출 시스템.
According to claim 1,
The neural network model,
Using Inception ResnetV2 as a base model, weights pretrained on the ImageNet dataset are applied,
After the basic model, as many dense layers as the number of features are generated through Global Average Pooling (GAP),
Compressing the feature through a plurality of fully connected layers having a Relu activation function,
A visual function information extraction system through artificial intelligence technology-based optical coherence tomography, characterized in that the visual function information by a predetermined number is extracted.
제1 항에 있어서,
상기 시기능 정보 출력부는,
다수 개의 상기 시기능 정보를 기 설정된 기준에 따라 n개의 군집으로 군집화한 후 군집 간 평균값을 산출하는 군집화부;를 포함하고,
상기 군집화부는,
임의의 군집 내 m개의 상기 시기능 정보를 선형 변환시킨 후 상기 평균값을 산출하고, 상기 평균값을 다시 로그 변환시키는 것을 특징으로 하는 인공지능 기술기반 광간섭단층영상을 통한 시기능 정보 추출 시스템.
여기서, n, m은 양의 정수이다.
According to claim 1,
The visual function information output unit,
A clustering unit configured to cluster the plurality of visual function information into n clusters according to a predetermined criterion and then calculate an average value between the clusters;
The clustering unit,
A visual function information extraction system through artificial intelligence technology-based optical coherence tomography, characterized in that the average value is calculated after linear transformation of the m visual function information in any cluster, and the average value is log-transformed again.
Here, n and m are positive integers.
OCT 이미지 추출부에 의하여, SS-OCT 검사지로부터 양안에 대한 신경절 세포층(GCL), 망막 신경 섬유층(RNFL), 망막 신경 섬유층의 평면도(RNFL_ENFACE) 중 적어도 하나를 포함하는 OCT 이미지가 추출되는 OCT 이미지 추출단계;
수평 반전 적용부에 의하여, 상기 OCT 이미지에서 임의의 단안에 대해 수평 반전이 적용되는 수평 반전 적용단계;
전처리부에 의하여, 수평 반전이 적용된 상기 OCT 이미지의 일관성을 향상시킬 수 있도록 히스토그램 매칭기법이 시용되어 전처리되고, 수평 반전이 적용된 상기 OCT 이미지의 대비를 향상시킬 수 있도록 클라헤(CLAHE)기법이 사용되어 전처리되는 전처리단계; 및
시기능 정보 출력부에 의하여, 기 학습된 신경망 모델에 전처리된 상기 OCT 이미지를 입력함으로써, 피검사자의 시기능 정보가 출력되는 시기능 정보 출력단계;를 포함하는 인공지능 기술기반 광간섭단층영상을 통한 시기능 정보 추출 방법.
The OCT image extraction unit extracts an OCT image in which an OCT image including at least one of a ganglion cell layer (GCL), a retinal nerve fiber layer (RNFL), and a plan view of the retinal nerve fiber layer (RNFL_ENFACE) for both eyes is extracted from the SS-OCT test strip. step;
a horizontal inversion application step of applying horizontal inversion to an arbitrary monocular in the OCT image by a horizontal inversion application unit;
By the pre-processing unit, a histogram matching technique is applied and preprocessed to improve the consistency of the OCT image to which horizontal inversion is applied, and a CLAHE technique is used to improve the contrast of the OCT image to which horizontal inversion is applied. A pre-processing step that is pre-processed; and
A visual function information output step of outputting the visual function information of the subject by inputting the preprocessed OCT image to the pre-learned neural network model by the visual function information output unit; through optical coherence tomography based on artificial intelligence technology, including A method for extracting visual function information.
KR1020220007531A 2022-01-19 2022-01-19 System and Method for Extracting Visual Function Information Through Optical Coherence Tomography based on Artificial Intelligence KR102471991B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220007531A KR102471991B1 (en) 2022-01-19 2022-01-19 System and Method for Extracting Visual Function Information Through Optical Coherence Tomography based on Artificial Intelligence

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220007531A KR102471991B1 (en) 2022-01-19 2022-01-19 System and Method for Extracting Visual Function Information Through Optical Coherence Tomography based on Artificial Intelligence

Publications (1)

Publication Number Publication Date
KR102471991B1 true KR102471991B1 (en) 2022-11-30

Family

ID=84234444

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220007531A KR102471991B1 (en) 2022-01-19 2022-01-19 System and Method for Extracting Visual Function Information Through Optical Coherence Tomography based on Artificial Intelligence

Country Status (1)

Country Link
KR (1) KR102471991B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210012971A (en) 2019-07-26 2021-02-03 옵토스 피엘씨 Functional OCT Data Processing
KR20220001162A (en) * 2020-06-29 2022-01-05 주식회사 메디웨일 Diagnosis assistance method and apparatus

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210012971A (en) 2019-07-26 2021-02-03 옵토스 피엘씨 Functional OCT Data Processing
KR20220001162A (en) * 2020-06-29 2022-01-05 주식회사 메디웨일 Diagnosis assistance method and apparatus

Similar Documents

Publication Publication Date Title
Li et al. Deep learning based early stage diabetic retinopathy detection using optical coherence tomography
Saxena et al. A glaucoma detection using convolutional neural network
Quellec et al. Three-dimensional analysis of retinal layer texture: identification of fluid-filled regions in SD-OCT of the macula
Abràmoff et al. Retinal imaging and image analysis
Li et al. DeepRetina: layer segmentation of retina in OCT images using deep learning
Giancardo et al. Textureless macula swelling detection with multiple retinal fundus images
CN108618749B (en) Retina blood vessel three-dimensional reconstruction method based on portable digital fundus camera
WO2009131655A2 (en) Automated assessment of optic nerve head with spectral domain optical coherence tomograph
CN114450716A (en) Image processing for stroke characterization
Duan et al. A generative model for OCT retinal layer segmentation by groupwise curve alignment
Pizer et al. Fundamental properties of medical image perception
CN114176616A (en) Venous thrombosis detection method, electronic device and storage medium
CN112435281B (en) Multispectral fundus image analysis method and system based on counterstudy
CN110598652B (en) Fundus data prediction method and device
KR102471991B1 (en) System and Method for Extracting Visual Function Information Through Optical Coherence Tomography based on Artificial Intelligence
Elbita et al. Preparation of 2D sequences of corneal images for 3D model building
CN116807452A (en) Scoliosis 3D detection method, system, equipment and medium
Rani et al. Classification of retinopathy of prematurity using back propagation neural network
Tălu et al. Characterization of human retinal vessel arborisation in normal and amblyopic eyes using multifractal analysis
Si et al. Retina 3D perception reconstruction algorithm based on visual light field image
Al-Fahdawi et al. An automatic corneal subbasal nerve registration system using FFT and phase correlation techniques for an accurate DPN diagnosis
IT201800001656A1 (en) Image processing method and method for determining the quantitative and / or qualitative characteristics of objects reproduced in an image, image processing system and system for determining the quantitative and / or qualitative characteristics of the objects reproduced in an image
CN111938655B (en) Orbit soft tissue form evaluation method, system and equipment based on key point information
Avetisov et al. Calculation of anisotropy and symmetry coefficients of corneal nerve orientation based on automated recognition of digital confocal images
Padmasini et al. Comparative study of iris and retinal images for early detection of diabetic mellitus

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant