KR20230111522A - 병적 근시 진단 장치 및 방법 - Google Patents

병적 근시 진단 장치 및 방법 Download PDF

Info

Publication number
KR20230111522A
KR20230111522A KR1020220007476A KR20220007476A KR20230111522A KR 20230111522 A KR20230111522 A KR 20230111522A KR 1020220007476 A KR1020220007476 A KR 1020220007476A KR 20220007476 A KR20220007476 A KR 20220007476A KR 20230111522 A KR20230111522 A KR 20230111522A
Authority
KR
South Korea
Prior art keywords
model
pathological myopia
learning
neural network
diagnosing
Prior art date
Application number
KR1020220007476A
Other languages
English (en)
Inventor
최인영
김용찬
고태훈
박소진
Original Assignee
가톨릭대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 가톨릭대학교 산학협력단 filed Critical 가톨릭대학교 산학협력단
Priority to KR1020220007476A priority Critical patent/KR20230111522A/ko
Priority to PCT/KR2022/016065 priority patent/WO2023140469A1/ko
Publication of KR20230111522A publication Critical patent/KR20230111522A/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/102Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for optical coherence tomography [OCT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Physics & Mathematics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Ophthalmology & Optometry (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Pathology (AREA)
  • Signal Processing (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

본 개시는 병적 근시 진단 장치 및 방법에 관한 것으로서, 특히 인공지능 알고리즘을 통해 광간섭 단층촬영 장치로 촬영된 이미지로부터 병적 근시를 적시에 진단할 수 있는 병적 근시 진단 장치 및 방법을 제공할 수 있다. 구체적으로, 광간섭 단층 장치로 촬영된 안구의 이미지를 동영상 정보로 변환하고, 동영상 정보에 포함된 3차원 정보를 학습하여 병적 근시를 진단할 수 있는 병적 근시 진단 장치 및 방법을 제공할 수 있다.

Description

병적 근시 진단 장치 및 방법{APPARATUS AND METHOD FOR DETECTION OF PATHOLOGIC MYOPIA}
본 실시예들은 병적 근시 진단 장치 및 방법을 제공한다.
광간섭 단층촬영(Optical Coherence Tomography, OCT) 장치는 근적외선(파장 0.6㎛ ~ 1.3㎛) 영역의 광원을 사용하여 비접촉, 비침습적으로 생체 조직의 단면을 영상화하는 장치로, 컴퓨터 단층촬영(X-ray computed tomography; CT), 초음파 영상촬영(ultrasound imaging), 자기 공명 영상 촬영기와 같은 기존의 계측 장비들이 가지는 인체 유해성 문제, 가격 문제 및 측정 분해능 문제를 보완하기 위하여 연구되고 있는 새로운 영상 촬영 기술일 수 있다. 특히, OCT 장치를 이용한 검사는 안구의 구조를 3차원으로 확인하여 질환의 발생 부위를 입체적 및 정량화할 수 있어 안저 검사보다 안구를 더 세분화 하여 정밀하게 검사 가능하기 때문에 최근에는 안과용 기기로서 많이 이용될 수 있다. 이에 따라, 최근 안과에서는 이미지를 이용한 딥러닝 기술이 발달하고 있으며, 다양한 질환에 대해 다양한 데이터(fundus image, OCT 등)를 가지고 연구가 진행되고 있다. 다만, 병적 근시 역시 OCT 검사를 이용하여 설명할 수 있으나, 숙련된 전문가에 의해 많은 시간과 비용이 소모된다는 문제점이 있다.
또한, 병적 근시의 유병률은 전 세계적으로 3%에 해당하며 중국, 대만, 홍콩, 일본, 싱가포르, 한국과 같은 동아시아 국가에서는 병적 근시가 시각 장애(vision impairment)의 주요 원인이 될 수 있다. 다만, 현재 병적 근시에 대한 명확한 정의가 없고, IMI(International Myopia Institute)에 따르면 병적 근시는 안축장이 길어짐으로써 안구 후방의 구조적인 변화를 초래하는 근시로 인해 안구 기능 이상이 발생하는 경우를 의미할 수 있다. 하지만, 일반적으로 안축장의 연장이 안구 후방의 구조적 변화에 중요한 역할을 하는 것으로 알려져 있으나 후포도종(posterior staphyloma)은 안축장의 연장 없이 발병한다는 점에서 이 역시 병적 근시의 유일한 지표는 아닐 수 있다. 따라서, 병적 근시는 망막박리, 백내장, 녹내장, 황반 변성 등의 합병증 및 실명을 유발할 수 있어 병적 근시를 적시에 진단하는 것은 환자의 시각장애 및 실명을 막기 위해 필수적일 수 있다. 하지만, 병적 근시에 대해 정량적인 정의가 없어 전문가의 해석에 의해 편향 될 수 있으며, 이러한 숙련된 병적 근시 전문가는 전 세계적으로 충분치 않아 진단에 있어 시간과 비용이 많이 든다는 문제점이 있다.
따라서, 인공지능 알고리즘을 통해 광간섭 단층촬영 장치로 촬영된 이미지로부터 병적 근시를 적시에 진단할 수 있는 기술을 필요로 하고 있다.
이러한 배경에서, 본 실시예들 인공지능 알고리즘을 통해 광간섭 단층촬영 장치로 촬영된 이미지로부터 병적 근시를 적시에 진단할 수 있는 병적 근시 진단 장치 및 방법을 제공하는데 있다.
전술한 목적을 달성하기 위하여, 일 측면에서, 본 실시예는 병적 근시 진단 장치에 있어서, 광간섭 단층 촬영(Optical coherence tomography, OCT)장치로 촬영된 안구의 이미지 정보를 획득하여 미리 설정된 형식의 동영상 정보로 변환하는 전처리부, 동영상 정보에 포함된 안구의 구조에 대응하는 3차원 정보를 학습하여 병적 근시를 진단하는 학습 모델을 생성하는 모델 생성부 및 학습 모델을 통해 안구의 이미지 정보로부터 병적 근시(pathologic myopia)를 진단하는 진단부를 포함하는 것을 특징으로 하는 병적 근시 진단 장치를 제공한다.
다른 측면에서, 본 실시예는 병적 근시 진단 방법에 있어서, 광간섭 단층 촬영(Optical coherence tomography, OCT)장치로 촬영된 안구의 이미지 정보를 획득하여 미리 설정된 형식의 동영상 정보로 변환하는 전처리 단계, 동영상 정보에 포함된 안구의 구조에 대응하는 3차원 정보를 학습하여 병적 근시를 진단하는 학습 모델을 생성하는 모델 생성 단계 및 학습 모델을 통해 안구의 이미지 정보로부터 병적 근시(pathologic myopia)를 진단하는 진단 단계를 포함하는 것을 특징으로 하는 병적 근시 진단 방법을 제공한다.
본 실시예들에 의하면, 인공지능 알고리즘을 통해 광간섭 단층촬영 장치로 촬영된 이미지로부터 병적 근시를 적시에 진단할 수 있는 병적 근시 진단 장치 및 방법을 제공할 수 있다.
도 1은 본 개시의 일 실시예에 따른 병적 근시 진단 장치의 구성을 도시한 도면이다.
도 2는 본 개시의 일 실시예에 따른 병적 근시 진단 장치의 진단 동작을 설명하기 위한 흐름도이다.
도 3은 본 개시의 일 실시예에 따른 병적 근시 진단 장치의 학습 데이터를 설명하기 위한 예시를 도시한 도면이다.
도 4는 본 개시의 일 실시예에 따른 병적 근시 진단 장치의 학습 모델을 설명하기 위한 예시를 도시한 도면이다.
도 5는 본 개시의 다른 실시예에 따른 병적 근시 진단 장치의 모델 생성부에서 학습 모델을 결정하는 예시를 도시한 도면이다.
도 6은 본 개시의 일 실시예에 따른 병적 근시 진단 방법의 흐름도이다
도 7은 본 개시의 일 실시예에 따른 병적 근시 진단 장치의 블록도이다.
본 개시는 병적 근시 진단 및 방법에 관한 것이다.
이하, 본 개시의 일부 실시 예들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 개시를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 개시의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.
또한, 본 개시의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결되거나 또는 접속될 수 있지만, 각 구성 요소 사이에 또 다른 구성 요소가 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다.
본 명세서에서의 광간섭 단층 촬영 장치는 근적외선 영역의 빛을 이용하여 단층 이미지를 촬영하는 장치로, 마이클 간섭계로 대표되는 간섭계를 이용하여 기준단과 샘플단의 광경로 차이가 광원의 간섭 거리 안에 있을 경우에 간섭신호를 만들고, 이 간섭 신호에 따라 2차원 또는 3차원 단층 이미지 정보를 획득하는 장치를 의미할 수 있다.
이하 첨부된 도면을 참고하여 본 개시를 상세히 설명하기로 한다.
도 1은 본 개시의 일 실시예에 따른 병적 근시 진단 장치의 구성을 도시한 도면이다.
도 1을 참조하면, 본 개시의 일 실시예에 따른 병적 근시 진단 장치(100)는, 광간섭 단층 촬영(Optical coherence tomography, OCT)장치로 촬영된 안구의 이미지 정보를 획득하여 미리 설정된 형식의 동영상 정보로 변환하는 전처리부(110), 동영상 정보에 포함된 안구의 구조에 대응하는 3차원 정보를 학습하여 병적 근시를 진단하는 학습 모델을 생성하는 모델 생성부(120) 및 학습 모델을 통해 안구의 이미지 정보로부터 병적 근시(pathologic myopia)를 진단하는 진단부(130)를 포함하는 병적 근시 진단 장치(100)를 제공한다.
일 실시예에 따른 전처리부(110)는 광간섭 단층 촬영 장치로 촬영된 안구의 이미지 정보를 획득할 수 있다. 일 예로, 전처리부(110)는 광간섭 단층 촬영 장치로 촬영된 안구의 이미지 정보를 획득하여 미리 설정된 형식의 동영상 정보로 변환할 수 있다. 여기서, 이미지 정보는 환자의 안구를 정면 기준으로 각막에서부터 시신경까지 일정한 간격 단위로 촬영된 복수의 이미지 정보일 수 있다. 예를 들어, 전처리부(110)는 광간섭 단층 촬영(Optical coherence tomography, OCT)에서 파생된 이미징 기술인 OCT En face 또는 C-scan 으로 망막 층의 정면 섹션을 생성한 이미지 정보를 획득할 수 있다.
다른 예를 들어, 전처리부(110)는 복수의 이미지 정보 중에서 선택된 일부 이미지 정보를 결합하여 미리 설정된 형식의 단일 동영상 정보로 변환할 수 있다. 여기서, 단일 동영상 정보는 환자 별로 생성될 수 있다. 구체적으로, 전처리부(110)는 단일 동영상 정보의 이미지 픽셀 크기와 파일 형식을 미리 설정할 수 있다. 또한, 전처리부(110)는 단일 동영상 정보의 재생 시간 단위 또는 초당 프레임 단위를 미리 설정할 수도 있다. 이에 따라, 전처리부(110)는 환자 별로 256 pixels x 300 pixels 인 mp4 파일 형식의 단일 동영상 정보를 생성할 수 있다. 또한, 전처리부(110)는 환자 별로 초당 40프레임의 이미지를 5초 동안 재생하는 형식의 단일 동영상 정보를 생성할 수도 있다.
일 실시예에 따른 모델 생성부(120)는 병적 근시를 진단하는 학습 모델을 생성할 수 있다. 일 예로, 모델 생성부(120)는 동영상 정보에 포함된 안구의 구조에 대응하는 3차원 정보를 학습하여 병적 근시를 진단하는 학습 모델을 생성할 수 있다. 예를 들어, 모델 생성부(120)는 3차원 정보를 구성하는 각 픽셀의 클래스를 분류하지 않고, 3차원 정보를 그대로 학습하여 학습 모델을 생성할 수 있다. 즉, 모델 생성부(120)는 세그멘테이션(Semantic segmentation) 과정 없이 안구의 후부 구조에 대응하는 3차원 정보를 학습하여 학습 모델을 생성할 수 있다.
다른 예를 들어, 모델 생성부(120)는 병적 근시 여부가 라벨링된 복수의 동영상 정보들을 학습 데이터로 이용하여 학습 모델을 학습시킬 수 있다. 그리고, 모델 생성부(120)는 학습 모델의 훈련에 사용되는 훈련 세트(Training Set), 검증에 사용되는 검증 세트(Validation Set) 및 테스트에 사용되는 테스트 세트(Test Set)에 포함되는 각각의 학습 데이터 개수를 미리 설정된 비율로 결정할 수 있다. 구체적으로, 훈련 세트, 검증 세트 및 테스트 세트에 포함되는 학습 데이터 개수의 비율은 미리 설정된 비율인 9:1:1 일 수 있다. 다만, 해당 비율은 일 예로, 병적 근시 진단의 정확도를 높일 수 있는 값이면 이에 한정되는 것은 아니다. 학습 데이터에 관한 상세한 내용은 도 4를 참조하여 후술한다.
또 다른 예를 들어, 모델 생성부(120)는 3D CNN(Convolutional Neural Network) 기반의 신경망 모델로 이루어진 학습 모델을 생성할 수 있다. 또한, 모델 생성부(120)는 복수의 신경망 모델을 생성하고, 생성된 복수의 신경망 모델 중 가장 정확도가 높은 신경망 모델을 선택하여 학습 모델로 결정할 수 있다. 여기서, 복수의 신경망 모델은 ResNet 모델, ResNext 모델 및 EfficientNet 모델 중 적어도 하나 이상의 모델을 포함할 수 있다. 학습 모델에 관한 상세한 내용은 도 5를 참조하여 후술한다.
일 실시예에 따른 진단부(130)는 생성된 학습 모델을 통해 안구의 이미지 정보로부터 병적 근시를 진단할 수 있다. 일 예로, 진단부(130)는 새로운 환자의 이미지 정보를 학습 모델에 입력하면 환자의 병적 근시 여부를 진단할 수 있다. 예를 들어, 진단부(130)는 광간섭 단층 촬영 장치로 촬영된 환자의 안구 이미지 정보를 학습 모델에 입력하면 환자의 병적 근시 여부를 자동으로 진단할 수 있다.
도 2는 본 개시의 일 실시예에 따른 병적 근시 진단 장치의 진단 동작을 설명하기 위한 흐름도이다.
도 2를 참조하면, 본 개시의 일 실시예에 따른 병적 근시 진단 장치(100)가 학습 모델을 통해 병적 근시를 진단하는 내용을 설명할 수 있다. 일 예로, 전처리부(110)는 광간섭 단층 촬영 장치로 촬영된 안구의 이미지 정보를 획득할 수 있다(S210). 일 예로, 전처리부(110)는 환자의 안구를 정면 기준으로 각막에서부터 시신경까지 일정한 간격 단위로 촬영된 복수의 이미지 정보를 획득할 수 있다. 예를 들어, 전처리부(110)는 정면 기준으로 안구의 전면부인 각막에서부터 후면부인 시신경까지 2.6μm 단위로 슬라이스된 복수의 이미지 정보를 획득할 수 있다. 이에 따라, 전처리부(110)는 각각의 환자마다 약 1000 개의 OCT 이미지로 구성된 안구의 이미지 정보를 획득할 수 있다. 다만, 이미지 정보를 생성한 간격 단위 및 이미지 정보를 구성한 이미지 개수는 일 예를 설명한 것으로 이에 한정되는 것은 아니다.
일 예로, 전처리부(110)는 획득한 안구의 이미지를 미리 설정된 형식의 동영상 정보로 변환할 수 있다(S220). 예를 들어, 전처리부(110)는 환자 별로 획득한 복수의 이미지 정보 중에서 선택된 일부 이미지 정보를 결합하여 미리 설정된 형식의 단일 동영상 정보로 변환할 수 있다. 구체적으로, 단일 동영상 정보의 형식은 WMV, 3GP, MP4, AVI, MPEG 의 파일 형식으로 미리 설정될 수 있다. 또한, 단일 동영상 정보의 형식은 재생 시간에 따른 프레임 개수로 미리 설정될 수도 있다. 이에 따라, 전처리부(110)는 환자 별로 획득한 복수의 이미지 정보를 전처리하여 동일한 형식의 동영상 정보로 변환하고, 변환된 동영상 정보가 학습 모델에 입력될 수 있다.
일 예로, 모델 생성부(120)는 동영상 정보에 포함된 안구의 구조에 대응하는 3차원 정보를 학습하여 병적 근시를 진단하는 학습 모델을 생성할 수 있다(S230). 예를 들어, 모델 생성부(120)는 동영상 정보에 포함된 안구의 구조에 대응하는 3차원 정보를 그대로 학습하여 병적 근시를 진단하는 학습 모델을 생성할 수 있다. 여기서, 학습 모델은 3D CNN(Convolutional Neural Network) 기반의 신경망 모델일 수 있다. 구체적으로, 학습 모델은 3차원 정보를 그대로 입력층에 입력 받아 3차원 정보로 출력하여 다음 계층(layer)로 전달하기 때문에 형상을 가지는 이미지 정보를 제대로 학습시킬 가능성이 높을 수 있다. 따라서, 학습 모델은 2D CNN이 아닌 3D CNN 기반으로써, 3차원 이미지 형태로 획득되는 OCT 이미지 정보를 정확하게 분석할 수 있다.
다른 예를 들어, 모델 생성부(120)는 복수의 신경망 모델을 생성하고, 생성된 복수의 신경망 모델 중 가장 정확도가 높은 신경망 모델을 선택하여 학습 모델로 결정할 수 있다. 여기서, 복수의 신경망 모델은 3D CNN 기반의 신경망 모델로 ResNet 모델, ResNext 모델 및 EfficientNet 모델 중 적어도 하나 이상의 모델을 포함할 수 있다. 그리고, 모델 생성부(120)는 전처리부(110)에서 획득한 복수의 이미지 정보를 기초로 변환된 동영상 정보들을 이용하여 전술한 신경망 모델들의 학습을 수행할 수 있다.
일 예로, 진단부(130)는 학습 모델을 통해 안구의 이미지 정보로부터 병적 근시를 진단할 수 있다. 예를 들어, 진단부(130)는 학습 모델의 학습 결과에 기초하여 환자의 병적 근시 또는 정상 여부를 진단할 수 있다.
도 3은 본 개시의 일 실시예에 따른 병적 근시 진단 장치의 학습 데이터를 설명하기 위한 예시를 도시한 도면이다.
도 3을 참조하면, 본 개시의 일 실시예에 따른 병적 근시 진단 장치(100)가 학습 모델을 생성하기 위해 학습 데이터를 이용하는 내용을 설명할 수 있다. 일 예로, 전처리부(110)는 임상 정보 DB(310)로부터 안구의 이미지 정보를 획득하여 정규화(Data Normalization)할 수 있다. 예를 들어, 전처리부(110)는 임상 정보 DB(310)로부터 획득한 이미지 정보 중 일부 이미지 정보를 제외하고, 병적 근시가 있는 환자의 이미지 정보와 병적 근시가 없는 정상인의 이미지 정보를 각각 획득할 수 있다. 여기서, 임상 정보 DB(310)는 일정 기간 동안 안과에서 OCT 검사를 받은 환자의 이미지 정보가 저장된 데이터 세트(Data set)일 수 있다. 구체적으로, 전처리부(110)는 획득한 안구의 이미지 정보 중에서 안축장 길이(axial length)가 24.0mm 미만인 환자의 이미지 정보를 제외할 수 있다. 그리고, 전처리부(110)는 맥락망막 장애(당뇨망막병증, 노인성 황반변성)가 있는 환자의 이미지 정보를 제외할 수 있다. 그리고, 전처리부(110)는 특정 수술(vitreoretinal, glaucoma filtering, tube surgery) 기록이 있는 환자의 이미지 정보를 제외할 수 있다. 그리고, 전처리부(110)는 환자의 이미지 정보 중에서 결측치가 있거나 화질이 낮은 이미지 정보를 제외할 수 있다.
다른 예를 들어, 전처리부(110)는 안구의 이미지 정보에 대해 정규화(Data Normalization)를 수행할 수 있다. 구체적으로, 전처리부(110)는 안구의 이미지 정보에 포함된 노이즈 성분을 제거하고, 미리 설정된 크기로 조정하는 정규화를 수행할 수 있다. 또한, 전처리부(110)는 전술한 과정을 수행하여 확보한 학습 데이터를 다양한 방법을 통해 데이터 증강(Data Augmentation)시킬 수 있다. 여기서, 데이터 증강은 학습 데이터의 양을 늘리는 방법으로, 학습 데이터에 대해 뒤집기(Flip), 회전(Rotation), 이동(Translation), 배율(Scale) 등 위치적 정보를 변환하는 방법과 영상 밝기(Brightness) 및 감마 보정(Gamma correction), 블러링(Blurring), 샤프닝(Sharpening) 등 픽셀 강도 정보를 기반으로 변환하는 방법일 수 있다.
일 예로, 모델 생성부(120)는 학습 모델(350)의 훈련에 사용되는 훈련 세트(320), 검증에 사용되는 검증 세트(330) 및 테스트에 사용되는 테스트 세트(340)에 포함되는 각각의 학습 데이터 개수를 미리 설정된 비율로 결정할 수 있다. 여기서, 해당 비율은 병적 근시 여부 진단의 정확도를 높일 수 있는 값으로 설정될 수 있다. 예를 들어, 훈련 세트(320), 검증 세트(330) 및 테스트 세트(340)에 포함되는 각각의 학습 데이터 개수의 비율은 미리 설정된 비율 값인 9:1:1로 결정될 수 있다. 이에 따라, 전체 학습 데이터 개수가 367 임을 가정한다면, 훈련 세트(320)의 학습 데이터 개수는 293 개이고, 검증 세트(330) 및 테스트 세트(340)의 학습 데이터 개수는 각각 37 개로 결정될 수 있다.
다른 예를 들어, 훈련 세트(320), 검증 세트(330) 및 테스트 세트(340)의 학습 데이터들은 병적 근시가 있는 학습 데이터 개수 대비 병적 근시가 없는 학습 데이터 개수의 비율은 동일하게 결정될 수 있다. 이에 따라, 병적 근시에 대응하는 학습 데이터의 개수가 129 개이고, 정상에 대응하는 학습 데이터 개수의 비율이 238 개로 가정한다면, 병적 근시의 학습 데이터 개수 대비 정상의 학습 데이터 개수의 비율은 35:65로 결정될 수 있다. 마찬가지로, 훈련 세트(320)의 병적 근시의 학습 데이터 개수 대비 정상의 학습 데이터 개수의 비율 또한 35:65로 결정될 수 있다.
병적 근시 진단 장치(100)의 훈련 세트, 검증 세트 및 테스트 세트에 포함되는 각각의 학습 데이터 개수는 표 1과 같다.
Figure pat00001
도 4는 본 개시의 일 실시예에 따른 병적 근시 진단 장치의 학습 모델을 설명하기 위한 예시를 도시한 도면이다.
도 4를 참조하면, 본 개시의 일 실시예에 따른 병적 근시 진단 장치(100)가 학습 모델(350)을 생성하는 내용을 설명할 수 있다. 일 예로, 병적 근시 진단 장치(100)의 학습 모델(350)은 특정 입력에 대해 특정 출력이 출력되도록 학습된 신경망(neural network) 모델일 수 있다. 예를 들어, 신경망 모델은 연결선으로 연결된 많은 수의 인공 뉴런들을 이용하여 생물학적인 시스템의 계산 능력을 모방하는 인식 모델로 인공 뉴런들을 통해 학습을 수행할 수 있다. 또한, 신경망은 입력 레이어(input layer), 히든 레이어(hidden layer) 및 출력 레이어(output layer)를 포함하는 복수의 레이어로 구성될 수 있다. 그리고, 신경망은 복수의 히든 레이어들을 포함하는 깊은 신경망(deep neural network) 모델일 수 있다.
다른 예를 들어, 병적 근시 진단 장치(100)의 학습 모델(350)은 복수의 신경망 모델 중 정확도에 따라 자동으로 선택되어 결정된 최적의 학습 모델일 수 있다. 복수의 신경망 모델은 ResNet(ex, ResNet18) 모델, ResNext(ex, ResNext50) 모델 및 EfficientNet(ex, EfficientNetB0, EfficientNetB4) 모델 중 적어도 하나 이상의 모델을 포함하는 다양한 심층 신경망(DNN, Deep Neural Network)으로 구성될 수 있다. 구체적으로, 병적 근시 진단 장치(100)의 모델 생성부(120)는 최적의 학습 모델을 결정하기 위해 복수의 신경망 모델을 미리 생성하고, 각각의 학습 모델들을 순차로 학습한 학습 결과를 수치화하여 정확도(Accuracy)를 계산할 수 있다. 여기서, 정확도는 가장 직관적인 학습 모델의 성능을 나타낼 수 있는 평가 지표로서, 학습 데이터에서 종속 변수인 병적 근시 또는 정상 여부를 정확하게 모두 예측한 확률을 의미할 수 있다. 또한, 모델 생성부(120)는 학습 결과에 기초하여 각각의 학습 모델들의 민감도(Sensitivity), 특이도(Specificity) 또는 AUROC(Area Under the Receiver Operating Characteristics)를 계산할 수 있다. 여기서, 민감도는 실제로 병적 근시가 있는 환자 중에서 병적 근시가 있다고 분류된 사람들의 비율이고, 특이도는 실제로 병적 근시가 없는 정상인 중에서 정상이라고 분류된 사람들의 비율을 의미할 수 있다.
전술한 복수의 신경망 모델의 성능을 수치화한 결과는 표 2와 같다.
Figure pat00002
또 다른 예를 들어, 병적 근시 진단 장치(100)의 학습 모델(350)은 추가적으로 적어도 하나 이상의 밀도 레이어(Dense Layer)를 더 포함할 수 있다. 구체적으로, 밀도 레이어는 최종 출력을 생성하기 위한 전결합층(fully conntected layer, FC Layer)이라고도 하며, 모든 입력과 출력을 연결하여 학습할 수 있도록 설계될 수 있다. 또한, 밀도 레이어는 신경망 모델에서 서로 연속적으로 상관관계가 있는 정보가 아니라면 이 층을 통해 학습시킬 수 있는 경우가 많다.
도 5는 본 개시의 다른 실시예에 따른 병적 근시 진단 장치의 모델 생성부에서 학습 모델을 결정하는 예시를 도시한 도면이다.
도 5를 참조하면, 본 개시의 일 실시예에 따른 병적 근시 진단 장치(100)가 학습 모델(350)을 결정하는 내용을 설명할 수 있다. 일 예로, 모델 생성부(120)는 수신자 조작 특성 곡선(Reciever Operating Characteristics, ROC curve)에 기초하여 복수의 신경망 모델 중에서 학습 모델(350)을 결정할 수 있다. 예를 들어, 수신자 조작 특성 곡선(ROC curve)은 기준값(threshold)에 따른 신경망 모델의 성능 변화를 도시하기 위한 곡선일 수 있다. 구체적으로, 수신자 조작 특성 곡선은 x축의 1-(특이도 (specificity)), y축의 민감도(sensitivity)에 따라 시각화한 곡선일 수 있다. 그리고, AUROC(Area Under the Receiver Operating Characteristics)은 수신자 조작 특성 곡선의 밑면적을 계산한 값일 수 있다.
또한, 예를 들어, 모델 생성부(120)는 AUROC 값이 클수록 정확도가 높은 신경망 모델이며, AUROC 값이 작을수록, 정확도가 낮은 신경망 모델로 판단할 수 있다. AUROC 값이 1인 경우 진단 결과의 정확도가 100%이고, AUROC 값이 0.5인 경우 진단 결과의 정확도가 보통, 그리고 AUROC 값이 0인 경우 진단 결과의 정확도가 나쁜 것으로 판단할 수 있다. 구체적으로, 모델 생성부(120)가 생성한 ResNext 모델 및 ResNet 모델은 AUROC 값이 각각 0.95이고, EfficientNetB0 모델은 AUROC 값이 0.97, EfficientNetB4 모델은 AUROC 값이 0.98일 수 있다. 이에 따라, 모델 생성부(120)는 복수의 신경망 모델 중 가장 정확도가 높다고 판단되는 EfficientNetB4 모델을 학습 모델로 결정할 수 있다. 다만, 학습 모델은 정확도에 따라 결정되는 것으로, 이에 한정되는 것은 아니다. 따라서, 복수의 신경망 모델간의 정확도를 비교하여 학습 모델(350)을 선택함으로써, 가장 정확도가 높은 신경망 모을 학습 모델로 최종적으로 결정하여 환자의 병적 근시 여부를 진단할 수 있어, 진단 성능을 개선할 수 있다.
병적 근시 진단 장치(100)가 최종적으로 결정한 학습 모델(350)에 사용된 매개변수들은 표 3과 같다.
Figure pat00003
이하에서는 도 1 내지 도 5을 참조하여 설명한 병적 근시 진단 장치가 수행할 수 있는 병적 근시 진단 방법에 대해서 설명한다.
도 6은 본 개시의 일 실시예에 따른 병적 근시 진단 방법의 흐름도이다
도 6을 참조하면, 본 개시의 일 실시예에 따른 병적 근시 진단 방법은 획득한 안구의 이미지 정보를 변환하는 전처리 단계를 포함할 수 있다(S610). 일 예로, 병적 근시 진단 장치는 광간섭 단층 촬영 장치로 촬영된 안구의 이미지 정보를 획득하여 미리 설정된 형식의 동영상 정보로 변환할 수 있다. 여기서, 이미지 정보는 환자의 안구를 정면 기준으로 각막에서부터 시신경까지 일정한 간격 단위로 촬영된 복수의 이미지 정보일 수 있다. 예를 들어, 병적 근시 진단 장치는 광간섭 단층 촬영에서 파생된 이미징 기술인 OCT En face 또는 C-scan 으로 망막 층의 정면 섹션을 생성한 이미지 정보를 획득할 수 있다. 다른 예를 들어, 병적 근시 진단 장치는 복수의 이미지 정보 중에서 선택된 일부 이미지 정보를 결합하여 미리 설정된 형식의 단일 동영상 정보로 변환할 수 있다. 여기서, 단일 동영상 정보는 환자 별로 생성될 수 있다.
일 실시예에 따른 병적 근시 진단 방법은 병적 근시를 진단하는 학습 모델을 생성하는 모델 생성 단계를 포함할 수 있다(S620). 일 예로, 병적 근시 진단 장치는 동영상 정보에 포함된 안구의 구조에 대응하는 3차원 정보를 학습하여 병적 근시를 진단하는 학습 모델을 생성할 수 있다. 예를 들어, 병적 근시 진단 장치는 차원 정보를 구성하는 각 픽셀의 클래스를 분류하지 않고, 3차원 정보를 그대로 학습하여 학습 모델을 생성할 수 있다. 즉, 근시 진단 장치는 세그멘테이션(Semantic segmentation) 과정 없이 안구의 후부 구조에 대응하는 3차원 정보를 학습하여 학습 모델을 생성할 수 있다.
다른 예를 들어, 병적 근시 진단 장치는 병적 근시 여부가 라벨링된 복수의 동영상 정보들을 학습 데이터로 이용하여 학습 모델을 학습시킬 수 있다. 그리고, 병적 근시 진단 장치는 학습 모델의 훈련에 사용되는 훈련 세트(Training Set), 검증에 사용되는 검증 세트(Validation Set) 및 테스트에 사용되는 테스트 세트(Test Set)에 포함되는 각각의 학습 데이터 개수를 미리 설정된 비율로 결정할 수 있다. 구체적으로, 훈련 세트, 검증 세트 및 테스트 세트에 포함되는 학습 데이터 개수의 비율은 미리 설정된 비율인 9:1:1 일 수 있다.
또 다른 예를 들어, 병적 근시 진단 장치는 3D CNN(Convolutional Neural Network) 기반의 신경망 모델로 이루어진 학습 모델을 생성할 수 있다. 또한, 병적 근시 진단 장치는 복수의 신경망 모델을 생성하고, 생성된 복수의 신경망 모델 중 가장 정확도가 높은 신경망 모델을 선택하여 학습 모델로 결정할 수 있다. 여기서, 복수의 신경망 모델은 ResNet 모델, ResNext 모델 및 EfficientNet 모델 중 적어도 하나 이상의 모델을 포함할 수 있다.
일 실시예에 따른 병적 근시 진단 방법은 학습 모델을 통해 병적 근시를 진단하는 진단 단계를 포함할 수 있다(S630). 일 예로, 병적 근시 진단 장치는 생성된 학습 모델을 통해 안구의 이미지 정보로부터 병적 근시를 진단할 수 있다. 예를 들어, 병적 근시 진단 장치는 광간섭 단층 촬영 장치로 촬영된 새로운 환자의 안구 이미지 정보를 학습 모델에 입력하면 환자의 병적 근시 여부를 자동으로 진단할 수 있다.
도 7은 본 개시의 일 실시예에 따른 병적 근시 진단 장치의 블록도이다.
도 7을 참조하면, 일 실시예에 따른 병적 근시 진단 장치(100)는 통신 인터페이스(710) 및 프로세서(720)를 포함한다. 병적 근시 진단 장치(100)는 메모리(730)를 더 포함할 수 있다. 각 구성 요소, 통신 인터페이스(710), 프로세서(720) 및 메모리(730)는 통신 버스를 통해 서로 연결될 수 있다. 예를 들면, 통신 버스는 구성요소들을 서로 연결하고, 구성요소들 간의 통신(예: 제어 메시지 및/또는 데이터)을 전달하는 회로를 포함할 수 있다.
통신 인터페이스(710)는 광간섭 단층 촬영 장치로 촬영된 안구의 이미지 정보를 획득할 수 있다. 또한, 통신 인터페이스(710)는 무선 통신 또는 유선 통신을 통해서 외부 장치의 통신을 수행할 수 있다.
프로세서(720)는 도 1 내지 도 6을 통해 전술한 적어도 하나의 방법 또는 적어도 하나의 방법에 대응되는 알고리즘을 수행할 수 있다. 프로세서(720)는 목적하는 동작들(desired operations)을 실행시키기 위한 물리적인 구조를 갖는 회로를 가지는 하드웨어로 구현된 데이터 처리 장치일 수 있다. 예를 들어, 목적하는 동작들은 프로그램에 포함된 코드(code) 또는 인스트럭션들(instructions)을 포함할 수 있다. 예를 들어, 하드웨어로 구현된 데이터 처리 장치는 마이크로프로세서(microprocessor), 중앙 처리 장치(central processing unit), 프로세서 코어(processor core), 멀티-코어 프로세서(multi-core processor), 멀티프로세서(multiprocessor), NPU(Neural Processing Unit), ASIC(Application-Specific Integrated Circuit), FPGA(Field Programmable Gate Array)를 포함할 수 있다.
또한, 프로세서(720)는 프로그램을 실행하고, 병적 근시 진단 장치(100)를 제어할 수 있다. 프로세서(720)에 의하여 실행되는 프로그램 코드는 메모리(730)에 저장될 수 있다.
본 개시의 실시예에 따른 신경망 모델에 관한 정보는 프로세서(720) 내부 메모리에 저장되거나, 외부 메모리, 즉 메모리(730)에 저장될 수 있다. 예를 들어, 메모리(730)는 통신 인터페이스(710)를 통해 획득한 안구의 이미지 정보 또는 이미지 정보로부터 변환된 동영상 정보를 저장할 수 있다. 메모리(730)는 신경망 모델을 포함하는 인공 지능 모델을 저장할 수 있다. 또한, 메모리(730)는 프로세서(720)의 처리 과정에서 생성되는 다양한 정보 및 프로세서(720)에 의해 추출된 출력 정보들을 저장할 수 있다. 출력 정보는 신경망 연산 결과 또는 신경망 테스트 결과일 수 있다. 메모리(730)는 신경망 학습 결과를 저장할 수 있다. 신경망 학습 결과는, 병적 근시 진단 장치(100)에서 획득한 것일 수도 있고, 외부 장치로부터 획득한 것일 수도 있다. 신경망 모델의 학습 결과는, 가중치 및 바이어스 값을 포함할 수 있다. 이밖에도, 메모리(730)는 각종 데이터와 프로그램 등을 저장할 수 있다. 메모리(730)는 휘발성 메모리 또는 비휘발성 메모리를 포함할 수 있다. 메모리(730)는 하드 디스크 등과 같은 대용량 저장 매체를 구비하여 각종데이터를 저장할 수 있다.
이상에서, 본 개시의 실시 예를 구성하는 모든 구성 요소들이 하나로 결합되거나 결합되어 동작하는 것으로 설명되었다고 해서, 본 개시가 반드시 이러한 실시 예에 한정되는 것은 아니다. 즉, 본 개시의 목적 범위 안에서라면, 그 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성 요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성 요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체 (magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
또한, 이상에서 기재된 "포함하다", "구성하다" 또는 "가지다" 등의 용어는, 특별히 반대되는 기재가 없는 한, 해당 구성 요소가 내재될 수 있음을 의미하는 것이므로, 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것으로 해석되어야 한다. 기술적이거나 과학적인 용어를 포함한 모든 용어들은, 다르게 정의되지 않는 한, 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥 상의 의미와 일치하는 것으로 해석되어야 하며, 본 개시에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이상의 설명은 본 개시의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 개시의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 개시에 개시된 실시 예들은 본 개시의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예에 의하여 본 개시의 기술 사상의 범위가 한정되는 것은 아니다. 본 개시의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 개시의 권리범위에 포함되는 것으로 해석되어야 할 것이다.

Claims (16)

  1. 광간섭 단층 촬영(Optical coherence tomography, OCT) 장치로 촬영된 안구의 이미지 정보를 획득하여 미리 설정된 형식의 동영상 정보로 변환하는 전처리부;
    상기 동영상 정보에 포함된 상기 안구의 구조에 대응하는 3차원 정보를 학습하여 병적 근시(pathologic myopia)를 진단하는 학습 모델을 생성하는 모델 생성부; 및
    상기 학습 모델을 통해 상기 안구의 이미지 정보로부터 병적 근시를 진단하는 진단부;를 포함하는 것을 특징으로 하는 병적 근시 진단 장치.
  2. 제 1 항에 있어서,
    상기 이미지 정보는,
    환자의 안구를 정면 기준으로 각막에서부터 시신경까지 일정한 간격 단위로 촬영된 복수의 이미지 정보인 것을 특징으로 하는 병적 근시 진단 장치.
  3. 제 2 항에 있어서,
    상기 전처리부는,
    상기 복수의 이미지 정보 중에서 선택된 일부 이미지 정보를 결합하여 단일 동영상 정보로 변환하고, 상기 단일 동영상 정보는 환자 별로 생성되는 것을 특징으로 하는 병적 근시 진단 장치.
  4. 제 1 항에 있어서,
    상기 모델 생성부는,
    상기 3차원 정보를 구성하는 각 픽셀의 클래스를 분류하지 않고, 상기 3차원 정보를 그대로 학습하여 상기 학습 모델을 생성하는 것을 특징으로 하는 병적 근시 진단 장치.
  5. 제 1 항에 있어서,
    상기 모델 생성부는,
    병적 근시 여부가 라벨링된 복수의 동영상 정보들을 학습 데이터로 이용하여 상기 학습 모델을 학습시키는 것을 특징으로 하는 병적 근시 진단 장치.
  6. 제 5 항에 있어서,
    상기 모델 생성부는,
    상기 학습 모델의 훈련에 사용되는 훈련 세트(Training Set), 검증에 사용되는 검증 세트(Validation Set) 및 테스트에 사용되는 테스트 세트(Test Set)에 포함되는 각각의 학습 데이터 개수를 미리 설정된 비율로 결정하는 것을 특징으로 하는 병적 근시 진단 장치.
  7. 제 1 항에 있어서,
    상기 학습 모델은,
    3D CNN(Convolutional Neural Network) 기반의 신경망 모델인 것을 특징으로 하는 병적 근시 진단 장치.
  8. 제 1 항에 있어서,
    상기 모델 생성부는,
    복수의 신경망 모델을 생성하고, 상기 복수의 신경망 모델 중 가장 정확도가 높은 신경망 모델을 선택하여 상기 학습 모델로 결정하되,
    상기 복수의 신경망 모델은,
    ResNet 모델, ResNext 모델 및 EfficientNet 모델 중 적어도 하나 이상의 모델을 포함하는 것을 특징으로 하는 병적 근시 진단 장치.
  9. 광간섭 단층 촬영(Optical coherence tomography, OCT) 장치로 촬영된 안구의 이미지 정보를 획득하여 미리 설정된 형식의 동영상 정보로 변환하는 전처리 단계;
    상기 동영상 정보에 포함된 상기 안구의 구조에 대응하는 3차원 정보를 학습하여 병적 근시(pathologic myopia)를 진단하는 학습 모델을 생성하는 모델 생성 단계; 및
    상기 학습 모델을 통해 상기 안구의 이미지 정보로부터 병적 근시를 진단하는 진단 단계;를 포함하는 것을 특징으로 하는 병적 근시 진단 방법.
  10. 제 9 항에 있어서,
    상기 이미지 정보는,
    환자의 안구를 정면 기준으로 각막에서부터 시신경까지 일정한 간격 단위로 촬영된 복수의 이미지 정보인 것을 특징으로 하는 병적 근시 진단 방법.
  11. 제 10 항에 있어서,
    상기 전처리 단계는,
    상기 복수의 이미지 정보 중에서 선택된 일부 이미지 정보를 결합하여 단일 동영상 정보로 변환하고, 상기 단일 동영상 정보는 환자 별로 생성되는 것을 특징으로 하는 병적 근시 진단 방법.
  12. 제 9 항에 있어서,
    상기 모델 생성 단계는,
    상기 3차원 정보를 구성하는 각 픽셀의 클래스를 분류하지 않고, 상기 3차원 정보를 그대로 학습하여 상기 학습 모델을 생성하는 것을 특징으로 하는 병적 근시 진단 방법.
  13. 제 9 항에 있어서,
    상기 모델 생성 단계는,
    병적 근시 여부가 라벨링된 복수의 동영상 정보들을 학습 데이터로 이용하여 상기 학습 모델을 학습시키는 것을 특징으로 하는 병적 근시 진단 방법.
  14. 제 13 항에 있어서,
    상기 모델 생성 단계는,
    상기 학습 모델의 훈련에 사용되는 훈련 세트(Training Set), 검증에 사용되는 검증 세트(Validation Set) 및 테스트에 사용되는 테스트 세트(Test Set)에 포함되는 각각의 학습 데이터 개수를 미리 설정된 비율로 결정하는 것을 특징으로 하는 병적 근시 진단 방법.
  15. 제 9 항에 있어서,
    상기 학습 모델은,
    3D CNN(Convolutional Neural Network) 기반의 신경망 모델인 것을 특징으로 하는 병적 근시 진단 방법.
  16. 제 9 항에 있어서,
    상기 모델 생성 단계는,
    복수의 신경망 모델을 생성하고, 상기 복수의 신경망 모델 중 가장 정확도가 높은 신경망 모델을 선택하여 상기 학습 모델로 결정하되,
    상기 복수의 신경망 모델은,
    ResNet 모델, ResNext 모델 및 EfficientNet 모델 중 적어도 하나 이상의 모델을 포함하는 것을 특징으로 하는 병적 근시 진단 방법.
KR1020220007476A 2022-01-18 2022-01-18 병적 근시 진단 장치 및 방법 KR20230111522A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020220007476A KR20230111522A (ko) 2022-01-18 2022-01-18 병적 근시 진단 장치 및 방법
PCT/KR2022/016065 WO2023140469A1 (ko) 2022-01-18 2022-10-20 병적 근시 진단 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220007476A KR20230111522A (ko) 2022-01-18 2022-01-18 병적 근시 진단 장치 및 방법

Publications (1)

Publication Number Publication Date
KR20230111522A true KR20230111522A (ko) 2023-07-25

Family

ID=87348902

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220007476A KR20230111522A (ko) 2022-01-18 2022-01-18 병적 근시 진단 장치 및 방법

Country Status (2)

Country Link
KR (1) KR20230111522A (ko)
WO (1) WO2023140469A1 (ko)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7229881B2 (ja) * 2018-08-14 2023-02-28 キヤノン株式会社 医用画像処理装置、学習済モデル、医用画像処理方法及びプログラム
TWI702615B (zh) * 2019-07-26 2020-08-21 長佳智能股份有限公司 視網膜病變評估模型建立方法及系統
JP7419042B2 (ja) * 2019-11-29 2024-01-22 キヤノン株式会社 医用画像処理装置、光干渉断層撮影装置、医用画像処理方法、及びプログラム
JP2023505268A (ja) * 2019-12-05 2023-02-08 ジェネンテック, インコーポレイテッド 地図状萎縮成長速度の予測を生成するためのoctデータのニューラルネットワーク処理
JP6866954B2 (ja) * 2020-08-05 2021-04-28 株式会社ニデック 眼科画像処理プログラム、およびoct装置

Also Published As

Publication number Publication date
WO2023140469A1 (ko) 2023-07-27

Similar Documents

Publication Publication Date Title
KR102543875B1 (ko) 의료용 화상 처리 장치, 의료용 화상 처리 방법, 컴퓨터 판독가능 매체, 및 학습 완료 모델
JP7269413B2 (ja) 医用画像処理装置、医用画像処理システム、医用画像処理方法及びプログラム
JP7250653B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP7193343B2 (ja) 機械学習技法を用いたoctアンギオグラフィにおけるアーチファクトを減少させるための方法及び装置
JP7341874B2 (ja) 画像処理装置、画像処理方法、及びプログラム
EP4023143A1 (en) Information processing device, information processing method, information processing system, and program
JP2021039748A (ja) 情報処理装置、情報処理方法、情報処理システム及びプログラム
JP7413147B2 (ja) 画像処理装置、画像処理方法、及びプログラム
Beaton et al. Non-invasive measurement of choroidal volume change and ocular rigidity through automated segmentation of high-speed OCT imaging
US11887288B2 (en) Image processing apparatus, image processing method, and storage medium
CA2844433A1 (en) Motion correction and normalization of features in optical coherence tomography
US20220151483A1 (en) Ophthalmic apparatus, method for controlling ophthalmic apparatus, and computer-readable medium
JP7332463B2 (ja) 制御装置、光干渉断層撮影装置、光干渉断層撮影装置の制御方法、及びプログラム
JP2022155690A (ja) 画像処理装置、画像処理方法、及びプログラム
JP2023523245A (ja) チャネル符号化スラブを用いたoct en face病変セグメンテーション
JP7362403B2 (ja) 画像処理装置および画像処理方法
EP3417401B1 (en) Method for reducing artifacts in oct using machine learning techniques
AU2016346349A1 (en) System and method to analyze various retinal layers
KR20230111522A (ko) 병적 근시 진단 장치 및 방법
Liu et al. Hierarchy-Constrained Network for Corneal Tissue Segmentation Based on Anterior Segment OCT Images
Viedma et al. A deep learning multi-capture segmentation modality for retinal OCT imaging
US20220151482A1 (en) Biometric ocular measurements using deep learning
US20210259542A1 (en) Method for measuring anomalies of refraction using a reflection image of pupil in visible light
Williams Computational methods to quantify human lens shape and optical properties using laser ray tracing and optical coherence tomography
WO2024011236A9 (en) Using artificial intelligence to detect and monitor glaucoma

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E601 Decision to refuse application