KR102596340B1 - 안질환 시야 손상 예후 예측 시스템 및 방법과 이를 위한 컴퓨터 프로그램 - Google Patents

안질환 시야 손상 예후 예측 시스템 및 방법과 이를 위한 컴퓨터 프로그램 Download PDF

Info

Publication number
KR102596340B1
KR102596340B1 KR1020200106679A KR20200106679A KR102596340B1 KR 102596340 B1 KR102596340 B1 KR 102596340B1 KR 1020200106679 A KR1020200106679 A KR 1020200106679A KR 20200106679 A KR20200106679 A KR 20200106679A KR 102596340 B1 KR102596340 B1 KR 102596340B1
Authority
KR
South Korea
Prior art keywords
visual field
eye disease
cross
eye
sectional image
Prior art date
Application number
KR1020200106679A
Other languages
English (en)
Other versions
KR20220027305A (ko
Inventor
한종철
현승협
Original Assignee
사회복지법인 삼성생명공익재단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 사회복지법인 삼성생명공익재단 filed Critical 사회복지법인 삼성생명공익재단
Priority to KR1020200106679A priority Critical patent/KR102596340B1/ko
Priority to PCT/KR2021/010683 priority patent/WO2022045652A1/ko
Publication of KR20220027305A publication Critical patent/KR20220027305A/ko
Application granted granted Critical
Publication of KR102596340B1 publication Critical patent/KR102596340B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/102Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for optical coherence tomography [OCT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/1005Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring distances inside the eye, e.g. thickness of the cornea
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/16Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring intraocular pressure, e.g. tonometers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/021Measuring pressure in heart or blood vessels
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10101Optical tomography; Optical coherence tomography [OCT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Physics & Mathematics (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Ophthalmology & Optometry (AREA)
  • Data Mining & Analysis (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Cardiology (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Physiology (AREA)
  • Signal Processing (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Vascular Medicine (AREA)
  • Psychiatry (AREA)
  • Quality & Reliability (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

안질환 시야 손상 예후 예측 시스템은, 빛간섭단층촬영(Optical Coherence Tomography; OCT)에 의한 안구의 단면 이미지를 수신하도록 구성된 제1 입력부; 미리 설정된 학습 이미지를 이용하여 생성된 머신러닝(machine learning) 분석 모델을 포함하며, 상기 머신러닝 분석 모델을 이용하여 상기 단면 이미지로부터 안구의 시신경 구조에 관련된 정보를 추출함으로써 상기 단면 이미지의 분석 결과를 생성하도록 구성된 머신러닝부; 및 상기 머신러닝부에 의해 얻어진 상기 단면 이미지의 분석 결과를 제공하도록 구성된 출력부를 포함할 수 있다. 이때 시신경 구조에 관련된 정보는, 망막의 외부 경사 경계 조직(Externally Oblique Border Tissue; EOBT) 길이, 시신경 경사각(optic tilt angle), 및 시신경관 경사(optic canal obliqueness) 중 하나 이상을 포함할 수 있다. 상기 안질환 시야 손상 예후 예측 시스템을 이용하면, 시신경 형태, 시야 검사 결과 및 임상 정보 등을 입력 데이터로 이용한 머신러닝 기반의 분석을 통해 녹내장과 같은 안질환의 진단 위험도나 진행 가능성 등을 정량적으로 분석할 수 있다.

Description

안질환 시야 손상 예후 예측 시스템 및 방법과 이를 위한 컴퓨터 프로그램{SYSTEM AND METHOD FOR PROGNOSIS PREDICTION OF EYE DISEASE AND COMPUTER PROGRAM FOR THE SAME}
실시예들은 안질환 시야 손상 예후 예측 시스템 및 방법과 이를 위한 컴퓨터 프로그램에 관한 것이다. 보다 상세하게는, 실시예들은 시신경 구조, 시신경 형태, 시야 검사 결과, 임상 정보 등을 이용한 머신러닝(machine learning) 기반의 분석을 통해 녹내장과 같은 안질환의 진단 위험도나 진행 가능성 등을 판별하는 기술에 대한 것이다.
빛간섭단층촬영(Optical Coherence Tomography; OCT)은 망막 질환 및 녹내장 등의 진단을 위해 사용되는 기술이다. 망막 박리, 연령 관련 황반변성, 당뇨병성 황반부종 등이 있을 경우 환자의 망막 구조에 변화가 생기게 되고, 또한 녹내장 환자의 경우 시신경 유두의 함몰, 황반부 및 황반 주변부의 신경절 세포의 파괴 등이 나타난다. OCT는 초음파의 원리와 유사하나 음파 대신 빛을 투과시켜 조직 내에서 반사되는 빛의 시간 차이를 광학적 간섭계로 측정함으로써 단층 영상을 얻어내는 기술로, 이를 이용하면 황반부와 황반 주변부의 망막 및 시신경 유두, 신경섬유층 등의 횡단면 분석에 의한 망막과 맥락막 질환의 평가 및 녹내장의 조기 진단이 가능하다.
최근에는 스펙트럼 영역을 이용한 깊이증강이미징(Enhanced depth imaging; EDI) 방식의 OCT를 통해, 기존의 OCT로 관찰이 어려웠던 안구 구조물의 변화를 비침습적으로 측정할 수 있게 되었다.
그런데, EDI-OCT 영상은 해석하는데 많은 시간이 소요되므로, 정확한 판독을 위해서는 영상의학과 의사가 따로 시간을 들여 영상을 해석하여야 한다. 그러나 이는 많은 시간과 비용이 소요되는 일이기 때문에 임상적으로 적용하기 어렵고, 그 결과 현재는 임상적으로 안과 이미지는 안과 의사가 직접 육안으로 판독하고 있는 실정이다.
등록특허공보 제 10-1903193 호
본 발명의 일 측면에 따르면, 깊이증강이미징(Enhanced depth imaging; EDI) 방식의 빛간섭단층촬영(Optical Coherence Tomography; OCT) 영상을 이용하여 육안으로 판단하기 어려운 안구 구조물의 병적인 변형을 자동화된 방법으로 정량적으로 측정하고, 이를 통해 초기에 병을 진단하거나 병의 경과를 예측할 수 있는 안질환 시야 손상 예후 예측 시스템 및 방법과 이를 위한 컴퓨터 프로그램을 제공할 수 있다.
본 발명의 일 측면에 따른 안질환 시야 손상 예후 예측 시스템은, 빛간섭단층촬영(Optical Coherence Tomography; OCT)에 의한 안구의 단면 이미지를 수신하도록 구성된 제1 입력부; 미리 설정된 학습 이미지를 이용하여 생성된 머신러닝(machine learning) 분석 모델을 포함하며, 상기 머신러닝 분석 모델을 이용하여 상기 단면 이미지로부터 안구의 시신경 구조에 관련된 정보를 추출함으로써 상기 단면 이미지의 분석 결과를 생성하도록 구성된 머신러닝부; 및 상기 머신러닝부에 의해 얻어진 상기 단면 이미지의 분석 결과를 제공하도록 구성된 출력부를 포함한다.
일 실시예에서, 상기 시신경 구조에 관련된 정보는, 시신경의 외부 경사 경계 조직(Externally Oblique Border Tissue; EOBT) 길이, 시신경 경사각(optic tilt angle), 및 시신경관 경사(optic canal obliqueness) 중 하나 이상을 포함한다.
일 실시예에서, 상기 머신러닝부는, 상기 단면 이미지로부터 안구의 시신경 형태에 관련된 정보를 더 추출하고, 상기 시신경 형태에 관련된 정보를 더 이용하여 상기 분석 결과를 생성하도록 구성된다.
일 실시예에서, 상기 시신경 형태에 관련된 정보는, 브루크막 개방부(Bruch's Membrane Opening; BMO) 최소 시신경 유두테 너비(Minimum Rim Width; MRW), 사상판 앞 신경조직 두께(Prelaminar thickness), 및 사상판 표면 곡률(Lamina Cribrosa Curvature) 중 하나 이상을 포함한다.
일 실시예에 따른 안질환 시야 손상 예후 예측 시스템은, 상기 단면 이미지와 연관된 추가 위험 요인 정보를 수신하도록 구성된 제2 입력부를 더 포함한다. 이때, 상기 머신러닝부는, 상기 단면 이미지와 연관된 상기 추가 위험 요인 정보를 더 이용하여 상기 분석 결과를 생성하도록 구성된다.
일 실시예에서, 상기 추가 위험 요인 정보는, 안압, 안축장 수치, 각막 두께, 및 혈압을 포함하는 안질환 시야 손상 예후 예측 시스템.
일 실시예에서, 상기 출력부는, 상기 분석 결과를 시신경 및 시신경 주위 구조물 내의 위치별 스트레스(stress)를 나타내는 시각화 정보로 변환하여 출력하도록 구성된 시각화부를 포함한다.
본 발명의 일 측면에 따른 안질환 시야 손상 예후 예측 방법은, 미리 설정된 학습 이미지의 시신경 구조에 관련된 정보를 입력 데이터로 이용하여 생성된 머신러닝 분석 모델을 안질환 시야 손상 예후 예측 시스템에 저장하는 단계; 상기 안질환 시야 손상 예후 예측 시스템이, 빛간섭단층촬영에 의한 안구의 단면 이미지를 수신하는 단계; 상기 안질환 시야 손상 예후 예측 시스템이, 상기 머신러닝 분석 모델을 이용하여 상기 단면 이미지를 처리함으로써 상기 단면 이미지로부터 상기 시신경 구조에 관련된 정보를 추출하고, 상기 단면 이미지의 분석 결과를 생성하는 단계; 및 상기 안질환 시야 손상 예후 예측 시스템이 상기 분석 결과를 제공하는 단계를 포함한다.
일 실시예에서, 상기 분석 결과를 생성하는 단계는, 상기 안질환 시야 손상 예후 예측 시스템이, 상기 머신러닝 분석 모델을 이용하여 상기 단면 이미지를 처리함으로써 상기 단면 이미지로부터 안구의 시신경 형태에 관련된 정보를 추출하는 단계를 더 포함한다.
일 실시예에 따른 안질환 시야 손상 예후 예측 방법은, 상기 분석 결과를 제공하는 단계 전에, 상기 안질환 시야 손상 예후 예측 시스템이, 상기 단면 이미지와 연관된 추가 위험 요인 정보를 수신하는 단계를 더 포함한다. 이때, 상기 분석 결과는 상기 단면 이미지와 연관된 상기 추가 위험 요인 정보를 상기 머신러닝 분석 모델에 더 입력함으로써 생성될 수 있다.
일 실시예에 따른 안질환 시야 손상 예후 예측 방법은, 상기 안질환 시야 손상 예후 예측 시스템이, 상기 분석 결과를 시신경 및 시신경 주위 구조물 내의 위치별 스트레스를 나타내는 시각화 정보로 변환하여 출력하는 단계를 더 포함한다.
본 발명의 일 측면에 컴퓨터 프로그램은, 하드웨어와 결합되어 전술한 실시예들에 따른 안질환 시야 손상 예후 예측 방법을 실행하기 위한 것으로서 컴퓨터로 판독 가능한 기록매체에 저장될 수 있다.
본 발명의 일 측면에 따른 안질환 시야 손상 예후 예측 시스템 및 방법에 의하면, 깊이증강이미징(Enhanced Depth Imaging; EDI) 방식의 빛간섭단층촬영(Optical Coherence Tomography; OCT) 영상을 이용한 머신러닝(machine learning)을 통하여, 육안으로는 판단하기 어려운 안구 구조물의 병적인 변형을 자동화된 방법으로 정량적으로 측정할 수 있는 이점이 있다.
본 발명의 일 측면에 따른 안질환 시야 손상 예후 예측 시스템 및 방법을 이용함으로써, 분석 시간과 비용의 부담으로 인해 현재 충분히 활용되고 있지 못한 EDI-OCT 자료를 임상적으로 이용 가능하게 할 수 있으며, 이를 이용하여 녹내장 등 안과 질환의 진단 위험도 및/또는 진행 가능성을 도출함으로써, 초기에 병을 진단하고 병의 경과를 예측할 수 있는 이점이 있다.
도 1은 일 실시예에 따른 안질환 시야 손상 예후 예측 시스템의 개략적인 블록도이다.
도 2는 일 실시예에 따른 안질환 시야 손상 예후 예측 방법의 각 단계를 나타내는 순서도이다.
도 3은 일 실시예에 따른 안질환 시야 손상 예후 예측 방법에 의하여 깊이증강이미징(Enhanced Depth Imaging; EDI) 방식의 빛간섭단층촬영(Optical Coherence Tomography; OCT) 영상으로부터 검출된 안구 구조물을 나타내는 예시적인 이미지이다.
도 4는 일 실시예에 따른 안질환 시야 손상 예후 예측 방법에 의하여 EDI-OCT 영상으로부터 시신경 구조에 관련된 정보를 얻는 것을 나타내는 예시적인 이미지이다.
도 5a 내지 5c는 일 실시예에 따른 안질환 시야 손상 예후 예측 방법에 의하여 EDI-OCT 영상으로부터 시신경 형태에 관련된 정보를 얻는 것을 나타내는 예시적인 이미지이다.
도 6은 일 실시예에 따른 안질환 시야 손상 예후 예측 방법에 의하여 얻어진 분석 결과를 시각화된 결과물로 제공하는 예시적인 사용자 인터페이스를 나타내는 이미지이다.
이하에서, 도면을 참조하여 본 발명의 실시예들에 대하여 상세히 살펴본다.
도 1은 일 실시예에 따른 안질환 시야 손상 예후 예측 시스템의 개략적인 블록도이다.
도 1을 참조하면, 안질환 시야 손상 예후 예측 시스템(3)은 안구의 단면 이미지(100)를 수신하기 위한 제1 입력부(31), 머신러닝(machine learning) 분석 모델에 기반하여 단면 이미지로부터 정보를 추출하고 분석 결과를 생성하도록 구성된 정보를 머신러닝부(34), 및 분석 결과를 사용자에게 제공하도록 구성된 출력부(35)를 포함한다. 일 실시예에서, 안질환 시야 손상 예후 예측 시스템(3)은 단면 이미지 외에 추가적인 위험 요인에 대한 정보(200)를 수신하기 위한 제2 입력부(32)를 더 포함할 수 있다.
본 명세서에 기재된 장치들은 전적으로 하드웨어이거나, 또는 부분적으로 하드웨어이고 부분적으로 소프트웨어인 측면을 가질 수 있다. 예컨대, 안질환 시야 손상 예후 예측 시스템(3)에 포함된 각 부(unit) 및 이들의 하위 부는, 특정 형식 및 내용의 데이터를 전자통신 방식으로 주고받기 위한 장치 및 이에 관련된 소프트웨어를 통칭할 수 있다. 본 명세서에서 "부", "모듈", "서버", "시스템", "플랫폼", "장치" 또는 "단말" 등의 용어는 하드웨어 및 해당 하드웨어에 의해 구동되는 소프트웨어의 조합을 지칭하는 것으로 의도된다. 예를 들어, 여기서 하드웨어는 CPU 또는 다른 프로세서(processor)를 포함하는 데이터 처리 기기일 수 있다. 또한, 하드웨어에 의해 구동되는 소프트웨어는 실행중인 프로세스, 객체(object), 실행파일(executable), 실행 스레드(thread of execution), 프로그램(program) 등을 지칭할 수 있다.
또한, 본 명세서에서 안질환 시야 손상 예후 예측 시스템(3)을 구성하는 각각의 부는 반드시 물리적으로 구분되는 별개의 구성요소를 지칭하는 것으로 의도되지 않는다. 즉, 도 1에서 안질환 시야 손상 예후 예측 시스템(3)의 각 부는 서로 구분되는 별개의 블록으로 도시되었으나, 이는 안질환 시야 손상 예후 예측 시스템(3)을 이에 의해 실행되는 동작에 의해 기능적으로 구분한 것이다. 실시예에 따라서는 전술한 각 부 중 일부 또는 전부가 동일한 하나의 장치 내에 집적화될 수 있으며, 또는 하나 이상의 부가 다른 부와 물리적으로 구분되는 별개의 장치로 구현될 수도 있다. 예컨대, 안질환 시야 손상 예후 예측 시스템(3)의 각 부는 분산 컴퓨팅 환경 하에서 서로 통신 가능하게 연결된 컴포넌트들일 수도 있다.
또한, 안질환 시야 손상 예후 예측 시스템(3)은 안질환 시야 손상 예후 예측 시스템(3)을 이용하는 사용자(예컨대, 의사, 영상 분석가, 환자 등)의 사용자 장치(4)와의 통신을 수반하여 동작할 수 있다. 예를 들어, 안질환 시야 손상 예후 예측 시스템(3)은 사용자 장치(4)에서 유선 및/또는 무선 네트워크를 통하여 접속 가능한 서버의 형태로 구현되며, 사용자는 스마트폰(smartphone) 등 이동 통신 단말기, 개인용 컴퓨터(personal computer), 노트북(notebook) 컴퓨터, PDA(personal digital assistant), 태블릿(tablet) 컴퓨터, IPTV(Internet Protocol Television) 등을 위한 셋톱박스(set-top box) 또는 네트워크 서버 등 임의의 컴퓨팅 장치인 사용자 장치(4)를 이용하여 안질환 시야 손상 예후 예측 시스템(3)을 이용할 수 있다.
그러나, 이는 예시적인 것으로서, 다른 실시예에서는 안질환 시야 손상 예후 예측 시스템(3) 자체가 서버가 아닌 사용자 장치의 형태로 구현될 수 있으며, 이 경우 도 1에 도시된 사용자 장치(4)는 생략될 수 있다. 또한, 도 1에 도시된 사용자 장치(4)의 개수는 단지 예시적인 것으로서, 안질환 시야 손상 예후 예측 시스템(3)을 이용하는 사용자 또는 안질환 시야 손상 예후 예측 시스템(3)과 연관되어 동작하는 장치의 수를 한정하는 것이 아니라는 점이 통상의 기술자에게 용이하게 이해될 것이다.
제1 입력부(31)는 안구의 단면 이미지(100)를 수신하기 위한 부분으로서, 제1 입력부(31)는 사용자 장치(4)와 같은 외부의 장치 또는 서버(미도시)로부터 단면 이미지(100)를 수신할 수 있다. 이때 단면 이미지(100)는 분석의 대상이 되는 환자 등의 안구를 빛간섭단층촬영(Optical Coherence Tomography; OCT)을 이용하여 촬영함으로써 얻어진 것이다. 예컨대, 단면 이미지(100)는 깊이증강이미징(Enhanced Depth Imaging; EDI) 방식의 빛간섭단층촬영에 의해 얻어진 것일 수 있으며, 이하의 본 명세서에서 이는 EDI-OCT 영상 또는 EDI-OCT 이미지로도 지칭된다.
또한, 제1 입력부(31)는 분석 대상인 단면 이미지(100)의 수신에 앞서 머신러닝 기반의 학습을 위한 학습 이미지들을 외부의 장치 또는 서버(미도시)로부터 수신함으로서, 후술하는 머신러닝부(34)에 의해 머신러닝 분석 모델(340)이 생성될 수 있게 할 수도 있다.
머신러닝부(34)는 학습 이미지들을 이용한 학습을 통하여 머신러닝 분석 모델(340)을 생성하거나, 또는 외부의 서버 또는 장치(미도시)로부터 머신러닝 분석 모델(340)을 수신하여 저장할 수 있다. 예를 들어, 머신러닝부(34)는 관심 안구 구조물들이 라벨링(labeling)된 EDI-OCT 영상을 학습 이미지로 이용한 딥 러닝(deep learning) 기반의 학습을 통하여 머신러닝 분석 모델(340)을 생성할 수 있다.
또한, 머신러닝부(34)는 머신러닝 분석 모델(340)을 분석 대상이 되는 새로운 단면 이미지(100)에 적용하여, 단면 이미지(100)의 분석 결과를 생성할 수 있다. 이를 위하여, 일 실시예에서 머신러닝부(34)는 단면 이미지(100)로부터 관심 망막 구조물 등을 인식하기 위한 이미지 처리부(341)를 포함할 수 있다.
일 실시예에서, 단면 이미지(100)로부터 추출되는 정보는 망막의 외부 경사 경계 조직(Externally Oblique Border Tissue; EOBT) 길이, 시신경 경사각(optic tilt angle), 및/또는 시신경관 경사(optic canal obliqueness) 등 시신경 구조에 관련된 정보일 수 있다. 또한 일 실시예에서, 단면 이미지(100)로부터 추출되는 정보는 브루크막 개방부(Bruch's Membrane Opening; BMO) 최소 시신경 유두테 너비(Minimum Rim Width; MRW), 사상판 앞 신경조직 두께(Prelaminar thickness) 및/또는 사상판 표면 곡률(Lamina Cribrosa Curvature) 등 시신경 형태에 관련된 정보를 더 포함할 수도 있다.
일 실시예에서, 안질환 시야 손상 예후 예측 시스템(3)은 제2 입력부(32)를 통해 수신되는 추가 위험 요인 정보(200)를 더 이용하여 분석 결과를 생성할 수도 있다. 추가 위험 요인 정보(200)란 EDI-OCT 영상으로부터 얻어지는 안구 구조물의 정보 외에 안질환의 연관 인자인 다른 정보들을 지칭하는 것으로서, 예컨대, 안압, 안축장 수치, 각막 두께, 혈압 등이 있다. 이때, 안축장 수치란 EDI-OCT 영상으로부터 얻어지는 EOBT 길이 등과 별도로 다른 방법으로 측정된 안축장 관련 수치들을 의미한다. 또한, 혈압은 하루 중 혈압 변동폭 수치가 추가 위험 요인 정보(200)로 이용될 수 있다. 나아가, 추가 위험 요인 정보(200)로는 전술한 안압, 안축장 수치, 각막 두께 및 혈압이 동시에 이용되는 것이 바람직하다.
출력부(35)는 분석 대상인 단면 이미지(100)로부터 머신러닝에 기반하여 추출된 시신경 구조에 관련된 정보 및/또는 시신경 형태에 관련된 정보들을 단면 이미지(100)에 상응하는 안구의 분석 결과로서 제공할 수 있다. 출력부(35)는 이러한 분석 결과를 안질환 시야 손상 예후 예측 시스템(3)에 구비된 디스플레이 장치(미도시) 등 표시 수단에 출력하거나, 또는 안질환 시야 손상 예후 예측 시스템(3)에 접속한 사용자 장치(4)에서 볼 수 있도록 전송하는 기능을 수행할 수 있다.
일 실시예에서, 출력부(35)는 단면 이미지(100)에 대한 분석 결과를 시각화된 형태로 제공하기 위한 시각화부(350)를 더 포함할 수도 있다. 예를 들어, 시각화부(350)는 단면 이미지(100)의 분석 결과를 시신경 및 이로부터 일정 거리 내에 위치하는 시신경 주위 구조물 내의 위치별 스트레스(stress)를 나타내는 시각화 정보로 변환하여 사용자가 안질환의 진행 정도 및 위치를 식별하기 용이하도록 제공할 수 있다.
도 2는 일 실시예에 따른 안질환 시야 손상 예후 예측 방법의 각 단계를 나타내는 순서도이다. 본 실시예에 따른 안질환 시야 손상 예후 예측 방법은, 도 1을 참조하여 전술한 실시예들에 따른 안질환 시야 손상 예후 예측 시스템을 이용하여 수행될 수 있다. 이하에서는, 설명의 편의를 위하여 도 1 및 도 2를 참조하여 본 실시예에 따른 안질환 시야 손상 예후 예측 방법에 대하여 설명한다.
먼저, 녹내장과 같은 안질환의 유무 또는 진행 정도에 따른 안구의 변화를 학습하기 위하여, 안질환 시야 손상 예후 예측 시스템(3)의 제1 입력부(31)는 학습을 위한 시신경 조직의 단면 이미지들을 수집할 수 있다(S1). 이때 수집되는 단면 이미지들은 녹내장과 같은 안질환의 유무 또는 진행 정도가 미리 입력되어 있거나, 또는/또한 안질환과 관련된 안구 구조물들의 위치가 사전에 라벨링(labeling)되어 있는 이미지를 의미하는 것으로, 본 명세서에서 이와 같이 라벨링된 이미지들은 학습 이미지로도 지칭된다.
안질환 시야 손상 예후 예측 시스템(3)의 머신러닝부(34)는, 학습 이미지로부터 머신러닝 분석 모델(340)을 구축하기 위하여, 먼저 이미지 처리부(341)에 의해 학습 이미지를 처리하여 이미지로부터 장력(stress)에 의한 안구 내 시신경 조직 등의 변화를 나타낼 수 있는 정보들을 추출할 수 있다(S2). 다음으로, 머신러닝부(34)는 추출된 정보를 이용하여 질병의 유무나 진행 정도에 따른 안구 내 시신경 조직의 변화를 학습할 수 있다(S3).
다음으로, 머신러닝부(34)는 학습을 통해 구축된 머신러닝 분석 모델(340)을 기반으로 새로운 단면 이미지에 대한 분석을 수행할 수 있다(S4). 일 실시예에서, 새로운 단면 이미지에 대한 분석이란 학습된 머신러닝 분석 모델(340)을 이용하여 단면 이미지를 세그멘테이션(segmentation)함으로써 단면 이미지로부터 관심 대상인 안구 구조물들에 관련된 수치, 각도 등 정보를 추출하는 것을 의미할 수 있다.
또한 일 실시예에서, 새로운 단면 이미지에 대한 분석이란 학습된 머신러닝 분석 모델(340)을 기반으로 녹내장과 같은 안질환의 진단 위험도나 진행 가능성을 결정하는 것을 의미할 수도 있다. 예를 들어, 머신러닝 분석 모델(340)을 적용한 분석 결과는 확률값의 형태로 표현되는 안질환의 진단 위험도나 진행 가능성을 포함할 수도 있다.
이하의 본 명세서에서는, 안질환 중 녹내장을 예후 예측의 대상으로 하여 녹내장의 발생에 따른 관심 망막 구조물들의 변화를 머신러닝에 기반하여 학습하는 실시예들에 대해 설명한다. 그러나, 실시예들이 대상으로 하는 안질환이 녹내장에 한정되는 것은 아니며, 또한 단면 이미지로부터 추출되는 안구 구조물 관련 정보 역시 예후 예측의 대상이 되는 안질환의 종류에 따라 본 명세서에 기재된 것과 상이할 수 있다는 점이 통상의 기술자에게 용이하게 이해될 것이다.
도 3은 일 실시예에 따른 안질환 시야 손상 예후 예측 방법에 의하여 EDI-OCT 영상으로부터 검출된 안구 구조물을 나타내는 예시적인 이미지이다.
일 실시예에 따른 안질환 시야 손상 예후 예측 시스템은, 녹내장과 관련된 관심 망막 구조물들의 위치가 라벨링된 학습 이미지를 이용하여 학습을 진행하고, 학습 결과를 통하여 새로운 단면 이미지인 EDI-OCT 영상으로부터 하나 이상의 관심 망막 구조물들의 위치 정보를 획득할 수 있다. 도 3에 도시된 이미지는 EDI-OCT 영상으로부터 추출된 관심 망막 구조물들을 나타내는 것으로서, 녹색 구조물(101)은 망막의 경계 조직(border tissue)을 나타내며, 노란색 구조물(102)은 브루크막(Bruch's membrane)을 나타내고, 적색 구조물(103)은 망막신경섬유층(Retinal Nerve Fiber Layer; RNFL)의 외곽선을 나타내며, 하늘색 구조물(104)은 사상판 내측 경계(lamina cribrosa anterior border)를 나타낸다.
실시예들에 따른 안질환 시야 손상 예후 예측 시스템의 머신러닝부는, EDI-OCT 영상으로부터 전술한 각 구조물(101-104)을 검출하기 위하여, 이미지 내의 각 픽셀들을 기설정된 클래스(class)로 분류하기 위한 세그멘테이션 알고리즘을 적용할 수 있다. 세그멘테이션(segmentation) 과정은, 관심 망막 구조물들의 위치가 사전에 라벨링된 학습 이미지를 이용하여 생성된 머신러닝 분석 모델을 기반으로 이루어질 수 있다.
일 실시예에서, 세그멘테이션 과정에는 딥러닝(deep learning) 기반의 학습 방법으로, 예컨대, U-net이 이용될 수도 있다. U-net을 이용하여 세그멘테이션을 수행할 경우, 이미지를 단위 인식 영역인 패치(patch)의 크기를 점진적으로 줄여 나가면서 머신러닝을 위한 특징(feature)들을 생성하고 패치 단위로 학습을 수행할 수 있다. 이후 세그멘테이션된 이미지를 얻기 위해서는 패치의 크기를 늘려가는 업샘플링(upsampling) 과정이 필요한데, 이때 패치의 크기를 줄여가는 과정에서 얻어지는 고해상도의 특징들을 업샘플링 과정에서의 대응되는 레이어의 패치에 복사함으로써, 자연스러운 이미지 영역 간의 연결 및 정확한 분류가 가능하도록 할 수 있다.
U-net 알고리즘에 대해서는 통상의 기술자에게 잘 알려져 있으므로, 발명의 요지를 명확하게 하기 위하여 본 명세서에서 이에 대한 자세한 설명은 생략한다.
안질환 시야 손상 예후 예측 시스템의 머신러닝부는, U-net과 같은 딥러닝 기반의 학습을 통해 세그멘테이션된 이미지로부터 관심 망막 구조물들을 특정하고, 관심 망막 구조물들을 이용하여 안구의 시신경 구조에 관련된 정보를 추출할 수 있다.
도 4는 일 실시예에 따른 안질환 시야 손상 예후 예측 방법에 의하여 EDI-OCT 영상으로부터 시신경 구조에 관련된 정보를 얻는 것을 나타내는 예시적인 이미지이다.
도 4의 (a), (c) 및 (e)는 안축장의 길이가 25.54 mm인 안구의 EDI-OCT 영상을 나타내며, (b), (d) 및 (f)는 안축장의 길이가 23.83인 안구의 EDI-OCT 영상을 나타낸다. 도 4의 (c) 및 (d)에 도시된 구조물(111)은 망막의 외부 경사 경계 조직(Externally Oblique Border Tissue; EOBT)을 나타내며, 이는 도 3을 참조하여 전술한 경계 조직(101)과 동일한 것이다. 한편, 도 4의 (e) 및 (f)에 도시된 선(112)은 도 3을 참조하여 전술한 부르크막(102)에 형성된 개구 영역, 즉, 브루크막 개방부(Bruch's Membrane Opening; BMO)를 나타내는 것으로서, 그 한쪽 끝은 부르크막에 위치하고 다른 쪽 끝은 EOBT(111)에 위치한다. 또한, 도 4의 (e) 및 (f)에 도시된 선(113)은 BMO의 한쪽 끝으로부터 다른 쪽 끝에 위치한 EOBT의 하부 경계까지를 연결하는 가상의 선이다.
즉, 도 3을 참조하여 전술한 각 구조물(101-104)의 일부 또는 전부를 이용하여, 도 4의 (a) 내지 (f)에 도시된 것과 같은 안축장 관련 구조물(111-114)을 검출할 수 있다. 다음으로, 도 4에 도시된 각 구조물(111-114)로부터 EOBT 길이, 시신경 경사각(optic tilt angle), 및/또는 시신경관 경사(optic canal obliqueness)를 시신경 구조 관련 정보를 추출할 수 있다. 이때, EOBT 길이는 구조물(111)의 길이를 의미하며, 시신경 경사각은 도 4의 (e) 및 (f)에 도시된 선(112)과 선(113) 사이의 각도(θ1)를 의미하고, 시신경관 경사는 EOBT에 해당하는 구조물(111)과, EOBT의 상부 끝점으로부터 연직 하방으로 연장되는 가상의 선(114) 사이의 각도(θ2)를 의미한다.
EOBT 길이, 시신경 경사각 및 시신경관 경사는 안질환으로 인해 시신경 주변부에 가해지는 스트레스를 확인할 수 있는 부분으로서, 이러한 부분에 가해진 스트레스의 방향은 녹내장의 진행 방향 및 녹내장에 의한 시야의 손상 패턴과 일치하는 것으로 볼 수 있다. 실시예들에 따른 안질환 시야 손상 예후 예측 시스템은, 머신러닝 기반의 세그멘테이션을 통하여 EDI-OCT 영상으로부터 시신경 주변부의 구조에 관련된 정보를 추출함으로써, 의사 등 사용자가 안질환을 쉽게 진단할 수 있게 하고, 또는/또한 추출된 정보를 이용하여 안질환의 유무나 진행 정도에 관련된 분석 결과를 생성할 수 있다.
도 4에서는 우안의 EDI-OCT 영상을 이용하여 안축장 관련 정보를 추출한 이미지를 예시적으로 도시하였으나, 동일한 방법이 좌안의 EDI-OCT 영상에도 적용될 수 있다는 것이 통상의 기술자에게 용이하게 이해될 것이다. 예를 들어, 어느 일 방향(예컨대, 우안)의 학습 이미지를 이용한 분석 모델만이 구축되어 있으나 반대 방향(예컨대, 좌안)의 대상 단면 이미지에 대한 분석이 필요할 경우, 대상 단면 이미지를 좌우 반전한 이미지를 생성하고 이에 분석 모델을 적용함으로써 눈의 방향에 관계 없이 분석 결과를 도출할 수 있다. 또는, 학습 이미지를 좌우 반전시켜 양 방향의 학습 이미지에 대한 학습이 모두 이루어지도록 함으로써, 안구의 방향에 관계 없이 분석 모델의 적용이 가능하도록 할 수도 있다.
일 실시예에서, 안질환 시야 손상 예후 예측 시스템의 머신러닝부는, 관심 망막 구조물을 판별하기 위한 세그멘테이션 과정에 있어서 단면 이미지에서 관심 망막 구조물이 다른 혈관이나 조직 등에 의하여 가려져 있을 경우, 복수의 이미지를 이용하여 가려진 부분을 제거하고 관심 망막 구조물을 재건하는 과정을 수행할 수도 있다. 관심 망막 구조물을 재건하는 과정에는, 세그멘테이션된 이미지의 복수 개를 입력 이미지로 이용하여, 특정 이미지에서 가려진 픽셀이 있을 경우 해당 영역이 가려지지 않은 인접 이미지의 동일 영역의 픽셀을 이용하여 학습을 실시하고, 학습 결과를 이용하여 보간(interpolation) 등의 방식으로 가려진 부분을 재건하는 방법이 이용될 수 있으나, 이에 한정되는 것은 아니다.
또한 일 실시예에서, 안질환 시야 손상 예후 예측 시스템의 머신러닝부는, 전술한 시신경 구조에 관련된 정보 외에 안구의 시신경 형태에 관련된 정보를 EDI-OCT 영상으로부터 더 추출할 수도 있다.
도 5a 내지 5c는 일 실시예에 따른 안질환 시야 손상 예후 예측 방법에 의하여 EDI-OCT 영상으로부터 시신경 형태에 관련된 정보를 얻는 것을 나타내는 예시적인 이미지이다.
먼저 도 5a를 참조하면, 녹내장이 발생한 눈의 경우 녹내장의 진행에 따라 망막신경섬유층(RNFL)의 두께가 감소하게 된다. 이때, 본 실시예에서 안질환 시야 손상 예후 예측 시스템의 머신러닝부는, RNFL의 두께 감소를 브루크막 개방부(Bruch's Membrane Opening; BMO) 최소 시신경 유두테 너비(Minimum Rim Width; MRW)의 형태로 EDI-OCT 영상으로부터 측정할 수 있다.
일 실시예에서, BMO-MRW는 EDI-OCT 영상에서 브루크막(102) 및 경계 조직(101)의 접점과 RNFL 외곽선(103) 사이의 수평 방향의 간격(T1)으로 정의된다. 그러나, 이와 같이 정의되는 간격은 신경 섬유의 실제 두께라기 보다는 대각선 방향의 간접적인 두께라는 한계를 갖는다. 이러한 한계를 극복하기 위하여, 다른 실시예에서 BMO-MRW는 브루크막(102) 및 경계 조직(101)의 접점과 RNFL 외곽선(103) 사이의 최소 길이, 즉, 브루크막(102) 및 경계 조직(101)의 접점에서 RNFL 외곽선(103)의 각 점을 연결한 선분들 중 가장 길이가 짧은 선분의 길이(T2)로 정의될 수 있다.
또한, 도 5b를 참조하면, 안질환 시야 손상 예후 예측 시스템의 머신러닝부는 시신경 형태에 관련된 정보로서 사상판 앞 신경조직 두께를 추출할 수도 있다. 사상판 앞 신경조직 두께는, 사상판 내측 경계(104)의 가운데 지점으로부터 출발하여 망막 경계 조직(101) 방향에 위치하는 사상판 내측 경계(104)의 한쪽 끝 사이의 지점에 이르기까지의 영역(120)에 있어서, 사상판 내측 경계(104)와 RNFL 외곽선(102) 사이의 거리들의 평균값으로 정의될 수 있다. 이때, 사상판 내측 경계(104)와 RNFL 외곽선(102) 사이의 거리는 단면 상에서 연직 방향으로의 길이를 지칭할 수 있다.
나아가, 도 5c를 참조하면, 안질환 시야 손상 예후 예측 시스템의 머신러닝부는 시신경 형태에 관련된 정보로서 사상판 표면 곡률을 추출할 수도 있다. 이때 사상판 표면 곡률은, 사상판 내측 경계(104)의 양 끝을 연결한 가상의 선으로부터 사상판 내측 경계(104)가 가장 안쪽으로 후퇴한 지점(즉, 가장 깊은 지점)까지의 길이(L1)와, 사상판 내측 경계(104)의 양 끝점 사이의 최소 길이(L2)의 비율을 이용하여 정의될 수 있다. 즉, 사상판 표면 곡률의 값은 L1/L2일 수 있다.
이상에서 도 5a 내지 5c를 참조하여 설명한 시신경 형태에 관련된 정보는, 녹내장의 진행에 따라 신경 섬유의 두께가 감소하며 사상판 앞 부분의 신경 조직이 감소하고 사상판의 표면이 휘어지는 것을 EDI-OCT 영상으로부터 정량적으로 검출하기 위한 것이다. 머신러닝을 통해 세그멘테이션된 EDI-OCT 영상을 이용하여 이와 같은 시신경 형태에 대한 정보를 더 추출함으로써, 더 정확한 분석 결과를 도출할 수 있다.
다시 도 2를 참조하면, 안질환 시야 손상 예후 예측 시스템(3)의 출력부(35)는 안질환의 예후 예측을 위한 관심 망막 구조물들에 대해 추출된 정보를 분석 결과로서 사용자에게 제공할 수 있다(S5). 예를 들어, 분석 결과는 안질환 시야 손상 예후 예측 시스템(3) 자체에 표시되거나, 또는 안질환 시야 손상 예후 예측 시스템(3)에 접속한 사용자 장치(4)에서 열람 가능한 형태로 안질환 시야 손상 예후 예측 시스템(3)으로부터 사용자 장치(4)에 제공될 수도 있다. 나아가, 안질환 시야 손상 예후 예측 시스템(3)은 시각화부(350)에 의하여 분석 결과를 시각화된 데이터로 가공할 수도 있다.
도 6은 일 실시예에 따른 안질환 시야 손상 예후 예측 방법에 의하여 얻어진 분석 결과를 시각화된 결과물로 제공하는 예시적인 사용자 인터페이스(User Interface; UI)를 나타내는 이미지이다.
도 6을 참조하면, 머신러닝을 통해 EDI-OCT 영상으로부터 추출된 정보들 중 UI 요소(41)를 사용하여 사용자가 선택한 정보가 분석 결과로서 화면에 표시될 수 있다. 이때, 사용자는 UI 요소(44, 45)를 통하여 분석 결과로 출력할 정보의 종류와 그 표시 형태를 선택할 수 있으며, 사용자가 선택한 결과에 따라 그래프 및 폴라 맵(polar map) 등의 형태를 가진 분석 결과가 화면 영역(42, 43)에 표시될 수 있다. 이때 그래프 또는 폴라 맵은, 안구 구조물 내의 위치에 따른 스트레스를 시각화 정보로 변환하여 표시하기 위한 것이다.
분석 결과로 EOBT 길이가 표시되는 것을 예로 들면, 그래프 영역(42)에서 0도, 90도 및 -90도의 각도 표시는 안구의 위치를 나타내며, 안구 내의 EOBT의 길이와 이의 연장 각도가 그래프 영역(42)에 표시될 수 있다. 또한, 폴라 맵 영역(43)에는 EOBT의 길이가 각 위치별로 표시될 수 있다. EOBT 길이, 시신경 경사각, 시신경관 경사 등의 지표는 안축장이 증가할수록 함께 증가하는 경향을 가지며, 안축장이 증가하여 스트레스가 높아진 영역에서 녹내장이 쉽게 발생한다. 따라서, EOBT 길이 등의 지표의 값이 최대가 되는 위치를 스트레스가 가장 큰 위치로 추정하고, 이를 통하여 안질환의 발생 여부나 진행 가능성을 판별할 수 있다.
다시 도 1 및 도 2를 참조하면, 일 실시예에서, 안질환 시야 손상 예후 예측 시스템(3)의 제2 입력부(32)는 전술한 관심 망막 구조물들에 관련된 정보 외에 해당 환자로부터 임상적으로 얻어진 다른 추가적인 위험 요인, 예컨대, 안압, 안축장 수치, 각막 두께, 혈압 등에 대한 정보를 더 수집할 수 있다(S6). 본 실시예에서, 안질환 시야 손상 예후 예측 시스템(3)의 머신러닝부(34)는 전술한 추가적인 위험 요인들을 머신러닝 분석 모델(340)에 더 적용함으로써 대상 환자의 질병 위험도를 결정할 수도 있다(S7).
안압은 녹내장의 발생 및 진행과 연관성이 높은 인자로서, 안압이 높을수록 녹내장의 발생 위험도 또는 진행 정도가 높은 것으로 볼 수 있다. 또한, 안축장 수치는 EDI-OCT 영상을 통해 추출되는 정보와 별개로, 다른 방법으로 측정된 안구의 길이 등 실제 안축장 데이터로서 안구의 스트레스 정도나 스트레스 부위를 판별할 수 있는 임의의 데이터를 지칭할 수 있다. 또한, 각막 두께는 녹내장과 연관된 지표로서, 각막 두께가 얇을수록 녹내장 발생 위험도 또는 진행 정도가 높은 것으로 볼 수 있다. 나아가, 혈압 또한 녹내장 진행에 연관된 지표로서, 저혈압일수록 또는 하루 중 혈압 변동폭이 클수록 녹내장 발생 위험도 또는 진행 정도가 높은 것으로 볼 수 있다.
본 실시예에서, 머신러닝부(34)는 EDI-OCT 영상으로부터 추출된 시신경 구조 관련 정보 및/또는 시신경 형태 관련 정보를 특징(feature) 값으로 이용한 학습을 수행하되, 이때 해당 단면 이미지를 제공한 환자에 관련된 안압, 안축장 수치, 각막 두께, 혈압 또는 혈압 변동폭 등을 추가적인 특징으로 이용함으로써 분석 모델의 정밀도를 더 높일 수 있다. 이때 추가적인 위험 요인으로는, 전술한 안압, 안축장 수치, 각막 두께, 혈압 또는 혈압 변동폭의 정보들이 함께 이용되는 것이 바람직하다.
이상에서 설명한 실시예들에 따른 안질환 시야 손상 예후 예측 방법에 의한 동작은 적어도 부분적으로 컴퓨터 프로그램으로 구현되고 컴퓨터로 읽을 수 있는 기록매체에 기록될 수 있다. 실시예들에 따른 방법에 의한 동작을 구현하기 위한 프로그램이 기록되고 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수도 있다. 또한, 본 실시예를 구현하기 위한 기능적인 프로그램, 코드 및 코드 세그먼트(segment)들은 본 실시예가 속하는 기술 분야의 통상의 기술자에 의해 용이하게 이해될 수 있을 것이다.
이상에서 살펴본 본 발명은 도면에 도시된 실시예들을 참고로 하여 설명하였으나 이는 예시적인 것에 불과하며 당해 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 실시예의 변형이 가능하다는 점을 이해할 것이다. 그러나, 이와 같은 변형은 본 발명의 기술적 보호범위 내에 있다고 보아야 한다.

Claims (15)

  1. 빛간섭단층촬영에 의한 안구의 단면 이미지를 수신하도록 구성된 제1 입력부;
    미리 설정된 학습 이미지를 이용하여 생성된 머신러닝 분석 모델을 포함하며, 상기 머신러닝 분석 모델을 이용하여 상기 단면 이미지로부터 안구의 시신경 구조에 관련된 정보를 추출함으로써 상기 단면 이미지의 분석 결과를 생성하도록 구성된 머신러닝부; 및
    상기 머신러닝부에 의해 얻어진 상기 단면 이미지의 분석 결과를 제공하도록 구성된 출력부를 포함하되,
    상기 시신경 구조에 관련된 정보는, 망막의 외부 경사 경계 조직 길이, 시신경 경사각, 및 시신경관 경사 중 하나 이상을 포함하고,
    상기 머신러닝부는,
    상기 단면 이미지로부터 망막 경계 조직 및 브루크막을 추출하고,
    상기 망막 경계 조직을 이용하여 상기 외부 경사 경계 조직을 추출하며,
    상기 브루크막 상의 개구 영역인 브루크막 개방부를 추출하고,
    상기 브루크막 개방부의 한쪽 끝과 상기 외부 경사 경계 조직을 연결하는 제1 선을 추출하도록 더 구성되고,
    상기 시신경 경사각은 상기 브루크막 개방부와 상기 제1 선 사이의 각도이며,
    상기 시신경관 경사는, 상기 외부 경사 경계 조직과, 상기 외부 경사 경계 조직의 한쪽 끝으로부터 눈의 내측으로 연장되는 제2 선 사이의 각도인 안질환 시야 손상 예후 예측 시스템.
  2. 삭제
  3. 제1항에 있어서,
    상기 머신러닝부는, 상기 단면 이미지로부터 안구의 시신경 형태에 관련된 정보를 더 추출하고, 상기 시신경 형태에 관련된 정보를 더 이용하여 상기 분석 결과를 생성하도록 구성된 안질환 시야 손상 예후 예측 시스템.
  4. 제3항에 있어서,
    상기 시신경 형태에 관련된 정보는, 브루크막 개방부 최소 시신경 유두테 너비, 사상판 앞 신경조직 두께, 및 사상판 표면 곡률 중 하나 이상을 포함하는 안질환 시야 손상 예후 예측 시스템.
  5. 제1항에 있어서,
    상기 단면 이미지와 연관된 추가 위험 요인 정보를 수신하도록 구성된 제2 입력부를 더 포함하며,
    상기 머신러닝부는, 상기 단면 이미지와 연관된 상기 추가 위험 요인 정보를 더 이용하여 상기 분석 결과를 생성하도록 구성된 안질환 시야 손상 예후 예측 시스템.
  6. 제5항에 있어서,
    상기 추가 위험 요인 정보는, 안압, 안축장 수치, 각막 두께, 및 혈압을 포함하는 안질환 시야 손상 예후 예측 시스템.
  7. 제1항에 있어서,
    상기 출력부는, 상기 분석 결과를 시신경 및 시신경 주위 구조물 내의 위치별 스트레스를 나타내는 시각화 정보로 변환하여 출력하도록 구성된 시각화부를 포함하는 안질환 시야 손상 예후 예측 시스템.
  8. 미리 설정된 학습 이미지의 시신경 구조에 관련된 정보를 입력 데이터로 이용하여 생성된 머신러닝 분석 모델을 안질환 시야 손상 예후 예측 시스템에 저장하는 단계;
    상기 안질환 시야 손상 예후 예측 시스템이, 빛간섭단층촬영에 의한 안구의 단면 이미지를 수신하는 단계;
    상기 안질환 시야 손상 예후 예측 시스템이, 상기 머신러닝 분석 모델을 이용하여 상기 단면 이미지를 처리함으로써 상기 단면 이미지로부터 상기 시신경 구조에 관련된 정보를 추출하고, 상기 단면 이미지의 분석 결과를 생성하는 단계; 및
    상기 안질환 시야 손상 예후 예측 시스템이 상기 분석 결과를 제공하는 단계를 포함하되,
    상기 시신경 구조에 관련된 정보는, 망막의 외부 경사 경계 조직 길이, 시신경 경사각, 및 시신경관 경사 중 하나 이상을 포함하고,
    상기 분석 결과를 생성하는 단계는,
    상기 안질환 시야 손상 예후 예측 시스템이, 상기 단면 이미지로부터 망막 경계 조직 및 브루크막을 추출하는 단계;
    상기 안질환 시야 손상 예후 예측 시스템이, 상기 망막 경계 조직을 이용하여 상기 외부 경사 경계 조직을 추출하는 단계;
    상기 안질환 시야 손상 예후 예측 시스템이, 상기 브루크막 상의 개구 영역인 브루크막 개방부를 추출하는 단계; 및
    상기 안질환 시야 손상 예후 예측 시스템이, 상기 브루크막 개방부의 한쪽 끝과 상기 외부 경사 경계 조직을 연결하는 제1 선을 추출하는 단계를 더 포함하고,
    상기 시신경 경사각은 상기 브루크막 개방부와 상기 제1 선 사이의 각도이며,
    상기 시신경관 경사는, 상기 외부 경사 경계 조직과, 상기 외부 경사 경계 조직의 한쪽 끝으로부터 눈의 내측으로 연장되는 제2 선 사이의 각도인 안질환 시야 손상 예후 예측 방법.
  9. 삭제
  10. 제8항에 있어서,
    상기 분석 결과를 생성하는 단계는, 상기 안질환 시야 손상 예후 예측 시스템이, 상기 머신러닝 분석 모델을 이용하여 상기 단면 이미지를 처리함으로써 상기 단면 이미지로부터 안구의 시신경 형태에 관련된 정보를 추출하는 단계를 더 포함하는 안질환 시야 손상 예후 예측 방법.
  11. 제10항에 있어서,
    상기 시신경 형태에 관련된 정보는, 브루크막 개방부 최소 시신경 유두테 너비, 사상판 앞 신경조직 두께, 및 사상판 표면 곡률 중 하나 이상을 포함하는 안질환 시야 손상 예후 예측 방법.
  12. 제8항에 있어서,
    상기 분석 결과를 제공하는 단계 전에, 상기 안질환 시야 손상 예후 예측 시스템이, 상기 단면 이미지와 연관된 추가 위험 요인 정보를 수신하는 단계를 더 포함하며,
    상기 분석 결과는 상기 단면 이미지와 연관된 상기 추가 위험 요인 정보를 상기 머신러닝 분석 모델에 더 입력함으로써 생성되는 안질환 시야 손상 예후 예측 방법.
  13. 제12항에 있어서,
    상기 추가 위험 요인 정보는, 안압, 안축장 수치, 각막 두께, 및 혈압을 포함하는 안질환 시야 손상 예후 예측 방법.
  14. 제8항에 있어서,
    상기 안질환 시야 손상 예후 예측 시스템이, 상기 분석 결과를 시신경 및 시신경 주위 구조물 내의 위치별 스트레스를 나타내는 시각화 정보로 변환하여 출력하는 단계를 더 포함하는 안질환 시야 손상 예후 예측 방법.
  15. 하드웨어와 결합되어 청구항 제8항 및 제10항 내지 제14항 중 어느 한 항에 따른 안질환 시야 손상 예후 예측 방법을 실행하도록 컴퓨터로 판독 가능한 기록매체에 저장된 컴퓨터 프로그램.
KR1020200106679A 2020-08-25 2020-08-25 안질환 시야 손상 예후 예측 시스템 및 방법과 이를 위한 컴퓨터 프로그램 KR102596340B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020200106679A KR102596340B1 (ko) 2020-08-25 2020-08-25 안질환 시야 손상 예후 예측 시스템 및 방법과 이를 위한 컴퓨터 프로그램
PCT/KR2021/010683 WO2022045652A1 (ko) 2020-08-25 2021-08-11 안질환 시야 손상 예후 예측 시스템 및 방법과 이를 위한 컴퓨터 프로그램

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200106679A KR102596340B1 (ko) 2020-08-25 2020-08-25 안질환 시야 손상 예후 예측 시스템 및 방법과 이를 위한 컴퓨터 프로그램

Publications (2)

Publication Number Publication Date
KR20220027305A KR20220027305A (ko) 2022-03-08
KR102596340B1 true KR102596340B1 (ko) 2023-11-02

Family

ID=80355388

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200106679A KR102596340B1 (ko) 2020-08-25 2020-08-25 안질환 시야 손상 예후 예측 시스템 및 방법과 이를 위한 컴퓨터 프로그램

Country Status (2)

Country Link
KR (1) KR102596340B1 (ko)
WO (1) WO2022045652A1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023195554A1 (ko) * 2022-04-06 2023-10-12 경상국립대학교병원 녹내장 위험도 진단 장치 및 방법
KR102551808B1 (ko) 2022-10-12 2023-07-05 주식회사 에이비스 근시퇴행 예측 의료기기 장치 및 방법

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019005319A (ja) * 2017-06-27 2019-01-17 株式会社トプコン 眼科情報処理システム、眼科情報処理方法、プログラム、及び記録媒体

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
PL2558862T3 (pl) 2010-04-13 2019-07-31 M-Lab Gmbh Sposoby diagnostyczne dla jaskry
US10963737B2 (en) * 2017-08-01 2021-03-30 Retina-Al Health, Inc. Systems and methods using weighted-ensemble supervised-learning for automatic detection of ophthalmic disease from images
KR101977645B1 (ko) * 2017-08-25 2019-06-12 주식회사 메디웨일 안구영상 분석방법
CN112513999A (zh) * 2017-10-13 2021-03-16 人工智能技术公司 眼科疾病和病症的基于深度学习的诊断和转诊
KR102329468B1 (ko) * 2018-12-12 2021-11-24 사회복지법인 삼성생명공익재단 인공지능을 이용한 안질환 진단 방법 및 시스템

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019005319A (ja) * 2017-06-27 2019-01-17 株式会社トプコン 眼科情報処理システム、眼科情報処理方法、プログラム、及び記録媒体

Also Published As

Publication number Publication date
KR20220027305A (ko) 2022-03-08
WO2022045652A1 (ko) 2022-03-03

Similar Documents

Publication Publication Date Title
JP5955163B2 (ja) 画像処理装置および画像処理方法
EP2465062B1 (en) Glaucoma combinatorial analysis
US9585560B2 (en) Image processing apparatus, image processing method, and program
US8622548B2 (en) 3D retinal disruptions detection using optical coherence tomography
Abràmoff et al. Retinal imaging and image analysis
JP4909377B2 (ja) 画像処理装置及びその制御方法、コンピュータプログラム
US8699774B2 (en) Image processing apparatus, control method thereof, and program
US20110137157A1 (en) Image processing apparatus and image processing method
US9299139B2 (en) Volumetric analysis of pathologies
KR102596340B1 (ko) 안질환 시야 손상 예후 예측 시스템 및 방법과 이를 위한 컴퓨터 프로그램
EP2693399B1 (en) Method and apparatus for tomography imaging
JP2012075938A (ja) 画像処理装置及びその制御方法、コンピュータプログラム
US11883099B2 (en) Noninvasive techniques for identifying choroidal neovascularization in retinal scans
US10058243B2 (en) Clinic evaluation via outer retinal layer assessment
Giancardo Automated fundus images analysis techniques to screen retinal diseases in diabetic patients
JP2008073280A (ja) 眼底画像処理装置
JP2006263127A (ja) 眼底画像診断支援システム、及び眼底画像診断支援プログラム
Lu et al. Parapapillary atrophy and optic disc region assessment (PANDORA): retinal imaging tool for assessment of the optic disc and parapapillary atrophy
JP2010158279A (ja) 眼底画像解析システム、及び眼底画像解析プログラム
Otuna-Hernández et al. Diagnosis and degree of evolution in a keratoconus-type corneal ectasia from image processing
US20230154004A1 (en) Retinal vascular stress test for diagnosis of vision-impairing diseases
Valencia Automatic detection of diabetic related retina disease in fundus color images
Almeida-Galárraga Diagnosis and Degree of Evolution in a Keratoconus-Type Corneal Ectasia from Image Processing
JP2022038751A (ja) 画像処理装置、画像処理方法、およびプログラム
WO2024089642A1 (en) System and method for detecting glaucoma

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant