KR20210107295A - 녹내장 수술 결과 진단 장치 및 그 판단 방법 - Google Patents

녹내장 수술 결과 진단 장치 및 그 판단 방법 Download PDF

Info

Publication number
KR20210107295A
KR20210107295A KR1020200022084A KR20200022084A KR20210107295A KR 20210107295 A KR20210107295 A KR 20210107295A KR 1020200022084 A KR1020200022084 A KR 1020200022084A KR 20200022084 A KR20200022084 A KR 20200022084A KR 20210107295 A KR20210107295 A KR 20210107295A
Authority
KR
South Korea
Prior art keywords
image information
bleb
result
deep learning
glaucoma
Prior art date
Application number
KR1020200022084A
Other languages
English (en)
Other versions
KR102332353B1 (ko
Inventor
정윤혜
장동진
Original Assignee
가톨릭대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 가톨릭대학교 산학협력단 filed Critical 가톨릭대학교 산학협력단
Priority to KR1020200022084A priority Critical patent/KR102332353B1/ko
Publication of KR20210107295A publication Critical patent/KR20210107295A/ko
Application granted granted Critical
Publication of KR102332353B1 publication Critical patent/KR102332353B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/102Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for optical coherence tomography [OCT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7278Artificial waveform generation or derivation, e.g. synthesising signals from measured signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F9/00Methods or devices for treatment of the eyes; Devices for putting-in contact lenses; Devices to correct squinting; Apparatus to guide the blind; Protective devices for the eyes, carried on the body or in the hand
    • A61F9/007Methods or devices for eye surgery
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Primary Health Care (AREA)
  • Molecular Biology (AREA)
  • Ophthalmology & Optometry (AREA)
  • Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Epidemiology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Artificial Intelligence (AREA)
  • Psychiatry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physiology (AREA)
  • Signal Processing (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Vascular Medicine (AREA)
  • Eye Examination Apparatus (AREA)
  • Image Analysis (AREA)

Abstract

본 명세서는 전안부에 대한 원본 영상 정보를 입력받아, 전안부에 발생한 여과포에 대한 전처리 영상 정보를 생성하고, 원본 영상 정보 및 전처리 영상 정보를 하나 이상의 학습된 딥 러닝 모델에 입력하고, 딥 러닝 모델로부터 출력된 데이터를 이용하여 생성된 딥 러닝 결과값을 기초로 녹내장의 수술 결과를 진단하고, 진단부에서 진단한 녹내장의 수술 결과를 출력하는 녹내장 수술 결과 진단 장치 및 그 진단 방법을 개시한다.

Description

녹내장 수술 결과 진단 장치 및 그 진단 방법{APPARATUS AND METHOD FOR GLAUCOMA SURGERY DIAGNOSIS}
본 발명은 녹내장의 수술 결과를 진단하는 녹내장 수술 결과 진단 장치 및 그 진단 방법을 제공한다.
녹내장(Glaucoma)은 백내장, 굴절이상(근시, 원시, 난시)과 더불어 실명을 유발하는 3대 안과 질환 중 하나이다. 녹내장은 안압이 증가하여 시신경의 신경절세포(Retinal Ganglion Cell, RGC)와 그 축삭(Axon)이 손상되어 시야가 좁아지는 질병으로서, 인구 고령화에 따라 그 발생 빈도가 증가하고 있다.
녹내장은 주로 안압을 낮추는 수술을 통해 치료하며, 현재 녹내장을 치료하기 위한 다양한 방식의 녹내장 수술(e.g. 섬유주절제술 / 방수유출장치삽입술 / 최소침습녹내장수술)이 개발되었다.
녹내장을 가진 환자가 녹내장 수술을 받은 경우, 현재는 의사가 녹내장 수술의 결과를 전안부에 대한 영상 정보를 기초로 육안으로 진단하고 있는 실정이다. 이로 인해 의사의 업무 부담이 증가할 뿐 아니라, 환자가 녹내장 수술의 결과를 의사를 통해 확인하기 위한 경제적 및 시간적 부담 역시 증가하고 있다.
실시예들은, 녹내장의 수술 결과를 보다 정확하게 진단할 수 있는 녹내장 수술 결과 진단 장치 및 그 진단 방법을 제공한다.
또한, 실시예들은, 녹내장의 수술 결과를 진단하는 과정에서 발생하는 의사의 업무 부담 및 환자의 경제적 및 시간적 부담을 감소시키는 녹내장 수술 결과 진단 장치 및 그 진단 방법을 제공한다.
다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.
본 명세서는 전안부에 대한 원본 영상 정보를 입력받아, 전안부에 발생한 여과포에 대한 전처리 영상 정보를 생성하고, 원본 영상 정보 및 전처리 영상 정보를 하나 이상의 학습된 딥 러닝 모델에 입력하고, 하나 이상의 딥 러닝 모델로부터 출력된 데이터를 이용하여 생성된 딥 러닝 결과값을 기초로 녹내장의 수술 결과를 진단하고, 진단부에서 진단한 녹내장의 수술 결과를 출력하는 녹내장 수술 결과 진단 장치 및 그 진단 방법을 개시한다.
일 실시예는, 전안부에 대한 원본 영상 정보를 입력받아 전안부에 발생한 여과포에 대한 전처리 영상 정보를 생성하는 전처리부, 원본 영상 정보 및 전처리 영상 정보를 하나 이상의 학습된 딥 러닝 모델에 입력하고 하나 이상의 딥 러닝 모델로부터 출력된 데이터를 이용하여 생성된 딥 러닝 결과값을 기초로 녹내장의 수술 결과를 진단하는 진단부 및 진단부에서 진단한 녹내장의 수술 결과를 출력하는 출력부를 포함하는 녹내장 수술 결과 진단 장치를 제공한다.
다른 실시예는, 전안부에 대한 원본 영상 정보를 입력받아 전안부에 발생한 여과포에 대한 전처리 영상 정보를 생성하는 전처리 단계, 원본 영상 정보 및 전처리 영상 정보를 하나 이상의 학습된 딥 러닝 모델에 입력하고 하나 이상의 딥 러닝 모델로부터 출력된 데이터를 이용하여 생성된 딥 러닝 결과값을 기초로 녹내장의 수술 결과를 진단하는 진단 단계 및 진단 단계에서 진단한 녹내장의 수술 결과를 출력하는 출력 단계를 포함하는 녹내장 수술 결과 진단 방법을 제공한다.
실시예들에 따른 녹내장 수술 결과 진단 장치 및 그 진단 방법에 의하면 녹내장의 수술 결과를 보다 정확하게 진단할 수 있다.
또한, 실시예들에 따른 녹내장 수술 결과 진단 장치 및 그 진단 방법에 의하면 녹내장의 수술 결과를 진단하는 과정에서 발생하는 의사의 업무 부담 및 환자의 경제적 및 시간적 부담을 감소시킬 수 있다.
도 1은 일 실시예에 따른 녹내장 수술 결과 진단 장치의 블럭도이다.
도 2는 전안부에 대한 원본 영상 정보의 일 예이다.
도 3은 도 2의 원본 영상 정보를 전처리하는 동작의 일 예를 나타내는 흐름도이다.
도 4는 도 2에서 생성된 전처리 영상 정보를 기초로 도 1의 진단부가 수술 결과를 진단하는 동작의 일 예를 도시한 도면이다.
도 5는 전안부에 대한 원본 영상 정보의 다른 예이다.
도 6은 도 5의 원본 영상 정보를 전처리하는 동작의 일 예를 나타내는 흐름도이다.
도 7은 도 6에서 생성된 전처리 영상 정보를 기초로 도 1의 진단부가 수술 결과를 진단하는 동작의 일 예를 도시한 도면이다.
도 8은 도 1의 진단부가 딥 러닝 결과값을 생성하는 일 예를 도시한 도면이다.
도 9는 도 8의 딥 러닝 결과값에 대해 확률 추측 모델을 사용하는 일 예를 도시한 도면이다.
도 10은 일 실시예에 따른 녹내장 수술 결과 진단 방법의 흐름도이다.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는"직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미하며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
명세서 전체에서 사용되는 정도의 용어 "약", "실질적으로" 등은 언급된 의미에 고유한 제조 및 물질 허용오차가 제시될 때 그 수치에서 또는 그 수치에 근접한 의미로 사용되고, 본 발명의 이해를 돕기 위해 정확하거나 절대적인 수치가 언급된 개시 내용을 비양심적인 침해자가 부당하게 이용하는 것을 방지하기 위해 사용된다. 본 발명의 명세서 전체에서 사용되는 정도의 용어 "~(하는) 단계" 또는 "~의 단계"는 "~ 를 위한 단계"를 의미하지 않는다.
본 명세서에 있어서 '부(部)'란, 하드웨어에 의해 실현되는 유닛(unit), 소프트웨어에 의해 실현되는 유닛, 양방을 이용하여 실현되는 유닛을 포함한다. 또한, 1개의 유닛이 2개 이상의 하드웨어를 이용하여 실현되어도 되고, 2개 이상의 유닛이 1개의 하드웨어에 의해 실현되어도 된다.
본 명세서에 있어서 단말, 장치 또는 디바이스가 수행하는 것으로 기술된 동작이나 기능 중 일부는 해당 단말, 장치 또는 디바이스와 연결된 서버에서 대신 수행될 수도 있다. 이와 마찬가지로, 서버가 수행하는 것으로 기술된 동작이나 기능중 일부도 해당 서버와 연결된 단말, 장치 또는 디바이스에서 수행될 수도 있다.
본 명세서에서 있어서, 단말과 매핑(Mapping) 또는 매칭(Matching)으로 기술된 동작이나 기능 중 일부는, 단말의 식별 정보(Identifying Data)인 단말기의 고유번호나 개인의 식별정보를 매핑 또는 매칭한다는 의미로 해석될 수 있다.
이하 첨부된 도면을 참고하여 본 발명을 상세히 설명하기로 한다.
도 1은 일 실시예에 따른 녹내장 수술 결과 진단 장치의 블럭도이다.
도 1을 참조하면, 녹내장 수술 결과 진단 장치(100)는 전처리부(110), 진단부(120) 및 출력부(130)를 포함할 수 있다.
전처리부(110)는 전안부에 대한 원본 영상 정보를 입력받아, 여과포(bleb)에 대한 전처리 영상 정보를 생성할 수 있다. 이때, 원본 영상 정보는 전안부를 촬상할 수 있는 영상 획득 장치(e.g. 카메라, 단층 촬영기)에 의해 획득될 수 있다. 그리고 원본 영상 정보의 포맷은 영상 정보를 표현할 수 있는 다양한 포맷(e.g. JPG, PNG, AVI, MP4)일 수 있다.
녹내장 수술 후 전안부에는 창상 치유 반응이 일어나면서 여과포가 발생할 수 있다. 만약 창상 치유 반응이 너무 과도하면 안압이 증가하게 된다. 반면 창상 치유 반응이 너무 미미한 경우에도 창상으로 인한 누출(leak) 또는 감염이 발생할 수 있다. 한편 녹내장 수술 후 안구의 모양체에서 만들어진 방수가 유출되는 자리에 섬유화가 진행되어 섬유화 조직이 발생할 수 있다. 만약 섬유화 조직이 너무 두꺼우면 여과포가 제대로 생성되지 못하고 방수가 유출되는 유출로가 막혀서 안압이 증가하게 된다. 반면 섬유화 조직이 너무 얇은 경우에도 방수가 유출되는 유출 장치가 노출되어 수술 부위에 방수가 새어나갈 수 있다. 이러한 문제가 발생하였는지 여부를 확인하기 위해 여과포에 대한 전처리 영상 정보가 필요하다.
원본 영상 정보는 녹내장 수술 후 특정한 시간(e.g. 3개월) 내에 전안부, 즉 안구의 전반부를 촬상한 영상 정보일 수 있다. 전처리부(110)는 입력받은 원본 영상 정보를 전처리하여 여과포에 대한 전처리 영상 정보를 생성할 수 있다.
진단부(120)는 원본 영상 정보 및 전처리부(110)로부터 입력받은 전처리 영상 정보를 하나 이상의 딥 러닝 모델에 입력하여 녹내장의 수술 결과를 진단할 수 있다. 진단부(120)는 하나 이상의 딥 러닝 모델로부터 출력된 데이터를 이용하여 생성된 딥 러닝 결과값을 기초로 녹내장의 수술 결과를 진단할 수 있다.
일 예로, 딥 러닝 결과 값은 n개(n은 임의의 자연수)의 출력값 O1, O2, …, On일 수 있다. 진단부(120)는 복수의 파라미터를 설정하고, n개의 출력값 O1, O2, …, On 중 하나 이상을 각 파라미터에 대응하여 각 파라미터에 대한 결과를 판단할 수 있다. 그리고 진단부(120)는 각 파라미터의 결과를 기초로 녹내장의 수술 결과를 진단할 수 있다.
이때, 녹내장의 수술 결과는 수술의 성패 여부 및 수술의 예후에 대한 정보를 지시할 수 있다.
구체적으로 수술의 성패 여부에 대한 정보는 수술 후 특정 시점(e.g. 1년/3년/5년)에서 수술이 완전 성공(complete success)/부분 성공(qualified success) 또는 실패(failure)인지를 지시할 수 있다.
또한 수술의 성패 여부에 대한 정보는 환자의 안압에 대한 정보 및 환자가 안압을 조절하기 위해 안압약을 사용해야 하는지 여부를 지시할 수 있다. 구체적으로, 수술의 성패 여부에 대한 정보는 수술 후 특정 시점(e.g. 1년/3년/5년)까지 환자의 안압이 설정된 기준치 이하로 유지될 지 여부를 지시할 수 있다.
그리고 수술의 예후에 대한 정보는 추가 수술 또는 시술(intervention)이 필요한 지 여부를 지시할 수 있다. 추가 시술은 니들링(needling), 복원술(revision) 등일 수 있다.
출력부(130)는 진단부(120)에서 진단한 녹내장의 수술 결과를 출력할 수 있다. 추가로, 출력부(130)는 녹내장의 수술 결과를 진단하기 위해 사용되는 각 파라미터에 대한 결과를 출력할 수도 있다.
출력부(130)는 녹내장의 수술 결과 또는 파라미터에 대한 결과를 출력 장치(e.g. TV, 모니터, LED)를 통해 출력할 수도 있다.
한편, 녹내장 수술 결과 진단 장치(100)가 원본 영상 정보를 전처리하고, 전처리된 전처리 영상 정보를 딥 러닝 모델에 입력하여 녹내장의 수술 결과를 진단하는 구체적인 동작은 원본 영상 정보의 종류에 따라 달라질 수 있다.
이하, 원본 영상 정보의 종류에 따른 녹내장 수술 결과 진단 장치(100)의 동작을 실시예 1과 실시예 2를 통해 설명한다.
실시예 1
도 2는 전안부에 대한 원본 영상 정보의 일 예이다.
도 2를 참조하면, 전안부에 대한 원본 영상 정보는 전안부에 대한 전면 화상일 수 있다.
이때, 전안부에 대한 전면 화상은 촬상 장치(e.g. 카메라)가 안구에 확산 빔(diffuse beam) 또는 슬릿 빔(slit beam)을 비추어 촬영한 사진일 수 있다. 이때, 촬상 장치가 확신 빔 또는 슬릿 빔을 안구에 비추는 각도는 제한이 없으나, 설정된 기준 선(e.g 안구의 눈동자가 주시하는 시선)을 기준으로 하여 30도에서 60도 사이인 것이 바람직하다.
그리고 전안부에 대한 전면 화상의 배율은 제한이 없으나 6배에서 40배 사이인 것이 바람직하다.
전안부에 대한 전면 화상은 안구의 각막, 결막 및 여과포의 전체 또는 일부를 포함한 컬러 또는 흑백의 영상 또는 동영상일 수 있다.
도 2를 참조하면, 전안부에 대한 전면 화상에서 각막의 상부에 여과포가 발생한 것을 확인할 수 있다. 전술한 바와 같이, 여과포는 녹내장 수술 후 창상 치유 반응이 일어나면서 발생할 수 있다.
도 3은 도 2의 원본 영상 정보를 전처리하는 동작의 일 예를 나타내는 흐름도이다.
먼저 전처리부(110)는 도 2에서 설명한 원본 영상 정보(전안부에 대한 전면 화상)를 기초로 각막, 결막 및 여과포 간의 경계를 추출할 수 있다(S310).
딥 러닝 모델을 이용하여 녹내장의 수술 결과를 진단하기 위해서 여과포와 여과포 주변의 결막에 대한 영상 정보가 필요하고, 여과포와 여과포 주변의 결막에 대한 영역이 관심 영역(Region of Interest, ROI)이 된다. 따라서 전처리부(110)는 여과포와 여과포 주변의 결막에 대한 영역을 관심 영역으로 추출하기 위해서, S310 단계에서 추출한 각막, 결막 및 여과포 간의 경계를 기초로 하여 원본 영상 정보에서 각막에 대한 영상 정보를 제거할 수 있다(S320).
그리고 전처리부(110)는 여과포와 여과포 주변의 결막을 기초로 전처리 영상 정보를 추출할 수 있다(S330).
도 4는 도 2에서 생성된 전처리 영상 정보를 기초로 도 1의 진단부가 수술 결과를 진단하는 동작의 일 예를 도시한 도면이다.
도 4를 참조하면, 진단부(120)는 전처리부(110)에서 생성한 전처리 영상 정보를 학습된 딥 러닝 모델에 입력할 수 있다. 그리고 진단부(120)는 딥 러닝 모델을 통해 출력되는 딥 러닝 결과 값의 전체 또는 일부를 여과포에 대한 하나 이상의 파라미터에 각각 대응하여 각 파라미터의 결과를 확인할 수 있다. 그리고 진단부(120)는 각 파라미터의 결과를 기초로 녹내장의 수술 결과를 진단할 수 있다.
이때, 전술한 딥 러닝 모델(deep learning model)은 인공 신경망을 다층 레이어로 쌓은 형태의 모델일 수 있다. 즉, 딥 러닝 모델은 다층의 네트워크로 이루어진 심층 신경망(deep neural network)에서 다량의 데이터를 학습시킴으로서 입력값에 대한 특성(feature)을 자동으로 학습하고, 이를 통해 목적 함수, 즉 예측 정확도의 에러를 최소화하도록 네트워크를 학습시켜 나아가는 형태의 모델이다.
전술한 딥 러닝 모델은 CNN(Convolutional Neural Network), DHN(Deep Hierachical Network), CDBN(Convolutional Deep Belief Network), DDN(Deconvolutional Deep Network), RNN(Recurrent Neural Network), GAN(Generative Adversarial Network) 등일 수 있다. 본 명세서에서는 딥 러닝 모델의 일 예로 R-CNN(region-based convolutional neural network)을 이용하는 경우를 예시적으로 설명하나, 본 발명은 이에 제한되지 않고 현재 또는 장래에 사용될 수 있는 다양한 딥 러닝 모델을 이용할 수 있다.
전술한 딥 러닝 모델은 딥 러닝 프레임워크를 통해 구현될 수 있다. 딥 러닝 프레임워크는 딥 러닝 모델을 개발할 때 공통적으로 사용되는 기능들을 라이브러리 형태로 제공하고, 시스템 소프트웨어나 하드웨어 플랫폼을 잘 사용할 수 있도록 지원하는 역할을 한다. 본 실시예에서 딥 러닝 모델은 현재 공개되었거나 장래 공개될 어떠한 딥 러닝 프레임워크를 이용하여 구현될 수 있다.
딥 러닝 모델을 통해 출력되는 딥 러닝 결과 값의 전체 또는 일부에 대응하는 여과포에 대한 하나 이상의 파라미터는 여과포의 혈관 분포(bleb vascularity), 여과포 주변의 혈관 분포(peri-bleb vascularity), 여과포의 높이(bleb height) 및 여과포의 면적(bleb area)일 수 있다. 즉, 딥 러닝 결과값은 여과포의 혈관 분포(bleb vascularity), 여과포 주변의 혈관 분포(peri-bleb vascularity), 여과포의 높이(bleb height) 및 여과포의 면적(bleb area) 중 적어도 하나에 대응할 수 있다.
실시예 2
도 5는 전안부에 대한 원본 영상 정보의 다른 예이다.
도 5를 참조하면, 전안부에 대한 원본 영상 정보는 전안부에 대한 빛 간섭 단층 촬영(Optical Coherence Tomography, OCT) 영상 정보일 수 있다. 전안부에 대한 빛 간섭 단층 촬영 영상 정보는 여과포와 여과포 주변의 결막, 각막 등의 단면의 정보를 나타낼 수 있다.
전안부에 대한 빛 간섭 단층 촬영 영상 정보는 여과포가 가장 잘 노출될 수 있도록, 안구가 여과포가 위치한 방향과 반대 방향을 주시하고 있는 상태에서 촬영될 수 있다.
전안부에 대한 빛 간섭 단층 촬영 영상 정보를 촬영하는 방향은 제한이 없으나, 여과포의 단면 중 여과포의 가장 높은 지점, 즉 여과포의 두께가 가장 두꺼운 지점을 촬영할 수 있도록 하기 위해 여과포의 수평 방향 또는 여과포의 방수를 유출하기 위한 방수 유출 장치의 튜브의 방향과 일치하는 방향이 바람직하다.
도 6은 도 5의 원본 영상 정보를 전처리하는 동작의 일 예를 나타내는 흐름도이다.
먼저 전처리부(110)는 원본 영상 정보로부터 여과포와 결막의 경계를 구분할 수 있다(S610).
그리고 전처리부(110)는 여과포와 여과포 주변의 결막을 기초로 전처리 영상 정보를 추출할 수 있다(S620). 이때, 전처리부(110)는 여과포와 결막의 경계 중 각막에서 가장 가까운 경계와 가장 먼 경계를 수직으로 연결하는 선 사이의 영역을 관심 영역으로 설정하여 전처리 영상 정보로 추출할 수 있다.
도 7은 도 6에서 생성된 전처리 영상 정보를 기초로 도 1의 진단부가 수술 결과를 진단하는 동작의 일 예를 도시한 도면이다.
도 7을 참조하면, 도 4와 마찬가지로 진단부(120)는 전처리부(110)에서 생성한 전처리 영상 정보를 학습된 딥 러닝 모델에 입력할 수 있다. 그리고 진단부(120)는 딥 러닝 모델을 통해 출력되는 딥 러닝 결과 값의 전체 또는 일부를 여과포에 대한 하나 이상의 파라미터에 각각 대응하여 각 파라미터의 결과를 확인할 수 있다. 그리고 진단부(120)는 각 파라미터의 결과를 기초로 녹내장의 수술 결과를 진단할 수 있다.
이때, 도 4에서 전술한 바와 같이 적용 가능한 딥 러닝 모델은 CNN(Convolutional Neural Network), RNN(Recurrent Neural Network), GAN(Generative Adversarial Network) 등일 수 있으며, 본 실시예에서 설명하는 딥 러닝 모델은 특정한 딥 러닝 모델에 한정되지 않는다. 또한 본 실시예에서 설명하는 딥 러닝 모델은 현재 공개되었거나 장래 공개될 어떠한 딥 러닝 프레임워크를 이용하여 구현될 수 있다.
딥 러닝 모델을 통해 출력되는 딥 러닝 결과 값의 전체 또는 일부에 대응하는 여과포에 대한 하나 이상의 파라미터는 여과포 벽의 두께(bleb wall thickness), 미세낭포(microversicle)의 존재 여부, 여과포 벽의 음영(bleb wall shading)일 수 있다. 즉, 딥 러닝 결과값은 여과포 벽의 두께(bleb wall thickness), 미세낭포(microversicle)의 존재 여부, 여과포 벽의 음영(bleb wall shading) 중 적어도 하나에 대응할 수 있다.
이하, 실시예 1 또는 실시예 2에서 진단부(120)가 녹내장 수술 결과를 진단하기 위해 사용하는 딥 러닝 모델의 일 예를 설명한다.
도 8은 도 1의 진단부가 딥 러닝 결과값을 생성하는 일 예를 도시한 도면이다.
먼저 진단부(120)는 원본 영상 정보 및 전처리 영상 정보를 하나 이상의 딥 러닝 모델 각각에 입력할 수 있다.
이때, 진단부(120)가 사용하는 하나 이상의 딥 러닝 모델 각각은 CNN(convolutional neural network) 또는 CNN에 상응하는 딥 러닝 모델일 수 있으며 각 딥 러닝 모델은 서로 다른 구조 및 목적에 의해 서로 다르게 학습될 수 있다.
진단부(120)가 사용하는 하나 이상의 딥 러닝 모델은 일 예로 R-CNN(region-based convolutional neural network)일 수 있다. R-CNN은 입력값에서 객체가 존재할 위치의 후보군을 탐색하고 탐색된 후보군에 포함된 후보 영상 각각을 동일한 크기로 만든 후 분류자(classifier) 또는 회귀자(regressor)에 적용하여 객체에 대한 정보를 추출하는 딥 러닝 모델이다. 진단부(120)는 여과포라는 객체에 대한 정보를 추출하기 위해 R-CNN을 사용할 수 있다.
진단부(120)는 원본 영상 정보 및 전처리 영상 정보를 하나 이상의 딥 러닝 모델 상의 컨볼루션 망에 입력할 수 있다. 컨볼루션 망은 은닉층으로써 하나 이상의 컨볼루션 층 및 하나 이상의 풀링 층을 포함할 수 있다. 그리고 컨볼루션 망의 각 노드는 입력층에 포함된 하나 이상의 노드들로부터의 입력 값을 기초로 출력 값을 연산할 수 있다.
컨볼루션 망의 각 노드는 입력 값에 대한 출력 값을 연산하기 위해 설정된 활성화 함수를 사용할 수 있다. 예를 들어 컨볼루션 망의 각 노드는 입력 값에 대해 설정된 가중치 및 바이어스를 통해 선형 회귀(linear regression) 값을 계산하고, 계산된 선형 회귀 값에 활성화 함수를 적용하여 출력 값을 연산할 수 있다.
활성화 함수는 예를 들어 쌍곡 탄젠트(hyperbolic tangent) 함수, 시그모이드(sigmoid) 함수 또는 ReLU(Rectified Linear Unit) 함수일 수 있다.
딥 러닝 모델을 통해 출력된 데이터는 원본 영상 정보 및 전처리 영상 정보 상에 존재하는 특징(e.g. 여과포에 대한 특징)을 추상화한 결과를 나타내는 하나 이상의 특징 데이터일 수 있다.
그리고 진단부(120)는 출력된 하나 이상의 특징 데이터를 연산한 연산 결과 정보를 기초로 딥 러닝 결과값을 생성할 수 있다. 진단부(120)는 정규화(normalization), 풀링(pooling), 연쇄(concatenation) 등의 방법을 통해 하나 이상의 특징 데이터를 연산하여 연산 결과 정보를 생성할 수 있다.
그리고 진단부(120)는 딥 러닝 결과값을 설정된 파라미터와 대응시킬 수 있다. 일 예로 설정된 파라미터는 도 4에서 전술한 바와 같이 여과포의 혈관 분포(bleb vascularity), 여과포 주변의 혈관 분포(peri-bleb vascularity), 여과포의 높이(bleb height) 및 여과포의 면적(bleb area)일 수 있다. 다른 예로 설정된 파라미터는 도 7에서 전술한 바와 같이 여과포 벽의 두께(bleb wall thickness), 미세낭포(microversicle)의 존재 여부, 여과포 벽의 음영(bleb wall shading)일 수 있다.
한편, 진단부(120)가 사용하는 딥 러닝 모델은 생성된 딥 러닝 결과값과 설정된 기준값(지도 학습 데이터) 사이의 오차를 계산할 수 있다. 그리고 딥 러닝 모델은 역전파(back propagation), 드롭아웃(drop out), 드롭커넥트(drop connect) 등의 방식을 이용하여 오차의 최소값을 탐색하는 과정을 반복하면서 딥 러닝 모델의 컨볼루션 망에 포함되는 각 노드들에 적용되는 가중치를 갱신하는 방식으로 학습을 수행할 수 있다.
진단부(120)는 이와 같은 딥 러닝 결과를 기초로 녹내장 수술 결과와 관련된 정보를 얻기 위해 다양한 함수를 사용하여 정규화할 수 있다.
도 9는 도 8의 딥 러닝 결과값에 대해 확률 추측 모델을 사용하는 일 예를 도시한 도면이다.
진단부(120)는 딥 러닝 결과값에 대해 설정된 확률 추측 모델을 적용하여 생성된 확률값을 기초로 녹내장의 수술 결과를 진단할 수 있다. 이때, 확률 추측 모델은 1) 서포트 벡터 머신(SVM, Support Vector Machine), 랜덤 포레스트(random forest) 등의 기계 학습 모델이거나 2) 별도의 신경망 모델이거나 또는 3) 소프트맥스 함수를 사용한 모델일 수 있다.
소프트맥스 함수는 출력값으로부터 확률값을 얻기 위해 사용하는 함수이다. 진단부(120)는 딥 러닝 결과 R1, R2, …, Rn에 대해 소프트맥스 함수를 적용하여 확률값 P1, P2, …, Pn (P1 + P2 + … + Pn = 1)을 얻을 수 있다. 진단부(120)는 확률값 P1, P2, …, Pn 각각을 설정된 기준 확률과 비교하여 녹내장 수술 결과와 관련된 정보를 판단할 수 있다.
일 예로, 진단부(120)는 확률값 P1의 값이 제1 기준 확률(e.g. 0.95)보다 높은 경우 녹내장 수술이 완전 성공(complete success)이라고 판단하고, P1의 값이 제1 기준 확률과 제2 기준 확률(e.g. 0.7) 사이이면 녹내장 수술이 부분 성공(qualified success)이라고 판단하고, P1의 값이 제2 기준 확률 이하이면 실패(failure)라고 판단할 수 있다.
도 10은 일 실시예에 따른 녹내장 수술 결과 진단 방법의 흐름도이다.
도 10을 참조하면, 녹내장 수술 결과 진단 방법은 전처리 단계(S1010), 판단 단계(S1020) 및 출력 단계(S1030)를 포함할 수 있다. 전처리 단계(S1010)는 전안부에 대한 원본 영상 정보를 입력받아, 여과포에 대한 전처리 영상 정보를 생성할 수 있다.
일 예로, 전안부에 대한 원본 영상 정보는 전안부에 대한 전면 화상일 수 있다. 이 경우 전처리 단계(S1010)는 원본 영상 정보를 기초로 각막, 결막 및 여과포 간의 경계를 추출한 후에, 각막에 대한 영상 정보를 제거하고 여과포와 여과포 주변의 결막을 기초로 전처리 영상 정보를 생성할 수 있다.
다른 예로, 전안부에 대한 원본 영상 정보는 전안부에 대한 빛 간섭 단층 촬영 영상 정보일 수 있다. 이 경우 전처리 단계(S1010)는 원본 영상 정보를 기초로 여과포와 결막의 경계를 구분한 후에, 여과포와 여과포 주변의 결막을 기초로 전처리 영상 정보를 생성할 수 있다.
진단 단계(S1020)는 원본 영상 정보 및 전처리 단계(S1010)에서 생성된 전처리 영상 정보를 하나 이상의 학습된 딥 러닝 모델에 입력하고, 하나 이상의 딥 러닝 모델로부터 출력된 데이터를 이용하여 생성된 딥 러닝 결과값을 기초로 녹내장의 수술 결과를 진단할 수 있다.
이때, 딥 러닝 모델에 의해 출력된 딥 러닝 결과값은 여과포에 대한 하나 이상의 파라미터에 대응할 수 있다. 일 예로 전안부에 대한 원본 영상 정보가 전안부에 대한 전면 화상일 때, 딥 러닝 결과값은 여과포의 혈관 분포, 여과포 주변의 혈관 분포, 여과포의 높이 및 여과포의 면적 중 적어도 하나에 대응할 수 있다. 다른 예로 전안부에 대한 원본 영상 정보가 전안부에 대한 빛 간섭 단층 촬영 영상 정보일 때, 딥 러닝 결과값은 여과포 벽의 두께, 미세낭포의 존재 여부 및 여과포 벽의 음영 중 적어도 하나에 대응할 수 있다.
진단 단계(S1020)에서 원본 영상 정보 및 전처리 영상 정보를 기초로 녹내장의 수술 결과를 진단하는 방법은 다양하게 결정될 수 있다.
일 예로 진단 단계(S1020)는 원본 영상 정보 및 전처리 영상 정보를 하나 이상의 딥 러닝 모델 각각에 입력하여, 원본 영상 정보 및 전처리 영상 정보의 특징을 나타내는 하나 이상의 특징 데이터를 생성할 수 있다.
그리고 진단 단계(S1020)는 하나 이상의 특징 데이터를 연산한 연산 결과 정보를 기초로 딥 러닝 결과값을 생성할 수 있다.
그리고 진단 단계(S1020)는 생성된 딥 러닝 결과값을 설정된 파라미터와 대응시킬 수 있다.
추가로, 진단 단계(S1020)는 딥 러닝 결과값에 대해 설정된 확률 추측 모델을 적용하여 생성된 확률값을 기초로 녹내장의 수술 결과를 진단할 수 있다.
한편, 진단 단계(S1020)에서 진단한 녹내장의 수술 결과는 수술의 성패 여부 및 수술의 예후에 대한 정보를 지시할 수 있다.
출력 단계(S1030)는 진단 단계(S1020)에서 진단한 녹내장의 수술 결과를 출력할 수 있다.
한편, 전술한 전처리 단계(S1010), 진단 단계(S1020) 및 출력 단계(S1030)는 각각 전술한 녹내장 수술 결과 진단 장치(100)의 전처리부(110), 진단부(120), 출력부(130)에 의해 실행될 수 있다.
실시예들에 따른 녹내장 수술 결과 진단 장치(100) 및 그 진단 방법에 의하면 녹내장의 수술 결과를 보다 정확하게 진단할 수 있다. 의사가 전안부에 대한 원본 영상 정보를 기초로 육안으로 녹내장 수술 결과를 진단하는 대신에 실시예들에서 설명한 딥 러닝 모델을 이용하여 녹내장 수술 결과를 자동으로 진단함으로써, 의사의 자의적 판단으로 인한 오진단 가능성을 배제하고 녹내장의 수술 결과를 보다 정확하게 진단할 수 있다. 이를 통해 의사는 만약 녹내장 수술 결과가 좋지 않다고 예측되는 경우, 추가 수술 또는 시술을 통해 이후 환자에게 발생할 수 있는 수술 후 후유증, 부작용 등의 문제를 미리 제거할 수 있다.
또한, 실시예들에 따른 녹내장 수술 결과 진단 장치(100) 및 그 진단 방법에 의하면 녹내장의 수술 결과를 진단하는 과정에서 발생하는 의사의 업무 부담 및 환자의 경제적 및 시간적 부담을 감소시킬 수 있다. 의사가 원본 영상 정보를 육안으로 검토하는 시간을 줄일 수 있으므로 의사의 업무 부담이 경감될 수 있다. 또한, 환자가 의사를 직접 방문할 필요 없이 딥 러닝 모델에 의해 자동으로 진단된 녹내장 수술 결과를 받을 수 있어 환자의 경제적 및 시간적 부담 역시 감소할 수 있다.
전술한 녹내장 수술 결과 진단 장치(100)는, 프로세서, 메모리, 사용자 입력장치, 프레젠테이션 장치 중 적어도 일부를 포함하는 컴퓨팅 장치에 의해 구현될 수 있다. 메모리는, 프로세서에 의해 실행되면 특정 태스크를 수행할 있도록 코딩되어 있는 컴퓨터-판독가능 소프트웨어, 애플리케이션, 프로그램 모듈, 루틴, 인스트럭션(instructions), 및/또는 데이터 등을 저장하는 매체이다. 프로세서는 메모리에 저장되어 있는 컴퓨터-판독가능 소프트웨어, 애플리케이션, 프로그램 모듈, 루틴, 인스트럭션, 및/또는 데이터 등을 판독하여 실행할 수 있다. 사용자 입력장치는 사용자로 하여금 프로세서에게 특정 태스크를 실행하도록 하는 명령을 입력하거나 특정 태스크의 실행에 필요한 데이터를 입력하도록 하는 수단일 수 있다. 사용자 입력장치는 물리적인 또는 가상적인 키보드나 키패드, 키버튼, 마우스, 조이스틱, 트랙볼, 터치-민감형 입력수단, 또는 마이크로폰 등을 포함할 수 있다. 프레젠테이션 장치는 디스플레이, 프린터, 스피커, 또는 진동장치 등을 포함할 수 있다.
컴퓨팅 장치는 스마트폰, 태블릿, 랩탑, 데스크탑, 서버, 클라이언트 등의 다양한 장치를 포함할 수 있다. 컴퓨팅 장치는 하나의 단일한 스탠드-얼론 장치일 수도 있고, 통신망을 통해 서로 협력하는 다수의 컴퓨팅 장치들로 이루어진 분산형 환경에서 동작하는 다수의 컴퓨팅 장치를 포함할 수 있다.
또한 전술한 녹내장 수술 결과 진단 방법은, 프로세서를 구비하고, 또한 프로세서에 의해 실행되면 딥 러닝 모델을 활용한 영상 진단 방법을 수행할 수 있도록 코딩된 컴퓨터 판독가능 소프트웨어, 애플리케이션, 프로그램 모듈, 루틴, 인스트럭션, 및/또는 데이터 구조 등을 저장한 메모리를 구비하는 컴퓨팅 장치에 의해 실행될 수 있다.
상술한 본 실시예들은 다양한 수단을 통해 구현될 수 있다. 예를 들어, 본 실시예들은 하드웨어, 펌웨어(firmware), 소프트웨어 또는 그것들의 결합 등에 의해 구현될 수 있다.
하드웨어에 의한 구현의 경우, 본 실시예들에 따른 딥 러닝 모델을 활용한 영상 진단 방법은 하나 또는 그 이상의 ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 프로세서, 컨트롤러, 마이크로 컨트롤러 또는 마이크로 프로세서 등에 의해 구현될 수 있다.
예를 들어 실시예들에 따른 녹내장 수술 결과 진단 방법은 심층 신경망의 뉴런(neuron)과 시냅스(synapse)가 반도체 소자들로 구현된 인공지능 반도체 장치를 이용하여 구현될 수 있다. 이때 반도체 소자는 현재 사용하는 반도체 소자들, 예를 들어 SRAM이나 DRAM, NAND 등일 수도 있고, 차세대 반도체 소자들, RRAM이나 STT MRAM, PRAM 등일 수도 있고, 이들의 조합일 수도 있다.
실시예들에 따른 녹내장 수술 결과 진단 방법을 인공지능 반도체 장치를 이용하여 구현할 때, 딥 러닝 모델을 소프트웨어로 학습한 결과(가중치)를 어레이로 배치된 시냅스 모방소자에 전사하거나 인공지능 반도체 장치에서 학습을 진행할 수도 있다.
펌웨어나 소프트웨어에 의한 구현의 경우, 본 실시예들에 따른 녹내장 수술 결과 진단 방법은 이상에서 설명된 기능 또는 동작들을 수행하는 장치, 절차 또는 함수 등의 형태로 구현될 수 있다. 소프트웨어 코드는 메모리 유닛에 저장되어 프로세서에 의해 구동될 수 있다. 메모리 유닛은 상기 프로세서 내부 또는 외부에 위치하여, 이미 공지된 다양한 수단에 의해 프로세서와 데이터를 주고 받을 수 있다.
또한, 위에서 설명한 "시스템", "프로세서", "컨트롤러", "컴포넌트", "모듈", "인터페이스", "모델", 또는 "유닛" 등의 용어는 일반적으로 컴퓨터 관련 엔티티 하드웨어, 하드웨어와 소프트웨어의 조합, 소프트웨어 또는 실행 중인 소프트웨어를 의미할 수 있다. 예를 들어, 전술한 구성요소는 프로세서에 의해서 구동되는 프로세스, 프로세서, 컨트롤러, 제어 프로세서, 개체, 실행 스레드, 프로그램 및/또는 컴퓨터일 수 있지만 이에 국한되지 않는다. 예를 들어, 컨트롤러 또는 프로세서에서 실행 중인 애플리케이션과 컨트롤러 또는 프로세서가 모두 구성 요소가 될 수 있다. 하나 이상의 구성 요소가 프로세스 및/또는 실행 스레드 내에 있을 수 있으며, 구성 요소들은 하나의 장치(예: 시스템, 컴퓨팅 디바이스 등)에 위치하거나 둘 이상의 장치에 분산되어 위치할 수 있다.
한편, 또 다른 실시예는 전술한 녹내장 수술 결과 진단 방법을 수행하는, 컴퓨터 기록매체에 저장되는 컴퓨터 프로그램을 제공한다. 또한 또 다른 실시예는 전술한 녹내장 수술 결과 진단 방법을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공한다.
기록매체에 기록된 프로그램은 컴퓨터에서 읽히어 설치되고 실행됨으로써 전술한 단계들을 실행할 수 있다.
이와 같이, 컴퓨터가 기록매체에 기록된 프로그램을 읽어 들여 프로그램으로 구현된 기능들을 실행시키기 위하여, 전술한 프로그램은 컴퓨터의 프로세서(CPU)가 컴퓨터의 장치 인터페이스(Interface)를 통해 읽힐 수 있는 C, C++, JAVA, 기계어 등의 컴퓨터 언어로 코드화된 코드(Code)를 포함할 수 있다.
이러한 코드는 전술한 기능들을 정의한 함수 등과 관련된 기능적인 코드(Function Code)를 포함할 수 있고, 전술한 기능들을 컴퓨터의 프로세서가 소정의 절차대로 실행시키는데 필요한 실행 절차 관련 제어 코드를 포함할 수도 있다.
또한, 이러한 코드는 전술한 기능들을 컴퓨터의 프로세서가 실행시키는데 필요한 추가 정보나 미디어가 컴퓨터의 내부 또는 외부 메모리의 어느 위치(주소 번지)에서 참조 되어야 하는지에 대한 메모리 참조 관련 코드를 더 포함할 수 있다.
또한, 컴퓨터의 프로세서가 전술한 기능들을 실행시키기 위하여 원격(Remote)에 있는 어떠한 다른 컴퓨터나 서버 등과 통신이 필요한 경우, 코드는 컴퓨터의 프로세서가 컴퓨터의 통신 모듈을 이용하여 원격(Remote)에 있는 어떠한 다른 컴퓨터나 서버 등과 어떻게 통신해야만 하는지, 통신 시 어떠한 정보나 미디어를 송수신해야 하는지 등에 대한 통신 관련 코드를 더 포함할 수도 있다.
이상에서 전술한 바와 같은 프로그램을 기록한 컴퓨터로 읽힐 수 있는 기록매체는, 일 예로, ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 미디어 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함할 수 있다.
또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
그리고, 본 발명을 구현하기 위한 기능적인(Functional) 프로그램과 이와 관련된 코드 및 코드 세그먼트 등은, 기록매체를 읽어서 프로그램을 실행시키는 컴퓨터의 시스템 환경 등을 고려하여, 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론되거나 변경될 수도 있다.
도 10를 통해 설명된 녹내장 수술 결과 진단 방법은, 컴퓨터에 의해 실행되는 애플리케이션이나 프로그램 모듈과 같은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다.
전술한 녹내장 수술 결과 진단 방법은, 단말기에 기본적으로 설치된 애플리케이션(이는 단말기에 기본적으로 탑재된 플랫폼이나 운영체제 등에 포함된 프로그램을 포함할 수 있다)에 의해 실행될 수 있고, 사용자가 애플리케이션 스토어 서버, 애플리케이션 또는 해당 서비스와 관련된 웹 서버 등의 애플리케이션 제공 서버를 통해 마스터 단말기에 직접 설치한 애플리케이션(즉, 프로그램)에 의해 실행될 수도 있다. 이러한 의미에서, 전술한 녹내장 수술 결과 진단 방법은 단말기에 기본적으로 설치되거나 사용자에 의해 직접 설치된 애플리케이션(즉, 프로그램)으로 구현되고 단말기에 등의 컴퓨터로 읽을 수 있는 기록매체에 기록될 수 있다.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.

Claims (21)

  1. 전안부에 대한 원본 영상 정보를 입력받아, 상기 전안부에 발생한 여과포(bleb)에 대한 전처리 영상 정보를 생성하는 전처리부;
    상기 원본 영상 정보 및 상기 전처리 영상 정보를 하나 이상의 학습된 딥 러닝 모델에 입력하고 상기 하나 이상의 딥 러닝 모델로부터 출력된 데이터를 이용하여 생성된 딥 러닝 결과값을 기초로 녹내장의 수술 결과를 진단하는 진단부; 및
    상기 진단부에서 진단한 녹내장의 수술 결과를 출력하는 출력부를 포함하는 녹내장 수술 결과 진단 장치.
  2. 제1항에 있어서,
    상기 원본 영상 정보는,
    상기 전안부에 대한 전면 화상인 녹내장 수술 결과 진단 장치.
  3. 제2항에 있어서,
    상기 전처리부는,
    상기 원본 영상 정보를 기초로 각막, 결막 및 여과포 간의 경계를 추출한 후에, 각막에 대한 영상 정보를 제거하고, 여과포와 여과포 주변의 결막을 기초로 상기 전처리 영상 정보를 생성하는 녹내장 수술 결과 진단 장치.
  4. 제2항에 있어서,
    상기 딥 러닝 결과값은,
    여과포의 혈관 분포, 여과포 주변의 혈관 분포, 여과포의 높이 및 여과포의 면적 중 적어도 하나의 파라미터에 대응하는 녹내장 수술 결과 진단 장치.
  5. 제1항에 있어서,
    상기 원본 영상 정보는,
    상기 전안부에 대한 빛 간섭 단층 촬영(OCT) 영상 정보인 녹내장 수술 결과 진단 장치.
  6. 제5항에 있어서,
    상기 전처리부는,
    상기 원본 영상 정보를 기초로 여과포와 결막의 경계를 구분한 후에, 여과포와 여과포 주변의 결막을 기초로 상기 전처리 영상 정보를 생성하는 녹내장 수술 결과 진단 장치.
  7. 제5항에 있어서,
    상기 딥 러닝 결과값은,
    여과포 벽의 두께, 미세낭포의 존재 여부 및 여과포 벽의 음영 중 적어도 하나의 파라미터에 대응하는 녹내장 수술 결과 진단 장치.
  8. 제1항에 있어서,
    상기 진단부는,
    상기 원본 영상 정보 및 상기 전처리 영상 정보를 상기 하나 이상의 딥 러닝 모델 각각에 입력하여, 상기 원본 영상 정보 및 상기 전처리 영상 정보의 특징을 나타내는 하나 이상의 특징 데이터를 출력하고,
    상기 하나 이상의 특징 데이터를 연산한 연산 결과 정보를 기초로 상기 딥 러닝 결과값을 생성하고,
    상기 딥 러닝 결과값을 설정된 파라미터와 대응시키는 녹내장 수술 결과 진단 장치.
  9. 제8항에 있어서,
    상기 진단부는,
    상기 딥 러닝 결과값에 대해 설정된 확률 추측 모델을 적용하여 생성된 확률값을 기초로 녹내장의 수술 결과를 진단하는 녹내장 수술 결과 진단 장치.
  10. 제1항에 있어서,
    상기 수술 결과는,
    수술의 성패 여부 및 수술의 예후에 대한 정보를 지시하는 녹내장 수술 결과 진단 장치.
  11. 전안부에 대한 원본 영상 정보를 입력받아, 상기 전안부에 발생한 여과포(bleb)에 대한 전처리 영상 정보를 생성하는 전처리 단계;
    상기 원본 영상 정보 및 상기 전처리 영상 정보를 하나 이상의 학습된 딥 러닝 모델에 입력하고 상기 하나 이상의 딥 러닝 모델로부터 출력된 데이터를 이용하여 생성된 딥 러닝 결과값을 기초로 녹내장의 수술 결과를 진단하는 진단 단계; 및
    상기 진단 단계에서 진단한 녹내장의 수술 결과를 출력하는 출력 단계를 포함하는 녹내장 수술 결과 진단 방법.
  12. 제11항에 있어서,
    상기 원본 영상 정보는,
    상기 전안부에 대한 전면 화상인 녹내장 수술 결과 진단 방법.
  13. 제12항에 있어서,
    상기 전처리 단계는,
    상기 원본 영상 정보를 기초로 각막, 결막 및 여과포 간의 경계를 추출한 후에, 각막에 대한 영상 정보를 제거하고 여과포와 여과포 주변의 결막을 기초로 상기 전처리 영상 정보를 생성하는 녹내장 수술 결과 진단 방법.
  14. 제12항에 있어서,
    상기 딥 러닝 결과값은,
    여과포의 혈관 분포, 여과포 주변의 혈관 분포, 여과포의 높이 및 여과포의 면적 중 적어도 하나의 파라미터에 대응하는 녹내장 수술 결과 진단 방법.
  15. 제11항에 있어서,
    상기 원본 영상 정보는,
    상기 전안부에 대한 빛 간섭 단층 촬영(OCT) 영상 정보인 녹내장 수술 결과 진단 방법.
  16. 제15항에 있어서,
    상기 전처리 단계는,
    상기 원본 영상 정보를 기초로 여과포와 결막의 경계를 구분한 후에, 여과포와 여과포 주변의 결막을 기초로 상기 전처리 영상 정보를 생성하는 녹내장 수술 결과 진단 방법.
  17. 제15항에 있어서,
    상기 딥 러닝 결과값은,
    여과포 벽의 두께, 미세낭포의 존재 여부 및 여과포 벽의 음영 중 적어도 하나의 파라미터에 대응하는 녹내장 수술 결과 진단 방법.
  18. 제11항에 있어서,
    상기 진단 단계는,
    상기 원본 영상 정보 및 상기 전처리 영상 정보를 상기 하나 이상의 딥 러닝 모델 각각에 입력하여, 상기 원본 영상 정보 및 상기 전처리 영상 정보의 특징을 나타내는 하나 이상의 특징 데이터를 생성하고,
    상기 하나 이상의 특징 데이터를 연산한 연산 결과 정보를 기초로 상기 딥 러닝 결과값을 생성하고,
    상기 딥 러닝 결과값을 설정된 파라미터와 대응시키는 녹내장 수술 결과 진단 방법.
  19. 제18항에 있어서,
    상기 진단 단계는,
    상기 딥 러닝 결과값에 대해 설정된 확률 추측 모델을 적용하여 생성된 확률값을 기초로 녹내장의 수술 결과를 진단하는 녹내장 수술 결과 진단 방법.
  20. 제11항에 있어서,
    상기 수술 결과는,
    수술의 성패 여부 및 수술의 예후에 대한 정보를 지시하는 녹내장 수술 결과 진단 방법.
  21. 제11항 내지 제20항 중 어느 한 항의 녹내장 수술 결과 진단 방법을 구현하기 위한 프로그램이 기록된 컴퓨터로 판독 가능한 기록 매체.
KR1020200022084A 2020-02-24 2020-02-24 녹내장 수술 결과 진단 장치 및 그 판단 방법 KR102332353B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200022084A KR102332353B1 (ko) 2020-02-24 2020-02-24 녹내장 수술 결과 진단 장치 및 그 판단 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200022084A KR102332353B1 (ko) 2020-02-24 2020-02-24 녹내장 수술 결과 진단 장치 및 그 판단 방법

Publications (2)

Publication Number Publication Date
KR20210107295A true KR20210107295A (ko) 2021-09-01
KR102332353B1 KR102332353B1 (ko) 2021-11-29

Family

ID=77779938

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200022084A KR102332353B1 (ko) 2020-02-24 2020-02-24 녹내장 수술 결과 진단 장치 및 그 판단 방법

Country Status (1)

Country Link
KR (1) KR102332353B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114642502A (zh) * 2022-02-21 2022-06-21 北京工业大学 斜视手术方案的辅助设计方法及装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190022216A (ko) * 2017-08-25 2019-03-06 주식회사 메디웨일 안구영상 분석방법
KR20190087272A (ko) * 2018-01-16 2019-07-24 한국전자통신연구원 안저영상을 이용한 녹내장 진단 방법 및 이를 위한 장치

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190022216A (ko) * 2017-08-25 2019-03-06 주식회사 메디웨일 안구영상 분석방법
KR20190087272A (ko) * 2018-01-16 2019-07-24 한국전자통신연구원 안저영상을 이용한 녹내장 진단 방법 및 이를 위한 장치

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Shinichi Fukuda 외 6인. "Comparison of intensity, phase retardation, and local birefringence images for fltering blebs~". SCIENTIFIC REPORTS. pp.1-10, 2018.05.14. 공개 1부.* *
Utako Tsutsumi-Kuroda 외 6인. "Early bleb parameters as long-termprognostic factors for surgical success: ~". BMC Ophthalmology. pp.1-7, 2019.12.31. 공개 1부.* *
W. Jeoung. "Prospective 3D Investigation of Bleb Wall after Trabeculectomy Using Anterior-Segment OCT". Journal of Ophthalmology. pp.1-7, 2017.8.29. 공개 1부.* *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114642502A (zh) * 2022-02-21 2022-06-21 北京工业大学 斜视手术方案的辅助设计方法及装置

Also Published As

Publication number Publication date
KR102332353B1 (ko) 2021-11-29

Similar Documents

Publication Publication Date Title
Lavric et al. KeratoDetect: keratoconus detection algorithm using convolutional neural networks
US20210319556A1 (en) Method and system for analysing images of a retina
Islam et al. Deep learning-based glaucoma detection with cropped optic cup and disc and blood vessel segmentation
AU2018347610A1 (en) Deep learning-based diagnosis and referral of ophthalmic diseases and disorders
JP2021531098A (ja) Aiを利用した眼の状態判定のためのシステムおよび方法
JP2024069301A (ja) 眼内レンズを選択するためのシステム及び方法
Sertkaya et al. Diagnosis of eye retinal diseases based on convolutional neural networks using optical coherence images
US20230057389A1 (en) Physically motivated machine learning system for an optimized intraocular lens calculation
KR102071774B1 (ko) 안구영상을 이용한 심뇌혈관 질환 예측방법
US20230078161A1 (en) Machine learning-supported pipeline for dimensioning an intraocular lens
KR20200121985A (ko) 의료 정보를 생성하는 방법
KR102332353B1 (ko) 녹내장 수술 결과 진단 장치 및 그 판단 방법
CN113330522B (zh) 使用正视区预测来选择人工晶状体的系统和方法
JP7402262B2 (ja) 機器の作動方法、システム、およびコンピュータプログラム製品
KR20200011530A (ko) 안구영상을 이용한 심뇌혈관 질환 예측방법
CN118120019A (zh) 用于玻璃体疾病严重程度测量的系统和方法
JP2024514199A (ja) 白内障手術用眼内レンズ(iol)のパラメータを特定する方法及びシステム
Damodara et al. Deep Learning based Method for Multi-class Classification of Diabetic Retinopathy
CN113499033A (zh) 一种医疗数据方法及系统
KR20220095291A (ko) 빅데이터와 인공지능 기술기반의 시기능 변화 예측 시스템 및 방법
Zhao et al. Biomarkers-Aware Asymmetric Bibranch GAN With Adaptive Memory Batch Normalization for Prediction of Anti-VEGF Treatment Response in Neovascular Age-Related Macular Degeneration
Jose Classification of EYE Diseases Using Multi-Model CNN
Borgalli et al. Automated glaucoma detection techniques using fundus image
US20230148859A1 (en) Prediction of iol power
Abdülhüssein Building smart algorithm to extract features of topographic images of a human eye

Legal Events

Date Code Title Description
AMND Amendment
AMND Amendment
AMND Amendment
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant