KR102379061B1 - 활동성 갑상선 눈병증 진료를 위한 내원 안내 방법 및 이를 수행하는 장치 - Google Patents

활동성 갑상선 눈병증 진료를 위한 내원 안내 방법 및 이를 수행하는 장치 Download PDF

Info

Publication number
KR102379061B1
KR102379061B1 KR1020210085542A KR20210085542A KR102379061B1 KR 102379061 B1 KR102379061 B1 KR 102379061B1 KR 1020210085542 A KR1020210085542 A KR 1020210085542A KR 20210085542 A KR20210085542 A KR 20210085542A KR 102379061 B1 KR102379061 B1 KR 102379061B1
Authority
KR
South Korea
Prior art keywords
image
eye
eyelid
edema
guide
Prior art date
Application number
KR1020210085542A
Other languages
English (en)
Inventor
김휘연
탁윤원
심은영
신규보
박재민
Original Assignee
주식회사 타이로스코프
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 타이로스코프 filed Critical 주식회사 타이로스코프
Priority to KR1020210085542A priority Critical patent/KR102379061B1/ko
Priority to KR1020220035025A priority patent/KR20230005733A/ko
Application granted granted Critical
Publication of KR102379061B1 publication Critical patent/KR102379061B1/ko
Priority to CN202280059360.1A priority patent/CN117897778A/zh
Priority to PCT/KR2022/009259 priority patent/WO2023277548A1/ko
Priority to EP22773387.0A priority patent/EP4134981A4/en
Priority to JP2023580622A priority patent/JP7521748B1/ja
Priority to PCT/KR2022/009356 priority patent/WO2023277589A1/ko
Priority to JP2023571557A priority patent/JP7525851B2/ja
Priority to CN202280059381.3A priority patent/CN117897780A/zh
Priority to EP22769066.6A priority patent/EP4138094A4/en
Priority to PCT/KR2022/009452 priority patent/WO2023277622A1/ko
Priority to CN202280059376.2A priority patent/CN117897779A/zh
Priority to JP2023577479A priority patent/JP7513239B2/ja
Priority to US17/939,040 priority patent/US11663719B2/en
Priority to US17/945,270 priority patent/US11741610B2/en
Priority to US17/951,681 priority patent/US11717160B2/en
Priority to US18/094,064 priority patent/US11748884B2/en
Priority to US18/209,604 priority patent/US20230337913A1/en
Priority to US18/218,142 priority patent/US20230360219A1/en
Priority to US18/222,271 priority patent/US20230360204A1/en
Priority to JP2024097895A priority patent/JP2024125332A/ja
Priority to JP2024106746A priority patent/JP2024138331A/ja
Priority to JP2024110365A priority patent/JP2024138393A/ja

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/42Detecting, measuring or recording for evaluating the gastrointestinal, the endocrine or the exocrine systems
    • A61B5/4222Evaluating particular parts, e.g. particular organs
    • A61B5/4227Evaluating particular parts, e.g. particular organs endocrine glands, i.e. thyroid, adrenals, hypothalamic, pituitary
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6813Specially adapted to be attached to a specific body part
    • A61B5/6814Head
    • A61B5/6821Eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/60Static or dynamic means for assisting the user to position a body part for biometric acquisition
    • G06V40/63Static or dynamic means for assisting the user to position a body part for biometric acquisition by static guides
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/20ICT specially adapted for the handling or processing of patient-related medical or healthcare data for electronic clinical trials or questionnaires
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Physics & Mathematics (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Multimedia (AREA)
  • Pathology (AREA)
  • Ophthalmology & Optometry (AREA)
  • Theoretical Computer Science (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Databases & Information Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Urology & Nephrology (AREA)
  • Endocrinology (AREA)
  • Gastroenterology & Hepatology (AREA)
  • Physiology (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Image Processing (AREA)
  • Eye Examination Apparatus (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Analysis (AREA)

Abstract

본 출원의 일 실시예에 따른 이미지 기반으로 눈 지표를 평가하여 활동성 갑상선 눈병증 진료를 위한 내원 안내 방법은, 이미지를 획득하는 단계- 상기 이미지는, 두 눈이 포함되는 이미지 촬영을 유도하는 가이드가 제공된 상태에서 촬영된 이미지임 -; 상기 획득된 이미지에 기초하여 제1 눈 지표에 대한 제1 확률 값을 획득하는 단계- 상기 제1 눈 지표는 결막 충혈, 눈꺼풀의 발적, 결막 부종, 눈물 언덕의 부종 또는 눈꺼풀의 부종임 -; 제1 눈 통증과 관련된 설문에 대한 정보를 입력하는 화면을 출력하는 단계- 상기 제1 눈 통증은 구후부의 자발적인 통증 또는 눈을 움직일때의 통증임 -; 상기 제1 눈 통증과 관련된 설문에 대한 응답에 기초하여 제1 결과 값을 획득하는 단계; 상기 제1 눈 지표에 대한 제1 확률 값과 상기 제1 눈 통증에 대한 제1 결과 값에 기초하여 눈병증 예측 스코어를 산출하는 단계; 및 상기 산출된 눈병증 예측 스코어가 미리 정해진 값 이상이면 내원을 안내하는 단계를 포함할 수 있다.

Description

활동성 갑상선 눈병증 진료를 위한 내원 안내 방법 및 이를 수행하는 장치{A METHOD FOR GUIDING A VISIT TO A HOSPITAL FOR TREATMENT OF ACTIVE THYROID-ASSOCIATED OPHTHALMOPATHY AND PERFORMING THE SAME}
본 발명은 활동성 갑상선 눈병증 진료를 위한 내원 안내 방법 및 이를 수행하는 장치에 관한 것이다.
안질환은 각막과 공막을 포함하는 안구 및 이를 둘러싸고 있는 주변부에 발생하는 질병이다. 안질환은 전 세계적으로 많은 사람들에게 발병되고 있으며, 심각한 경우 시력 손상을 유발하는 등 생활에 큰 불편함을 야기하는 질병이므로, 안질환의 발생 여부 또는 정도에 대한 모니터링이 필요하다.
또한, 안질환은 다른 질병으로 인해 유발되는 여러 합병증 중 하나일 수 있다. 예컨대, 갑상선 기능 이상으로 인해 유발되는 합병증으로 갑상선 눈병증이 있고, 갑상선 눈병증의 발생 여부 또는 진행 정도 등의 분석을 통해 갑상선 기능 이상 여부에 대한 예측/진단/판단이 이뤄질 수도 있다. 이와 같이, 안질환은 갑상선 기능 이상 이외의 다른 종류의 질병으로 인해 유발되는 다양한 합병증 중 하나일 수 있고, 따라서, 안질환의 발생 여부를 모니터링하여, 안질환 발생 여부를 다른 질병의 발병 여부 또는 진행 정도 등을 나타내는 지표로도 활용할 수 있으므로, 안질환 발생 여부에 대해서 관심을 기울여 지속적인 모니터링이 수행될 필요가 있다.
그러나 종래의 안질환 진단 및 관리는 개인이 직접 병원 또는 클리닉에 방문하여 의사의 검진(즉, 육안에 의해 관찰되는 방법)으로 이루어졌다. 이 경우, 병원 또는 클리닉에 직접 방문하였을 때에만, 안질환의 발명 여부 또는 진행 정도에 대한 진단이 가능해서 초기에 발병을 발견하기 어려워 상태가 악화된 상태에서 질환의 발병을 알 수 있다는 문제점이 존재하였다.
이에, 개개인이 보다 간편하고 신속하게 안질환 위험도를 확인함으로써 지속적인 모니터링이 수행될 수 있도록 함과 더불어, 필요한 경우 안질환의 위험을 안내하여 환자의 내원을 유도하는 방법의 개발이 요구되고 있다.
본 발명의 일 과제는, 이미지 기반으로 눈 지표를 평가하여 활동성 갑상선 눈병증 진료를 위한 내원 안내 방법 및 이를 수행하는 장치를 제공하는 것이다.
본 발명이 해결하고자 하는 과제가 상술한 과제로 제한되는 것은 아니며, 언급되지 아니한 과제들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 출원에 개시된 이미지 기반으로 눈 지표를 평가하여 활동성 갑상선 눈병증 진료를 위한 내원 안내 방법은, 이미지를 획득하는 단계- 상기 이미지는, 두 눈이 포함되는 이미지 촬영을 유도하는 가이드가 제공된 상태에서 촬영된 이미지임 -; 상기 획득된 이미지에 기초하여 제1 눈 지표에 대한 제1 확률 값을 획득하는 단계- 상기 제1 눈 지표는 결막 충혈, 눈꺼풀의 발적, 결막 부종, 눈물 언덕의 부종 또는 눈꺼풀의 부종임 -; 제1 눈 통증과 관련된 설문에 대한 정보를 입력하는 화면을 출력하는 단계- 상기 제1 눈 통증은 구후부의 자발적인 통증 또는 눈을 움직일때의 통증임 -; 상기 제1 눈 통증과 관련된 설문에 대한 응답에 기초하여 제1 결과 값을 획득하는 단계; 상기 제1 눈 지표에 대한 제1 확률 값과 상기 제1 눈 통증에 대한 제1 결과 값에 기초하여 눈병증 예측 스코어를 산출하는 단계; 및 상기 산출된 눈병증 예측 스코어가 미리 정해진 값 이상이면 내원을 안내하는 단계;를 포함할 수 있다.
본 발명의 과제의 해결 수단이 상술한 해결 수단들로 제한되는 것은 아니며, 언급되지 아니한 해결 수단들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 출원의 실시예에 의하면, 병원 등의 현장을 방문하지 않고도 간편하게 안질환에 관한 발병 위험을 예측 또는 내원 시점을 안내할 수 있다.
본 발명의 효과가 상술한 효과들로 제한되는 것은 아니며, 언급되지 아니한 효과들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.
도 1은 일 실시예에 따른 안질환 관리 방법을 설명하기 위한 도면이다.
도 2는 안질환 관리 장치의 구성을 설명하기 위한 도면이다.
도 3은 일 실시예에 따른 안질환 관리 시스템을 설명하기 위한 도면이다.
도 4는 이미지 기반으로 획득되는 안질환 정보를 제공하는 방법을 설명하기 위한 순서도이다.
도 5는 안질환 예측에 이용되는 이미지 촬영 방법을 설명하기 위한 도면이다.
도 6 내지 도 9는 일 실시예에 따른 촬영 가이드를 예시적으로 설명하기 위한 도면이다.
도 10은 제1 지표가 제1 가이드에 매칭되는지와 제2 지표가 제2 가이드에 매칭되는지 판단하는 방법을 설명하기 위한 도면이다.
도 11은 얼굴의 좌우 회전 각도가 미리 정해진 기준을 만족하는지 판단하는 방법을 예시적으로설명하기 위한 도면이다.
도 12는 얼굴의 상하 회전 각도가 미리 정해진 기준을 만족하는지 판단하는 방법을 설명하기 위한 도면이다.
도 13은 CAS 수치에 기반하여 갑상선 눈병증 치료를 위한 안내 방법을 설명하기 위한 순서도이다.
도 14는 CAS 수치 획득을 위해 요구되는 평가 항목을 예시적으로 설명하기 위한 도면이다.
도 15는 설문에 대한 환자의 응답에 기반하여 갑상선 눈병증 진료를 위한 내원 안내 방법을 설명하기 위한 도면이다.
도 16은 이미지에 기반하여 갑상선 눈병증 진료를 위한 내원 안내 방법을 설명하기 위한 도면이다.
도 17 및 18은 이미지로부터 결막 충혈, 눈꺼풀의 발적, 결막 부종, 눈물 언덕의 부종 및 눈꺼풀의 부종 중 적어도 하나의 눈 지표를 평가하기 위한 신경망 모델을 설명하기 위한 도면이다.
도 19는 이미지에 기반하여 갑상선 눈병증 진료를 위한 내원 안내 방법을 설명하기 위한 순서도이다.
도 20은 결막 충혈 및 눈꺼풀의 발적을 평가하는 방법을 설명하기 위한 도면이다.
도 21은 결막 부종 및 눈물 언덕의 부종을 평가하는 방법을 설명하기 위한 도면이다.
도 22는 눈꺼풀의 부종을 평가하는 방법을 설명하기 위한 도면이다.
도 23은 일 실시예에 따른 눈병증 예측 스코어를 산출하는 방법을 설명하기 위한 도면이다.
도 24는 일 실시예에 따른 눈병증 예측 스코어를 산출하는 방법을 설명하기 위한 도면이다.
도 25 내지 도 27는 이미지 기반으로 획득된 복수의 확률 값을 통해 눈병증 예측 스코어 산출 방법을 설명하기 위한 도면이다.
본 출원의 상술한 목적, 특징들 및 장점은 첨부된 도면과 관련된 다음의 상세한 설명을 통해 보다 분명해질 것이다. 다만, 본 출원은 다양한 변경을 가할 수 있고 여러 가지 실시예들을 가질 수 있는 바, 이하에서는 특정 실시예들을 도면에 예시하고 이를 상세히 설명하고자 한다.
명세서 전체에 걸쳐서 동일한 참조번호들은 원칙적으로 동일한 구성요소들을 나타낸다. 또한, 각 실시예의 도면에 나타나는 동일한 사상의 범위 내의 기능이 동일한 구성요소는 동일한 참조부호를 사용하여 설명하며, 이에 대한 중복되는 설명은 생략하기로 한다.
본 출원과 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 출원의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 명세서의 설명 과정에서 이용되는 숫자(예를 들어, 제1, 제2 등)는 하나의 구성요소를 다른 구성요소와 구분하기 위한 식별기호에 불과하다.
또한, 이하의 실시예에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.
이하의 실시예에서, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
이하의 실시예에서, 포함하다 또는 가지다 등의 용어는 명세서상에 기재된 특징, 또는 구성요소가 존재함을 의미하는 것이고, 하나 이상의 다른 특징들 또는 구성요소가 부가될 가능성을 미리 배제하는 것은 아니다.
도면에서는 설명의 편의를 위하여 구성 요소들이 그 크기가 과장 또는 축소될 수 있다. 예컨대, 도면에서 나타난 각 구성의 크기 및 두께는 설명의 편의를 위해 임의로 나타낸 것으로, 본 발명이 반드시 도시된 바에 한정되지 않는다.
어떤 실시예가 달리 구현 가능한 경우에 특정한 프로세스의 순서는 설명되는 순서와 다르게 수행될 수도 있다. 예를 들어, 연속하여 설명되는 두 프로세스가 실질적으로 동시에 수행될 수도 있고, 설명되는 순서와 반대의 순서로 진행될 수 있다.
이하의 실시예에서, 구성 요소 등이 연결되었다고 할 때, 구성 요소들이 직접적으로 연결된 경우뿐만 아니라 구성요소들 중간에 구성 요소들이 개재되어 간접적으로 연결된 경우도 포함한다.
예컨대, 본 명세서에서 구성 요소 등이 전기적으로 연결되었다고 할 때, 구성 요소 등이 직접 전기적으로 연결된 경우뿐만 아니라, 그 중간에 구성 요소 등이 개재되어 간접적으로 전기적 연결된 경우도 포함한다.
일 실시예에 따른 안질환 예측에 이용되는 이미지 촬영 방법에 있어서, 상기 촬영 방법은, 실시간으로 프리뷰 이미지를 획득하는 단계; 상기 프리뷰 이미지 상에 오버랩 되도록 촬영 가이드를 제공하는 단계- 상기 촬영 가이드는, 제1 가이드 및 상기 프리뷰 이미지 상의 제1 축을 기준으로 상기 제1 가이드와 대칭을 이루는 제2 가이드를 포함함 -; 상기 프리뷰 이미지로부터 복수의 지표를 추출하는 단계- 상기 복수의 지표는 좌측 눈동자와 관련된 제1 지표 및 우측 눈동자와 관련된 제2 지표를 포함함 -; 상기 프리뷰 이미지에 기초하여 얼굴의 좌우 회전 각도를 결정하는 단계; 상기 제1 지표가 상기 제1 가이드에 매칭되고, 상기 제2 지표가 상기 제2 가이드에 매칭되고, 상기 얼굴의 좌우 회전 각도가 미리 정해진 기준을 만족하는 것으로 판단되면, 상기 프리뷰 이미지를 저장하는 단계를 포함할 수 있다.
상기 촬영 가이드는 상기 제1 축에 대응되는 제3 가이드를 더 포함하되, 상기 촬영 방법은, 상기 얼굴의 좌우 회전 각도에 대응하며 상기 제3 가이드와 평행하도록 형성되는 기준선을 상기 프리뷰 이미지 상에 오버랩 되도록 제공하는 단계를 포함할 수 있다.
상기 제1 지표는 상기 좌측 눈동자에 대응되는 좌측 눈동자 영역에 관한 것이고, 상기 제2 지표는 상기 우측 눈동자에 대응되는 우측 눈동자 영역에 관한 것이며, 상기 좌측 눈동자 영역의 픽셀이 상기 제1 가이드로부터 미리 정해진 범위 내에 있다고 판단되면 상기 제1 지표가 상기 제1 가이드에 매칭되는 것으로 판단하고, 상기 우측 눈동자 영역의 픽셀이 상기 제2 가이드로부터 미리 정해진 범위 내에 있다고 판단되면 상기 제2 지표가 상기 제2 가이드에 매칭되는 것으로 판단할 수 있다.
상기 좌측 눈동자 영역은 좌측 눈으로 검출된 영역의 중앙이고, 상기 우측 눈동자 영역은 우측 눈으로 검출된 영역의 중앙일 수 있다.
상기 기준선과 상기 제3 가이드 사이의 거리가 미리 정해진 거리 이내인지 판단하지 않고, 상기 프리뷰 이미지를 분석하여 획득된 추정 회전 각도가 미리 정해진 기준 이내인 것으로 검출되면, 상기 얼굴의 좌우 회전 각도가 미리 정해진 기준을 만족하는 것으로 판단할 수 있다.
상기 기준선과 상기 제3 가이드 사이의 거리가 미리 정해진 거리 이내에 있다고 판단되면, 상기 얼굴의 좌우 회전 각도가 미리 정해진 기준을 만족하는 것으로 판단할 수 있다.
상기 촬영 가이드는 원형의 제4 가이드를 더 포함하되, 상기 제4 가이드는 상기 제1 가이드와 상기 제2 가이드의 외측에 형성되고, 상기 제3 가이드는 상기 제4 가이드의 중심을 지날 수 있다.
상기 제1 지표가 상기 제1 가이드에 매칭되지 않는다고 판단되고, 상기 제2 지표가 상기 제2 가이드에 매칭되지 않는다고 판단되고, 상기 얼굴의 좌우 회전 각도가 미리 정해진 기준을 만족하지 않는 것으로 판단되면, 촬영 각도 또는 얼굴의 위치를 조정하도록 안내 메시지를 제공하는 단계를 포함할 수 있다.
상기 좌측 눈동자 영역의 픽셀이 상기 제1 가이드로부터 미리 정해진 범위 내에 위치하는 경우, 상기 제1 가이드의 색상을 변화시키는 단계 및 상기 우측 눈동자 영역의 픽셀이 상기 제2 가이드로부터 미리 정해진 범위 내에 위치하는 경우, 상기 제2 가이드의 색상을 변화시키는 단계를 포함할 수 있다.
상기 기준선과 상기 제3 가이드 사이의 거리가 미리 정해진 거리 이내인 경우 상기 제3 가이드의 색상을 변화시키는 단계를 포함할 수 있다.
상기 촬영 방법은, 상기 프리뷰 이미지에 기초하여 검출된 미소 정도가 기준치를 초과한다고 판단되는 경우, 표정이 변할 수 있도록 안내하는 메시지를 제공하는 단계를 포함할 수 있다.
상기 저장하는 단계는, 상기 제1 지표가 상기 제1 가이드에 매칭되는지 판단하는 제1 단계, 상기 제2 지표가 상기 제2 가이드에 매칭되는지 판단하는 제2 단계, 기 얼굴의 좌우 회전 각도가 미리 정해진 기준을 만족하는 것으로 판단하는 제3 단계를 포함하고, 상기 제1 단계, 상기 제2 단계 및 상기 제3 단계는 순차적으로 수행될 수 있다.
상기 저장하는 단계는, 상기 제1 지표가 상기 제1 가이드에 매칭되는지 판단하는 제1 단계, 상기 제2 지표가 상기 제2 가이드에 매칭되는지 판단하는 제2 단계, 기 얼굴의 좌우 회전 각도가 미리 정해진 기준을 만족하는 것으로 판단하는 제3 단계를 포함하고, 상기 제1 단계, 상기 제2 단계 및 상기 제3 단계는 병렬적으로 수행될 수 있다.
상기 촬영 방법은, 상기 프리뷰 이미지가 상기 이미지로 결정되는 경우, 디스플레이를 통해 플래쉬를 제공하는 단계를 포함할 수 있다.
상기 촬영 가이드는 상기 프리뷰 이미지 상에 오버랩 되도록 제공되되, 상기 디스플레이의 중앙 영역에 표시될 수 있다.
이미지 기반으로 눈 지표를 평가하여 활동성 갑상선 눈병증 진료를 위한 내원 안내 방법에 있어서, 이미지를 획득하는 단계- 상기 이미지는, 두 눈이 포함되는 이미지 촬영을 유도하는 가이드가 제공된 상태에서 촬영된 이미지임 -;
상기 획득된 이미지에 기초하여 제1 눈 지표에 대한 제1 확률 값을 획득하는 단계- 상기 제1 눈 지표는 결막 충혈, 눈꺼풀의 발적, 결막 부종, 눈물 언덕의 부종 또는 눈꺼풀의 부종임 -; 제1 눈 통증과 관련된 설문에 대한 정보를 입력하는 화면을 출력하는 단계- 상기 제1 눈 통증은 구후부의 자발적인 통증 또는 눈을 움직일때의 통증임 -; 상기 제1 눈 통증과 관련된 설문에 대한 응답에 기초하여 제1 결과 값을 획득하는 단계; 상기 제1 눈 지표에 대한 제1 확률 값과 상기 제1 눈 통증에 대한 제1 결과 값에 기초하여 눈병증 예측 스코어를 산출하는 단계; 및 상기 산출된 눈병증 예측 스코어가 미리 정해진 값 이상이면 내원을 안내하는 단계;를 포함할 수 있다.
상기 획득된 이미지에 기초하여 제2 눈 지표에 대한 제2 확률 값을 획득하는 단계- 상기 제2 눈 지표는 결막 충혈, 눈꺼풀의 발적, 결막 부종, 눈물 언덕의 부종 또는 눈꺼풀의 부종이고, 상기 제2 눈 지표는 상기 제1 눈 지표와 다름 -;를 더 포함하고, 상기 눈병증 예측 스코어를 산출하는 단계는, 상기 제1 눈 지표에 대한 제1 확률 값, 상기 제2 눈 지표에 대한 제2 확률값 및 상기 제1 눈 통증에 대한 제1 결과 값에 기초하여 눈병증 예측 스코어를 산출하는 단계일 수 있다.
상기 눈병증 예측 스코어를 산출하는 단계는, 획득된 상기 제1 확률 값이 제1 기준을 만족하는지를 판단하는 단계; 및 획득된 상기 제2 확률 값이 제2 기준을 만족하는지를 판단하는 단계를 포함할 수 있다.
상기 제1 눈 지표에 대한 제1 확률 값을 획득하는 단계는, 상기 획득된 이미지에 기초하여 상기 결막 충혈에 관한 확률 값을 획득하는 단계를 포함하고, 상기 결막 충혈에 관한 확률 값을 획득하는 단계는, 제1 공막 이미지에 기초하여 학습된 모델을 이용하여 수행되며, 상기 제1 공막 이미지는 상기 획득된 이미지에서 잘라낸 제1 공막 영역이 포함된 이미지이되, 상기 제1 공막 영역은 각막과 눈꼬리 사이 영역에의 흰자 부위에 대응되는 영역일 수 있다.
상기 제1 눈 지표에 대한 제1 확률 값을 획득하는 단계는, 상기 획득된 이미지에 기초하여 상기 눈꺼풀의 발적에 관한 확률 값을 획득하는 단계를 포함하고, 상기 눈꺼풀의 발적에 관한 확률 값을 획득하는 단계는, 눈꺼풀 이미지에 기초하여 학습된 모델을 이용하여 수행되며, 상기 눈꺼풀 이미지는 상기 획득된 이미지에서 잘라낸 눈꺼풀 영역과 미간 또는 콧대 중 적어도 하나에 대응되는 영역이 포함된 이미지일 수 있다.
상기 제1 눈 지표에 대한 제1 확률 값을 획득하는 단계는, 상기 획득된 이미지에 기초하여 상기 결막 부종에 관한 확률 값을 획득하는 단계를 포함하고, 상기 결막 부종에 관한 확률 값을 획득하는 단계는, 제2 공막 이미지에 기초하여 학습된 모델을 이용하여 수행되며, 상기 제2 공막 이미지는 상기 획득된 이미지에서 잘라낸 제2 공막 영역이 포함된 이미지이되, 상기 제2 공막 영역은 각막과 눈꼬리 사이 영역에의 흰자 부위 중 하단부에 대응되는 영역일 수 있다.
상기 제1 눈 지표에 대한 제1 확률 값을 획득하는 단계는, 상기 획득된 이미지에 기초하여 상기 눈물 언덕의 부종에 관한 확률 값을 획득하는 단계를 포함하고, 상기 눈물 언덕의 부종에 관한 확률 값을 획득하는 단계는, 눈물 언덕 이미지에 기초하여 학습된 모델을 이용하여 수행되며, 상기 눈물 언덕 이미지는 상기 획득된 이미지에서 잘라낸 눈물 언덕 영역 및 상기 눈물 언덕 영역을 둘러싸고 있는 주변 피부 영역이 포함된 이미지일 수 있다.
상기 제1 눈 지표에 대한 제1 확률 값을 획득하는 단계는, 상기 획득된 이미지에 기초하여 상기 눈꺼풀의 부종에 관한 확률 값을 획득하는 단계를 포함하고, 상기 눈꺼풀의 부종에 관한 확률 값을 획득하는 단계는, 눈꺼풀 이미지에 기초하여 학습된 모델을 이용하여 수행되며, 상기 눈꺼풀 이미지는 상기 획득된 이미지에서 잘라낸 눈꺼풀 영역과 눈꺼풀 주변부 영역이 포함된 이미지이되, 상기 눈꺼풀 주변부 영역은 상기 획득된 이미지에서 잘라낸 두 눈의 바깥쪽에 대응되는 영역일 수 있다.
상기 제1 눈 지표에 대한 제1 확률 값을 획득하는 단계는, 학습 이미지에 기초하여 결막 충혈, 눈꺼풀의 발적, 결막 부종, 눈물 언덕의 부종 및 눈꺼풀의 부종 중 어느 하나를 평가하도록 학습되고, 상기 학습 이미지는 제1 학습 이미지 및 제2 학습 이미지를 포함하되, 상기 제1 학습 이미지는, 좌측 눈이 포함된 이미지 또는 우측 눈이 포함된 이미지이고, 상기 제2 학습 이미지는 상기 제1 학습 이미지에 포함된 눈의 다른 쪽 눈이 포함된 이미지가 좌우 반전된 이미지일 수 있다.
상기 제1 눈 지표에 대한 제1 확률 값을 획득하는 단계는, 미리 학습된 제1 모델 및 제2 모델을 통해 수행되고, 상기 제1 모델은, 좌측 눈이 포함된 이미지에 기초하여 결막 충혈, 눈꺼풀의 발적, 결막 부종, 눈물 언덕의 부종 및 눈꺼풀의 부종 중 어느 하나를 평가하도록 학습되고, 상기 제2 모델은, 우측 눈이 포함된 이미지에 기초하여 결막 충혈, 눈꺼풀의 발적, 결막 부종, 눈물 언덕의 부종 및 눈꺼풀의 부종 중 어느 하나를 평가하도록 학습될 수 있다.
상기 제1 확률 값은 상기 좌측 눈이 포함된 이미지 또는 상기 우측 눈이 포함된 이미지 중 적어도 하나에 기초하여 결정되는 것일 수 있다.
상기 이미지는 좌측 눈이 포함된 제1 영역 및 우측 눈이 포함된 제2 영역을 포함하되, 상기 제1 확률 값은 상기 제1 영역을 포함하도록 잘라낸 이미지에 기초한 제1 평가 결과 및 상기 제2 영역을 포함하도록 잘라낸 이미지에 기초한 제2 평가 결과에 기초하여 결정되는 것일 수 있다.
상기 이미지는 제1 시점에 촬영된 제1 이미지 및 제2 시점에 촬영된 제2 이미지를 포함하되, 상기 제1 확률 값은 상기 제1 이미지에 기초한 분석 결과와 상기 제2 이미지에 기초한 분석 결과의 비교를 통해 결정되고, 상기 제1 시점은 상기 제2 시점보다 과거 시점일 수 있다.
상기 내원 안내 단계는, 상기 제1 확률 값 및 상기 제1 결과 값 중 3개 이상이 기준치 이상임을 나타내는 경우, 내원 안내를 수행하는 것일 수 있다.
상기 내원 안내 단계는, 상기 눈병증 예측 스코어 산출의 기초가 된 결막 충혈, 눈꺼풀의 발적, 결막 부종, 눈물 언덕의 부종, 눈꺼풀의 부종, 구후부의 자발적인 통증 및 눈을 움직일때의 통증에 관한 값 중 3개 이상이 기준치 이상임을 나타내는 경우, 내원 안내를 수행하는 단계일 수 있다.
상기 이미지를 전처리하는 단계를 더 포함하되, 상기 전처리 단계는, 상기 이미지의 픽셀 값을 통해 판단된 상기 이미지의 해상도가 미리 정해진 기준을 만족하지 못하는 경우, 상기 이미지의 해상도를 미리 정해진 해상도로 변환하는 단계일 수 있다.
이하에서는 도면을 참고하여, 본 출원의 안질환 관리 방법 및 진료를 위한 내원 안내 방법에 관하여 설명한다.
1 안질환 관리 시스템
안질환은 각막과 공막을 포함하는 안구 및 이를 둘러싸고 있는 주변부에 발생하는 질병이다. 또한, 안질환은 다른 종류의 질병이 발생하는 경우 그에 따른 합병증 중 하나로 나타날 수도 있으므로 안질환에 대한 지속적인 관리 및 모니터링이 필요하다.
이하에서는, 일 실시예에 따른 안질환 관리 시스템에 관하여 설명한다.
도 1은 일 실시예에 따른 안질환 관리 방법을 설명하기 위한 도면이고, 도 2는 안질환 관리 장치의 구성을 설명하기 위한 도면이다.
도 1을 참조하면, 일 실시예에 따른 안질환 관리 방법은 안질환 관리 장치(1000)를 통해 수행될 수 있다. 안질환 관리 장치(1000)는 도 2를 참조하면, 제어부(100), 이미지 촬영부(200), 저장부(300), 사용자 입력부(400), 출력부(500), 전원 공급부(600) 및 통신부(700)를 포함할 수 있다. 이때, 안질환 관리 장치(1000)는 휴대 가능한 정보통신기기 예컨대, 스마트폰, 테블릿 등을 포함할 수 있다.
이미지 촬영부(200)는 디지털 카메라로, 이미지 센서와 영상처리부를 포함할 수 있다. 이미지 센서는 광학 영상(image)을 전기적 신호로 변환하는 장치로, 다수개의 광 다이오드(photo diode)가 직접된 칩으로 구성될 수 있다. 예시적으로, 이미지 센서는 CCD(Charge Coupled Device), CMOS(Complementary Metal Oxide Semiconductor) 등을 포함할 수 있다. 한편, 영상처리부는 촬영된 결과를 영상 처리하여, 영상 정보를 생성할 수 있다.
저장부(300)는 마이크로 프로세서(micro processor)에 의해 읽힐 수 있는 데이터를 저장하는 저장수단으로, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치를 포함할 수 있다. 저장부(300)에는 안질환 관리 장치(1000)에 수신되는 데이터가 저장될 수 있다.
사용자 입력부(400)는 안질환 관리 장치(1000)에 대한 사용자의 입력을 수신한다. 수신된 입력은 제어부(100)에 전달될 수 있다. 일 실시예에 따르면, 사용자 입력부(400)는 터치 디스플레이를 통해 사용자의 입력을 수신할 수 있다. 또한, 사용자 입력부(400)는 사용자로부터 명령이 입력되는 사용자 인터페이스 화면을 의미할 수 있다.
출력부(500)는 제어부(100)의 제어 명령에 따라 각종 정보를 출력한다. 일 실시예에 따르면, 출력부(500)는 디스플레이 패널을 통해 정보를 출력할 수 있다. 보다 구체적으로, 출력부(500)는 디스플레이 패널을 통해 사용자의 안질환과 관련된 정보를 출력할 수 있다. 다만, 출력부(500)는 디스플레이 패널로 한정되지 않으며, 스피커 등 정보를 출력할 수 있는 다양한 수단을 포함할 수 있다.
전원 공급부(600)는 배터리를 포함하며, 상기 배터리는 안질환 관리 장치(1000)에 내장되거나 외부에서 착탈이 가능하게 구비될 수 있다. 전원 공급부(600)는 안질환 관리 장치(1000)의 각 구성 요소에서 필요로 하는 전력을 공급할 수 있다.
통신부(700)는 무선 통신 모듈 및/또는 유선 통신 모듈을 포함할 수 있다. 여기서, 무선 통신 모듈은 와이파이(Wi-Fi) 통신 모듈, 셀룰러 통신 모듈 등을 포함할 수 있다.
제어부(100)는 적어도 하나의 프로세서를 포함할 수 있다. 이때, 각각의 프로세서는 메모리에 저장된 적어도 하나의 명령어를 실행시킴으로써, 소정의 동작을 실행할 수 있다. 구체적으로, 제어부(100)는 안질환 관리 장치(1000)에 포함되어 있는 구성들의 전체적인 동작을 제어할 수 있다. 다시 말해, 안질환 관리 장치(1000)는 제어부(100)에 의해 제어 또는 동작될 수 있다.
일 실시예에 따르면, 사용자는 안질환 관리 장치(1000)를 통해 안질환 정보 예컨대, 안질환 발생 여부, 발생된 안질환의 심각도, 안질환의 진료를 위한 내원 안내 등에 관한 정보를 제공받을 수 있다. 예를 들어, 사용자는 안질환 관리 장치(1000)에 구비되어 있는 이미지 촬영부(200)를 통해 자신의 두 눈이 포함되도록 촬영을 한 후, 촬영된 이미지에 기반하여 획득되는 안질환 정보를 출력부(500)를 통해 제공받을 수 있다.
보다 구체적인 예로, 안질환 관리 장치(1000)는 이미지 촬영부(200)를 통해 사용자의 두 눈이 포함되도록 촬영된 이미지를 획득한 후, 미리 학습된 신경망 모델을 이용하여 안질환 정보를 획득하고, 이를 출력부(500)를 통해 사용자에게 제공할 수 있다. 안질환 관리 장치(1000)가 안질환 정보를 획득하는 보다 상세한 방법에 관하여는 후술하도록 한다.
도 3은 일 실시예에 따른 안질환 관리 시스템을 설명하기 위한 도면이다. 도 3을 참조하면, 안질환 관리 시스템은 안질환 관리 장치(1000)와 서버(S)를 포함할 수 있다.
일 실시예에 따르면, 서버(S)는 안질환 정보를 출력하기 위한 신경망 모델의 학습을 수행할 수 있다. 안질환 관리 장치(1000)는 학습된 신경망 모델에 대한 정보를 서버(S)로부터 수신할 수 있다. 이 경우, 안질환 관리 장치(1000)는 서버(S)로부터 수신된 학습된 신경망 모델을 이용하여, 사용자의 안질환 정보를 제공하기 위한 일련의 동작을 수행할 수 있다.
다른 실시예에 따르면, 전술한 사용자의 안질환 정보를 판단하기 위한 일련의 동작은 서버(S)에 의해 수행될 수 있다. 즉, 서버(S)는 안질환 관리 장치(1000)로부터 사용자의 두 눈에 관한 정보를 획득한 후, 학습된 신경망 모델을 이용해 상기 획득된 두 눈에 관한 정보부터 안질환 정보를 생성할 수 있다. 또한, 서버(S)는 안질환 판단 결과를 안질환 관리 장치(1000)에 전송할 수 있다. 이 경우, 안질환 관리 장치(1000)는 안질환 판단 결과를 사용자에게 제공할 수 있다.
한편, 도 3을 참조하여 상술한 안질환 관리 장치(1000)는 진단 장치일 수 있다. 이 경우, 안질환 관리 장치(1000)가 수행하는 일련의 동작은 진단 장치에서 동일하거나 상응하게 수행될 수 있다.
예를 들어, 진단 장치는 학습된 신경망 모델에 대한 정보를 서버(S)로부터 수신할 수 있다. 이 경우, 진단 장치는 서버(S)로부터 수신된 학습된 신경망 모델을 이용하여, 안질환에 관한 정보를 제공하기 위한 일련의 동작을 수행할 수 있다.
한편, 진단 장치는 예시적으로, 병원 등에서 환자의 안질환 여부를 진단하기 위해 사용되는 장치일 수 있으나, 이에 한정되는 것은 아니며, 기 알려진 다양한 종류의 의료 기구 또는 장치를 포함할 수 있다.
이하에서는 설명의 편의를 위해 안질환 관리 장치(1000)에서 수행되는 동작에 대해 설명하지만, 구현 예에 따라 이와 동일하거나 상응하는 동작들이 진단 장치 또는 서버에서 수행될 수도 있다.
일 실시예에 따른 안질환 정보는 이미지에 기반하여 생성될 수 있다. 이미지에 기반하여 생성되는 안질환 정보는, 전문의가 직접 육안으로 관찰한 결과를 통해 생성된 정보와 비교하여 보다 조기에 획득될 수 있다.
즉, 사용자는 직접 병원 등의 시설을 방문하지 않고도, 촬영된 이미지에 기반하여 자신에게 안질환이 발생되었는지 또는 진행 정도가 어떠한지 등에 관한 정보를 손쉽게 획득할 수 있게 되어 안질환에 관한 정보를 빠르게 획득할 수 있다. 또한, 사용자가 병원 등의 시설을 방문하여 진료를 받는 경우에도, 이미지에 기반하여 신속하게 안질환에 관한 정보를 획득할 수 있다.
또한, 이미지에 기반하여 생성되는 안질환 정보는, 전문의의 육안에 의한 진료를 통해 생성되는 정보보다 보다 객관적일 수 있다. 즉, 전문의의 육안에 의한 진료를 통해 생성되는 정보는 전문의의 숙련도 또는 전문성에 따라 달라질 수도 있는 반면, 이미지에 기반하여 생성되는 안질환 정보는 일정한 기준에 의해 판단된 객관적 정보를 포함할 수 있다.
도 4는 이미지 기반으로 획득되는 안질환 정보를 제공하는 방법을 설명하기 위한 순서도이다. 도 4를 참조하면, 이미지 기반으로 획득되는 안질환 정보 제공 방법은 이미지를 획득하는 단계(S1000), 획득된 이미지에 기초하여 안질환을 분석하는 단계(S2000), 안질환 정보를 획득하는 단계(S3000) 및 안질환 정보를 제공하는 단계(S4000)를 포함할 수 있다.
일 실시예에 따르면, 안질환 관리 장치(1000)는 이미지 획득 단계(S1000)를 통해 이미지를 획득할 수 있다. 이 경우, 이미지는 사용자의 눈이 포함된 이미지일 수 있으며, 미리 정해진 일정 기준을 만족하며 촬영된 이미지일 수 있다. 안질환 분석에 활용되는 이미지에 대한 설명 및 상기 이미지를 획득하기 위한 구체적인 촬영 방법에 대해서는 후술하도록 한다.
일 실시예에 따르면, 안질환 관리 장치(1000)는 안질환 분석 단계(S2000)에서 상기 획득된 이미지에 기초해 안질환을 분석할 수 있다. 안질환 관리 장치(1000)는 획득된 이미지에 포함된 사용자의 눈과 관련된 지표를 활용하여 안질환을 분석할 수 있다. 보다 구체적으로, 일 실시예에 따른 안질환 관치 장치(1000)는 이미지로부터 안질환 정보를 출력하도록 학습된 신경망 모델을 이용하여, 획득된 이미지에 기초하여 안질환을 분석할 수 있다.
일 실시예에 따르면, 안질환 관리 장치(1000)는 안질환 정보 획득 단계(S3000)에서 안질환 분석 결과에 기초한 안질환 정보를 획득할 수 있으며, 획득된 안질환 정보를 안질환 정보 제공 단계(S4000)를 통해 사용자에게 제공할 수 있다.
안질환 관리 장치(1000)가 이미지 획득 단계(S1000)에서 획득하는 이미지는 사용자의 눈에 대응되는 영역이 포함된 이미지일 수 있다. 이때, 상기 이미지는 사용자의 두 눈에 대응되는 영역이 포함된 이미지, 사용자의 좌측 눈에 대응되는 영역이 포함된 이미지 또는 사용자의 우측 눈에 대응되는 영역이 포함된 이미지를 의미할 수 있다.
또한, 안질환 관리 장치(1000)가 이미지 획득 단계(S1000)에서 획득하는 이미지는 사용자의 눈 주변부에 대응되는 영역(예를 들어, 눈꺼풀 영역, 미간 영역, 콧대 영역, 눈 꼬리 영역, 눈물 언덕 영역 등)이 포함된 이미지일 수 있다.
또한, 안질환 관리 장치(1000)는 이미지를 획득한 후, 획득된 이미지에 대하여 전처리를 수행할 수 있다. 예컨대, 안질환 관리 장치(1000)는 획득되는 이미지를 안질환 분석에 적합하도록 전처리를 수행할 수 있다. 예를 들어, 안질환 관리 장치(1000)는 획득된 이미지의 인텐시티를 보정하거나 노이즈를 제거하는 등의 전처리를 수행할 수 있다. 다른 예로, 안질환 관리 장치(1000)는 획득된 이미지의 픽셀 값을 통해 판단된 이미지의 해상도가 미리 정해진 기준을 만족하지 못하는 경우, 상기 이미지의 해상도를 미리 정해진 해상도로 변환할 수 있다.
나아가, 안질한 관리 장치(1000)가 획득하는 이미지는, 안질환에 관한 보다 정확한 판단을 위하여, 일정 기준을 만족하도록 촬영된 이미지일 수 있다. 이하에서는 안질환 예측에 이용되는 이미지를 획득하기 위한 이미지 촬영 방법에 관하여 설명한다.
도 5는 안질환 예측에 이용되는 이미지 촬영 방법을 설명하기 위한 도면이다. 도 5를 참조하면, 안질환 예측에 이용되는 이미지 촬영 방법은, 프리뷰 이미지를 획득하는 단계(S1100), 촬영 가이드를 제공하는 단계(S1200), 복수의 지표를 추출하는 단계(S1300), 추출된 복수의 지표가 촬영 가이드에 매칭되는지 판단하는 단계(S1400), 얼굴의 좌우 회전 각도를 판단하는 단계(S1500), 미소 정도가 기준치를 초과하는지 판단하는 단계(S1600), 플래쉬를 제공하는 단계(S1700) 및 이미지 촬영 단계(S1800)를 포함할 수 있다.
안질환 관리 장치(1000)는 획득되는 프리뷰 이미지가 촬영 가이드에 매칭되는지 판단하는 단계(S1400), 얼굴의 좌우 회전 각도를 판단하는 단계(S1500) 및 미소 정도가 기준치를 초과하는지 판단하는 단계(S1600) 중 적어도 하나의 단계를 만족한다고 판단되는 경우, 프리뷰 이미지가 안질환 예측에 이용될 수 있는 이미지로 결정할 수 있다.
이후, 안질환 관리 장치(1000)는 프리뷰 이미지가 안질환 예측에 이용될 수 있는 이미지로 결정된 경우, 이를 자동으로 저장 또는 촬영하거나 사용자가 이미지를 촬영할 수 있도록 촬영 버튼을 활성화할 수 있다.
이하에서는, 설명의 편의를 위하여, 프리뷰 이미지가 안질환 예측에 이용될 수 있는 이미지로 결정되는 경우, 안질환 관리 장치(1000)가 이를 촬영한다고 설명하지만, 이는 자동으로 저장 또는 촬영하거나, 촬영 버튼을 활성화하는 것을 포함할 수 있다.
일 실시예에 따르면, 안질환 관리 장치(1000)는 프리뷰 이미지 획득 단계(S1100)를 통해 프리뷰 이미지를 획득할 수 있다. 프리뷰 이미지는 도 3의 이미지 촬영부(200)를 통해 획득되는 이미지일 수 있다.
프리뷰 이미지는 제어부(100)가 이미지 촬영부(200)를 통해 획득되는 이미지 데이터를 처리하여 생성한 이미지일 수 있다. 이 경우, 생성된 복수의 프리뷰 이미지 중 적어도 하나는 안질환 예측에 이용되는 이미지로 활용될 수 있다.
보다 구체적으로, 안질환 관리 장치(1000)는 실시간으로 획득되는 복수의 프리뷰 이미지가 미리 정해진 기준을 만족하는지 여부를 판단할 수 있고, 복수의 프리뷰 이미지 중 미리 정해진 기준을 만족하는 프리뷰 이미지를 촬영할 수 있다.
안질환 관리 장치(1000)는 촬영 가이드 제공 단계(S1200)에서, 디스플레이를 통해 촬영 가이드를 제공할 수 있다.
안질환 관리 장치(1000)가 촬영 가이드를 제공함으로써, 사용자는 제공된 촬영 가이드에 따라 자신의 얼굴을 촬영할 수 있다. 이때, 제공되는 촬영 가이드에 기초하여 촬영된 이미지를 통해 이미지 분석이 수행되는 경우, 더욱 향상된 정확도를 가지는 이미지 분석 결과를 획득할 수 있게 된다.
즉, 안질환 관리 장치(1000)는 보다 신뢰도 높은 이미지 분석 결과를 획득하기 위해, 사용자가 이미지를 촬영하는 경우 미리 정해진 복수의 기준을 만족할 수 있도록 하나 이상의 촬영 가이드를 제공할 수 있다. 이하에서는, 안질환 관리 장치(1000)가 제공하는 촬영 가이드에 관하여 서술한다.
안질환 관리 장치(1000)는 획득된 프리뷰 이미지 상에 오버랩 되도록 촬영 가이드를 제공할 수 있다. 이 경우, 촬영 가이드는 프리뷰 이미지 상의 고정된 위치에 오버랩 되도록 제공될 수 있다. 프리뷰 이미지에 포함된 인체의 특정의 영역이 위치하는 프리뷰 이미지 상의 픽셀은 촬영 각도 또는 얼굴의 위치에 따라 달라질 수 있으나, 촬영 가이드가 위치하는 프리뷰 이미지 상의 픽셀은 항상 고정되어 있을 수 있다.
한편, 촬영 가이드는 눈 또는 얼굴의 윤곽선 등 이미지로부터 추출되는 다양한 지표와 관련된 것일 수 있으나, 이에 한정되는 것은 아니며, 기 알려진 다양한 형태의 촬영 가이드를 포함할 수 있다.
도 6 내지 도 9는 일 실시예에 따른 촬영 가이드를 예시적으로 설명하기 위한 도면이다. 이하에서는 도 6 내지 도 9를 참조하여 일 실시예에 따른 촬영 가이드에 대하여 구체적으로 설명한다.
도 6을 참조하면, 일 실시예에 따른 안질환 관리 장치(1000)는 디스플레이를 통해 제1 가이드(G1)를 제공할 수 있다. 상기 제1 가이드(G1)는 사용자의 좌측 눈에 대응되도록 유도될 수 있다. 상기 제1 가이드(G1)는 사용자가 좌측 눈을 상기 제1 가이드(G1)에 매칭시키도록 가이딩하는 기능을 수행할 수 있다. 결과적으로, 상기 제1 가이드(G1)는 촬영되는 이미지 내의 특정 영역에 좌측 눈으로 검출된 영역이 위치하도록 가이드하는 역할을 할 수 있다. 또한, 상기 제1 가이드(G1)는 촬영되는 이미지 내의 특정 영역에 좌측 눈동자로 검출된 영역의 중앙이 위치하도록 가이드하는 역할을 할 수 있다.
제1 가이드(G1)는 프리뷰 이미지 상의 좌측 상단 부분에 오버랩 되도록 디스플레이를 통해 표시될 수 있다. 이 경우, 제1 가이드(G1)는 상술한 바와 같이 사용자의 좌측 눈동자로 검출된 영역의 중앙의 위치를 가이드할 수 있다.
일 예로, 상기 제1 가이드(G1)는 십자형일 수 있다. 상기 제1 가이드(G1)가 십자형으로 제공되는 경우, 제1 가이드(G1)는 동공 센서 없이도 눈의 중앙이 가이드에 의해 정확히 촬영되도록 가이드할 수 있다. 보다 구체적으로, 제1 가이드(G1)가 십자형으로 제공되는 경우, 제1 가이드(G1)는 사용자가 좌측 눈동자의 중앙을 상기 십자형의 교차점에 매칭시키도록 가이딩하는 기능을 수행할 수 있고, 이에 따라, 간편하고 정확도 높은 분석이 이뤄질 수 있도록 할 수 있다.
한편, 제1 가이드(G1)는 상술한 십자형 외에도 기 알려진 다양한 형태(예를 들어, 점, 원형 등)로 제공될 수 있다.
도 6을 참조하면, 일 실시예에 따른 안질환 관리 장치(1000)는 디스플레이를 통해 제2 가이드(G2)를 제공할 수 있다. 상기 제2 가이드(G2)는 사용자의 우측 눈에 대응되도록 유도될 수 있다. 상기 제2 가이드(G2)는 사용자가 우측 눈을 상기 제2 가이드(G2)에 매칭시키도록 가이딩하는 기능을 수행할 수 있다. 결과적으로, 상기 제2 가이드(G2)는 촬영되는 이미지 내의 특정 영역에 우측 눈으로 검출된 영역이 위치하도록 가이드하는 역할을 할 수 있다. 또한, 상기 제2 가이드(G2)는 촬영되는 이미지 내의 특정 영역에 우측 눈동자로 검출된 영역의 중앙이 위치하도록 가이드하는 역할을 할 수 있다.
제2 가이드(G2)는 프리뷰 이미지 상의 우측 상단 부분에 오버랩 되도록 디스플레이를 통해 표시될 수 있다. 이 경우, 제2 가이드(G2)는 상술한 바와 같이 사용자의 우측 눈동자로 검출된 영역의 중앙의 위치를 가이드할 수 있다.
일 예로, 상기 제2 가이드(G2)는 십자형일 수 있다. 상기 제2 가이드(G2)가 십자형으로 제공되는 경우, 제2 가이드(G2)는 동공 센서 없이도 눈의 중앙이 가이드에 의해 정확히 촬영되도록 가이드할 수 있다. 보다 구체적으로, 제2 가이드(G2)가 십자형으로 제공되는 경우, 제2 가이드(G2)는 사용자가 우측 눈동자의 중앙을 상기 십자형의 교차점에 매칭시키도록 가이딩하는 기능을 수행할 수 있고, 이에 따라, 간편하고 정확도 높은 분석이 이뤄질 수 있도록 할 수 있다.
한편, 제2 가이드(G2)는 상술한 십자형 외에도 기 알려진 다양한 형태(예를 들어, 점, 원형 등)로 제공될 수 있다. 다른 예로, 제2 가이드(G2)는 제1 가이드(G1)에 대응되는 형태로 표시될 수 있다.
한편, 제2 가이드(G2)는 제1 가이드(G1)와 대칭되도록 제공될 수 있다. 보다 구체적으로, 제2 가이드(G2)는 상기 제1 가이드(G1)가 제공되는 시점과 동 시점에 제공될 수 있고, 상기 제1 가이드(G1)가 프리뷰 이미지 상에 제공되는 위치와 대칭되는 위치에 제공될 수 있다.
예를 들어, 제2 가이드(G2)는 프리뷰 이미지 상의 제1 축을 기준으로 제1 가이드(G1)와 대칭을 이루도록 제공될 수 있다. 이때, 예시적으로, 상기 제1 축은 프리뷰 이미지 상의 y축을 의미할 수 있다. 다른 예로, 상기 제1 축은 프리뷰 이미지에서 사용자의 코 끝과 턱 끝을 연결하는 축일 수 있다.
도 7을 참조하면, 일 실시예에 따른 안질환 관리 장치(1000)는 디스플레이를 통해 제3 가이드(G3)를 제공할 수 있다. 상기 제3 가이드(G3)는 프리뷰 이미지에 기초하여 결정되는 얼굴의 좌우 회전 각도가 미리 정해진 기준을 만족하도록 사용자의 동작을 유도하는 역할을 할 수 있다. 여기서, 얼굴의 좌우 회전 각도가 미리 정해진 기준을 만족하는지 판단하는 구체적인 방법에 관하여는 후술하도록 한다.
제3 가이드(G3)는 프리뷰 이미지의 중앙에 오버랩 되도록 디스플레이를 통해 표시될 수 있다. 예를 들어, 제3 가이드(G3)는 프리뷰 이미지 상의 제1 축에 대응되는 직선 형태로 표시될 수 있다.
또한, 제3 가이드(G3)는 상기 제1 가이드(G1)와 상기 제2 가이드(G2)를 구분짓도록 형성될 수 있다. 예를 들어, 제3 가이드(G3)는 제1 가이드(G1)의 중심과 제2 가이드(G2)의 중심을 연결하는 선의 중앙에 수직하도록 형성될 수 있다. 즉, 제1 가이드(G1)와 제2 가이드(G2)는 제3 가이드(G3)를 기준으로 서로 대칭되도록 형성될 수 있다.
도 8을 참조하면, 일 실시예에 따른 안질환 관리 장치(1000)는 디스플레이를 통해 제4 가이드(G4)를 제공할 수 있다. 상기 제4 가이드(G4)는 프리뷰 이미지에 기초하여 결정되는 얼굴의 상하 회전 각도가 미리 정해진 기준을 만족하도록 가이딩하는 기능을 수행할 수 있다.
예를 들어, 제4 가이드(G4)는 얼굴의 상하 회전 각도가 미리 정해진 기준을 만족할 때까지 사용자가 안질환 관리 장치(1000)를 상하로 움직이도록 가이딩하는 기능을 수행할 수 있다. 다른 예로, 제4 가이드(G4)는 얼굴의 상하 회전 각도가 미리 정해진 기준을 만족할 때까지 사용자가 얼굴을 상하로 움직이도록 가이딩하는 기능을 수행할 수 있다.
또 다른 예로, 제4 가이드(G4)는 사용자가 상기 제4 가이드(G4) 내부에 얼굴의 주요 부위를 모두 위치시키도록 가이딩하는 기능을 수행할 수 있다. 이때, 상기 얼굴의 주요 부위는 눈, 코, 입 등을 포함할 수 있다.
제4 가이드(G4)는 얼굴의 윤곽선에 대응되는 형태(예를 들어, 원형, 타원형 등)로 형성될 수 있다. 또한, 제4 가이드(G4)는 제1 가이드(G1) 및 제2 가이드(G2)의 외측에 형성될 수 있다. 즉, 제1 가이드(G1) 및 제2 가이드(G2)는 제4 가이드(G4) 내부에 포함되도록 형성될 수 있다.
또한, 제4 가이드(G4)는 제3 가이드(G3)의 적어도 일부를 내부에 포함할 수 있도록 형성될 수 있다. 일 예로, 제3 가이드(G3)는 제4 가이드(G4)의 중심을 지나도록 형성될 수 있다.
한편, 도 9를 참조하면, 안질환 관리 장치(1000)는 디스플레이를 통해 2 이상의 가이드를 출력할 수 있다. 예를 들어, 안질환 관리 장치(1000)는 디스플레이를 통해 제1 가이드(G1) 및 제2 가이드(G2)를 출력할 수 있다. 다른 예로, 안질환 관리 장치(1000)는 디스플레이를 통해 제1 가이드(G1), 제2 가이드(G2) 및 제3 가이드(G3)를 출력할 수 있다. 또 다른 예로, 안질환 관리 장치(1000)는 디스플레이를 통해 제1 가이드(G1), 제2 가이드(G2), 제3 가이드(G3) 및 제4 가이드(G4)를 출력할 수 있다.
안질환 관리 장치(1000)는 이미지에 기반하여 안질환 분석을 수행할 수 있는데, 이때, 정확도 높은 안질환 분석 결과를 획득하기 위해서는, 얼굴의 상하 회전 각도, 얼굴의 좌우 회전 각도 또는 눈의 위치가 일정 기준을 만족하도록 촬영되어야 한다.
일 실시예에 따르면, 안질환 관리 장치(1000)는 프리뷰 이미지로부터 복수의 지표를 추출할 수 있다. 이때, 복수의 지표는 좌측 눈동자에 대응되는 제1 지표를 포함할 수 있다. 보다 구체적으로, 상기 제1 지표는 좌측 눈동자에 대응되는 좌측 눈동자 영역에 관한 지표일 수 있다. 예를 들어, 상기 제1 지표는 좌측 눈동자로 검출된 영역의 중앙에 관한 지표일 수 있다.
상기 좌측 눈동자 영역은 미리 정해진 알고리즘에 의해 검출될 수 있다. 또한, 상기 좌측 눈동자 영역의 중앙은, 미리 정해진 알고리즘을 통해 정해질 수 있다. 또한, 상기 좌측 눈동자 영역의 중앙은, 좌측 눈동자 영역 중 디스플레이를 통해 제공되는 플래쉬 빛이 반사되는 영역일 수 있다.
보다 구체적으로, 디스플레이를 통해 플래쉬가 제공되는 경우, 좌측 눈동자 영역 중 적어도 일부에는 플래쉬 빛이 반사되는 영역이 존재하게 되는데, 상기 플래쉬 빛이 반사되는 영역이 좌측 눈동자 영역의 중앙으로 결정될 수 있다.
한편, 상기 플래쉬는 디스플레이의 전 영역 또는 일부 영역을 통해 제공될 수 있다. 상기 플래쉬가 디스플레이를 통해 제공되는 경우, 촬영 가이드는 플래쉬가 제공되는 영역의 중앙에 표시될 수 있다.
상기 복수의 지표는 우측 눈동자에 대응되는 제2 지표를 포함할 수 있다. 보다 구체적으로, 상기 제2 지표는 우측 눈동자에 대응되는 우측 눈동자 영역에 관한 지표일 수 있다. 예를 들어, 상기 제2 지표는 우측 눈동자로 검출된 영역의 중앙에 관한 지표일 수 있다.
한편, 상기 우측 눈동자 영역 및 상기 우측 눈동자 영역의 중앙은 좌측 눈동자 영역 및 좌측 눈동자 영역의 중앙을 결정하는 방법과 동일 또는 이와 상응하는 방법으로 결정될 수 있으며, 이에 관하여 중복되는 설명은 생략한다.
안질환 관리 장치(1000)는 프리뷰 이미지로부터 추출된 복수의 지표 중 적어도 하나가 상술한 촬영 가이드 중 어느 하나에 매칭된다고 판단하는 경우, 상기 프리뷰 이미지를 촬영할 수 있다.
일 실시예에 따르면, 안질환 관리 장치(1000)는 프리뷰 이미지로부터 추출된 제1 지표가 상기 제1 가이드(G1)에 매칭된다고 판단되는 경우, 상기 프리뷰 이미지를 촬영할 수 있다. 또는, 안질환 관리 장치(1000)는 프리뷰 이미지로부터 추출된 제2 지표가 상기 제2 가이드(G2)에 매칭된다고 판단되는 경우, 상기 프리뷰 이미지를 촬영할 수 있다. 또는, 안질환 관리 장치(1000)는 제1 지표가 제1 가이드(G1)에 매칭된다고 판단되고, 제2 지표가 제2 가이드(G2)에 매칭된다고 판단되는 경우, 프리뷰 이미지를 촬영할 수 있다.
제1 지표는 좌측 눈동자에 대응되는 좌측 눈동자 영역에 관한 것일 수 있다. 이 경우, 일 실시예에 따르면, 상기 좌측 눈동자 영역의 픽셀이 제1 가이드(G1)로부터 미리 정해진 범위 내에 있다고 판단되면, 제1 지표와 제1 가이드(G1)가 매칭된고 판단할 수 있다. 예시적으로, 좌측 눈동자 영역의 픽셀이 제1 가이드의 중심 또는 제1 가이드(G1)의 외곽 라인으로부터 미리 정해진 범위 내에 있다고 판단되면, 제1 지표와 제1 가이드(G1)가 매칭된다고 판단할 수 있다.
다른 실시예에 따르면, 좌측 눈동자 영역의 픽셀이 프리뷰 이미지 상에서 제1 가이드(G1)를 포함하는 영역 중 적어도 일부에 포함되는 경우, 제1 지표와 제1 가이드(G1)가 매칭된다고 판단할 수 있다.
다른 실시예에 따르면, 프리뷰 이미지 상에서 제1 지표를 포함하는 영역 중 적어도 일부와 제1 가이드(G1)를 포함하는 영역 중 적어도 일부가 중첩된다고 판단되면, 제1 지표와 제1 가이드(G1)가 매칭된다고 판단할 수 있다.
한편, 제2 지표는 우측 눈동자에 대응되는 우측 눈동자 영역에 관한 것일 수 있고, 이 경우, 일 실시예에 따르면, 상기 우측 눈동자 영역의 픽셀이 제2 가이드(G2)로부터 미리 정해진 범위 내에 있다고 판단되면, 제2 지표와 제2 가이드(G2)가 매칭된고 판단할 수 있다. 예시적으로, 우측 눈동자 영역의 픽셀이 제2 가이드의 중심 또는 제2 가이드(G2)의 외곽 라인으로부터 미리 정해진 범위 내에 있다고 판단되면, 제2 지표와 제2 가이드(G2)가 매칭된다고 판단할 수 있다.
다른 실시예에 따르면, 우측 눈동자 영역의 픽셀이 프리뷰 이미지 상에서 제2 가이드(G2)를 포함하는 영역 중 적어도 일부에 포함되는 경우, 제2 지표와 제2 가이드(G2가 매칭된다고 판단할 수 있다.
다른 실시예에 따르면, 프리뷰 이미지 상에서 제2 지표를 포함하는 영역 중 적어도 일부와 제2 가이드(G2)를 포함하는 영역 중 적어도 일부가 중첩된다고 판단되면, 제2 지표와 제2 가이드(G2)가 매칭된다고 판단할 수 있다.
도 10은 제1 지표가 제1 가이드에 매칭되는지와 제2 지표가 제2 가이드에 매칭되는지 판단하는 방법을 설명하기 위한 도면이다.
도 10을 참조하면, 제1 지표(Index 1)는 좌측 눈동자에 대응되는 좌측 눈동자 영역에 관한 것일 수 있고, 제2 지표(Index 2)는 우측 눈동자에 대응되는 우측 눈동자 영역에 관한 것일 수 있다.
도 10의 (a)를 참조하면, 안질환 관리 장치(1000)는 좌측 눈동자의 중앙 영역의 픽셀이 제1 가이드(G1)로부터 일정 범위 내에 위치하고 있지 않다고 판단되는 경우, 제1 지표(Index 1)는 제1 가이드(G1)와 매칭되지 않는다고 판단할 수 있다. 또한, 안질환 관리 장치(1000)는 좌측 눈동자 영역의 픽셀이 프리뷰 이미지에서 제1 가이드(G1)를 포함하는 영역 중 적어도 일부에 포함되어 있지 않는 경우, 제1 지표(Index 1)는 제1 가이드(G1)와 매칭되지 않는다고 판단할 수 있다.
예를 들어, 좌측 눈동자의 중앙 영역의 픽셀과 제1 가이드(G1) 사이의 거리가(d1)가 미리 정해진 거리 이내라고 판단되는 경우, 제1 지표(Index 1)는 제1 가이드(G1)와 매칭된다고 판단할 수 있다. 반대로, 좌측 눈동자의 중앙 영역의 픽셀과 제1 가이드(G1) 사이의 거리가(d1)가 미리 정해진 거리 이내가 아니라고 판단되는 경우, 제1 지표(Index 1)는 제1 가이드(G1)와 매칭되지 않는다고 판단할 수 있다.
또한, 안질환 관리 장치(1000)는 우측 눈동자의 중앙 영역의 픽셀이 제2 가이드(G2)로부터 일정 범위 내에 위치하고 있지 않다고 판단되는 경우, 제2 지표(Index 2)는 제2 가이드(G2)와 매칭되지 않는다고 판단할 수 있다. 또한, 안질환 관리 장치(1000)는 우측 눈동자 영역의 픽셀이 프리뷰 이미지에서 제2 가이드(G2)를 포함하는 영역 중 적어도 일부에 포함되어 있지 않다고 판단되는 경우, 제2 지표(Index 2)는 제2 가이드(G2)와 매칭되지 않는다고 판단할 수 있다.
예를 들어, 우측 눈동자의 중앙 영역의 픽셀과 제2 가이드(G2) 사이의 거리가(d2)가 미리 정해진 거리 이내라고 판단되는 경우, 제1 지표(Index 1)는 제2 가이드(G1)와 매칭된다고 판단할 수 있다. 반대로, 우측 눈동자의 중앙 영역의 픽셀과 제2 가이드(G2) 사이의 거리가(d2)가 미리 정해진 거리 이내가 아니라고 판단되는 경우, 제1 지표(Index 1)는 제2 가이드(G2)와 매칭되지 않는다고 판단할 수 있다.
도 10의 (b)를 참조하면, 좌측 눈동자의 중앙 영역의 픽셀이 제1 가이드(G1)로부터 일정 범위 내에 위치하고 있으므로, 제1 지표(Index 1)는 제1 가이드(G1)와 매칭된다고 판단할 수 있다. 또한, 좌측 눈동자 영역의 픽셀이 프리뷰 이미지에서 제1 가이드(G1)를 포함하는 영역 중 적어도 일부에 포함되어 있으므로, 제1 지표(Index 1)는 제1 가이드(G1)와 매칭된다고 판단할 수 있다.
또한, 우측 눈동자의 중앙 영역의 픽셀이 제2 가이드(G2)로부터 일정 범위 내에 위치하고 있으므로, 제2 지표(Index 2)는 제2 가이드(G2)와 매칭된다고 판단할 수 있다. 또한, 우측 눈동자 영역의 픽셀이 프리뷰 이미지에서 제2 가이드(G2)를 포함하는 영역 중 적어도 일부에 포함되어 있으므로, 제2 지표(Index 2)는 제2 가이드(G2)와 매칭된다고 판단할 수 있다.
한편, 안질환 관리 장치(1000)는 제1 지표(Index 1)와 제1 가이드(G1)의 매칭 여부 또는 제2 지표(Index 2)와 제2 가이드(G2)의 매칭 여부에 기초하여 디스플레이를 통해 안내 메시지를 제공하거나 제1 가이드(G1) 또는 제2 가이드(G2)의 상태를 변화시킬 수 있다.
일 실시예에 따르면, 안질환 관리 장치(1000)는 제1 지표(Index 1)가 제1 가이드(G1)에 매칭되지 않는다고 판단되는 경우, 디스플레이를 통해 안내 메시지(예를 들어, 촬영 각도 또는 얼굴의 위치를 조정하도록 안내하는 메시지)를 제공할 수 있다.
예를 들어, 도 10의 (a)와 같이 제1 지표(Index 1)가 제1 가이드(G1)에 매칭되지 않는다고 판단되는 경우, 안질환 관리 장치(1000)는 디스플레이를 통해 '두 눈의 동공을 화면의 표시에 맞춰주세요'라는 메시지를 제공할 수 있다. 마찬가지로, 제2 지표(Index 2)가 제2 가이드(G2)에 매칭되지 않는다고 판단되는 경우, 안질환 관리 장치(1000)는 디스플레이를 통해 '두 눈의 동공을 화면의 표시에 맞춰주세요'라는 메시지를 제공할 수 있다.
다른 실시예에 따르면, 안질환 관리 장치(1000)는 제1 지표(Index 1)가 제1 가이드(G1)에 매칭된다고 판단되는 경우, 디스플레이를 통해 상기 제1 가이드(G1)의 상태가 변화되도록 출력할 수 있다. 보다 구체적으로, 안질환 관리 장치(1000)는 좌측 눈동자 영역의 픽셀이 제1 가이드(G1)로부터 미리 정해진 범위 내에 위치하는 경우, 상기 제1 가이드(G1)의 상태(예컨대, 색상)를 변화시킬 수 있다. 또한, 안질환 관리 장치(1000)는 우측 눈동자 영역의 픽셀이 제2 가이드(G2)로부터 미리 정해진 범위 내에 위치하는 경우, 상기 제2 가이드(G2)의 상태(예컨대, 색상)를 변화시킬 수 있다.
예시적으로, 도 10의 (a)와 같이, 제1 지표(Index 1)와 제1 가이드(G1)가 매칭되지 않는 경우, 안질환 관리 장치(1000)는 제1 가이드(G1)를 점선으로 표시하였다가, 도 10의 (b)와 같이 제1 지표(Index 1)와 제1 가이드(G1)가 매칭된다고 판단되는 경우, 안질환 관리 장치(1000)는 제1 가이드(G1)를 실선으로 변경하여 표시할 수 있다. 마찬가지로, 제2 지표(Index 2)와 제2 가이드(G2)가 매칭되지 않는 경우, 안질환 관리 장치(1000)는 제2 가이드(G2)를 점선으로 표시하였다가, 도 10의 (b)와 같이 제2 지표(Index 2)와 제2 가이드(G2)가 매칭된다고 판단되는 경우, 안질환 관리 장치(1000)는 제2 가이드(G2)를 실선으로 변경하여 표시할 수 있다.
다만, 이는 예시적인 것이며, 안질환 관리 장치(1000)는 제1 지표(Index 1)가 제1 가이드(G1)에 매칭된다고 판단되는 경우, 제1 가이드(G1)의 색상을 변화시키는 등 제1 가이드(G1)의 상태를 다양한 방법으로 변화하여 출력할 수 있다. 마찬가지로, 안질환 관리 장치(1000)는 제2 지표(Index 2)가 제2 가이드(G2)에 매칭된다고 판단되는 경우, 제2 가이드(G2)의 색상을 변화시키는 등 제2 가이드(G2)의 상태를 다양한 방법으로 변화하여 출력할 수 있다.
안질환 관리 장치(1000)가 이미지에 기반하여 안질환 분석을 수행하는 경우, 정확도 높은 안질환 분석 결과를 획득하기 위해서는, 얼굴의 좌우 회전 각도가 미리 정해진 기준을 만족하여야 한다. 일 예로, 특정 안질환의 경우 돌출 정도에 기초하여 판단될 수 있으므로, 얼굴의 좌우 회전 각도가 미리 정해진 기준을 만족하는지 판단하는 것은 중요할 수 있다.
안질환 관리 장치(1000)는 프리뷰 이미지로부터 추출되는 얼굴의 좌우 회전 각도가 미리 정해진 기준을 만족하는지 여부에 따라 프리뷰 이미지를 촬영할 수 있다. 이하에서는, 안질환 관리 장치(1000)가 얼굴의 좌우 회전 각도에 기초하여 이미지를 촬영하는 방법을 설명한다.
안질환 관리 장치(1000)는 이미지 기반으로 얼굴의 좌우 회전 각도를 추출할 수 있는 알고리즘을 이용하여, 프리뷰 이미지에 기초하여 얼굴의 좌우 회전 각도를 결정할 수 있다. 이후, 안질환 관리 장치(1000)는 프리뷰 이미지로부터 획득된 얼굴의 좌우 회전 각도가 미리 정해진 기준을 만족하는 것으로 판단되는 경우, 상기 프리뷰 이미지를 촬영할 수 있다.
도 11은 얼굴의 좌우 회전 각도가 미리 정해진 기준을 만족하는지 판단하는 방법을 예시적으로설명하기 위한 도면이다.
도 11을 참조하면, 상술한 바와 같이 촬영 가이드는 제3 가이드(G3)를 포함할 수 있고, 이 경우, 안질환 관리 장치(1000)는 프리뷰 이미지로부터 결정된 얼굴의 좌우 회전 각도에 대응하며 상기 제3 가이드(G3)와 평행하도록 형성되는 기준선(GL)을 프리뷰 이미지 상에 오버랩 되도록 디스플레이를 통해 제공할 수 있다. 보다 구체적으로, 상기 기준선(GL)은 프리뷰 이미지로부터 추출되는 얼굴의 좌우 회전 각도가 반영된 선으로, 사용자 얼굴의 좌우 회전 각도에 따라 프리뷰 이미지 상의 다른 위치에 오버랩 되도록 표시될 수 있다.
안질환 관리 장치(1000)가 디스플레이를 통해 얼굴의 좌우 회전 각도에 대응하는 기준선(GL)을 제공함으로써, 사용자는 자신의 얼굴을 촬영하면서 자신의 얼굴의 좌우 회전 각도를 시각적으로 파악할 수 있게 되어, 이미지 분석에 적합한 얼굴의 좌우 회전 각도를 가지는 이미지를 획득할 수 있게 된다.
일 실시예에 따르면, 안질환 관리 장치(1000)는 기준선(GL)과 제3 가이드(G3) 간의 관계와 무관하게 프리뷰 이미지를 분석하여 획득된 추정 좌우 회전 각도가 미리 정해진 기준 이내인 것으로 검출되면, 얼굴의 좌우 회전 각도가 미리 정해진 기준을 만족하는 것으로 판단한 후, 상기 프리뷰 이미지를 촬영할 수 있다.
즉, 안질환 관리 장치(1000)는 기준선(GL)과 제3 가이드(G3) 사이의 거리가 미리 정해진 거리 이내인지 판단하지 않고, 프리뷰 이미지를 분석하여 획득된 추정 회전 각도가 미리 정해진 기준 이내인 것으로 검출되면, 얼굴의 좌우 회전 각도가 미리 정해진 기준을 만족하는 것으로 판단하여 상기 프리뷰 이미지를 촬영할 수 있다.
다른 실시예에 따르면, 안질환 관리 장치(1000)는 기준선(GL)과 제3 가이드(G3) 간의 관계에 기초하여, 얼굴의 좌우 회전 각도가 미리 정해진 기준을 만족한다고 판단하는 경우, 상기 프리뷰 이미지를 촬영할 수 있다.
즉, 안질환 관리 장치(1000)는 상기 기준선(GL)과 제3 가이드(G3) 사이의 거리가 미리 정해진 거리 이내라고 판단되면, 상기 얼굴의 좌우 회전 각도가 미리 정해진 기준을 만족하는 것으로 판단한 후, 상기 프리뷰 이미지를 촬영할 수 있다. 이때, 기준선(GL)과 제3 가이드(G3) 사이의 거리는 기준선(GL)(또는, 제3 가이드(G3)) 상의 임의의 어느 한 점에서 수직한 방향으로 제3 가이드(G3)(또는, 기준선(GL))까지의 거리를 의미할 수 있다.
예를 들어, 도 11의 (a)와 같이 기준선(GL)과 제3 가이드(G3)가 이격되어 있고, 이격된 거리가 미리 정해진 거리 이내 라고 판단되지 않는 경우, 상기 얼굴의 좌우 회전 각도가 미리 정해진 기준을 만족하지 않는 것으로 판단할 수 있다. 반대로, 도 11의 (b)와 같이 기준선(GL)과 제3 가이드(G3)가 중첩되어 있거나, 또는 기준선(GL)과 제3 가이드(G3) 사이의 거리가 미리 정해진 거리 이내라고 판단되는 경우, 상기 얼굴의 좌우 회전 각도가 미리 정해진 기준을 만족하는 것으로 판단한 후, 상기 프리뷰 이미지를 촬영할 수 있다.
한편, 안질환 관리 장치(1000)는 이미지로부터 획득된 얼굴의 좌우 회전 각도가 미리 정해진 기준을 만족하는지 여부에 기초하여 디스플레이를 통해 안내 메시지를 제공하거나 제3 가이드(G3)의 상태를 변화시킬 수 있다.
일 실시예에 따르면, 안질환 관리 장치(1000)는 얼굴의 좌우 회전 각도가 미리 정해진 기준을 만족하지 않는 것으로 판단되면, 디스플레이를 통해 안내 메시지(예를 들어, 촬영 각도 또는 얼굴의 위치를 조정하도록 안내하는 메시지)를 제공할 수 있다.
예를 들어, 도 11의 (a)와 같이 얼굴의 좌우 회전 각도가 미리 정해진 기준을 만족하지 못한다고 판단되는 경우, 또는 기준선(GL)과 제3 가이드(G3) 사이의 거리가 미리 정해진 거리 이내가 아니라고 판단되는 경우, 안질환 관리 장치(1000)는 디스플레이를 통해 '얼굴의 세로 중심선을 좌우로 움직여 중앙선에 맞춰주세요'라는 메시지를 제공할 수 있다.
다른 실시예에 따르면, 안질환 관리 장치(1000)는 얼굴의 좌우 회전 각도가 미리 정해진 기준을 만족하는 것으로 판단되는 경우, 디스플레이를 통해 상기 제3 가이드(G3)의 상태가 변화되도록 출력할 수 있다.
예를 들어, 도 11의 (a)와 같이 얼굴의 좌우 회전 각도가 미리 정해진 기준을 만족하지 못한다고 판단하거나 기준선(GL)과 제3 가이드(G3) 사이의 거리가 미리 정해진 거리 이내가 아니라고 판단하는 경우, 제3 가이드(G3)의 굵기를 얇게 표시하였다가, 도 11의 (b)와 같이 얼굴의 좌우 회전 각도가 미리 정해진 기준을 만족한다고 판단하거나, 기준선(GL)과 제3 가이드(G3) 사이의 거리가 미리 정해진 거리 이내라고 판단하는 경우, 제3 가이드(G3)의 굵기를 보다 굵게 변화하여 출력할 수 있다.
다만, 이는 예시적인 것이며, 안질환 관리 장치(1000)는 얼굴의 좌우 회전 각도가 미리 정해진 거리 이내라고 판단하거나 기준선(GL)과 제3 가이드(G3) 사이의 거리가 미리 정해진 거리 이내라고 판단하는 경우, 제3 가이드(G3)의 색상을 변화시키는 등 제3 가이드(G3)의 상태를 다양한 방법으로 변화하여 출력할 수 있다.
안질환 관리 장치(1000)가 이미지에 기반하여 안질환 분석을 수행하는 경우, 정확도 높은 안질환 분석 결과를 획득하기 위해서는, 얼굴의 상하 회전 각도가 미리 정해진 기준을 만족하여야 한다. 이에 따라, 안질환 관리 장치(1000)는 프리뷰 이미지로부터 추출되는 얼굴의 상하 회전 각도가 미리 정해진 기준을 만족하는지 여부에 따라 프리뷰 이미지를 촬영할 수 있다. 이하에서는, 안질환 관리 장치(1000)가 얼굴의 상하 회전 각도에 기초하여 이미지를 촬영하는 방법을 설명한다.
안질환 관리 장치(1000)는 이미지에 기초하여 얼굴의 상하 회전 각도를 추출할 수 있는 알고리즘을 이용하여, 프리뷰 이미지에 기초하여 얼굴의 상하 회전 각도를 결정할 수 있다. 이후, 안질환 관리 장치(1000)는 프리뷰 이미지로부터 획득된 얼굴의 상하 회전 각도가 미리 정해진 기준을 만족하는 것으로 판단되는 경우, 상기 프리뷰 이미지를 촬영할 수 있다.
도 12는 얼굴의 상하 회전 각도가 미리 정해진 기준을 만족하는지 판단하는 방법을 설명하기 위한 도면이다.
도 12를 참조하면, 상술한 바와 같이 촬영 가이드는 제4 가이드(G4)를 포함할 수 있고, 상기 제4 가이드(G4)에 의해 사용자는 얼굴의 상하 회전 각도가 미리 정해진 기준을 만족하도록 조절하여 촬영할 수 있다.
예를 들어, 안질환 관리 장치(1000)는 제4 가이드(G4)와 무관하게, 프리뷰 이미지를 분석하여 획득된 추정 상하 회전 각도가 미리 정해진 기준 이내인 것으로 검출되면, 얼굴의 상하 회전 각도가 미리 정해진 기준을 만족하는 것으로 판단한 후, 상기 프리뷰 이미지를 촬영할 수 있다.
다른 예로, 도면에는 도시되지 않았으나, 얼굴의 상하 회전 각도에 대응되는 기준선과 안질환 관리 장치(1000)는 제4 가이드(G4)에 기초하여, 얼굴의 상하 회전 각도가 미리 정해진 기준을 만족하는 것으로 판단한 경우, 상기 프리뷰 이미지를 촬영할 수 있다.
한편, 안질환 관리 장치(1000)는 이미지로부터 획득된 얼굴의 상하 회전 각도가 미리 정해진 기준을 만족하는지 여부에 기초하여 디스플레이를 통해 안내 메시지를 제공하거나 제4 가이드(G4)의 상태를 변화시킬 수 있다.
일 실시예에 따르면, 안질환 관리 장치(1000)는 얼굴의 상하 회전 각도가 미리 정해진 기준을 만족하지 않는 것으로 판단되면, 디스플레이를 통해 안내 메시지(예를 들어, 촬영 각도 또는 얼굴의 위치를 조정하도록 안내하는 메시지)를 제공할 수 있다.
예를 들어, 도 12의 (a)와 같이 얼굴의 상하 회전 각도가 미리 정해진 기준을 만족하지 못한다고 판단하는 경우, 안질환 관리 장치(1000)는 디스플레이를 통해 '얼굴을 상하로 움직여 가이드에 맞춰주세요'라는 메시지를 제공할 수 있다.
다른 실시예에 따르면, 안질환 관리 장치(1000)는 얼굴의 상하 회전 각도가 미리 정해진 기준을 만족하는 것으로 판단되는 경우, 디스플레이를 통해 상기 제4 가이드(G4)의 상태가 변화되도록 출력할 수 있다.
예를 들어, 도 12의 (a)와 같이 얼굴의 상하 회전 각도가 미리 정해진 기준을 만족하지 못한다고 판단하는 경우, 제4 가이드(G4)의 굵기를 얇게 표시하였다가, 도 12의 (b)와 같이 얼굴의 상하 회전 각도가 미리 정해진 기준을 만족한다고 판단하는 경우, 제4 가이드(G4)의 굵기를 보다 굵게 변화하여 출력할 수 있다.
다만, 이는 예시적인 것이며, 안질환 관리 장치(1000)는 얼굴의 상하 회전 각도가 미리 정해진 거리 이내라고 판단하는 경우, 제4 가이드(G4)의 색상을 변화시키는 등 제4 가이드(G4)의 상태를 다양한 방법으로 변화하여 출력할 수 있다.
안질환 관리 장치(1000)는 프리뷰 이미지에 포함되어 있는 얼굴의 주요 부위에 대응되는 영역이 제4 가이드(G4) 내에 위치하는 경우, 상기 프리뷰 이미지를 촬영할 수 있다. 이때, 상기 얼굴의 주요 부위는 눈, 코, 입 등을 포함할 수 있다.
예컨대, 안질환 관리 장치(1000)는 눈에 대응되는 영역, 코에 대응되는 영역 및 입에 대응되는 영역이 제4 가이드(G4) 내에 위치하는 것으로 판단되면, 상기 프리뷰 이미지를 촬영할 수 있다.
한편, 안질환 관리 장치(1000)는 얼굴의 주요 부위가 제4 가이드(G4) 내에 위치하고 있는지 여부에 기초하여 디스플레이를 통해 안내 메시지를 제공하거나 제4 가이드(G4)의 상태를 변화시킬 수 있다.
예를 들어, 안질환 관리 장치(1000)는 얼굴의 주요 부위가 제4 가이드(G4) 내에 위치하지 않는 것으로 판단되면, 디스플레이를 통해 안내 메시지(예를 들어, 촬영 각도, 얼굴의 위치 조정 또는 얼굴과 카메라의 거리 조정을 안내하는 메시지)를 제공할 수 있다.
다른 예로, 안질환 관리 장치(1000)는 엉ㄹ굴의 주요 부위가 제4 가이드(G4) 내에 위치하는 것으로 판단되면, 디스플레이를 통해 제4 가이드(G4)의 상태가 변화(예컨대, 제4 가이드(G4)의 색상 변화 또는 굵기 변화)되도록 출력할 수 있다.
안질환 관리 장치(1000)가 이미지에 기반하여 안질환 분석을 수행하는 경우, 정확도 높은 안질환 분석 결과를 획득하기 위해서는, 사용자가 미소를 짓지 않은 상태 또는 미소를 짓고 있는 정도가 일정 기준 이내인 상태에서 이미지가 촬영되어야 한다.
예컨대, 사용자가 미소를 짓고 있는 경우, 미소를 짓고 있지 않는 경우와 비교하여, 눈의 크기가 작아질 수 있고, 눈의 모양에 왜곡이 생기는 등 변형이 발생될 수 있다. 이러한 상태에서 촬영된 이미지에 기반하여 안질환 분석이 수행되는 경우 부정확한 판단 결과가 도출될 수 있으므로, 사용자의 미소 정도가 기준치를 만족하는지 여부가 판단되어야 한다. 이하에서는, 안질환 관리 장치(1000)가 사용자 얼굴의 미소 정도에 기초하여 이미지를 촬영하는 방법을 설명한다.
안질환 관리 장치(1000)는 이미지 기반으로 얼굴의 미소 정도를 판단할 수 있는 알고리즘을 이용하여, 프리뷰 이미지에 기초하여 얼굴의 미소 정도를 결정할 수 있다. 안질환 관리 장치(1000)는 프리뷰 이미지에 기초하여 결정된 얼굴의 미소 정도가 미리 정해진 기준을 만족하는 것으로 판단되는 경우, 상기 프리뷰 이미지를 촬영할 수 있다. 일 예로, 안질환 관리 장치(1000)는 알고리즘을 통해 사용자가 미소를 짓고 있지 않다고 판단되는 경우, 이미지를 촬영할 수 있다.
또한, 안질환 관리 장치(1000)는 프리뷰 이미지에 기초하여 결정된 얼굴의 미소 정도가 미리 정해진 기준을 초과한다고 판단되는 경우, 표정이 변할 수 있도록 안내하는 메시지를 디스플레이를 통해 제공할 수 있다.
안질환 관리 장치(1000)는 적어도 하나 이상의 판단 단계를 통해 획득된 복수의 프리뷰 이미지 중에서 안질환 예측에 이용되는 이미지를 결정한 후 이를 저장할 수 있다.
복수의 프리뷰 이미지 중에서 안질환 예측에 이용되는 이미지를 결정하기 위해 수행되는 적어도 하나 이상의 판단 단계는, 제1 지표(Index 1)가 제1 가이드(G1)에 매칭되는지 판단하는 제1 단계, 제2 지표(Index 2)가 제2 가이드(G2)에 매칭되는지 판단하는 제2 단계, 얼굴의 좌우 회전 각도가 미리 정해진 기준을 만족하는지 판단하는 제3 단계, 얼굴의 상하 회전 각도가 미리 정해진 기준을 만족하는지 판단하는 제4 단계, 얼굴의 미소 정도가 미리 정해진 기준치를 만족하는지 판단하는 제5 단계를 포함할 수 있다.
안질환 관리 장치(1000)는 획득된 프리뷰 이미지가 제1 단계 내지 제5 단계 중 적어도 하나 이상의 단계에서 수행된 판단 결과를 만족하는 경우, 안질환 예측에 이용될 수 있는 이미지로 결정한 후 이를 저장할 수 있다.
이때, 안질환 관리 장치(1000)는 상기 제1 단계 내지 제5 단계 중 적어도 하나 이상의 단계를 순차적으로 또는 병렬적으로 수행할 수 있다.
일 실시예에 따르면, 상술한 제1 단계, 제2 단계, 제3 단계, 제4 단계 및 제5 단계는 순차적으로 수행될 수 있다. 예를 들어, 안질환 관리 장치(1000)는 획득된 프리뷰 이미지가 제1 단계를 만족하는 경우, 제2 단계를 수행할 수 있고, 제2 단계를 만족하는 경우, 제3 단계를 수행할 수 있고, 제3 단계를 만족하는 경우, 제4 단계를 수행할 수 있으며, 제4 단계를 만족하는 경우, 제5 단계를 수행할 수 있다. 다른 예로, 안질환 관리 장치(1000)는 획득된 프리뷰 이미지가 제1 단계 및 제2 단계를 만족하는 경우, 제3 단계 내지 제5 단계를 순차적으로 수행할 수 있다.
다른 실시예에 따르면, 상술한 제1 단계, 제2 단계, 제3 단계, 제4 단계 및 제5 단계는 병렬적으로 수행될 수 있다. 예를 들어, 안질환 관리 장치(1000)는 획득된 프리뷰 이미지에 대하여 제1 단계 내지 제5 단계를 동시에 수행할 수 있다. 예컨대, 안질환 관리 장치(1000)는 제1 단계를 수행하는 동안 제2 단계를 동시에 수행할 수 있다. 또한, 안질환 관리 장치(1000)는 제1 단계 및 제2 단계를 수행하는 동안 제3 단계 내지 제5 단계 중 적어도 하나의 단계를 동시에 수행할 수 있다.
2 활동성 갑상선 눈병증 관리
안질환의 종류로는 노안, 백내장, 녹내장, 황반 변성, 망막 질환, 안구 건조증 등 다양하다. 안질환의 발생 원인 또한 유전적으로 발생하는 경우, 디지털 기기를 장시간 사용하는 등의 생활 습관에 따라 발생하는 경우, 나이가 들면서 자연스럽게 발생하는 경우 등으로 다양하다.
한편, 안질환은 다른 종류의 질병이 유발하는 다양한 합병증 중 하나일 수 있다. 예컨대, 갑상선 기능 이상으로 인해 유발되는 다양한 합병증 중 하나로 갑상선 눈병증이 있다.
갑상선 눈병증의 증상으로 눈꺼풀의 모양이 변형되거나 안구가 돌출되기도 하는데, 발병 시 그 상태가 완전히 호전되지 않고 일부 영구적으로 남을 수 있다는 점에서 기능적, 미용적으로 큰 문제가 될 수 있다. 또한, 갑상선 눈병증의 진행 정도가 심한 경우, 이를 치료하기 위해 강한 약물 또는 방사선 치료 등이 수반되기 때문에, 각막 손상 등의 시력 손상이 유발될 수도 있다.
이처럼 정신적, 신체적 스트레스를 유발할 수 있는 갑상선 눈병증의 관리를 위하여는, 조기에 갑상선 눈병증이 발생하였는지 여부를 체크하고, 눈병증이 발생한 경우 발생된 안질환의 심각도 및 과거와 비교한 안질환의 진행 정도를 지속적으로 관리함으로써, 필요한 경우 내원하여 치료를 받아야 할 필요가 있다.
이하에서는, 안질환의 하나인 갑상선 눈병증에 대한 관리 방법으로, Clinical Activity Score(CAS)를 통해 간편하고 신속하게 갑상선 눈병증을 진단하는 방법과, 진단 결과를 바탕으로 필요한 경우 내원 안내를 하는 방법에 관하여 설명한다.
한편, 상술한바와 같이 갑상선 눈병증은 갑상선 기능 이상으로 유발되는 다양한 합병증 중 하나로, 이는 갑상선 안병증, 갑상샘 눈병증, 갑상샘 안병증 등과 같이 다양한 용어로도 표현될 수 있다. 또는 혼용될 수 있다.
따라서, 이하에서 설명할 갑상선 눈병증에 대한 관리 방법은 당연히 갑상선 안병증, 갑상샘 눈병증, 또는 갑상샘 안병증 등에 대한 관리 방법으로 해석될 수 있다.
Clinical Activity Score(CAS)는 갑상선 눈병증의 활동성을 수치로 나타낸 것으로, 해당 질병의 활성도(Activity)가 얼마나 심각한지를 보여주는 지표이다. 갑상선 눈병증의 발생 여부 또는 진행 정도 등을 정량화된 CAS 수치로 모니터링 함으로써, 갑상선 눈병증 치료를 위한 내원 안내를 제공하고, 적시에 진료를 받을 수 있도록 할 수 있다. 이 경우, CAS 수치는 눈 통증에 관한 설문에 기초하여 판단된 결과와 이미지에 기초하여 판단된 결과를 통해 산출될 수 있다.
도 13은 CAS 수치에 기반하여 갑상선 눈병증 치료를 위한 안내 방법을 설명하기 위한 순서도이다.
도 13을 참조하면, 활동성 갑상선 눈병증 진료를 위한 내원 안내 방법은, 이미지에 기초하여 복수의 확률 값을 획득하는 단계(S1000), 설문에 대한 응답에 기초하여 복수의 결과 값을 획득하는 단계(S3000), 획득된 복수의 확률 값과 복수의 결과 값에 기초하여 눈병증 예측 스코어를 산출하는 단계(S5000) 및 눈병증 예측 스코어가 기준치 이상인 경우 내원 안내하는 단계(S7000)를 포함할 수 있다.
한편, 도 13에는 눈병증 예측 스코어가 이미지에 기초하여 획득된 복수의 확률 값과 설문에 대한 응답에 기초하여 획득된 복수의 결과 값을 통해 산출되는 것으로 도시 되었지만, 이는 예시적인 것이며, 눈병증 예측 스코어는 이미지에 기초하여 획득된 복수의 확률 값 중 적어도 하나에 기초하여 산출될 수도 있고, 설문에 대한 응답에 기초하여 획득된 복수의 결과 값 중 적어도 하나에 기초하여 산출될 수도 있다.
도 14는 CAS 수치 획득을 위해 요구되는 평가 항목을 예시적으로 설명하기 위한 도면이다. 도 14를 참조하면, CAS 수치는 결막 충혈, 눈꺼풀의 발적, 결막 부종, 눈물언덕의 부종, 눈꺼풀의 부종, 구후부의 자발적인 통증 및 눈을 움직일 때의 통증 중 적어도 하나 이상에 관한, 설문 결과 또는 이미지 분석 결과를 통해 산출될 수 있다. 이하에서는, 상기 CAS 평가 항목에 대하여 이미지에 기초하여 평가하는 방법과 설문에 대한 응답에 기초하여 평가하는 방법을 설명한다.
도 13을 참조하면, 안질환 관리 장치(1000)는 이미지에 기초하여 획득되는 복수의 확률 값을 이용하여 눈병증 예측 스코어를 산출할 수 있고, 산출된 눈병증 예측 스코어가 기준치 이상인 경우 내원 안내를 할 수 있다.
일 실시예에 따른 안질환 관리 장치(1000)는 이미지 기반으로 눈 지표를 평가하여 활동성 갑상선 눈병증 진료를 위한 내원 안내를 수행할 수 있다.
보다 구체적으로, 활동성 갑상선 눈병증 진료를 위한 내원 안내 방법은, 이미지를 획득하고, 획득된 이미지에 기초하여 갑상선 눈병증과 관련된 적어도 하나의 눈 지표 평가를 통해 복수의 확률 값을 획득한 후, 복수의 확률 값에 기초하여 눈병증 예측 스코어를 산출한 다음, 산출된 눈병증 예측 스코어가 미리 정해진 값 이상이면 내원 안내하도록 수행될 수 있다.
한편, 상기 갑상선 눈병증과 관련된 눈 지표는, 도 14를 참조하면, 결막 충혈, 눈꺼풀의 발적, 결막부종, 눈물언덕의 부종, 눈꺼풀의 부종, 구후부의 자발적인 통증 및 눈을 움직일 때의 통증 중 적어도 하나에 관한 지표일 수 있다.
이미지에 기반하여 산출된 눈병증 예측 스코어를 통해 내원 안내를 하는 구체적인 방법에 관하여는 후술하도록 한다.
CAS 수치는 눈 통증에 관한 설문에 기초하여 정해질 수 있다. 즉, 적어도 하나 이상의 항목으로 구성된 설문에 대한 환자의 응답에 기반하여 갑상선 눈병증의 상태를 정량화된 CAS 수치로 나타낼 수 있다.
일 실시예에 따른 안질환 관리 장치(1000)는 눈 통증에 관한 설문에 기반하여 활동성 갑상선 눈병증 진료를 위한 내원 안내를 수행할 수 있다.
도 15는 설문에 대한 환자의 응답에 기반하여 갑상선 눈병증 진료를 위한 내원 안내 방법을 설명하기 위한 도면이다. 도 15를 참조하면, 환자의 응답에 기반하여 갑상선 눈병증 진료를 위한 내원 안내 방법은, 설문 정보 입력 화면을 출력하는 단계(S3100), 설문 정보에 대한 응답을 획득하는 단계(S3300), 복수의 결과 값을 획득하는 단계(S3500) 및 갑상선 눈병증 진료를 위한 내원 안내 단계(S3700)를 포함할 수 있다.
안질환 관리 장치(1000)는 눈 통증에 관한 설문 정보를 입력할 수 있는 화면을 디스플레이를 통해 출력할 수 있다. 이 경우, 상기 눈 통증에 관한 설문 정보는 도 14의 (b)를 참조하면, 상기 설문을 구성하는 항목은 구후부의 자발적인 통증에 관한 항목과 눈을 움직일때의 통증에 관한 항목을 포함할 수 있으나, 이에 한정되는 것은 아니고 다양한 종류의 눈 통증에 관한 항목을 포함할 수 있다.
안질환 관리 장치(1000)는 출력된 설문에 대한 사용자의 응답을 획득한 후, 이에 기초하여 복수의 결과 값을 획득할 수 있다. 이 경우, 상기 설문에 대한 사용자 응답에 기초하여 획득되는 결과 값의 개수는 설문에 포함되어 있는 항목의 개수에 대응될 수 있다. 예를 들어, 설문에 포함된 항목이 2개인 경우, 이에 대한 사용자의 응답에 기초하여 획득되는 결과 값은 2개일 수 있다. 이때, 상기 결과 값은 설문에 대한 사용자의 긍정이 있는 경우 획득되는 값과 사용자의 부정이 있는 경우 획득되는 값 모두를 포함할 수 있다.
일 실시예에 따르면, 상기 결과 값은 디스플레이를 통해 출력되는 설문 항목에 대한 사용자의 응답에 기초하여 결정될 수 있다. 예컨대, 설문 항목에서 제시하고 있는 증상 또는 통증에 대한 사용자의 응답이 긍정인 경우, 결과 값은 '1'이 될 수 있다. 반대로, 설문 항목에서 제시하고 있는 증상 또는 통증에 대한 사용자의 응답이 부정인 경우, 결과 값은 '0'이 될 수 있다.
다른 실시예에 따르면, 디스플레이를 통해 출력되는 설문 항목에 대한 사용자의 긍정 정도에 기초하여 결과 값이 결정될 수 있다. 예를 들어, 설문 항목에서 제시하고 있는 증상 또는 통증에 대하여 사용자는 긍정하거나 부정할 수 있는데, 긍정하는 경우에도 전적으로 긍정하거나 조금 긍정할 수 있고, 부정하는 경우에도 전적으로 부정하거나 조금 부정할 수 있다. 이와 같이, 설문 항목에서 제시하고 있는 증상 또는 통증에 대한 사용자의 긍정 정도에 따라 그 결과 값이 결정될 수 있다.
안질환 관리 장치(1000)는 획득된 상기 복수의 결과 값에 기초하여 눈병증 예측 스코어를 결정할 수 있고, 결정된 눈병증 예측 스코어가 미리 정해진 값 이상이면 내원을 안내할 수 있다.
일 실시예에 따르면, 상술한 결과 값이 '1'인 경우 상기 눈병증 예측 스코어는 카운팅될 수 있고, 결과 값이 '0'인 경우 상기 눈병증 예측 스코어는 카운팅되지 않을 수 있다. 이후, 안질환 관리 장치(1000)는 설문에 대한 응답에 기초하여 카운팅된 눈병증 예측 스코어가 미리 정해진 값 이상이면 내원 안내를 진행할 수 있다.
3 이미지에 기반한 CAS 평가
상술한 바와 같이, 안질환 관리 장치(1000)는 이미지에 기반하여 갑상선 눈병증 진료를 위한 내원 안내를 수행할 수 있다. 이하에서는, 도면을 참조하여 안질환 관리 장치(1000)가 이미지 기반으로 눈 지표를 평가하는 방법에 관하여 설명한다.
도 16은 이미지에 기반하여 갑상선 눈병증 진료를 위한 내원 안내 방법을 설명하기 위한 도면이다. 도 16을 참조하면, 안질환 관리 장치(1000)는 이미지를 획득한 후, 획득된 이미지에 기초한 분석을 통해 갑상선 눈병증 진료를 위한 내원 안내를 수행할 수 있다.
일 실시예에 따르면, 안질환 관리 장치(1000)는 이미지를 획득한 후, 미리 학습된 신경망 모델을 통해 이미지를 분석하여, 갑상선 눈병증 진료를 위한 내원 안내를 수행할 수 있다.
보다 구체적으로, 안질환 관리 장치(1000)는 획득된 이미지에 기초하여 결막 충혈, 눈꺼풀의 발적, 결막 부종, 눈물 언덕의 부종 및 눈꺼풀의 부종 중 적어도 하나의 눈 지표 평가할 수 있는데, 미리 학습된 신경망 모델을 통해 상기 눈 지표를 평가할 수 있다.
상기 신경망 모델은, 학습 이미지에 기초하여 결막 충혈, 눈꺼풀의 발적, 결막 부종, 눈물 언덕의 부종 및 눈꺼풀의 부종 중 적어도 하나의 눈 지표를 평가하도록 학습될 수 있다.
도 17 및 18은 이미지로부터 결막 충혈, 눈꺼풀의 발적, 결막 부종, 눈물 언덕의 부종 및 눈꺼풀의 부종 중 적어도 하나의 눈 지표를 평가하기 위한 신경망 모델을 설명하기 위한 도면이다.
도 17을 참조하면, 안질환 관리 장치(1000)는 좌측 눈이 포함된 이미지 및 우측 눈이 포함된 이미지 중 적어도 하나의 이미지에 기초하여 학습된 하나의 신경망 모델을 이용하여, 좌측 또는 우측 눈이 포함된 이미지로부터 결막 충혈, 눈꺼풀의 발적, 결막 부종, 눈물 언덕의 부종 및 눈꺼풀의 부종 중 적어도 하나의 눈 지표를 평가할 수 있다.
상기 신경망 모델은 좌측 또는 우측 눈이 포함된 이미지로부터, 결막 충혈에 관한 눈 지표를 평가하도록 학습되는 제1 서브 모델, 눈꺼풀의 발적에 관한 눈 지표를 평가하도록 학습되는 제2 서브 모델, 결막 부종에 관한 눈 지표를 평가하도록 학습되는 제3 서브 모델, 눈물 언덕의 부종에 관한 눈 지표를 평가하도록 학습되는 제4 서브 모델 및 눈꺼풀의 부종에 관한 눈 지표를 평가하도록 학습되는 제5 서브 모델을 포함할 수 있다.
상기 제1 서브 모델 내지 제5 서브 모델은 좌측 또는 우측 눈이 포함된 제1 학습 이미지와 라벨링 데이터를 포함하는 학습 데이터를 이용하여 학습될 수 있다. 예를 들어, 상기 제1 서브 모델은 좌측 눈이 포함된 제1 학습 이미지를 이용하여 학습되고, 상기 제2 서브 모델은 우측 눈이 포함된 제1 학습 이미지를 이용하여 학습될 수 있다. 예를 들어, 상기 제1 서브 모델은 좌측 눈이 포함된 제1 학습 이미지를 이용하여 학습되고, 상기 제2 서브 모델은 좌측 눈이 포함된 제1 학습 이미지를 이용하여 학습될 수 있다.
일 예로, 상기 제1 서브 모델 내지 제5 서브 모델에 입력되는 상기 제1 학습 이미지는 공통될 수 있다. 이 경우, 제1 학습 이미지를 이용하여, 제1 서브 모델은 결막 충혈에 관한 눈 지표를 평가하도록 학습될 수 있고, 제2 서브 모델은 눈꺼풀의 발적에 관한 눈 지표를 평가하도록 학습될 수 있고, 제3 서브 모델은 결막 부종에 관한 눈 지표를 평가하도록 학습될 수 있고, 제4 서브 모델은 눈물 언덕의 부종에 관한 눈 지표를 평가하도록 학습될 수 있고, 제5 서브 모델은 눈꺼풀의 부종에 관한 눈 지표를 평가하도록 학습될 수 있다.
보다 구체적으로, 상기 제1 서브 모델은 상기 제1 학습 이미지와 결막 충혈에 대응되는 제1 라벨링 값을 포함하는 학습 데이터를 이용하여 학습될 수 있고, 상기 제2 서브 모델은 상기 제1 학습 이미지와 눈꺼풀의 발적에 대응되는 제2 라벨링 값을 포함하는 학습 데이터를 이용하여 학습될 수 있고, 상기 제3 서브 모델은 상기 제1 학습 이미지와 결막 부종에 대응되는 제3 라벨링 값을 포함하는 학습 데이터를 이용하여 학습될 수 있고, 상기 제4 서브 모델은 상기 제1 학습 이미지와 눈물 언덕의 부종에 대응되는 제4 라벨링 값을 포함하는 학습 데이터를 이용하여 학습될 수 있고, 상기 제5 서브 모델은 상기 제1 학습 이미지와 눈꺼풀의 부종에 대응되는 제5 라벨링 값을 포함하는 학습 데이터를 이용하여 학습될 수 있다.
이후, 신경망 모델은 상기 제1 학습 이미지를 입력받은 후 출력 값을 획득할 수 있고, 신경망 모델은 출력 값과 라벨링 데이터의 차이를 고려하여 산출된 오차 값에 기초하여 상기 신경망 모델을 갱신하는 방법으로 학습될 수 있다. 이때, 상기 출력 값은 상기 제1 라벨링 값에 대응되는 제1 출력 값, 제2 라벨링 값에 대응되는 제2 출력 값, 제3 라벨링 값에 대응되는 제3 출력 값, 제4 라벨링 값에 대응되는 제4 출력 값 및 제5 라벨링 값에 대응되는 제5 출력 값을 포함할 수 있다.
이때, 상기 라벨링 값은 특정 질환의 발생 유무를 나타내는 값과 특정 질환의 발생 정도(예를 들어, 위험도)를 나타내는 값을 포함할 수 있다. 예를 들어, 상기 제1 라벨링 값은 결막 충혈의 발생 유무를 나타내는 값과 결막 충혈의 발생 정도(예를 들어, 위험도)를 나타내는 값을 포함할 수 있고, 상기 제2 라벨링 값은 눈꺼풀의 발적 발생 유무를 나타내는 값과 눈꺼풀의 발적 정도(예를 들어, 위험도)를 나타내는 값을 포함할 수 있고, 상기 제3 라벨링 값은 결막 부종의 발생 유무를 나타내는 값과 결막 부종의 발생 정도(예를 들어, 위험도)를 나타내는 값을 포함할 수 있고, 상기 제4 라벨링 값은 눈물 언덕의 부종 발생 유무를 나타내는 값과 눈물 언덕의 부종 발생 정도(예를 들어, 위험도)를 나타내는 값을 포함할 수 있고, 상기 제5 라벨링 값은 눈꺼풀의 부종 발생 유무를 나타내는 값과 눈꺼풀의 부종 발생 정도(예를 들어, 위험도)를 나타내는 값을 포함할 수 있다.
이에 따라, 신경망 모델은 학습 이미지와 라벨링 데이터를 포함하는 학습 데이터를 이용하여, 특정 질환의 발생 유무를 판단하도록 학습될 수 있고, 또한, 상기 학습 데이터를 이용하여, 특정 질환의 발생 정도(예를 들어, 위험도)를 판단하도록 학습될 수 있다.
다른 예로, 상기 제1 서브 모델 내지 제5 서브 모델에 입력되는 상기 제1 학습 이미지는 서브 모델마다 다른 이미지일 수 있다. 예컨대, 상기 제1 서브 모델의 학습에 이용되는 이미지는 결막 충혈과 관련된 영역을 잘라낸 이미지일 수 있고, 상기 제2 서브 모델의 학습에 이용되는 이미지는 눈꺼풀의 발적과 관련된 영역을 잘라낸 이미지일 수 있고, 제3 서브 모델의 학습에 이용되는 이미지는 결막 부종과 관련된 영역을 잘라낸 이미지일 수 있고, 제4 서브 모델의 학습에 이용되는 이미지는 눈물 언덕의 부종과 관련된 영역을 잘라낸 이미지일 수 있으며, 제5 서브 모델의 학습에 이용되는 이미지는 눈꺼풀의 부종과 관련된 영역을 잘라낸 이미지일 수 있다.
한편, 신경망 모델은 상기 제1 학습 이미지에 포함된 눈의 다른 쪽 눈이 포함된 이미지가 좌우 반전된 제2 학습 이미지와 라벨링 데이터를 포함하는 학습 데이터를 이용하여 학습될 수 있다. 예시적으로, 신경망 모델이 좌측 눈이 포함된 제1 학습 이미지로부터 학습되는 경우, 안질환 관리 장치(1000)는 좌측 눈이 포함된 제1 이미지로부터 결막 충혈, 눈꺼풀의 발적, 결막 부종, 눈물 언덕의 부종 및 눈꺼풀의 부종 중 적어도 하나의 눈 지표를 평가할 수 있고, 안질환 관리 장치(1000)는 우측 눈이 포함된 제2 이미지가 좌우 반전된 이미지로부터 결막 충혈, 눈꺼풀의 발적, 결막 부종, 눈물 언덕의 부종 및 눈꺼풀의 부종 중 적어도 하나의 눈 지표를 평가할 수 있다.
결국, 일 실시예에 따른 진단 장치(1000)는 하나의 모델로 양쪽 눈 모두에 대하여 평가할 수 있는 효과를 제공할 수 있다.
즉, 신경망 모델은 상기 제1 학습 이미지 또는 제2 학습 이미지와 라벨링 데이터를 포함하는 학습 데이터를 이용하여 학습될 수 있으며, 이하에서는 설명의 편의를 위하여 제1 학습 이미지에 기초하여 학습되는 신경망 모델에 관하여 서술하지만, 이는 제2 학습 이미지에 기초하여 학습되는 신경망 모델에도 동일하게 적용될 수 있다.
도 18을 참조하면, 안질환 관리 장치(1000)는 좌측 눈이 포함된 이미지에 기초하여 학습된 제1 신경망 모델 및 우측 눈이 포함된 이미지에 기초하여 학습된 제2 신경망 모델을 이용하여, 이미지로부터 결막 충혈, 눈꺼풀의 발적, 결막 부종, 눈물 언덕의 부종 및 눈꺼풀의 부종 중 적어도 하나의 눈 지표를 평가할 수 있다.
상기 제1 신경망 모델은 좌측 눈이 포함된 이미지로부터 결막 충혈, 눈꺼풀의 발적, 결막 부종, 눈물 언덕의 부종 및 눈꺼풀의 부종 중 적어도 하나의 눈 지표를 평가하도록 학습될 수 있고, 상기 제2 신경망 모델은 우측 눈이 포함된 이미지로부터 결막 충혈, 눈꺼풀의 발적, 결막 부종, 눈물 언덕의 부종 및 눈꺼풀의 부종 중 적어도 하나의 눈 지표를 평가하도록 학습될 수 있다.
상기 제1 신경망 모델은 좌측 눈이 포함된 이미지로부터, 결막 충혈에 관한 눈 지표를 평가하도록 학습되는 제1 서브 모델, 눈꺼풀의 발적에 관한 눈 지표를 평가하도록 학습되는 제2 서브 모델, 결막 부종에 관한 눈 지표를 평가하도록 학습되는 제3 서브 모델, 눈물 언덕의 부종에 관한 눈 지표를 평가하도록 학습되는 제4 서브 모델 및 눈꺼풀의 부종에 관한 눈 지표를 평가하도록 학습되는 제5 서브 모델을 포함할 수 있다.
일 실시예에 따르면, 상기 제1 신경망 모델은 좌측 눈이 포함된 제1 학습이미지와 라벨링 데이터를 포함하는 학습 데이터를 이용하여 학습될 수 있다.
보다 구체적으로, 상기 제1 서브 모델은 상기 제1 학습 이미지와 결막 충혈에 대응되는 제1 라벨링 값을 포함하는 학습 데이터를 이용하여 학습될 수 있고, 상기 제2 서브 모델은 상기 제1 학습 이미지와 눈꺼풀의 발적에 대응되는 제2 라벨링 값을 포함하는 학습 데이터를 이용하여 학습될 수 있고, 상기 제3 서브 모델은 상기 제1 학습 이미지와 결막 부종에 대응되는 제3 라벨링 값을 포함하는 학습 데이터를 이용하여 학습될 수 있고, 상기 제4 서브 모델은 상기 제1 학습 이미지와 눈물 언덕의 부종에 대응되는 제4 라벨링 값을 포함하는 학습 데이터를 이용하여 학습될 수 있고, 상기 제5 서브 모델은 상기 제1 학습 이미지와 눈꺼풀의 부종에 대응되는 제5 라벨링 값을 포함하는 학습 데이터를 이용하여 학습될 수 있다.
상기 제1 신경망 모델은 상기 제1 학습 이미지를 입력받은 후 출력 값을 획득할 수 있다. 이후, 제1 신경망 모델은 출력 값과 라벨링 데이터의 차이를 고려하여 산출된 오차 값에 기초하여 상기 제1 신경망 모델을 갱신하는 방법으로 학습될 수 있다. 이때, 상기 출력 값은 상기 제1 라벨링 값에 대응되는 제1 출력 값, 제2 라벨링 값에 대응되는 제2 출력 값, 제3 라벨링 값에 대응되는 제3 출력 값, 제4 라벨링 값에 대응되는 제4 출력 값 및 제5 라벨링 값에 대응되는 제5 출력 값을 포함할 수 있다.
한편, 상기 제2 신경망 모델은 우측 눈이 포함된 이미지로부터, 결막 충혈에 관한 눈 지표를 평가하도록 학습되는 제6 서브 모델, 눈꺼풀의 발적에 관한 눈 지표를 평가하도록 학습되는 제7 서브 모델, 결막 부종에 관한 눈 지표를 평가하도록 학습되는 제8 서브 모델, 눈물 언덕의 부종에 관한 눈 지표를 평가하도록 학습되는 제9 서브 모델 및 눈꺼풀의 부종에 관한 눈 지표를 평가하도록 학습되는 제10 서브 모델을 포함할 수 있다.
상기 제2 신경망 모델은 우측 눈이 포함된 제2 학습이미지와 라벨링 데이터를 포함하는 학습 데이터를 이용하여 학습될 수 있다.
보다 구체적으로, 상기 제6 서브 모델은 상기 제2 학습 이미지와 결막 충혈에 대응되는 제1 라벨링 값을 포함하는 학습 데이터를 이용하여 학습될 수 있고, 상기 제7 서브 모델은 상기 제2 학습 이미지와 눈꺼풀의 발적에 대응되는 제2 라벨링 값을 포함하는 학습 데이터를 이용하여 학습될 수 있고, 상기 제8 서브 모델은 상기 제2 학습 이미지와 결막 부종에 대응되는 제3 라벨링 값을 포함하는 학습 데이터를 이용하여 학습될 수 있고, 상기 제9 서브 모델은 상기 제2 학습 이미지와 눈물 언덕의 부종에 대응되는 제4 라벨링 값을 포함하는 학습 데이터를 이용하여 학습될 수 있고, 상기 제10 서브 모델은 상기 제2 학습 이미지와 눈꺼풀의 부종에 대응되는 제5 라벨링 값을 포함하는 학습 데이터를 이용하여 학습될 수 있다.
상기 제2 신경망 모델은 상기 제2 학습 이미지를 입력받은 후 출력 값을 획득할 수 있다. 이후, 제2 신경망 모델은 출력 값과 라벨링 데이터의 차이를 고려하여 산출된 오차 값에 기초하여 상기 제2 신경망 모델을 갱신하는 방법으로 학습될 수 있다. 이때, 상기 출력 값은 상기 제6 라벨링 값에 대응되는 제6 출력 값, 제7 라벨링 값에 대응되는 제7 출력 값, 제8 라벨링 값에 대응되는 제8 출력 값, 제9 라벨링 값에 대응되는 제9 출력 값 및 제10 라벨링 값에 대응되는 제10 출력 값을 포함할 수 있다.
도 19는 이미지에 기반하여 갑상선 눈병증 진료를 위한 내원 안내 방법을 설명하기 위한 순서도이다. 도 19를 참조하면, 갑상선 눈병증 진료를 위한 내원 안내 방법은, 이미지를 획득하는 단계(S1100), 획득된 이미지로부터 잘라낸 영역이 포함된 분석 대상 이미지를 획득하는 단계(S1300), 분석 대상 이미지로부터 안질환을 분석하는 단계(S1500), 분석 결과에 기초하여 복수의 확률 값을 획득하는 단계(S1700) 및 복수의 확률 값에 기초하여 갑상선 눈병증 진료를 위한 내원 안내를 하는 단계(S1900)를 포함할 수 있다.
안질환 관리 장치(1000)는 이미지 획득 단계(S1100)로부터 갑상선 눈병증 진료를 위한 내원 안내에 이용되는 이미지를 획득할 수 있다. 이때, 안질환 관리 장치(1000)가 획득하는 이미지는 눈이 포함되도록 촬영된 이미지일 수 있다. 안질환 관리 장치(1000)가 획득하는 이미지는 안질환에 관한 보다 정확한 판단을 위하여, 일정 기준을 만족하도록 촬영된 이미지일 수 있다.
또한, 안질환 관리 장치(1000)가 획득하는 이미지는 눈이 포함되는 이미지의 촬영을 유도하는 가이드가 제공된 상태에서 촬영된 이미지일 수 있다. 예를 들어, 안질환 관리 장치(1000)가 획득하는 이미지는 도 6 내지 도 9를 참조하여 설명한 촬영 가이드가 제공된 상태에서 촬영되어 저장된 이미지일 수 있다.
안질환 관리 장치(1000)는 분석 대상 이미지 획득 단계(S1300)로부터 분석하고자 하는 질병과 관련된 영역이 포함된 분석 대상 이미지를 획득할 수 있다. 이때, 상기 분석하고자 하는 질병과 관련된 영역은 이미지 획득 단계(S1100)로부터 획득된 이미지로부터 잘라낸 영역일 수 있다. 이때, 상기 분석하고자 하는 질병은 결막 충혈, 눈꺼풀의 발적, 결막 부종, 눈물 언덕의 부종 및 눈꺼풀의 부종을 포함할 수 있다.
예시적으로, 상기 분석하고자 하는 질병과 관련된 영역은 공막 영역을 포함할 수 있다. 이 경우, 상기 공막 영역은 각막과 눈꼬리 사이 영역 중 흰자 부위에 대응되는 바깥쪽 공막 영역과 각막과 눈물 언덕 사이 영역 중 흰자 부위에 대응되는 안쪽 공막 영역을 포함할 수 있다. 또한, 상기 바깥쪽 공막 영역은 상단부에 해당하는 제1 영역과 하단부에 해당하는 제2 영역을 포함할 수 있다. 또한, 상기 안쪽 공막 영역은 상단부에 해당하는 제3 영역과 하단부에 해당하는 제4 영역을 포함할 수 있다.
한편, 상술한 바와 같이 안질환 관리 장치(1000)는 적어도 하나 이상의 신경망 모델을 이용하여 이미지로부터 눈 지표를 평가할 수 있는데, 상기 적어도 하나 이상의 신경망 모델 활용하는 분석 대상 이미지는 각각 다른 질병에 관한 영역이 포함된 이미지일 수 있다.
예를 들어, 결막 충혈에 관한 눈 지표를 평가하도록 학습되는 제1 서브 모델은 상기 결막 충혈과 관련된 영역이 포함된 분석 대상 이미지를 활용할 수 있고, 눈꺼풀의 발적에 관한 눈 지표를 평가하도록 학습되는 제2 서브 모델은 상기 눈꺼풀의 발적과 관련된 영역이 포함된 분석 대상 이미지를 활용할 수 있고, 결막 부종에 관한 눈 지표를 평가하도록 학습되는 제3 서브 모델은 상기 결막 부종과 관련된 영역이 포함된 분석 대상 이미지를 활용할 수 있고, 눈물 언덕의 부종에 관한 눈 지표를 평가하도록 학습되는 제4 서브 모델은 상기 눈물 언덕의 부종과 관련된 영역이 포함된 분석 대상 이미지를 활용할 수 있으며, 눈꺼풀의 부종에 관한 눈 지표를 평가하도록 학습되는 제5 서브 모델은 상기 눈꺼풀의 부종과 관련된 영역이 포함된 분석 대상 이미지를 활용할 수 있다.
안질환 관리 장치(1000)는 안질환 분석 단계(S1500)를 통해 분석 대상 이미지로부터 해당 안질환을 분석할 수 있다. 예를 들어, 결막 충혈과 관련된 영역이 포함된 이미지로부터 결막 충혈에 관해 분석할 수 있고, 눈꺼풀의 발적과 관련된 영역이 포함된 이미지로부터 눈꺼풀의 발적에 관해 분석할 수 있고, 결막 부종과 관련된 영역이 포함된 이미지로부터 결막 부종에 관해 분석할 수 있고, 눈물 언덕의 부종과 관련된 영역이 포함된 이미지로부터 눈물 언덕의 부종에 관해 분석할 수 있으며, 눈꺼풀의 부종과 관련된 영역이 포함된 이미지로부터 눈꺼풀의 부종에 관해 분석할 수 있다.
안질환 관리 장치(1000)는 복수의 확률 값 획득 단계(S1700)를 통해 안질환 분석 결과에 기초하여, 해당 안질환에 관한 확률 값을 획득할 수 있다. 예를 들어, 안질환 분석 단계(S1500)에서 제1 지표(예컨대, 결막 충혈, 눈꺼풀의 발적, 결막 부종, 눈물 언덕의 부종 및 눈꺼풀의 부종 중 어느 하나의 지표)에 관한 분석이 수행된 경우, 안질환 관리 장치(1000)는 복수의 확률 값 획득 단계(S1700)를 통해 해당 이미지에 포함된 눈에 상기 제1 지표가 발생되어 있을 확률 값 등을 획득할 수 있다.
안질환 관리 장치(1000)는 갑상선 눈병증 진료를 위한 내원 안내 단계(S1900)를 통해 복수의 확률 값에 기초하여 산출된 스코어가 미리 정해진 값 이상이면 내원 안내를 수행할 수 있다.
이하에서는, 이미지에 기초하여 결막 충혈, 눈꺼풀의 발적, 결막 부종, 눈물 언덕의 부종 및 눈꺼풀의 부종을 분석하는 구체적인 방법에 관하여 개별적으로 설명한다.
일 실시예에 따른 복수의 확률 값을 획득 단계(S1700)는, 결막 충혈을 평가하는 단계를 포함할 수 있다. 상기 결막 충혈을 평가하는 단계는 신경망 모델에 의해 수행될 수 있다. 상기 신경망 모델은 학습 이미지와 결막 충혈에 대응되는 라벨링 값을 포함하는 학습 데이터를 이용하여 학습될 수 있다.
상기 학습 이미지는 좌측 또는 우측 눈이 포함된 제1 공막 이미지일 수 있다. 상기 제1 공막 이미지는 좌측 또는 우측 눈이 포함된 이미지이되, 결막 충혈과 관련된 영역이 포함된 이미지일 수 있다.
상기 제1 공막 이미지는 좌측 또는 우측 눈이 포함된 이미지에서 결막 충혈과 관련된 영역을 잘라낸 이미지일 수 있다. 이때, 결막 충혈과 관련된 영역을 잘라낸 이미지에 기초하여 신경망 모델이 결막 충혈을 분석하는 경우, 분석 결과의 정확도가 더욱 향상될 수 있다.
도 20의 (a)는 결막 충혈을 평가하는 방법을 설명하기 위한 도면이다. 도 20의 (a)를 참조하면, 결막 충혈을 평가하는 단계는, 제1 공막 이미지에 기초하여 학습된 모델을 이용하여 수행될 수 있다.
예시적으로, 상기 제1 공막 영역은, 상술한 제1 영역 및 제2 영역이 포함된 영역일 수 있다. 즉, 도 20의 (a)와 같이, 상기 제1 공막 영역은 좌측 눈에 포함된 제1 공막 영역(L1) 및 우측 눈에 포함된 제1 공막 영역(R1)을 포함할 수 있다.
다른 예로, 상기 제1 공막 영역은 상술한 제1 영역 및 제2 영역과 더불어 이를 둘러싸고 있는 주변 피부 영역이 포함된 영역일 수 있다. 또 다른 예로, 제1 공막 영역은 상술한 제1 영역 및 제2 영역과 더불어 이와 인접해 있는 각막 영역이 포함된 영역일 수 있다.
안질환 관리 장치(1000)는, 결막 충혈을 평가하는 단계를 통해 상기 제1 공막 이미지에 기초하여 상술한 제1 영역 및 제2 영역에 충혈이 발생하였는지 여부 또는 발생 정도가 어떠한지를 판단할 수 있다.
일 실시예에 따르면, 안질환 관리 장치(1000)는 좌측 눈에 포함된 제1 공막 영역(L1) 또는 우측 눈에 포함된 제1 공막 영역(R1)에 기초하여 충혈 발생 여부 또는 발생 정도에 관해 판단할 수 있다. 보다 구체적으로, 안질환 관리 장치(1000)는 좌측 눈에 포함된 제1 공막 영역(L1)에 기초하여, 좌측 눈에 포함된 제1 영역 및 제2 영역에 충혈 발생 여부 또는 발생 정도를 판단할 수 있다. 또한, 안질환 관리 장치(1000)는 우측 눈에 포함된 제1 공막 영역(R1)에 기초하여, 우측 눈에 포함된 제1 영역 및 제2 영역에 충혈이 발생하였는지 여부 또는 발생 정도가 어떠한지를 판단할 수 있다.
다른 실시예에 따르면, 안질환 관리 장치(1000)는 좌측 눈에 포함된 제1 공막 영역(L1)으로부터 판단된 결과와 우측 눈에 포함된 제2 공막 영역(R1)으로부터 판단된 결과를 비교하여 제1 영역 및 제2 영역에 충혈 발생 여부 또는 발생 정도를 판단할 수 있다.
일 실시예에 따른 복수의 확률 값을 획득 단계(S1700)는, 눈꺼풀의 발적을 평가하는 단계를 포함할 수 있다. 상기 눈꺼풀의 발적을 평가하는 단계는 신경망 모델에 의해 수행될 수 있다. 상기 신경망 모델은 학습 이미지와 눈꺼풀의 발적에 대응되는 라벨링 값을 포함하는 학습 데이터를 이용하여 학습될 수 있다.
상기 학습 이미지는 좌측 또는 우측 눈이 포함된 눈꺼풀 이미지일 수 있다. 상기 눈꺼풀 이미지는 좌측 또는 우측 눈이 포함된 이미지이되, 눈꺼풀의 발적과 관련된 영역이 포함된 이미지일 수 있다.
상기 눈꺼풀 이미지는 좌측 또는 우측 눈이 포함된 이미지에서 눈꺼풀의 발적과 관련된 영역을 잘라낸 이미지일 수 있다. 이때, 눈꺼풀의 발적과 관련된 영역을 잘라낸 이미지에 기초하여 신경망 모델이 눈꺼풀의 발적을 분석하는 경우, 분석 결과의 정확도가 더욱 향상될 수 있다.
도 20의 (b)는 눈꺼풀의 발적을 평가하는 방법을 설명하기 위한 도면이다. 도 20의 (b)를 참조하면, 눈꺼풀의 발적을 평가하는 단계는, 눈꺼풀 이미지에 기초하여 학습된 모델을 이용하여 수행될 수 있다.
일 예로, 상기 눈꺼풀 이미지는 눈꺼풀 영역이 포함된 이미지이되, 상기 눈꺼풀 영역은, 도 20의 (b)의 좌측 눈꺼풀 영역(L1) 또는 우측 눈꺼풀 영역(R1)을 포함할 수 있다. 즉, 눈꺼풀의 발적을 평가하는데 활용되는 눈꺼풀 이미지는 좌측 눈꺼풀 영역(L1)이 포함된 눈꺼풀 이미지 또는 우측 눈꺼풀 영역(R1)이 포함된 눈꺼풀 이미지일 수 있고, 또는 좌측 눈꺼풀 영역(L1) 및 우측 눈꺼풀 영역(R1)이 포함된 눈꺼풀 이미지일 수 있다.
다른 예로, 상기 눈꺼풀 이미지는 눈꺼풀 영역이 포함된 이미지이되, 상기 눈꺼풀 영역은, 상기 좌측 눈꺼풀 영역(L1) 또는 우측 눈꺼풀 영역(R1) 외에 미간 또는 콧대 중 적어도 하나에 대응되는 영역이 추가적으로 포함된 이미지일 수 있다. 이때, 상기 미간 또는 콧대 중 적어도 하나에 대응되는 영역은, 도 20의 (b)와 같이, 상기 좌측 눈꺼풀 영역(L1)과 우측 눈꺼풀 영역(R1)의 중간에 위치한 영역(M1)일 수 있다. 즉, 눈꺼풀 발적을 평가하는데 활용되는 눈꺼풀 이미지는 좌측 눈꺼풀 영역(L1) 및 미간 또는 콧대 중 적어도 하나에 대응되는 영역(M1)이 포함된 이미지 또는 우측 눈꺼풀 영역(R1) 및 미간 또는 콧대 중 적어도 하나에 대응되는 영역(M1)이 포함된 이미지일 수 있고, 또는 좌측 눈꺼풀 영역(L1), 우측 눈꺼풀 영역(R1) 및 미간 또는 콧대 중 적어도 하나에 대응되는 영역(M1)이 포함된 이미지일 수 있다.
안질환 관리 장치(1000)는, 눈꺼풀의 발적을 평가하는 단계를 통해, 상기 눈꺼풀 이미지에 기초하여 눈꺼풀에 발적이 있는지 여부 또는 발적 정도를 판단할 수 있다. 보다 구체적으로, 안질환 관리 장치(1000)는 상기 눈꺼풀 이미지에 포함된 눈꺼풀 영역과 미간 또는 콧대 중 적어도 하나에 대응되는 영역의 피부색의 비교를 통해, 눈꺼풀 발적 여부 또는 발적 정도를 판단할 수 있다.
일 실시예에 따르면, 안질환 관리 장치(1000)는 좌측 눈꺼풀 영역(L1) 및 우측 눈꺼풀 영역(R1) 중 적어도 하나의 피부색에 기초하여 눈꺼풀의 발적 여부 또는 발적 정도를 판단할 수 있다.
예를 들어, 안질환 관리 장치(1000)는 좌측 눈꺼풀 영역(L1) 및 우측 눈꺼풀 영역(R1) 중 적어도 하나의 영역에 관한 색상 정보를 획득한 후, 획득된 색상 정보가 미리 정해진 기준을 만족하는지에 기초하여 눈꺼풀의 발적 여부 또는 발적 정도를 판단할 수 있다.
다른 예로, 안질환 관리 장치(1000)는 좌측 눈꺼풀 영역(L1) 및 우측 눈꺼풀 영역(R1) 중 적어도 하나의 영역에 관한 색상 정보를 획득한 후, 획득된 색상 정보를 미리 정한 대표 색상 코드와 비교하여 눈꺼풀의 발적 여부 또는 발적 정도를 판단할 수 있다.
다른 실시예에 따르면, 안질환 관리 장치(1000)는 좌측 눈꺼풀 영역(L1) 및 우측 눈꺼풀 영역(R1) 중 적어도 하나의 피부색과 미간 또는 콧대 중 적어도 하나에 대응되는 영역(M1)의 피부색에 기초하여 눈꺼풀의 발적 여부 또는 발적 정도를 판단할 수 있다.
예를 들어, 안질환 관리 장치(1000)는 좌측 눈꺼풀 영역(L1)과 미간 또는 콧대 중 적어도 하나에 대응되는 영역(M1)의 피부색을 비교하여, 눈꺼풀 발적 여부 또는 발적 정도를 판단할 수 있다. 또한, 안질환 관리 장치(1000)는 우측 눈꺼풀 영역(R1)과 미간 또는 콧대 중 적어도 하나에 대응되는 영역(M1)의 피부색을 비교하여, 눈꺼풀 발적 여부 또는 발적 정도를 판단할 수 있다.
다른 예로, 안질환 관리 장치(1000)는 좌측 눈꺼풀 영역(L1)과 미간 또는 콧대 중 적어도 하나에 대응되는 영역(M1)의 피부색을 비교한 결과와 우측 눈꺼풀 영역(R1)과 미간 또는 콧대 중 적어도 하나에 대응되는 영역(M1)의 피부색을 비교한 결과를 비교하여, 눈꺼풀 발적 여부 또는 발적 정도를 판단할 수 있다.
일 실시예에 따른 복수의 확률 값을 획득하는 단계(S1700)는, 결막 부종을 평가하는 단계를 포함할 수 있다. 상기 결막 부종을 평가하는 단계는 신경망 모델에 의해 수행될 수 있다. 상기 신경망 모델은 학습 이미지와 결막 부종에 대응되는 라벨링 값을 포함하는 학습 데이터를 이용하여 학습될 수 있다.
상기 학습 이미지는 좌측 또는 우측 눈이 포함된 제2 공막 이미지일 수 있다. 상기 제2 공막 이미지는 좌측 또는 우측 눈이 포함된 이미지이되, 결막 부종과 관련된 영역이 포함된 이미지일 수 있다.
상기 제2 공막 이미지는 좌측 또는 우측 눈이 포함된 이미지에서 결막 부종과 관련된 영역을 잘라낸 이미지일 수 있다. 이때, 결막 부종과 관련된 영역을 잘라낸 이미지에 기초하여 신경망 모델이 결막 부종을 분석하는 경우, 분석 결과의 정확도가 더욱 향상될 수 있다.
도 21의 (a)는 결막 부종을 평가하는 방법을 설명하기 위한 도면이다. 도 21의 (a)를 참조하면, 결막 부종을 평가하는 단계는, 제2 공막 이미지에 기초하여 학습된 모델을 이용하여 수행될 수 있다.
이 경우, 상기 제2 공막 영역은, 예시적으로, 상술한 제2 영역이 포함된 영역일 수 있다. 도 21의 (a)를 참조하면, 상기 제2 공막 영역은 좌측 눈에 포함된 제2 공막 영역(L1) 및 우측 눈에 포함된 제2 공막 영역(R1)를 포함할 수 있다. 다른 예로, 상기 제2 공막 영역은 상술한 제2 영역과 이를 둘러싸고 있는 주변 피부 영역이 포함된 영역일 수 있다. 또 다른 예로, 제2 공막 영역은 상술한 제2 영역 및 상기 제2 영역과 인접해 있는 각막 영역이 포함된 영역일 수 있다.
안질환 관리 장치(1000)는, 결막 부종을 평가하는 단계를 통해 상기 제2 공막 이미지에 기초하여 상술한 제2 영역에 결막 부종이 발생하였는지 여부 또는 발생 정도가 어떠한지를 판단할 수 있다.
일 실시예에 따르면, 안질환 관리 장치(1000)는 좌측 눈에 포함된 제2 공막 영역(L1) 또는 우측 눈에 포함된 제2 공막 영역(R1)에 황색(또는 갈색)을 포함하는 막이 있는지를 분석하여 결막 부종 발생 여부 또는 발생 정도에 관해 판단할 수 있다. 보다 구체적으로, 안질환 관리 장치(1000)는 좌측 눈에 포함된 제2 공막 영역(L1)에 기초하여, 좌측 눈에 포함된 제2 영역에 결막 부종 발생 여부 또는 발생 정도를 판단할 수 있다. 또한, 안질환 관리 장치(1000)는 우측 눈에 포함된 제2 공막 영역(R1)에 기초하여, 우측 눈에 포함된 제2 영역에 결막 부종 발생 여부 또는 발생 정도를 판단할 수 있다.
다른 실시예에 따르면, 안질환 관리 장치(1000)는 좌측 눈에 포함된 제2 공막 영역(L1)으로부터 판단된 결과와 우측 눈에 포함된 제2 공막 영역(R1)으로부터 판단된 결과를 비교하여 제2 영역에 결막 부종 발생 여부 또는 발생 정도를 판단할 수 있다.
일 실시예에 따른 복수의 확률 값을 획득하는 단계(S1700)는, 눈물 언덕의 부종을 평가하는 단계를 포함할 수 있다. 상기 눈물 언덕의 부종을 평가하는 단계는 신경망 모델에 의해 수행될 수 있다. 상기 신경망 모델은 학습 이미지와 눈물 언덕의 부종에 대응되는 라벨링 값을 포함하는 학습 데이터를 이용하여 학습될 수 있다.
상기 학습 이미지는 좌측 또는 우측 눈이 포함된 눈물 언덕 이미지일 수 있다. 상기 눈물 언덕 이미지는 좌측 또는 우측 눈이 포함된 이미지이되, 눈물 언덕의 부종과 관련된 영역이 포함된 이미지일 수 있다.
상기 눈물 언덕 이미지는 좌측 또는 우측 눈이 포함된 이미지에서 눈물 언덕의 부종과 관련된 영역을 잘라낸 이미지일 수 있다. 이때, 눈물 언덕의 부종과 관련된 영역을 잘라낸 이미지에 기초하여 신경망 모델이 눈물 언덕의 부종을 분석하는 경우, 분석 결과의 정확도가 더욱 향상될 수 있다.
도 21의 (b)는 눈물 언덕의 부종을 평가하는 방법을 설명하기 위한 도면이다. 도 21의 (b)를 참조하면, 눈물 언덕의 부종을 평가하는 단계는, 눈물 언덕 이미지에 기초하여 학습된 모델을 이용하여 수행될 수 있다. 상기 눈물 언덕 이미지는, 이미지 획득 단계(S1100)로부터 획득된 이미지에서 잘라낸 눈물 언덕 영역이 포함된 이미지일 수 있다. 예시적으로, 도 21의 (b)를 참조하면, 상기 눈물 언덕 영역은 좌측 눈물 언덕 영역(L1) 및 우측 눈물 언덕 영역(R1)을 포함할 수 있다.
또한, 상기 눈물 언덕 이미지는, 이미지 획득 단계(S1100)로부터 획득된 이미지에서 눈물 언덕 영역을 둘러싸고 있는 주변 피부 영역이 포함된 이미지일 수 있다.
안질환 관리 장치(1000)는, 눈물 언덕의 부종을 평가하는 단계를 통해 상기 눈물 언덕 이미지에 기초하여 눈물 언덕에 부종이 발생하였는지 또는 발생 정도가 어떠한지를 판단할 수 있다.
일 실시예에 따르면, 안질환 관리 장치(1000)는 좌측 눈물 언덕 영역(L1) 또는 우측 눈물 언덕 영역(R1)에 기초하여 눈물 언덕에 부종이 발생하였는지 또는 발생 정도가 어떠한지를 판단할 수 있다. 보다 구체적으로, 안질환 관리 장치(1000)는 좌측 눈물 언덕 영역(L1)에 기초하여, 좌측 눈물 언덕에 부종 발생 여부 또는 발생 정도를 판단할 수 있다. 또한, 안질환 관리 장치(1000)는 우측 눈물 언덕 영역(R1)에 기초하여, 우측 눈물 언덕에 부종 발생 여부 또는 발생 정도를 판단할 수 있다.
다른 실시예에 따르면, 안질환 관리 장치(1000)는 좌측 눈물 언덕 영역(L1)으로부터 판단된 결과와 우측 눈물 언덕 영역(R1)으로부터 판단된 결과를 비교하여 눈물 언덕 영역에 부종 발생 여부 또는 발생 정도를 판단할 수 있다.
일 실시예에 따른 복수의 확률 값을 획득하는 단계(S1700)는, 눈꺼풀의 부종을 평가하는 단계를 포함할 수 있다. 상기 눈꺼풀의 부종을 평가하는 단계는 신경망 모델에 의해 수행될 수 있다. 상기 신경망 모델은 학습 이미지와 눈꺼풀의 부종에 대응되는 라벨링 값을 포함하는 학습 데이터를 이용하여 학습될 수 있다.
상기 학습 이미지는 좌측 또는 우측 눈이 포함된 눈꺼풀 이미지일 수 있다. 상기 눈꺼풀 이미지는 좌측 또는 우측 눈이 포함된 이미지이되, 눈꺼풀의 부종과 관련된 영역이 포함된 이미지일 수 있다.
예를 들어, 상기 눈꺼풀 이미지는 좌측 또는 우측 눈이 포함된 이미지에서 눈꺼풀의 부종과 관련된 영역을 잘라낸 이미지일 수 있다. 이때, 눈꺼풀의 부종과 관련된 영역을 잘라낸 이미지에 기초하여 신경망 모델이 눈꺼풀의 부종을 분석하는 경우, 분석 결과의 정확도가 더욱 향상될 수 있다.
도 22는 눈꺼풀의 부종을 평가하는 방법을 설명하기 위한 도면이다. 도 22를 참조하면, 눈꺼풀의 부종을 평가하는 단계는, 눈꺼풀 이미지에 기초하여 학습된 모델을 이용하여 수행될 수 있다. 상기 눈꺼풀 이미지는, 이미지 획득 단계(S1100)로부터 획득된 이미지에서 잘라낸 눈꺼풀 영역 또는 눈꺼풀 주변부 영역이 포함된 이미지일 수 있다. 이때, 상기 눈꺼풀 주변부 영역은 상기 획득된 이미지에서 잘라낸 두 눈의 바깥쪽에 대응되는 영역일 수 있다.
예를 들어, 도 22의 (a)를 참조하면, 상기 눈꺼풀 영역은 좌측 눈꺼풀 영역(L1) 및 우측 눈꺼풀 영역(R1)을 포함할 수 있다. 또한, 상기 눈꺼풀 주변부 영역은 좌측 눈꺼풀 주변부 영역(L2) 및 우측 눈꺼풀 주변부 영역(R2)를 포함할 수 있다.
안질환 관리 장치(1000)는, 눈꺼풀의 부종을 평가하는 단계를 통해 상기 눈꺼풀 이미지에 기초하여 눈꺼풀에 부종이 발생하였는지 또는 발생 정도가 어떠한지를 판단할 수 있다. 보다 구체적으로, 안질환 관리 장치(1000)는 상기 눈꺼풀 영역이 볼록한지를 분석하거나 상기 눈꺼풀 주변부 영역에 그림자가 생기는지를 분석하여 눈꺼풀 부종 발생 여부 또는 발생 정도를 판단할 수 있다.
일 실시예에 따르면, 안질환 관리 장치(1000)는 좌측 눈꺼풀 영역(L1) 또는 우측 눈꺼풀 영역(R1)에 기초하여 눈꺼풀 부종 발생 여부 또는 발생 정도를 판단할 수 있다. 보다 구체적으로, 안질환 관리 장치(1000)는 좌측 눈꺼풀 영역(L1)의 볼록한 정도에 기초하여 좌측 눈꺼풀에 부종이 발생하였는지 등을 판단할 수 있다. 또한, 안질환 관리 장치(1000)는 우측 눈꺼풀 영역(R1)의 볼록한 정도에 기초하여 우측 눈꺼풀에 부종이 발생하였는지 등을 판단할 수 있다.
또한, 안질환 관리 장치(1000)는 좌측 눈꺼풀 주변부 영역(L2) 또는 우측 눈꺼풀 주변부 영역(R2)에 기초하여 눈꺼풀 부종 발생 여부 또는 발생 정도를 판단할 수 있다. 보다 구체적으로, 안질환 관리 장치(1000)는 좌측 눈꺼풀 주변부 영역(L2)에 그림자가 생겼는지에 기초하여 좌측 눈꺼풀에 부종이 발생하였는지 등을 판단할 수 있다. 또한, 안질환 관리 장치(1000)는 우측 눈꺼풀 주변부 영역(R2)에 그림자가 생겼는지에 기초하여 우측 눈꺼풀에 부종이 발생하였는지 등을 판단할 수 있다.
또한, 안질환 관리 장치(1000)는 좌측 눈꺼풀 영역(L1)의 볼록한 정도 및 좌측 눈꺼풀 주변부 영역(L2)의 그림자 발생 여부에 기초하여 좌측 눈꺼풀에 부종이 발생하였는지 등을 판단할 수 있다. 또한, 안질환 관리 장치(1000)는 우측 눈꺼풀 영역(R1)의 볼록한 정도 및 우측 눈꺼풀 주변부 영역(R2)의 그림자 발생 여부에 기초하여 우측 눈꺼풀에 부종이 발생하였는지 등을 판단할 수 있다.
다른 실시예에 따르면, 안질환 관리 장치(1000)는 좌측 눈꺼풀 영역(L1) 및 좌측 눈꺼풀 주변부 영역(L2)으로부터 판단된 결과와 우측 눈꺼풀 영역(R1) 및 우측 눈꺼풀 주변부 영역(R2)으로부터 판단된 결과를 비교하여 눈꺼풀 영역에 부종이 발생하였는지 여부 또는 발생 정도를 판단할 수 있다.
한편, 도 22의 (b)를 참조하면, 안질환 관리 장치(1000)는 좌측 눈의 MRD1 값과 우측 눈의 MRD1 값의 비교를 통해 눈꺼풀 부종 발생 여부 또는 발생 정도를 판단할 수 있다. 여기서, 상기 MRD1(Margin Reflex Distance 1) 값은 눈동자 영역의 중심점 예컨대, 눈에 빛을 비추었을 때 눈동자 한가운데 맺히는 빛의 반사점과 윗 눈꺼풀의 가장자리까지의 거리를 의미한다.
보다 구체적으로, 안질환 관리 장치(1000)는 좌측 눈의 MRD1 값과 우측 눈의 MRD1 값의 차이가 미리 정해진 기준치 이상인 경우, 눈꺼풀 부종이 의심된다고 판단할 수 있다.
상술한 복수의 지표(예컨대, 결막 충혈, 눈꺼풀의 발적, 결막 부종, 눈물 언덕의 부종, 눈꺼풀의 부종) 중에서, 결막 충혈, 눈꺼풀의 발적, 결막 부종 및 눈물 언덕의 부종에 대한 분석을 진행하도록 모델을 설계하였다.
결막 충혈에 대한 분석을 진행하도록 학습된 모델은, 좌측(또는 우측) 눈과 눈썹이 포함되어 있는 학습 이미지 및 결막 충혈에 대응되는 라벨링 값을 포함하는 학습 데이터를 이용하여 학습되었다. 눈꺼풀의 발적에 대한 분석을 진행하도록 학습된 모델은, 좌측(또는 우측) 눈과 눈썹이 포함되어 있는 학습 이미지 및 눈꺼풀의 발적에 대응되는 라벨링 값을 포함하는 학습 데이터를 이용하여 학습되었다. 결막 부종에 대한 분석을 진행하도록 학습된 모델은, 좌측(또는 우측) 눈과 눈썹이 포함되어 있는 학습 이미지 및 결막 부종에 대응되는 라벨링 값을 포함하는 학습 데이터를 이용하여 학습되었다. 눈물 언덕의 부종에 대한 분석을 진행하도록 학습된 모델은, 좌측(또는 우측) 눈과 눈썹이 포함되어 있는 학습 이미지 및 눈물 언덕의 부종에 대응되는 라벨링 값을 포함하는 학습 데이터를 이용하여 학습되었다.
표 1을 참고하면, 학습된 모델을 통해 분석한 결과, 결막 충혈에 대해서는 67%의 정확도, 56%의 민감도 및 74%의 특이도를 보였고, 눈꺼풀의 발적에 대해서는 72%의 정확도, 51%의 민감도 및 80%의 특이도를 보였고, 결막 부종에 대해서는 93%의 정확도, 16%의 민감도 및 98%의 특이도를 보였고, 눈물 언덕의 부종에 대해서는 94%의 정확도, 22%의 민감도, 98%의 특이도를 보였다.
결막 충혈 눈꺼풀의 발적 결막 부종 눈물 언덕의 부종
정확도 67% 72% 93% 94%
민감도 56% 51% 16% 22%
특이도 74% 80% 98% 98%
따라서 좌측 또는 우측 눈이 포함된 이미지를 이용하여 안질환 분석이 가능함을 확인하였다.
신경망 모델의 분석 결과의 신뢰도를 더욱 향상시키고, 신경망 모델을 학습시키는 학습 시간을 단축하기 위하여, 좌측 또는 우측 눈이 포함된 이미지로부터 특정 영역을 포함하도록 잘라낸 이미지에 기초하여 상술한 복수의 지표(예컨대, 결막 충혈, 눈꺼풀의 발적, 결막 부종, 눈물 언덕의 부종, 눈꺼풀의 부종) 중에서, 결막 충혈, 눈꺼풀의 발적, 결막 부종 및 눈물 언덕의 부종에 대한 분석을 진행하도록 모델을 설계하였다.
결막 충혈에 대한 분석을 진행하도록 학습된 모델은, 결막 충혈과 관련된 영역이 포함되도록 잘라낸 학습 이미지 및 결막 충혈에 대응되는 라벨링 값을 포함하는 학습 데이터를 이용하여 학습되었다. 이때, 상기 학습 이미지는 좌측(또는 우측) 눈이 포함된 이미지에서 결막 충혈이 생기는 바깥쪽 안구 흰자 부위가 포함되도록 잘라낸 이미지일 수 있다.
눈꺼풀의 부종에 대한 분석을 진행하도록 학습된 모델은, 눈꺼풀의 부종과 관련된 영역이 포함되도록 잘라낸 학습 이미지 및 눈꺼풀의 부종에 대응되는 라벨링 값을 포함하는 학습 데이터를 이용하여 학습되었다. 이때, 상기 학습 이미지는 좌측(또는 우측) 눈이 포함된 이미지에서 눈꺼풀의 피부 색상과 비교할 수 있는 미간 부위에 대응되는 영역이 포함된 이미지일 수 있다.
결막 부종에 대한 분석을 진행하도록 학습된 모델은, 결막 부종과 관련된 영역이 포함되도록 잘라낸 학습 이미지 및 결막 부종에 대응되는 라벨링 값을 포함하는 학습 데이터를 이용하여 학습되었다. 이때, 상기 학습 이미지는 좌측(또는 우측) 눈이 포함된 이미지에서 결막 부종이 생기는 바깥쪽 안구 흰자 부위가 포함되도록 잘라낸 이미지일 수 있다.
눈물 언덕의 부종에 대한 분석을 진행하도록 학습된 모델은, 눈물 언덕의 부종과 관련된 영역이 포함되도록 잘라낸 학습 이미지 및 눈물 언덕의 부종에 대응되는 라벨링 값을 포함하는 학습 데이터를 이용하여 학습되었다. 이때, 상기 학습 이미지는 좌측(또는 우측) 눈이 포함된 이미지에서 눈물 언덕 부위가 포함되도록 잘라낸 이미지일 수 있다.
표 2를 참고하면, 학습된 모델을 통해 분석한 결과, 결막 충혈에 대해서는 71%의 정확도, 70%의 민감도 및 73%의 특이도를 보였고, 눈꺼풀의 발적에 대해서는 73%의 정확도, 51%의 민감도 및 81%의 특이도를 보였고, 결막 부종에 대해서는 92%의 정확도, 37%의 민감도 및 95%의 특이도를 보였고, 눈물 언덕의 부종에 대해서는 95%의 정확도, 41%의 민감도, 98%의 특이도를 보였다.
결막 충혈 눈꺼풀의 발적 결막 부종 눈물 언덕의 부종
정확도 71% 73% 92% 95%
민감도 71% 51% 49% 56%
특이도 71% 81% 95% 97%
따라서, 좌측 또는 우측 눈이 포함된 이미지로부터 특정 영역이 포함되도록 잘라낸 이미지를 이용하여 안질환 분석이 가능하고, 그 결과 민감도가 특히 향상되었음을 확인하였다.
한편, 신경망 모델을 통하여 분석하는 경우, 상술한바와 같이 특정 지표(예컨대, 결막 충혈, 눈꺼풀의 발적, 결막 부종, 눈물 언덕의 부종 등)를 평가하는 성능이 개선될 수 있는 것과 더불어, 특정 지표의 평가를 통한 CAS 예측 성능이 개선될 수 있다.
보다 구체적으로, 이미지 분석을 통해 산출된 CAS 값이 기준치 이상이면 내원 안내가 필요한 경우에 해당할 수 있는데, 의사의 검진을 통해 산출된 CAS 값이 기준치 이상일 경우(즉, 해당 질병이 양성이라고 판단된 경우)와 비교하였을때, 신경망 모델을 통해 산출된 CAS 값이 상기 기준치 이상이라고 판단된 결과는 83%의 정확도, 72%의 민감도, 87%의 특이도를 보였다. 또한, 의사의 검진을 통해 산출된 CAS 값과 신경망 모델을 통해 산출된 CAS 값의 차이가 1점 이내일 확률은 88%로 나타났다.
일 실시예에 따른 안질환 관리 장치(1000)는 과거에 촬영된 이미지와 현재 촬영된 이미지를 비교하여 판단된 결과를 통해 갑상선 눈병증 진료를 위한 내원 안내를 수행할 수 있다. 이 경우, 상기 과거에 촬영된 이미지는 정상 상태에서 촬영된 이미지를 포함할 수 있다.
즉, 안질환 관리 장치(1000)는 과거 시점에 촬영된 이미지에 기초하여 안질환을 판단함으로써, 과거와 비교해 현재 안질환의 진행 상태 등에 대해서도 판단할 수 있다. 또한, 안질환 관리 장치(1000)는 정상일 때 촬영된 이미지에 기초하여 안질환을 판단함으로써, 현재 촬영된 이미지만으로 판단하는 것과 비교하여 보다 정확한 판단 결과를 획득할 수 있다.
예시적으로, 안질환 관리 장치(1000)는 제1 시점에 촬영된 제1 이미지에 기초한 분석 결과와 상기 제1 시점보다 과거 시점인 제2 시점에 촬영된 제2 이미지에 기초한 분석 결과의 비교를 통해 내원 안내를 위한 스코어를 카운팅할 수 있다.
다른 예로, 안질환 관리 장치(1000)는 제1 시점에 촬영된 제1 이미지와 상기 제1 시점보다 과거 시점인 제2 시점에 촬영된 제2 이미지를 비교하여 분석한 결과를 통해 내원 안내를 위한 스코어를 카운팅할 수 있다.
4 스코어(CAS) 계산
도 13을 참조하여 상술한바와 같이, 안질환 관리 장치(1000)는 이미지에 기초하여 획득된 복수의 확률 값과 설문에 대한 응답에 기초하여 획득된 복수의 결과 값을 통해 눈병증 예측 스코어를 산출할 수 있으며, 산출된 눈병증 예측 스코어가 기준치 이상인 경우 내원 안내를 할 수 있다. 이하에서는, 도면을 참조하여, 눈병증 예측 스코어를 산출하는 방법에 관하여 설명한다.
도 23은 일 실시예에 따른 눈병증 예측 스코어를 산출하는 방법을 설명하기 위한 도면이다. 도 23을 참조하면, 눈병증 예측 스코어는 이미지 기반으로 획득된 복수의 확률 값과 설문에 대한 응답 기반으로 획득된 복수의 결과 값을 통해 산출될 수 있다. 보다 구체적으로, 눈병증 예측 스코어는 이미지 기반으로 획득된 복수의 확률 값과 설문에 대한 응답 기반으로 획득된 복수의 결과 값 중 미리 정해진 기준치를 만족하는 확률 값 및 결과 값의 개수만큼 카운팅될 수 있다.
안질환 관리 장치(1000)는 이미지에 기초하여 제1 지표(결막 충혈, 눈꺼풀의 발적, 결막부종, 눈물언덕의 부종, 눈꺼풀의 부종 중 어느 하나)를 평가하는 경우 제1 확률 값을 획득할 수 있다. 이 경우, 상기 제1 확률 값이 미리 정해진 기준을 만족하는 경우 눈병증 예측 스코어는 카운팅될 수 있다.
안질환 관리 장치(1000)는 제1 설문(구후부의 자발적인 통증에 관한 설문 또는 눈을 움직일때의 통증에 관한 설문)에 대한 사용자의 응답에 기초하여 제1 결과 값을 획득할 수 있고, 제1 결과 값은 제1 설문에 대한 사용자의 동의가 있는 경우 '1'일 수 있고, 동의가 없는 경우 '0'일 수 있다. 이 경우, 상기 제1 결과 값이 미리 정해진 기준(예컨대, '1')인 경우 눈병증 예측 스코어는 카운팅될 수 있다.
일 예로, 안질환 관리 장치(1000)는 이미지에 기초하여 결막 충혈을 평가하여 제1 확률 값, 눈꺼풀의 발적을 평가하여 제2 확률 값, 결막 부종을 평가하여 제3 확률 값, 눈물 언덕의 부종을 평가하여 제4 확률 값, 눈꺼풀의 부종을 평가하여 제5 확률 값을 획득할 수 있고, 구후부의 자발적인 통증에 관한 설문에 대한 응답에 기초하여 제1 결과 값을 획득할 수 있으며, 눈을 움직일때의 통증에 관한 설문에 대한 응답에 기초하여 제2 결과 값을 획득할 수 있다.
이 경우, 예시적으로, 상기 제1 확률 값 내지 제5 확률 값, 제1 결과 값 및 제2 결과 값 중 미리 정해진 기준치를 만족하는 만족하는 확률 값 및 결과 값이 3개인 경우, 상기 눈병증 예측 스코어는 3일 수 있다.
보다 구체적인 예로, 상기 제1 확률 값 내지 제5 확률 값, 제1 결과 값 및 제2 결과 값 중 제1 확률 값, 제2 확률 값 및 제2 결과 값이 미리 정해진 기준치를 만족하는 경우, 상기 눈병증 예측 스코어는 3일 수 있다.
한편, 이미지 기반으로 획득된 확률 값은 결막 충혈, 눈꺼풀의 발적, 결막부종, 눈물언덕의 부종 및 눈꺼풀의 부종 각각에 관한 5개일 수 있고, 설문에 대한 응답 기반으로 획득된 결과 값은 구후부의 자발적 통증에 관한 설문 및 눈을 움직일때의 통증에 관한 설문 각각의 응답에 관한 2개일 수 있다. 이 경우, 이미지 기반으로 획득된 확률 값과 설문에 대한 응답 기반으로 획득된 결과 값에 기초하여 카운팅되는 눈병증 예측 스코어는 최소 0에서 최대 5일 수 있다.
도 24는 일 실시예에 따른 눈병증 예측 스코어를 산출하는 방법을 설명하기 위한 도면이다. 도 24를 참조하면, 눈병증 예측 스코어는 이미지 기반으로 획득된 복수의 확률 값을 통해 결정된 제1 스코어 및 설문에 대한 응답 기반으로 획득된 복수의 결과 값을 통해 결정된 제2 스코어를 더하여 산출될 수 있다.
도 25 내지 도 27는 이미지 기반으로 획득된 복수의 확률 값을 통해 눈병증 예측 스코어 산출 방법을 설명하기 위한 도면이다.
일 실시예에 따르면, 상기 제1 스코어는 좌측 눈이 포함된 이미지 또는 우측 눈이 포함된 이미지 중 어느 하나에 기초하여 획득된 복수의 확률 값을 통해 결정될 수 있다.
예를 들어, 도 25의 (a)를 참조하면, 상기 제1 스코어는 좌측 눈이 포함된 이미지에 기초하여 결막 충혈, 눈꺼풀의 발적, 결막부종, 눈물언덕의 부종, 눈꺼풀의 부종 중 적어도 하나에 관한 지표를 평가하여 획득된 하나 이상의 확률 값을 통해 결정될 수 있다. 또한, 도 25의 (b)를 참조하면, 상기 제1 스코어는 우측 눈이 포함된 이미지에 기초하여 결막 충혈, 눈꺼풀의 발적, 결막부종, 눈물언덕의 부종, 눈꺼풀의 부종 중 적어도 하나에 관한 지표를 평가하여 획득된 하나 이상의 확률 값을 통해 결정될 수 있다.
다른 실시예에 따르면, 상기 제1 스코어는 좌측 눈이 포함된 이미지를 분석한 결과와 우측 눈이 포함된 이미지를 분석한 결과의 비교를 통해 결정될 수 있다.
예를 들어, 도 26를 참조하면, 상기 제1 스코어는 좌측 눈이 포함된 이미지에 기초하여 결막 충혈, 눈꺼풀의 발적, 결막부종, 눈물언덕의 부종, 눈꺼풀의 부종 중 적어도 하나에 관한 지표를 평가하여 획득된 제1 판단 결과와 우측 눈이 포함된 이미지에 기초하여 결막 충혈, 눈꺼풀의 발적, 결막부종, 눈물언덕의 부종, 눈꺼풀의 부종 중 적어도 하나에 관한 지표하여 획득된 제2 판단 결과의 비교를 통해 결정될 수 있다.
보다 구체적인 예로, 도 27을 참조하면, 안질환 관리 장치(1000)는 좌측 눈이 포함된 이미지에 기초하여 결막 충혈에 관한 지표를 평가하여 제1 판단 결과를 획득할 수 있고, 우측 눈이 포함된 이미지에 기초하여 결막 충혈에 관한 지표를 평가하여 제2 판단 결과를 획득할 수 있다. 이때, 상기 제1 판단 결과는 좌측 눈에 결막 충혈이 발생된 경우 '1'이라는 값을 가질 수 있고, 발생되지 않은 경우 '0'이라는 값을 가질 수 있다. 마찬가지로, 상기 제2 판단 결과는 우측 눈에 결막 충혈이 발생된 경우 '1'이라는 값을 가질 수 있고, 발생되지 않은 경우 '0'이라는 값을 가질 수 있다.
이 경우, 제1 스코어는 제1 판단 결과 값과 제2 판단 결과 값이 모두 '1'인 경우에만 카운팅될 수 있다. 또는, 제1 스코어는 제1 판단결과 값과 제2 판단 결과 값 중 어느 하나가 '1'인 경우 카운팅될 수 있다.
한편, 안질환 관리 장치(1000)가 과거에 촬영된 이미지와 현재 촬영된 이미지의 비교하여 판단된 결과를 통해 갑상선 눈병증 진료를 위한 내원 안내를 수행하는 경우, 상기 제1 스코어는 과거에 촬영된 이미지를 분석한 결과와 현재 촬영된 이미지를 분석한 결과의 비교를 통해 결정될 수 있다.
예를 들어, 상기 제1 스코어는 과거에 촬영된 이미지에 기초하여 결막 충혈, 눈꺼풀의 발적, 결막부종, 눈물언덕의 부종, 눈꺼풀의 부종 중 적어도 하나에 관한 지표를 평가하여 획득된 제1 판단 결과와 현재 촬영된 이미지에 기초하여 결막 충혈, 눈꺼풀의 발적, 결막부종, 눈물언덕의 부종, 눈꺼풀의 부종 중 적어도 하나에 관한 지표하여 획득된 제2 판단 결과의 비교를 통해 결정될 수 있다.
보다 구체적인 예로, 안질환 관리 장치(1000)는 과거에 촬영된 이미지에 기초하여 결막 충혈에 관한 지표를 평가하여 제1 판단 결과를 획득할 수 있고, 현재 촬영된 이미지에 기초하여 결막 충혈에 관한 지표를 평가하여 제2 판단 결과를 획득할 수 있다. 이때, 상기 제1 판단 결과는 과거에 촬영된 눈에 결막 충혈이 발생된 경우 '1'이라는 값을 가질 수 있고, 발생되지 않은 경우 '0'이라는 값을 가질 수 있다. 마찬가지로, 상기 제2 판단 결과는 현재 촬영된 눈에 결막 충혈이 발생된 경우 '1'이라는 값을 가질 수 있고, 발생되지 않은 경우 '0'이라는 값을 가질 수 있다.
이 경우, 제1 스코어는 제1 판단 결과가 '0'이고, 제2 판단 결과가 '1'인 경우 카운팅될 수 있다. 또는, 제1 스코어는 제1 판단 결과가 '1'이고, 제2 판단 결과과 '1'인 경우 카운팅될 수 있다.
5 합산 스코어에 따른 내원 안내
일 실시예에 따르면, 안질환 관리 장치(1000)는 이미지 기반으로 획득된 복수의 확률 값과 설문에 대한 응답 기반으로 획득된 복수의 결과 값 중 n개 이상이 기준치 이상임을 나타내는 경우, 내원 안내를 수행할 수 있다.
예를 들어, 안질환 관리 장치(1000)는 이미지 기반으로 획득된 복수의 확률 값과 설문에 대한 응답 기반으로 획득된 복수의 결과 값 중 3개 이상이 기준치 이상임을 나타내는 경우, 내원 안내를 수행할 수 있다.
보다 구체적인 예로, 안질환 관리 장치(1000)는 결막 충혈, 눈꺼풀의 발적, 결막 부종, 눈물 언덕의 부종, 눈꺼풀의 부종, 구후부의 자발적인 통증 및 눈을 움직일때의 통증에 관한 값 중 3개 이상이 기준치 이상임을 나타내는 경우, 내원 안내를 수행할 수 있다.
또한, 안질환 관리 장치(1000)는 상술한 방법으로 산출된 눈병증 예측 스코어가 기준치 이상인 경우 내원 안내를 수행할 수 있다. 예를 들어, 안질환 관리 장치(1000)는 산출된 눈병증 예측 스코어가 3 이상인 경우 내원 안내를 수행할 수 있다.
안질환 관리 장치(1000)는 복수의 지표 중 어느 하나에 관한 평가 결과에 기초하여 내원 안내를 하는 것과 더불어 치료 시기에 관한 안내도 제공할 수 있다. 또한, 안질환 관리 장치(1000)는 평가의 대상이 된 지표에 관한 처방 또는 진단 결과를 제공할 수도 있다.
이상에서 실시 형태들에 설명된 특징, 구조, 효과 등은 본 발명의 적어도 하나의 실시 형태에 포함되며, 반드시 하나의 실시 형태에만 한정되는 것은 아니다. 나아가, 각 실시 형태에서 예시된 특징, 구조, 효과 등은 실시 형태들이 속하는 분야의 통상의 지식을 가지는 자에 의해 다른 실시 형태들에 대해서도 조합 또는 변형되어 실시 가능하다. 따라서 이러한 조합과 변형에 관계된 내용들은 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.
또한, 이상에서 실시 형태를 중심으로 설명하였으나 이는 단지 예시일 뿐 본 발명을 한정하는 것이 아니며, 본 발명이 속하는 분야의 통상의 지식을 가진 자라면 본 실시 형태의 본질적인 특성을 벗어나지 않는 범위에서 이상에 예시되지 않은 여러 가지의 변형과 응용이 가능함을 알 수 있을 것이다. 즉, 실시 형태에 구체적으로 나타난 각 구성 요소는 변형하여 실시할 수 있는 것이다. 그리고 이러한 변형과 응용에 관계된 차이점들은 첨부된 청구 범위에서 규정하는 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.

Claims (18)

  1. 이미지 기반으로 눈 지표를 평가하여 활동성 갑상선 눈병증 진료를 위한 내원 안내 방법에 있어서,
    이미지를 획득하는 단계- 상기 이미지는, 두 눈이 포함되는 이미지 촬영을 유도하는 가이드가 제공된 상태에서 촬영된 이미지임 -;
    상기 획득된 이미지에 기초하여 제1 눈 지표에 대한 제1 확률 값을 획득하는 단계- 상기 제1 눈 지표는 결막 충혈, 눈꺼풀의 발적, 결막 부종, 눈물 언덕의 부종 또는 눈꺼풀의 부종임 -;
    상기 획득된 이미지에 기초하여 제2 눈 지표에 대한 제2 확률 값을 획득하는 단계- 상기 제2 눈 지표는 결막 충혈, 눈꺼풀의 발적, 결막 부종, 눈물 언덕의 부종 또는 눈꺼풀의 부종이고, 상기 제2 눈 지표는 상기 제1 눈 지표와 다름 -;
    제1 눈 통증과 관련된 설문에 대한 정보를 입력하는 화면을 출력하는 단계- 상기 제1 눈 통증은 구후부의 자발적인 통증 또는 눈을 움직일때의 통증임 -;
    상기 제1 눈 통증과 관련된 설문에 대한 응답에 기초하여 제1 결과 값을 획득하는 단계;
    상기 제1 눈 지표에 대한 제1 확률 값, 상기 제2 눈 지표에 대한 제2 확률 값 및 상기 제1 눈 통증에 대한 제1 결과 값에 기초하여 눈병증 예측 스코어를 산출하는 단계; 및
    상기 산출된 눈병증 예측 스코어가 미리 정해진 값 이상이면 내원을 안내하는 단계;를 포함하고,
    상기 눈병증 예측 스코어는 상기 제1 확률 값, 상기 제2 확률 값 및 상기 제1 결과 값이 동일한 가중치로 반영됨으로써 산출되되,
    상기 눈병증 예측 스코어는 상기 제1 확률 값이 미리 정해진 기준을 만족하는 경우 1회 카운팅 되고, 상기 제2 확률 값이 미리 정해진 기준을 만족하는 경우 1회 카운팅 되고, 상기 제1 결과 값이 미리 정해진 기준을 만족하는 경우 1회 카운팅 되는,
    활동성 갑상선 눈병증 진료를 위한 내원 안내 방법.
  2. 삭제
  3. 제1항에 있어서,
    상기 눈병증 예측 스코어를 산출하는 단계는,
    획득된 상기 제1 확률 값이 제1 기준을 만족하는지를 판단하는 단계; 및 획득된 상기 제2 확률 값이 제2 기준을 만족하는지를 판단하는 단계를 포함하는,
    활동성 갑상선 눈병증 진료를 위한 내원 안내 방법.
  4. 제1항에 있어서,
    상기 제1 눈 지표에 대한 제1 확률 값을 획득하는 단계는,
    상기 획득된 이미지에 기초하여 상기 결막 충혈에 관한 확률 값을 획득하는 단계를 포함하고,
    상기 결막 충혈에 관한 확률 값을 획득하는 단계는, 제1 공막 이미지에 기초하여 학습된 모델을 이용하여 수행되며,
    상기 제1 공막 이미지는 상기 획득된 이미지에서 잘라낸 제1 공막 영역이 포함된 이미지이되, 상기 제1 공막 영역은 각막과 눈꼬리 사이 영역에의 흰자 부위에 대응되는 영역인,
    활동성 갑상선 눈병증 진료를 위한 내원 안내 방법.
  5. 제1항에 있어서,
    상기 제1 눈 지표에 대한 제1 확률 값을 획득하는 단계는,
    상기 획득된 이미지에 기초하여 상기 눈꺼풀의 발적에 관한 확률 값을 획득하는 단계를 포함하고,
    상기 눈꺼풀의 발적에 관한 확률 값을 획득하는 단계는, 눈꺼풀 이미지에 기초하여 학습된 모델을 이용하여 수행되며,
    상기 눈꺼풀 이미지는 상기 획득된 이미지에서 잘라낸 눈꺼풀 영역이 포함된 이미지인,
    활동성 갑상선 눈병증 진료를 위한 내원 안내 방법.
  6. 제1항에 있어서,
    상기 제1 눈 지표에 대한 제1 확률 값을 획득하는 단계는,
    상기 획득된 이미지에 기초하여 상기 결막 부종에 관한 확률 값을 획득하는 단계를 포함하고,
    상기 결막 부종에 관한 확률 값을 획득하는 단계는, 제2 공막 이미지에 기초하여 학습된 모델을 이용하여 수행되며,
    상기 제2 공막 이미지는 상기 획득된 이미지에서 잘라낸 제2 공막 영역이 포함된 이미지이되, 상기 제2 공막 영역은 각막과 눈꼬리 사이 영역에의 흰자 부위 중 하단부에 대응되는 영역인,
    활동성 갑상선 눈병증 진료를 위한 내원 안내 방법.
  7. 제1항에 있어서,
    상기 제1 눈 지표에 대한 제1 확률 값을 획득하는 단계는,
    상기 획득된 이미지에 기초하여 상기 눈물 언덕의 부종에 관한 확률 값을 획득하는 단계를 포함하고,
    상기 눈물 언덕의 부종에 관한 확률 값을 획득하는 단계는, 눈물 언덕 이미지에 기초하여 학습된 모델을 이용하여 수행되며,
    상기 눈물 언덕 이미지는 상기 획득된 이미지에서 잘라낸 눈물 언덕 영역 및 상기 눈물 언덕 영역을 둘러싸고 있는 주변 피부 영역이 포함된 이미지인,
    활동성 갑상선 눈병증 진료를 위한 내원 안내 방법.
  8. 제1항에 있어서,
    상기 제1 눈 지표에 대한 제1 확률 값을 획득하는 단계는,
    상기 획득된 이미지에 기초하여 상기 눈꺼풀의 부종에 관한 확률 값을 획득하는 단계를 포함하고,
    상기 눈꺼풀의 부종에 관한 확률 값을 획득하는 단계는, 눈꺼풀 이미지에 기초하여 학습된 모델을 이용하여 수행되며,
    상기 눈꺼풀 이미지는 상기 획득된 이미지에서 잘라낸 눈꺼풀 영역과 눈꺼풀 주변부 영역이 포함된 이미지이되, 상기 눈꺼풀 주변부 영역은 상기 획득된 이미지에서 잘라낸 두 눈의 바깥쪽에 대응되는 영역인,
    활동성 갑상선 눈병증 진료를 위한 내원 안내 방법.
  9. 제8항에 있어서,
    상기 눈꺼풀의 부종에 관한 확률 값을 획득하는 단계는,
    상기 눈꺼풀 이미지에 기초하여 MRD1(Margin Reflex Distance 1) 값을 산출하고, 상기 산출된 MRD1(Margin Reflex Distance 1) 값에 기초하여 상기 눈꺼풀의 부종에 관한 확률 값을 획득하는 것인,
    활동성 갑상선 눈병증 진료를 위한 내원 안내 방법.
  10. 제9항에 있어서,
    상기 눈꺼풀 이미지는 좌측 눈꺼풀 이미지와 우측 눈꺼풀 이미지를 포함하되- 상기 좌측 눈꺼풀 이미지는 상기 눈꺼풀 영역 중 좌측 눈에 대응되는 영역 및 상기 눈꺼풀 주변부 영역 중 좌측 눈에 대응되는 영역이 포함된 이미지이고, 상기 우측 눈꺼풀 이미지는 상기 눈꺼풀 영역 중 우측 눈에 대응되는 영역 및 상기 눈꺼풀 주변부 영역 중 우측 눈에 대응되는 영역이 포함된 이미지임 -,
    상기 눈꺼풀의 부종에 관한 확률 값을 획득하는 단계는,
    상기 좌측 눈꺼풀 이미지에 기초하여 제1 MRD1 값을 산출하고, 상기 우측 눈꺼풀 이미지에 기초하여 제2 MRD1 값을 산출한 후, 상기 제1 MRD1 값과 상기 제2 MRD1 값의 비교를 통해 상기 눈꺼풀의 부종에 관한 확률 값을 획득하는 것인,
    활동성 갑상선 눈병증 진료를 위한 내원 안내 방법.
  11. 제1항에 있어서,
    상기 제1 눈 지표에 대한 제1 확률 값을 획득하는 단계는,
    학습 이미지에 기초하여 결막 충혈, 눈꺼풀의 발적, 결막 부종, 눈물 언덕의 부종 및 눈꺼풀의 부종 중 어느 하나를 평가하도록 학습되고,
    상기 학습 이미지는 제1 학습 이미지 및 제2 학습 이미지를 포함하되,
    상기 제1 학습 이미지는, 좌측 눈이 포함된 이미지 또는 우측 눈이 포함된 이미지이고,
    상기 제2 학습 이미지는 상기 제1 학습 이미지에 포함된 눈의 다른 쪽 눈이 포함된 이미지가 좌우 반전된 이미지인,
    활동성 갑상선 눈병증 진료를 위한 내원 안내 방법.
  12. 제1항에 있어서,
    상기 제1 눈 지표에 대한 제1 확률 값을 획득하는 단계는,
    미리 학습된 제1 모델 및 제2 모델을 통해 수행되고,
    상기 제1 모델은, 좌측 눈이 포함된 이미지에 기초하여 결막 충혈, 눈꺼풀의 발적, 결막 부종, 눈물 언덕의 부종 및 눈꺼풀의 부종 중 어느 하나를 평가하도록 학습되고,
    상기 제2 모델은, 우측 눈이 포함된 이미지에 기초하여 결막 충혈, 눈꺼풀의 발적, 결막 부종, 눈물 언덕의 부종 및 눈꺼풀의 부종 중 어느 하나를 평가하도록 학습되고,
    활동성 갑상선 눈병증 진료를 위한 내원 안내 방법.
  13. 제10항에 있어서,
    상기 제1 확률 값은 상기 좌측 눈이 포함된 이미지 또는 상기 우측 눈이 포함된 이미지 중 적어도 하나에 기초하여 결정되는 것인,
    활동성 갑상선 눈병증 진료를 위한 내원 안내 방법.
  14. 제1항에 있어서,
    상기 이미지는 좌측 눈이 포함된 제1 영역 및 우측 눈이 포함된 제2 영역을 포함하되,
    상기 제1 확률 값은 상기 제1 영역을 포함하도록 잘라낸 이미지에 기초한 제1 평가 결과 및 상기 제2 영역을 포함하도록 잘라낸 이미지에 기초한 제2 평가 결과에 기초하여 결정되는 것인,
    활동성 갑상선 눈병증 진료를 위한 내원 안내 방법.
  15. 제1항에 있어서,
    상기 이미지는 제1 시점에 촬영된 제1 이미지 및 제2 시점에 촬영된 제2 이미지를 포함하되,
    상기 제1 확률 값은 상기 제1 이미지에 기초한 분석 결과와 상기 제2 이미지에 기초한 분석 결과의 비교를 통해 결정되고,
    상기 제1 시점은 상기 제2 시점보다 과거 시점인,
    활동성 갑상선 눈병증 진료를 위한 내원 안내 방법.
  16. 제1항에 있어서,
    상기 내원 안내 단계는,
    상기 제1 확률 값 및 상기 제1 결과 값 중 3개 이상이 기준치 이상임을 나타내는 경우, 내원 안내를 수행하는 것인,
    활동성 갑상선 눈병증 진료를 위한 내원 안내 방법.
  17. 제1항에 있어서,
    상기 내원 안내 단계는,
    상기 눈병증 예측 스코어 산출의 기초가 된 결막 충혈, 눈꺼풀의 발적, 결막 부종, 눈물 언덕의 부종, 눈꺼풀의 부종, 구후부의 자발적인 통증 및 눈을 움직일때의 통증에 관한 값 중 3개 이상이 기준치 이상임을 나타내는 경우, 내원 안내를 수행하는 단계인,
    활동성 갑상선 눈병증 진료를 위한 내원 안내 방법.
  18. 제1항에 있어서,
    상기 이미지를 전처리하는 단계를 더 포함하되,
    상기 전처리 단계는,
    상기 이미지의 픽셀 값을 통해 판단된 상기 이미지의 해상도가 미리 정해진 기준을 만족하지 못하는 경우, 상기 이미지의 해상도를 미리 정해진 해상도로 변환하는 단계인,
    활동성 갑상선 눈병증 진료를 위한 내원 안내 방법.

KR1020210085542A 2021-06-30 2021-06-30 활동성 갑상선 눈병증 진료를 위한 내원 안내 방법 및 이를 수행하는 장치 KR102379061B1 (ko)

Priority Applications (23)

Application Number Priority Date Filing Date Title
KR1020210085542A KR102379061B1 (ko) 2021-06-30 2021-06-30 활동성 갑상선 눈병증 진료를 위한 내원 안내 방법 및 이를 수행하는 장치
KR1020220035025A KR20230005733A (ko) 2021-06-30 2022-03-21 활동성 갑상선 눈병증 진료를 위한 내원 안내 방법 및 이를 수행하는 장치
CN202280059360.1A CN117897778A (zh) 2021-06-30 2022-06-28 用于获取侧面图像以进行眼睛突出分析的方法、执行方法的图像捕获设备和记录介质
PCT/KR2022/009259 WO2023277548A1 (ko) 2021-06-30 2022-06-28 안구의 돌출도 분석을 위한 측면 이미지를 획득하는 방법, 이를 수행하는 촬영 장치 및 기록 매체
EP22773387.0A EP4134981A4 (en) 2021-06-30 2022-06-28 LATERAL IMAGE ACQUISITION METHOD FOR ANALYSIS OF EYE PROTRUSION, IMAGE CAPTURE DEVICE FOR IMPLEMENTATION AND RECORDING MEDIUM
JP2023580622A JP7521748B1 (ja) 2021-06-30 2022-06-28 眼球突出の度合いの分析のための側方画像を取得するための方法及び撮影デバイス、及びそのための記録媒体
PCT/KR2022/009356 WO2023277589A1 (ko) 2021-06-30 2022-06-29 활동성 갑상선 눈병증 진료를 위한 내원 안내 방법 및 이를 수행하는 시스템
JP2023571557A JP7525851B2 (ja) 2021-06-30 2022-06-29 活動性甲状腺眼症の医学的治療のための病院訪問ガイダンスのための方法、及びこれを実行するためのシステム
CN202280059381.3A CN117897780A (zh) 2021-06-30 2022-06-29 用于活动期甲状腺眼病医疗的医院就诊指导方法及其执行系统
PCT/KR2022/009452 WO2023277622A1 (ko) 2021-06-30 2022-06-30 활동성 갑상선 눈병증 진료를 위한 내원 안내 방법 및 이를 수행하는 시스템
EP22769066.6A EP4138094A4 (en) 2021-06-30 2022-06-30 METHOD FOR SUPPORTING CONSULTATION IN HOSPITAL FOR THE TREATMENT OF ACTIVE THYROID OPHTHALMOPATHY AND SYSTEM FOR ITS IMPLEMENTATION
JP2023577479A JP7513239B2 (ja) 2021-06-30 2022-06-30 活動性甲状腺眼症の医学的治療のための病院訪問ガイダンスのための方法、及びこれを実行するためのシステム
CN202280059376.2A CN117897779A (zh) 2021-06-30 2022-06-30 用于活动期甲状腺眼病医疗的医院就诊指导方法及其执行系统
US17/939,040 US11663719B2 (en) 2021-06-30 2022-09-07 Method for hospital visit guidance for medical treatment for active thyroid eye disease, and system for performing same
US17/945,270 US11741610B2 (en) 2021-06-30 2022-09-15 Method for hospital visit guidance for medical treatment for active thyroid eye disease, and system for performing same
US17/951,681 US11717160B2 (en) 2021-06-30 2022-09-23 Method and photographing device for acquiring side image for ocular proptosis degree analysis, and recording medium therefor
US18/094,064 US11748884B2 (en) 2021-06-30 2023-01-06 Method for hospital visit guidance for medical treatment for active thyroid eye disease, and system for performing same
US18/209,604 US20230337913A1 (en) 2021-06-30 2023-06-14 Method and photographing device for acquiring side image for ocular proptosis degree analysis, and recording medium therefor
US18/218,142 US20230360219A1 (en) 2021-06-30 2023-07-05 Method for hospital visit guidance for medical treatment for active thyroid eye disease, and system for performing same
US18/222,271 US20230360204A1 (en) 2021-06-30 2023-07-14 Method for hospital visit guidance for medical treatment for active thyroid eye disease, and system for performing same
JP2024097895A JP2024125332A (ja) 2021-06-30 2024-06-18 活動性甲状腺眼症の医学的治療のための病院訪問ガイダンスのための方法、及びこれを実行するためのシステム
JP2024106746A JP2024138331A (ja) 2021-06-30 2024-07-02 眼球突出の度合いの分析のための側方画像を取得するための方法及び撮影デバイス、及びそのための記録媒体
JP2024110365A JP2024138393A (ja) 2021-06-30 2024-07-09 活動性甲状腺眼症の医学的治療のための病院訪問ガイダンスのための方法、及びこれを実行するためのシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210085542A KR102379061B1 (ko) 2021-06-30 2021-06-30 활동성 갑상선 눈병증 진료를 위한 내원 안내 방법 및 이를 수행하는 장치

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020220035025A Division KR20230005733A (ko) 2021-06-30 2022-03-21 활동성 갑상선 눈병증 진료를 위한 내원 안내 방법 및 이를 수행하는 장치

Publications (1)

Publication Number Publication Date
KR102379061B1 true KR102379061B1 (ko) 2022-04-05

Family

ID=81181653

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020210085542A KR102379061B1 (ko) 2021-06-30 2021-06-30 활동성 갑상선 눈병증 진료를 위한 내원 안내 방법 및 이를 수행하는 장치
KR1020220035025A KR20230005733A (ko) 2021-06-30 2022-03-21 활동성 갑상선 눈병증 진료를 위한 내원 안내 방법 및 이를 수행하는 장치

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020220035025A KR20230005733A (ko) 2021-06-30 2022-03-21 활동성 갑상선 눈병증 진료를 위한 내원 안내 방법 및 이를 수행하는 장치

Country Status (3)

Country Link
EP (2) EP4134981A4 (ko)
KR (2) KR102379061B1 (ko)
CN (3) CN117897778A (ko)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023277622A1 (ko) * 2021-06-30 2023-01-05 주식회사 타이로스코프 활동성 갑상선 눈병증 진료를 위한 내원 안내 방법 및 이를 수행하는 시스템
WO2023277589A1 (ko) * 2021-06-30 2023-01-05 주식회사 타이로스코프 활동성 갑상선 눈병증 진료를 위한 내원 안내 방법 및 이를 수행하는 시스템
KR102498785B1 (ko) * 2022-06-30 2023-02-10 주식회사 타이로스코프 활동성 갑상선 눈병증 진료를 위한 내원 안내 방법 및 이를 수행하는 시스템
US11717160B2 (en) 2021-06-30 2023-08-08 Thyroscope Inc. Method and photographing device for acquiring side image for ocular proptosis degree analysis, and recording medium therefor
WO2024035131A1 (ko) * 2022-08-09 2024-02-15 주식회사 타이로스코프 갑상선 안질환 상태 모니터링 방법 및 이를 수행하는 시스템
CN117936101A (zh) * 2024-03-21 2024-04-26 深圳大学总医院 一种智能检测甲状腺相关眼病的方法及检测系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016032587A (ja) * 2014-07-31 2016-03-10 株式会社Jvcケンウッド 診断支援装置および診断支援方法
KR20190082149A (ko) * 2017-12-29 2019-07-09 주식회사 피디젠 녹내장 발생 예측 방법
US20190370959A1 (en) * 2018-05-30 2019-12-05 Viswesh Krishna Techniques for identifying blepharoptosis from an image
KR20200077461A (ko) * 2018-12-20 2020-06-30 옵토스 피엘씨 안구 이미지에서 병리의 검출

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2919142B1 (en) * 2014-03-14 2023-02-22 Samsung Electronics Co., Ltd. Electronic apparatus and method for providing health status information
US20190191995A1 (en) * 2017-07-28 2019-06-27 Pupilscan Corporation Systems and Methods for Capturing and Analyzing Pupil Images to Determine Toxicology and Neurophysiology
US10468142B1 (en) * 2018-07-27 2019-11-05 University Of Miami Artificial intelligence-based system and methods for corneal diagnosis
KR102293824B1 (ko) * 2019-05-21 2021-08-24 (의) 삼성의료재단 이동통신 단말기에서의 안면 인식을 이용한 관련 질환 모니터링 방법 및 시스템
CN111839455A (zh) * 2020-08-11 2020-10-30 上海鹰瞳医疗科技有限公司 甲状腺相关眼病的眼部体征识别方法及设备

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016032587A (ja) * 2014-07-31 2016-03-10 株式会社Jvcケンウッド 診断支援装置および診断支援方法
KR20190082149A (ko) * 2017-12-29 2019-07-09 주식회사 피디젠 녹내장 발생 예측 방법
US20190370959A1 (en) * 2018-05-30 2019-12-05 Viswesh Krishna Techniques for identifying blepharoptosis from an image
KR20200077461A (ko) * 2018-12-20 2020-06-30 옵토스 피엘씨 안구 이미지에서 병리의 검출

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023277622A1 (ko) * 2021-06-30 2023-01-05 주식회사 타이로스코프 활동성 갑상선 눈병증 진료를 위한 내원 안내 방법 및 이를 수행하는 시스템
WO2023277589A1 (ko) * 2021-06-30 2023-01-05 주식회사 타이로스코프 활동성 갑상선 눈병증 진료를 위한 내원 안내 방법 및 이를 수행하는 시스템
US11663719B2 (en) 2021-06-30 2023-05-30 Thyroscope Inc. Method for hospital visit guidance for medical treatment for active thyroid eye disease, and system for performing same
US11717160B2 (en) 2021-06-30 2023-08-08 Thyroscope Inc. Method and photographing device for acquiring side image for ocular proptosis degree analysis, and recording medium therefor
US11741610B2 (en) 2021-06-30 2023-08-29 Thyroscope Inc. Method for hospital visit guidance for medical treatment for active thyroid eye disease, and system for performing same
US11748884B2 (en) 2021-06-30 2023-09-05 Thyroscope Inc. Method for hospital visit guidance for medical treatment for active thyroid eye disease, and system for performing same
KR102498785B1 (ko) * 2022-06-30 2023-02-10 주식회사 타이로스코프 활동성 갑상선 눈병증 진료를 위한 내원 안내 방법 및 이를 수행하는 시스템
WO2024035131A1 (ko) * 2022-08-09 2024-02-15 주식회사 타이로스코프 갑상선 안질환 상태 모니터링 방법 및 이를 수행하는 시스템
CN117936101A (zh) * 2024-03-21 2024-04-26 深圳大学总医院 一种智能检测甲状腺相关眼病的方法及检测系统
CN117936101B (zh) * 2024-03-21 2024-05-24 深圳大学总医院 一种智能检测甲状腺相关眼病的方法及检测系统

Also Published As

Publication number Publication date
EP4138094A1 (en) 2023-02-22
CN117897778A (zh) 2024-04-16
CN117897780A (zh) 2024-04-16
CN117897779A (zh) 2024-04-16
KR20230005733A (ko) 2023-01-10
EP4134981A4 (en) 2023-11-08
EP4134981A1 (en) 2023-02-15
EP4138094A4 (en) 2023-10-25

Similar Documents

Publication Publication Date Title
KR102379061B1 (ko) 활동성 갑상선 눈병증 진료를 위한 내원 안내 방법 및 이를 수행하는 장치
KR101785255B1 (ko) 형상 구별 시력 평가 및 추적 시스템
US11967075B2 (en) Application to determine reading/working distance
WO2021004138A1 (zh) 一种屏幕显示方法、终端设备及存储介质
de Almeida et al. Computational methodology for automatic detection of strabismus in digital images through Hirschberg test
Sousa de Almeida et al. Computer-aided methodology for syndromic strabismus diagnosis
KR102344493B1 (ko) 인공 지능 기반의 스마트 안진 검사 시스템, 방법 및 프로그램
US20230237848A1 (en) System and method for characterizing droopy eyelid
US20230360204A1 (en) Method for hospital visit guidance for medical treatment for active thyroid eye disease, and system for performing same
KR102477694B1 (ko) 활동성 갑상선 눈병증 진료를 위한 내원 안내 방법 및 이를 수행하는 시스템
TWI720353B (zh) 眼底相機以及自行拍攝眼底之方法
KR101796961B1 (ko) 홍채 인식장치 및 이를 이용한 홍채 인식방법
US20230190097A1 (en) Cataract detection and assessment
US20240277224A1 (en) Optical coherence tomography (oct) self-testing system, optical coherence tomography method, and eye disease monitoring system
CN112587083B (zh) 视觉处理方法、装置及计算机存储介质
KR102498785B1 (ko) 활동성 갑상선 눈병증 진료를 위한 내원 안내 방법 및 이를 수행하는 시스템
Das et al. Retinal based automated healthcare framework via deep learning
US20230181032A1 (en) Measurements of keratometry and axial length
WO2022138912A1 (ja) 涙液観察装置、情報処理装置、プログラム及び学習モデル生成方法
KR20220029799A (ko) 인공지능 기반의 안질환 원격진단 시스템 및 방법

Legal Events

Date Code Title Description
A107 Divisional application of patent
GRNT Written decision to grant