KR101984995B1 - 인공지능 시야분석 방법 및 장치 - Google Patents

인공지능 시야분석 방법 및 장치 Download PDF

Info

Publication number
KR101984995B1
KR101984995B1 KR1020180084660A KR20180084660A KR101984995B1 KR 101984995 B1 KR101984995 B1 KR 101984995B1 KR 1020180084660 A KR1020180084660 A KR 1020180084660A KR 20180084660 A KR20180084660 A KR 20180084660A KR 101984995 B1 KR101984995 B1 KR 101984995B1
Authority
KR
South Korea
Prior art keywords
user
visual field
visual
information
determining
Prior art date
Application number
KR1020180084660A
Other languages
English (en)
Inventor
이지형
Original Assignee
주식회사 아이피아
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 아이피아 filed Critical 주식회사 아이피아
Priority to KR1020180084660A priority Critical patent/KR101984995B1/ko
Application granted granted Critical
Publication of KR101984995B1 publication Critical patent/KR101984995B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/024Subjective types, i.e. testing apparatus requiring the active assistance of the patient for determining the visual field, e.g. perimeter types

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

컴퓨터에 의하여 수행되는 방법으로서, 시야검사기로부터 사용자의 시야검사 결과를 획득하는 단계(S101), 상기 시야검사 결과에 기초하여, 상기 사용자의 안구 건강상태를 판단하는 단계(S102) 및 인공지능 모델을 이용하여, 상기 시야검사 결과로부터 상기 사용자의 안질환 발생가능성을 예측하는 단계(S103)를 포함하는, 인공지능 시야분석 방법이 개시된다.

Description

인공지능 시야분석 방법 및 장치 {ARTIFICIAL INTELLIGENCE VISUAL FIELD ALALYSIS METHOD AND APPARATUS}
본 발명은 인공지능 시야분석 방법 및 장치에 관한 것이다.
인공지능(Artificial Intelligence, AI) 시스템은 인간 수준의 지능을 구현하는 컴퓨터 시스템이며, 기존 Rule 기반 스마트 시스템과 달리 기계가 스스로 학습하고 판단하며 똑똑해지는 시스템이다. 인공지능 시스템은 사용할수록 인식률이 향상되고 사용자 취향을 보다 정확하게 이해할 수 있게 되어, 기존 Rule 기반 스마트 시스템은 점차 딥러닝 기반 인공지능 시스템으로 대체되고 있다.
인공지능 기술은 기계학습(딥러닝) 및 기계학습을 활용한 요소 기술들로 구성된다.
기계학습은 입력 데이터들의 특징을 스스로 분류/학습하는 알고리즘 기술이며, 요소기술은 딥러닝 등의 기계학습 알고리즘을 활용하여 인간 두뇌의 인지, 판단 등의 기능을 모사하는 기술로서, 언어적 이해, 시각적 이해, 추론/예측, 지식 표현, 동작 제어 등의 기술 분야로 구성된다.
인공지능 기술이 응용되는 다양한 분야는 다음과 같다. 언어적 이해는 인간의 언어/문자를 인식하고 응용/처리하는 기술로서, 자연어 처리, 기계 번역, 대화시스템, 질의 응답, 음성 인식/합성 등을 포함한다. 시각적 이해는 사물을 인간의 시각처럼 인식하여 처리하는 기술로서, 객체 인식, 객체 추적, 영상 검색, 사람 인식, 장면 이해, 공간 이해, 영상 개선 등을 포함한다. 추론 예측은 정보를 판단하여 논리적으로 추론하고 예측하는 기술로서, 지식/확률 기반 추론, 최적화 예측, 선호 기반 계획, 추천 등을 포함한다. 지식 표현은 인간의 경험정보를 지식데이터로 자동화 처리하는 기술로서, 지식 구축(데이터 생성/분류), 지식 관리(데이터 활용) 등을 포함한다. 동작 제어는 차량의 자율 주행, 로봇의 움직임을 제어하는 기술로서, 움직임 제어(항법, 충돌, 주행), 조작 제어(행동 제어) 등을 포함한다.
녹내장은 안압 증가 및 시신경 손상이 진행돼 실명하게 되는 세계 4대 실명 질환으로, 뚜렷한 증상 및 완치 방법이 없어 조기 발견과 관리를 통해서만 예방이 가능하다.
녹내장은 단일 질환이라기보다는 안압 등 여러 가지 위험 요인으로 인하여 녹내장 특유의 시신경유두변화와 이에 상응하는 시야의 이상을 일으키는 질환군으로 정의하고 있다. 급격하게 안압이 상승한 경우를 제외하고, 녹내장으로 인한 시야손상은 진행될 때까지 인지하지 못하는 경우가 많다.
노령인구의 증가와 함께 녹내장 환자도 꾸준히 늘어나고 있는데, 동양인의 경우 녹내장 환자 중 안압이 정상인 환자의 비율이 70%에 달해 안압 측정만으로 조기 발견이 어렵다.
특히 국내에서 녹내장 진단은 병원에서 의료진의 도움 하에 전문기기로 측정해야 가능하지만 정기적으로 검진을 받는 인구의 비율이 적어, 조기 발견이 더욱 어려운 문제점이 있다. 그 중 시야검사는 녹내장 환자의 시기능을 평가하는 검사로 녹내장을 진단하고 추적 관찰하는 데 필수적인 검사이다.
공개특허공보 제10-2017-0075962호, 2017.07.04 공개
본 발명이 해결하고자 하는 과제는 인공지능 시야분석 방법 및 장치를 제공하는 것이다.
본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
상술한 과제를 해결하기 위한 본 발명의 일 면에 따른 인공지능 시야분석 방법은, 시야검사기로부터 사용자의 시야검사 결과를 획득하는 단계(S101), 상기 시야검사 결과에 기초하여, 상기 사용자의 안구 건강상태를 판단하는 단계(S102) 및 인공지능 모델을 이용하여, 상기 시야검사 결과로부터 상기 사용자의 안질환 발생가능성을 예측하는 단계(S103)를 포함한다.
또한, 상기 단계(S101)는, 상기 시야검사 결과를 상기 사용자의 계정에 저장하는 단계(S104)를 포함하고, 상기 단계(S102)는, 상기 사용자의 계정에 저장된 검사 결과에 기초하여, 상기 사용자의 시야검사 결과의 변화를 판단하는 단계(S105) 및 상기 시야검사 결과 및 상기 검사 결과의 변화에 기초하여 상기 사용자의 안구 건강상태를 판단하는 단계(S106)를 포함하고, 상기 단계(S103)는, 상기 시야검사 결과 및 상기 검사 결과의 변화로부터 상기 사용자의 안질환 발생가능성을 예측하는 단계(S107)를 포함할 수 있다.
또한, 상기 시야검사기에 시야검사 정보를 제공하는 단계(S108) 및 상기 제공된 시야검사 정보에 기초하여 수행된 시야검사 결과를 획득하는 단계(S109)를 더 포함할 수 있다.
또한, 상기 단계(S108)는, 상기 시야검사 결과에 기초하여 상기 사용자의 시야범위 지도를 생성하는 단계(S110), 상기 검사 결과의 변화양상을 상기 시야범위 지도에 표시하는 단계(S111), 상기 시야검사 결과에 기초하여 상기 시야범위 지도 상에서 위험영역을 결정하는 단계(S112), 상기 검사 결과의 변화양상에 기초하여 상기 시야범위 지도 상에서 손실예상영역을 결정하는 단계(S113) 및 상기 위험영역 및 상기 손실예상영역에 대한 정밀검사 요청을 포함하는, 상기 시야검사 정보를 상기 시야검사기에 제공하는 단계(S114)를 포함할 수 있다.
또한, 상기 단계(S112)는, 상기 시야범위 지도 상에서 상기 사용자의 맹점에 대응하는 위치를 결정하는 단계(S115), 상기 단계(S115)에서 결정된 위치에 기초하여 상기 시야범위 지도 상에서 상기 사용자의 황반에 대응하는 위치를 결정하는 단계(S116) 및 상기 황반에 대응하는 위치를 상기 위험영역으로 결정하는 단계(S117)를 포함할 수 있다.
또한, 상기 단계(S113)는, 상기 시야범위 지도 상에서 상기 사용자의 최초 시야범위 대비 손실된 시야범위 영역을 판단하는 단계(S118), 상기 손실된 시야범위 영역의 크기 및 상기 시야범위 영역이 손실되는 데 소요된 시간에 대한 정보를 획득하는 단계(S119) 및 상기 단계(S119)에서 획득된 정보에 기초하여, 소정의 기간 내에 시야손실이 예측되는 손실예상영역을 결정하는 단계(S120)를 포함할 수 있다.
또한, 상기 위험영역과 상기 손실예상영역의 중첩여부를 판단하는 단계(S121) 및 상기 위험영역과 상기 손실예상영역의 적어도 일부가 중첩되는 경우, 상기 시야검사기에 상기 사용자에게 제공할 알림정보를 전송하는 단계(S122)를 더 포함하고, 상기 알림정보는, 상기 위험영역과 상기 손실예상영역의 중첩에 따른 위험성에 대한 알림정보, 상기 사용자의 안질환 여부에 대한 문진정보 및 정밀검진 요청정보를 포함하고, 상기 단계(S122)는, 상기 제공된 알림정보에 대응하여 수신되는 상기 사용자의 음성답변을 상기 시야검사기로부터 수신하는 단계(S123), 상기 사용자의 음성답변을 분석하여 상기 문진정보 및 상기 정밀검진 요청정보에 대한 응답을 획득하는 단계(S124) 및 상기 획득된 응답에 기초하여 상기 사용자의 정밀검진을 예약하는 단계(S125)를 포함할 수 있다.
또한, 상기 단계(S103)는, 복수의 사용자의 시야검사 결과 및 상기 복수의 사용자의 안질환 여부를 포함하는 데이터를 수집하는 단계(S126), 상기 수집된 데이터로부터 학습 데이터를 생성하되, 상기 복수의 사용자의 시야검사 결과 각각을 하나 이상의 파라미터로 정량화하고, 상기 정량화된 하나 이상의 파라미터 및 상기 정량화된 하나 이상의 파라미터 각각에 대응하는 안질환 여부를 포함하는 학습 데이터를 생성하는, 단계(S127) 및 상기 학습 데이터를 이용하여, 상기 인공지능 모델을 학습시키는 단계(S128)를 포함할 수 있다.
상술한 과제를 해결하기 위한 본 발명의 일 면에 따라 하나 이상의 인스트럭션을 저장하는 메모리 및 상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하고, 상기 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써, 시야검사기로부터 사용자의 시야검사 결과를 획득하는 단계, 상기 시야검사 결과에 기초하여, 상기 사용자의 안구 건강상태를 판단하는 단계 및 인공지능 모델을 이용하여, 상기 시야검사 결과로부터 상기 사용자의 안질환 발생가능성을 예측하는 단계를 수행할 수 있다.
본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.
개시된 실시 예에 따르면, 시야검사 결과로부터 사용자의 안질환 여부를 판단하고, 향후 안질환 발생여부를 예측할 수 있는 방법 및 장치가 제공된다.
본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
도 1은 일 실시 예에 따른 인공지능 시야검사 시스템을 간략하게 도시한 도면이다.
도 2는 일 실시 예에 따른 인공지능 시야분석 방법을 도시한 흐름도이다.
도 3은 일 실시 예에 따른 시야검사 결과 분석방법을 도시한 흐름도이다.
도 4는 일 실시 예에 따라 서버를 통해 시야검사를 제어하는 방법을 도시한 흐름도이다.
도 5는 일 실시 예에 따라 시야검사 정보를 제공하는 방법을 도시한 흐름도이다.
도 6은 일 실시 예에 따른 위험영역 결정방법을 도시한 흐름도이다.
도 7은 일 실시 예에 따른 손실예상영역 결정방법을 도시한 흐름도이다.
도 8은 일 실시 예에 따른 추가진단 방법을 도시한 흐름도이다.
도 9는 일 실시 예에 따른 인공지능 모델 학습방법을 도시한 흐름도이다.
도 10은 일 실시 예에 따른 시야범위 지도를 도시한 도면이다.
도 11은 다른 일 실시 예에 따른 시야범위 지도를 도시한 도면이다.
도 12는 일 실시 예에 따른 장치의 구성도이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
명세서에서 사용되는 "부" 또는 “모듈”이라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부" 또는 “모듈”은 어떤 역할들을 수행한다. 그렇지만 "부" 또는 “모듈”은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부" 또는 “모듈”은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부" 또는 “모듈”은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부" 또는 “모듈”들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부" 또는 “모듈”들로 결합되거나 추가적인 구성요소들과 "부" 또는 “모듈”들로 더 분리될 수 있다.
공간적으로 상대적인 용어인 "아래(below)", "아래(beneath)", "하부(lower)", "위(above)", "상부(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 구성요소와 다른 구성요소들과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용시 또는 동작시 구성요소들의 서로 다른 방향을 포함하는 용어로 이해되어야 한다. 예를 들어, 도면에 도시되어 있는 구성요소를 뒤집을 경우, 다른 구성요소의 "아래(below)"또는 "아래(beneath)"로 기술된 구성요소는 다른 구성요소의 "위(above)"에 놓여질 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다. 구성요소는 다른 방향으로도 배향될 수 있으며, 이에 따라 공간적으로 상대적인 용어들은 배향에 따라 해석될 수 있다.
본 명세서에서, 컴퓨터는 적어도 하나의 프로세서를 포함하는 모든 종류의 하드웨어 장치를 의미하는 것이고, 실시 예에 따라 해당 하드웨어 장치에서 동작하는 소프트웨어적 구성도 포괄하는 의미로서 이해될 수 있다. 예를 들어, 컴퓨팅 장치는 스마트폰, 태블릿 PC, 데스크탑, 노트북 및 각 장치에서 구동되는 사용자 클라이언트 및 애플리케이션을 모두 포함하는 의미로서 이해될 수 있으며, 또한 이에 제한되는 것은 아니다.
이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다.
도 1은 일 실시 예에 따른 인공지능 시야검사 시스템을 간략하게 도시한 도면이다.
도 1을 참조하면, 시야검사기(10), 사용자 단말(20) 및 서버(100)가 도시되어 있다.
일 실시 예에서, 시야검사기(10)는 시야검사를 위한 디스플레이와, 시야검사 소프트웨어를 이용하여 시야검사기를 제어하는 제어부를 포함할 수 있으나, 이에 제한되는 것은 아니다.
시야검사기(10)의 형태는 도 1에 도시된 바에 제한되지 않으나, 도 1에 도시된 실시 예에 따르면 시야검사기(10)는 HMD(Head Mount Display) 형태의 디스플레이를 포함하는 형태를 가질 수 있다.
일 실시 예에서, 시야검사기(10)는 제어부를 통해 시야검사를 수행하고, 시야검사 결과를 출력하거나 다른 단말로 전송할 수 있다. 예를 들어, 시야검사기(100)는 시야검사 결과를 사용자 단말(20)이나 서버(100)로 전송할 수 있다.
실시 예에 따라서, 시야검사기(10)는 사용자 단말(20)에 설치된 소프트웨어에 의하여 동작할 수도 있고, 서버(100)로부터 시야검사를 수행하기 위한 소프트웨어를 다운로드받아 이용하거나, 시야검사를 위하여 수집된 데이터를 사용자 단말(20)이나 서버(100)로 전송하고, 사용자 단말(20)이나 서버(100)에서 처리된 데이터를 수신하여 시야검사 결과를 생성할 수 있고, 사용자 단말(20)이나 서버(100)에서 수집된 데이터를 이용하여 시야검사 결과를 생성할 수도 있다.
일 실시 예에서, 시야검사기(10)는 사용자 단말(20)을 삽입하여 디스플레이 및 제어부로 활용하는 형태의 HMD일 수도 있고, 이 경우 시야검사기(10)는 사용자 단말(20)에 설치된 애플리케이션 및 사용자 단말(10)의 디스플레이를 이용하여 시야검사를 수행할 수도 있다.
이하에서 설명되는 각 단계들은 서버(100)에 의하여 수행되는 것으로 설명되나, 각 단계의 주체는 이에 제한되는 것은 아니며, 실시 예에 따라 각 단계들의 적어도 일부 또는 전부가 서로 다른 장치에서 수행될 수도 있다.
또한, 본 명세서에서 서버(100)는 적어도 하나의 프로세서를 포함하는 특정 하드웨어 또는 하드웨어의 집합을 의미할 수도 있고, 실시 예에 따라서 클라우드 서버를 의미할 수도 있으며, 이에 제한되지 않는다.
도 2는 일 실시 예에 따른 인공지능 시야분석 방법을 도시한 흐름도이다.
단계 S101에서, 서버(100)는 시야검사기(10)로부터 사용자의 시야검사 결과를 획득한다.
일 실시 예에서, 서버(100)는 시야검사기(10)로부터 수행된 시야검사 결과를 네트워크를 통해 수신할 수 있고, 실시 예에 따라 사용자 단말(20)을 통해 전달받을 수도 있다.
단계 S102에서, 서버(100)는 상기 시야검사 결과에 기초하여, 상기 사용자의 안구 건강상태를 판단한다.
일 실시 예에서, 서버(100)는 시야검사 결과에 기초하여 사용자의 시야결손 영역을 판단하고, 이에 기초하여 사용자의 녹내장 여부 등 안질환 보유여부를 판단할 수 있다.
단계 S103에서, 서버(100)는 인공지능 모델을 이용하여, 상기 시야검사 결과로부터 상기 사용자의 안질환 발생가능성을 예측한다.
일 실시 예에서, 서버(100)는 복수의 사용자들의 시야검사 결과 및 각 시야검사 결과에 기초하여 학습된 인공지능 모델을 이용하여, 사용자의 시야검사 결과로부터 사용자의 안질환 보유여부를 판단할 수도 있다.
마찬가지로, 서버(100)는 인공지능 모델을 이용하여, 사용자의 향후 안질환 발생가능성을 예측할 수 있다.
일 실시 예에서, 서버(100)는 서로 다른 안질환의 종류에 대한 기존의 치료 데이터를 수집할 수 있다. 예를 들어, 서버(100)는 각각의 안질환에 대하여 기존에 이미 수행된 치료 데이터 및 이에 따른 예후에 대한 정보를 병원이나 의료진으로부터 수집하여 빅 데이터를 구축할 수 있다. 서버(100)는 수집된 정보에 기초하여, 판단 또는 예측되는 안질환에 대한 치료방법을 제안할 수 있다.
일 실시 예에서, 제안되는 치료방법은 약물치료와 외과적 치료, 생활습관 개선 등을 포함하며, 각 안질환에 대하여 효과적인 의약품과 식품에 대한 정보, 각 의약품의 부작용 및 각 안질환을 악화시킬 수 있는 의약품이나 식품, 해당 안질환 치료에 능한 병원의나 의료진에 대한 정보 등을 포함할 수 있다.
일 실시 예에서, 서버(100)는 안질환의 종류와, 환자의 상태나 신체적 특징에 기초하여 적절한 치료방법을 제안할 수 있도록 빅 데이터에 기반하여 인공지능 모델을 학습시킬 수 있다. 인공지능 모델은 환자의 상태나 신체적 특징, 그리고 안질환의 종류를 입력 파라미터로 하여, 그 출력으로 해당 환자에 대한 치료방법을 제안할 수 있다.
도 3은 일 실시 예에 따른 시야검사 결과 분석방법을 도시한 흐름도이다.
상술한 단계(S101)에서, 서버(100)는 상기 시야검사 결과를 상기 사용자의 계정에 저장하는 단계(S104)를 수행할 수 있다.
일 실시 예에서, 사용자의 계정은 서버(100) 내에서 사용자에 대하여 할당된 모든 종류의 메모리 공간을 의미할 수 있다. 메모리 공간은 고정적이지 않을 수도 있으며, 본 실시 예에서 사용자의 계정에 시야검사 결과를 저장한다는 것은 시야검사 결과를 사용자 정보와 매칭 혹은 라벨링하여 저장하는 방식을 의미할 수도 있다.
상술한 단계(S102)에서, 서버(100)는 상기 사용자의 계정에 저장된 검사 결과에 기초하여, 상기 사용자의 시야검사 결과의 변화를 판단하는 단계(S105)를 수행할 수 있다.
일 실시 예에서, 서버(100)는 사용자의 계정에 저장된 검사결과들의 시야범위를 비교하고, 시야범위의 변화를 판단할 수 있다.
또한, 서버(100)는 상기 시야검사 결과 및 상기 검사 결과의 변화에 기초하여 상기 사용자의 안구 건강상태를 판단하는 단계(S106)를 수행할 수 있다.
상술한 단계(S103)에서, 서버(100)는 상기 시야검사 결과 및 상기 검사 결과의 변화로부터 상기 사용자의 안질환 발생가능성을 예측하는 단계(S107)를 수행할 수 있다.
일 실시 예에서, 서버(100)는 단계 S105에서의 비교 결과 사용자의 시야범위가 축소한 것으로 판단되는 경우, 시야가 결손된 부위를 확인하고, 시야결손이 진행되는 속도를 판단하여, 사용자의 안구 건강상태를 판단할 수 있고, 향후 시야결손 진행방향 및 속도를 예측하여, 사용자의 안질환 발생가능성을 예측할 수 있다.
또한, 서버(100)는 인공지능 모델에 대한 입력 파라미터로서 시야검사 결과 및 시야검사 결과의 변화를 정량화하여 입력하고, 그 출력으로서 사용자의 안질환 보유여부 혹은 향후 안질환 발생가능성을 판단할 수 있다.
도 4는 일 실시 예에 따라 서버를 통해 시야검사를 제어하는 방법을 도시한 흐름도이다.
단계 S108에서, 서버(100)는 상기 시야검사기(10)에 시야검사 정보를 제공할 수 있다.
일 실시 예에서, 시야검사기(10)는 서버(100)로부터 제공되는 정보에 기초하여 시야검사를 수행할 수 있다. 시야검사기(10)에 제공되는 정보는, 시야검사를 위한 시표에 대한 정보와, 시표의 위치 및 이동에 대한 정보를 포함할 수 있다. 또한, 시야검사기(10)에 제공되는 정보는, 사용자의 시표 인식여부에 대한 분석방법에 대한 정보가 포함될 수도 있으며, 사용자의 시표 인식여부에 대한 분석은 시야검사기(10)로부터 제공된 측정 데이터에 기초하여 서버(100)에서 수행될 수도 있다.
단계 S109에서, 서버(100)는 상기 제공된 시야검사 정보에 기초하여 수행된 시야검사 결과를 획득하는 단계(S109)를 수행할 수 있다.
도 5는 일 실시 예에 따라 시야검사 정보를 제공하는 방법을 도시한 흐름도이다.
상술한 단계(S108)에서, 서버(100)는 상기 시야검사 결과에 기초하여 상기 사용자의 시야범위 지도를 생성하는 단계(S110)를 수행할 수 있다.
도 10을 참조하면, 사용자의 시야범위 지도(200)의 일 예가 도시되어 있다. 시야범위 지도(200)에는 사용자의 시야범위의 중심(210)이 표시될 수 있고, 기준 시야범위(220)가 표시될 수 있다.
일 실시 예에서, 기준 시야범위(220)는 건강한 일반인의 표준 시야범위를 의미할 수도 있고, 표준 시야범위를 모두 포괄할 수 있도록 다소 크게 설정된 범위를 의미할 수도 있다.
또한, 시야범위 지도(200)에는 사용자의 시야범위(230)가 도시될 수 있다. 시야범위(230)는 시야검사기(10)에서 디스플레이를 이용해 표시한 시표를 사용자가 인지하였는지 여부에 기초하여, 결정될 수 있다. 시표를 표시하는 방법 및 이에 대한 인지여부를 분석하는 방법은 서버(100)로부터 제공된 시야검사 정보에 기초하여 수행될 수 있다.
또한, 서버(100)는 상기 검사 결과의 변화양상을 상기 시야범위 지도에 표시하는 단계(S111)를 수행할 수 있다.
도 11을 참조하면, 시야범위 지도(200)에서 사용자의 기존 시야범위(230)대비 결손된 시야범위(240)를 별도로 표시하는 일 예가 도시되어 있다.
또한, 서버(100)는 상기 시야검사 결과에 기초하여 상기 시야범위 지도 상에서 위험영역을 결정하는 단계(S112)를 수행할 수 있다.
도 11을 참조하면, 시야범위 지도(200) 상에 위험영역(260)을 결정하여 표시하는 일 예가 도시되어 있다. 위험영역은 시신경이 많이 몰려있는 황반부위 등에 대응하는 영역일 수 있으며, 그 구체적인 분석방법은 후술한다.
또한, 서버(100)는 상기 검사 결과의 변화양상에 기초하여 상기 시야범위 지도 상에서 손실예상영역을 결정하는 단계(S113)를 수행할 수 있다.
도 11을 참조하면, 시야범위 지도(200) 상에 손실예상영역(270)을 표시하는 일 예가 도시되어 있다. 손실예상영역(270)은 결손된 시야범위(240)로부터 추정될 수 있다.
또한, 서버(100)는 상기 위험영역(260) 및 상기 손실예상영역(270)에 대한 정밀검사 요청을 포함하는, 상기 시야검사 정보를 상기 시야검사기에 제공하는 단계(S114)를 수행할 수 있다.
예를 들어, 서버(100)는 위험영역(260) 및 손실예상영역(270)에 대한 재검사 또는 정밀검사를 시야검사기(10)에 요청할 수 있으며, 재검사 또는 정밀검사 방법은 제한되지 않으나, 실시 예에 따라 아래와 같은 방법이 적용될 수 있다.
예를 들어, 시야검사기(10)는 서버(100)에서 제공된 위험영역(260) 및 손실예상영역(270)에 대한 정보에 기초하여, 상기 위험영역(260) 및 손실예상영역(270)에서 복수의 지점을 결정하고, 결정된 복수의 지점 각각에 순차적으로 시표를 표시할 수 있다.
시야검사기(10)는 표시된 각각의 시표에 대한 사용자의 인지여부를 판단할 수 있다. 사용자의 인지여부 판단은 사용자 입력부를 통해 사용자로부터 직접 입력받을 수도 있고, 카메라를 이용하여 사용자의 동공을 촬영한 후, 동공의 움직임이나 변화에 기초하여 판단될 수도 있다.
사용자가 시표를 인지하지 못하는 경우, 시야검사기(10)는 사용자의 시야범위 내에 시표의 방향을 지시하는 마커를 표시할 수 있다. 사용자가 마커가 표시된 이후에도 시표를 인지하지 못하는 경우, 시표가 표시된 위치는 사용자의 시야범위 밖인 것으로 판단할 수 있다.
또한, 사용자가 해당 시표를 인지하지 못하는 경우, 시야검사기(10)는 서버(100)로부터 제공된 정보에 기초하여 맞춤형 시표를 생성하고, 맞춤형 시표는 사용자가 좋아하는 이미지를 포함할 수 있으며, 실시 예에 따라 사용자가 흥미를 가질 수 있는 영상으로 구성될 수도 있다. 시야검사기(10)는 생성된 맞춤형 시표를 표시하고, 사용자의 인지여부를 다시 확인할 수 있다.
또한, 시야검사기(10)는 사용자의 입력에 따른 인지여부와, 카메라 촬영을 통해 판단된 인지여부를 비교하여, 사용자의 시야범위를 결정할 수도 있다. 예를 들어, 사용자의 입력에 따른 인지여부와, 카메라 촬영을 통해 판단된 인지여부가 상이한 경우, 사용자의 입력에 따라 판단된 시야범위와 카메라 촬영을 통해 판단된 시야범위의 중간지점을 사용자의 시야범위인 것으로 판단할 수 있다.
도 6은 일 실시 예에 따른 위험영역 결정방법을 도시한 흐름도이다.
상술한 단계(S112)에서, 서버(100)는 상기 시야범위 지도 상에서 상기 사용자의 맹점에 대응하는 위치를 결정하는 단계(S115)를 수행할 수 있다.
일 실시 예에서, 서버(100)는 시야검사기(10)에 사용자의 맹점의 위치를 판단하기 위한 시야검사 정보를 제공할 수 있다.
시야검사기(10)는 제공된 정보에 기초하여 시야검사를 수행할 수 있으며, 구체적인 방법은 아래와 같을 수 있으나, 이에 제한되는 것은 아니다.
일 실시 예에서, 시야검사기(10)는, 시표를 특정 방향으로 이동시키는 중에 시표가 사용자의 인지범위에서 이탈하는 경우, 이탈하는 위치를 확인하고, 상기 특정 방향으로 시표를 소정의 거리만큼 더 이동시킬 수 있다.
이 때, 시표를 상기 소정의 거리만큼 더 이동시키는 중에 사용자가 시표를 다시 인지하는 경우, 상기 확인된 이탈하는 위치는 사용자의 맹점에 대응하는 위치인 것으로 판단할 수 있다.
예를 들어, 시표를 특정 방향으로 이동시키는 중에, 시표가 인지되지 않는 위치가 확인될 수 있다. 이 때, 시야검사기(10)는 시표를 더 이동시킬 수 있고, 이때 시표가 다시 인지될 수 있다. 이 경우, 확인된 위치는 시야의 한계지점이 아니라 사용자의 맹점에 해당하는 지점인 것으로 판단할 수 있다.
실시 예에 따라, 맹점의 위치는 안구의 생물학적 구조로 인해 자연스러운 것을 수 있으나, 그 위치나 모양, 크기, 개수에 따라 안구에 문제가 있는 것으로 판단될 수도 있다. 본 명세서에서는, 이러한 모든 종류의 맹점을 포괄하는 개념으로서 해당 용어를 사용한다.
일 실시 예에서, 시표를 상기 소정의 거리만큼 더 이동시키는 중에도 상기 사용자가 상기 시표를 인지하지 못하는 경우, 상기 확인된 이탈하는 위치는 상기 특정 방향에 대한 사용자의 시야범위의 경계인 것으로 판단할 수 있다. 예를 들어, 시표에 대하여 사용자가 인지하지 못하였고, 더 멀리 이동시켜도 사용자가 이를 인지하지 못하면, 해당 위치는 사용자의 시야범위의 경계인 것으로 판단할 수 있다.
또한, 서버(100)는 상기 단계(S115)에서 결정된 위치에 기초하여 상기 시야범위 지도 상에서 상기 사용자의 황반에 대응하는 위치를 결정하는 단계(S116)를 수행할 수 있다.
일 실시 예에서, 서버(100)는 복수의 사용자의 시야범위 및 맹점과 황반의 위치에 기초하여, 맹점의 위치와 황반의 위치의 상관관계를 산출할 수 있다. 서버(100)는 산출된 상관관계로부터 맹점의 위치로부터 황반의 위치를 산출할 수 있다.
실시 예에 따라서, 서버(100)는 복수의 사용자의 맹점과 황반의 위치를 수집하고, 이로부터 학습 데이터를 생성할 수 있다. 학습 데이터에는 사용자의 시야범위에 대한 정보 또한 포함될 수 있다.
서버(100)는 학습 데이터를 이용하여 인공지능 모델을 학습시키고, 이로부터 사용자의 맹점 위치 및 시야범위 중 적어도 하나를 이용하여 사용자의 황반 위치를 판단할 수 있다.
또한, 서버(100)는 상기 황반에 대응하는 위치를 상기 위험영역으로 결정하는 단계(S117)를 수행할 수 있다.
황반 부분이 손상되는 경우 실명에 이를 수 있으므로, 황반에 대응하는 위치는 위험영역으로 결정하여 관리될 수 있다.
도 7은 일 실시 예에 따른 손실예상영역 결정방법을 도시한 흐름도이다.
상술한 단계(S113)에서, 서버(100)는 상기 시야범위 지도 상에서 상기 사용자의 최초 시야범위 대비 손실된 시야범위 영역을 판단하는 단계(S118)를 수행할 수 있다.
도 11을 참조하면, 최소 시야범위(230) 대비 손실된 시야범위 영역(240)이 표시되어 있다.
또한, 서버(100)는 상기 손실된 시야범위 영역의 크기 및 상기 시야범위 영역이 손실되는 데 소요된 시간에 대한 정보를 획득하는 단계(S119)를 수행할 수 있다.
또한, 서버(100)는 상기 단계(S119)에서 획득된 정보에 기초하여, 소정의 기간 내에 시야손실이 예측되는 손실예상영역을 결정하는 단계(S120)를 수행할 수 있다.
예를 들어, 서버(100)는 기존 히스토리에 기초하여 시야범위의 손실위치, 방향 및 속도 등에 대한 정보를 수집하고, 이로부터 시야범위가 추가로 손실될 위치, 방향 및 속도를 예상할 수 있다. 예측된 영역은 도 11에 도시된 바와 같이 손실예상영역(270)으로 도시될 수 있다.
도 8은 일 실시 예에 따른 추가진단 방법을 도시한 흐름도이다.
상술한 단계(S103)에서, 서버(100)는 상기 위험영역과 상기 손실예상영역의 중첩여부를 판단하는 단계(S121)를 수행할 수 있다.
도 11을 참조하면, 위험영역(260)과 손실예상영역(270)이 중첩되는 일 예가 도시되어 있다.
또한, 서버(100)는 상기 위험영역과 상기 손실예상영역의 적어도 일부가 중첩되는 경우, 상기 시야검사기에 상기 사용자에게 제공할 알림정보를 전송하는 단계(S122)를 더 수행할 수 있다.
일 실시 예에서, 상기 알림정보는, 상기 위험영역과 상기 손실예상영역의 중첩에 따른 위험성에 대한 알림정보, 상기 사용자의 안질환 여부에 대한 문진정보 및 정밀검진 요청정보를 포함할 수 있다.
일 실시 예에서, 문진정보는 사용자와 대화할 수 있는 챗봇정보를 포함할 수 있으며, 이에 따라 시야검사기(10)는 챗봇을 이용하여 사용자와 대화함으로써, 필요한 문진정보를 수집할 수 있다.
상술한 단계(S122)에서, 서버(100)는 상기 제공된 알림정보에 대응하여 수신되는 상기 사용자의 음성답변을 상기 시야검사기로부터 수신하는 단계(S123)를 수행할 수 있다.
또한, 서버(100)는 상기 사용자의 음성답변을 분석하여 상기 문진정보 및 상기 정밀검진 요청정보에 대한 응답을 획득하는 단계(S124)를 수행할 수 있다.
또한, 서버(100)는 상기 획득된 응답에 기초하여 상기 사용자의 정밀검진을 예약하는 단계(S125)를 수행할 수 있다.
일 실시 예에서, 서버(100)는 사용자로부터 획득된 응답 및 시야검사 결과로부터 사용자의 안질환 위험성을 판단하고, 정밀검사를 위한 추가정보를 제공하여 시야검사를 다시 수행하되, 필요한 경우 병원에서의 정밀검사를 위하여 일정을 예약할 수 있다.
도 9는 일 실시 예에 따른 인공지능 모델 학습방법을 도시한 흐름도이다.
상술한 단계(S103)에서, 서버(100)는 복수의 사용자의 시야검사 결과 및 상기 복수의 사용자의 안질환 여부를 포함하는 데이터를 수집하는 단계(S126)를 수행할 수 있다.
또한, 서버(100)는 상기 수집된 데이터로부터 학습 데이터를 생성하되, 상기 복수의 사용자의 시야검사 결과 각각을 하나 이상의 파라미터로 정량화하고, 상기 정량화된 하나 이상의 파라미터 및 상기 정량화된 하나 이상의 파라미터 각각에 대응하는 안질환 여부를 포함하는 학습 데이터를 생성하는, 단계(S127)를 수행할 수 있다.
일 실시 예에서, 시야검사 결과의 정량화는 시야범위의 넓이, 둘레, 지릅 등을 포함할 수 있으며, 또한 시야범위의 변화가 발생하는 경우 변화의 정도(예를 들어, 손실영역의 넓이 및 손실방향 등)를 정량화하는 것을 포함할 수 있다.
일 실시 예에서, 서버(100)는 개시된 실시 예에 따른 시야 검사를 통해 시야 검사기들로부터 시야 검사 데이터를 지속적으로 수집하고, 수집된 데이터를 이용하여 빅 데이터를 구축하고, 지속적으로 갱신할 수 있다. 서버(100)는 빅 데이터를 이용하여 개시된 실시 예에 따른 인공지능 모델을 학습시킴으로써, 인공지능 모델의 예측성능을 향상시킬 수 있다.
또한, 서버(100)는 상기 학습 데이터를 이용하여, 상기 인공지능 모델을 학습시키는 단계(S128)를 수행할 수 있다.
도 12는 일 실시 예에 따른 장치의 구성도이다.
본 명세서에서, 장치는 서버(100)에 대응할 수 있으나, 이에 제한되는 것은 아니다.
프로세서(102)는 하나 이상의 코어(core, 미도시) 및 그래픽 처리부(미도시) 및/또는 다른 구성 요소와 신호를 송수신하는 연결 통로(예를 들어, 버스(bus) 등)를 포함할 수 있다.
일 실시예에 따른 프로세서(102)는 메모리(104)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 도 1 내지 도 11과 관련하여 설명된 방법을 수행한다.
예를 들어, 프로세서(102)는 메모리에 저장된 하나 이상의 인스트럭션을 실행함으로써 시야검사기로부터 사용자의 시야검사 결과를 획득하고, 상기 시야검사 결과에 기초하여, 상기 사용자의 안구 건강상태를 판단하고, 인공지능 모델을 이용하여, 상기 시야검사 결과로부터 상기 사용자의 안질환 발생가능성을 예측할 수 있다.
한편, 프로세서(102)는 프로세서(102) 내부에서 처리되는 신호(또는, 데이터)를 일시적 및/또는 영구적으로 저장하는 램(RAM: Random Access Memory, 미도시) 및 롬(ROM: Read-Only Memory, 미도시)을 더 포함할 수 있다. 또한, 프로세서(102)는 그래픽 처리부, 램 및 롬 중 적어도 하나를 포함하는 시스템온칩(SoC: system on chip) 형태로 구현될 수 있다.
메모리(104)에는 프로세서(102)의 처리 및 제어를 위한 프로그램들(하나 이상의 인스트럭션들)을 저장할 수 있다. 메모리(104)에 저장된 프로그램들은 기능에 따라 복수 개의 모듈들로 구분될 수 있다.
본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.
본 발명의 구성 요소들은 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 어플리케이션)으로 구현되어 매체에 저장될 수 있다. 본 발명의 구성 요소들은 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있으며, 이와 유사하게, 실시 예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다.
이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.
10: 시야검사기
20: 사용자 단말
100: 서버

Claims (9)

  1. 컴퓨터에 의하여 수행되는 방법으로서,
    시야검사기로부터 사용자의 시야검사 결과를 획득하는 단계(S101);
    상기 시야검사 결과에 기초하여, 상기 사용자의 안구 건강상태를 판단하는 단계(S102); 및
    빅 데이터를 이용하여 학습된 인공지능 모델을 이용하여, 상기 시야검사 결과로부터 상기 사용자의 안질환 발생가능성을 예측하는 단계(S103); 를 포함하고,
    상기 단계(S101)는,
    상기 시야검사 결과를 상기 사용자의 계정에 저장하는 단계(S104); 를 포함하고,
    상기 단계(S102)는,
    상기 사용자의 계정에 저장된 검사 결과에 기초하여, 상기 사용자의 시야검사 결과의 변화를 판단하는 단계(S105); 및
    상기 시야검사 결과 및 상기 검사 결과의 변화에 기초하여 상기 사용자의 안구 건강상태를 판단하는 단계(S106); 를 포함하고,
    상기 단계(S103)는,
    상기 시야검사 결과 및 상기 검사 결과의 변화로부터 상기 사용자의 안질환 발생가능성을 예측하는 단계(S107); 를 포함하고,
    상기 방법은,
    상기 시야검사기에 시야검사 정보를 제공하는 단계(S108); 및
    상기 제공된 시야검사 정보에 기초하여 수행된 시야검사 결과를 획득하는 단계(S109); 를 더 포함하고,
    상기 단계(S108)는,
    상기 시야검사 결과에 기초하여 상기 사용자의 시야범위 지도를 생성하는 단계(S110);
    상기 검사 결과의 변화양상을 상기 시야범위 지도에 표시하는 단계(S111);
    상기 시야검사 결과에 기초하여 상기 시야범위 지도 상에서 위험영역을 결정하는 단계(S112);
    상기 검사 결과의 변화양상에 기초하여 상기 시야범위 지도 상에서 손실예상영역을 결정하는 단계(S113); 및
    상기 위험영역 및 상기 손실예상영역에 대한 재검사 요청을 포함하는, 상기 시야검사 정보를 상기 시야검사기에 제공하는 단계(S114); 를 포함하고,
    상기 방법은,
    상기 위험영역과 상기 손실예상영역의 중첩여부를 판단하는 단계(S121); 및
    상기 위험영역과 상기 손실예상영역의 적어도 일부가 중첩되는 경우, 상기 시야검사기에 상기 사용자에게 제공할 알림정보를 전송하는 단계(S122); 를 더 포함하고,
    상기 알림정보는,
    상기 위험영역과 상기 손실예상영역의 중첩에 따른 위험성에 대한 알림정보, 상기 사용자의 안질환 여부에 대한 문진정보 및 정밀검진 요청정보를 포함하고,
    상기 단계(S122)는,
    상기 제공된 알림정보에 대응하여 수신되는 상기 사용자의 음성답변을 상기 시야검사기로부터 수신하는 단계(S123);
    상기 사용자의 음성답변을 분석하여 상기 문진정보 및 상기 정밀검진 요청정보에 대한 응답을 획득하는 단계(S124); 및
    상기 획득된 응답에 기초하여 상기 사용자의 정밀검진을 예약하는 단계(S125); 를 포함하는,
    인공지능 시야분석 방법.
  2. 삭제
  3. 삭제
  4. 삭제
  5. 제1 항에 있어서,
    상기 단계(S112)는,
    상기 시야범위 지도 상에서 상기 사용자의 맹점에 대응하는 위치를 결정하는 단계(S115);
    상기 단계(S115)에서 결정된 위치에 기초하여 상기 시야범위 지도 상에서 상기 사용자의 황반에 대응하는 위치를 결정하는 단계(S116); 및
    상기 황반에 대응하는 위치를 상기 위험영역으로 결정하는 단계(S117); 를 포함하는,
    인공지능 시야분석 방법.
  6. 제5 항에 있어서,
    상기 단계(S113)는,
    상기 시야범위 지도 상에서 상기 사용자의 최초 시야범위 대비 손실된 시야범위 영역을 판단하는 단계(S118);
    상기 손실된 시야범위 영역의 크기 및 상기 시야범위 영역이 손실되는 데 소요된 시간에 대한 정보를 획득하는 단계(S119); 및
    상기 단계(S119)에서 획득된 정보에 기초하여, 소정의 기간 내에 시야손실이 예측되는 손실예상영역을 결정하는 단계(S120); 를 포함하는,
    인공지능 시야분석 방법.
  7. 삭제
  8. 제1 항에 있어서,
    상기 단계(S103)는,
    복수의 사용자의 시야검사 결과 및 상기 복수의 사용자의 안질환 여부를 포함하는 데이터를 수집하는 단계(S126);
    상기 수집된 데이터로부터 학습 데이터를 생성하되, 상기 복수의 사용자의 시야검사 결과 각각을 하나 이상의 파라미터로 정량화하고, 상기 정량화된 하나 이상의 파라미터 및 상기 정량화된 하나 이상의 파라미터 각각에 대응하는 안질환 여부를 포함하는 학습 데이터를 생성하는, 단계(S127); 및
    상기 학습 데이터를 이용하여, 상기 인공지능 모델을 학습시키는 단계(S128); 를 포함하는,
    인공지능 시야분석 방법.
  9. 하나 이상의 인스트럭션을 저장하는 메모리; 및
    상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하고,
    상기 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써,
    제1 항의 방법을 수행하는, 인공지능 시야분석 장치.
KR1020180084660A 2018-07-20 2018-07-20 인공지능 시야분석 방법 및 장치 KR101984995B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180084660A KR101984995B1 (ko) 2018-07-20 2018-07-20 인공지능 시야분석 방법 및 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180084660A KR101984995B1 (ko) 2018-07-20 2018-07-20 인공지능 시야분석 방법 및 장치

Publications (1)

Publication Number Publication Date
KR101984995B1 true KR101984995B1 (ko) 2019-05-31

Family

ID=66657169

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180084660A KR101984995B1 (ko) 2018-07-20 2018-07-20 인공지능 시야분석 방법 및 장치

Country Status (1)

Country Link
KR (1) KR101984995B1 (ko)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111000524A (zh) * 2019-12-30 2020-04-14 珠海广目锐视医疗科技有限公司 基于人工神经网络的视觉测试系统
KR102219659B1 (ko) * 2020-10-07 2021-02-25 주식회사 엠투에스 가상현실 기반의 눈 건강 측정방법 및 그 시스템
KR20220009798A (ko) * 2020-07-16 2022-01-25 주식회사 뉴냅스 시지각 학습을 이용하는 시각 능력 개선 장치 및 이를 이용하는 시각 능력 개선 방법
WO2022075554A1 (ko) * 2020-10-07 2022-04-14 주식회사 엠투에스 가상현실 기반의 눈 건강 측정 장치, 방법 및 그 시스템
KR20220051445A (ko) 2020-10-19 2022-04-26 부산대학교 산학협력단 머신러닝을 이용한 손상된 망막에서 측정된 망막전위도검사(erg) 신호의 분류 방법 및 이를 이용한 손상된 망막에서 측정된 망막전위도검사(erg) 신호의 분류 시스템
KR20230016784A (ko) * 2021-07-27 2023-02-03 삼육대학교산학협력단 빅데이터와 카메라 필터기능을 활용한 자가시력진단 시스템, 그리고 시력측정필터를 활용한 시력측정 앱 구축 및 시력측정 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009045175A (ja) * 2007-08-17 2009-03-05 Topcon Corp 眼科検査システム
JP2013132502A (ja) * 2011-12-27 2013-07-08 Nidek Co Ltd 眼底検査装置
KR20160045216A (ko) * 2014-10-16 2016-04-27 포항공과대학교 산학협력단 개인 맞춤형 시야 검사 방법 및 그 장치
KR20170075962A (ko) 2015-12-24 2017-07-04 고려대학교 산학협력단 Hmd 기반의 휴대용 시야 검사기

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009045175A (ja) * 2007-08-17 2009-03-05 Topcon Corp 眼科検査システム
JP2013132502A (ja) * 2011-12-27 2013-07-08 Nidek Co Ltd 眼底検査装置
KR20160045216A (ko) * 2014-10-16 2016-04-27 포항공과대학교 산학협력단 개인 맞춤형 시야 검사 방법 및 그 장치
KR20170075962A (ko) 2015-12-24 2017-07-04 고려대학교 산학협력단 Hmd 기반의 휴대용 시야 검사기

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Cecilia S. Lee et al., Deep Learning for Classification of Macular OCT Images, American Academy of Ophthalmology, 2016.12, pp.322-327* *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111000524A (zh) * 2019-12-30 2020-04-14 珠海广目锐视医疗科技有限公司 基于人工神经网络的视觉测试系统
KR20220009798A (ko) * 2020-07-16 2022-01-25 주식회사 뉴냅스 시지각 학습을 이용하는 시각 능력 개선 장치 및 이를 이용하는 시각 능력 개선 방법
KR102604303B1 (ko) 2020-07-16 2023-11-20 주식회사 뉴냅스 시지각 학습을 이용하는 시각 능력 개선 장치 및 이를 이용하는 시각 능력 개선 방법
KR102219659B1 (ko) * 2020-10-07 2021-02-25 주식회사 엠투에스 가상현실 기반의 눈 건강 측정방법 및 그 시스템
WO2022075554A1 (ko) * 2020-10-07 2022-04-14 주식회사 엠투에스 가상현실 기반의 눈 건강 측정 장치, 방법 및 그 시스템
KR20220051445A (ko) 2020-10-19 2022-04-26 부산대학교 산학협력단 머신러닝을 이용한 손상된 망막에서 측정된 망막전위도검사(erg) 신호의 분류 방법 및 이를 이용한 손상된 망막에서 측정된 망막전위도검사(erg) 신호의 분류 시스템
KR20230016784A (ko) * 2021-07-27 2023-02-03 삼육대학교산학협력단 빅데이터와 카메라 필터기능을 활용한 자가시력진단 시스템, 그리고 시력측정필터를 활용한 시력측정 앱 구축 및 시력측정 방법
KR102616791B1 (ko) 2021-07-27 2023-12-20 삼육대학교산학협력단 빅데이터와 카메라 필터기능을 활용한 자가시력진단 시스템

Similar Documents

Publication Publication Date Title
KR101984995B1 (ko) 인공지능 시야분석 방법 및 장치
EP3477589B1 (en) Method of processing medical image, and medical image processing apparatus performing the method
US20200073476A1 (en) Systems and methods for determining defects in visual field of a user
JP6878923B2 (ja) 画像処理装置、画像処理システム、および画像処理プログラム
Norouzifard et al. Automated glaucoma diagnosis using deep and transfer learning: Proposal of a system for clinical testing
CN111862020B (zh) 一种眼前节生理年龄预测方法、装置、服务器及存储介质
JP7442596B2 (ja) ナビゲーション課題を使用するバイオマーカーの識別およびナビゲーション課題を使用する治療のためのプラットフォーム
JP2013169375A (ja) 脳機能疾患診断支援装置および脳機能疾患診断支援方法
US20200074361A1 (en) Performance measurement device, performance measurement method and performance measurement program
EP3617965A1 (en) Performance measurement device, performance measurement method and performance measurement program
Lu et al. Automated strabismus detection for telemedicine applications
CN113990500A (zh) 一种生命体征参数的监测方法、装置以及储存介质
US20230402178A1 (en) Providing healthcare via autonomous, self-learning, and self-evolutionary processes
CN117152827A (zh) 一种近视预测模型的训练方法、近视预测方法及装置
Krishnan et al. Gaze exploration index (GE i)-explainable detection model for glaucoma
El Hossi et al. Applied CNN for automatic diabetic retinopathy assessment using fundus images
Huang et al. A fuzzy approach to determining critical factors of diabetic retinopathy and enhancing data classification accuracy
Singh et al. A novel hybridized feature selection strategy for the effective prediction of glaucoma in retinal fundus images
KR20210096737A (ko) 안저 영상판독 지원방법, 안저 영상판독 지원장치 및 이를 포함하는 안저 영상판독 지원 시스템
KR20210054140A (ko) 내시경 영상에 대한 복수의 의료 영상 판독 알고리듬들을 이용하는 의료 영상 판독 지원 장치 및 방법
KR101984993B1 (ko) 사용자 맞춤형 시표 제어가 가능한 시야검사기
Noori et al. Towards trustworthy myopia detection: integration methodology of deep learning approach, XAI visualization, and user interface system
Rakhmetulayeva et al. IMPLEMENTATION OF CONVOLUTIONAL NEURAL NETWORK FOR PREDICTING GLAUCOMA FROM FUNDUS IMAGES.
Gunasinghe et al. Comparison of pretrained feature extractors for glaucoma detection
JP2019208851A (ja) 眼底画像処理装置および眼底画像処理プログラム

Legal Events

Date Code Title Description
GRNT Written decision to grant