KR102280944B1 - 안구상태 검사 방법 및 이를 수행하기 위한 컴퓨팅 장치 - Google Patents

안구상태 검사 방법 및 이를 수행하기 위한 컴퓨팅 장치 Download PDF

Info

Publication number
KR102280944B1
KR102280944B1 KR1020190095308A KR20190095308A KR102280944B1 KR 102280944 B1 KR102280944 B1 KR 102280944B1 KR 1020190095308 A KR1020190095308 A KR 1020190095308A KR 20190095308 A KR20190095308 A KR 20190095308A KR 102280944 B1 KR102280944 B1 KR 102280944B1
Authority
KR
South Korea
Prior art keywords
gaze
user
information
content
inducer
Prior art date
Application number
KR1020190095308A
Other languages
English (en)
Other versions
KR20210016911A (ko
Inventor
김경태
정진화
Original Assignee
김경태
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김경태 filed Critical 김경태
Priority to KR1020190095308A priority Critical patent/KR102280944B1/ko
Publication of KR20210016911A publication Critical patent/KR20210016911A/ko
Application granted granted Critical
Publication of KR102280944B1 publication Critical patent/KR102280944B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • A61B3/145Arrangements specially adapted for eye photography by video means

Abstract

안구상태 검사 방법 및 이를 수행하기 위한 컴퓨팅 장치가 개시된다. 본 발명의 일 실시예에 따른 안구상태 검사 방법 및 이를 수행하기 위한 컴퓨팅 장치는 하나 이상의 프로세서들, 및 상기 하나 이상의 프로세서들에 의해 실행되는 하나 이상의 프로그램들을 저장하는 메모리를 구비한 컴퓨팅 장치로서, 스마트 기기의 화면에서 사용자의 시선 이동을 유도하기 위한 시선유도체를 포함하는 콘텐츠를 생성하는 콘텐츠 제공 모듈; 상기 콘텐츠를 상기 스마트 기기로 전송하고, 상기 스마트 기기로부터 상기 콘텐츠를 바라보는 상기 사용자의 촬영 영상을 획득하는 통신 모듈; 상기 촬영 영상을 기반으로 상기 사용자의 시선 정보를 생성하는 시선 인식 모듈; 및 상기 시선 정보와 상기 시선유도체의 이동 정보를 바탕으로 상기 사용자의 안구상태를 분석하여 상기 사용자의 안구상태 분석 정보를 생성하는 안구상태 분석 모듈을 포함한다.

Description

안구상태 검사 방법 및 이를 수행하기 위한 컴퓨팅 장치{METHOD FOR EYE STATE INSPECTION AND COMPUTING DEVICE FOR EXECUTING THE METHOD}
본 발명의 실시예들은 안구상태 검사 기술과 관련된다.
인체에 있는 중추 기능을 관장하는 뇌(Brain)는 인체의 구성하는 모든 부분과 중추신경계 및 말초 신경계로 연결되어 있다. 이에, 의료분야에서는 피검자의 안구 움직임을 포착하여 쉽게 검진하기 어려운 뇌에 대한 건강 상태를 진단하거나 평형기관에 대한 건강 상태를 진단하고 있다.
안구의 운동 검사는 뇌의 기능을 평가하는 비침습적인 검사이며, 특히, 치매와 연관된 뇌의 이상을 밝혀내는데 유용한 방법이다.
일반적으로, 안구의 움직임을 포착하고 그것을 유용한 수준에서 분석하고자 하는 방법으로는 EOG(Electrooculogram), VOG(Videooculogram), MSCT(Magnetic Search Coil Technique) 등이 사용되고 있다.
그러나, 이러한 방법을 사용하기 위해서는 별도의 장치가 필요하며, 안구의 상태를 검사하는 기능만을 제공하고 있는 문제점이 있다.
대한민국 등록특허공보 제 10-0627929호 (2006.09.18.)
본 발명의 실시예들은 특별한 장비 없이 누구나 손쉽게 안구 상태를 검사할 수 있는 수단을 제공하기 위한 것이다.
본 발명의 예시적인 실시예에 따르면, 하나 이상의 프로세서들, 및 상기 하나 이상의 프로세서들에 의해 실행되는 하나 이상의 프로그램들을 저장하는 메모리를 구비한 컴퓨팅 장치로서, 스마트 기기의 화면에서 사용자의 시선 이동을 유도하기 위한 시선유도체를 포함하는 콘텐츠를 생성하는 콘텐츠 제공 모듈; 상기 콘텐츠를 상기 스마트 기기로 전송하고, 상기 스마트 기기로부터 상기 콘텐츠를 바라보는 상기 사용자의 촬영 영상을 획득하는 통신 모듈; 상기 촬영 영상을 기반으로 상기 사용자의 시선 정보를 생성하는 시선 인식 모듈; 및 상기 시선 정보와 상기 시선유도체의 이동 정보를 바탕으로 상기 사용자의 안구상태를 분석하여 상기 사용자의 안구상태 분석 정보를 생성하는 안구상태 분석 모듈을 포함하는 컴퓨팅 장치가 제공된다.
상기 안구상태 분석 모듈은 상기 시선 정보에 포함된 안구의 좌표값과 상기 이동 정보에 포함된 시선유도체의 좌표값을 비교하여 일치율을 산출하고, 상기 산출된 일치율을 기반으로 상기 사용자의 안구상태 분석 정보를 생성할 수 있다.
상기 통신 모듈은 상기 스마트 기기로부터 상기 사용자의 나이를 포함하는 사용자 정보를 획득하며, 상기 콘텐츠 제공 모듈은 상기 사용자 정보를 기반으로 기 저장된 사용자들의 평균 나이와 비교하여 상기 콘텐츠 내의 상기 시선유도체의 이동 속도, 출현 빈도, 및 출현 간격 중 하나 이상을 조절할 수 있다.
상기 콘텐츠 제공 모듈은 상기 화면에 표시되는 시선유도체가 연속적인 형태를 가지는 제1 이동 정보를 포함하도록 제1 콘텐츠를 생성하며, 상기 제1 콘텐츠는 상기 사용자 정보를 기반으로 기 저장된 사용자들의 평균 나이와 비교하여 해당 사용자가 상기 평균 나이보다 많은 경우에는 상기 시선유도체의 이동 속도가 기 설정된 속도만큼 감소되고, 해당 사용자가 상기 평균 나이보다 적은 경우에는 상기 시선유도체의 이동 속도가 기 설정된 속도만큼 상승되도록 마련될 수 있다.
상기 콘텐츠 제공 모듈은 상기 화면에 표시되는 시선유도체가 불연속적인 형태를 가지는 제2 이동 정보를 포함하도록 제2 콘텐츠를 생성하며, 상기 제2 콘텐츠는 상기 사용자 정보를 기반으로 기 저장된 사용자들의 평균 나이와 비교하여 해당 사용자가 상기 평균 나이보다 많은 경우에는 상기 시선유도체의 출현 빈도가 기 설정된 횟수만큼 감소되며, 상기 시선유도체의 출현 간격이 기 설정된 시간만큼 증가되도록 마련될 수 있다.
상기 콘텐츠 제공 모듈은 상기 화면에 표시되는 시선유도체가 연속적인 형태를 가지는 제1 이동 정보 및 상기 화면에 표시되는 시선유도체가 불연속적인 형태를 가지는 제2 이동 정보를 포함하도록 제3 콘텐츠를 생성하며, 상기 제3 콘텐츠는 상기 사용자 정보를 기반으로 기 저장된 사용자들의 평균 나이와 비교하여 해당 사용자가 상기 평균 나이보다 많은 경우에는 상기 시선유도체의 이동 속도가 기 설정된 속도만큼 감소되고, 상기 시선유도체의 출현 빈도가 기 설정된 횟수만큼 감소되며, 상기 시선유도체의 출현 간격이 기 설정된 시간만큼 증가되도록 마련될 수 있다.
본 발명의 다른 예시적인 실시예에 따르면, 하나 이상의 프로세서들, 및 상기 하나 이상의 프로세서들에 의해 실행되는 하나 이상의 프로그램들을 저장하는 메모리를 구비한 컴퓨팅 장치에서 수행되는 방법으로서, 화면에서 사용자의 시선 이동을 유도하기 위한 시선유도체를 포함하는 콘텐츠를 스마트 기기로 전송하는 단계; 상기 스마트 기기로부터 상기 콘텐츠를 바라보는 상기 사용자의 촬영 영상을 획득하는 단계; 상기 촬영 영상을 기반으로 상기 사용자의 시선 정보를 생성하는 단계; 상기 시선 정보와 상기 시선유도체의 이동 정보를 바탕으로 상기 사용자의 안구상태를 분석하여 상기 사용자의 안구상태 분석 정보를 생성하는 단계; 및 상기 사용자의 안구상태 분석 정보를 상기 스마트 기기로 제공하는 단계를 포함하며, 상기 안구상태 분석 정보를 생성하는 단계는, 상기 시선 정보에 포함된 안구의 좌표값과 상기 이동 정보에 포함된 시선유도체의 좌표값을 비교하여 일치율을 산출하는 단계; 및 상기 산출된 일치율을 기반으로 상기 사용자의 안구상태 분석 정보를 생성하는 단계를 더 포함하는, 안구상태 검사 방법이 제공된다.
본 발명의 실시예들에 따르면, 스마트 기기에서 전방 카메라를 이용하여 시선 인식을 통하여 안구 상태를 검사함으로써, 별도의 장비 없이 스마트 기기로 검사가 가능하며, 비용의 절감 및 편리성을 높일 수 있다.
또한, 본 발명의 실시예들에 따르면, 스마트 기기를 통하여 안구 상태를 검사하고 분석된 정보를 제공하며, 분석된 정보에 따른 관련 컨텐츠를 제공함으로써, 안구 상태를 건강하게 유지할 수 있다.
도 1은 본 발명의 일 실시예에 따른 안구상태 검사 시스템을 설명하기 위한 구성도
도 2는 본 발명의 일 실시예에 따른 안구상태 검사 시스템의 스마트 기기를 설명하기 위한 구성도
도 3은 본 발명의 일 실시예에 따른 안구상태 검사 시스템의 관리 서버를 설명하기 위한 구성도
도 4는 본 발명의 일 실시예에 따른 안구상태 검사 시스템의 스마트 기기로 표시되는 콘텐츠를 설명하기 위한 도면
도 5는 본 발명의 일 실시예에 따른 안구상태 검사 시스템의 스마트 기기로 표시되는 다른 콘텐츠를 설명하기 위한 도면
도 6은 본 발명의 일 실시예에 따른 안구상태 검사 시스템을 이용한 안구상태 검사 방법을 설명하기 위한 흐름도
도 7은 예시적인 실시예들에서 사용되기에 적합한 컴퓨팅 장치를 포함하는 컴퓨팅 환경을 예시하여 설명하기 위한 블록도
이하, 도면을 참조하여 본 발명의 구체적인 실시형태를 설명하기로 한다. 이하의 상세한 설명은 본 명세서에서 기술된 방법, 장치 및/또는 시스템에 대한 포괄적인 이해를 돕기 위해 제공된다. 그러나 이는 예시에 불과하며 본 발명은 이에 제한되지 않는다.
본 발명의 실시예들을 설명함에 있어서, 본 발명과 관련된 공지기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하기로 한다. 그리고, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. 상세한 설명에서 사용되는 용어는 단지 본 발명의 실시예들을 기술하기 위한 것이며, 결코 제한적이어서는 안 된다. 명확하게 달리 사용되지 않는 한, 단수 형태의 표현은 복수 형태의 의미를 포함한다. 본 설명에서, "포함" 또는 "구비"와 같은 표현은 어떤 특성들, 숫자들, 단계들, 동작들, 요소들, 이들의 일부 또는 조합을 가리키기 위한 것이며, 기술된 것 이외에 하나 또는 그 이상의 다른 특성, 숫자, 단계, 동작, 요소, 이들의 일부 또는 조합의 존재 또는 가능성을 배제하도록 해석되어서는 안 된다.
도 1은 본 발명의 일 실시예에 따른 안구상태 검사 시스템을 설명하기 위한 구성도이고, 도 2는 본 발명의 일 실시예에 따른 안구상태 검사 시스템의 스마트 기기를 설명하기 위한 구성도이며, 도 3은 본 발명의 일 실시예에 따른 안구상태 검사 시스템의 관리 서버를 설명하기 위한 구성도이다.
도 1 내지 도 3에 도시된 바와 같이, 본 발명의 일 실시예에 따른 안구상태 검사 시스템은 스마트 기기(100) 및 관리서버(300)를 포함할 수 있다.
스마트 기기(100) 및 관리 서버(300)는 통신 네트워크(200)를 통해 통신 가능하게 연결된다.
몇몇 실시 예들에서, 통신 네트워크(200)는 인터넷, 하나 이상의 로컬 영역 네트워크(local area networks), 광역 네트워크(wire area networks), 셀룰러 네트워크, 모바일 네트워크, 그 밖에 다른 종류의 네트워크들, 또는 이러한 네트워크들의 조합을 포함할 수 있다.
스마트 기기(100)는 무선 통신을 사용할 수 있는 스마트 폰, 태블릿 PC 등으로서, 스마트 기기(100)는 촬영부(110), 통신부(120) 및 디스플레이부(130)를 포함할 수 있다.
촬영부(110)는 사용자의 얼굴을 촬영할 수 있다. 촬영부(110)는 스마트 기기(100) 등의 단말에 일체로 형성될 수 있다. 구체적으로, 촬영부(110)는 스마트 기기(100) 등의 단말에 일체로 형성되어 사용자의 얼굴을 촬영할 수 있다. 또한, 촬영부(110)는 사용자의 시선을 인식하기 위한 영상을 촬영할 수 있다. 촬영부(110)는 촬영된 영상을 전송부(120)를 통하여 관리 서버(300)로 제공할 수 있다. 이때, 촬영된 영상은 이미지 보정을 통하여 보정된 후 관리 서버(300)로 제공할 수 있다.
통신부(120)는 촬영된 영상을 네트워크(200)를 통하여 관리 서버(300)로 전송할 수 있다. 또한, 통신부(120)는 관리 서버(300)로부터 화면에서 움직임을 가지도록 구현된 시선유도체를 포함하는 콘텐츠를 수신할 수 있다. 통신부(120)는 관리 서버(300)로부터 시선 정보에 기초하여 분석된 사용자의 안구상태 분석 정보를 수신할 수 있다.
디스플레이부(130)는 움직임을 가지는 시선유도체를 포함하는 콘텐츠를 화면에 표시할 수 있다. 디스플레이부(130)는 스마트 기기(100)의 화면을 통하여 콘텐츠를 출력할 수 있다. 콘텐츠는 스마트 기기(100)의 화면을 통하여 콘텐츠를 바라보는 사용자의 시선 이동을 유도할 수 있다. 여기서, 시선유도체는 원의 형상으로 형성될 수 있으나, 이에 한정되는 것은 아니며, 다양한 모양, 색깔, 크기를 가질 수 있다. 예시적인 실시예에서, 콘텐츠는 시선유도체를 기 설정된 궤적을 따라 움직여서 표시하도록 마련된 것일 수 있다. 여기서, 시선 유도체가 형성하는 궤적은 도형, 글자, 퍼즐 및 캐릭터 중 어느 하나일 수 있다. 또한, 콘텐츠는 광고, 교육, 영화 및 게임 중 적어도 하나의 분야에 적용될 수 있다.
또한, 디스플레이부(130)는 사용자의 안구상태 분석 정보를 표시할 수 있다. 디스플레이부(130)는 사용자의 안구상태 분석 정보를 스마트 기기(100) 상에서 출력할 수 있도록 가공하여 스마트 기기(100)의 화면을 통하여 출력할 수 있다.
이 때, 본 발명의 일 실시예에 따른 스마트 기기(100)는 안구상태 검사 서비스를 제공하기 위한 어플리케이션이 설치될 수 있다. 상기 어플리케이션은 스마트 기기(100)의 컴퓨터 판독 가능 저장 매체에 저장될 수 있다. 상기 어플리케이션은 스마트 기기(100)의 프로세서에 의해 실행 가능한 명령어의 소정의 집합을 포함한다. 상기 명령어는 스마트 기기(100)의 프로세서로 하여금 예시적인 실시예에 따른 동작을 수행하게 할 수 있다. 스마트 기기(100)의 컴퓨터 판독 가능 저장 매체는 스마트 기기(100) 상에서 상기 어플리케이션과 같은 명령어 집합을 실행하기 위한 운영 체제의 컴포넌트들을 포함한다. 예를 들어, 이러한 운영 체제는 애플(Apple) 사의 iOS 또는 구글(Google) 사의 Android 일 수 있다.
여기서, 안구상태 검사 서비스를 제공하기 위한 어플리케이션은 사용자의 정보를 입력할 수 있는 입력 인터페이스를 제공할 수 있으며, 입력 인터페이스를 통하여 사용자 데이터를 입력 받을 수 있다. 예를 들어, 사용자의 성명, 성별, 나이 및 스마트 기기 번호 등을 입력할 수 있는 입력 인터페이스를 사용자에게 제공할 수 있다.
한편, 안구상태 검사 서비스를 제공하기 위한 어플리케이션은 이상에서 설명한 기능 외에도 다양한 분석 처리 및 정보 제공 동작을 수행하도록 설정될 수 있다. 예를 들어, 안구상태 검사 서비스를 제공하기 위한 어플리케이션은 안구상태 분석 정보를 기 설정된 웹 서버(예를 들어, SNS 서버)로 업로드 또는 백업하거나, 기 설정된 웹 서버로부터 사용자의 정보에 매칭되는 기 등록된 안구상태 분석 정보를 획득하여 디스플레이부(130)를 통해 표시할 수 있다.
관리 서버(300)는 통신 모듈(310), 저장 모듈(320), 콘텐츠 제공 모듈(330), 시선 인식 모듈(340) 및 안구상태 분석 모듈(350)을 포함할 수 있다.
통신 모듈(310)은 스마트 기기(100)로부터 촬영된 영상을 네트워크(200)를 통하여 수신할 수 있다. 통신 모듈(310)은 스마트 기기(100)로부터 사용자 정보를 네트워크(200)를 통하여 수신할 수 있다. 또한, 통신 모듈(310)은 콘텐츠를 스마트 기기(100)로 전송할 수 있다. 통신 모듈(310)은 안구상태 분석 정보를 스마트 기기(100)로 전송할 수 있다.
저장 모듈(320)은 통신 모듈(310)을 통하여 수신한 사용자 정보, 촬영된 영상을 저장할 수 있다. 저장 모듈(320)은 안구상태 분석 모듈(350)로부터 분석된 사용자의 안구상태 분석 정보를 저장할 수 있다. 또한, 저장 모듈(320)은 콘텐츠를 저장할 수 있다.
콘텐츠 제공 모듈(330)은 통신 모듈(310)을 통하여 움직임을 가지는 시선유도체를 포함하는 콘텐츠를 전송할 수 있다. 전송된 콘텐츠는 스마트 기기(100)의 디스플레이부(130)를 통하여 표시할 수 있다. 여기서, 시선유도체는 원의 형상으로 형성될 수 있으나, 이에 한정되는 것은 아니며, 다양한 모양, 색깔, 크기를 가질 수 있다. 예를 들어, 콘텐츠는 시선유도체를 기 설정된 궤적을 따라 움직여서 표시하도록 마련된 것일 수 있다. 그러나, 이에 한정되는 것은 아니며 시선 유도체는 화면에서 특정 궤도를 따라 움직이는 것이 아니라 화면에서 랜덤한 위치에 불연속적으로 표시되도록 마련될 수도 있다. 여기서, 시선 유도체가 형성하는 궤적은 도형, 글자, 퍼즐 및 캐릭터 중 어느 하나일 수 있다. 또한, 콘텐츠는 광고, 교육, 영화 및 게임 중 적어도 하나의 분야에 적용될 수 있다.
또한, 콘텐츠 제공 모듈(330)은 시선유도체가 상하, 좌우, 대각선으로 움직이는 형태를 가지도록 마련되는 콘텐츠를 생성하여 스마트 기기(100)로 전송할 수 있다. 콘텐츠는 시선 유도체가 화면에 표시되는 좌표값을 연속적인 형태인 연속패턴 형태를 가지도록 할 수 있으며, 시선 유도체가 화면에 표시되는 좌표값을 불연속적인 형태인 랜덤패턴 형태를 가지도록 할 수 있다. 예를 들어, 콘텐츠 제공 모듈(330)은 시선유도체가 연속패턴 형태를 형성하는 제1 이동 정보를 가지도록 마련되는 콘텐츠를 생성할 수 있다. 또한, 콘텐츠 제공 모듈(330)은 시선유도체가 랜덤패턴 형태를 형성하는 제2 이동 정보를 가지도록 마련되는 콘텐츠를 생성할 수 있다.
또한, 콘텐츠 제공 모듈(330)은 사용자 정보를 이용하여 시선유도체가 연속패턴 형태를 형성하는 제1 이동 정보를 가지도록 하여 제1 콘텐츠를 생성할 수 있다. 즉, 콘텐츠 제공 모듈(330)은 기 저장된 사용자들의 정보를 기반으로 해당 사용자 정보(나이, 성별 등)와 비교하여 제1 이동 정보를 따라 이동하는 시선유도체의 이동 속도를 제어하여 제1 콘텐츠를 생성할 수 있다. 예를 들어, 해당 사용자의 나이에 따라 시선유도체의 이동 속도를 제어하여 난이도를 조절할 수 있다. 해당 사용자의 나이가 기 저장된 사용자들의 평균 나이보다 많은 경우, 제1 이동 정보를 따라 이동하는 시선유도체의 이동 속도를 기 설정된 속도만큼 낮출 수 있다. 또한, 해당 사용자의 나이가 기 저장된 사용자들의 평균 나이보다 적은 경우, 제1 이동 정보를 따라 이동하는 시선유도체의 이동 속도를 기 설정된 속도만큼 높일 수 있다.
또한, 콘텐츠 제공 모듈(330)은 사용자 정보를 이용하여 시선유도체가 랜덤패턴 형태를 형성하는 제2 이동 정보를 가지도록 하여 제2 콘텐츠를 생성할 수 있다. 콘텐츠 제공 모듈(330)은 기 저장된 사용자들의 정보를 기반으로 해당 사용자 정보(나이, 성별 등)와 비교하여 제2 이동 정보를 따라 나타나는 시선유도체의 출현 빈도 또는 간격을 제어하여 제2 콘텐츠를 생성할 수 있다. 예를 들어, 해당 사용자의 나이에 따라 시선유도체의 출현 횟수 및 출현 간격을 제어하여 난이도를 조절할 수 있다. 해당 사용자의 나이가 기 저장된 사용자들의 평균 나이보다 많은 경우, 제2 이동 정보를 따라 나타나는 시선유도체의 출현 빈도를 기 설정된 횟수만큼 낮추고, 시선 유도체의 출현 간격을 기 설정된 시간만큼 늘릴 수 있다. 또한, 해당 사용자의 나이가 기 저장된 사용자들의 평균 나이보다 적은 경우, 제2 이동 정보를 따라 나타나는 시선유도체의 출현 빈도를 기 설정된 횟수만큼 높이고, 시선 유도체의 출현 간격을 기 설정된 시간만큼 줄일 수 있다.
이와 같이, 사용자 정보에 따라 콘텐츠의 난이도를 조절함으로써, 보다 정확한 검사 결과를 제공할 수 있다.
시선 인식 모듈(340)은 통신 모듈(310)을 통하여 수신한 촬영된 영상을 이용하여 사용자의 시선을 인식할 수 있다. 시선 인식 모듈(340)은 사용자의 시선을 인식하여 시선 정보를 생성할 수 있다. 구체적으로, 시선 인식 모듈(340)은 통신 모듈(310)을 통하여 수신한 촬영된 영상으로부터 회귀분석(Regression) 알고리즘을 통하여 얼굴을 인식할 수 있다. 여기서, 회귀분석 알고리즘은 머신 러닝(machine learning) 내에서 사용되는 알고리즘 방법론 중 일부이며, 머신 러닝에 사용되는 데이터셋은 Dlib(distribution library)를 이용하여 face landmark 데이터셋을 사용하여 사람의 얼굴을 인식할 수 있다.
또한, 시선 인식 모듈(340)은 인식된 얼굴 이미지로부터 시선 정보를 생성할 수 있다. 구체적으로, 시선 인식 모듈(340)은 인식된 얼굴 이미지에서 안구를 추출하고, 추출된 안구의 수평, 수직, 회선 운동에 따른 움직임을 분석하여 시선 정보를 생성할 수 있다. 즉, 시선 인식 모듈(340)은 추출된 안구의 움직임에 따른 좌표값을 인식할 수 있다. 시선 인식 모듈(340)은 좌표값을 기초로 시선 정보를 생성할 수 있다.
본 발명의 일 실시예에 따른 시선 인식 모듈(340)은 머신 러닝(machine learning) 방식에 기초한 캘리브레이션(calibration)을 수행할 수 있다. 구체적으로, 시선 인식 모듈(340)은 얼굴 이미지로부터 안구의 움직임을 분석하도록 학습된 머신 러닝을 수행하여 사용자 별로 추출된 안구의 움직임을 캘리브레이션(calibration)함으로써, 사용자 별로 안구의 움직임에 대한 인식률을 높일 수 있다.
도 4는 본 발명의 일 실시예에 따른 안구상태 검사 시스템의 스마트 기기로 표시되는 콘텐츠를 설명하기 위한 도면이다.
도 4를 참조하면, 스마트 기기(100)의 디스플레이부(130)를 통해 표시되는 제1 콘텐츠는 상하, 좌우, 대각선으로 움직이는 형태를 가지는 시선유도체를 포함할 수 있다. 제1 콘텐츠는 화면에 표시되는 좌표값을 연속적인 형태인 제1 이동 정보로 표시할 수 있다. 예를 들어, 제1 이동 정보는 시선유도체가 움직이는 궤적, 즉, 도형, 글자, 퍼즐 및 캐릭터 등의 윤곽을 따라 이동하는 연속적인 움직임에 의한 연속패턴일 수 있다. 이 때, 시선 인식 모듈(340)은 시선유도체가 움직이는 궤적을 추적하는 안구의 수평, 수직, 회선 운동에 따른 움직임을 분석할 수 있다.
한편, 여기서는 콘텐츠가 궤적을 그리는 형태로 표시하였으나, 이에 한정되는 것은 아니며, 사용자의 시선을 인식할 수 있는 시선유도체를 표시하는 콘텐츠라면 제한이 없음을 당업자는 용이하게 이해할 수 있을 것이다. 예를 들어, 콘텐츠는 시선유도체에 대한 모양, 색깔, 크기, 궤적 등이 변경될 수 있다. 또한, 시선유도체에 대한 궤적은 도형, 글자, 퍼즐, 캐릭터 등으로 변경될 수 있다. 또한, 콘텐츠는 게임 등의 방식으로 표시될 수 있다.
도 5는 본 발명의 일 실시예에 따른 안구상태 검사 시스템의 스마트 기기로 표시되는 다른 콘텐츠를 설명하기 위한 도면이다.
도 5를 참조하면, 스마트 기기(100)의 디스플레이부(130)를 통해 표시되는 제2 콘텐츠는 불특정하게 나타나는 형태를 가지는 시선 유도체를 포함할 수 있다. 제2 콘텐츠는 화면에 표시되는 좌표값을 불연속적인 형태인 제2 이동 정보로 표시할 수 있다. 예를 들어, 제2 이동 정보는 화면에 표시되는 좌표값을 불연속적으로 표시, 즉, 불특정하게 깜빡이는 시선유도체에 의한 랜덤패턴일 수 있다. 이 때, 시선 인식 모듈(340)은 시선유도체가 표시되는 좌표값을 추적하는 안구의 수평, 수직, 회선 운동에 따른 움직임 및 안구의 반응을 분석할 수 있다.
다시 도 1 내지 도 3을 참조하면, 안구상태 분석 모듈(350)은 시선 인식 모듈(340)을 통하여 생성된 시선 정보와 콘텐츠에 포함된 이동 정보를 비교하여 사용자의 안구상태를 분석할 수 있다. 구체적으로, 안구상태 분석 모듈(350)은 시선 정보와 이동 정보를 비교하여 시선 정보와 이동 정보의 일치율을 산출할 수 있다. 안구상태 분석 모듈(350)은 산출된 일치율을 기반으로 해당 사용자의 안구상태 분석 정보를 생성할 수 있다. 즉, 안구상태 분석 모듈(350)은 시선 정보에 포함된 좌표값과 이동 정보에 포함된 좌표값을 비교하여 일치율을 산정할 수 있다. 예를 들어, 시선 정보에 포함된 안구의 좌표값과 이동 정보에 포함된 시선유도체의 좌표값을 비교하여 일치율이 90%로 산출되는 경우, 90점으로 산정된 안구상태 분석 정보를 사용자에게 제공할 수 있다. 이 때, 안구상태 분석 모듈(350)은 복수의 안구상태 분석 정보를 기반으로 기 저장된 사용자들의 평균 점수를 산출하여 해당 사용자의 안구상태 분석 정보와 함께 제공할 수 있다.
예시적인 실시예에서, 안구상태 분석 모듈(350)은 시선 정보와 제1 콘텐츠에 포함된 제1 이동 정보를 비교하여 사용자의 안구상태를 분석할 수 있다. 구체적으로, 안구상태 분석 모듈(350)은 시선 정보와 제1 이동 정보를 비교하여 시선 정보와 제1 이동 정보의 일치율을 산출할 수 있다. 안구상태 분석 모듈(350)은 산출된 일치율을 기반으로 해당 사용자의 안구상태 분석 정보를 생성할 수 있다. 즉, 안구상태 분석 모듈(350)은 시선 정보가 제1 이동 정보와 대응되는 정도를 분석하여 해당 사용자의 안구상태 분석 정보를 생성할 수 있다. 이 때, 안구상태 분석 모듈(350)은 제1 이동 정보를 따라 움직이는 시선 정보로부터 안구의 수평, 수직, 회선 운동에 따른 움직임을 분석할 수 있다.
예시적인 실시예에서, 안구상태 분석 모듈(350)은 시선 정보와 제2 콘텐츠에 포함된 제2 이동 정보를 비교하여 사용자의 안구상태를 분석할 수 있다. 구체적으로, 안구상태 분석 모듈(350)은 시선 정보와 제2 이동 정보를 비교하여 시선 정보와 제2 이동 정보의 일치율을 산출할 수 있다. 안구상태 분석 모듈(350)은 산출된 일치율을 기반으로 해당 사용자의 안구상태 분석 정보를 생성할 수 있다. 즉, 안구상태 분석 모듈(350)은 시선 정보가 제2 이동 정보와 대응되는 정도를 분석하여 해당 사용자의 안구상태 분석 정보를 생성할 수 있다. 이 때, 안구상태 분석 모듈(350)은 시선 정보가 제2 이동 정보가 표시되는 좌표값과 대응되는 정도를 분석하여 안구의 수평, 수직, 회선 운동에 따른 움직임을 분석할 수 있다. 또한, 안구상태 분석 모듈(350)은 시선 정보가 제2 이동 정보가 표시되는 좌표값을 추적하는 정도를 분석하여 안구의 반응속도를 분석할 수 있다.
따라서, 본 발명의 일 실시예에 따른 안구상태 검사 시스템은 스마트 기기에서 전방 카메라를 이용하여 시선 인식을 통하여 안구 상태를 검사함으로써, 별도의 장비 없이 스마트 기기로 검사가 가능하며, 비용의 절감 및 편리성을 높일 수 있다.
컨텐츠 제공 모듈(360)는 안구상태 분석 정보를 기반으로 다양한 시선유도체가 포함된 콘텐츠를 게임에 적용하여 제공할 수 있다. 여기서, 시선유도체는 도형, 글자, 퍼즐 및 캐릭터 중 어느 하나일 수 있다. 또한, 게임은 2차원 배열로 배치된 다수의 블록들을 이용한 퍼즐게임일 수 있다.
따라서, 본 발명의 일 실시예에 따른 안구상태 검사 시스템은 스마트 기기를 통하여 안구 상태를 검사하고 분석된 정보를 제공하며, 분석된 정보에 따른 관련 컨텐츠를 제공함으로써, 안구 상태를 건강하게 유지할 수 있다.
도 6은 본 발명의 일 실시예에 따른 안구상태 검사 시스템을 이용한 안구상태 검사 방법을 설명하기 위한 흐름도이다. 도 6에 도시된 방법은 예를 들어, 하나 이상의 프로세서들, 및 상기 하나 이상의 프로세서들에 의해 실행되는 하나 이상의 프로그램들을 저장하는 메모리를 구비한 컴퓨팅 장치(12)에 의해 수행될 수 있다. 이를 위하여, 안구상태 검사 방법은 하나 이상의 컴퓨터 실행 가능 명령어를 포함하는 프로그램 내지 소프트웨어의 형태로 구현되어 상기 메모리상에 저장될 수 있다.
또한, 도시된 흐름도에서는 상기 방법을 복수 개의 단계로 나누어 기재하였으나, 적어도 일부의 단계들은 순서를 바꾸어 수행되거나, 다른 단계와 결합되어 함께 수행되거나, 생략되거나, 세부 단계들로 나뉘어 수행되거나, 또는 도시되지 않은 하나 이상의 단계가 부가되어 수행될 수 있다.
도 6을 참조하면, 컴퓨팅 장치(12)는 화면에서 사용자의 시선 이동을 유도하기 위한 시선유도체를 포함하는 콘텐츠를 스마트 기기(100)로 전송한다(S601).
다음으로, 컴퓨팅 장치(12)는 스마트 기기(100)로부터 콘텐츠를 바라보는 사용자의 촬영 영상을 획득한다(S602).
다음으로, 컴퓨팅 장치(12)는 촬영 영상을 기반으로 사용자의 시선 정보를 생성한다(S603). 구체적으로, 컴퓨팅 장치(12)는 인식된 얼굴 이미지로부터 안구를 추출하고, 추출된 안구의 움직임을 분석하여 상기 시선 정보를 생성할 수 있다. 이 때, 컴퓨팅 장치(12)는 얼굴 이미지로부터 안구 움직임을 분석하도록 학습된 머신 러닝을 수행하여 사용자의 안구 움직임을 캘리브레이션(calibration)할 수 있다.
다음으로, 컴퓨팅 장치(12)는 시선 정보와 시선유도체의 이동 정보를 바탕으로 사용자의 안구상태를 분석하여 사용자의 안구상태 분석 정보를 생성한다(S604). 구체적으로, 컴퓨팅 장치(12)는 시선 정보에 포함된 안구 의 좌표값과 이동 정보에 포함된 시선유도체의 좌표값을 비교하여 일치율을 산출할 수 있다. 컴퓨팅 장치(12)는 산출된 일치율을 기반으로 사용자의 안구상태 분석 정보를 생성할 수 있다.
마지막으로, 컴퓨팅 장치(12)는 사용자의 안구상태 분석 정보를 사용자의 스마트 기기(100)로 제공한다(S605).
도 7은 예시적인 실시예들에서 사용되기에 적합한 컴퓨팅 장치를 포함하는 컴퓨팅 환경(10)을 예시하여 설명하기 위한 블록도이다. 도시된 실시예에서, 각 컴포넌트들은 이하에 기술된 것 이외에 상이한 기능 및 능력을 가질 수 있고, 이하에 기술된 것 이외에도 추가적인 컴포넌트를 포함할 수 있다.
도시된 컴퓨팅 환경(10)은 컴퓨팅 장치(12)를 포함한다. 일 실시예에서, 컴퓨팅 장치(12)는 스마트 기기(100)일 수 있다. 또한, 컴퓨팅 장치(12)는 관리 서버(300)일 수 있다.
컴퓨팅 장치(12)는 적어도 하나의 프로세서(14), 컴퓨터 판독 가능 저장 매체(16) 및 통신 버스(18)를 포함한다. 프로세서(14)는 컴퓨팅 장치(12)로 하여금 앞서 언급된 예시적인 실시예에 따라 동작하도록 할 수 있다. 예컨대, 프로세서(14)는 컴퓨터 판독 가능 저장 매체(16)에 저장된 하나 이상의 프로그램들을 실행할 수 있다. 상기 하나 이상의 프로그램들은 하나 이상의 컴퓨터 실행 가능 명령어를 포함할 수 있으며, 상기 컴퓨터 실행 가능 명령어는 프로세서(14)에 의해 실행되는 경우 컴퓨팅 장치(12)로 하여금 예시적인 실시예에 따른 동작들을 수행하도록 구성될 수 있다.
컴퓨터 판독 가능 저장 매체(16)는 컴퓨터 실행 가능 명령어 내지 프로그램 코드, 프로그램 데이터 및/또는 다른 적합한 형태의 정보를 저장하도록 구성된다. 컴퓨터 판독 가능 저장 매체(16)에 저장된 프로그램(20)은 프로세서(14)에 의해 실행 가능한 명령어의 집합을 포함한다. 일 실시예에서, 컴퓨터 판독 가능 저장 매체(16)는 메모리(랜덤 액세스 메모리와 같은 휘발성 메모리, 비휘발성 메모리, 또는 이들의 적절한 조합), 하나 이상의 자기 디스크 저장 디바이스들, 광학 디스크 저장 디바이스들, 플래시 메모리 디바이스들, 그 밖에 컴퓨팅 장치(12)에 의해 액세스되고 원하는 정보를 저장할 수 있는 다른 형태의 저장 매체, 또는 이들의 적합한 조합일 수 있다.
통신 버스(18)는 프로세서(14), 컴퓨터 판독 가능 저장 매체(16)를 포함하여 컴퓨팅 장치(12)의 다른 다양한 컴포넌트들을 상호 연결한다.
컴퓨팅 장치(12)는 또한 하나 이상의 입출력 장치(24)를 위한 인터페이스를 제공하는 하나 이상의 입출력 인터페이스(22) 및 하나 이상의 네트워크 통신 인터페이스(26)를 포함할 수 있다. 입출력 인터페이스(22) 및 네트워크 통신 인터페이스(26)는 통신 버스(18)에 연결된다. 입출력 장치(24)는 입출력 인터페이스(22)를 통해 컴퓨팅 장치(12)의 다른 컴포넌트들에 연결될 수 있다. 예시적인 입출력 장치(24)는 포인팅 장치(마우스 또는 트랙패드 등), 키보드, 터치 입력 장치(터치패드 또는 터치스크린 등), 음성 또는 소리 입력 장치, 다양한 종류의 센서 장치 및/또는 촬영 장치와 같은 입력 장치, 및/또는 디스플레이 장치, 프린터, 스피커 및/또는 네트워크 카드와 같은 출력 장치를 포함할 수 있다. 예시적인 입출력 장치(24)는 컴퓨팅 장치(12)를 구성하는 일 컴포넌트로서 컴퓨팅 장치(12)의 내부에 포함될 수도 있고, 컴퓨팅 장치(12)와는 구별되는 별개의 장치로 컴퓨팅 장치(12)와 연결될 수도 있다.
이상에서 본 발명의 대표적인 실시예들을 상세하게 설명하였으나, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 상술한 실시예에 대하여 본 발명의 범주에서 벗어나지 않는 한도 내에서 다양한 변형이 가능함을 이해할 것이다. 그러므로 본 발명의 권리범위는 설명된 실시예에 국한되어 정해져서는 안 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.
100 : 스마트 기기
110 : 촬영부
120 : 통신부
130 : 디스플레이부
200 : 네트워크
300 : 관리 서버
310 : 통신 모듈
320 : 저장 모듈
330 : 콘텐츠 제공 모듈
340 : 시선 인식 모듈
350 : 안구상태 분석 모듈

Claims (7)

  1. 하나 이상의 프로세서들, 및
    상기 하나 이상의 프로세서들에 의해 실행되는 하나 이상의 프로그램들을 저장하는 메모리를 구비한 컴퓨팅 장치로서,
    스마트 기기의 화면에서 사용자의 시선 이동을 유도하기 위한 시선유도체를 포함하는 콘텐츠를 생성하는 콘텐츠 제공 모듈;
    상기 콘텐츠를 상기 스마트 기기로 전송하고, 상기 스마트 기기로부터 상기 콘텐츠를 바라보는 상기 사용자의 촬영 영상을 획득하는 통신 모듈;
    상기 촬영 영상을 기반으로 상기 사용자의 시선 정보를 생성하는 시선 인식 모듈; 및
    상기 시선 정보와 상기 시선유도체의 이동 정보를 바탕으로 상기 사용자의 안구상태를 분석하여 상기 사용자의 안구상태 분석 정보를 생성하는 안구상태 분석 모듈을 포함하며,
    상기 안구상태 분석 모듈은,
    상기 시선 정보에 포함된 안구의 좌표값과 상기 이동 정보에 포함된 시선유도체의 좌표값을 비교하여 일치율을 산출하고, 상기 산출된 일치율을 기반으로 상기 사용자의 안구상태 분석 정보를 생성하며,
    상기 통신 모듈은, 상기 스마트 기기로부터 상기 사용자의 나이를 포함하는 사용자 정보를 획득하며,
    상기 콘텐츠 제공 모듈은,
    상기 화면에 표시되는 시선유도체가 연속적인 형태를 가지는 제1 이동 정보 및 상기 화면에 표시되는 시선유도체가 불연속적인 형태를 가지는 제2 이동 정보를 포함하도록 제3 콘텐츠를 생성하며,
    상기 제3 콘텐츠는,
    상기 사용자 정보를 기반으로 기 저장된 사용자들의 평균 나이와 비교하여 해당 사용자가 상기 평균 나이보다 많은 경우에는 상기 시선유도체의 이동 속도가 기 설정된 속도만큼 감소되고, 상기 시선유도체의 출현 빈도가 기 설정된 횟수만큼 감소되며, 상기 시선유도체의 출현 간격이 기 설정된 시간만큼 증가되도록 마련되는, 안구상태 검사를 수행하기 위한 컴퓨팅 장치.
  2. 삭제
  3. 삭제
  4. 삭제
  5. 삭제
  6. 삭제
  7. 하나 이상의 프로세서들, 및
    상기 하나 이상의 프로세서들에 의해 실행되는 하나 이상의 프로그램들을 저장하는 메모리를 구비한 컴퓨팅 장치에서 수행되는 방법으로서,
    화면에서 사용자의 시선 이동을 유도하기 위한 시선유도체를 포함하는 콘텐츠를 스마트 기기로 전송하는 단계;
    상기 스마트 기기로부터 상기 콘텐츠를 바라보는 상기 사용자의 촬영 영상을 획득하는 단계;
    상기 촬영 영상을 기반으로 상기 사용자의 시선 정보를 생성하는 단계;
    상기 시선 정보와 상기 시선유도체의 이동 정보를 바탕으로 상기 사용자의 안구상태를 분석하여 상기 사용자의 안구상태 분석 정보를 생성하는 단계; 및
    상기 사용자의 안구상태 분석 정보를 상기 스마트 기기로 제공하는 단계를 포함하며,
    상기 안구상태 분석 정보를 생성하는 단계는,
    상기 시선 정보에 포함된 안구의 좌표값과 상기 이동 정보에 포함된 시선유도체의 좌표값을 비교하여 일치율을 산출하는 단계; 및
    상기 산출된 일치율을 기반으로 상기 사용자의 안구상태 분석 정보를 생성하는 단계를 더 포함하며,
    상기 사용자의 촬영 영상을 획득하는 단계는,
    상기 스마트 기기로부터 상기 사용자의 나이를 포함하는 사용자 정보를 획득하는 단계를 더 포함하며,
    상기 콘텐츠를 스마트 기기로 전송하는 단계는,
    상기 화면에 표시되는 시선유도체가 연속적인 형태를 가지는 제1 이동 정보 및 상기 화면에 표시되는 시선유도체가 불연속적인 형태를 가지는 제2 이동 정보를 포함하도록 제3 콘텐츠를 생성하는 단계를 더 포함하며,
    상기 제3 콘텐츠는,
    상기 사용자 정보를 기반으로 기 저장된 사용자들의 평균 나이와 비교하여 해당 사용자가 상기 평균 나이보다 많은 경우에는 상기 시선유도체의 이동 속도가 기 설정된 속도만큼 감소되고, 상기 시선유도체의 출현 빈도가 기 설정된 횟수만큼 감소되며, 상기 시선유도체의 출현 간격이 기 설정된 시간만큼 증가되도록 마련되는, 안구상태 검사를 위한 컴퓨팅 장치에서 수행되는 방법.
KR1020190095308A 2019-08-06 2019-08-06 안구상태 검사 방법 및 이를 수행하기 위한 컴퓨팅 장치 KR102280944B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190095308A KR102280944B1 (ko) 2019-08-06 2019-08-06 안구상태 검사 방법 및 이를 수행하기 위한 컴퓨팅 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190095308A KR102280944B1 (ko) 2019-08-06 2019-08-06 안구상태 검사 방법 및 이를 수행하기 위한 컴퓨팅 장치

Publications (2)

Publication Number Publication Date
KR20210016911A KR20210016911A (ko) 2021-02-17
KR102280944B1 true KR102280944B1 (ko) 2021-07-23

Family

ID=74731797

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190095308A KR102280944B1 (ko) 2019-08-06 2019-08-06 안구상태 검사 방법 및 이를 수행하기 위한 컴퓨팅 장치

Country Status (1)

Country Link
KR (1) KR102280944B1 (ko)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101894536B1 (ko) * 2017-10-30 2018-09-12 대한민국 신경언어장애 환자의 의사소통 능력 향상을 위한 언어훈련 방법

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100627929B1 (ko) 2004-05-07 2006-09-25 재단법인서울대학교산학협력재단 안구 운동 측정장치 및 방법
KR101660157B1 (ko) * 2015-01-21 2016-09-26 동국대학교 산학협력단 시선 추적 기반 재활 시스템
KR101899405B1 (ko) * 2016-11-11 2018-09-17 주식회사 3디나라 컴퓨터 및 스마트폰을 기반으로 한 시력강화 소프트웨어 구현 방법
KR101966164B1 (ko) * 2017-01-12 2019-04-05 고려대학교산학협력단 가상현실을 이용한 안과 검사 시스템 및 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101894536B1 (ko) * 2017-10-30 2018-09-12 대한민국 신경언어장애 환자의 의사소통 능력 향상을 위한 언어훈련 방법

Also Published As

Publication number Publication date
KR20210016911A (ko) 2021-02-17

Similar Documents

Publication Publication Date Title
US11366517B2 (en) Human-computer interface using high-speed and accurate tracking of user interactions
US20190392587A1 (en) System for predicting articulated object feature location
US10678897B2 (en) Identification, authentication, and/or guiding of a user using gaze information
US20190080148A1 (en) Method and apparatus for generating image
WO2020062523A1 (zh) 注视点判断方法和装置、电子设备和计算机存储介质
US20210089760A1 (en) Facial expression image processing method and apparatus
EP3862897B1 (en) Facial recognition for user authentication
CN114077726A (zh) 用于对用户进行认证的系统、方法和机器可读介质
CN108108676A (zh) 人脸识别方法、卷积神经网络生成方法及装置
US20170112373A1 (en) Visual acuity testing method and product
KR101936082B1 (ko) 리얼센스 카메라를 이용한 가상현실 기반의 손가락 재활 시스템 및 방법
US20180180891A1 (en) Electronic device and method of controlling the same
US9594949B1 (en) Human identity verification via automated analysis of facial action coding system features
WO2022066450A1 (en) Representation of users based on current user appearance
KR102280944B1 (ko) 안구상태 검사 방법 및 이를 수행하기 위한 컴퓨팅 장치
US20230360548A1 (en) Assist system, assist method, and assist program
Gervasi et al. A method for predicting words by interpreting labial movements
KR102205269B1 (ko) 체형 분석 시스템 및 이를 수행하기 위한 컴퓨팅 장치
CN113509136A (zh) 检测方法、视力检测方法、装置、电子设备及存储介质
CN110545386A (zh) 用于拍摄图像的方法和设备
Kwiatkowska et al. Eye Tracking as a Method of Controlling Applications on Mobile Devices.
US20240013431A1 (en) Image capture devices, systems, and methods
US20230210364A1 (en) Eye tracking system, eye tracking method, and eye tracking program
US20230214010A1 (en) Information acquisition apparatus, information acquisition method, and storage medium
KR102545747B1 (ko) 사용자의 주의력 정도 결정 방법 및 장치

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant