KR20210084965A - System and method that monitoring myopia patient according to usage environment of terminal - Google Patents

System and method that monitoring myopia patient according to usage environment of terminal Download PDF

Info

Publication number
KR20210084965A
KR20210084965A KR1020190177520A KR20190177520A KR20210084965A KR 20210084965 A KR20210084965 A KR 20210084965A KR 1020190177520 A KR1020190177520 A KR 1020190177520A KR 20190177520 A KR20190177520 A KR 20190177520A KR 20210084965 A KR20210084965 A KR 20210084965A
Authority
KR
South Korea
Prior art keywords
terminal
information
myopia
user
use environment
Prior art date
Application number
KR1020190177520A
Other languages
Korean (ko)
Other versions
KR102334027B1 (en
Inventor
안예진
신선영
이재혁
Original Assignee
(주)아이쿱
가톨릭대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)아이쿱, 가톨릭대학교 산학협력단 filed Critical (주)아이쿱
Priority to KR1020190177520A priority Critical patent/KR102334027B1/en
Publication of KR20210084965A publication Critical patent/KR20210084965A/en
Application granted granted Critical
Publication of KR102334027B1 publication Critical patent/KR102334027B1/en

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • A61B5/6898Portable consumer electronic devices, e.g. music players, telephones, tablet computers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H80/00ICT specially adapted for facilitating communication between medical practitioners or patients, e.g. for collaborative diagnosis, therapy or health monitoring

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Ophthalmology & Optometry (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physiology (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

The present invention provides a method and system for monitoring a myopic patient according to a use environment of a terminal, which can monitor the myopic patient by generating terminal use environment information according to the use environment when the user uses the terminal in the terminal. The method includes the steps of: detecting a screen on signal indicating an activated state of the display of the terminal; obtaining sensor data by sensing the use environment using a sensor during a screen on time in which the screen on signal is sensed; generating the terminal use environment information, which is information monitored by analyzing the terminal use environment of the user based on the acquired sensor data; sequentially accumulating and storing the generated terminal use environment information; transmitting the accumulated and stored terminal use environment information to a myopia monitoring server; and obtaining and displaying expected myopia progress information based on the constantly transmitted terminal use environment information from the myopia monitoring server.

Description

단말의 사용환경에 따른 근시환자 모니터링 방법 및 시스템{SYSTEM AND METHOD THAT MONITORING MYOPIA PATIENT ACCORDING TO USAGE ENVIRONMENT OF TERMINAL}Myopia patient monitoring method and system according to the user environment of the terminal {SYSTEM AND METHOD THAT MONITORING MYOPIA PATIENT ACCORDING TO USAGE ENVIRONMENT OF TERMINAL}

본 발명은 단말의 사용환경에 따른 근시환자 모니터링 방법 및 시스템에 관한 것이다. 보다 상세하게는, 사용자가 단말을 사용하는 환경과 근시 간의 상관관계를 파악하여 사용자의 근시를 관리하는 모니터링 방법 및 시스템에 관한 것이다. The present invention relates to a method and system for monitoring a myopic patient according to a user environment of a terminal. More particularly, it relates to a monitoring method and system for managing a user's myopia by identifying a correlation between an environment in which a user uses a terminal and myopia.

최근 들어, 정보 통신 기술이 발달함에 따라 이동 통신 단말기의 보급이 급격하게 이루어지고 있다. 여기서 이동 통신 단말기는, 휴대 전화에 인터넷 통신 또는 정보 검색 등과 같은 데이터 통신 기능을 포함하고, 각종 컴퓨터 지원 기능을 추가한 지능형 단말기로, 다양한 어플리케이션(application)을 이용하여 사용자가 원하는 다양한 서비스를 제공할 수 있다. In recent years, with the development of information and communication technology, the spread of mobile communication terminals has been made rapidly. Here, the mobile communication terminal is an intelligent terminal that includes a data communication function such as Internet communication or information search in a mobile phone, and is an intelligent terminal with various computer support functions added, and can provide various services desired by a user by using various applications. can

하지만, 이러한 이동 통신 단말기를 통해 어플리케이션을 실행할 경우, 사용자의 시선은 이동 통신 단말기의 디스플레이 화면에 고정되기 때문에 본인도 모르게 무의식적으로 근거리에서 사용자가 디스플레이 화면을 장시간 동안 응시하는 상태가 지속적이고 반복적으로 일어나게 되며 눈 깜박임이 급격하게 줄어들게 된다. 이처럼, 이동 통신 단말기와 사용자의 눈이 적정한 거리(예를 들면, 휴대 단말기가 스마트폰인 경우 30cm) 이하로 장시간 유지되는 경우 사용자에게 근시(또는 녹내장)가 증가할 수 있다는 문제점이 발생한다. 최근 동아시아 지역에서는 높은 근시 유병률의 통계가 지속적으로 발표되고 있으며, 특히 고도 근시의 경우 망막박리, 망막열공, 망막 밑 신생혈관 생성 등 안과적 질병이 발생할 확률의 위험이 증가하게 된다. However, when the application is executed through such a mobile communication terminal, the user's gaze is fixed on the display screen of the mobile communication terminal, so that the user unknowingly and unconsciously stares at the display screen at a short distance for a long time continuously and repeatedly. and blinking will be drastically reduced. As such, when the mobile communication terminal and the user's eyes are kept at an appropriate distance (for example, 30 cm when the mobile terminal is a smart phone) for a long time, there is a problem that myopia (or glaucoma) may increase in the user. Recently, statistics on the prevalence of high myopia have been continuously published in East Asia, and in particular, in the case of high myopia, the risk of ophthalmic diseases such as retinal detachment, retinal tear, and subretinal neovascularization increases.

또한, 이동 통신 단말기의 사용 시 이동 통신 단말기의 주변 밝기(노출 조도) 와 단말기 디스플레이에서 출력되는 밝기(디스플레이 조도) 간 차이의 정도나, 이동 통신 단말기의 움직임 정도 즉, 이동 통신 단말기가 얼마나 흔들리는 상황에서 사용되는지 등과 같은 다양한 사용 환경에 따라서 이동 통신 단말기를 이용하는 사용자의 시력에 큰 영향을 미치고 있다. 그러나, 종래에는 사용자의 시력에 다방면으로 영향을 미칠 수 있는 이동 통신 단말기의 다양한 사용 환경을 고려하는 기술이 미비한 실정이다. In addition, when the mobile communication terminal is used, the degree of difference between the ambient brightness (exposure illuminance) of the mobile communication terminal and the brightness output from the terminal display (display illuminance) or the degree of movement of the mobile communication terminal, that is, how shaken the mobile communication terminal is The visual acuity of a user using a mobile communication terminal is greatly affected according to various usage environments such as whether it is used in a mobile communication terminal. However, in the related art, there is insufficient technology for considering various usage environments of a mobile communication terminal that can affect a user's eyesight in various ways.

또한, 이동 통신 단말기를 이용함에 따른 과도한 눈의 사용으로 인하여, 눈의 피로도가 증가할 뿐만 아니라 눈이 건조해질 수 있으며 눈의 건조함이 증가되면 시야가 흐려지고 시력이 크게 저하되는 문제점이 있다. In addition, due to excessive use of the eyes due to the use of a mobile communication terminal, eye fatigue may increase as well as dry eyes, and if the dryness of the eyes increases, there is a problem in that the visual field is blurred and the visual acuity is greatly deteriorated.

더하여, 근래에는 이동 통신 단말기를 통한 디스플레이 위주의 어플리케이션을 사용하는 연령층이 점차로 어려져서 자기 통제력이 약한 유아 또는 어린이들까지 시력 저하가 발생하고 있으므로, 이러한 문제를 해결하기 위한 기술의 도입이 시급한 상황이다. In addition, in recent years, the age group who uses display-oriented applications through mobile communication terminals is gradually getting younger, and even infants or children with weak self-control are experiencing deterioration of eyesight, so it is urgent to introduce a technology to solve this problem. .

하지만, 종래와 같이 이동 통신 단말기의 사용 시간에 따라 동작을 단순히 중지하거나 제한하도록 하는 방법은 시력 저하를 감소시키는데 큰 도움이 되지 못하고 있다. However, the conventional method of simply stopping or limiting the operation according to the usage time of the mobile communication terminal is not very helpful in reducing the deterioration of eyesight.

한편, 동일한 시각 조건(viewing conditions)에 서도 각각의 사람들은 자신의 경험에 따라 다르게 느끼게 된다. 예를 들어, 어떤 사람은 특정한 조건 하에서 표시된 텍스트(text)를 쉽게 읽을 수 있어 눈에 큰 피로를 받지 않을 수 있고, 근시 발병과 같은 시력 문제가 유발되지 않을 수 있다. 반면에 다른 사람은 위와 동일한 조건 하에서 동일하게 표시된 텍스트를 읽기 위해 고군분투할 수도 있으며, 이로 인하여 근시와 같은 시력 문제가 유발될 가능성이 높아질 수 있다. 그러나 종래의 시스템에서는 이러한 개별적인 인자가 고려되지 않아 이에 대한 기술 개발이 요구되고 있다. On the other hand, even under the same viewing conditions, each person feels differently according to their experiences. For example, a person may be able to easily read displayed text under certain conditions so that the eyes may not be too tired, and vision problems such as the onset of myopia may not be caused. On the other hand, others may struggle to read the same marked text under the same conditions as above, which may increase the likelihood of developing vision problems such as myopia. However, in the conventional system, these individual factors are not considered, and development of a technology for this is required.

자세히, 근시(또는 녹내장)의 유발에 따른 시력 문제의 원인으로 이동 통신 단말기와 같은 장치의 사용이 야기되고 있으나, 정확하게 어떠한 사용 환경(예컨대, 낮은 조명, 가까운 리딩 거리, 장시간 고정된 초점, 디스플레이의 과도한 청색광량, 디스플레이의 과한 흔들림 등)에서 사용자 개개인의 근시(또는 녹내장)가 심각해지는지 그 상관관계를 입증할 수 있는 기술이 미흡하므로, 사용자 개개인의 개별적인 인자를 고려하여 근시(또는 녹내장) 예방을 도모할 수 있는 기술 도입이 필요한 실정이다. In detail, although the use of devices such as mobile communication terminals is caused as a cause of vision problems due to the induction of myopia (or glaucoma), precisely in any usage environment (eg, low light, close reading distance, fixed focus for a long time, Since there is insufficient technology to prove the correlation between individual users' myopia (or glaucoma) becoming serious in excessive blue light, excessive display shake, etc., prevention of myopia (or glaucoma) is carried out by considering individual factors of each user. There is a need to introduce technology that can achieve this.

10-2015-0098542 A10-2015-0098542 A

본 발명은, 상기와 같은 문제점을 해결하기 위해 안출된 것으로서, 사용자가 단말을 사용하는 환경을 모니터링하여 사용자의 단말 사용환경과 근시 간의 상관관계를 파악해 사용자의 근시를 관리하는 모니터링 방법 및 시스템을 제공하는데 그 목적이 있다. The present invention has been devised to solve the above problems, and provides a monitoring method and system for managing the user's myopia by monitoring the environment in which the user uses the terminal and understanding the correlation between the user's terminal use environment and myopia but it has a purpose.

자세히, 본 발명은 사용자의 단말 사용환경과 근시 간의 상관관계를 파악하기 위한 기반 데이터를 제공하는 단말의 사용환경에 기반한 근시환자 모니터링 방법 및 시스템을 제공하는데 그 목적이 있다. In detail, an object of the present invention is to provide a method and system for monitoring a myopia patient based on the user's terminal use environment, which provides base data for determining the correlation between the user's terminal use environment and myopia.

또한, 본 발명은 사용자가 단말을 사용하는 환경을 모니터링하여 획득되는 기반 데이터를 기초로 사용자의 근시를 유발하는 원인을 찾아내고, 이를 기반으로 사용자별 맞춤 근시예방 교육 및 처방을 제공하는 단말의 사용환경에 기반한 근시환자 모니터링 방법 및 시스템을 제공하는데 그 목적이 있다. In addition, the present invention finds the cause of the user's myopia based on the base data obtained by monitoring the environment in which the user uses the terminal, and uses the terminal to provide customized myopia prevention education and prescription for each user based on this An object of the present invention is to provide a method and system for monitoring a myopia patient based on the environment.

다만, 본 발명 및 본 발명의 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다. However, the technical problems to be achieved by the present invention and embodiments of the present invention are not limited to the technical problems as described above, and other technical problems may exist.

본 발명의 실시예에 따른 단말의 사용환경에 따른 근시환자 모니터링 방법 및 시스템은, 단말에서 사용자가 단말을 이용할 때의 사용환경에 따른 단말 사용환경 정보를 생성하여 근시환자를 모니터링하는 방법으로서, 단말의 디스플레이가 활성화된 상태를 나타내는 스크린 온(screen on) 신호를 감지하는 단계; 상기 스크린 온 신호가 감지되는 스크린 온 타임(screen on time) 동안 센서를 이용해 상기 사용환경을 센싱하여 센서 데이터를 획득하는 단계; 상기 획득된 센서 데이터를 기반으로 상기 사용자의 단말 사용환경을 분석해 모니터링한 정보인 상기 단말 사용환경 정보를 생성하는 단계; 상기 생성된 단말 사용환경 정보를 순차적으로 누적 저장하는 단계; 상기 누적 저장된 단말 사용환경 정보를 근시 모니터링 서버로 송신하는 단계; 및 상시 송신된 단말 사용환경 정보에 기초한 예상 근시 진행정보를 상기 근시 모니터링 서버로부터 획득하여 표시하는 단계; 를 포함한다. A method and system for monitoring a myopic patient according to a usage environment of a terminal according to an embodiment of the present invention is a method for monitoring a myopic patient by generating terminal usage environment information according to a usage environment when a user uses the terminal in the terminal, detecting a screen on signal indicating an activated state of the display of the ; acquiring sensor data by sensing the use environment using a sensor during a screen on time in which the screen on signal is sensed; generating the terminal use environment information, which is information monitored by analyzing the terminal use environment of the user based on the acquired sensor data; sequentially accumulating and storing the generated terminal use environment information; transmitting the accumulated and stored terminal use environment information to a myopia monitoring server; and displaying, from the myopia monitoring server, expected myopia progress information based on the constantly transmitted terminal usage environment information. includes

이때, 상기 단말 사용환경 정보는, 상기 센서 데이터를 기반으로 생성되는 단말 사용거리 정보와, 사용시간 정보, 주변조도 정보, 움직임 정보, 초점 고정시간 정보 및 청색광량 정보 중 적어도 하나 이상의 정보를 포함한다. In this case, the terminal usage environment information includes at least one of terminal usage distance information generated based on the sensor data, usage time information, ambient illuminance information, motion information, focus fixation time information, and blue light amount information. .

또한, 상기 센서 데이터를 획득하는 단계는, 상기 단말과 상기 사용자 간의 거리를 측정한 센서 데이터와, 상기 단말의 움직임을 측정한 센서 데이터, 상기 단말의 주변 밝기값을 측정한 센서 데이터, 상기 단말의 디스플레이에서 출력되는 청색광량을 측정한 센서 데이터, 상기 단말에 대한 상기 사용자의 초점 고정 유무 또는 고정된 시간을 측정한 센서 데이터 중 적어도 하나의 센서 데이터를 획득하는 단계를 포함한다. In addition, the acquiring of the sensor data includes sensor data measuring the distance between the terminal and the user, sensor data measuring the movement of the terminal, sensor data measuring the ambient brightness value of the terminal, and the terminal and acquiring at least one sensor data from sensor data measuring the amount of blue light output from the display, sensor data measuring whether or not the user's focus is fixed on the terminal, or measuring a fixed time.

또한, 상기 단말 사용환경 정보를 생성하는 단계는, 카메라를 이용하여 상기 단말 사용거리 정보를 획득하는 단계를 포함하고, 상기 단말 사용거리 정보를 획득하는 단계는, 상기 카메라의 타입(type)에 대한 그리드(grid)-거리 정보를 획득하는 단계; 상기 카메라로부터 촬영 이미지를 획득하는 단계; 상기 획득된 촬영 이미지에 기초하여 상기 사용자의 얼굴로 분류되는 영역인 사용자 얼굴영역을 검출하는 단계; 상기 검출된 사용자 얼굴영역이 상기 카메라에 기설정된 그리드 상에서 차지하는 면적을 판단한 그리드 점유비율 정보를 획득하는 단계; 및 상기 획득된 그리드 점유비율 정보에 기초하여 상기 그리드-거리 정보에 따른 상기 단말 사용거리 정보를 획득하는 단계를 포함하고, 상기 그리드-거리 정보는, 특정 오브젝트가 상기 카메라의 타입에 대하여 그리드(grid)를 차지하는 면적 비율에 따라 매칭된 상기 특정 오브젝트와 상기 단말 간의 거리에 대한 정보이다. In addition, the generating of the terminal usage environment information includes obtaining the terminal usage distance information using a camera, and the obtaining of the terminal usage distance information includes: obtaining grid-distance information; obtaining a photographed image from the camera; detecting a user's face area, which is an area classified as the user's face, based on the acquired captured image; obtaining grid occupancy rate information for determining an area occupied by the detected user face region on a grid preset in the camera; and obtaining the terminal usage distance information according to the grid-distance information based on the obtained grid occupancy rate information, wherein the grid-distance information includes: ) is information on the distance between the specific object and the terminal matched according to the ratio of the area occupying it.

또한, 상기 예상 근시 진행정보는, 상기 근시 모니터링 서버가 딥러닝 뉴럴 네트워크를 이용하여 상기 단말 사용환경 정보의 각 파라미터와 상기 사용자의 근시 간의 상관관계를 판단하고, 판단된 상기 상관관계를 기반으로 상기 사용자의 근시의 악화 또는 개선을 나타내는 지표이다. In addition, the predicted myopia progress information is determined by the myopia monitoring server using a deep learning neural network to determine a correlation between each parameter of the terminal use environment information and the user's myopia, and based on the determined correlation It is an index indicating worsening or improvement of the user's myopia.

한편, 본 발명의 실시예에 따른 단말의 사용환경에 따른 근시환자 모니터링 방법 및 시스템은, 사용자의 단말 사용환경을 센싱하여 센서 데이터를 획득하는 센서부와, 상기 획득된 센서 데이터를 기반으로 상기 사용자의 단말 사용환경을 분석해 모니터링한 정보인 단말 사용환경 정보를 생성하는 제어부와, 상기 생성된 단말 사용환경 정보를 근시 모니터링 서버로 송신하고, 상기 근시 모니터링 서버로부터 상기 단말 사용환경 정보와 상기 사용자의 근시 간의 상관관계를 판단한 정보인 예상 근시 진행정보를 수신하는 통신부와, 상기 수신된 예상 근시 진행정보에 기반한 출력을 수행하는 디스플레이부를 포함하는 단말; 및 상기 단말 사용환경 정보를 수신하는 데이터 수신부와, 상기 예상 근시 진행정보를 송신하는 데이터 송신부와, 상기 수신된 단말 사용환경 정보를 기반으로 딥러닝 뉴럴 네트워크를 이용하여 상기 예상 근시 진행정보를 생성하는 데이터 처리부;를 포함하는 근시 모니터링 서버를 포함한다. On the other hand, the myopia patient monitoring method and system according to the terminal use environment according to an embodiment of the present invention, the sensor unit for acquiring sensor data by sensing the user's terminal use environment, and the user based on the acquired sensor data a control unit for generating terminal use environment information, which is information monitored by analyzing the terminal use environment of , and transmits the generated terminal use environment information to a myopia monitoring server, and the terminal use environment information and the user's myopia from the myopia monitoring server A terminal comprising: a communication unit for receiving expected myopia progress information, which is information for determining a correlation between the two; and a display unit for outputting an output based on the received predicted myopia progress information; and a data receiver for receiving the terminal use environment information, a data transmitter for transmitting the expected myopia progress information, and a deep learning neural network based on the received terminal use environment information to generate the expected myopia progress information Data processing unit; includes a myopia monitoring server comprising a.

본 발명의 실시예에 따른 단말의 사용환경에 기반한 근시환자 모니터링 방법 및 시스템은, 사용자의 단말 사용환경과 근시 간의 상관관계를 파악하여 이를 기반으로 사용자의 근시를 관리하게 함으로써, 사용자의 개별적인 인자를 고려하여 근시를 유발하는 원인을 찾아낼 수 있고, 이에 기초한 사용자별 맞춤 근시예방 교육 및 처방을 제공할 수 있는 효과가 있다. A method and system for monitoring a myopia patient based on a terminal use environment according to an embodiment of the present invention, by identifying a correlation between a user's terminal use environment and myopia, and managing the user's myopia based on this, the individual factors of the user It is possible to find the cause of myopia by taking this into account, and there is an effect of providing customized myopia prevention education and prescription for each user based on this.

또한, 본 발명의 실시예에 따른 단말의 사용환경에 기반한 근시환자 모니터링 방법 및 시스템은, 사용자의 단말 사용환경과 근시 간의 상관관계를 파악하기 위한 기반 데이터를 다양한 방식으로 획득하여 제공함으로써, 사용자의 단말 사용환경과 근시 간의 상관관계를 보다 소상하게 파악할 수 있는 효과가 있다. In addition, the method and system for monitoring a myopic patient based on a terminal use environment according to an embodiment of the present invention obtains and provides base data for understanding the correlation between the user's terminal use environment and myopia in various ways, so that the user's There is an effect that it is possible to grasp the correlation between the terminal use environment and myopia more delicately.

또한, 본 발명의 실시예에 따른 단말의 사용환경에 기반한 근시환자 모니터링 방법 및 시스템은, 사용자의 단말 사용환경과 근시 간의 상관관계를 파악한 정보를 제공함으로써, 근시와 관련된 일반적인 통계나 사용자별 통계를 보다 정확하게 도출할 수 있는 효과가 있다. In addition, the myopia patient monitoring method and system based on the terminal use environment according to an embodiment of the present invention provides information that identifies the correlation between the user's terminal use environment and myopia, thereby providing general statistics related to myopia or statistics for each user. There is an effect that can be derived more accurately.

또한, 본 발명의 실시예에 따른 단말의 사용환경에 기반한 근시환자 모니터링 방법 및 시스템은, 사용자가 단말을 사용할 때 사용자의 얼굴과 단말 간의 거리를 카메라로부터 획득된 촬영 이미지로부터 감지된 사용자 얼굴영역을 기반으로 제공함으로써, 사용자의 단말 사용환경이 포함하는 단말 사용거리 정보를 보다 정확하게 판단할 수 있는 효과가 있다. In addition, the myopia patient monitoring method and system based on the terminal usage environment according to the embodiment of the present invention, the distance between the user's face and the terminal when the user uses the terminal, the user's face area detected from the photographed image obtained from the camera By providing the base, it is possible to more accurately determine the terminal use distance information included in the user's terminal use environment.

다만, 본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 명확하게 이해될 수 있다. However, the effects obtainable in the present invention are not limited to the above-mentioned effects, and other effects not mentioned can be clearly understood from the description below.

도 1은 본 발명의 실시예에 따른 단말의 사용환경에 기반한 근시환자 모니터링 방법 및 시스템의 개념도이다.
도 2는 본 발명의 실시예에 따른 단말의 내부 블록도이다.
도 3은 본 발명의 실시예에 따른 근시 모니터링 서버의 내부 블록도이다.
도 4는 본 발명의 실시예에 따른 단말에서 단말의 사용환경에 기반한 근시환자 모니터링 서비스를 제공하는 방법을 설명하기 위한 흐름도이다.
도 5는 본 발명의 실시예에 따른 카메라로부터 획득되는 촬영 이미지를 기반으로 사용자와 단말 간의 거리를 획득하는 방법을 설명하기 위한 흐름도이다.
도 6은 본 발명의 실시예에 따른 카메라로부터 획득되는 촬영 이미지를 기반으로 사용자와 단말 간의 거리를 획득하는 방법을 설명하기 위한 도면이다.
도 7은 본 발명의 실시예에 따른 카메라로부터 획득된 촬영 이미지로부터 사용자 얼굴영역을 검출하는 모습의 일례이다.
도 8은 본 발명의 실시예에 따른 카메라로부터 획득된 촬영 이미지로부터 검출된 사용자 얼굴영역의 그리드 점유 비율을 도출하는 모습의 일례이다.
도 9는 본 발명의 실시예에 따른 근시 모니터링 서버에서 단말의 사용환경에 기반한 근시환자 모니터링 서비스를 제공하는 방법을 설명하기 위한 흐름도이다.
도 10은 본 발명의 실시예에 따른 딥러닝 뉴럴 네트워크를 구현하는 복수의 블록으로 이루어진 신경망 구조 중 하나의 블록을 설명하기 위한 도면이다.
1 is a conceptual diagram of a method and system for monitoring a myopic patient based on a user environment of a terminal according to an embodiment of the present invention.
2 is an internal block diagram of a terminal according to an embodiment of the present invention.
3 is an internal block diagram of a myopia monitoring server according to an embodiment of the present invention.
4 is a flowchart illustrating a method of providing a myopia patient monitoring service based on a user environment of a terminal in a terminal according to an embodiment of the present invention.
5 is a flowchart illustrating a method of obtaining a distance between a user and a terminal based on a captured image obtained from a camera according to an embodiment of the present invention.
6 is a diagram for explaining a method of obtaining a distance between a user and a terminal based on a captured image obtained from a camera according to an embodiment of the present invention.
7 is an example of detecting a user's face region from a photographed image obtained from a camera according to an embodiment of the present invention.
8 is an example of deriving a grid occupation ratio of a user's face area detected from a captured image obtained from a camera according to an embodiment of the present invention.
9 is a flowchart illustrating a method of providing a myopia patient monitoring service based on a user environment of a terminal in a myopia monitoring server according to an embodiment of the present invention.
10 is a diagram for explaining one block of a neural network structure consisting of a plurality of blocks implementing a deep learning neural network according to an embodiment of the present invention.

본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 본 발명의 효과 및 특징, 그리고 그것들을 달성하는 방법은 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 다양한 형태로 구현될 수 있다. 이하의 실시예에서, 제1, 제2 등의 용어는 한정적인 의미가 아니라 하나의 구성 요소를 다른 구성 요소와 구별하는 목적으로 사용되었다. 또한, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 또한, 포함하다 또는 가지다 등의 용어는 명세서상에 기재된 특징, 또는 구성요소가 존재함을 의미하는 것이고, 하나 이상의 다른 특징들 또는 구성요소가 부가될 가능성을 미리 배제하는 것은 아니다. 또한, 도면에서는 설명의 편의를 위하여 구성 요소들이 그 크기가 과장 또는 축소될 수 있다. 예컨대, 도면에서 나타난 각 구성의 크기 및 두께는 설명의 편의를 위해 임의로 나타내었으므로, 본 발명이 반드시 도시된 바에 한정되지 않는다.Since the present invention can apply various transformations and can have various embodiments, specific embodiments are illustrated in the drawings and described in detail in the detailed description. Effects and features of the present invention, and a method of achieving them, will become apparent with reference to the embodiments described below in detail in conjunction with the drawings. However, the present invention is not limited to the embodiments disclosed below and may be implemented in various forms. In the following embodiments, terms such as first, second, etc. are used for the purpose of distinguishing one component from another, not in a limiting sense. Also, the singular expression includes the plural expression unless the context clearly dictates otherwise. In addition, terms such as include or have means that the features or components described in the specification are present, and do not preclude the possibility that one or more other features or components will be added. In addition, in the drawings, the size of the components may be exaggerated or reduced for convenience of description. For example, since the size and thickness of each component shown in the drawings are arbitrarily indicated for convenience of description, the present invention is not necessarily limited to the illustrated bar.

이하, 첨부된 도면을 참조하여 본 발명의 실시예들을 상세히 설명하기로 하며, 도면을 참조하여 설명할 때 동일하거나 대응하는 구성 요소는 동일한 도면부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, and when described with reference to the drawings, the same or corresponding components are given the same reference numerals, and the overlapping description thereof will be omitted. .

도 1은 본 발명의 실시예에 따른 단말의 사용환경에 기반한 근시환자 모니터링 방법 및 시스템의 개념도이다. 1 is a conceptual diagram of a method and system for monitoring a myopic patient based on a user environment of a terminal according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 실시예에 따른 단말의 사용환경에 기반한 근시환자 모니터링 방법 및 시스템은, 단말(100) 및 근시 모니터링 서버(200)를 포함할 수 있다. Referring to FIG. 1 , a method and system for monitoring a myopia patient based on a user environment of a terminal according to an embodiment of the present invention may include a terminal 100 and a myopia monitoring server 200 .

여기서, 도 1의 각 구성요소는, 네트워크(Network)를 통해 연결될 수 있다. 네트워크는 단말(100) 및 근시 모니터링 서버(200) 등과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 이러한 네트워크의 일 예에는 3GPP(3rd Generation Partnership Project) 네트워크, LTE(Long Term Evolution) 네트워크, WIMAX(World Interoperability for Microwave Access) 네트워크, 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), 블루투스(Bluetooth) 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등이 포함되나 이에 한정되지는 않는다. Here, each component of FIG. 1 may be connected through a network. The network means a connection structure capable of exchanging information between each node, such as the terminal 100 and the myopia monitoring server 200, and an example of such a network is a 3rd Generation Partnership Project (3GPP) network, a Long Term (LTE) network, and the like. Evolution) network, WIMAX (World Interoperability for Microwave Access) network, Internet (Internet), LAN (Local Area Network), Wireless LAN (Wireless Local Area Network), WAN (Wide Area Network), PAN (Personal Area Network), Bluetooth (Bluetooth) network, satellite broadcasting network, analog broadcasting network, DMB (Digital Multimedia Broadcasting) network, and the like are included, but are not limited thereto.

- 단말 - terminal

먼저, 본 발명의 실시예에 따른 단말(100)은, 사용자의 단말(100) 사용환경에 기반한 근시환자 모니터링 서비스를 제공하기 위한 일련의 동작을 수행할 수 있다. First, the terminal 100 according to an embodiment of the present invention may perform a series of operations for providing a myopia patient monitoring service based on the user's terminal 100 usage environment.

자세히, 단말(100)은, 먼저 단말(100)의 화면에 대한 온/오프(on/off) 여부를 판단할 수 있다. 그리고 단말(100)은, 화면이 온(on) 상태인 경우 사용자가 단말(100)을 이용할 때의 사용환경을 센싱한 정보인 센서 데이터를 획득할 수 있다. In detail, the terminal 100 may first determine whether the screen of the terminal 100 is on/off. And when the screen is in an on state, the terminal 100 may acquire sensor data, which is information sensing a usage environment when the user uses the terminal 100 .

자세히, 단말(100)은, 복수의 센서를 이용하여 후술되는 단말 사용환경 정보를 생성하기 위한 기초 데이터가 되는 센서 데이터를 획득할 수 있다. In detail, the terminal 100 may acquire sensor data that is basic data for generating terminal use environment information to be described later by using a plurality of sensors.

또한, 단말(100)은, 획득된 센서 데이터에 기초하여 사용자의 단말 사용환경 정보를 획득할 수 있다. Also, the terminal 100 may acquire information about the user's terminal use environment based on the acquired sensor data.

여기서, 단말 사용환경 정보란, 단말(100)의 사용환경과 근시 간의 상관관계를 도출해 근시에 영향을 미치는 요소를 검출하기 위한 기반 데이터로서, 사용자가 단말(100)을 이용할 때의 사용환경을 센싱한 정보인 센서 데이터를 기반으로 생성되며, 추후 딥러닝 뉴럴 네트워크의 입력 데이터로서 이용될 수 있다. 이에 대한 자세한 설명은 후술하기로 한다. Here, the terminal usage environment information is based data for detecting factors affecting myopia by deriving a correlation between the usage environment of the terminal 100 and myopia, and sensing the usage environment when the user uses the terminal 100 . It is generated based on sensor data, which is one piece of information, and can be used as input data for a deep learning neural network later. A detailed description thereof will be provided later.

또한, 단말(100)은, 획득된 단말 사용환경 정보를 시간에 따라 순차적으로 누적하여 저장할 수 있다. 그리고 단말(100)은, 소정의 기간에 대하여 누적 저장되어 있는 단말 사용환경 정보를 근시 모니터링 서버(200)로 송신할 수 있다. Also, the terminal 100 may sequentially accumulate and store the obtained terminal use environment information according to time. In addition, the terminal 100 may transmit terminal use environment information accumulated and stored for a predetermined period to the myopia monitoring server 200 .

이후, 근시 모니터링 서버(200)로 단말 사용환경 정보를 송신한 단말(100)은, 근시 모니터링 서버(200)로부터 단말 사용환경 정보에 기초한 예상 근시 진행정보를 수신하여 출력할 수 있다. Thereafter, the terminal 100 that has transmitted the terminal usage environment information to the myopia monitoring server 200 may receive and output expected myopia progress information based on the terminal usage environment information from the myopia monitoring server 200 .

여기서, 예상 근시 진행정보란, 근시 모니터링 서버(200)가 단말 사용환경 정보를 이용하여 딥러닝을 수행해 획득한 정보로서, 사용자의 단말 사용환경 정보를 딥러닝 뉴럴 네트워크에 입력하여 도출된 단말 사용환경과 근시 간의 상관관계를 기반으로 사용자 근시의 악화 또는 개선 정보를 판단한 정보일 수 있다. 예를 들어, 사용자 근시의 악화 또는 개선 정보는, 사용자 근시의 악화 또는 개선 정도, 상태 및/또는 영향 요인 정보 등을 포함할 수 있다. 이에 대한 자세한 설명은 후술하기로 한다. Here, the predicted myopia progress information is information obtained by the myopia monitoring server 200 performing deep learning using the terminal use environment information, and the terminal use environment derived by inputting the user's terminal use environment information into the deep learning neural network. It may be information for determining deterioration or improvement information of the user's myopia based on the correlation between the user's myopia and the myopia. For example, the worsening or improvement information of the user's myopia may include aggravation or improvement degree of the user's myopia, information on a condition and/or an influence factor, and the like. A detailed description thereof will be provided later.

한편, 이러한 단말(100)은, 단말(100)의 사용환경에 따른 근시환자 모니터링 서비스를 수행하기 위한 프로그램이 설치된 휴대용 단말(100)인 스마트 폰, 디지털방송용 단말(100)기, 휴대폰, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 태블릿 PC(tablet PC), 웨어러블 디바이스(wearable device) 및 스마트 글라스(smart glass) 등을 포함할 수 있다. On the other hand, such a terminal 100 is a portable terminal 100 installed with a program for performing a myopia patient monitoring service according to the usage environment of the terminal 100, a smart phone, a digital broadcasting terminal 100 device, a mobile phone, a PDA ( It may include personal digital assistants, portable multimedia players (PMPs), navigation devices, tablet PCs, wearable devices, and smart glasses.

이하, 첨부된 도면을 참조하여 단말(100)을 이루는 각 구성 요소에 대해 상세히 설명하고자 한다. Hereinafter, each component constituting the terminal 100 will be described in detail with reference to the accompanying drawings.

도 2는 본 발명의 실시예에 따른 단말(100)의 내부 블록도이다. 2 is an internal block diagram of the terminal 100 according to an embodiment of the present invention.

도 2를 참조하면, 단말(100)은, 통신부(110), 입력부(120), 디스플레이부(130), 터치 스크린(135: touch screen), 센서부(140), 카메라(150), 저장부(160) 및 제어부(170)를 포함할 수 있다. Referring to FIG. 2 , the terminal 100 includes a communication unit 110 , an input unit 120 , a display unit 130 , a touch screen 135 , a sensor unit 140 , a camera 150 , and a storage unit. 160 and a control unit 170 may be included.

먼저, 통신부(110)는, 단말(100)의 사용환경에 따른 근시환자 모니터링 서비스를 제공하기 위한 각종 데이터 및/또는 정보 등을 송수신할 수 있다. First, the communication unit 110 may transmit and receive various data and/or information for providing a myopic patient monitoring service according to the usage environment of the terminal 100 .

실시예에서, 통신부(110)는, 근시 모니터링 서버(200)와 통신하여 근시환자 모니터링 서비스와 관련된 데이터(예컨대, 단말 사용환경 정보 등)를 송수신할 수 있다. In an embodiment, the communication unit 110 may communicate with the myopia monitoring server 200 to transmit/receive data related to the myopia patient monitoring service (eg, terminal use environment information, etc.).

이러한 통신부(110)는, 이동통신을 위한 기술표준들 또는 통신방식(예를 들어, GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등)에 따라 구축된 이동 통신망 상에서 기지국, 외부의 단말(100), 임의의 서버 중 적어도 하나와 무선 신호를 송수신할 수 있다.This communication unit 110, the technical standards or communication methods for mobile communication (eg, Global System for Mobile communication (GSM), Code Division Multi Access (CDMA), High Speed Downlink Packet Access (HSDPA), HSUPA ( High Speed Uplink Packet Access), LTE (Long Term Evolution), LTE-A (Long Term Evolution-Advanced), etc.) Signals can be sent and received.

다음으로, 입력부(120)는, 단말(100)의 사용환경에 따른 근시환자 모니터링 서비스와 관련된 사용자의 입력을 감지할 수 있다. Next, the input unit 120 may detect a user input related to the myopia patient monitoring service according to the usage environment of the terminal 100 .

실시예로, 입력부(120)는, 디바이스 온/오프(device on/off) 버튼을 포함하여 디바이스 온/오프에 대한 입력 즉, 화면에 대한 온/오프(on/off) 입력을 감지할 수 있다. In an embodiment, the input unit 120 may include a device on/off button to detect an input for on/off of the device, that is, an on/off input for the screen. .

다음으로, 디스플레이부(130)는, 단말(100)의 사용환경에 따른 근시환자 모니터링 서비스와 관련된 다양한 정보를 그래픽 이미지로 출력할 수 있다. Next, the display unit 130 may output various information related to the myopia patient monitoring service according to the usage environment of the terminal 100 as graphic images.

이러한 디스플레이부(130)는, 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉서블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전자잉크 디스플레이(e-ink display) 중에서 적어도 하나를 포함할 수 있다. The display unit 130 includes a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), and a flexible display. (a flexible display), a three-dimensional display (3D display), and may include at least one of an e-ink display (e-ink display).

또한, 상기 입력부(120) 및 상기 디스플레이부(130)가 결합되어 터치 스크린(135)으로 구현될 수 있다. In addition, the input unit 120 and the display unit 130 may be combined to be implemented as a touch screen 135 .

다음으로, 센서부(140)는, 단말(100)의 사용환경에 따른 근시환자 모니터링 서비스를 제공하기 위한 기초 데이터를 획득할 수 있다. Next, the sensor unit 140 may acquire basic data for providing a myopia patient monitoring service according to the usage environment of the terminal 100 .

자세히, 센서부(140)는, 사용자의 단말 사용환경 정보를 생성하기 위한 기초 데이터인 센서 데이터를 획득할 수 있다. In detail, the sensor unit 140 may acquire sensor data, which is basic data for generating the user's terminal use environment information.

실시예에서 이러한 센서부(140)는, 모션측정 센서, 조도(광) 센서, 청색광 측정 센서, 거리측정 센서 및/또는 홍채인식 센서 등을 포함할 수 있다. In an embodiment, the sensor unit 140 may include a motion measuring sensor, an illuminance (light) sensor, a blue light measuring sensor, a distance measuring sensor, and/or an iris recognition sensor.

보다 상세히, 먼저 모션측정 센서는, 가속도 센서(accelerometer), 자이로스코프 센서(gyroscope sensor) 및/또는 중력 센서(G-sensor) 등을 포함할 수 있으며, 단말(100)의 움직임을 측정한 기초 데이터를 획득할 수 있다. In more detail, first, the motion measurement sensor may include an acceleration sensor, a gyroscope sensor, and/or a gravity sensor (G-sensor), and basic data obtained by measuring the movement of the terminal 100 . can be obtained.

또한, 조도(광) 센서(light sensor)는, 단말(100) 주변의 밝기값을 센싱하여 단말(100)의 주변 조도를 측정한 기초 데이터를 획득할 수 있다. Also, the illuminance (light) sensor may sense a brightness value around the terminal 100 to obtain basic data obtained by measuring the ambient illuminance of the terminal 100 .

또한, 청색광 측정 센서는, 3 자극값 컬러 센서 등을 포함할 수 있으며, 단말(100)의 디스플레이에서 출력되는 청색광량을 측정한 기초 데이터를 획득할 수 있다. In addition, the blue light measuring sensor may include a tristimulus value color sensor and the like, and may acquire basic data obtained by measuring the amount of blue light output from the display of the terminal 100 .

또한, 거리측정 센서는, 근접 센서(proximity sensor), 적외선 센서 및/또는 레이저 센서 등을 포함할 수 있으며, 단말(100)과 사용자 간의 거리를 측정한 기초 데이터를 획득할 수 있다. In addition, the distance measuring sensor may include a proximity sensor, an infrared sensor, and/or a laser sensor, and may acquire basic data obtained by measuring the distance between the terminal 100 and the user.

또한, 홍채인식 센서는, 사용자의 홍채를 센싱하여 사용자 초점의 고정 유무 및/또는 고정된 시간을 측정한 기초 데이터를 획득할 수 있다. Also, the iris recognition sensor may sense the user's iris to obtain basic data obtained by measuring whether or not the user's focus is fixed and/or fixed time.

다음으로, 실시예에서 카메라(150)는, 단말(100)의 사용환경에 따른 근시환자 모니터링 서비스를 제공하기 위한 촬영 이미지를 획득할 수 있다. Next, in the embodiment, the camera 150 may acquire a photographed image for providing a myopia patient monitoring service according to the usage environment of the terminal 100 .

자세히, 카메라(150)는, 단말(100)의 전면부 및/또는 후면부에 배치되어 배치된 방향측을 촬영해 영상을 획득할 수 있다. 이때, 특히 본 발명의 실시예에서 카메라(150)는, 단말(100)을 사용 중인 사용자를 촬영한 촬영 이미지를 획득할 수 있다. 그리고 촬영 이미지를 획득한 단말(100)은, 획득된 촬영 이미지를 센서 데이터에 포함하여 추후 단말 사용환경 정보 생성 시 활용할 수 있다. In detail, the camera 150 may be disposed on the front and/or rear of the terminal 100 and may acquire an image by photographing the disposed direction side. In this case, in particular, in an embodiment of the present invention, the camera 150 may acquire a photographed image of a user using the terminal 100 . In addition, the terminal 100 that has acquired the photographed image may include the acquired photographed image in sensor data to use it when generating terminal use environment information later.

또한, 이러한 카메라(150)는, 이미지 센서와 영상 처리 모듈을 포함할 수 있다. Also, the camera 150 may include an image sensor and an image processing module.

자세히, 카메라(150)는, 이미지 센서(예를 들면, CMOS 또는 CCD)에 의해 얻어지는 정지영상 또는 동영상을 처리할 수 있다. Specifically, the camera 150 may process a still image or a moving image obtained by an image sensor (eg, CMOS or CCD).

또한, 카메라(150)는, 영상 처리 모듈을 이용하여 이미지 센서를 통해 획득된 정지영상 또는 동영상을 가공해 필요한 정보를 추출하고, 추출된 정보를 제어부(170)에 전달할 수 있다. In addition, the camera 150 may process a still image or a moving image obtained through an image sensor using an image processing module to extract necessary information, and transmit the extracted information to the controller 170 .

다음으로, 저장부(160)는, 본 발명의 실시예에 따른 단말(100)의 사용환경에 따른 근시환자 모니터링 서비스를 제공하기 위한 각종 응용 프로그램, 데이터 및 명령어 중 어느 하나 이상을 저장할 수 있다. Next, the storage unit 160 may store any one or more of various application programs, data, and commands for providing a myopia patient monitoring service according to the usage environment of the terminal 100 according to an embodiment of the present invention.

실시예로 저장부(160)는, 센서 데이터, 단말 사용환경 정보 및/또는 그리드(grid)-거리 정보 등을 저장하고 관리할 수 있다. In an embodiment, the storage unit 160 may store and manage sensor data, terminal use environment information, and/or grid-distance information, and the like.

이러한 저장부(160)는, ROM, RAM, EPROM, 플래시 드라이브, 하드 드라이브 등과 같은 다양한 저장기기일 수 있고, 인터넷(internet)상에서 상기 저장부(160)의 저장 기능을 수행하는 웹 스토리지(web storage)일 수도 있다. The storage unit 160 may be various storage devices such as ROM, RAM, EPROM, flash drive, hard drive, and the like, and web storage that performs the storage function of the storage unit 160 on the Internet (internet). ) may be

마지막으로, 제어부(170)는, 단말(100)의 사용환경에 따른 근시환자 모니터링 서비스를 제공하기 위하여 전술한 각 구성요소의 전반적인 동작을 컨트롤할 수 있다. Finally, the controller 170 may control the overall operation of each of the above-described components in order to provide a monitoring service for the myopia patient according to the usage environment of the terminal 100 .

이때, 제어부(170)는, 딥러닝 뉴럴 네트워크(Deep running neural network)와 연동하여 이미지 딥러닝을 수행할 수 있다. In this case, the controller 170 may perform image deep learning in conjunction with a deep running neural network.

여기서, 실시예에 따라 딥러닝 뉴럴 네트워크는, 단말(100)에 직접 설치되거나, 단말(100)과는 별개의 장치로서 데이터를 수신하여 딥러닝을 수행할 수 있다. Here, according to an embodiment, the deep learning neural network may be directly installed in the terminal 100 or may perform deep learning by receiving data as a device separate from the terminal 100 .

이하 본 발명의 실시예에서는, 딥러닝 뉴럴 네트워크가 단말(100)에 직접 설치되어 이미지 딥러닝을 수행하는 실시예를 기준으로 설명한다. Hereinafter, in an embodiment of the present invention, an embodiment in which a deep learning neural network is directly installed in the terminal 100 to perform image deep learning will be described.

자세히, 제어부(170)는, 딥러닝 뉴럴 네트워크 구동 프로그램을 저장부(160)로부터 독출할 수 있고, 독출된 구동 프로그램에 구축된 딥러닝 뉴럴 네트워크 시스템에 따라 이미지 딥러닝을 수행할 수 있다. In detail, the control unit 170 may read the deep learning neural network driving program from the storage unit 160 and may perform image deep learning according to the deep learning neural network system built in the read driving program.

실시예로, 제어부(170)는, 카메라(150)를 통하여 획득된 촬영 이미지를 구동 프로그램에 구축된 딥러닝 뉴럴 네트워크의 입력 데이터로 입력할 수 있고, 이에 기반한 이미지 딥러닝을 통해 촬영 이미지 상의 사용자 얼굴영역을 출력 데이터로 획득할 수 있다. In an embodiment, the controller 170 may input a captured image obtained through the camera 150 as input data of a deep learning neural network built in a driving program, and a user on the captured image through image deep learning based on this A face region can be acquired as output data.

이러한 제어부(170)는, ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세스(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다. These control units 170, ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays), controllers (controllers), It may be implemented using at least one of micro-controllers, microprocessors, and other electrical units for performing functions.

- 근시 모니터링 서버 - Myopia monitoring server

한편, 본 발명의 실시예에 따른 근시 모니터링 서버(200)는, 단말(100)의 사용환경에 따른 근시환자 모니터링 서비스를 위하여 단말 사용환경 정보에 기반한 딥러닝을 수행할 수 있고, 이를 기초로 사용자의 단말(100) 사용환경과 근시 간의 상관관계를 기초로 근시의 악화 또는 개선 정보를 판단한 정보인 예상 근시 진행정보를 제공할 수 있다. On the other hand, the myopia monitoring server 200 according to an embodiment of the present invention may perform deep learning based on terminal usage environment information for a myopia patient monitoring service according to the usage environment of the terminal 100, and based on this, the user It is possible to provide expected myopia progression information, which is information for determining deterioration or improvement information of myopia based on the correlation between the use environment of the terminal 100 and myopia.

자세히, 근시 모니터링 서버(200)는, 단말(100), 외부의 장치 및/또는 서버로부터 사용자에 대한 근시검사 결과값을 획득할 수 있다. 여기서, 근시검사 결과값이란, 사용자가 수행한 근시검사에 대한 결과 정보일 수 있다. In detail, the myopia monitoring server 200 may obtain a myopia test result for the user from the terminal 100 , an external device, and/or a server. Here, the myopia test result value may be result information on the myopia test performed by the user.

또한, 근시 모니터링 서버(200)는, 단말(100)로부터 단말 사용환경 정보를 획득할 수 있다. Also, the myopia monitoring server 200 may obtain terminal use environment information from the terminal 100 .

그리고 근시 모니터링 서버(200)는, 획득된 근시검사 결과값과 단말 사용환경 정보를 기반으로 딥러닝을 수행하여 단말(100) 사용환경과 근시 간의 상관관계를 판단할 수 있다. In addition, the myopia monitoring server 200 may determine the correlation between the terminal 100 using environment and myopia by performing deep learning based on the obtained myopia test result value and the terminal use environment information.

예를 들어, 근시 모니터링 서버(200)는, 딥러닝 뉴럴 네트워크를 이용하여 단말 사용환경 정보의 파라미터별로 근시의 진행에 영향을 끼치는 가중치 값을 결정하는 테이블을 생성해 단말(100) 사용환경과 근시 간의 상관관계를 나타낼 수 있다. 또는, 근시 모니터링 서버(200)는, 딥러닝 뉴럴 네트워크를 이용하여 단말 사용환경 정보의 파라미터별로 근시의 진행에 영향을 끼치는 정도를 소정의 기준에 따라 수치로 나타내는 상관관계 값으로 단말(100) 사용환경과 근시 간의 상관관계를 나타낼 수 있다. For example, the myopia monitoring server 200 uses a deep learning neural network to generate a table for determining a weight value that affects the progress of myopia for each parameter of the terminal use environment information, and the terminal 100 use environment and myopia correlation between them can be shown. Alternatively, the myopia monitoring server 200 uses a deep learning neural network to use the terminal 100 as a correlation value that numerically indicates the degree of influence on the progress of myopia for each parameter of the terminal use environment information according to a predetermined standard. It can show the correlation between the environment and myopia.

또한, 근시 모니터링 서버(200)는, 딥러닝을 통해 판단된 단말(100) 사용환경과 근시 간의 상관관계를 기반으로, 사용자의 단말(100) 사용환경에 따른 사용자 근시의 악화 또는 개선 정보를 제공하는 예상 근시 진행정보를 생성할 수 있다. In addition, the myopia monitoring server 200, based on the correlation between the terminal 100 use environment and myopia determined through deep learning, provides information on worsening or improving the user's myopia according to the user's terminal 100 use environment It is possible to generate expected myopia progression information.

도 3은 본 발명의 실시예에 따른 근시 모니터링 서버(200)의 내부 블록도이다. 3 is an internal block diagram of the myopia monitoring server 200 according to an embodiment of the present invention.

또한, 도 3을 참조하면 이러한 근시 모니터링 서버(200)는, 데이터 수신부(210), 데이터 송신부(220), 데이터 처리부(230) 및 데이터베이스(240)를 포함할 수 있다. In addition, referring to FIG. 3 , the myopia monitoring server 200 may include a data receiver 210 , a data transmitter 220 , a data processor 230 , and a database 240 .

먼저, 데이터 수신부(210) 및 데이터 송신부(220)는, 단말(100) 및/또는 외부 서버와 단말(100)의 사용환경에 따른 근시환자 모니터링 서비스를 수행하기 위한 각종 데이터를 네트워크를 통해 주고받을 수 있다. First, the data receiving unit 210 and the data transmitting unit 220 transmit and receive various data for performing a myopia patient monitoring service according to the usage environment of the terminal 100 and/or an external server and the terminal 100 through a network. can

또한, 데이터 처리부(230)는, 단말(100)의 사용환경에 따른 근시환자 모니터링 서비스를 수행하기 위한 일련의 데이터 처리를 수행할 수 있다. In addition, the data processing unit 230 may perform a series of data processing for performing a myopia patient monitoring service according to the usage environment of the terminal 100 .

이때, 데이터 처리부(230)는, 딥러닝 뉴럴 네트워크(Deep running neural network)와 연동하여 딥러닝을 수행할 수 있다. In this case, the data processing unit 230 may perform deep learning in conjunction with a deep running neural network.

여기서, 실시예에 따라 딥러닝 뉴럴 네트워크는, 근시 모니터링 서버(200)에 직접 설치되거나, 근시 모니터링 서버(200)와는 별개의 장치로서 데이터를 수신하여 딥러닝을 수행할 수 있다. Here, according to an embodiment, the deep learning neural network may be directly installed in the myopia monitoring server 200 or may perform deep learning by receiving data as a device separate from the myopia monitoring server 200 .

이하 본 발명의 실시예에서는, 딥러닝 뉴럴 네트워크가 근시 모니터링 서버(200)에 직접 설치되어 딥러닝을 수행하는 실시예를 기준으로 설명한다. Hereinafter, in an embodiment of the present invention, a deep learning neural network is directly installed in the myopia monitoring server 200 to perform deep learning.

자세히, 데이터 처리부(230)는, 딥러닝 뉴럴 네트워크 구동 프로그램을 데이터베이스(240)로부터 독출할 수 있고, 독출된 구동 프로그램에 구축된 딥러닝 뉴럴 네트워크 시스템에 따라 딥러닝을 수행할 수 있다. In detail, the data processing unit 230 may read a deep learning neural network driving program from the database 240 and may perform deep learning according to a deep learning neural network system built on the read driving program.

실시예로, 데이터 처리부(230)는, 데이터 수신부(210)를 통하여 획득된 근시검사 결과값 및 단말 사용환경 정보를 구동 프로그램에 구축된 딥러닝 뉴럴 네트워크의 입력 데이터로 입력할 수 있고, 이에 기반한 딥러닝을 통해 사용자의 단말(100) 사용환경과 근시 간의 상관관계를 판단할 수 있으며,이를 기반으로 사용자의 단말 사용환경에 따른 근시의 악화 또는 개선정보를 나타내는 지표인 예상 근시 진행정보를 출력 데이터로 획득할 수 있다. In an embodiment, the data processing unit 230 may input the myopia test result value and terminal use environment information obtained through the data receiving unit 210 as input data of the deep learning neural network built in the driving program, and based on this Through deep learning, it is possible to determine the correlation between the user's terminal 100 usage environment and myopia, and based on this, the expected myopia progress information, which is an index indicating worsening or improvement information of myopia according to the user's terminal usage environment, is output data can be obtained with

또한, 이러한 데이터 처리부(230)는, ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세스(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다. In addition, these data processing unit 230, ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays), controller ( controllers), micro-controllers, microprocessors, and other electrical units for performing functions.

또한, 데이터베이스(240)는, 단말(100)의 사용환경에 따른 근시환자 모니터링 서비스와 관련된 각종 데이터를 저장할 수 있다. In addition, the database 240 may store various data related to the myopia patient monitoring service according to the usage environment of the terminal 100 .

실시예로, 데이터베이스(240)는, 딥러닝 뉴럴 네트워크 구동 프로그램을 저장할 수 있고, 데이터 처리부(230)의 요청에 의하여 제공할 수 있다. In an embodiment, the database 240 may store a deep learning neural network driving program, and may provide it at the request of the data processing unit 230 .

이러한 데이터베이스(240)는, ROM, RAM, EPROM, 플래시 드라이브, 하드 드라이브 등과 같은 다양한 저장기기일 수 있고, 인터넷(internet)상에서 상기 데이터베이스(240)의 저장 기능을 수행하는 웹 스토리지(web storage)일 수도 있다.The database 240 may be various storage devices such as ROM, RAM, EPROM, flash drive, hard drive, and the like, and may be a web storage that performs a storage function of the database 240 on the Internet. may be

- 단말의 사용환경에 따른 근시환자 모니터링 방법 - Monitoring method for myopic patients according to the terminal usage environment

이하, 첨부된 도면을 참조하여 단말(100)의 사용환경을 기반으로 근시환자를 모니터링하는 방법에 대해 상세히 설명하고자 한다. Hereinafter, a method of monitoring a myopic patient based on the usage environment of the terminal 100 will be described in detail with reference to the accompanying drawings.

<단말><Terminal>

도 4는 본 발명의 실시예에 따른 단말(100)에서 단말(100)의 사용환경에 기반한 근시환자 모니터링 서비스를 제공하는 방법을 설명하기 위한 흐름도이다. 4 is a flowchart illustrating a method of providing a myopia patient monitoring service based on a usage environment of the terminal 100 in the terminal 100 according to an embodiment of the present invention.

도 4를 참조하면, 단말(100)의 사용환경에 기반한 근시환자 모니터링 서비스를 제공하기 위해 단말(100)은, 먼저 스크린 온(screen on) 신호를 감지할 수 있다. (S101) Referring to FIG. 4 , in order to provide a myopia patient monitoring service based on the usage environment of the terminal 100 , the terminal 100 may first detect a screen on signal. (S101)

자세히, 단말(100)은, 기본적으로 입력부(120)의 디바이스 온/오프 버튼 또는 센서부(140)를 통하여 스크린 오프(screen off) 신호를 감지할 수 있다. In detail, the terminal 100 may basically detect a screen off signal through the device on/off button of the input unit 120 or the sensor unit 140 .

상세히, 단말(100)은, 입력부(120)의 디바이스 온/오프 버튼에 대한 사용자의 입력에 의하여 디바이스가 오프(off) 상태이거나, 단말(100)의 모션측정 센서를 통해 획득된 디바이스의 움직임 또는 진동이 검출되지 않은 경우, 스크린이 오프(off)된 상황을 나타내는 스크린 오프 신호를 감지할 수 있다. In detail, the terminal 100, the device is in an off state by the user's input to the device on/off button of the input unit 120, or the movement of the device obtained through the motion measurement sensor of the terminal 100, or When the vibration is not detected, a screen-off signal indicating a situation in which the screen is turned off may be detected.

이때, 단말(100)은, 스크린 오프(screen off) 신호가 감지된 경우 대기타임 측정 데이터를 획득할 수 있다. In this case, the terminal 100 may acquire standby time measurement data when a screen off signal is detected.

여기서, 대기타임 측정 데이터란, 단말(100)의 디바이스 온/오프 버튼 또는 센서부(140)를 통하여 획득된 정보를 기반으로 오프 타임(off time) 즉, 단말(100)의 미사용 시간을 측정한 데이터일 수 있다. Here, the standby time measurement data refers to an off time based on information obtained through the device on/off button of the terminal 100 or the sensor unit 140 , that is, the non-use time of the terminal 100 is measured. It can be data.

그리고 단말(100)은, 획득된 대기타임 측정 데이터를 추후 단말 사용환경 정보를 생성하기 위한 기초 데이터로 활용할 수 있다. And the terminal 100 may utilize the obtained standby time measurement data as basic data for generating terminal use environment information later.

한편, 단말(100)은, 입력부(120)의 디바이스 온/오프 버튼 또는 센서부(140)를 통하여, 디바이스(즉, 단말(100))가 동작하여 단말(100)의 디스플레이부(130)가 활성화된 상태인 스크린이 온(on)된 상황을 나타내는 스크린 온(screen on) 신호를 감지할 수 있다. On the other hand, in the terminal 100 , the device (ie, the terminal 100 ) operates through the device on/off button of the input unit 120 or the sensor unit 140 to display the display unit 130 of the terminal 100 . A screen on signal indicating a situation in which the screen in the active state is turned on may be detected.

자세히, 단말(100)은, 입력부(120)의 디바이스 온/오프 버튼에 대한 사용자의 입력에 의하여 디바이스가 온(on) 상태이거나, 단말(100)의 모션측정 센서를 통해 획득된 디바이스의 움직임 또는 진동이 검출된 경우, 스크린이 온(on)된 상황을 나타내는 스크린 온 신호를 감지할 수 있다. In detail, the terminal 100 is the device in an on state by the user's input to the device on/off button of the input unit 120, or the movement of the device obtained through the motion measurement sensor of the terminal 100, or When vibration is detected, a screen-on signal indicating a screen-on state may be detected.

이때, 스크린 온 신호를 감지한 단말(100)은, 대기타임 측정 데이터 검출을 중지하고, 스크린 온 타임(screen on time) 동안의 센서 데이터를 획득할 수 있다. (S103) In this case, the terminal 100 detecting the screen-on signal may stop detecting the standby time measurement data and acquire sensor data during the screen on time. (S103)

여기서, 센서 데이터란, 사용자가 단말(100)을 이용할 때의 사용환경에 대한 정보를 복수의 센서를 통해 획득한 데이터로서, 사용자의 단말 사용환경 정보를 생성하기 위한 기초 데이터로 활용되는 데이터일 수 있다. Here, the sensor data is data obtained through a plurality of sensors for information on the usage environment when the user uses the terminal 100, and may be data used as basic data for generating the user's terminal usage environment information. have.

자세히, 단말(100)은, 센서부(140)의 복수의 센서를 통하여 스크린 온 타임 동안의 센서 데이터를 획득할 수 있다. In detail, the terminal 100 may acquire sensor data during the screen on time through a plurality of sensors of the sensor unit 140 .

보다 상세히, 단말(100)은, 모션측정 센서를 통하여 단말(100)의 움직임 및/또는 진동을 측정한 센서 데이터를 획득할 수 있다. In more detail, the terminal 100 may acquire sensor data obtained by measuring the movement and/or vibration of the terminal 100 through a motion measurement sensor.

또한, 단말(100)은, 조도(광) 센서를 통하여 단말(100) 주변의 밝기값을 센싱하여 단말(100)의 주변 조도를 측정한 센서 데이터를 획득할 수 있다.Also, the terminal 100 may obtain sensor data obtained by measuring the ambient illuminance of the terminal 100 by sensing a brightness value around the terminal 100 through an illuminance (light) sensor.

또한, 단말(100)은, 청색광 측정 센서를 통하여 단말(100)의 디스플레이에서 출력되는 청색광량을 측정한 센서 데이터를 획득할 수 있다. Also, the terminal 100 may obtain sensor data obtained by measuring the amount of blue light output from the display of the terminal 100 through the blue light measurement sensor.

또한, 단말(100)은, 거리측정 센서를 통하여 단말(100)과 사용자 간의 거리를 측정한 센서 데이터를 획득할 수 있다. 예를 들어, 단말(100)은, 거리측정 센서의 근접 센서를 통하여 오브젝트(object, 객체)의 접근을 비접촉으로 검출할 수 있다. 또한 단말(100)은, 거리측정 센서의 적외선 센서를 통하여 적외선(IR)을 방사하고 비상 시간(프로젝션(projection) 및 리턴(return) 시간)을 측정하여 오브젝트와의 거리를 검출할 수 있다. 또한 단말(100)은, 거리측정 센서의 레이저 센서를 통하여 (초)음파를 방사하고 비상 시간(프로젝션 및 리턴 시간)을 측정하여 오브젝트와의 거리를 검출할 수 있다. 이때, 실시예에서 적외선 센서 및/또는 레이저 센서는, TOF(Time Of Flight) 방식으로 구현되어 TOF 카메라(150)와 연동될 수 있다. Also, the terminal 100 may acquire sensor data obtained by measuring the distance between the terminal 100 and the user through a distance measuring sensor. For example, the terminal 100 may detect the approach of an object in a non-contact manner through the proximity sensor of the distance measuring sensor. In addition, the terminal 100 may detect the distance to the object by emitting infrared (IR) through the infrared sensor of the distance measuring sensor and measuring the emergency time (projection and return time). In addition, the terminal 100 may detect the distance to the object by emitting (second) sound waves through the laser sensor of the distance measuring sensor and measuring the emergency time (projection and return time). In this case, in the embodiment, the infrared sensor and/or the laser sensor may be implemented in a time of flight (TOF) method and interlock with the TOF camera 150 .

또한, 단말(100)은, 홍채인식 센서를 통하여 사용자의 홍채를 센싱하여 사용자 초점의 고정 유무 및/또는 고정된 시간을 측정한 센서 데이터를 획득할 수 있다.Also, the terminal 100 may sense the user's iris through the iris recognition sensor to obtain sensor data measuring whether the user's focus is fixed and/or fixed time.

이와 같이, 단말(100)은, 각각에 특화된 데이터를 센싱하는 복수의 센서를 통하여 다양한 단말(100) 사용환경(예컨대, 사용시간, 주변조도, 단말(100)과 사용자 간의 거리, 움직임, 초점 고정시간, 청색광량 등)에 대한 정보를 획득할 수 있고, 이를 통해 사용자의 단말(100) 사용환경을 다각도로 분석할 수 있다. In this way, the terminal 100 uses a plurality of sensors for sensing data specialized for each of the various terminal 100 usage environments (eg, usage time, ambient illuminance, distance between the terminal 100 and the user, movement, and focus fixation). time, amount of blue light, etc.) can be obtained, and through this, the user's terminal 100 usage environment can be analyzed from various angles.

다음으로, 위와 같이 센서 데이터를 획득한 단말(100)은, 획득된 센서 데이터에 기초하여 단말 사용환경 정보를 생성할 수 있다. (S105) Next, the terminal 100 having acquired the sensor data as described above may generate terminal use environment information based on the acquired sensor data. (S105)

자세히, 단말(100)은, 센서 데이터를 기초로 사용자의 단말(100) 사용환경을 분석해 모니터링한 정보인 단말 사용환경 정보를 생성할 수 있다. In detail, the terminal 100 may analyze the user's terminal 100 usage environment based on the sensor data and generate terminal usage environment information that is monitored information.

실시예에서, 단말 사용환경 정보는, 단말(100)에 대한 사용시간 정보, 주변조도 정보, 움직임 정보, 초점 고정시간 정보, 청색광량 정보 및 단말 사용거리 정보 중 적어도 하나 이상을 포함할 수 있다. In an embodiment, the terminal usage environment information may include at least one of usage time information, ambient illuminance information, motion information, focus fixation time information, blue light amount information, and terminal usage distance information for the terminal 100 .

보다 상세히, 단말(100)은, 스크린 온 시간(screen on time)을 측정하여 사용자가 단말(100)을 사용한 시간을 측정한 정보인 단말(100)의 사용시간 정보를 획득할 수 있다. In more detail, the terminal 100 may obtain information on the usage time of the terminal 100 , which is information obtained by measuring the time the user uses the terminal 100 by measuring the screen on time.

이때 단말(100)은, 입력부(120)의 디바이스 온/오프 버튼 및/또는 센서부(140)를 통하여 스크린 온 시간을 측정할 수 있다. 예컨대, 단말(100)은, 디바이스 온/오프 버튼을 통해 감지된 스크린 온 신호의 감지 시각과 스크린 오프 신호의 감지 시각 간의 차이값을 산출하여 스크린 온 시간을 도출할 수 있다. 다른 예에서, 단말(100)은, 센서부(140)의 모션측정 센서를 통해 획득된 대기타임 측정 데이터에 기반하여 소정의 기준 시각(예컨대, 24시간)과 대기타임 측정 데이터로 산출된 대기 시각 간의 차이값을 산출하여 스크린 온 시간을 도출할 수 있다. In this case, the terminal 100 may measure the screen on time through the device on/off button of the input unit 120 and/or the sensor unit 140 . For example, the terminal 100 may derive the screen on time by calculating a difference value between the detection time of the screen on signal detected through the device on/off button and the detection time of the screen off signal. In another example, the terminal 100, based on the standby time measurement data obtained through the motion measurement sensor of the sensor unit 140, a predetermined reference time (eg, 24 hours) and the standby time calculated as the standby time measurement data The screen-on time may be derived by calculating a difference value between them.

또한, 단말(100)은, 스크린 온 시간 중 사용자 시점 고정시간을 단말(100)의 사용시간 정보로 결정하여, 좀더 정확한 사용자의 단말(100) 사용시간을 파악할 수 있다. Also, the terminal 100 may determine the user's fixed time of the screen-on time as the usage time information of the terminal 100 to more accurately determine the user's usage time of the terminal 100 .

이와 같이, 단말(100)은, 사용자의 단말(100) 사용시간 정보를 모니터링하고 이를 기반으로 사용자의 근시를 관리하게 함으로써, 사용자가 단말(100)을 이용한 시간과 근시와의 상관관계에 기반한 근시환자 모니터링 서비스를 효과적으로 제공할 수 있다. In this way, the terminal 100 monitors the user's terminal 100 usage time information and manages the user's myopia based thereon, so that myopia based on the correlation between the time the user uses the terminal 100 and myopia Patient monitoring services can be provided effectively.

또한, 단말(100)은, 스크린 온(screen on) 시의 주변 밝기를 측정한 정보인 단말(100)의 주변조도 정보를 획득할 수 있다. In addition, the terminal 100 may acquire peripheral illuminance information of the terminal 100 , which is information obtained by measuring ambient brightness when a screen is on.

이때, 단말(100)은, 센서부(140)의 조도(광) 센서로부터 단말(100) 주변의 밝기값을 획득하여 주변조도 정보를 생성할 수 있다. In this case, the terminal 100 may generate ambient illuminance information by acquiring a brightness value around the terminal 100 from the illuminance (light) sensor of the sensor unit 140 .

이와 같이, 단말(100)은, 주변조도 정보를 모니터링하고 이를 기반으로 사용자의 근시를 관리하게 함으로써, 사용자가 단말(100)을 이용할 때의 주변 밝기의 정도와 근시와의 상관관계에 기반한 근시환자 모니터링 서비스를 효과적으로 제공할 수 있다.As such, the terminal 100 monitors the peripheral illuminance information and manages the user's myopia based on this, so that the myopia patient based on the correlation between the degree of ambient brightness and the myopia when the user uses the terminal 100 Monitoring services can be provided effectively.

또한, 단말(100)은, 단말(100)의 움직임 및/또는 진동을 측정한 정보인 단말(100)의 움직임 정보를 획득할 수 있다. Also, the terminal 100 may acquire motion information of the terminal 100 , which is information obtained by measuring the movement and/or vibration of the terminal 100 .

이때, 단말(100)은, 센서부(140)의 모션측정 센서의 센서 데이터를 기반으로 사용자에 의한 단말(100)의 연속적인 움직임 및/또는 진동을 감지하여 움직임 정보를 생성할 수 있다. In this case, the terminal 100 may generate motion information by detecting continuous motion and/or vibration of the terminal 100 by the user based on the sensor data of the motion measurement sensor of the sensor unit 140 .

이와 같이, 단말(100)은, 단말(100)의 움직임 정보를 모니터링하여 사용자가 움직이거나 흔들리는 환경에서 단말(100)을 이용하는지 판단할 수 있고, 이를 기반으로 사용자의 근시를 관리하여 단말(100)의 흔들림 정도와 근시와의 상관관계에 기반한 근시환자 모니터링 서비스를 효과적으로 제공할 수 있다. As such, the terminal 100 may monitor the movement information of the terminal 100 to determine whether the user is using the terminal 100 in an environment in which the user moves or shakes, and based on this, manages the user's myopia to the terminal 100 ) can effectively provide a monitoring service for myopia patients based on the correlation between the degree of shaking and myopia.

또한, 단말(100)은, 단말(100)의 디스플레이 상에 장시간 고정되어 있는 사용자의 초점에 대하여 초점의 고정시간을 측정한 정보인 초점 고정시간 정보를 획득할 수 있다. In addition, the terminal 100 may acquire focus fixation time information, which is information obtained by measuring the focus fixation time with respect to the user's focus fixed on the display of the terminal 100 for a long time.

이때, 단말(100)은, 센서부(140)의 홍채인식 센서의 센서 데이터를 기반으로 사용자가 화면을 주시하고 있음을 감지할 수 있으며, 사용자의 초점이 화면 상에 장시간 고정된 경우 해당 시간을 측정하여 초점 고정시간 정보를 생성할 수 있다. At this time, the terminal 100 may detect that the user is looking at the screen based on the sensor data of the iris recognition sensor of the sensor unit 140 , and when the user's focus is fixed on the screen for a long time, the corresponding time By measuring, it is possible to generate focus fixation time information.

이와 같이, 단말(100)은, 단말(100)에 대한 사용자의 초점 고정시간 정보를 모니터링하고 이를 기반으로 사용자의 근시를 관리하게 함으로써, 단말(100)의 디스플레이에 대한 초점의 고정시간과 근시와의 상관관계에 기반한 근시환자 모니터링 서비스를 효과적으로 제공할 수 있다. In this way, the terminal 100 monitors the user's focus fixation time information for the terminal 100 and manages the user's myopia based on this, so that the fixed time of the focus on the display of the terminal 100 and the myopia and the nearsightedness It is possible to effectively provide monitoring services for myopia patients based on the correlation of

또한, 단말(100)은, 단말(100)의 디스플레이에서 출력되는 청색광의 양을 측정한 정보인 청색광량 정보를 획득할 수 있다. Also, the terminal 100 may obtain blue light amount information, which is information obtained by measuring the amount of blue light output from the display of the terminal 100 .

이때, 단말(100)은, 센서부(140)의 청색광 측정 센서의 센서 데이터를 기반으로 단말(100)의 화면으로부터 출력되는 청색광의 양을 감지하여 청색광령 정보를 생성할 수 있다. In this case, the terminal 100 may generate blue light spirit information by detecting the amount of blue light output from the screen of the terminal 100 based on the sensor data of the blue light measuring sensor of the sensor unit 140 .

이와 같이, 단말(100)은, 단말(100)의 청색광량 정보를 모니터링하고 이를 기반으로 사용자의 근시를 관리하게 함으로써, 사용자가 주시하는 화면으로부터 출력되는 청색광의 정도와 근시와의 상관관계에 기반한 근시환자 모니터링 서비스를 효과적으로 제공할 수 있다. In this way, the terminal 100 monitors the blue light amount information of the terminal 100 and manages the user's myopia based on this, based on the correlation between the degree of blue light output from the screen the user is watching and the myopia. It is possible to effectively provide monitoring services for myopia patients.

또한, 단말(100)은, 단말(100)과 사용자의 얼굴 간의 거리를 측정한 정보인 단말 사용거리 정보단말 사용거리 정보를 획득할 수 있다. Also, the terminal 100 may acquire terminal usage distance information, which is information obtained by measuring the distance between the terminal 100 and the user's face, terminal usage distance information.

자세히, 단말(100)은, 센서부(140) 및/또는 카메라(150)를 이용하여 이하에서 기술되는 복수의 단말 사용거리 정보의 획득 방식 중 적어도 하나의 방식으로 단말 사용거리 정보를 획득할 수 있다. In detail, the terminal 100 may obtain the terminal usage distance information by using the sensor unit 140 and/or the camera 150 in at least one of a plurality of terminal usage distance information acquisition methods described below. have.

먼저, 단말(100)은, 1) 센서부(140)를 통하여 단말 사용거리 정보를 획득할 수 있다. 자세히 단말(100)은, 센서부(140)의 거리측정 센서인 근접 센서, 적외선 센서 및 레이저 센서 중 적어도 어느 하나를 기반으로 비상 시간(프로젝션(projection) 및 리턴(return) 시간)값을 측정하여 단말 사용거리 정보를 획득할 수 있다. First, the terminal 100 may 1) acquire terminal usage distance information through the sensor unit 140 . In detail, the terminal 100 measures the emergency time (projection and return time) value based on at least one of a proximity sensor, an infrared sensor, and a laser sensor, which are distance measuring sensors of the sensor unit 140 . It is possible to obtain terminal usage distance information.

또한, 단말(100)은, 카메라(150)를 통하여 단말 사용거리 정보를 획득할 수 있다. 자세히, 실시예에서 단말(100)은, 단말(100)의 디스플레이를 주시하는 사용자를 용이하게 확인가능한 단말(100) 전면부에 배치된 카메라(150)를 이용하여 단말 사용거리 정보를 획득할 수 있다. 즉, 단말(100)의 제어부는, 단말(100)의 전면부에 거리측정 센서가 없는 경우에도 싱글 카메라만을 통해 단말(100)과 사용자의 거리인 사용거리 정보를 검출할 수 있다. Also, the terminal 100 may acquire terminal usage distance information through the camera 150 . In detail, in the embodiment, the terminal 100 may obtain terminal usage distance information by using the camera 150 disposed on the front side of the terminal 100 that can easily identify the user who gazes at the display of the terminal 100 . have. That is, the control unit of the terminal 100 may detect use distance information that is the distance between the terminal 100 and the user through only a single camera even when there is no distance measuring sensor on the front of the terminal 100 .

보다 상세히, 먼저 단말(100)의 전면 카메라(150)가 듀얼(dual) 카메라(150)인 경우 단말(100)은, 2) 스테레오 방식으로 단말 사용거리 정보를 획득할 수 있다. 예를 들어 단말(100)은, 듀얼 카메라(150)를 통해 획득된 사용자측 포인트(예컨대, 감지된 사용자 양안 사이의 중간위치 등) 및 2개의 카메라(150) 각각의 초점 포인트(예컨대, 각 카메라(150)의 렌즈 위치 등)를 기반으로 3각 측정을 수행하여 단말 사용거리 정보를 생성할 수 있다. In more detail, first, when the front camera 150 of the terminal 100 is a dual camera 150, the terminal 100 may 2) acquire terminal usage distance information in a stereo method. For example, the terminal 100 may include a user-side point obtained through the dual camera 150 (eg, an intermediate position between the detected user's eyes, etc.) and a focus point of each of the two cameras 150 (eg, each camera ( 150), it is possible to generate terminal usage distance information by performing triangular measurement based on the lens position, etc.).

다만, 일반적으로 대부분의 단말(100) 전면부에 배치된 카메라(150)는 싱글(single) 카메라(150)로 구현되어 있다. However, in general, most of the cameras 150 disposed on the front side of the terminal 100 are implemented as a single camera 150 .

그러므로 단말(100)은, 단말(100)의 전면 카메라(150)가 싱글 카메라(150)인 경우 3) 카메라(150)가 촬영한 이미지에 대한 오토 포커스(auto focus) 기능을 통하여, 촬영된 이미지의 오브젝트 간 위상차를 기반으로 단말 사용거리 정보를 생성할 수 있다. Therefore, the terminal 100, when the front camera 150 of the terminal 100 is a single camera 150 3) through an auto focus function on the image photographed by the camera 150, the photographed image terminal usage distance information can be generated based on the phase difference between objects of

또한, 단말(100)은, 단말(100)의 전면 카메라(150)가 싱글 카메라(150)인 경우 4) 카메라(150)의 오토 포커스 측정용 거리측정 센서로부터 비상 시간값 획득하여 단말 사용거리 정보를 생성할 수 있다. In addition, when the front camera 150 of the terminal 100 is a single camera 150 4) the terminal 100 obtains an emergency time value from the auto-focus distance measurement sensor of the camera 150 to obtain terminal use distance information can create

또한, 단말(100)은, 단말(100)의 전면 카메라(150)가 싱글 카메라(150)일 때 해당 카메라(150)가 깊이(depth)를 감지하는 3D 카메라(150)인 TOF(Time Of Flight)인 경우, 5) TOF(Time Of Flight) 카메라(150)의 TOF 센서를 통한 비상 시간값을 획득하여 단말 사용거리 정보를 생성할 수 있다. In addition, the terminal 100, when the front camera 150 of the terminal 100 is a single camera 150, the corresponding camera 150 is a 3D camera 150 that detects a depth (depth) TOF (Time Of Flight) ), 5) an emergency time value through the TOF sensor of the TOF (Time Of Flight) camera 150 may be acquired to generate terminal usage distance information.

또한, 특히 본 발명의 실시예에서 단말(100)은, 단말(100)의 전면 카메라(150)가 싱글 카메라(150)인 경우 6) 카메라(150)를 통해 획득된 촬영 이미지로부터 사용자로 분류되는 면적을 감지하고, 감지된 면적을 기반으로 단말 사용거리 정보를 획득할 수 있다. In addition, in particular, in the embodiment of the present invention, the terminal 100 is classified as a user from a photographed image obtained through 6) the camera 150 when the front camera 150 of the terminal 100 is a single camera 150 . The area may be detected, and terminal usage distance information may be obtained based on the sensed area.

도 5 및 6은 본 발명의 실시예에 따른 카메라(150)로부터 획득되는 촬영 이미지를 기반으로 사용자와 단말(100) 간의 거리를 획득하는 방법을 설명하기 위한 도면이다. 5 and 6 are diagrams for explaining a method of obtaining a distance between a user and the terminal 100 based on a captured image obtained from the camera 150 according to an embodiment of the present invention.

도 5 및 6을 참조하면, 본 발명의 실시예에 따른 단말(100)은, 먼저 단말(100)의 전면 카메라(150)의 타입(type)에 대한 그리드(grid)-거리 정보를 획득할 수 있다. (S201) 5 and 6 , the terminal 100 according to an embodiment of the present invention may first obtain grid-distance information for the type of the front camera 150 of the terminal 100 . have. (S201)

일반적으로, 카메라(150)는 그 타입(기종)에 따라서 카메라(150)에 기설정되어 있는 그리드(grid)의 크기 등이 서로 다를 수 있다. 그러므로 본 발명의 실시예에서는, 카메라(150) 타입별로 각기 다른 그리드를 고려하여 사용자와 단말(100) 간의 거리를 획득하고자 한다. In general, the size of a grid preset in the camera 150 may be different depending on the type (model) of the camera 150 . Therefore, in the embodiment of the present invention, the distance between the user and the terminal 100 is obtained in consideration of different grids for each type of camera 150 .

즉, 실시예에서 그리드(grid)-거리 정보란, 전체 그리드 면적 대비 오브젝트가 센싱된 그리드 면적 비율에 따라서 기 설정된 해당 오브젝트와 단말(100) 간의 거리 정보일 수 있다. 이때, 단말(100)에 배치된 카메라(150)의 타입(기종)에 따라서 그리드의 개수, 크기 등의 스펙이 다르므로, 그리드-거리 정보는 카메라(150) 타입별로 설정되는 것이 바람직하며, 이러한 카메라(150) 타입별 그리드-거리 정보는 단말(100) 및/또는 근시 모니터링 서버(200)에 저장되어 있을 수 있다. That is, in the embodiment, the grid-distance information may be distance information between a predetermined object and the terminal 100 according to a ratio of the grid area in which the object is sensed to the total grid area. At this time, since specifications such as the number and size of grids differ depending on the type (model) of the camera 150 disposed in the terminal 100, it is preferable that the grid-distance information is set for each camera 150 type. Grid-distance information for each type of camera 150 may be stored in the terminal 100 and/or the myopia monitoring server 200 .

예를 들어, 그리드-거리 정보는, 도 6의 (2)와 같이 카메라(150) 타입에 매칭된 그리드가 가로 10개 및 세로 10개의 직선으로 구현된 경우, 총 100개의 픽셀 그리드(pixel grid)에 도 6의 (1)과 같이 획득된 촬영 이미지를 도 6의 (3)과 같이 중첩하여, 해당 그리드 상에서 해당 촬영 이미지의 오브젝트가 얼만큼의 면적을 차지하는지에 따라 단말(100)과 해당 오브젝트 간의 거리가 기설정된 정보일 수 있다. 즉, 전체 그리드의 수에서 촬영 이미지의 오브젝트가 차지하는 그리드의 수의 비율에 반비례하여, 오브젝트와 단말(100) 사이의 거리가 산출될 수 있다. For example, grid-distance information includes a total of 100 pixel grids when a grid matching the camera 150 type is implemented with 10 horizontal and 10 vertical straight lines as shown in (2) of FIG. 6 . The captured image obtained as shown in (1) of FIG. 6 is superimposed as shown in FIG. 6 (3), and the distance between the terminal 100 and the corresponding object is determined according to how much area the object of the corresponding captured image occupies on the grid. The distance may be preset information. That is, the distance between the object and the terminal 100 may be calculated in inverse proportion to the ratio of the number of grids occupied by the object of the photographed image to the total number of grids.

예컨대, 그리드-거리 정보는, 총 100개의 픽셀 그리드 중 0~20% 이상의 픽셀 그리드가 특정 오브젝트로 채워지면 단말(100)과 특정 오브젝트 간의 거리를 최소 100cm, 20%~50% 이상의 픽셀 그리드가 특정 오브젝트로 채워지면 단말(100)과 특정 오브젝트 간의 거리를 최소 50cm, 50%~80% 이상의 픽셀 그리드가 특정 오브젝트로 채워지면 단말(100)과 특정 오브젝트 간의 거리를 최소 20cm, 80%~100% 이상의 픽셀 그리드가 특정 오브젝트로 채워지면 단말(100)과 특정 오브젝트 간의 거리를 최소 0cm로 판단하는 기설정된 정보일 수 있다. For example, in the grid-distance information, when a pixel grid of 0-20% or more of a total of 100 pixel grids is filled with a specific object, the distance between the terminal 100 and the specific object is at least 100cm, and a pixel grid of 20%-50% or more is specified. When the pixel grid is filled with an object, the distance between the terminal 100 and a specific object is at least 50 cm, and when the pixel grid is filled with a specific object, the distance between the terminal 100 and the specific object is at least 20 cm, 80% to 100% or more. When the pixel grid is filled with a specific object, it may be preset information for determining the distance between the terminal 100 and the specific object to be at least 0 cm.

또한, 그리드-거리 정보를 획득한 단말(100)은, 단말(100)의 전면 카메라(150)로부터 촬영 이미지를 획득할 수 있다. (S203) In addition, the terminal 100 having obtained the grid-distance information may obtain a photographed image from the front camera 150 of the terminal 100 . (S203)

자세히, 단말(100)은, 도 6의 (1)과 같이 단말(100)의 전면 카메라(150)가 외부의 오브젝트를 촬영하여 생성되는 촬영 이미지를 획득할 수 있다. In detail, the terminal 100 may acquire a photographed image generated by photographing an external object by the front camera 150 of the terminal 100 as shown in FIG. 6 ( 1 ).

그리고 단말(100)은, 획득된 촬영 이미지를 기반으로 사용자 얼굴영역을 검출할 수 있다. (S205) In addition, the terminal 100 may detect the user's face region based on the acquired captured image. (S205)

여기서, 사용자 얼굴영역이란, 촬영 이미지 상에서 사용자의 얼굴을 나타내는 영역을 의미한다. Here, the user's face area means an area representing the user's face on a photographed image.

자세히, 단말(100)은, 이미지 딥러닝(Image deep-learning)을 수행하는 딥러닝 뉴럴 네트워크(deep-learning neural network)를 통하여 촬영 이미지로부터 사용자 얼굴영역을 검출할 수 있다. In detail, the terminal 100 may detect the user's face region from the captured image through a deep-learning neural network that performs image deep-learning.

여기서, 본 발명의 실시예에 따른 이미지 딥러닝 뉴럴 네트워크는, 콘벌루션 뉴럴 네트워크(CNN, Convolution Neural Network), R-CNN(Regions with CNN features), Fast R-CNN, Faster R-CNN 및 Mask R-CNN 중 적어도 하나 이상일 수 있다. Here, the image deep learning neural network according to an embodiment of the present invention is a convolutional neural network (CNN), Regions with CNN features (R-CNN), Fast R-CNN, Faster R-CNN and Mask R. -CNN may be at least one or more.

다만, 콘벌루션 뉴럴 네트워크(CNN, Convolution Neural Network)가 실시예에 따른 시맨틱 세그멘테이션(Semantic segmentation)을 수행하는데 효과적이므로, 이하의 설명에서는, 이미지 딥러닝 뉴럴 네트워크를 콘벌루션 뉴럴 네트워크(CNN, Convolution Neural Network)에 한정하여 설명하기로 한다. However, since a convolutional neural network (CNN) is effective in performing semantic segmentation according to an embodiment, in the following description, an image deep learning neural network is used as a convolutional neural network (CNN). Network) will be limited to the description.

도 7을 참조하면, 실시예에서 단말(100)은, 먼저 획득된 촬영 이미지를 딥러닝 뉴럴 네트워크의 입력 데이터로 하여 특정 오브젝트 즉, 사용자 얼굴의 존재 유무를 감지하는 오브젝트 디텍션(object detection)을 수행할 수 있다. Referring to FIG. 7 , in the embodiment, the terminal 100 performs object detection for detecting the presence or absence of a specific object, that is, a user's face, by using the captured image first as input data of the deep learning neural network. can do.

그리고 단말(100)은, 감지된 사용자 얼굴을 사용자 얼굴영역으로 분류하는 오브젝트 클레시피케이션(object classification)을 수행할 수 있다. In addition, the terminal 100 may perform object classification for classifying the detected user face into a user face region.

또한, 단말(100)은, 감지된 사용자 얼굴영역을 의미있는 영역으로 판단하고 이에 대한 경계를 검출하는 오브젝트 세그멘테이션(object segmentation)을 수행할 수 있다. 즉 단말(100)은, 임계값(threshold)이나 엣지(edge)에 기반한 단순 구별이 아닌 의미있는 영역의 오브젝트로서 사용자 얼굴영역을 감지할 있다. Also, the terminal 100 may determine the detected user face region as a meaningful region and perform object segmentation for detecting a boundary thereto. That is, the terminal 100 may detect the user's face region as an object of a meaningful region rather than a simple distinction based on a threshold or an edge.

그리하여 단말(100)은, 촬영 이미지를 입력 데이터로 하는 딥러닝 뉴럴 네트워크를 통하여 촬영 이미지 상의 사용자 얼굴영역을 검출할 수 있다. Thus, the terminal 100 may detect the user's face region on the captured image through a deep learning neural network using the captured image as input data.

이때, 단말(100)은, 사용자 얼굴로 분류되는 영역이 복수 개일 경우 즉, 여러 명의 얼굴이 감지되는 경우, 가장 큰 면적을 차지하는 얼굴영역을 판단하여 해당 얼굴영역을 기반으로 사용자 얼굴영역을 결정할 수도 있다. In this case, when there are a plurality of regions classified as user faces, that is, when multiple faces are detected, the terminal 100 may determine the face region occupying the largest area and determine the user face region based on the corresponding face region. have.

여기서, 본 발명의 실시예는 촬영 이미지 상의 사용자 얼굴영역에 한정하여 단말(100)과 사용자의 얼굴 간의 거리를 기반으로 단말 사용거리 정보를 획득한다고 설명하나, 촬영 이미지 상에서 감지된 사용자의 전체영역(예컨대, 얼굴과 몸체 등)을 기반으로 단말(100)과 사용자 간의 거리를 산출하여 단말 사용거리 정보를 획득하는 등 다양한 실시예 또한 가능할 것이다. Here, the embodiment of the present invention describes that terminal usage distance information is obtained based on the distance between the terminal 100 and the user's face by limiting to the user's face area on the photographed image, but the entire area of the user detected on the photographed image ( For example, various embodiments are also possible, such as calculating the distance between the terminal 100 and the user based on the face and body, etc.) to obtain terminal use distance information.

다음으로, 사용자 얼굴영역을 검출한 단말(100)은, 검출된 사용자 얼굴영역에 대한 그리드 점유비율 정보를 획득할 수 있다. (S207) Next, the terminal 100 that has detected the user's face area may acquire grid occupancy rate information for the detected user's face area. (S207)

자세히, 도 8을 참조하면 단말(100)은, 검출된 사용자 얼굴영역과 해당 카메라(150)에 대하여 기설정되어 있는 그리드를 중첩하여, 사용자 얼굴영역이 그리드 상에서 차지하는 면적을 판단한 정보인 그리드 점유비율 정보를 획득할 수 있다. In detail, referring to FIG. 8 , the terminal 100 overlaps the detected user face region with a grid preset for the corresponding camera 150 , and determines the area occupied by the user face region on the grid, the grid occupancy ratio. information can be obtained.

이처럼 그리드 점유비율 정보를 획득한 단말(100)은, 획득된 그리드 점유비율 정보에 기초하여 그리드-거리 정보에 따른 단말 사용거리 정보를 획득할 수 있다. (S209) As such, the terminal 100 having obtained the grid occupancy ratio information may acquire terminal usage distance information according to the grid-distance information based on the obtained grid occupancy ratio information. (S209)

자세히, 단말(100)은, 획득된 그리드 점유비율 정보와 해당 카메라(150)에 대하여 기설정되어 있는 그리드-거리 정보를 기반으로 사용자의 얼굴과 단말(100) 간의 거리를 판단할 수 있다. In detail, the terminal 100 may determine the distance between the user's face and the terminal 100 based on the obtained grid occupancy rate information and grid-distance information preset for the corresponding camera 150 .

예를 들어, 단말(100)은, 그리드 점유비율 정보를 통하여 사용자 얼굴영역이 해당 카메라(150)의 그리드에 대해 80%의 면적을 차지한다고 판단된 경우, 기설정된 그리드-거리 정보(예컨대, 그리드의 50%~80% 이상이 특정 오브젝트로 채워지면 단말(100)과 특정 오브젝트 간의 거리를 최소 20cm 판단하는 정보 등)에 따라서 사용자 얼굴과 단말(100) 간의 거리를 20cm로 판단한 단말 사용거리 정보를 획득할 수 있다. For example, when it is determined that the user's face area occupies 80% of the area of the grid of the corresponding camera 150 through the grid occupancy ratio information, the terminal 100 determines the preset grid-distance information (eg, grid When 50% to 80% or more of is filled with a specific object, the terminal use distance information that determines the distance between the user's face and the terminal 100 as 20cm according to the information that determines the distance between the terminal 100 and the specific object at least 20cm) can be obtained

이처럼, 단말(100)은, 카메라(150)를 통해 획득된 촬영 이미지로부터 사용자의 얼굴로 분류되는 면적을 딥러닝을 통해 감지하고, 감지된 면적을 기반으로 단말 사용거리 정보를 획득함으로써, 촬영 이미지 상의 오브젝트 중 명확히 사람으로 판단되는 오브젝트에 기반하여 거리를 측정할 수 있고, 단말(100)과 사용자 얼굴 간의 거리를 보다 정확하게 판단하여 단말 사용거리 정보를 생성할 수 있다. As such, the terminal 100 detects an area classified as a user's face from a photographed image obtained through the camera 150 through deep learning, and obtains terminal usage distance information based on the detected area, thereby obtaining a photographed image It is possible to measure the distance based on an object that is clearly determined to be a person among the objects on the face, and to more accurately determine the distance between the terminal 100 and the user's face to generate terminal usage distance information.

또한, 이와 같이 단말(100)은, 단말(100)의 단말 사용거리 정보를 모니터링하고 이를 기반으로 사용자의 근시를 관리하게 함으로써, 사용자가 단말(100)을 사용할 때의 사용자 얼굴과 단말(100) 간의 거리와, 근시 간의 상관관계에 기반한 근시환자 모니터링 서비스를 효과적으로 제공할 수 있다. In addition, as described above, the terminal 100 monitors the terminal usage distance information of the terminal 100 and manages the user's myopia based on this, so that the user's face and the terminal 100 when the user uses the terminal 100 . It is possible to effectively provide a myopia patient monitoring service based on the distance between the eyes and the correlation between myopia.

다시 도 4로 돌아와서, 위와 같이 센서 데이터를 기반으로 사용시간 정보, 주변조도 정보, 움직임 정보, 초점 고정시간 정보, 청색광량 정보 및 단말 사용거리 정보 중 적어도 하나 이상을 생성한 단말(100)은, 생성된 정보 중 적어도 하나 이상을 포함하는 단말 사용환경 정보를 생성할 수 있다. Returning to FIG. 4 again, the terminal 100 that has generated at least one of usage time information, ambient illuminance information, motion information, focus fixation time information, blue light amount information, and terminal usage distance information based on the sensor data as above is, Terminal usage environment information including at least one or more of the generated information may be generated.

다음으로, 단말 사용환경 정보를 생성한 단말(100)은, 생성된 단말 사용환경 정보를 순차적으로 누적하여 저장할 수 있다. (S107) Next, the terminal 100 that has generated the terminal use environment information may sequentially accumulate and store the generated terminal use environment information. (S107)

자세히, 단말(100)은, 단말(100)의 스크린 온 타임(screen on time) 시마다 생성되는 적어도 하나 이상의 단말 사용환경 정보를 시간의 순서에 따라 순차적으로 누적하여 저장부(160)에 저장할 수 있다. In detail, the terminal 100 may sequentially accumulate at least one terminal use environment information generated for each screen on time of the terminal 100 according to the order of time and store it in the storage unit 160 . .

또한, 단말 사용환경 정보를 순차적으로 누적 저장한 단말(100)은, 소정의 기간에 대한 단말 사용환경 정보를 근시 모니터링 서버(200)로 송신할 수 있다. (S109)Also, the terminal 100 that sequentially accumulates and stores the terminal use environment information may transmit the terminal use environment information for a predetermined period to the myopia monitoring server 200 . (S109)

자세히, 단말(100)은, 시간순으로 누적되어 저장된 적어도 하나 이상의 단말 사용환경 정보 중, 소정의 기간에 대하여 누적 저장되어 있는 단말 사용환경 정보를 근시 모니터링 서버(200)로 송신할 수 있다. In detail, the terminal 100 may transmit, to the myopia monitoring server 200 , the terminal use environment information accumulated and stored for a predetermined period among at least one or more terminal use environment information accumulated and stored in chronological order.

여기서, 소정의 기간은, 단말(100) 및/또는 근시 모니터링 서버(200)를 통해 설정될 수 있으며, 예컨대 소정의 기간은, 사용자의 제 1 근시검사 시점과 제 2 근시검사 시점 사이의 기간일 수 있다. Here, the predetermined period may be set through the terminal 100 and/or the myopia monitoring server 200, for example, the predetermined period is a period between the user's first myopia test time and the second myopia test time. can

이와 같이, 단말(100)은, 소정의 기간에 대하여 누적 저장된 사용자의 단말 사용환경 정보를 제공하여 추후 사용자의 단말 사용환경 정보와 근시 간의 상관관계를 도출하기 위한 근거 데이터를 효과적으로 공급할 수 있다. In this way, the terminal 100 may provide the user's terminal use environment information accumulated and stored for a predetermined period, thereby effectively supplying evidence data for deriving a correlation between the user's terminal use environment information and the nearsightedness later.

다음으로, 소정의 기간에 대한 단말 사용환경 정보를 송신한 단말(100)은, 송신된 단말 사용환경 정보에 기초한 예상 근시 진행정보를 근시 모니터링 서버(200)로부터 수신하여 표시할 수 있다. (S111) Next, the terminal 100 that has transmitted the terminal use environment information for a predetermined period may receive and display expected myopia progress information based on the transmitted terminal use environment information from the myopia monitoring server 200 . (S111)

여기서, 예상 근시 진행정보는, 근시 모니터링 서버(200)가 단말 사용환경 정보를 이용하여 딥러닝을 수행해 획득한 정보로서, 사용자의 단말 사용환경 정보를 딥러닝 뉴럴 네트워크에 입력하여 도출된 단말(100) 사용환경과 근시 간의 상관관계에 따라서 사용자 근시의 악화 또는 개선을 나타내는 지표일 수 있다. Here, the predicted myopia progress information is information obtained by the myopia monitoring server 200 performing deep learning using the terminal usage environment information, and the terminal 100 derived by inputting the user's terminal usage environment information into the deep learning neural network. ) may be an indicator of worsening or improvement of the user's myopia according to the correlation between the use environment and myopia.

자세히, 예상 근시 진행정보는, 단말 사용환경 정보의 각 파라미터(예를 들어, 사용시간 정보 파라미터, 주변조도 정보 파라미터, 움직임 정보 파라미터, 초점 고정시간 정보 파라미터, 청색광량 정보 파라미터 또는 단말 사용거리 정보 파라미터)와 사용자의 근시 간의 상관관계에 따라서 획득된 사용자의 근시 진행상태를 나타내는 정보일 수 있다. 이에 대한 자세한 설명은 이하에서 후술되는 서버에서 단말(100)의 사용환경에 기반한 근시환자 모니터링 서비스를 제공하는 방법의 상세한 설명에서 기술하기로 한다. In detail, the predicted myopia progress information includes each parameter of the terminal use environment information (eg, use time information parameter, ambient illuminance information parameter, motion information parameter, focus fixation time information parameter, blue light amount information parameter, or terminal use distance information parameter ) and the user's myopia may be information indicating the progress of the user's myopia obtained according to the correlation. A detailed description of this will be described in the detailed description of a method of providing a myopia patient monitoring service based on the usage environment of the terminal 100 in the server, which will be described later.

즉, 단말(100)은, 근시 모니터링 서버(200)로부터 수신된 예상 근시 진행정보에 기반하여 단말 사용환경 정보의 각 파라미터와 근시 간의 상관관계에 따른 사용자 근시의 악화 또는 개선 정보를 사용자에게 제공할 수 있다. That is, the terminal 100, based on the expected myopia progress information received from the myopia monitoring server 200, provides the user with information on deterioration or improvement of the user's myopia according to the correlation between each parameter of the terminal use environment information and the nearsightedness. can

예를 들어, 단말(100)은, 일 파라미터와 근시 간의 상관관계를 1~10단계에 기준하여 10단계에 가까워질수록 상관관계가 높은 것으로 기설정할 수 있다. 그리고 단말(100)은, 근시 모니터링 서버(200)로부터 수신된 예상 근시 진행정보를 통해 일 파라미터와 근시 간의 상관관계 정도를 나타내는 상관관계 값이 8로 판단된 경우, 해당 일 파라미터와 근시 간의 상관관계를 8단계로 표시하여 사용자에게 제공할 수 있다. For example, the terminal 100 may preset the correlation between one parameter and myopia to be higher as it approaches step 10 based on steps 1 to 10. And the terminal 100, when the correlation value indicating the degree of correlation between one parameter and myopia is determined to be 8 through the expected myopia progress information received from the myopia monitoring server 200, the correlation between the corresponding one parameter and myopia can be provided to the user by displaying in 8 steps.

이와 같이, 단말(100)은, 사용자가 단말(100)을 사용하는 환경이 근시에 영향을 미치는 상관관계의 정도를 예상 근시 진행정보에 기반하여 제공함으로써, 사용자별로 측정된 단말 사용환경 정보에 따른 사용자별 맞춤 처방 및 근시예방 교육을 제공할 수 있고, 근시와 관련된 일반적인 통계를 산출하거나, 개인별 통계를 산출하는 등 다양한 방식으로 데이터를 활용할 수 있다. In this way, the terminal 100 provides a degree of correlation in which the environment in which the user uses the terminal 100 affects myopia based on the expected myopia progress information, so that according to the terminal use environment information measured for each user It is possible to provide customized prescription and myopia prevention education for each user, and data can be utilized in various ways, such as calculating general statistics related to myopia or calculating individual statistics.

이상에서는, 단말(100)이 센서 데이터에 기반하여 단말 사용환경 정보를 생성하고, 생성된 단말 사용환경 정보에 기반한 예상 근시 진행정보를 수신하여, 단말 사용환경 정보와 근시 간의 상관관계에 기반한 근시의 악화 또는 개선 정보를 제공하는 실시예에 한정하여 설명하였으나, 다른 실시예에서는, 단말(100)이 센서 데이터에 기반하여 단말 사용환경 정보를 생성하고, 생성된 단말 사용환경 정보에 기반한 예상 녹내장 진행정보를 수신하여, 단말 사용환경 정보와 녹내장 간의 상관관계에 기반한 녹내장의 악화 또는 개선 정보를 제공하는 실시예 또한 가능할 것이다. In the above, the terminal 100 generates terminal use environment information based on sensor data, receives expected myopia progress information based on the generated terminal use environment information, and receives nearsightedness based on the correlation between terminal use environment information and myopia. Although the description is limited to the embodiment in which exacerbation or improvement information is provided, in another embodiment, the terminal 100 generates terminal use environment information based on sensor data, and predicted glaucoma progress information based on the generated terminal use environment information. An embodiment in which information on deterioration or improvement of glaucoma based on the correlation between terminal use environment information and glaucoma by receiving the glaucoma is also possible.

<근시 모니터링 서버><Myopia Monitoring Server>

한편, 도 9는 본 발명의 실시예에 따른 근시 모니터링 서버(200)에서 단말(100)의 사용환경에 기반한 근시환자 모니터링 서비스를 제공하는 방법을 설명하기 위한 흐름도이다.Meanwhile, FIG. 9 is a flowchart illustrating a method of providing a myopia patient monitoring service based on the usage environment of the terminal 100 in the myopia monitoring server 200 according to an embodiment of the present invention.

도 9를 참조하면, 단말(100)의 사용환경에 기반한 근시환자 모니터링 서비스를 제공하기 위해 근시 모니터링 서버(200)는, 먼저 사용자의 제 1 근시검사 결과값 및 제 2 근시검사 결과값을 획득할 수 있다. (S301) Referring to FIG. 9 , in order to provide a myopia patient monitoring service based on the usage environment of the terminal 100, the myopia monitoring server 200 first acquires the user's first myopia test result value and the second myopia test result value. can (S301)

여기서, 근시검사 결과값이란, 사용자가 수행한 근시검사에 대한 결과 정보를 의미할 수 있다. 즉, 근시 모니터링 서버(200)는, 사용자가 제 1 시점에 수행한 제 1 근시검사에 대한 결과 정보인 제 1 근시검사 결과값과, 이후 사용자가 제 2 시점에 수행한 제 2 근시검사에 대한 결과 정보인 제 2 근시검사 결과값을 획득할 수 있다. Here, the myopia test result value may refer to result information on the myopia test performed by the user. That is, the myopia monitoring server 200 provides information on a first myopia test result value, which is result information on a first myopia test performed by the user at a first time point, and a second myopia test result value performed by the user at a second time point thereafter. A second myopia test result value, which is the result information, may be acquired.

이때, 근시 모니터링 서버(200)는, 실시예에 따라서 사용자 입력, 외부의 장치 및/또는 서버로부터 제 1 및 2 근시검사 결과값을 획득할 수 있다. In this case, the myopia monitoring server 200 may obtain first and second myopia test result values from a user input, an external device, and/or a server according to an embodiment.

다음으로, 근시 모니터링 서버(200)는, 제 1 근시검사를 수행한 제 1 시점부터 제 2 근시검사를 수행한 제 2 시점까지의 사용자(즉, 피검사자)의 단말 사용환경 정보를 획득할 수 있다. (S303) Next, the myopia monitoring server 200 may acquire terminal usage environment information of the user (ie, the subject) from a first time point at which the first myopia test is performed to a second time point at which the second myopia test is performed. . (S303)

자세히, 근시 모니터링 서버(200)는, 단말(100)로부터 단말(100) 상에 시간순으로 누적 저장되어 있는 적어도 하나 이상의 단말 사용환경 정보 중, 소정의 기간인 제 1 시점부터 제 2 시점 기간에 대해 누적 저장되어 있는 단말 사용환경 정보를 수신할 수 있다. In detail, the myopia monitoring server 200 is configured for a first time point to a second time point period, which is a predetermined period, among at least one or more terminal use environment information accumulated and stored in chronological order from the terminal 100 to the terminal 100 . It is possible to receive terminal usage environment information that is accumulated and stored.

예를 들어, 근시 모니터링 서버(200)는, 단말(100)로부터 제 1 시점부터 제 2 시점 기간에 대하여 누적 저장되어 있는 제 1 단말 사용환경 정보, 제 2 단말 사용환경 정보, …, 제 n 단말 사용환경 정보를 수신할 수 있다. For example, the myopia monitoring server 200, the first terminal use environment information, the second terminal use environment information, . , it is possible to receive the nth terminal use environment information.

계속해서, 근시 모니터링 서버(200)는, 획득된 제 1 근시검사 결과값, 제 2 근시검사 결과값 및 단말 사용환경 정보를 기반으로 트레이닝 데이터 세트(training data set)를 생성할 수 있다. (S305) Subsequently, the myopia monitoring server 200 may generate a training data set based on the obtained first myopia test result value, the second myopia test result value, and terminal use environment information. (S305)

자세히, 근시 모니터링 서버(200)는, 제 1 근시검사 결과값, 제 2 근시검사 결과값 및 단말 사용환경 정보를 기반으로 생성되는 복수의 학습 데이터로 트레이닝 데이터 세트를 생성할 수 있다. In detail, the myopia monitoring server 200 may generate a training data set with a plurality of learning data generated based on the first myopia test result value, the second myopia test result value, and the terminal use environment information.

예를 들어, 트레이닝 데이터 세트는, {제 1 단말 사용환경 정보, 제 1 근시검사 결과값, 제 2 근시검사 결과값}, {제 2 단말 사용환경 정보, 제 1 근시검사 결과값, 제 2 근시검사 결과값}, …, {제 n 단말 사용환경 정보, 제 1 근시검사 결과값, 제 2 근시검사 결과값}을 포함할 수 있다. For example, the training data set includes {the first terminal use environment information, the first myopia test result value, the second myopia test result value}, {the second terminal use environment information, the first myopia test result value, and the second myopia test result value. inspection result}, … , {the nth terminal usage environment information, the first myopia test result value, and the second myopia test result value}.

다음으로, 근시 모니터링 서버(200)는, 생성된 트레이닝 데이터 세트를 기반으로 딥러닝 뉴럴 네트워크(deep-learning neural network)를 학습시킬 수 있다. (S307) Next, the myopia monitoring server 200 may train a deep-learning neural network based on the generated training data set. (S307)

자세히, 근시 모니터링 서버(200)는, 트레이닝 데이터 세트에 기초하여 사용자의 단말 사용환경 정보와 근시 간의 상관관계를 도출하도록 딥러닝 뉴럴 네트워크를 학습시킬 수 있다. In detail, the myopia monitoring server 200 may train the deep learning neural network to derive a correlation between the user's terminal usage environment information and myopia based on the training data set.

이때, 실시예에서 근시 모니터링 서버(200)는, 단말 사용환경 정보와 근시 간의 상관관계를 도출하기 위한 딥러닝 뉴럴 네트워크를 레스넷(Resnet, residual net) 구조에 기반하여 학습시킬 수 있다. 이는, 딥러닝 뉴럴 네트워크가 레스넷 구조를 채용하였을 때 1) 학습의 속도가 향상되는 점, 2) 깊은 망을 구현하면서도(예컨대, 100 layer 이상의 망) 깊이에 따른 학습효과를 얻을 수 있는 점 즉, 망을 깊이 구현할수록 성능이 좋아질 수 있는 점, 3) 깊은 망도 쉽게 최적화가 가능하며 늘어난 망의 깊이로 인해 정확도를 개선시킬 수 있는 점과 같은 장점을 실현할 수 있기 때문이다. In this case, in the embodiment, the myopia monitoring server 200 may learn a deep learning neural network for deriving a correlation between terminal use environment information and myopia based on a Resnet (resnet, residual net) structure. This is because, when the deep learning neural network adopts the LessNet structure, 1) the learning speed is improved, and 2) the learning effect according to the depth can be obtained while implementing a deep network (eg, a network of 100 layers or more). This is because advantages such as performance can be improved as the depth of the network is implemented, and 3) a deep network can be easily optimized, and the accuracy can be improved due to the increased depth of the network.

도 10은 본 발명의 실시예에 따른 딥러닝 뉴럴 네트워크를 구현하는 복수의 블록으로 이루어진 신경망 구조 중 하나의 블록을 설명하기 위한 도면이다. 10 is a diagram for explaining one block of a neural network structure consisting of a plurality of blocks implementing a deep learning neural network according to an embodiment of the present invention.

예를 들어, 도 10을 참조하면, 레스넷 구조 기반의 딥러닝 뉴럴 네트워크는, 19개의 레지듀얼(residual) 블록으로 구성될 수 있다. For example, referring to FIG. 10 , a deep learning neural network based on the Resnet structure may be composed of 19 residual blocks.

이때, 하나의 레지듀얼 블록은 256개의 3X3 컨볼루션 레이어, 일괄 정규화(batch normalization) 레이어, Relu 활성화 함수 레이어, 256개의 3X3 컨볼루션 레이어, 일괄 정규화(batch normalization) 레이어, 스킵 커넥션, Relu 활성화 함수 레이어 순으로 배치될 수 있다. At this time, one residual block includes 256 3X3 convolutional layers, batch normalization layers, Relu activation function layers, 256 3X3 convolutional layers, batch normalization layers, skip connections, and Relu activation function layers. may be arranged in order.

여기서, 일괄 정규화(batch normalization) 레이어는, 학습하는 도중에 이전 레이어의 파라미터 변화로 인해 현재 레이어의 입력의 분포가 바뀌는 현상인 공변량 변화(covariate shift)를 방지하기 위한 것이다. Here, the batch normalization layer is to prevent covariate shift, which is a phenomenon in which the distribution of the input of the current layer is changed due to the parameter change of the previous layer during learning.

또한, 스킵 커넥션은, 블록 층이 두꺼워지더라도 신경망의 성능이 감소하는 것을 방지하고 블록 층을 더욱 두껍게 하여 전체 신경망 성능을 높일 수 있게 한다. 이때, 스킵 커넥션은, 레지듀얼 블록의 최초 입력 데이터가 두 번째 일괄 정규화(batch normalization) 레이어의 출력과 합하여 두번째 Relu 활성화 함수 레이어에 입력되는 형태일 수 있다. In addition, skip connection prevents the performance of the neural network from decreasing even when the block layer becomes thick, and makes the block layer thicker to increase the overall neural network performance. In this case, the skip connection may be in a form in which the first input data of the residual block is combined with the output of the second batch normalization layer and input to the second Relu activation function layer.

다시 돌아와서, 근시 모니터링 서버(200)는, 위와 같은 레스넷에 기반한 딥러닝 뉴럴 네트워크를 트레이닝 데이터 세트를 입력 데이터로 하여, 제 1 근시검사 결과값과 제 2 근시검사 결과값 간의 차이에, 단말 사용환경 정보의 각 파라미터가 영향을 미치는 정도를 판단하여 각 파라미터별 근시와의 상관관계 값을 도출하도록 학습시킬 수 있다. Back again, the myopia monitoring server 200 uses a deep learning neural network based on the above Resnet as input data, and uses a terminal for the difference between the first myopia test result and the second myopia test result. By determining the degree of influence of each parameter of the environmental information, it is possible to learn to derive a correlation value with myopia for each parameter.

여기서, 상관관계 값은, 단말 사용환경 정보의 일 파라미터와 근시 간의 상관관계 정도를 나타내는 정보로서, 예컨대, 상관관계가 높을수록 큰 수치값, 상관관계가 낮을수록 작은 수치값으로 도출될 수 있다. Here, the correlation value is information indicating the degree of correlation between one parameter of the terminal use environment information and the nearsightedness, and for example, may be derived as a larger numerical value as the correlation is higher, and a smaller numerical value as the correlation is lower.

예를 들어, 딥러닝 뉴럴 네트워크는, 단말 사용환경 정보의 각 파라미터에 대한 요소별 변형을 수행하여, 각 파라미터와 근시 간의 상관관계 값을 획득할 수 있고, 이를 통해 학습을 수행할 수 있다. For example, the deep learning neural network may perform element-by-element transformation of each parameter of the terminal use environment information to obtain a correlation value between each parameter and myopia, and may perform learning through this.

예컨대, 딥러닝 뉴럴 네트워크는, 트레이닝 데이터 세트의 제 1 내지 n 단말 사용환경 정보의 사용시간 정보, 주변조도 정보, 움직임 정보, 초점 고정시간 정보, 청색광량 정보 및 단말 사용거리 정보 파라미터 중, 일 파라미터에 변형을 수행할 수 있다. 그리고 딥러닝 뉴럴 네트워크는, 일 파라미터에 변형을 수행한 경우의 제 1 근시검사 결과값과 제 2 근시검사 결과값 간의 차이에 대한 변화를 측정하여, 해당 일 파라미터와 근시 사이의 상관관계 값을 획득할 수 있고, 이를 기반으로 학습을 수행할 수 있다. For example, the deep learning neural network uses time information, ambient illuminance information, motion information, focus fixation time information, blue light amount information, and terminal usage distance information parameters of the first to n terminal usage environment information of the training data set, one parameter transformation can be performed on In addition, the deep learning neural network measures the change in the difference between the first myopia test result and the second myopia test result when the one parameter is modified to obtain a correlation value between the corresponding one parameter and myopia. You can do it, and you can learn based on it.

또한, 근시 모니터링 서버(200)는, 이상과 같은 딥러닝 뉴럴 네트워크의 학습 동작을 복수의 타 트레이닝 데이터 세트에 대해서도 반복적으로 수행하여, 사용자의 단말 사용환경 정보와 근시 간의 상관관계를 도출하는 딥러닝 뉴럴 네트워크를 학습시킬 수 있다. In addition, the myopia monitoring server 200, by repeatedly performing the learning operation of the deep learning neural network as described above for a plurality of other training data sets, deep learning to derive a correlation between the user's terminal usage environment information and myopia Neural networks can be trained.

한편, 위와 같이 학습된 딥러닝 뉴럴 네트워크 시스템에 따라 딥러닝을 수행하는 근시 모니터링 서버(200)는, 학습된 딥러닝 뉴럴 네트워크를 이용하여 사용자의 단말 사용환경 정보에 따른 예상 근시 진행정보를 생성하여 단말(100)로 송신할 수 있다. (S309)On the other hand, the myopia monitoring server 200 that performs deep learning according to the deep learning neural network system learned as described above uses the learned deep learning neural network to generate expected myopia progress information according to the user's terminal usage environment information. It can be transmitted to the terminal 100 . (S309)

여기서, 예상 근시 진행정보는, 딥러닝 뉴럴 네트워크를 이용하여 단말 사용환경 정보의 각 파라미터와 사용자의 근시 간의 상관관계를 판단한 정보로서, 예를 들어 사용시간 정보, 주변조도 정보, 움직임 정보, 초점 고정시간 정보, 청색광량 정보 및/또는 단말 사용거리 정보 각각의 파라미터가 근시에 영향을 미치는 정도를 나타내는 상관관계 값을 기반으로 사용자 근시의 악화 또는 개선 정보를 제공하는 정보일 수 있다. Here, the predicted myopia progress information is information obtained by determining the correlation between each parameter of the terminal use environment information and the user's myopia by using a deep learning neural network, for example, use time information, peripheral illuminance information, motion information, focus fixation The time information, the blue light amount information, and/or the terminal usage distance information may be information providing information on worsening or improving myopia of the user based on a correlation value indicating a degree to which each parameter affects myopia.

예컨대, 근시 모니터링 서버(200)는, 제 1 사용자의 제 1 근시검사 결과값, 제 2 근시검사 결과값 및 단말 사용환경 정보에 기반한 트레이닝 데이터 세트를, 학습된 딥러닝 뉴럴 네트워크에 입력하여, 제 1 사용자의 사용시간 정보와 근시 간의 상관관계 값을 3, 제 1 사용자의 주변조도 정보와 근시 간의 상관관계 값을 4, 제 1 사용자의 움직임 정보와 근시 간의 상관관계 값을 5, 제 1 사용자의 초점 고정시간 정보와 근시 간의 상관관계 값을 6, 제 1 사용자의 청색광량 정보와 근시 간의 상관관계 값을 7, 제 1 사용자의 단말 사용거리 정보와 근시 간의 상관관계 값을 8로 도출한 출력 데이터를 획득할 수 있다. For example, the myopia monitoring server 200 inputs a training data set based on the first user's first myopia test result value, the second myopia test result value, and the terminal use environment information to the learned deep learning neural network, 1 The correlation value between the usage time information of the user and myopia is 3, the correlation value between the first user's peripheral illuminance information and myopia is 4, the correlation value between the movement information of the first user and myopia is 5, and the first user's Output data derived from a correlation value between focus fixation time information and myopia of 6, a correlation value between blue light amount information of the first user and myopia 7, and a correlation value between terminal usage distance information and myopia of the first user 8 can be obtained.

그리고 근시 모니터링 서버(200)는, 딥러닝 뉴럴 네트워크를 통하여 획득된 출력 데이터에 기반하여, 기설정된 기준(예컨대, 수치가 높을수록 근시에 미치는 영향이 큰 것으로 설정 등)에 따라 제 1 사용자의 사용시간 정보가 근시에 영향을 미치는 정도를 3, 제 1 사용자의 주변조도 정보가 근시에 영향을 미치는 정도를 4, 제 1 사용자의 움직임 정보가 근시에 영향을 미치는 정도를 5, 제 1 사용자의 초점 고정시간 정보가 근시에 영향을 미치는 정도를 6, 제 1 사용자의 청색광량 정보가 근시에 영향을 미치는 정도를 7, 제 1 사용자의 단말 사용거리 정보가 근시에 영향을 미치는 정도를 8로 나타내는 예상 근시 진행정보를 생성할 수 있다. And the myopia monitoring server 200, based on the output data obtained through the deep learning neural network, the use of the first user according to a preset criterion (eg, the higher the number, the greater the effect on myopia, etc.) The degree to which time information affects myopia is 3, the degree to which peripheral illuminance information of the first user affects myopia 4, the degree to which movement information of the first user affects myopia 5, and focus of the first user The degree of influence of fixed time information on myopia is 6, the degree of blue light intensity information of the first user affecting myopia is 7, and the degree of influence of terminal usage distance information of the first user is 8. Myopia progress information can be generated.

또한, 예상 근로 진행정보를 생성한 근시 모니터링 서버(200)는, 생성된 예상 근로 진행정보를 단말(100)로 송신할 수 있다. In addition, the myopia monitoring server 200 that has generated the expected work progress information may transmit the generated expected work progress information to the terminal 100 .

이와 같이, 근시 모니터링 서버(200)는, 사용자의 단말(100) 사용환경이 사용자의 근시에 영향을 미치는 상관관계를 딥러닝을 기반으로 도출하고, 도출된 상관관계를 기반으로 예상 근시 진행정보를 생성해 제공함으로써, 사용자별 맞춤 처방 및 근시예방 교육을 위한 기반 데이터를 제공할 수 있고, 근시와 관련된 일반적인 통계를 산출하거나, 개인별 통계를 산출하는 등의 다양한 방식으로 활용 가능한 데이터를 제공할 수 있다. As such, the myopia monitoring server 200 derives a correlation based on deep learning that the user's terminal 100 usage environment affects the user's myopia, and predicts myopia progression information based on the derived correlation. By creating and providing it, it is possible to provide base data for customized prescription for each user and myopia prevention education, and it is possible to provide data that can be used in various ways, such as calculating general statistics related to myopia or calculating individual statistics. .

이상에서는, 근시 모니터링 서버(200)가 제 1 근시검사 결과값, 제 2 근시검사 결과값 및 단말 사용환경 정보에 기반하여 예상 근시 진행정보 생성하는 실시예에 한정하여 설명하였으나, 다른 실시예에서는, 근시 모니터링 서버(200)가 제 1 녹내장검사 결과값, 제 2 녹내장검사 결과값 및 단말 사용환경 정보에 기반하여 예상 녹내장 진행정보를 생성해 제공할 수도 있다. In the above, the myopia monitoring server 200 is the first myopia test result value, the second myopia test result value and the embodiment of generating expected myopia progression information based on the terminal use environment information, but in another embodiment, the myopia monitoring server 200 performs the first glaucoma test result value and the second glaucoma test result value and predicted glaucoma progress information may be generated and provided based on the terminal use environment information.

또한, 이상의 설명에서는 근시검사 결과값과 단말 사용환경 정보를 기반으로 딥러닝을 이용하여 예상 근시 진행정보를 생성하는 일련의 동작을 근시 모니터링 서버(200)에서 수행한다고 설명하였으나, 실시예에 따라서 상기 일련의 동작의 일부를 단말(100)에서 수행할 수도 있는 등 다양한 실시예가 가능할 것이다. In addition, in the above description, it has been described that the myopia monitoring server 200 performs a series of operations for generating predicted myopia progress information using deep learning based on the myopia test result value and terminal use environment information. Various embodiments may be possible, such as performing a part of a series of operations in the terminal 100 .

이상, 본 발명의 실시예에 따른 단말(100)의 사용환경에 기반한 근시환자 모니터링 방법 및 시스템은, 사용자의 단말(100) 사용환경과 근시 간의 상관관계를 파악하여 이를 기반으로 사용자의 근시를 관리하게 함으로써, 사용자의 개별적인 인자를 고려하여 근시를 유발하는 원인을 찾아낼 수 있고, 이에 기초한 사용자별 맞춤 근시예방 교육 및 처방을 제공할 수 있는 효과가 있다. As described above, the myopia patient monitoring method and system based on the usage environment of the terminal 100 according to an embodiment of the present invention manages the user's myopia based on the correlation between the user's terminal 100 usage environment and myopia By doing so, it is possible to find the cause of myopia in consideration of the user's individual factors, and there is an effect of providing customized myopia prevention education and prescription for each user based on this.

또한, 본 발명의 실시예에 따른 단말(100)의 사용환경에 기반한 근시환자 모니터링 방법 및 시스템은, 사용자의 단말(100) 사용환경과 근시 간의 상관관계를 파악하기 위한 기반 데이터를 다양한 방식으로 획득하여 제공함으로써, 사용자의 단말(100) 사용환경과 근시 간의 상관관계를 보다 소상하게 파악할 수 있는 효과가 있다. In addition, the myopia patient monitoring method and system based on the use environment of the terminal 100 according to an embodiment of the present invention obtains the base data for determining the correlation between the user's terminal 100 use environment and myopia in various ways By providing this, there is an effect that it is possible to grasp the correlation between the user's terminal 100 usage environment and myopia in a more subtle way.

또한, 본 발명의 실시예에 따른 단말(100)의 사용환경에 기반한 근시환자 모니터링 방법 및 시스템은, 사용자의 단말(100) 사용환경과 근시 간의 상관관계를 파악한 정보를 제공함으로써, 근시와 관련된 일반적인 통계나 사용자별 통계를 보다 정확하게 도출할 수 있는 효과가 있다. In addition, the myopia patient monitoring method and system based on the usage environment of the terminal 100 according to an embodiment of the present invention provides information that identifies the correlation between the user's terminal 100 usage environment and myopia, thereby providing general information related to myopia. It has the effect of more accurately deriving statistics or statistics for each user.

또한, 본 발명의 실시예에 따른 단말(100)의 사용환경에 기반한 근시환자 모니터링 방법 및 시스템은, 사용자가 단말(100)을 사용할 때 사용자의 얼굴과 단말(100) 간의 거리를 카메라(150)로부터 획득된 촬영 이미지로부터 감지된 사용자 얼굴영역을 기반으로 제공함으로써, 사용자의 단말(100) 사용환경이 포함하는 단말 사용거리 정보를 보다 정확하게 판단할 수 있는 효과가 있다. In addition, the myopia patient monitoring method and system based on the use environment of the terminal 100 according to an embodiment of the present invention, when the user uses the terminal 100, the distance between the user's face and the terminal 100 is measured by the camera 150 By providing based on the user's face region detected from the photographed image obtained from

또한, 이상 설명된 본 발명에 따른 실시예는 다양한 컴퓨터 구성요소를 통하여 실행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등과 같은, 프로그램 명령어를 저장하고 실행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위하여 하나 이상의 소프트웨어 모듈로 변경될 수 있으며, 그 역도 마찬가지이다.In addition, the embodiments according to the present invention described above may be implemented in the form of program instructions that can be executed through various computer components and recorded in a computer-readable recording medium. The computer-readable recording medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the computer-readable recording medium may be specially designed and configured for the present invention, or may be known and used by those skilled in the computer software field. Examples of the computer-readable recording medium include hard disks, magnetic media such as floppy disks and magnetic tapes, optical recording media such as CD-ROMs and DVDs, and magneto-optical media such as floppy disks. medium), and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. A hardware device may be converted into one or more software modules to perform processing in accordance with the present invention, and vice versa.

본 발명에서 설명하는 특정 실행들은 일 실시 예들로서, 어떠한 방법으로도 본 발명의 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다. 또한, “필수적인”, “중요하게” 등과 같이 구체적인 언급이 없다면 본 발명의 적용을 위하여 반드시 필요한 구성 요소가 아닐 수 있다.The specific implementations described in the present invention are only examples, and do not limit the scope of the present invention in any way. For brevity of the specification, descriptions of conventional electronic components, control systems, software, and other functional aspects of the systems may be omitted. In addition, the connection or connection members of the lines between the components shown in the drawings exemplarily represent functional connections and/or physical or circuit connections, and in an actual device, various functional connections, physical connections that are replaceable or additional may be referred to as connections, or circuit connections. In addition, unless there is a specific reference such as “essential” or “important”, it may not be a necessary component for application of the present invention.

또한 설명한 본 발명의 상세한 설명에서는 본 발명의 바람직한 실시 예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자 또는 해당 기술분야에 통상의 지식을 갖는 자라면 후술할 특허청구범위에 기재된 본 발명의 사상 및 기술 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. 따라서, 본 발명의 기술적 범위는 명세서의 상세한 설명에 기재된 내용으로 한정되는 것이 아니라 특허청구범위에 의해 정하여져야만 할 것이다.In addition, although the detailed description of the present invention has been described with reference to a preferred embodiment of the present invention, those skilled in the art or those having ordinary knowledge in the art will appreciate the spirit of the present invention described in the claims to be described later. And it will be understood that various modifications and variations of the present invention can be made without departing from the technical scope. Accordingly, the technical scope of the present invention should not be limited to the contents described in the detailed description of the specification, but should be defined by the claims.

Claims (6)

단말에서 사용자가 단말을 이용할 때의 사용환경에 따른 단말 사용환경 정보를 생성하여 근시환자를 모니터링하는 방법으로서,
단말의 디스플레이가 활성화된 상태를 나타내는 스크린 온(screen on) 신호를 감지하는 단계;
상기 스크린 온 신호가 감지되는 스크린 온 타임(screen on time) 동안 센서를 이용해 상기 사용환경을 센싱하여 센서 데이터를 획득하는 단계;
상기 획득된 센서 데이터를 기반으로 상기 사용자의 단말 사용환경을 분석해 모니터링한 정보인 상기 단말 사용환경 정보를 생성하는 단계;
상기 생성된 단말 사용환경 정보를 순차적으로 누적 저장하는 단계;
상기 누적 저장된 단말 사용환경 정보를 근시 모니터링 서버로 송신하는 단계; 및
상시 송신된 단말 사용환경 정보에 기초한 예상 근시 진행정보를 상기 근시 모니터링 서버로부터 획득하여 표시하는 단계; 를 포함하는
단말의 사용환경에 따른 근시환자 모니터링 방법.
A method of monitoring a myopic patient by generating terminal usage environment information according to the usage environment when the user uses the terminal in the terminal,
detecting a screen on signal indicating an activated state of the display of the terminal;
acquiring sensor data by sensing the use environment using a sensor during a screen on time in which the screen on signal is sensed;
generating the terminal use environment information, which is information monitored by analyzing the terminal use environment of the user based on the acquired sensor data;
sequentially accumulating and storing the generated terminal use environment information;
transmitting the accumulated and stored terminal use environment information to a myopia monitoring server; and
obtaining and displaying expected myopia progress information based on the constantly transmitted terminal usage environment information from the myopia monitoring server; containing
A method for monitoring a myopic patient according to the user environment of the terminal.
제 1 항에 있어서,
상기 단말 사용환경 정보는,
상기 센서 데이터를 기반으로 생성되는 단말 사용거리 정보와, 사용시간 정보, 주변조도 정보, 움직임 정보, 초점 고정시간 정보 및 청색광량 정보 중 적어도 하나 이상의 정보를 포함하는
단말의 사용환경에 따른 근시환자 모니터링 방법.
The method of claim 1,
The terminal use environment information,
Terminal use distance information generated based on the sensor data, use time information, ambient illuminance information, motion information, focus fixation time information, and blue light amount information including at least one or more information
A method for monitoring a myopic patient according to the user environment of the terminal.
제 2 항에 있어서,
상기 센서 데이터를 획득하는 단계는,
상기 단말과 상기 사용자 간의 거리를 측정한 센서 데이터와, 상기 단말의 움직임을 측정한 센서 데이터, 상기 단말의 주변 밝기값을 측정한 센서 데이터, 상기 단말의 디스플레이에서 출력되는 청색광량을 측정한 센서 데이터, 상기 단말에 대한 상기 사용자의 초점 고정 유무 또는 고정된 시간을 측정한 센서 데이터 중 적어도 하나의 센서 데이터를 획득하는 단계를 포함하는
단말의 사용환경에 따른 근시환자 모니터링 방법.
3. The method of claim 2,
Acquiring the sensor data includes:
Sensor data measuring the distance between the terminal and the user, sensor data measuring the movement of the terminal, sensor data measuring the ambient brightness value of the terminal, and sensor data measuring the amount of blue light output from the display of the terminal , Acquiring at least one sensor data of whether or not the user's focus on the terminal is fixed or sensor data measured for a fixed time
A method for monitoring a myopic patient according to the user environment of the terminal.
제 2 항에 있어서,
상기 단말 사용환경 정보를 생성하는 단계는,
카메라를 이용하여 상기 단말 사용거리 정보를 획득하는 단계를 포함하고,
상기 단말 사용거리 정보를 획득하는 단계는,
상기 카메라의 타입(type)에 대한 그리드(grid)-거리 정보를 획득하는 단계;
상기 카메라로부터 촬영 이미지를 획득하는 단계;
상기 획득된 촬영 이미지에 기초하여 상기 사용자의 얼굴로 분류되는 영역인 사용자 얼굴영역을 검출하는 단계;
상기 검출된 사용자 얼굴영역이 상기 카메라에 기설정된 그리드 상에서 차지하는 면적을 판단한 그리드 점유비율 정보를 획득하는 단계; 및
상기 획득된 그리드 점유비율 정보에 기초하여 상기 그리드-거리 정보에 따른 상기 단말 사용거리 정보를 획득하는 단계를 포함하고,
상기 그리드-거리 정보는,
특정 오브젝트가 상기 카메라의 타입에 대하여 그리드(grid)를 차지하는 면적 비율에 따라 매칭된 상기 특정 오브젝트와 상기 단말 간의 거리에 대한 정보인
단말의 사용환경에 따른 근시환자 모니터링 방법.
3. The method of claim 2,
The step of generating the terminal use environment information,
Acquiring the terminal usage distance information using a camera,
The step of obtaining the terminal usage distance information includes:
obtaining grid-distance information for the type of camera;
obtaining a photographed image from the camera;
detecting a user's face area, which is an area classified as the user's face, based on the acquired captured image;
obtaining grid occupancy rate information for determining an area occupied by the detected user face region on a grid preset in the camera; and
Comprising the step of obtaining the terminal usage distance information according to the grid-distance information on the basis of the obtained grid occupancy ratio information,
The grid-distance information is
Information on the distance between the specific object and the terminal matched according to the ratio of the area occupied by the specific object to the grid with respect to the type of camera
A method for monitoring a myopic patient according to the user environment of the terminal.
제 1 항에 있어서,
상기 예상 근시 진행정보는,
상기 근시 모니터링 서버가 딥러닝 뉴럴 네트워크를 이용하여 상기 단말 사용환경 정보의 각 파라미터와 상기 사용자의 근시 간의 상관관계를 판단하고, 판단된 상기 상관관계를 기반으로 상기 사용자의 근시의 악화 또는 개선을 나타내는 지표인
단말의 사용환경에 따른 근시환자 모니터링 방법.
The method of claim 1,
The predicted myopia progression information is
The myopia monitoring server determines a correlation between each parameter of the terminal use environment information and the user's myopia by using a deep learning neural network, and indicates worsening or improvement of the user's myopia based on the determined correlation indicator
A method for monitoring a myopic patient according to the user environment of the terminal.
사용자의 단말 사용환경을 센싱하여 센서 데이터를 획득하는 센서부와, 상기 획득된 센서 데이터를 기반으로 상기 사용자의 단말 사용환경을 분석해 모니터링한 정보인 단말 사용환경 정보를 생성하는 제어부와, 상기 생성된 단말 사용환경 정보를 근시 모니터링 서버로 송신하고, 상기 근시 모니터링 서버로부터 상기 단말 사용환경 정보와 상기 사용자의 근시 간의 상관관계를 판단한 정보인 예상 근시 진행정보를 수신하는 통신부와, 상기 수신된 예상 근시 진행정보에 기반한 출력을 수행하는 디스플레이부를 포함하는 단말; 및
상기 단말 사용환경 정보를 수신하는 데이터 수신부와, 상기 예상 근시 진행정보를 송신하는 데이터 송신부와, 상기 수신된 단말 사용환경 정보를 기반으로 딥러닝 뉴럴 네트워크를 이용하여 상기 예상 근시 진행정보를 생성하는 데이터 처리부;를 포함하는 근시 모니터링 서버를 포함하는
단말의 사용환경에 따른 근시환자 모니터링 시스템.
A sensor unit for sensing the user's terminal usage environment to obtain sensor data, and a control unit for analyzing and monitoring the user's terminal usage environment based on the acquired sensor data and generating terminal usage environment information that is monitored information; A communication unit for transmitting terminal usage environment information to a myopia monitoring server and receiving expected myopia progression information that is information for determining a correlation between the terminal usage environment information and the user's myopia from the myopia monitoring server; a terminal including a display unit for performing information-based output; and
A data receiving unit for receiving the terminal usage environment information, a data transmitting unit for transmitting the expected myopia progress information, and data for generating the expected myopia progress information using a deep learning neural network based on the received terminal usage environment information Processing unit; including a myopia monitoring server comprising
Myopia patient monitoring system according to the user environment of the terminal.
KR1020190177520A 2019-12-30 2019-12-30 System and method that monitoring myopia patient according to usage environment of terminal KR102334027B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190177520A KR102334027B1 (en) 2019-12-30 2019-12-30 System and method that monitoring myopia patient according to usage environment of terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190177520A KR102334027B1 (en) 2019-12-30 2019-12-30 System and method that monitoring myopia patient according to usage environment of terminal

Publications (2)

Publication Number Publication Date
KR20210084965A true KR20210084965A (en) 2021-07-08
KR102334027B1 KR102334027B1 (en) 2021-12-02

Family

ID=76893370

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190177520A KR102334027B1 (en) 2019-12-30 2019-12-30 System and method that monitoring myopia patient according to usage environment of terminal

Country Status (1)

Country Link
KR (1) KR102334027B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003075717A (en) * 2001-09-06 2003-03-12 Nikon Corp Distance detecting device
KR20150098542A (en) 2014-02-20 2015-08-28 삼성전자주식회사 Method for detecting user viewing difficulty from facial paremeters and electronic device thereof
KR20190098365A (en) * 2018-02-14 2019-08-22 한국전자통신연구원 Learning-based service providing method and apparatus
JP2019530044A (en) * 2016-07-04 2019-10-17 シンガポール ヘルス サービシーズ ピーティーイー リミテッド Apparatus and method for monitoring device usage

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003075717A (en) * 2001-09-06 2003-03-12 Nikon Corp Distance detecting device
KR20150098542A (en) 2014-02-20 2015-08-28 삼성전자주식회사 Method for detecting user viewing difficulty from facial paremeters and electronic device thereof
JP2019530044A (en) * 2016-07-04 2019-10-17 シンガポール ヘルス サービシーズ ピーティーイー リミテッド Apparatus and method for monitoring device usage
KR20190098365A (en) * 2018-02-14 2019-08-22 한국전자통신연구원 Learning-based service providing method and apparatus

Also Published As

Publication number Publication date
KR102334027B1 (en) 2021-12-02

Similar Documents

Publication Publication Date Title
US11099645B2 (en) Apparatus and method for dynamic graphics rendering based on saccade detection
US20190235624A1 (en) Systems and methods for predictive visual rendering
US9678342B2 (en) Information processing device, display control method, and program
CN105683812B (en) For the nausea of head-mounted display and morbidity detection, prediction and alleviate
US9864429B2 (en) Method for controlling device on the basis of eyeball motion, and device therefor
US20150186725A1 (en) Systems and methods for detecting blood alcohol level
RU2648593C2 (en) Method and apparatus for display control, electronic device
CN105659200A (en) Method, apparatus, and system for displaying graphical user interface
US10706281B2 (en) Controlling focal parameters of a head mounted display based on estimated user age
US11354805B2 (en) Utilization of luminance changes to determine user characteristics
CN103955272A (en) Terminal equipment user posture detecting system
CN108228562A (en) The renaming method and electronic equipment of bluetooth module
CN109657432A (en) Supervise method, medium, equipment and system that children use smart machine
US20170059865A1 (en) Eyeglasses wearable device, method of controlling the eyeglasses wearable device and data management server
KR102334027B1 (en) System and method that monitoring myopia patient according to usage environment of terminal
US20200193007A1 (en) Unlocking method and virtual reality device
US20230239586A1 (en) Eye tracking using efficient image capture and vergence and inter-pupillary distance history
CN114258279A (en) Pupil assessment using modulated on-axis illumination
US20220079484A1 (en) Evaluation device, evaluation method, and medium
JP2023015167A (en) Evaluation device, evaluation method and evaluation program
US20240200962A1 (en) Providing directional awareness indicators based on context
US12014030B2 (en) System for predictive virtual scenario presentation
US11979657B1 (en) Power efficient object tracking
US20230359273A1 (en) Retinal reflection tracking for gaze alignment
US20210290128A1 (en) State estimation device, method and computer program therefor

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant