WO2016131337A1 - 一种检测视力的方法和终端 - Google Patents

一种检测视力的方法和终端 Download PDF

Info

Publication number
WO2016131337A1
WO2016131337A1 PCT/CN2015/098093 CN2015098093W WO2016131337A1 WO 2016131337 A1 WO2016131337 A1 WO 2016131337A1 CN 2015098093 W CN2015098093 W CN 2015098093W WO 2016131337 A1 WO2016131337 A1 WO 2016131337A1
Authority
WO
WIPO (PCT)
Prior art keywords
test
user gesture
user
gesture
character
Prior art date
Application number
PCT/CN2015/098093
Other languages
English (en)
French (fr)
Inventor
刘飞
Original Assignee
中兴通讯股份有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 中兴通讯股份有限公司 filed Critical 中兴通讯股份有限公司
Publication of WO2016131337A1 publication Critical patent/WO2016131337A1/zh

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/028Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing visual acuity; for determination of refraction, e.g. phoropters
    • A61B3/032Devices for presenting test symbols or characters, e.g. test chart projectors

Definitions

  • This document relates to, but is not limited to, the field of terminal technology, and in particular relates to a method and terminal for detecting vision.
  • the embodiment of the invention provides a method and a terminal for detecting vision, so as to solve the problem of how to simulate the process of testing the vision on the terminal, and to facilitate the user to self-measure the technical problem of vision at any time.
  • Embodiments of the present invention provide a method for detecting vision, the method comprising:
  • test character After a test character is highlighted, detecting a direction of movement of the user gesture, comparing the detected direction of the user gesture with an opening direction of the test character, and determining, according to the comparison result, whether the user can see the test character;
  • the obtaining an initial position of the user gesture includes:
  • detecting a direction of motion of the user gesture including:
  • the light proximity sensor senses the change of the ambient light brightness, and after the light proximity sensor senses the change of the ambient light brightness, triggers the front camera to capture the user gesture image; or highlights one After testing the character, delaying a waiting time period triggers the front camera to capture the user gesture image;
  • the current position of the user gesture is compared with the previous position of the user gesture, and the direction of the user gesture is determined according to the comparison result.
  • the comparing the current position of the user gesture with the last position of the user gesture, and determining the direction of the user gesture according to the comparison result including:
  • the direction of change of the position is analyzed, and the analyzed position change direction is used as the direction of the user gesture.
  • the comparing the current position of the user gesture with the last position of the user gesture, and determining the direction of the user gesture according to the comparison result including:
  • the current position of the user gesture is the same as the previous position of the user gesture, extracting the fingertip image of the extended finger from the current image of the user gesture, analyzing the fingertip of the extended finger, and pointing the fingertip Point to the direction of movement as a user gesture.
  • comparing the detected user gesture direction with the opening direction of the test character, and determining, according to the comparison result, whether the user can see the test character includes:
  • the user gesture direction is consistent with the opening direction of the test character, it is determined that the user can see the test character, and if the user gesture direction and the opening direction of the test character are inconsistent, it is determined that the user cannot see the Test characters.
  • test needs to continue including:
  • test does not need to be continued.
  • the highlighting a test character comprises:
  • test character is highlighted, or the test character is flashed or a cursor is displayed below the test character.
  • the embodiment of the invention further provides a terminal for detecting vision, comprising:
  • the initial display and positioning module is configured to display an eye chart on the screen, and obtain an initial position of the user gesture after the test starts;
  • a test module configured to: after detecting a test character, detecting a direction of motion of the user gesture, comparing the detected direction of the user gesture with an opening direction of the test character, and determining, according to the comparison result, whether the user can see the test character;
  • the control module is configured to determine whether the test needs to be continued, and when the test needs to be continued, the next test character is highlighted, and when the test is not required to continue, the visual test result is determined and the visual test result is fed back to the user.
  • the initial display and positioning module is configured to implement an initial position of acquiring a user gesture by:
  • Using the light proximity sensor to detect the initial ambient light brightness using the front camera to capture the user gesture image, determining the initial position of the user gesture according to the captured user gesture image; or using the front camera to capture the user gesture image, and determining according to the captured user gesture image The initial position of the user's gesture.
  • test module is configured to detect a direction of motion of the user gesture after highlighting a test character by:
  • the light proximity sensor senses the change of the ambient light brightness, and after the light proximity sensor senses the change of the ambient light brightness, triggers the front camera to capture the user gesture image; or highlights one After testing the character, delaying a waiting time period triggers the front camera to capture the user gesture image;
  • the current position of the user gesture is compared with the previous position of the user gesture, and the direction of the user gesture is determined according to the comparison result.
  • the testing module is configured to compare a current position of the user gesture with a previous position of the user gesture by determining a direction of movement of the user gesture according to the comparison result:
  • the direction of change of the position is analyzed, and the analyzed position change direction is used as the direction of the user gesture.
  • the testing module is configured to compare a current position of the user gesture with a previous position of the user gesture by determining a direction of movement of the user gesture according to the comparison result:
  • the current position of the user gesture is the same as the previous position of the user gesture, extracting the fingertip image of the extended finger from the current image of the user gesture, analyzing the fingertip of the extended finger, and pointing the fingertip Point to the direction of movement as a user gesture.
  • the testing module is configured to compare the detected user gesture direction with the opening direction of the test character by determining whether the user can see the test character according to the comparison result:
  • the user gesture direction is consistent with the opening direction of the test character, it is determined that the user can see the test character, and if the user gesture direction and the opening direction of the test character are inconsistent, it is determined that the user cannot see the Test characters.
  • control module is configured to determine whether it is necessary to continue testing by:
  • test does not need to be continued.
  • An embodiment of the present invention further provides a computer storage medium, where the computer storage medium is stored Computer executable instructions are stored for performing the methods described above.
  • a method and a terminal for detecting vision display a scaled eye chart on a screen, and when the eyesight is tested, the test letters are highlighted line by line, and the front camera and the light sense are utilized.
  • the proximity sensor is used to capture the up, down, left and right directions of the user's gestures, and the process of testing the vision by simulating the glasses is convenient for the user to self-test the vision at any time.
  • FIG. 1 is a schematic diagram of a method for detecting vision according to an embodiment of the present invention.
  • FIG. 2 is a schematic diagram of a terminal for detecting vision according to an embodiment of the present invention.
  • an embodiment of the present invention provides a method for detecting vision, which includes:
  • the terminal for detecting vision displays an eye chart on the screen, and after the test starts, acquiring an initial position of the user gesture;
  • the displaying the eye chart on the screen comprises:
  • the screen automatically lights up, the brightness is automatically adjusted to the appropriate brightness of the test vision, and the eye chart is displayed on the screen;
  • the scaled-down eyesight table is displayed on the screen in full screen
  • the obtaining an initial position of the user gesture includes:
  • the highlighted one test character includes:
  • the cursor is a line cursor or a dot cursor
  • test character includes an uppercase letter E;
  • detecting a direction of movement of the user gesture includes:
  • the light proximity sensor senses the change of the ambient light brightness, and after the light proximity sensor senses the change of the ambient light brightness, triggers the front camera to capture the user gesture image; or highlights one After testing the character, delaying a waiting time period triggers the front camera to capture the user gesture image;
  • the waiting time is used to wait for the user to respond according to the screen display; the waiting time may be an experience value;
  • the comparing the current position of the user gesture with the last position of the user gesture, and determining the direction of the user gesture according to the comparison result including:
  • the direction of the change of the position is analyzed, and the analyzed position change direction is used as the direction of the user's gesture;
  • the comparing the current position of the user gesture with the last position of the user gesture, and determining the direction of the user gesture according to the comparison result including:
  • the gesture from the user Extracting a fingertip image of the extended finger in the current image, analyzing a fingertip pointing of the extended finger, and pointing the fingertip as a direction of movement of the user gesture;
  • the comparing the detected user gesture direction with the opening direction of the test character, and determining, according to the comparison result, whether the user can see the test character includes:
  • the user gesture direction is consistent with the opening direction of the test character, it is determined that the user can see the test character, and if the user gesture direction and the opening direction of the test character are inconsistent, it is determined that the user cannot see the Test character
  • the terminal that detects the vision highlights the next test character when the test needs to be continued, and determines the vision test result and feeds back the vision test result to the user when the test does not need to be continued;
  • test does not need to be continued
  • the threshold is 3 or other values
  • the feedback test result is fed back to the user, including:
  • the embodiment of the invention further provides a computer storage medium, wherein the computer storage medium stores computer executable instructions, and the computer executable instructions are used to execute the above method.
  • an embodiment of the present invention provides a terminal for detecting vision, including:
  • the initial display and positioning module 201 is configured to display an eye chart on the screen, and obtain an initial position of the user gesture after the test starts;
  • the test module 202 is configured to: after the one test character is highlighted, detect a motion direction of the user gesture, and compare the detected user gesture direction with the opening direction of the test character, according to the ratio The result is determined whether the user can see the test character;
  • the control module 203 is configured to highlight the next test character when the test needs to be continued, and determine the visual test result and feed back the visual test result to the user when the test is not required to continue.
  • the initial display and positioning module 201 is configured to obtain an initial position of the user gesture by:
  • Using the light proximity sensor to detect the initial ambient light brightness using the front camera to capture the user gesture image, determining the initial position of the user gesture according to the captured user gesture image; or using the front camera to capture the user gesture image, and determining according to the captured user gesture image The initial position of the user's gesture.
  • the test module 202 is configured to detect a user's gesture motion direction after highlighting a test character by:
  • the light proximity sensor senses the change of the ambient light brightness, and after the light proximity sensor senses the change of the ambient light brightness, triggers the front camera to capture the user gesture image; or highlights one After testing the character, delaying a waiting time period triggers the front camera to capture the user gesture image;
  • the current position of the user gesture is compared with the previous position of the user gesture, and the direction of the user gesture is determined according to the comparison result.
  • the test module 202 is configured to compare the current position of the user gesture with the last position of the user gesture, and determine the direction of the user gesture according to the comparison result:
  • the direction of change of the position is analyzed, and the analyzed position change direction is used as the direction of the user gesture.
  • the test module 202 is configured to compare the current position of the user gesture with the last position of the user gesture, and determine the direction of the user gesture according to the comparison result:
  • the gesture from the user is the same as the previous position of the user gesture, then the gesture from the user
  • the fingertip image of the extended finger is extracted from the current image, the fingertip of the extended finger is analyzed, and the fingertip is pointed as the direction of the user's gesture movement.
  • the test module 202 is configured to compare the detected user gesture direction with the opening direction of the test character by determining whether the user can see the test character according to the comparison result:
  • the user gesture direction is consistent with the opening direction of the test character, it is determined that the user can see the test character, and if the user gesture direction and the opening direction of the test character are inconsistent, it is determined that the user cannot see the Test characters.
  • the control module 203 is configured to determine whether it is necessary to continue testing by:
  • test does not need to be continued.
  • the test module 202 is configured to highlight a test character by:
  • An application example of the present invention provides a method of testing eye vision comprising the following steps:
  • the human eye is about 30cm away from the screen
  • the signal transmitter in the light proximity sensor emits a signal
  • the hand reflects the signal.
  • the receiving device receives the signal
  • the position of the gesture is located, and the brightness of the ambient light around the sensor is set to the original brightness.
  • the front camera captures the position of one gesture and is positioned as position 1.
  • the gesture slides, the brightness of the ambient light close to the surrounding is changed by the original brightness-change process-changed brightness once.
  • the front camera receives a signal. The camera captures the gesture position again, positioned as position 2, and the processor positions the change from position 1 to position 2 as the gesture sliding direction. This is the process of a complete light proximity sensor and front camera to capture the direction of a gesture sliding.
  • the operation module in the operation processor scans the captured data, and analyzes the finger extended in the gesture.
  • the position of the fingertip is determined by the direction in which the fingertip is directed.
  • the timer T1 and the counter N1 are turned on and counted: when the letter to be measured is highlighted, T1 starts counting: at this time, the front camera and the light proximity sensor capture the direction of the gesture sliding, and the maximum duration of T1 is set to After 3 seconds, after 3 seconds, the capture action ends, and the information processing module calculates whether the highlighted letter "E" opening direction and the captured gesture direction are consistent. If they match, the counter counts to 1, and the next letter is highlighted to continue the test. When the counter is 3, switch to the next line of smaller letters to continue the test. If there are not enough 3 letters in a row, the test will automatically switch to the next line of smaller letters to continue the test, and the counter will be cleared. If, in any one of the tests, if the gesture and the letter opening are inconsistent, the test ends, and step S304 is performed. If the gesture and the letter opening are the same, the test is performed until the last line of the test is completed, and step S304 is performed.
  • the user is prompted: "Your vision is 5.0, please press the test to continue the test, otherwise exit.”
  • the method and the terminal for detecting vision are provided on the screen, and the scaled eye chart is displayed on the screen.
  • the test letters are highlighted line by line, and the front camera and the light proximity sensor are used to capture the positioning user gesture.
  • the process of testing vision by simulating the optician line is convenient for the user to self-test the vision at any time.
  • the above technical solution realizes the self-testing vision of the user at any time.

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

一种检测视力的方法,该方法包括:在屏幕上显示视力表,测试开始后,获取用户手势的初始位置(S101);突出显示一个测试字符后,检测用户手势运动方向,将检测到的用户手势方向和所述测试字符的开口方向进行比较,根据比较结果判定用户是否能够看见所述测试字符(S102);在需要继续测试时,突出显示下一个测试字符,在不需要继续测试时,确定视力测试结果并将所述视力测试结果反馈给所述用户(S103)。上述技术方案能够在终端上模拟配镜行测试视力的过程,方便用户随时自测视力。

Description

一种检测视力的方法和终端 技术领域
本文涉及但不限于终端技术领域,尤其涉及的是一种检测视力的方法和终端。
背景技术
人们对自己的眼睛爱护不够,尤其是有些近视的人对自己的眼睛视力漠不关心,导致眼睛度数慢慢增大,直到影响视力。但是,去医院或者配镜行测试视力比较麻烦,因此,缺少一种快速、便捷的视力测试方法。
发明内容
以下是对本文详细描述的主题的概述。本概述并非是为了限制权利要求的保护范围。
本发明实施例提供一种检测视力的方法和终端,以解决如何能够在终端上模拟配镜行测试视力的过程,方便用户随时自测视力的技术问题。
本发明实施例提供了一种检测视力的方法,该方法包括:
在屏幕上显示视力表,测试开始后,获取用户手势的初始位置;
突出显示一个测试字符后,检测用户手势运动方向,将检测到的用户手势方向和所述测试字符的开口方向进行比较,根据比较结果判定用户是否能够看见所述测试字符;
判定是否需要继续测试,在需要继续测试时,突出显示下一个测试字符,在不需要继续测试时,确定视力测试结果并将所述视力测试结果反馈给所述用户。
可选地,所述获取用户手势的初始位置,包括:
利用光感接近传感器检测初始环境光亮度,利用前置摄像头拍摄用户手 势图像,根据拍摄的用户手势图像确定用户手势的初始位置;或者利用前置摄像头拍摄用户手势图像,根据拍摄的用户手势图像确定用户手势的初始位置。
可选地,所述突出显示一个测试字符后,检测用户手势运动方向,包括:
在突出显示一个测试字符后,利用光感接近传感器感受环境光亮度的变化,在所述光感接近传感器感受到环境光亮度的变化后,触发前置摄像头拍摄用户手势图像;或者在突出显示一个测试字符后,延迟一个等待时长后触发前置摄像头拍摄用户手势图像;
根据所述前置摄像头拍摄的用户手势图像确定用户手势的当前位置;
将用户手势的当前位置与用户手势的上一次位置进行比较,根据比较结果确定用户手势运动方向。
可选地,所述将用户手势的当前位置与用户手势的上一次位置进行比较,根据比较结果确定用户手势运动方向,包括:
如用户手势的当前位置与用户手势的上一次位置不相同,则分析位置的变化方向,将分析出的位置变化方向作为用户手势运动方向。
可选地,所述将用户手势的当前位置与用户手势的上一次位置进行比较,根据比较结果确定用户手势运动方向,包括:
如用户手势的当前位置与用户手势的上一次位置相同,则从用户手势的当前图像中提取伸出的手指的指尖图像,分析所述伸出的手指的指尖指向,将所述指尖指向作为用户手势运动方向。
可选地,将检测到的用户手势方向和所述测试字符的开口方向进行比较,根据比较结果判定用户是否能够看见所述测试字符,包括:
如所述用户手势方向和所述测试字符的开口方向一致,则判定用户能够看见所述测试字符,如所述用户手势方向和所述测试字符的开口方向不一致,则判定用户不能够看见所述测试字符。
可选地,判定是否需要继续测试,包括:
如用户能够看见当前测试字符,且所述视力表的当前测试行未测完或还 有下一行需要测试,则判定需要继续测试;
如用户不能够看见当前测试字符,且所述视力表的当前测试行中所述用户不能够看见的测试字符数达到阈值,则判定不需要继续测试。
可选地,所述突出显示一个测试字符,包括:
高亮显示所述测试字符,或者闪烁显示所述测试字符,或者在所述测试字符的下方显示光标。
本发明实施例还提供了一种检测视力的终端,包括:
初始显示及定位模块,设置为在屏幕上显示视力表,测试开始后,获取用户手势的初始位置;
测试模块,设置为突出显示一个测试字符后,检测用户手势运动方向,将检测到的用户手势方向和所述测试字符的开口方向进行比较,根据比较结果判定用户是否能够看见所述测试字符;
控制模块,设置为判定是否需要继续测试,在需要继续测试时,突出显示下一个测试字符,在不需要继续测试时,确定视力测试结果并将所述视力测试结果反馈给所述用户。
可选地,所述初始显示及定位模块,是设置为通过如下方式实现获取用户手势的初始位置:
利用光感接近传感器检测初始环境光亮度,利用前置摄像头拍摄用户手势图像,根据拍摄的用户手势图像确定用户手势的初始位置;或者利用前置摄像头拍摄用户手势图像,根据拍摄的用户手势图像确定用户手势的初始位置。
可选地,所述测试模块,是设置为通过如下方式实现突出显示一个测试字符后,检测用户手势运动方向:
在突出显示一个测试字符后,利用光感接近传感器感受环境光亮度的变化,在所述光感接近传感器感受到环境光亮度的变化后,触发前置摄像头拍摄用户手势图像;或者在突出显示一个测试字符后,延迟一个等待时长后触发前置摄像头拍摄用户手势图像;
根据所述前置摄像头拍摄的用户手势图像确定用户手势的当前位置;
将用户手势的当前位置与用户手势的上一次位置进行比较,根据比较结果确定用户手势运动方向。
可选地,所述测试模块,是设置为通过如下方式实现将用户手势的当前位置与用户手势的上一次位置进行比较,根据比较结果确定用户手势运动方向:
如用户手势的当前位置与用户手势的上一次位置不相同,则分析位置的变化方向,将分析出的位置变化方向作为用户手势运动方向。
可选地,所述测试模块,是设置为通过如下方式实现将用户手势的当前位置与用户手势的上一次位置进行比较,根据比较结果确定用户手势运动方向:
如用户手势的当前位置与用户手势的上一次位置相同,则从用户手势的当前图像中提取伸出的手指的指尖图像,分析所述伸出的手指的指尖指向,将所述指尖指向作为用户手势运动方向。
可选地,所述测试模块,是设置为通过如下方式实现将检测到的用户手势方向和所述测试字符的开口方向进行比较,根据比较结果判定用户是否能够看见所述测试字符:
如所述用户手势方向和所述测试字符的开口方向一致,则判定用户能够看见所述测试字符,如所述用户手势方向和所述测试字符的开口方向不一致,则判定用户不能够看见所述测试字符。
可选地,所述控制模块,是设置为通过如下方式实现判定是否需要继续测试:
如用户能够看见当前测试字符,且所述视力表的当前测试行未测完或还有下一行需要测试,则判定需要继续测试;
如用户不能够看见当前测试字符,且所述视力表的当前测试行中所述用户不能够看见的测试字符数达到阈值,则判定不需要继续测试。
本发明实施例还提供了一种计算机存储介质,所述计算机存储介质中存 储有计算机可执行指令,所述计算机可执行指令用于执行上述的方法。
与相关技术相比,本发明实施例提供的一种检测视力的方法和终端,在屏幕上显示按比例缩小的视力表,测试视力时,逐行突出显示测试字母,利用前置摄像头及光感接近传感器来捕捉定位用户手势的上下左右方向,通过模拟配镜行测试视力的过程,方便用户随时自测视力。
在阅读并理解了附图和详细描述后,可以明白其他方面。
附图概述
图1为本发明实施例的一种检测视力的方法示意图。
图2为本发明实施例的一种检测视力的终端示意图。
本发明的实施方式
下文中将结合附图对本发明的实施例进行详细说明。需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互任意组合。
如图1所示,本发明实施例提供了一种检测视力的方法,该方法包括:
S101,检测视力的终端在屏幕上显示视力表,测试开始后,获取用户手势的初始位置;
其中,所述在屏幕上显示视力表,包括:
屏幕自动点亮,亮度自动调节到测试视力的合适亮度,在屏幕上显示视力表;
比如,用户点击测试选项后,在屏幕上全屏显示经过比例缩小的视力表格;
其中,所述获取用户手势的初始位置,包括:
利用光感接近传感器检测初始环境光亮度,利用前置摄像头拍摄用户手势图像,根据拍摄的用户手势图像确定用户手势的初始位置;或者利用前置摄像头拍摄用户手势图像,根据拍摄的用户手势图像确定用户手势的初始位 置;
S102,检测视力的终端突出显示一个测试字符后,检测用户手势运动方向,将检测到的用户手势方向和所述测试字符的开口方向进行比较,根据比较结果判定用户是否能够看见所述测试字符;
其中,所述突出显示一个测试字符,包括:
高亮显示所述测试字符,或者闪烁显示所述测试字符,或者在所述测试字符的下方显示光标;
可选地,所述光标为线状光标或点状光标;
其中,所述测试字符包括大写字母E;
其中,所述突出显示一个测试字符后,检测用户手势运动方向,包括:
在突出显示一个测试字符后,利用光感接近传感器感受环境光亮度的变化,在所述光感接近传感器感受到环境光亮度的变化后,触发前置摄像头拍摄用户手势图像;或者在突出显示一个测试字符后,延迟一个等待时长后触发前置摄像头拍摄用户手势图像;
根据所述前置摄像头拍摄的用户手势图像确定用户手势的当前位置;可选的,所述用户手势的当前位置即手势图像的中心点;
将用户手势的当前位置与用户手势的上一次位置进行比较,根据比较结果确定用户手势运动方向;
其中,所述等待时长用于等待用户根据屏幕显示做出反应;所述等待时长可以是经验值;
其中,所述将用户手势的当前位置与用户手势的上一次位置进行比较,根据比较结果确定用户手势运动方向,包括:
如用户手势的当前位置与用户手势的上一次位置不相同,则分析位置的变化方向,将分析出的位置变化方向作为用户手势运动方向;
其中,所述将用户手势的当前位置与用户手势的上一次位置进行比较,根据比较结果确定用户手势运动方向,包括:
如用户手势的当前位置与用户手势的上一次位置相同,则从用户手势的 当前图像中提取伸出的手指的指尖图像,分析所述伸出的手指的指尖指向,将所述指尖指向作为用户手势运动方向;
其中,将检测到的用户手势方向和所述测试字符的开口方向进行比较,根据比较结果判定用户是否能够看见所述测试字符,包括:
如所述用户手势方向和所述测试字符的开口方向一致,则判定用户能够看见所述测试字符,如所述用户手势方向和所述测试字符的开口方向不一致,则判定用户不能够看见所述测试字符;
S103,检测视力的终端在需要继续测试时,突出显示下一个测试字符,在不需要继续测试时,确定视力测试结果并将所述视力测试结果反馈给所述用户;
其中,判定是否需要继续测试,包括:
如用户能够看见当前测试字符,且所述视力表的当前测试行未测完或还有下一行需要测试,则判定需要继续测试;
如用户不能够看见当前测试字符,且所述视力表的当前测试行中所述用户不能够看见的测试字符数达到阈值,则判定不需要继续测试;
可选的,所述阈值为3个或其他值;
其中,将所述视力测试结果反馈给所述用户,包括:
在屏幕上显示所述视力测试结果;
本发明实施例还提供了一种计算机存储介质,所述计算机存储介质中存储有计算机可执行指令,所述计算机可执行指令用于执行上述的方法。
如图2所示,本发明实施例提供了一种检测视力的终端,包括:
初始显示及定位模块201,设置为在屏幕上显示视力表,测试开始后,获取用户手势的初始位置;
测试模块202,设置为突出显示一个测试字符后,检测用户手势运动方向,将检测到的用户手势方向和所述测试字符的开口方向进行比较,根据比 较结果判定用户是否能够看见所述测试字符;
控制模块203,设置为在需要继续测试时,突出显示下一个测试字符,在不需要继续测试时,确定视力测试结果并将所述视力测试结果反馈给所述用户。
其中,所述初始显示及定位模块201,是设置为通过如下方式实现获取用户手势的初始位置:
利用光感接近传感器检测初始环境光亮度,利用前置摄像头拍摄用户手势图像,根据拍摄的用户手势图像确定用户手势的初始位置;或者利用前置摄像头拍摄用户手势图像,根据拍摄的用户手势图像确定用户手势的初始位置。
其中,所述测试模块202,是设置为通过如下方式实现突出显示一个测试字符后,检测用户手势运动方向:
在突出显示一个测试字符后,利用光感接近传感器感受环境光亮度的变化,在所述光感接近传感器感受到环境光亮度的变化后,触发前置摄像头拍摄用户手势图像;或者在突出显示一个测试字符后,延迟一个等待时长后触发前置摄像头拍摄用户手势图像;
根据所述前置摄像头拍摄的用户手势图像确定用户手势的当前位置;
将用户手势的当前位置与用户手势的上一次位置进行比较,根据比较结果确定用户手势运动方向。
其中,所述测试模块202,是设置为通过如下方式实现将用户手势的当前位置与用户手势的上一次位置进行比较,根据比较结果确定用户手势运动方向:
如用户手势的当前位置与用户手势的上一次位置不相同,则分析位置的变化方向,将分析出的位置变化方向作为用户手势运动方向。
其中,所述测试模块202,是设置为通过如下方式实现将用户手势的当前位置与用户手势的上一次位置进行比较,根据比较结果确定用户手势运动方向:
如用户手势的当前位置与用户手势的上一次位置相同,则从用户手势的 当前图像中提取伸出的手指的指尖图像,分析所述伸出的手指的指尖指向,将所述指尖指向作为用户手势运动方向。
其中,所述测试模块202,是设置为通过如下方式实现将检测到的用户手势方向和所述测试字符的开口方向进行比较,根据比较结果判定用户是否能够看见所述测试字符:
如所述用户手势方向和所述测试字符的开口方向一致,则判定用户能够看见所述测试字符,如所述用户手势方向和所述测试字符的开口方向不一致,则判定用户不能够看见所述测试字符。
其中,所述控制模块203,是设置为通过如下方式实现判定是否需要继续测试:
如用户能够看见当前测试字符,且所述视力表的当前测试行未测完或还有下一行需要测试,则判定需要继续测试;
如用户不能够看见当前测试字符,且所述视力表的当前测试行中所述用户不能够看见的测试字符数达到阈值,则判定不需要继续测试。
其中,所述测试模块202,是设置为通过如下方式实现突出显示一个测试字符:
高亮显示所述测试字符,或者闪烁显示所述测试字符,或者在所述测试字符的下方显示光标;
应用示例
本发明应用示例提供了一种测试眼睛视力的方法,包括以下步骤:
S301:应用程序打开,屏幕显示“测试”和“退出”选项;
S302:用户点击测试选项后,屏幕显示经过比例缩小的视力表格;
其中,人眼睛距离屏幕大概30cm;
S303:前置摄像头和光接近传感器打开,捕捉并识别手势滑动方向;
其中,当手势在设备前方时,光接近传感器周围的环境光亮度会发生变化,此时,光接近级传感器里的信号发射器发射一个信号,手会将信号反射 回来,接收装置接收到信号后,定位手势的位置,设此时光接近传感器周围的环境光亮度为原始亮度。此时前置摄像头捕捉一次手势的位置,定位为位置1。
当手势滑动时,光接近周围的环境光亮度由原始亮度—变化过程—变化后的亮度变化一次,当光接近传感器经历一次环境光感亮度变化后,前置摄像头会接收到一个信号,此时摄像头再捕捉一次手势位置,定位为位置2,处理器将位置1到位置2的变化定位为手势滑动方向。这就是一个完整的光接近传感器和前置摄像头配合捕捉一次手势滑动方向的过程。
当用户的手势静止不动时,即前置摄像头捕捉的两次手势位置1和位置2为同一个位置,这时运算处理器中的运算模块扫描捕捉的数据,分析出手势中伸出的手指的指尖位置,判断所述指尖所朝方向即为手势滑动方向。
当捕捉手势方向的同时,计时器T1和计数器N1打开并计时计数:要测的字母高亮后,T1开始计时:此时前置摄像头和光接近传感器捕捉手势滑动方向,将T1设定最大时长为3秒,3秒过后,捕捉动作结束,信息处理模块计算高亮的字母“E”开口方向和捕捉的手势方向是否一致,如果一致,计数器计数为1,继续下一个字母高亮继续测试,当计数器为3时,切换到下一行更小的字母继续测试。如果某一行字母数不够3个,测完自动切换到下一行更小的字母继续测试,计数器清零。如果在任何一个测试过程中,如果出现手势和字母开口不一致的情况发生,则测试结束,执行步骤S304,如果手势和字母开口一致,这样测试直到最后一行测试完成,执行步骤S304.
S304:测试完成,计算视力测试结果并显示在屏幕上;
比如,测试完成后提示用户:“您的视力为5.0,继续测试请按测试,否则退出”。
上述实施例提供的一种检测视力的方法和终端,在屏幕上显示按比例缩小的视力表,测试视力时,逐行突出显示测试字母,利用前置摄像头及光感接近传感器来捕捉定位用户手势的上下左右方向,通过模拟配镜行测试视力的过程,方便用户随时自测视力。
本领域普通技术人员可以理解上述方法中的全部或部分步骤可通过程序来指令相关硬件完成,所述程序可以存储于计算机可读存储介质中,如只读存储器、磁盘或光盘等。可选地,上述实施例的全部或部分步骤也可以使用一个或多个集成电路来实现,相应地,上述实施例中的各模块/单元可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。本发明不限制于任何特定形式的硬件和软件的结合。
需要说明的是,本发明还可有其他多种实施例,在不背离本发明精神及其实质的情况下,熟悉本领域的技术人员可根据本发明作出各种相应的改变和变形,但这些相应的改变和变形都应属于本发明所附的权利要求的保护范围。
工业实用性
上述技术方案实现了用户随时自测视力。

Claims (16)

  1. 一种检测视力的方法,该方法包括:
    在屏幕上显示视力表,测试开始后,获取用户手势的初始位置;
    突出显示一个测试字符后,检测用户手势运动方向,将检测到的用户手势方向和所述测试字符的开口方向进行比较,根据比较结果判定用户是否能够看见所述测试字符;
    判定是否需要继续测试,在需要继续测试时,突出显示下一个测试字符,在不需要继续测试时,确定视力测试结果并将所述视力测试结果反馈给所述用户。
  2. 如权利要求1所述的方法,其中:所述获取用户手势的初始位置,包括:
    利用光感接近传感器检测初始环境光亮度,利用前置摄像头拍摄用户手势图像,根据拍摄的用户手势图像确定用户手势的初始位置;或者利用前置摄像头拍摄用户手势图像,根据拍摄的用户手势图像确定用户手势的初始位置。
  3. 如权利要求1或2所述的方法,其中:所述突出显示一个测试字符后,检测用户手势运动方向,包括:
    在突出显示一个测试字符后,利用光感接近传感器感受环境光亮度的变化,在所述光感接近传感器感受到环境光亮度的变化后,触发前置摄像头拍摄用户手势图像;或者在突出显示一个测试字符后,延迟一个等待时长后触发前置摄像头拍摄用户手势图像;
    根据所述前置摄像头拍摄的用户手势图像确定用户手势的当前位置;
    将用户手势的当前位置与用户手势的上一次位置进行比较,根据比较结果确定用户手势运动方向。
  4. 如权利要求3所述的方法,其中:所述将用户手势的当前位置与用户手势的上一次位置进行比较,根据比较结果确定用户手势运动方向,包括:
    如用户手势的当前位置与用户手势的上一次位置不相同,则分析位置的变化方向,将分析出的位置变化方向作为用户手势运动方向。
  5. 如权利要求3所述的方法,其中:所述将用户手势的当前位置与用户手势的上一次位置进行比较,根据比较结果确定用户手势运动方向,包括:
    如用户手势的当前位置与用户手势的上一次位置相同,则从用户手势的当前图像中提取伸出的手指的指尖图像,分析所述伸出的手指的指尖指向,将所述指尖指向作为用户手势运动方向。
  6. 如权利要求1所述的方法,其中:将检测到的用户手势方向和所述测试字符的开口方向进行比较,根据比较结果判定用户是否能够看见所述测试字符,包括:
    如所述用户手势方向和所述测试字符的开口方向一致,则判定用户能够看见所述测试字符,如所述用户手势方向和所述测试字符的开口方向不一致,则判定用户不能够看见所述测试字符。
  7. 如权利要求1或6所述的方法,其中:判定是否需要继续测试,包括:
    如用户能够看见当前测试字符,且所述视力表的当前测试行未测完或还有下一行需要测试,则判定需要继续测试;
    如用户不能够看见当前测试字符,且所述视力表的当前测试行中所述用户不能够看见的测试字符数达到阈值,则判定不需要继续测试。
  8. 如权利要求1所述的方法,其中:所述突出显示一个测试字符,包括:
    高亮显示所述测试字符,或者闪烁显示所述测试字符,或者在所述测试字符的下方显示光标。
  9. 一种检测视力的终端,包括:
    初始显示及定位模块,设置为在屏幕上显示视力表,测试开始后,获取用户手势的初始位置;
    测试模块,设置为突出显示一个测试字符后,检测用户手势运动方向,将检测到的用户手势方向和所述测试字符的开口方向进行比较,根据比较结果判定用户是否能够看见所述测试字符;
    控制模块,设置为判定是否需要继续测试,在需要继续测试时,突出显示下一个测试字符,在不需要继续测试时,确定视力测试结果并将所述视力测试结果反馈给所述用户。
  10. 如权利要求9所述的终端,其中:
    所述初始显示及定位模块,是设置为通过如下方式实现获取用户手势的初始位置:
    利用光感接近传感器检测初始环境光亮度,利用前置摄像头拍摄用户手势图像,根据拍摄的用户手势图像确定用户手势的初始位置;或者利用前置摄像头拍摄用户手势图像,根据拍摄的用户手势图像确定用户手势的初始位置。
  11. 如权利要求9或10所述的终端,其中:
    所述测试模块,是设置为通过如下方式实现突出显示一个测试字符后,检测用户手势运动方向:
    在突出显示一个测试字符后,利用光感接近传感器感受环境光亮度的变化,在所述光感接近传感器感受到环境光亮度的变化后,触发前置摄像头拍摄用户手势图像;或者在突出显示一个测试字符后,延迟一个等待时长后触发前置摄像头拍摄用户手势图像;
    根据所述前置摄像头拍摄的用户手势图像确定用户手势的当前位置;
    将用户手势的当前位置与用户手势的上一次位置进行比较,根据比较结果确定用户手势运动方向。
  12. 如权利要求11所述的终端,其中:
    所述测试模块,是设置为通过如下方式实现将用户手势的当前位置与用户手势的上一次位置进行比较,根据比较结果确定用户手势运动方向:
    如用户手势的当前位置与用户手势的上一次位置不相同,则分析位置的 变化方向,将分析出的位置变化方向作为用户手势运动方向。
  13. 如权利要求11所述的终端,其中:
    所述测试模块,是设置为通过如下方式实现将用户手势的当前位置与用户手势的上一次位置进行比较,根据比较结果确定用户手势运动方向:
    如用户手势的当前位置与用户手势的上一次位置相同,则从用户手势的当前图像中提取伸出的手指的指尖图像,分析所述伸出的手指的指尖指向,将所述指尖指向作为用户手势运动方向。
  14. 如权利要求9所述的终端,其中:
    所述测试模块,是设置为通过如下方式实现将检测到的用户手势方向和所述测试字符的开口方向进行比较,根据比较结果判定用户是否能够看见所述测试字符:
    如所述用户手势方向和所述测试字符的开口方向一致,则判定用户能够看见所述测试字符,如所述用户手势方向和所述测试字符的开口方向不一致,则判定用户不能够看见所述测试字符。
  15. 如权利要求9或14所述的终端,其中:
    所述控制模块,是设置为通过如下方式实现判定是否需要继续测试:
    如用户能够看见当前测试字符,且所述视力表的当前测试行未测完或还有下一行需要测试,则判定需要继续测试;
    如用户不能够看见当前测试字符,且所述视力表的当前测试行中所述用户不能够看见的测试字符数达到阈值,则判定不需要继续测试。
  16. 一种计算机存储介质,所述计算机存储介质中存储有计算机可执行指令,所述计算机可执行指令用于执行权利要求1~8中任一项所述的方法。
PCT/CN2015/098093 2015-09-06 2015-12-21 一种检测视力的方法和终端 WO2016131337A1 (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201510559458.5A CN106491071A (zh) 2015-09-06 2015-09-06 一种检测视力的方法和终端
CN201510559458.5 2015-09-06

Publications (1)

Publication Number Publication Date
WO2016131337A1 true WO2016131337A1 (zh) 2016-08-25

Family

ID=56688678

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2015/098093 WO2016131337A1 (zh) 2015-09-06 2015-12-21 一种检测视力的方法和终端

Country Status (2)

Country Link
CN (1) CN106491071A (zh)
WO (1) WO2016131337A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109171637A (zh) * 2018-09-30 2019-01-11 苏州安视沛清科技有限公司 视力检测方法、装置、计算机存储介质及计算机设备
CN111700583A (zh) * 2020-05-23 2020-09-25 福建生物工程职业技术学院 一种室内共享自助式视力检测系统及其检测方法

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW201902412A (zh) * 2017-06-06 2019-01-16 沈荷芳 虛擬實境眼部檢測系統及其眼部檢測方法
JPWO2019124449A1 (ja) * 2017-12-22 2020-08-20 株式会社ビジュアル・テクノロジー研究所 視機能検査および光学特性算出システム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102984344A (zh) * 2012-10-16 2013-03-20 广东欧珀移动通信有限公司 一种利用手机测试视力的方法及手机
CN203074671U (zh) * 2013-01-31 2013-07-24 浙江工贸职业技术学院 一种智能视力检查装置
WO2014168558A1 (en) * 2013-04-11 2014-10-16 Crunchfish Ab Portable device using passive sensor for initiating touchless gesture control
CN104484032A (zh) * 2013-07-01 2015-04-01 黑莓有限公司 使用环境光传感器的手势检测
CN104598224A (zh) * 2014-12-26 2015-05-06 上海沙斐网络科技有限公司 一种基于终端的视力检测方法和一种视力检测终端

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1883376A (zh) * 2006-06-19 2006-12-27 陈宁宁 语音式自测视力表
US9377867B2 (en) * 2011-08-11 2016-06-28 Eyesight Mobile Technologies Ltd. Gesture based interface system and method
CN202179524U (zh) * 2011-08-11 2012-04-04 王金华 微电脑e表视力检测仪
JP5703194B2 (ja) * 2011-11-14 2015-04-15 株式会社東芝 ジェスチャ認識装置、その方法、及び、そのプログラム
CN103376890B (zh) * 2012-04-16 2016-08-31 富士通株式会社 基于视觉的手势遥控系统
CN103514437B (zh) * 2012-12-24 2017-04-05 Tcl集团股份有限公司 一种三维手势识别装置及三维手势识别方法
CN104095609B (zh) * 2014-05-20 2016-04-13 大连戴安科技有限公司 一种集预防、治疗、测量于一体的新型穿戴式智能近视治疗仪
CN103976706A (zh) * 2014-05-20 2014-08-13 科云(上海)信息技术有限公司 一种智能视力检查装置
CN104000553B (zh) * 2014-05-23 2016-04-06 何明光 双盲设计的电子视力检测系统
CN204557489U (zh) * 2015-03-12 2015-08-12 山东大学 基于视频图像手势识别的非接触式解锁装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102984344A (zh) * 2012-10-16 2013-03-20 广东欧珀移动通信有限公司 一种利用手机测试视力的方法及手机
CN203074671U (zh) * 2013-01-31 2013-07-24 浙江工贸职业技术学院 一种智能视力检查装置
WO2014168558A1 (en) * 2013-04-11 2014-10-16 Crunchfish Ab Portable device using passive sensor for initiating touchless gesture control
CN104484032A (zh) * 2013-07-01 2015-04-01 黑莓有限公司 使用环境光传感器的手势检测
CN104598224A (zh) * 2014-12-26 2015-05-06 上海沙斐网络科技有限公司 一种基于终端的视力检测方法和一种视力检测终端

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
LI, DU.: "The Design and Implementation of a Vision Test System Based Mobile Sensing", ELECTRONIC TECHNOLOGY & INFORMATION SCIENCE , CHINA MASTER'S THESES FULL-TEXT DATABASE, 15 April 2015 (2015-04-15), ISSN: 1674-0246 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109171637A (zh) * 2018-09-30 2019-01-11 苏州安视沛清科技有限公司 视力检测方法、装置、计算机存储介质及计算机设备
CN111700583A (zh) * 2020-05-23 2020-09-25 福建生物工程职业技术学院 一种室内共享自助式视力检测系统及其检测方法
CN111700583B (zh) * 2020-05-23 2023-04-18 福建生物工程职业技术学院 一种室内共享自助式视力检测系统的检测方法

Also Published As

Publication number Publication date
CN106491071A (zh) 2017-03-15

Similar Documents

Publication Publication Date Title
US11650659B2 (en) User input processing with eye tracking
US10001838B2 (en) Feature tracking for device input
US10884488B2 (en) Electronic device and method for controlling display
US9377859B2 (en) Enhanced detection of circular engagement gesture
US9489574B2 (en) Apparatus and method for enhancing user recognition
CN105378595B (zh) 通过触摸输入校准眼睛跟踪系统的方法
JP5807989B2 (ja) 注視支援コンピュータインターフェース
US11360605B2 (en) Method and device for providing a touch-based user interface
US10015402B2 (en) Electronic apparatus
WO2016131337A1 (zh) 一种检测视力的方法和终端
CN107528972A (zh) 一种显示方法及移动终端
KR20160101605A (ko) 제스처 입력 처리 방법 및 이를 지원하는 전자 장치
KR20160061699A (ko) 디스플레이를 제어하는 전자 장치 및 방법
US20180324366A1 (en) Electronic make-up mirror device and background switching method thereof
KR20150106823A (ko) 제스처 인식 장치 및 제스처 인식 장치의 제어 방법
US20150242094A1 (en) Method for Processing Information and Electronic Device
CN108829239A (zh) 终端的控制方法、装置及终端
US20150185871A1 (en) Gesture processing apparatus and method for continuous value input
CN113491502A (zh) 一种眼球追踪校准检验方法、装置、设备及存储介质
CN110174937A (zh) 注视信息控制操作的实现方法及装置
KR20190031000A (ko) 전자 단말기용 스크린샷 방법 및 스크린샷 장치
US9235694B2 (en) Recording medium, authentication device, and authentication method
WO2015090092A1 (zh) 一种用于生成个性化输入面板的方法和装置
CN103793053B (zh) 一种便携式终端的手势投影方法及装置
WO2018161421A1 (zh) 终端设备的触摸显示屏幕的性能测试方法和性能测试装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15882476

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15882476

Country of ref document: EP

Kind code of ref document: A1