CN110123258A - 视标识别的方法、装置、视力检测设备及计算机存储介质 - Google Patents

视标识别的方法、装置、视力检测设备及计算机存储介质 Download PDF

Info

Publication number
CN110123258A
CN110123258A CN201910251833.8A CN201910251833A CN110123258A CN 110123258 A CN110123258 A CN 110123258A CN 201910251833 A CN201910251833 A CN 201910251833A CN 110123258 A CN110123258 A CN 110123258A
Authority
CN
China
Prior art keywords
user
instruction
sighting target
recognition result
hand
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910251833.8A
Other languages
English (en)
Inventor
马啸
王宏
汪显方
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Shuliantianxia Intelligent Technology Co Ltd
Original Assignee
Shenzhen Heertai Home Furnishing Online Network Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Heertai Home Furnishing Online Network Technology Co Ltd filed Critical Shenzhen Heertai Home Furnishing Online Network Technology Co Ltd
Priority to CN201910251833.8A priority Critical patent/CN110123258A/zh
Publication of CN110123258A publication Critical patent/CN110123258A/zh
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/028Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing visual acuity; for determination of refraction, e.g. phoropters
    • A61B3/032Devices for presenting test symbols or characters, e.g. test chart projectors

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Image Analysis (AREA)

Abstract

本发明实施例涉及视力检测技术领域,尤其公开了一种视标识别的方法、装置、视力检测设备及计算机存储介质,其中,方法包括:显示视标;获取用户对所述视标的识别结果;判断所述识别结果是否与所述视标匹配;若匹配,则确定所述用户的识别结果正确;若不匹配,则确定所述用户的识别结果不正确。由此可见,利用本发明实施例方案,可实现视标识别的自动检测,无需要辅助人员参与,节省人力成本。

Description

视标识别的方法、装置、视力检测设备及计算机存储介质
技术领域
本发明实施例涉及视力检测技术领域,特别是涉及一种视标识别的方法、装置、视力检测设备及计算机存储介质。
背景技术
传统的视力检测方法需要医生的深度参与,医生需要指示视标,被测试者需要口答或使用手势指出医生指示的视标方向。
本发明的发明人在实现本发明实施例的过程中,发现:传统的视力检测方法虽然简单,但在测试过程中需要医生长时间陪伴,在被测试人群较为集中的场景中,需要耗费大量的人力资源和时间成本。目前缺少自动视标识别的方法。
发明内容
鉴于上述问题,提出了本发明实施例以便提供一种克服上述问题或者至少部分地解决上述问题的一种视标识别的方法、装置、视力检测设备及计算机存储介质。
为解决上述技术问题,本发明实施例采用的一个技术方案是:提供一种视标识别的方法,包括:显示视标;获取用户对所述视标的识别结果;判断所述识别结果是否与所述视标匹配;若匹配,则确定所述用户的识别结果正确;若不匹配,则确定所述用户的识别结果不正确。
可选的,所述获取用户对所述视标的识别结果,进一步包括:获取所述用户的用户图像;从所述用户图像中识别所述用户的指示动作;获取所述指示动作的指示方向;所述根据所述用户的指示动作,确定所述用户的识别结果,进一步包括:判断所述指示动作的指示方向是否与所述视标的指示方向匹配;若匹配,则确定所述用户的识别结果正确;若不匹配,则确定所述用户的识别结果不正确。
可选的,所述获取所述指示动作的指示方向,进一步包括:从所述用户图像中识别所述用户的手部的运动轨迹;将所述运动轨迹拟合成运动直线;确定所述运动直线分别与预设的左向轴线、右向轴线、上向轴线和下向轴线的夹角;获取所述夹角小于第一预设值的轴线;将获取到的轴线对应的方向作为所述用户的指示动作的指示方向。
可选的,所述获取所述指示动作的指示方向,进一步包括:从所述用户图像中识别所述用户的手势形状;将所述手势形状所指示的方向作为所述用户的指示动作的指示方向。
可选的,所述获取所述指示动作的指示方向,进一步包括:在所述用户图像中构建四个虚拟框,其中,所述四个虚拟框分别位于四个方位;识别所述用户的手部所在的虚拟框;将所述用户的手部所在的虚拟框对应的方向作为所述用户的指示动作的指示方向。
可选的,所述识别所述用户的手部所在的虚拟框,进一步包括:分别计算所述用户的手部所属区域与四个虚拟框的重叠度;将所述重叠度大于第二预设值的虚拟框作为所述用户的手部所在的虚拟框。
可选的,获取所述指示动作的指示方向,进一步包括:从所述用户图像中识别所述用户的身躯的倾斜方向;将所述身躯的倾斜方向作为所述用户的指示动作的指示方向。
可选的,在所述获取用户对所述视标的识别结果的步骤之前,所述方法还包括:记录显示所述视标的显示时间;计算所述显示时间和当前时间之间的时间间隔;在在所述时间间隔小于预设时长之内,并且没有获取到所述用户对所述视标的识别结果时,确定所述用户的识别结果不正确;在在所述时间间隔小于预设时长之内,并且获取到所述用户对所述视标的识别结果时,执行所述判断所述识别结果是否与所述视标匹配的步骤。
为解决上述技术问题,本发明实施例采用的另一个技术方案是:提供一种视标识别装置,包括显示模块,用于显示视标;获取模块,用于获取用户对所述视标的识别结果;判断模块,用于判断所述识别结果是否与所述视标匹配;确定模块,用于若匹配,则确定所述用户的识别结果正确,若不匹配,则确定所述用户的识别结果不正确。
为解决上述技术问题,本发明实施例采用的再一个技术方案是:提供一种视力检测设备,包括:处理器、存储器、通信接口和通信总线,处理器、存储器和通信接口通过通信总线完成相互间的通信;存储器用于存放至少一可执行指令,可执行指令使处理器执行如的一种视标识别的方法对应的操作。
为解决上述技术问题,本发明实施例采用的又一个技术方案是:提供一种计算机存储介质,存储介质中存储有至少一可执行指令,可执行指令使处理器执行如的一种视标识别的方法对应的操作。
本发明实施例的有益效果是:区别于现有技术的情况,在本发明实施例中,在显示视标之后,采集用户的识别结果,将用户的识别结果与视标进行匹配,从而确定用户的识别结果是否正确,实现视标识别的自动检测,无需要辅助人员参与,节省人力成本。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其它目的、特征和优点能够更明显易懂,以下特举本发明的具体实施例。
附图说明
通过阅读下文优选实施例的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施例的目的,而并不认为是对本发明的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
图1是本发明视标识别的方法实施例的流程图;
图2是本发明视标识别的方法实施例中根据用户动作,确定用户的识别结果的流程图;
图3是本发种视标识别的方法实施例中根据用户手部运动轨迹,确定用户的识别结果的流程图;
图4是本发明视标识别的方法实施例中用户手部运动轨迹的示意图;
图5是本发明视标识别的方法实施例中用户手部运动直线与轴线的夹角的示意图;
图6是本发明视标识别的方法实施例中根据用户的手势形状确定用户的识别结果的流程图;
图7是本发明视标识别的方法实施例中一种用户的手势形状的示意;
图8是本发明视标识别的方法实施例中通过用户手部选择虚拟框确定用户的识别结果的流程图;
图9是本发明视标识别的方法实施例中手部选择虚拟框的示意图;
图10是本发明视标识别的方法另一实施例中手部选择虚拟框的示意图
图11是本发明视标识别装置实施例的功能框图;
图12是本发明视力检测设备实施例的结构示意图。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
请参阅图1,图1是本发明视标识别的方法实施例的流程图,该方法包括:
步骤S21:显示视标;
视标是视力表中的视力符号,其形状通常包括开口朝右的字形、开口朝左的字形、开口朝上的字形,以及开口朝下的字形。
步骤S22:获取用户对所述视标的识别结果;
识别结果是指用户对视标给出的判断结果,例如:视标为字形,用户给出“向右”的判断结果。而用户可以通过语音、动作或者具有姿态感应功能的遥控器给出判断结果。
步骤S23:判断所述识别结果是否与所述视标匹配,若匹配,执行步骤S24,否则,执行步骤S25;
步骤S24:确定所述用户的识别结果正确;
步骤S25:确定所述用户的识别结果不正确。
在本发明实施例中,在显示视标之后,采集用户的识别结果,将用户的识别结果与视标进行匹配,从而确定用户的识别结果是否正确,实现视标识别的自动检测,无需要辅助人员参与,节省人力成本。
具体的,当用户通过动作给出针对视标的判断结果时,如图2所示获取用户对所述视标的识别结果,以及,判断所述识别结果是否与所述视标匹配,包括:
步骤S220:获取所述用户的用户图像,从所述用户图像中识别所述用户的指示动作;
步骤S221:获取所述指示动作的指示方向
步骤S222:判断所述指示动作的指示方向是否与所述视标的方向匹配,若匹配,则执行步骤S223,否则执行步骤S224;
具体的,指示动作的指示方向与所述视标的方向相匹配是指:指示动作的指示方向和视标的指示方向相同,例如:视标的方向为向左,若指示动作的指示方向为向右,则指示动作的指示方向与所述视标的指示方向不匹配,若指示动作的指示方向为向左,则指示动作的指示方向与所述视标的指示方向匹配。
步骤S223:确定所述用户的识别结果正确;
步骤S224:确定所述用户的识别结果不正确;
在一些实施例中,可以通过用户手部的动作来确定指示方向,如图3所示,获取所述指示动作的指示方向,包括:
步骤S2211a:从用户图像中识别用户的手部的运动轨迹。
在获取到的用户图像之后,通过手部检测算法检测每一用户图像中手部轮廓,然后给手部轮廓添加外接矩形框,将外接矩形框的中心点作为手部质心,最后将各个用户图像中识别到的手部质心连接形成手部的运动轨迹。而手部检测算法,其可以采用基于卷积神经网络为基础的深度神经网络模型,例如:目标检测框架SSD,训练得到。
在另一些实施例中,为了提高检测效率,降低硬件成本,也可以采用帧间差分跟踪算法获取用户的手部的运动轨迹,即:将用户视频中的后一视频帧减去前一视频帧,得到一幅新的图像,新图像中呈现用户手部在两个相邻用户图像的运动轨迹,如此将所有图像叠加完之后得到用户手部的运动轨迹。当然,用户手部质心的运动轨迹的获取方法还可以采用其它方法,如:卡尔曼滤波、均值漂移算法、光流场跟踪等,在此不再一一说明。
步骤S2212a:将运动轨迹拟合成运动直线。
由于用户手部的运动有可能不是直线运动,而呈波浪式运动,如图4所示,因此,在得到运动轨迹之后,还需要结合均方误差法,拟合运动直线。当然,为了提高拟合出运动直线的准确性,还可以对运动轨迹进行去噪处理,将一些明显偏离的手部质心过滤掉。
在另一些实施例中,对于运动直线,也可以采用起始的用户图像中的手部质心与最后的用户图像的手部质心两点的连线得到。
步骤S2213a:确定运动直线分别与预设的左向轴线、右向轴线、上向轴线和下向轴线的夹角。
左向轴线、右向轴线、上向轴线和下向轴线的指示方向分别为向左、右向、向上和向下。如图5所示。
步骤S2214a:获取夹角小于第一预设值的轴线。
对于第一预设值的具体数值不作限定,可选的,第一预设值为45度。
步骤S2215a:将获取到的轴线对应的方向作为手部的指示方向。
当运动直线与某一轴线的角度值小于第一预设值时,则说明该手部是朝该轴线的方向运动的,则可将该轴线指示的方向为用户的指示方向。如图5所示,运动直线与右向轴线、上向轴线、向右轴线、向下轴线的夹角分别为a1、a2、a3和a4,其中,a1小于45度,a2、a3和a4均大于45度,因此,右向轴线为选定的轴线。
值得说明的是,若运动直线与每一轴线的夹角均不小于第一预设值,则判定用户对视标识别无效,如果在时间允许的条件下,还可以提示用户重新给出指示动作。
在一些实施例中,也可以通过用户手部的手势形状来确定指示方向,如图6所示,获取所述指示动作的指示方向包括:
步骤S2211b:从用户图像中识别用户的手势形状。
步骤S2212b:将所述手势形状所指示的方向作为所述用户的指示动作的指示方向。
手势形状所指示的方向可以是手部拇指的指示方向,如图7所示,当拇指指向左时,则用户的指示方向为向左,当拇指指向右时,则用户的指示方向为向右,当拇指指向上时,则用户的指示方向为向上,当拇指指向下时,则用户的指示方向为向下。当然,在其它实施例中,也可以以用户其它手指的指示方向代表用户的指示方向,例如:食指、中指等等。又或者,预先定义代表向上、向下、向左和向右的四种预定手势形状,当识别到用户的手势形状时,寻找与该手势形状匹配的预定手势形状,所匹配的预定手势形状代表的方向作为用户的指示方向。
如图8所示,获取所述指示动作的指示方向,包括:
步骤S2211c:在用户图像中构建四个虚拟框。
四个虚拟框分别在四个方位上,并且呈上下对称、左右对称,如图9所示。
步骤S2212c:识别用户的手部所在的虚拟框。
具体的,识别用户的手部所在的虚拟框可以包括:分别计算用户的手部所属区域与四个虚拟框的重叠度,并将重叠度最高的虚拟框并且重叠度大于第二预设值的虚拟框作为用户的手部所在的虚拟框。
步骤S2213c:将用户的手部所在的虚拟框对应的方向作为用户的手部的指示方向。
通过在用户图像中构建虚拟框,并且将手部所在的虚拟框作为用户的手部的指示方向。
由于用户身躯的倾斜方向包括前倾、后倾、左倾及右倾,因此,可以将前倾、后倾、左倾及右倾分别对应上向、下向、左向及右向四个指示方向。则获取所述指示动作的指示方向,进一步包括:从所述用户图像中识别所述用户的身躯的倾斜方向,将所述身躯的倾斜方向作为所述用户的指示动作的指示方向。
在一些实施例中,识别所述用户的身躯的倾斜方向可以为:将获取到的用户的身躯的深度图像与标准的未倾斜时对应的用户的身躯的深度图像对比,若在获取到的深度图像中,对应的包含身躯的像素点变少,并且上半身的平均深度变上了,则认为发生前倾,若在获取到的深度图像中,对应的包含身躯的像素点变少,并且上半身的平均深度变大,则认为发生后倾,若获取到的包含身躯的像素点整体偏左,则认为发生左倾,若获取到的包含身躯的像素点整体偏右,则认为发生右倾。
由于用户的头部包括向上抬头、向下低头、向左转头和向右转头四个方向,因此,可以将向上抬头、向下低头、向左转头和向右转头分别对向上、向下、向左、向右四个指示方向,则获取所述指示动作的指示方向,进一步包括:从所述用户图像中识别所述用户的头部的转动方向,将所述用户的头部的转动方向作为所述用户的指示动作的指示方向。
在一些实施例中,对于用户头部方向的获取可以通过检测用户身体的关键点,例如:头、颈、躯干等,并且根据关键点的相对位置确定。为了方便读者理解,以下给出一种确定用户头部方向的实现:
根据脸部部位的特征信息,构建待检图像中脸部的脸部中轴线;基于脸部中轴线,将待检图像中脸部分为左脸区域和右脸区域,结合左脸区域和右脸区域,确定左脸区域的左宽度和右脸区域的右宽度,将左宽度减去右宽度得到宽度差,当宽度差的绝对值小于第三预设值时,确定用户头部出现左右转动,当宽度差的绝对值大于或者等于第三预设值时,确定用户头部出现左右转动,然后再判断宽度差的正负,当宽度差的值为正值时,则确定用户头部向左转动,当宽度差的值为负值时,确定用户头部向右转动。
当用户头部没有出现左右转动时,再确定用户头部是否出现上下抬动,具体包括:先确定第一部位与第二部位的第一距离,再确定第二部位与第三部位的第二距离,根据第一距离和第二距离,结合计算公式计算抬脸系数,Cr为抬脸系数,H1为第一距离,H2为第二距离。其中,第一部位、第二部位和第三部位均位于脸部,属于脸部部位,第一部位位于第二部位的上方,第二部位位于第三部位的上方,例如:第一部位为眼睛,第二部位为鼻子,第三部位为下颌,则第一距离为沿脸部中轴线,鼻尖到左眼和右眼连线的距离,第二距离为沿脸部中轴线从鼻尖到下颌最低点之间的距离。当抬脸系数Cr位于预设区间时,确定用户头部没有出现上下抬动,当抬脸系数Cr小于预设区间的最小值时,确定用户向下低头,当抬脸系数Cr大于预设区间的最大值时,确定用户向上抬头。
可以理解的是:在另一些实施例中,也可以先确定用户是否存在抬头或者低头,再确定用户是否存在左右转头,最终确定用户头部的转动方向。当然,当检测到用户头部没有转动时,也可以提示用户作出头部转动的动作。
在本发明实施例中,在显示视标之后,采集用户的用户图像,从用户图像中识别用户的指示动作,并根据指示动作识别得到识别结果,将用户的识别结果与视标进行匹配,从而确定用户的识别结果是否正确,实现视标识别的自动检测,无需要辅助人员参与,节省人力成本。
请参阅图10,图10是本发明视标识别方法实施例的流程图,方法包括:
步骤S21:显示视标;
步骤S26:记录显示所述视标的显示时间;
显示时间是指视标呈现那一瞬间的时间,并不是指视标持续显示的时间。
步骤S27:计算所述显示时间和当前时间之间的时间间隔;
当前的时间是获取用户的用户图像时对应的时间点。
步骤S22:判断时间间隔小于预设时长内,是否获取到用户对所述视标的识别结果;
对于预设时长的数值不限定,可以根据实际情况或者实验数据确定,例如:预设时长为3秒、5秒等等。
步骤S23:判断所述识别结果是否与所述视标匹配,若匹配,执行步骤S24,否则,执行步骤S25;
步骤S24:确定所述用户的识别结果正确;
步骤S25:确定所述用户的识别结果不正确。
在本发明实施例中,在显示视标时记录显示时间,计算所述显示时间和当前时间之间的时间间隔,然后根据所述用户图像和时间间隔,来确定所述用户的识别结果,从而实现自动识别用户对视标的识别结果,而通过用户图像和时间间隔两重因素来确定用户的识别结果,可以避免用户通过长时间眯眼观察视标才给出判断结果,进而造成视力检测不准确的情况。
图11是本发明视标识别装置实施例的功能框图,如图10所示,视标识别装置40包括:显示模块401、获取模块402、判断模块403和确定模块404。
显示模块401,用于显示视标。获取模块402,用于获取用户对所述视标的识别结果。判断模块403,用于判断所述识别结果是否与所述视标匹配。确定模块404,用于若匹配,则确定所述用户的识别结果正确,若不匹配,则确定所述用户的识别结果不正确。
在一些实施例中,获取模块402又可以包括第一获取单元4021、识别单元4022和第二获取单元4023。第一获取单元4021用于获取所述用户的用户图像,识别单元4022用于从所述用户图像中识别所述用户的指示动作,第二获取单元4023用于获取所述指示动作的指示方向。判断模块403又可以具体为:判断所述指示动作的指示方向是否与所述视标的指示方向匹配;若匹配,则确定所述用户的识别结果正确;若不匹配,则确定所述用户的识别结果不正确。
在一些实施例中,第二获取单元4023具体用于:从所述用户图像中识别所述用户的手部的运动轨迹;将所述运动轨迹拟合成运动直线;确定所述运动直线分别与四个预设方向轴线的夹角,其中,所述四个预设方向轴线包括左向轴线、右向轴线、上向轴线和下向轴线;获取所述夹角小于第一预设值的预设方向轴线;将获取到的所述预设方向轴线对应的方向作为所述用户的指示动作的指示方向。
在一些实施例中,第二获取单元4023具体用于:从所述用户图像中识别所述用户的手势形状;将所述手势形状所指示的方向作为所述用户的指示动作的指示方向
在一些实施例中,第二获取单元4023具体用于:在所述用户图像中构建四个虚拟框,其中,所述四个虚拟框包括左向框、右向框、上向框和下向框;识别所述用户的手部所在的虚拟框;将所述用户的手部所在的虚拟框对应的方向作为所述用户的指示动作的指示方向。识别所述用户的手部所在的虚拟框,进一步包括:分别计算所述用户的手部所属区域与四个虚拟框的重叠度;将所述重叠度大于第二预设值的虚拟框作为所述用户的手部所在的虚拟框。
在一些实施例中,第二获取单元4023具体用于:从所述用户图像中识别所述用户的身躯的倾斜方向;将所述身躯的倾斜方向作为所述用户的指示动作的指示方向。
在一些实施例中,第二获取单元4023具体用于:从所述用户图像中识别所述用户的头部的转动方向;将所述用户的头部的转动方向作为所述用户的指示动作的指示方向。
视标识别的装置40还包括记录模块405和计算模块406。
记录模块405,用于记录显示所述视标的显示时间。计算模块406,用于计算所述显示时间和当前时间之间的时间间隔。确定模块404在所述时间间隔小于预设时长之内,并且没有获取到所述用户对所述视标的识别结果时,确定所述用户的识别结果不正确;在所述时间间隔小于预设时长之内,并且获取到所述用户对所述视标的识别结果时,执行所述判断模块403。
在本发明实施例中,通过结合用户图像和时间间隔来确定用户的识别结果可以很好地避免用户在长时间没有给出视标时造成识别停顿的情况,也有利于避免用户通过长时间眯眼观察视标,进而造成视力检测不准确的情况。
本申请实施例提供了一种非易失性计算机存储介质,计算机存储介质存储有至少一可执行指令,该计算机可执行指令可执行上述任意方法实施例中的一种视标识别的方法对应的操作。
图12为本发明一种视力检测设备实施例的结构示意图,本发明具体实施例并不对视力检测设备的具体实现做限定。
如图12所示,该视力检测设备以包括:处理器(processor)502、通信接口(Communications Interface)504、存储器(memory)506、以及通信总线508。
其中:
处理器502、通信接口504、以及存储器506通过通信总线508完成相互间的通信。
通信接口504,用于与其它设备比如客户端或其它服务器等的网元通信。
处理器502,用于执行程序510,具体可以执行上述一种视标识别的方法实施例中的相关步骤。
具体地,程序510可以包括程序代码,该程序代码包括计算机操作指令。
处理器502可能是中央处理器CPU,或者是特定集成电路ASIC(ApplicationSpecific Integrated Circuit),或者是被配置成实施本发明实施例的一个或多个集成电路。视力检测设备包括的一个或多个处理器,可以是同一类型的处理器,如一个或多个CPU;也可以是不同类型的处理器,如一个或多个CPU以及一个或多个ASIC。
存储器506,用于存放程序510。存储器506可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。
程序510具体可以用于使得处理器502执行上述视标识别的方法实施例中涉及步骤的操作,以及,上述视标识别装置中涉及的功能模块,的操作,例如:附图1中步骤S11至S13、附图2中步骤S21至S27、附图3中步骤S241a至S245a、附图6中步骤S241b至步骤S242b、附图8中步骤S241d至步骤S243d、附图10中功能模块401至功能模块405。
在此提供的算法和显示不与任何特定计算机、虚拟系统或者其它设备固有相关。各种通用系统也可以与基于在此的示教一起使用。根据上面的描述,构造这类系统所要求的结构是显而易见的。此外,本发明也不针对任何特定编程语言。应当明白,可以利用各种编程语言实现在此描述的本发明的内容,并且上面对特定语言所做的描述是为了披露本发明的最佳实施例。
在此处所提供的说明书中,说明了大量具体细节。然而,能够理解,本发明的实施例可以在没有这些具体细节的情况下实践。在一些实例中,并未详细示出公知的方法、结构和技术,以便不模糊对本说明书的理解。
类似地,应当理解,为了精简本公开并帮助理解各个发明方面中的一个或多个,在上面对本发明的示例性实施例的描述中,本发明的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。然而,并不应将该公开的方法解释成反映如下意图:即所要求保护的本发明要求比在每个权利要求中所明确记载的特征更多的特征。更确切地说,如权利要求书所反映的那样,发明方面在于少于前面公开的单个实施例的所有特征。因此,遵循具体实施例的权利要求书由此明确地并入该具体实施例,其中每个权利要求本身都作为本发明的单独实施例。
本领域那些技术人员可以理解,可以对实施例中的设备中的模块进行自适应性地改变并且把它们设置在与该实施例不同的一个或多个设备中。可以把实施例中的模块或单元或组件组合成一个模块或单元或组件,以及此外可以把它们分成多个子模块或子单元或子组件。除了这样的特征和/或过程或者单元中的至少一些是相互排斥之外,可以采用任何组合对本说明书(包括伴随的权利要求、摘要和附图)中公开的所有特征以及如此公开的任何方法或者设备的所有过程或单元进行组合。除非另外明确陈述,本说明书(包括伴随的权利要求、摘要和附图)中公开的每个特征可以由提供相同、等同或相似目的的替代特征来代替。
此外,本领域的技术人员能够理解,尽管在此所述的一些实施例包括其它实施例中所包括的某些特征而不是其它特征,但是不同实施例的特征的组合意味着处于本发明的范围之内并且形成不同的实施例。例如,在下面的权利要求书中,所要求保护的实施例的任意之一都可以以任意的组合方式来使用。
本发明的各个部件实施例可以以硬件实现,或者以在一个或者多个处理器上运行的软件模块实现,或者以它们的组合实现。本领域的技术人员应当理解,可以在实践中使用微处理器或者数字信号处理器(DSP)来实现根据本发明实施例的一种视标识别的装置中的一些或者全部部件的一些或者全部功能。本发明还可以实现为用于执行这里所描述的方法的一部分或者全部的设备或者装置程序(例如,计算机程序和计算机程序产品)。这样的实现本发明的程序可以存储在计算机可读介质上,或者可以具有一个或者多个信号的形式。这样的信号可以从因特网网站上下载得到,或者在载体信号上提供,或者以任何其他形式提供。
应该注意的是上述实施例对本发明进行说明而不是对本发明进行限制,并且本领域技术人员在不脱离所附权利要求的范围的情况下可设计出替换实施例。在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的元件或步骤。位于元件之前的单词“一”或“一个”不排除存在多个这样的元件。本发明可以借助于包括有若干不同元件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名称。

Claims (11)

1.一种视标识别的方法,其特征在于,包括:
显示视标;
获取用户对所述视标的识别结果;
判断所述识别结果是否与所述视标匹配;
若匹配,则确定所述用户的识别结果正确;
若不匹配,则确定所述用户的识别结果不正确。
2.根据权利要求1所述的方法,其特征在于,
所述获取用户对所述视标的识别结果,进一步包括:
获取所述用户的用户图像;
从所述用户图像中识别所述用户的指示动作;
获取所述指示动作的指示方向;
所述判断所述识别结果是否与所述视标匹配,进一步包括:
判断所述指示动作的指示方向是否与所述视标的指示方向匹配;
若匹配,则确定所述用户的识别结果正确;
若不匹配,则确定所述用户的识别结果不正确。
3.根据权利要求2所述的方法,其特征在于,所述获取所述指示动作的指示方向,进一步包括:
从所述用户图像中识别所述用户的手部的运动轨迹;
将所述运动轨迹拟合成运动直线;
确定所述运动直线分别与预设的左向轴线、右向轴线、上向轴线和下向轴线的夹角;
获取所述夹角小于第一预设值的轴线;
将获取到的轴线对应的方向作为所述用户的指示动作的指示方向。
4.根据权利要求2所述的方法,其特征在于,所述获取所述指示动作的指示方向,进一步包括:
从所述用户图像中识别所述用户的手势形状;
将所述手势形状所指示的方向作为所述用户的指示动作的指示方向。
5.根据权利要求2所述的方法,其特征在于,所述获取所述指示动作的指示方向,进一步包括:
在所述用户图像中构建四个虚拟框,其中,所述四个虚拟框分别位于四个方位;
识别所述用户的手部所在的虚拟框;
将所述用户的手部所在的虚拟框对应的方向作为所述用户的指示动作的指示方向。
6.根据权利要求5所述的方法,其特征在于,所述识别所述用户的手部所在的虚拟框,进一步包括:
分别计算所述用户的手部所属区域与四个虚拟框的重叠度;
将所述重叠度大于第二预设值的虚拟框作为所述用户的手部所在的虚拟框。
7.根据权利要求2所述的方法,其特征在于,所述获取所述指示动作的指示方向,进一步包括:
从所述用户图像中识别所述用户的身躯的倾斜方向;
将所述身躯的倾斜方向作为所述用户的指示动作的指示方向。
8.根据权利要求1-7中任意一项所述的方法,其特征在于,在所述获取用户对所述视标的识别结果的步骤之前,所述方法还包括:
记录显示所述视标的显示时间;
计算所述显示时间和当前时间之间的时间间隔;
在所述时间间隔小于预设时长之内,并且没有获取到所述用户对所述视标的识别结果时,确定所述用户的识别结果不正确;
在所述时间间隔小于预设时长之内,并且获取到所述用户对所述视标的识别结果时,执行所述判断所述识别结果是否与所述视标匹配的步骤。
9.一种视标识别的装置,应用于视力检测设备,其特征在于,包括:
显示模块,用于显示视标;
获取模块,用于获取用户对所述视标的识别结果;
判断模块,用于判断所述识别结果是否与所述视标匹配;
确定模块,用于若匹配,则确定所述用户的识别结果正确,若不匹配,则确定所述用户的识别结果不正确。
10.一种视力检测设备,包括:处理器、存储器、通信接口和通信总线,所述处理器、所述存储器和所述通信接口通过所述通信总线完成相互间的通信;所述存储器用于存放至少一可执行指令,所述可执行指令使所述处理器执行如权利要求1-8中任一项所述的一种视标识别的方法对应的操作。
11.一种计算机存储介质,所述存储介质中存储有至少一可执行指令,所述可执行指令使处理器执行如权利要求1-8中任一项所述的一种视标识别的方法对应的操作。
CN201910251833.8A 2019-03-29 2019-03-29 视标识别的方法、装置、视力检测设备及计算机存储介质 Pending CN110123258A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910251833.8A CN110123258A (zh) 2019-03-29 2019-03-29 视标识别的方法、装置、视力检测设备及计算机存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910251833.8A CN110123258A (zh) 2019-03-29 2019-03-29 视标识别的方法、装置、视力检测设备及计算机存储介质

Publications (1)

Publication Number Publication Date
CN110123258A true CN110123258A (zh) 2019-08-16

Family

ID=67568995

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910251833.8A Pending CN110123258A (zh) 2019-03-29 2019-03-29 视标识别的方法、装置、视力检测设备及计算机存储介质

Country Status (1)

Country Link
CN (1) CN110123258A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110852185A (zh) * 2019-10-21 2020-02-28 西南民族大学 基于人体骨骼关键点识别的视力检测设备及方法
CN111176443A (zh) * 2019-12-12 2020-05-19 青岛小鸟看看科技有限公司 一种车载智能系统及其控制方法
CN111700583A (zh) * 2020-05-23 2020-09-25 福建生物工程职业技术学院 一种室内共享自助式视力检测系统及其检测方法
CN112656363A (zh) * 2020-12-17 2021-04-16 上海艾康特医疗科技有限公司 视力检测系统及视力检测方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103598870A (zh) * 2013-11-08 2014-02-26 北京工业大学 一种基于深度图像手势识别的视力检测方法
US20170188823A1 (en) * 2015-09-04 2017-07-06 University Of Massachusetts Eye tracker system and methods for detecting eye parameters
CN106941562A (zh) * 2017-02-24 2017-07-11 上海与德信息技术有限公司 检测视力的方法及装置
CN109240492A (zh) * 2018-08-21 2019-01-18 安徽励图信息科技股份有限公司 通过手势识别控制演播室包装和点评系统的方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103598870A (zh) * 2013-11-08 2014-02-26 北京工业大学 一种基于深度图像手势识别的视力检测方法
US20170188823A1 (en) * 2015-09-04 2017-07-06 University Of Massachusetts Eye tracker system and methods for detecting eye parameters
CN106941562A (zh) * 2017-02-24 2017-07-11 上海与德信息技术有限公司 检测视力的方法及装置
CN109240492A (zh) * 2018-08-21 2019-01-18 安徽励图信息科技股份有限公司 通过手势识别控制演播室包装和点评系统的方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110852185A (zh) * 2019-10-21 2020-02-28 西南民族大学 基于人体骨骼关键点识别的视力检测设备及方法
CN111176443A (zh) * 2019-12-12 2020-05-19 青岛小鸟看看科技有限公司 一种车载智能系统及其控制方法
CN111176443B (zh) * 2019-12-12 2023-10-13 青岛小鸟看看科技有限公司 一种车载智能系统及其控制方法
CN111700583A (zh) * 2020-05-23 2020-09-25 福建生物工程职业技术学院 一种室内共享自助式视力检测系统及其检测方法
CN112656363A (zh) * 2020-12-17 2021-04-16 上海艾康特医疗科技有限公司 视力检测系统及视力检测方法
CN112656363B (zh) * 2020-12-17 2023-04-25 维视艾康特(广东)医疗科技股份有限公司 视力检测系统及视力检测方法

Similar Documents

Publication Publication Date Title
CN110123258A (zh) 视标识别的方法、装置、视力检测设备及计算机存储介质
US10872272B2 (en) System and method using machine learning for iris tracking, measurement, and simulation
US9733703B2 (en) System and method for on-axis eye gaze tracking
CN107506705B (zh) 一种瞳孔-普尔钦斑视线跟踪与注视提取方法
JP4137969B2 (ja) 眼部検出装置、眼部検出方法及びプログラム
Xu et al. Efficient hand pose estimation from a single depth image
EP3243161B1 (en) Eye tracking
Jiang et al. Learning to predict sequences of human visual fixations
JP6548171B2 (ja) 瞳孔検出システム、視線検出システム、瞳孔検出方法、および瞳孔検出プログラム
CN109685037B (zh) 一种实时动作识别方法、装置及电子设备
EP4383193A1 (en) Line-of-sight direction tracking method and apparatus
CN104809458B (zh) 一种瞳孔中心定位方法及装置
EP3511803A1 (en) Method and apparatus to determine trigger intent of user
CN104978012B (zh) 一种指向交互方法、装置及系统
CN110123257A (zh) 一种视力检测方法、装置、视力检测仪及计算机存储介质
CN110807427B (zh) 一种视线追踪方法、装置、计算机设备和存储介质
Lu et al. Appearance-based gaze estimation via uncalibrated gaze pattern recovery
US11132531B2 (en) Method for determining pose and for identifying a three-dimensional view of a face
CN116051631A (zh) 光斑标注方法及系统
US11048926B2 (en) Adaptive hand tracking and gesture recognition using face-shoulder feature coordinate transforms
KR101145672B1 (ko) 미소 훈련을 위한 미소 분석 시스템
JP2020174536A (ja) 収穫装置およびその制御方法、並びにプログラム
US11625826B2 (en) Retinal OCT data processing
JP4883013B2 (ja) 顔画像処理装置
Okuno et al. Body posture and face orientation estimation by convolutional network with heterogeneous learning

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20200407

Address after: 1706, Fangda building, No. 011, Keji South 12th Road, high tech Zone, Yuehai street, Nanshan District, Shenzhen City, Guangdong Province

Applicant after: Shenzhen shuliantianxia Intelligent Technology Co.,Ltd.

Address before: 518000, building 10, building ten, building D, Shenzhen Institute of Aerospace Science and technology, 6 hi tech Southern District, Nanshan District, Shenzhen, Guangdong 1003, China

Applicant before: SHENZHEN H & T HOME ONLINE NETWORK TECHNOLOGY Co.,Ltd.

RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20190816