CN111723754A - 一种左右眼识别方法、识别装置、终端设备及存储介质 - Google Patents
一种左右眼识别方法、识别装置、终端设备及存储介质 Download PDFInfo
- Publication number
- CN111723754A CN111723754A CN202010585441.8A CN202010585441A CN111723754A CN 111723754 A CN111723754 A CN 111723754A CN 202010585441 A CN202010585441 A CN 202010585441A CN 111723754 A CN111723754 A CN 111723754A
- Authority
- CN
- China
- Prior art keywords
- eye
- position information
- vision
- characteristic point
- vision detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 66
- 230000004438 eyesight Effects 0.000 claims abstract description 289
- 238000012360 testing method Methods 0.000 claims abstract description 208
- 238000001514 detection method Methods 0.000 claims abstract description 148
- 238000004590 computer program Methods 0.000 claims description 21
- 230000000007 visual effect Effects 0.000 description 30
- 238000012937 correction Methods 0.000 description 24
- 230000008569 process Effects 0.000 description 14
- 230000006870 function Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 230000004379 myopia Effects 0.000 description 5
- 208000001491 myopia Diseases 0.000 description 5
- 238000012545 processing Methods 0.000 description 4
- 238000013102 re-test Methods 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 2
- 210000000887 face Anatomy 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 238000000611 regression analysis Methods 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 230000004304 visual acuity Effects 0.000 description 2
- 240000007594 Oryza sativa Species 0.000 description 1
- 235000007164 Oryza sativa Nutrition 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 235000009566 rice Nutrition 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/02—Subjective types, i.e. testing apparatus requiring the active assistance of the patient
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
Abstract
本申请适用于视力检测技术领域,提供了一种左右眼识别方法、识别装置、终端设备及存储介质,该方法包括:获取第一人脸图像,第一人脸图像为所述视力检测用户进行视力检测的人脸图像;提取所述第一人脸图像上的第一人脸特征点,得到各所述第一人脸特征点的位置信息;根据所述第一人脸特征点的位置信息确定视力检测用户的测试眼睛的目标目标类型,所述目标目标类型为左侧或右侧中的一种。本申请可以一定程度上目前的视力检测方法中对测试眼睛的类型的判断容易出错,从而导致检测结果存在错误的问题。
Description
技术领域
本申请属于眼睛测试领域,尤其涉及一种左右眼识别方法、识别装置、终端设备及存储介质。
背景技术
近几年来,长期使用眼睛以及不健康的用眼习惯使得中国人近视的现象越来越严重。因此,对近视的预防刻不容缓。而预防近视的一个有效方法是定期对视力进行检测,及时发现视力问题并及时纠正,从而对近视进行预防,进而减少近视的人数。
在目前的视力检测中,一般是用户自行决定遮眼顺序,检测完之后医生再根据记忆进行记录。然而,该过程如果医生记录出现错误,或者医生提示遮挡左眼,而待检测的用户遮挡右眼,医生又没有注意到,会导致视力检测结果出现错误。
因此,目前的视力检测方法中存在对测试眼睛的类型的判断容易出错,从而导致检测结果存在错误的问题。
发明内容
本申请实施例提供了一种左右眼识别方法、识别装置、终端设备及存储介质,可以一定程度上解决目前的视力检测方法中对测试眼睛的类型的判断容易出错,从而导致检测结果存在错误的问题。
第一方面,本申请实施例提供了一种左右眼识别方法,包括:
获取第一人脸图像,上述第一人脸图像为视力检测用户进行视力检测的人脸图像;
提取上述第一人脸图像上的第一人脸特征点,得到各上述第一人脸特征点的位置信息;
根据上述第一人脸特征点的位置信息确定视力检测用户的测试眼睛的目标类型,上述目标类型为左侧或右侧中的一种。
第二方面,本申请实施例提供了一种左右眼识别装置,包括:
第一人脸图像获取模块,用于获取第一人脸图像,第一人脸图像为上述视力检测用户进行视力检测的人脸图像;
第一人脸特征点提取模块,用于提取上述第一人脸图像上的第一人脸特征点,得到各上述第一人脸特征点的第一位置信息;
测试眼睛的目标类型确定模块,用于根据上述第一人脸特征点的位置信视力检测用户的息确定测试眼睛的目标类型,上述目标类型为左侧或右侧中的一种。
第三方面,本申请实施例提供了一种终端设备,包括存储器、处理器以及存储在上述存储器中并可在上述处理器上运行的计算机程序,上述处理器执行上述计算机程序时实现如上述第一方面所述方法的步骤。
第四方面,本申请实施例提供了一种计算机可读存储介质,上述计算机可读存储介质存储有计算机程序,上述计算机程序被处理器执行时实现如上述第一方面所述方法的步骤。
第五方面,本申请实施例提供了一种计算机程序产品,当计算机程序产品在终端设备上运行时,使得终端设备执行上述第一方面中任一项所述的左右眼识别方法。
可以理解的是,上述第二方面至第五方面的有益效果可以参见上述第一方面中的相关描述,在此不再赘述。
本申请实施例与现有技术相比存在的有益效果是:
由上可见,本申请提供一种方法,首先,获取第一人脸图像,第一人脸图像为视力检测用户进行视力检测的人脸图像。然后提取第一人脸图像上的第一人脸特征点,得到各第一人脸特征点的位置信息。得到各第一人脸特征点的位置信息后,根据第一人脸特征点的位置信息确定视力检测用户的测试眼睛的目标类型,目标类型包括为左侧或右侧中的一种。即在本申请的技术方案中,根据第一人脸特征点对测试眼睛的目标类型进行判断,可准确地得到测试眼睛目标类型。因此,在对眼睛测试的过程中,即使用户没有根据提示进行操作,也可准确地得到测试结果。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请一实施例提供的左右眼识别方法的流程示意图;
图2是本申请一实施例提供的判断眼睛目标类型的方法的示意图;
图3是本申请一实施例提供的判断眼睛遮挡状态的方法的示意图;
图4是本申请一实施例提供的测试距离与视力校正值的对应关系的示意图;
图5是本申请一实施例提供的参照物的示意图
图6是本申请一实施例提供的左右眼识别装置的结构示意图;
图7是本申请实施例提供的终端设备的结构示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本申请实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本申请。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本申请的描述。
应当理解,当在本申请说明书和所附权利要求书中使用时,术语“包括”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在本申请说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
如在本申请说明书和所附权利要求书中所使用的那样,术语“如果”可以依据上下文被解释为“当...时”或“一旦”或“响应于确定”或“响应于检测到”。类似地,短语“如果确定”或“如果检测到[所描述条件或事件]”可以依据上下文被解释为意指“一旦确定”或“响应于确定”或“一旦检测到[所描述条件或事件]”或“响应于检测到[所描述条件或事件]”。
另外,在本申请说明书和所附权利要求书的描述中,术语“第一”、“第二”、“第三”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
在本申请说明书中描述的参考“一个实施例”或“一些实施例”等意味着在本申请的一个或多个实施例中包括结合该实施例描述的特定特征、结构或特点。由此,在本说明书中的不同之处出现的语句“在一个实施例中”、“在一些实施例中”、“在其他一些实施例中”、“在另外一些实施例中”等不是必然都参考相同的实施例,而是意味着“一个或多个但不是所有的实施例”,除非是以其他方式另外特别强调。术语“包括”、“包含”、“具有”及它们的变形都意味着“包括但不限于”,除非是以其他方式另外特别强调。
本申请实施例提供的左右眼识别方法可以应用于手机、平板电脑、车载设备、增强现实(augmented reality,AR)/虚拟现实(virtual reality,VR)设备、笔记本电脑、超级移动个人计算机(ultra-mobile personal computer,UMPC)、上网本、个人数字助理(personal digital assistant,PDA)等终端设备上,本申请实施例对终端设备的具体类型不作任何限制。
例如,所述终端设备可以是WLAN中的站点(STAION,ST),可以是蜂窝电话、无绳电话、会话启动协议(Session Initiation Protocol,SIP)电话、无线本地环路(WirelessLocal Loop,WLL)站、个人数字处理(Personal Digital Assistant,PDA)设备、具有无线通信功能的手持设备、计算设备或连接到无线调制解调器的其它处理设备、车载设备、车联网终端、电脑、膝上型计算机、手持式通信设备、手持式计算设备、卫星无线设备、无线调制解调器卡、电视机顶盒(set top box,STB)、用户驻地设备(customer premise equipment,CPE)和/或用于在无线系统上进行通信的其它设备以及下一代通信系统,例如,5G网络中的移动终端或者未来演进的公共陆地移动网络(Public Land Mobile Network,PLMN)网络中的移动终端等。
为了说明本申请所述的技术方案,下面通过具体实施例来进行说明。
实施例一
下面对本申请实施例一提供的一种左右眼识别方法进行描述,请参阅附图1,该方法包括:
步骤S101、获取第一人脸图像,第一人脸图像为视力检测用户进行视力检测的人脸图像。
在步骤S101中,第一人脸图像可以是本终端设备执行眼睛测试操作时通过摄像头采集的图像,也可以是其他终端设备执行眼睛测试操作时采集的,然后发给本终端设备的图像。用户可根据实际需求选择第一人脸图像的来源,本申请对此不做具体限定。
步骤S102、提取第一人脸图像上的第一人脸特征点,得到各第一人脸特征点的位置信息。
在步骤S102中,提取第一人脸特征点的方法可以包括:主动形状模型(ActiveShape Model,ASM)、主动表观模型(Active Appearance Model,AAM)、统计能量函数方法、回归分析方法以及深度学习方法等。用户对提取第一人脸特征点的方法可根据实际需求进行选择或设计,本申请在此不做具体限定。当本终端设备获取到第一人脸图像后,即可提取第一人脸图像上的第一人脸特征点,得到各个第一人脸特征点的位置信息。
步骤S103、根据第一人脸特征点的位置信息确定视力检测用户的测试眼睛的目标类型,目标类型为左侧或右侧中的一种。
在步骤S103中,在得到各个第一人脸特征点的位置信息后,本终端设备根据各个第一人脸特征点的位置信息,确定测试眼睛的目标类型。
在一些实施例中,第一人脸特征点包括:第一眼睛特征点201,鼻尖特征点202以及嘴角特征点203。相应地,根据第一人脸特征点的位置信息确定视力检测用户的测试眼睛的目标类型,包括:根据第一眼睛特征点201的位置信息、第一鼻尖特征点202的位置信息以及第一嘴角特征点203的位置信息确定视力检测用户的测试眼睛的目标类型。
在一些可能实现的方式中,根据第一眼睛特征点的位置信息、第一鼻尖特征点的位置信息以及第一嘴角特征点的位置信息确定视力检测用户的测试眼睛的目标类型,包括:过第一嘴角特征点做第一直线;过第一鼻尖特征点做第一直线的第一垂线;以第一垂线为对称轴,确定第一眼睛特征点关于对称轴对称的第二眼睛特征点,得到第二眼睛特征点的位置信息;根据第一眼睛特征点的位置信息以及第二眼睛特征点的位置信息确定视力检测用户的测试眼睛的目标类型。
在本实现方式中,先根据第一眼睛特征点的位置信息、第一鼻尖特征点的位置信息以及第一嘴角特征点的位置信息确定第二眼睛特征点的位置信息。然后再根据第一眼睛特征点的位置信息以及第二眼睛特征点的位置信息确定视力检测用户的测试眼睛的目标类型。具体地,确定测试眼睛的目标类型的过程如下(参照图2):
以第一人脸图像中的左下角的预设点为坐标原点建立坐标轴,得到各第一人脸特征点的位置信息。比如,第一眼睛特征点201的坐标为(x1,y1),第一鼻尖特征点202的坐标为(x2,y2),第一嘴角特征点203的坐标为(x3,y3)、(x4,y4)。得到各个特征点的位置信息后,过第一嘴角特征点203做第一直线,然后过第一鼻尖特征点202做第一直线的第一垂线。在得到第一垂线后,以第一垂线为对称轴,求解第一眼睛特征点201关于对称轴对称的第二眼睛特征点204,且第二眼睛特征点204的坐标为(x5,y5)。得到第二眼睛特征点204后,将第一眼睛特征点的横坐标x1与第二眼睛特征点的横坐标x5进行比较。如果x1小于x5,则判定测试的眼睛的目标类型为右侧,若如果x1大于x5,则判定测试的眼睛的目标类型为左侧。
在另一些可能实现的方式中,根据第一眼睛特征点的位置信息、第一鼻尖特征点的位置信息以及第一嘴角特征点的位置信息确定测试眼睛的目标类型,包括:过第一嘴角特征点做第一直线;过第一鼻尖特征点做第一直线的第一垂线,得到第一垂线的位置信息;根据第一眼睛特征点的位置信息以及第一垂线的位置信息确定视力检测用户的测试眼睛的目标类型。
在本实现方式中,先根据第一鼻尖特征点的位置信息以及第一嘴角特征点的位置信息确定第一垂线的位置信息。然后再根据第一眼睛特征点的位置信息以及第一垂线的位置信息确定测试眼睛的目标类型。下面以图2为例,对根据第一鼻尖特征点的位置信息以及第一嘴角特征点的位置信息确定第一垂线的位置信息。然后再根据第一眼睛特征点的位置信息以及第一垂线的位置信息确定测试眼睛的目标类型的过程进行说明。
以第一人脸图像中的左下角的预设点为坐标原点建立坐标轴,得到各第一人脸特征点的位置信息。比如,第一眼睛特征点201的坐标为(x1,y1),第一鼻尖特征点202的坐标为(x2,y2),第一嘴角特征点203的坐标为(x3,y3)、(x4,y4)。得到各个特征点的位置信息后,过第一嘴角特征点203做第一直线,然后过第一鼻尖特征点202做第一直线的第一垂线x=x2。在得到第一垂线后,将第一眼睛特征点的横坐标x1与第一垂线的横坐标x2进行比较。如果x1小于x2,则判定测试的眼睛的目标类型为右侧,若如果x1大于x2,则判定测试的眼睛的目标类型为左侧。
在一些实施例中,本申请的技术方案还包括:获取第二人脸图像,第二人脸图像为视力检测用户手持遮眼器进行视力检测的人脸图像,遮眼器用于视力检测用户在视力检测时遮挡眼睛。识别第二人脸图像上的遮眼器,确定遮眼器的中心位置信息。提取第二人脸图像上的第二人脸特征点,得到各第二人脸特征点的位置信息。根据第二人脸特征点的位置信息以及遮眼器的中心位置信息确定眼睛的遮挡状态,遮挡状态包括正确遮挡状态以及不正确遮挡状态;若遮挡状态为所述不正确遮挡状态,则执行重新遮挡提示操作。
在本实施例中,第二人脸图像可以是本终端设备执行眼睛测试操作时通过摄像头采集的图像,也可以是其他终端设备执行眼睛测试操作时采集后的,然后发给本终端设备的图像。用户可根据实际需求选择第二人脸图像的来源,本申请对此不做具体限定。
本终端设备在获取到第二人脸图像后,即可识别第二人脸图像上的遮眼器,从而确定遮眼器的中心位置信息。接着,本终端设备提取第二人脸图像上的第二人脸特征点,得到各第二人脸特征点的位置信息。最后再根据第二人脸特征点的位置信息以及遮眼器的中心位置信息确定眼睛的遮挡状态。遮挡状态包括正确遮挡状态以及不正确遮挡状态,若遮挡状态为不正确遮挡状态,表明视力检测用户对眼睛的遮挡不正确,则本终端设备执行重新遮挡提示操作,从而提示用户重新遮挡。直至用户对眼睛的遮挡正确,再开始测试眼睛。
在一些实施例中,若视力检测用户对眼睛的遮挡不正确,本终端设备也可以对在遮挡不正确时得到的数据进行标记,然后在确定眼睛测试结果时去掉这些数据。因此,本申请通过对眼睛的遮挡状态进行判断,从而可以更加准确地判断眼睛的测试结果。
应理解,提取第二人脸特征点的方法可以包括:主动形状模型(Active ShapeModel,ASM)、主动表观模型(Active Appearance Model,AAM)、统计能量函数方法、回归分析方法以及深度学习方法等。用户对提取第二人脸特征点的方法可根据实际需求进行选择或设计,本申请在此不做具体限定。需要说明的是,提取第二人脸特征点的方法可以与提取第一人脸特征点的方法相同,也可以不相同。用户可根据实际情况进行选择或设计,本申请在此不做具体限定。
在一些可能实现的方式中,第二人脸特征点包括:第三眼睛特征点、第二鼻尖特征点以及第二嘴角特征点。相应地,根据第二人脸特征点的位置信息以及遮眼器的中心位置信息确定眼睛的遮挡状态,包括:过第二嘴角特征点做第二直线;过第二鼻尖特征点做第二直线的第二垂线;以第二垂线为对称轴,确定第三眼睛特征点关于对称轴对称的第四眼睛特征点,得到第四眼睛特征点的位置信息。根据第四眼睛特征点的位置信息以及遮眼器的中心位置信息确定眼睛的遮挡状态。
在本实现方式中,第二人脸特征点包括:第三眼睛特征点、第二鼻尖特征点以及第二嘴角特征点。先根据第三眼睛特征点的位置信息、第二鼻尖特征点的位置信息以及第二嘴角特征点的位置信息获取第四眼睛特征点的位置信息。然后再根据第四眼睛特征点的位置信息以及遮眼器的中心位置信息确定眼睛的遮挡状态。
下面,以图3为例,对确定眼睛的遮挡状态的具体过程如下:
以第二人脸图像中的左下角预设点为坐标原点建立坐标轴,得到各个第二人脸特征点的位置信息。比如,第三眼睛特征点301的坐标为(x6,y6),第二鼻尖特征点302的坐标为(x7,y7),第二嘴角特征点303的坐标为(x8,y8)、(x9,y9),遮眼器的中心点3051坐标为(x10,y10)(305为遮眼器)。得到各个第二人脸特征点的位置信息后,过第二嘴角特征点303做第二直线,然后过第二鼻尖特征点302做第二直线的第二垂线,在得到第二垂线后,以第二垂线为对称轴,求解眼睛特征点301关于该对称轴对称的第四眼睛特征点304,且第四眼睛特征点304的坐标为(x11,y11)。然后计算第四眼睛特征点304与遮眼器的中心点3051的欧式距离,如果该欧式距离小于预设阈值,则判定遮挡正确,如果该欧式距离大于预设阈值,则判定遮挡不正确。
在一些实施例中,本申请的技术方案还包括:获取初始视力检测值;根据初始视力检测值确定视力检测用户的目标类型的眼睛的目标视力检测值。
在本实施例中,初始视力检测值是终端设备执行视力检测操作后得到的视力检测值。需要说明的是,初始视力检测值可以是本终端设备执行视力检测操作后获取得到的。或者,也可以是其他终端设备执行视力检测操作后得到初始视力检测值,然后再把该初始视力检测值发送至本终端设备。或者,也可以是人工进行视力检测后,用户把初始视力检测值输入至本终端设备,本终端设备从而获取到初始视力检测值。用户可根据实际需求选择初始视力检测值的来源,本申请对此不做具体限定。
在获取到初始视力检测值之后,即可根据初始视力检测值确定视力检测用户的目标类型的眼睛的目标视力检测值。
在一些实施例中,获取初始视力检测值包括:检测视力检测指令,显示视标,获取视标反馈信息,基于视标反馈信息以及视标的信息确定初始视力检测值,视标反馈信息用于表示视力检测用户基于视标的开口朝向反馈的识别结果,视标的信息包括视标对应的开口朝向信息以及视标对应的视力值信息。
在本实施例中,当视力检测用户想要进行视力检测时,视力检测用户可以通过点击视力检测设备上的检测按钮,使得视力检测设备生成视力检测指令;或者,视力检测用户也可以通过发出语音的方式,使得视力检测设备生成视力检测指令。视力检测指令的生成方式可根据实际情况进行选择,本申请在此不做具体限定。视力检测设备在检测到视力检测指令后,显示视标。
在一些实施例中,在显示视标之前,根据预设方式获取视力检测用户的目标身份信息,目标身份信息与预设身份信息数据库中的身份信息进行匹配;若预设身份信息数据库中存在与目标身份信息匹配的身份信息,则显示视标。
在本实施例中,可以对视力检测用户进行身份验证。即将目标身份信息与预设身份信息数据库中的身份信息进行匹配,如果预设身份信息数据库中存在与目标身份信息匹配的身份信息,则验证通过,显示视标。
应理解,预设身份信息数据库中的身份信息,可以是通过用户的注册后生成,也可以是通过学校的管理员统一输入学生的身份信息后生成。预设身份信息数据库中的身份信息的生成方式可根据实际情况进行设置,本申请在此不做具体限定。
在又一些实施例中,若遮眼器设置在视力检测设备上,则当视力检测用户从视力检测设备上取遮眼器时,也需要对视力检测用户的身份进行验证。若身份验证通过,则视力检测用户可以取出遮眼器。在视力检测用户取出遮眼器后,当根据预设方式获取所述目标身份信息时,还可对视力检测用户再次进行身份验证,以便对视力检测用户的身份进行确认,防止取出遮眼器的用户的身份与视力检测用户的身份不一致。需要说明的是,前后身份验证的方式可以相同也可以不相同。用户可根据实际情况进行选择,本申请在此不做具体限定。
在另一些实施例中,获取目标身份信息对应的历史视力检测值,根据历史视力检测值确定待显示的视标的等级并显示等级对应的视标。
在本实施例中,待显示的视标指每个视力检测用户进行视力检测时显示的视标。在根据历史视力检测值确定待显示的视标的等级并显示等级对应的视标时,可以先根据历史视力检测值确定第一次显示的视标的等级。第一次显示的视标指视力检测用户刚开始进行视力检测时显示的视标。视标指预设的检测图形。视标的具体形状可以根据实际情况进行设置。比如,视标可以为国际标准视力表上的字母E,或者,视标也可以为兰式环形视力表上的呈C字形的环。在得到目标身份信息后,获取目标身份信息对应的历史视力检测值,然后根据历史视力检测值确定第一次显示的视标的等级并显示等级对应的视标。
在一些实施例中,如果目标身份信息没有对应的历史视力检测值,则根据预设等级确定第一次显示的视标的等级并显示等级对应的视标。
在本实施例中,如果目标身份信息没有对应的历史视力检测值,则根据预设等级确定第一次显示的视标的等级并显示等级对应的视标。
在又一些实施例中,在视力检测设备显示视标之前,视力检测设备还执行检测区域提示操作。由于当视力检测用户离终端设备的距离太近或者太远时,会影响视力检测的结果的准确性。因此,在视力检测设备显示视标之前,视力检测设备可以执行检测区域提示操作,以指示视力检测用户站到检测区域。
视力检测用户站到检测区域后,视力检测用户可以通过第一预设方式发送确认反馈信息给视力检测设备,告知视力检测设备视力检测用户已经站到检测区域。第一预设方式可以是视力检测用户点击遮眼器上的按钮,也可以是视力检测用户通过语音的方式反馈。发送确认反馈信息的第一预设方式可根据实际情况进行选择,本申请在此不做具体限定。或者,视力检测设备通过摄像头周期性地获取视力检测用户的图像,再通过该图像判断视力检测用户是否站在检测区域。当检测到视力检测用户站在检测区域时,显示视标。
在另一些实施例中,在视力检测设备显示视标之前,视力检测设备可以执行遮眼提示操作,以提示视力检测用户遮住眼睛。在一些可能实现的方式中,遮眼提示操作包括提示视力检测用户是遮住左眼还是遮住右眼。在另一些可能实现的方式中,遮眼提示操作可以只是提示视力检测用户遮住眼睛。
当视力检测设备显示视标后,视力检测用户识别显示的视标的开口朝向并通过第一预设方式向视力检测设备反馈视力检测用户对视标的开口朝向的识别结果。视力检测设备接收到视力检测用户对视标的开口朝向的识别结果后,根据视力检测用户对视标的开口朝向的识别结果获取视标反馈信息,然后再根据显示的视标的开口朝向信息判断视力检测用户对显示的视标的识别是否正确。比如,显示的视标开口朝上,判断视标反馈信息中对显示视标的判断结果是否也是朝上。如果视标反馈信息中对显示视标的判断结果也是朝上,则判定视力检测用户对显示的视标的判断正确,从而判定视力检测用户可以看清显示的视标。如果视力检测用户可以看清显示的视标,视力检测设备则显示上一个等级的视标。比如,视力检测用户可以看清的显示的视标对应的视力值为4.9,则显示视力值5.0对应的视标。
需要说明的是,为了更加准确地判断视力检测用户是否可以看清该等级的视标,可以让视力检测用户对同一个等级的多个视标进行判断,并累计正确判断的次数,若正确判断的次数等于第一阈值时,则判定视力检测用户可以看清该等级的视标。并且,为了更加准确地得到视力检测结果,设定只有当视力检测用户对该等级的视标的正确判断的次数等于第一阈值,同时对该等级的上一等级的视标的错误判断的次数等于第二阈值时,才输出目标视力检测值。比如,当视力检测用户正确判断视力4.8对应的视标的次数等于4,且同时错误判断视力4.9对应的视标的次数等于3,则输出视力为4.8的检测结果。应理解,第一阈值以及第二阈值可以是一个固定值,也可以是一个数值范围。用户可根据实际需要进行设定,本申请在此不做具体限定。
在一些可能实现的方式中,视力检测用户通过第一预设方式向视力检测设备反馈视力检测用户对视标的开口朝向的识别结果可以包括:视力检测用户通过遮眼器向视力检测设备发送视力检测用户对视标的开口朝向的识别结果。比如,在遮眼器上设置“上”“下”“左”“右”4个按键,当显示的视标的开口朝向向上时,视力检测用户通过点击“上”按键向终端设备发送视力检测用户对视标的开口朝向的识别结果,当显示的视标的开口朝向向左时,视力检测用户通过点击“左”按键向终端设备发送视力检测用户对视标的开口朝向的识别结果。
在另一些可能实现的方式中,视力检测用户通过第一预设方式向视力检测设备反馈视力检测用户对视标的开口朝向的识别结果可以包括:视力检测用户通过视力检测用户的手指的指向向视力检测设备发送视力检测用户对视标的开口朝向的识别结果。然后视力检测设备获取视力检测用户的手指的图像,再根据视力检测用户的手指的图像获取视标反馈信息。在检测过程中,视力检测用户使用手指指示视标的开口朝向,视力检测设备通过摄像头获取该手指图像并识别,得到手指指示的方向,从而得到视标反馈信息。视力检测用户对视标的开口朝向的识别结果的获取方式可根据实际需求进行设置,本申请在此不做具体限定。
需要说明的是,每次显示的视标的数量为1个,如果在预设时间内没有获取到视标反馈信息,则切换下一个视标。并且如果连续没有获取到视标反馈信息的视标的个数到达预设阈值,则停止检测。
在一些实施例中,在根据初始视力检测值确定视力检测用户的目标类型的眼睛的目标视力检测值之后,包括:获取目标身份信息对应的最近一次的视力检测值;计算目标视力检测值与最近一次的视力检测值的偏差值;若偏差值大于或等于预设偏差阈值,则执行重新检测提示操作。
在本实施例中,计算目标视力检测值与目标身份信息对应的最近一次的视力检测值的偏差值,若该偏差值大于或等于预设偏差阈值,说明视力检测用户的视力出现大幅度降低,可能视力检测出现错误。因此,视力检测设备执行重新检测提示操作,以提示视力检测用户重新进行视力检测。或者,当此次左眼的视力检测值是上次右眼的视力检测值,此次右眼的视力检测值是上次左眼的视力检测值,则说明此时视力检测可能出现错误。因此,此时,视力检测设备也可执行重新检测提示操作,以提示用户重新进行视力检测。需要说明的是,上述列举的触发执行重新检测提示操作的条件只是一个示例,在出现其他异常情况时,也可触发执行重新检测提示操作。
在又一些实例中,在得到目标视力检测值后,可以将该目标视力检测值直接进行显示,也可以将该目标视力检测值发送到服务器进行存储,以便后续可以根据该视力检测用户的检测数据进行分析并给出建议。需要说明的是,如果进行视力检测用户是学生,则还可以将该目标视力检测值发送给家长,以便家长实时了解学生的视力情况。
在另一些实施例中,本申请的技术方案还包括:识别视力检测用户的测试距离,并根据测试距离确定视力校正值,测试距离指视力检测用户在视力检测时与所述视标之间的距离;基于视标反馈信息以及视标的信息确定第一初始视力检测值;将第一初始视力检测值与视力校正值相加,得到初始视力检测值。
在视力检测中,一般要求视力检测用户站在标准位置进行检测。比如,标准国际视力表要求视力检测用户与视标之间的距离为5米处。然而,在实际检测中,视力检测用户很难都刚好站在离视标的5米处。而如果没有站在离终视标的5米处,会导致视力检测值存在误差。因此,本申请在确定目标视力检测值前,识别视力检测用户的测试距离,并根据测试距离确定视力校正值,然后基于视标反馈信息以及视标的信息确定初步视力检测值,最后将初步视力检测值与视力校正值相加,得到目标视力检测值,从而使得最后得到的目标视力检测值更加准确。在一些实施例中,可以根据以下公式计算校正值:
其中,e为校正值,L为视力检测用户的测试距离,m为标准距离。应理解,视力校正值的精度可以根据实际情况进行设置。例如,视力校正值的精度可以设置为0.1。
可以参考图4,图4展示了测试距离对应的视力校正值的一些示例,图4中测试距离的单位为:米。假设标准距离为5米,并采用上述视力校正值计算公式计算视力校正值,则当测试距离为1米时,视力校正值为-0.7;当测试距离为1.2米时,视力校正值为-0.6;当测试距离为1.5米时,视力校正值为-0.5;当测试距离为2米时,视力校正值为-0.4;当测试距离为2.5米时,视力校正值为-0.3;当测试距离为3米时,视力校正值为-0.2;当测试距离为4米时,视力校正值为-0.1;当测试距离为5米时,视力校正值为0;当测试距离为6.3米时,视力校正值为0.1;当测试距离为8米时,视力校正值为0.2;当测试距离为10米时,为0.3。
在一些可能实现的方式中,可以通过以下方式识别视力检测用户的测试距离:
L=Df/d
其中,L为视力检测用户的测试距离,f为摄像头焦距,D为参照物实际直径,d为参照物计算长度。
在本实现方式中,上述参照物为一圆形图标,并且该圆形图标上需有一定的图案,以便该圆形图标可以被识别。图5表示了一种圆形图标。应理解,图5表示的圆形图标只是一种示例,在实际的应用中,只要该圆形图标可以被识别即可作为参照物。在视力检测的过程中,该圆形图标可以附着在遮眼器上,也可以是附着在用户身上以及用户身上的其他东西上。用户可以根据实际需求对参照物的附着地进行选择,本申请在此不做具体限定。
下面,对参照物计算长度的计算过程进行说明。
先获取参照物图像,并识别该参照物图像,得到该参照物的外轮廓点。由于参照物为圆形图标,因此,参照物的外轮廓点组成的形状为圆形或椭圆形。当外轮廓点组成的形状为圆形时,计算任意第一线段的长度,该第一线段过圆形的圆心,且第一线段的两个端点均为所述外轮廓点。此时,第一线段的长度即为参照物计算长度。当外轮廓点组成的形状为椭圆形时,计算该椭圆的长轴上的两个端点的距离,此时,该距离即为参照物计算长度。
而计算第一线段的长度或计算椭圆的长轴上的两个端点的距离,可以根据外轮廓点的位置坐标进行计算,也可以根据圆形外轮廓点上任意两个轮廓点之间的像素数量s(椭圆的长轴上的两个端点之间的像素数量)、摄像头像素a×b,感光芯片宽度w(或高度h)计算,此时,参照物计算长度计算公式如下:
d=ws/a
或者,
d=hs/b
需要说明的是,如果是将初步视力检测值与视力校正值相加,得到目标视力检测值时,则在根据历史视力检测值确定待显示的视标的等级时,需要先把历史视力检测值减去历史视力检测值对应的校正值,然后得到第一视力检测值,再根据第一视力检测值获取第一次显示视标的等级。
综上所述,本申请提供一种方法,首先,获取第一人脸图像,第一人脸图像为视力检测用户进行视力检测的人脸图像。然后提取第一人脸图像上的第一人脸特征点,得到各第一人脸特征点的位置信息。得到各第一人脸特征点的位置信息后,根据第一人脸特征点的位置信息确定视力检测用户的测试眼睛的目标类型,目标类型为左侧或右侧中的一种。即在本申请的技术方案中,根据第一人脸特征点对测试眼睛的目标类型进行判断,可准确地得到测试眼睛的目标类型。因此,在对眼睛测试的过程中,即使用户没有根据提示进行操作,也可准确地得到眼睛的测试结果。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
实施例二
图6示出了一种左右眼识别装置的示例,为了便于说明,仅示出了与本申请实施例相关的部分。该装置600包括:
第一人脸图像获取模块601,用于获取第一人脸图像,第一人脸图像为视力检测用户进行视力检测的人脸图像。
第一人脸特征点提取模块602,用于提取第一人脸图像上的第一人脸特征点,得到各第一人脸特征点的位置信息。
测试眼睛的目标类型确定模块603,用于根据所述第一人脸特征点的位置信息确定视力检测用户的测试眼睛的目标类型,所述目标类型为左侧或右侧中的一种。
可选地,第一人脸特征点包括:
第一眼睛特征点、第一鼻尖特征点以及第一嘴角特征点。
相应地,测试眼睛的目标类型确定模块具体用于执行:
根据第一眼睛特征点的位置信息、第一鼻尖特征点的位置信息以及第一嘴角特征点的位置信息确定测试眼睛的目标类型。
可选地,测试眼睛的目标类型确定模块具体用于执行:
过第一嘴角特征点做第一直线。
过第一鼻尖特征点做第一直线的第一垂线。
以第一垂线为对称轴,确定第一眼睛特征点关于对称轴对称的第二眼睛特征点,得到第二眼睛特征点的位置信息。
根据第一眼睛特征点的位置信息以及第二眼睛特征点的位置信息确定视力检测用户的测试眼睛的目标类型。
可选地,测试眼睛的目标类型确定模块具体用于执行:
过第一嘴角特征点做第一直线。
过第一鼻尖特征点做第一直线的第一垂线,得到第一垂线的位置信息。
根据第一眼睛特征点的位置信息以及第一垂线的位置信息确定视力检测用户的测试眼睛的目标类型。
可选地,装置600还包括:
第二人脸图像获取模块,用于获取第二人脸图像,第二人脸图像为视力检测用户手持遮眼器进行视力检测的人脸图像,遮眼器用于视力检测用户在视力检测时遮挡眼睛。
识别模块,用于识别第二人脸图像上的遮眼器,确定遮眼器的中心位置信息。
第二人脸特征点提取模块,用于提取第二人脸图像上的第二人脸特征点,得到各第二人脸特征点的位置信息。
遮挡状态确定模块,用于根据第二人脸特征点的位置信息以及遮眼器的中心位置信息确定视力检测用户的测试眼睛的遮挡状态,遮挡状态包括正确遮挡状态以及不正确遮挡状态;若遮挡状态为不正确遮挡状态,则执行重新遮挡提示操作。
可选地,第二人脸特征点包括:
第三眼睛特征点、第二鼻尖特征点以及第二嘴角特征点。
相应地,遮挡状态确定模块具体用于执行:
过第二嘴角特征点做第二直线
过第二鼻尖特征点做第二直线的第二垂线;
以第二垂线为对称轴,确定第三眼睛特征点关于对称轴对称的第四眼睛特征点,得到第四眼睛特征点的位置信息。
根据第四眼睛特征点的位置信息以及遮眼器的中心位置信息确定眼睛的遮挡状态。
可选地,装置600还包括:
初始视力检测值获取模块,用于获取初始视力检测值。
目标视力检测值确定模块,用于根据初始视力检测值确定视力检测用户的目标类型的眼睛的目标视力检测值。
需要说明的是,上述装置/单元之间的信息交互、执行过程等内容,由于与本申请方法实施例一基于同一构思,其具体功能及带来的技术效果,具体可参见方法实施例一部分,此处不再赘述。
实施例三
图7是本申请实施例三提供的终端设备的示意图。如图7所示,该实施例的终端设备700包括:处理器701、存储器702以及存储在上述存储器702中并可在上述处理器701上运行的计算机程序703。上述处理器701执行上述计算机程序703时实现上述各个方法实施例中的步骤。或者,上述处理器701执行上述计算机程序703时实现上述各装置实施例中各模块/单元的功能。
示例性的,上述计算机程序703可以被分割成一个或多个模块/单元,上述一个或者多个模块/单元被存储在上述存储器702中,并由上述处理器701执行,以完成本申请。上述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述上述计算机程序703在上述终端设备700中的执行过程。例如,上述计算机程序703可以被分割成第一人脸图像获取模块、第一人脸特征点提取模块以及测试眼睛的目标类型确定模块,各模块具体功能如下:
获取第一人脸图像,所述第一人脸图像为所述视力检测用户进行视力检测的人脸图像;
提取所述第一人脸图像上的第一人脸特征点,得到各所述第一人脸特征点的位置信息;
根据所述第一人脸特征点的位置信息确定视力检测用户的测试眼睛的目标类型,所述目标类型为左侧或右侧中的一种。
上述终端设备可包括,但不仅限于,处理器701、存储器702。本领域技术人员可以理解,图7仅仅是终端设备700的示例,并不构成对终端设备700的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如上述终端设备还可以包括输入输出设备、网络接入设备、总线等。
所称处理器701可以是中央处理单元(Central Processing Unit,CPU),还可以是其它通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其它可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件插件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
上述存储器702可以是上述终端设备700的内部存储单元,例如终端设备700的硬盘或内存。上述存储器702也可以是上述终端设备700的外部存储设备,例如上述终端设备700上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(SecureDigital,SD)卡,闪存卡(Flash Card)等。进一步地,上述存储器702还可以既包括上述终端设备700的内部存储单元也包括外部存储设备。上述存储器702用于存储上述计算机程序以及上述终端设备所需的其它程序和数据。上述存储器702还可以用于暂时地存储已经输出或者将要输出的数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将上述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
在本申请所提供的实施例中,应该理解到,所揭露的装置/终端设备和方法,可以通过其它的方式实现。例如,以上所描述的装置/终端设备实施例仅仅是示意性的,例如,上述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或插件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
上述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
上述集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实现上述各个方法实施例中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,上述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,上述计算机程序包括计算机程序代码,上述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。上述计算机可读介质可以包括:能够携带上述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,上述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
以上上述实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。
Claims (10)
1.一种左右眼识别方法,其特征在于,包括:
获取第一人脸图像,所述第一人脸图像为视力检测用户进行视力检测的人脸图像;
提取所述第一人脸图像上的第一人脸特征点,得到各所述第一人脸特征点的位置信息;
根据所述第一人脸特征点的位置信息确定视力检测用户的测试眼睛的目标类型,所述目标类型为左侧或右侧中的一种。
2.如权利要求1所述的左右眼识别方法,其特征在于,所述第一人脸特征点包括:
第一眼睛特征点、第一鼻尖特征点以及第一嘴角特征点;
所述根据所述第一人脸特征点的位置信息确定视力检测用户的测试眼睛的目标类型,包括:
根据所述第一眼睛特征点的位置信息、所述第一鼻尖特征点的位置信息以及所述第一嘴角特征点的位置信息确定视力检测用户的测试眼睛的目标类型。
3.如权利要求2所述的左右眼识别方法,其特征在于,所述根据所述第一眼睛特征点的位置信息、所述第一鼻尖特征点的位置信息以及所述第一嘴角特征点的位置信息确定视力检测用户的测试眼睛的目标类型,包括:
过所述第一嘴角特征点做第一直线;
过所述第一鼻尖特征点做所述第一直线的第一垂线;
以所述第一垂线为对称轴,确定所述第一眼睛特征点关于所述对称轴对称的第二眼睛特征点,得到所述第二眼睛特征点的位置信息;
根据所述第一眼睛特征点的位置信息以及所述第二眼睛特征点的位置信息确定视力检测用户的测试眼睛的目标类型。
4.如权利要求2所述的左右眼识别方法,其特征在于,所述根据所述第一眼睛特征点的位置信息、所述第一鼻尖特征点的位置信息以及第一嘴角特征点的位置信息确定视力检测用户的测试眼睛的目标类型,包括:
过所述第一嘴角特征点做第一直线;
过所述第一鼻尖特征点做所述第一直线的第一垂线,得到所述第一垂线的位置信息;
根据所述第一眼睛特征点的位置信息以及所述第一垂线的位置信息确定视力检测用户的测试眼睛的目标类型。
5.如权利要求1所述的左右眼识别方法,其特征在于,还包括:
获取第二人脸图像,所述第二人脸图像为所述视力检测用户手持遮眼器进行视力检测的人脸图像,所述遮眼器用于所述视力检测用户在视力检测时遮挡眼睛;
识别所述第二人脸图像上的遮眼器,确定所述遮眼器的中心位置信息;
提取所述第二人脸图像上的第二人脸特征点,得到各所述第二人脸特征点的位置信息;
根据所述第二人脸特征点的位置信息以及所述遮眼器的中心位置信息确定视力检测用户的测试眼睛的遮挡状态,所述遮挡状态包括正确遮挡状态以及不正确遮挡状态;
若所述遮挡状态为所述不正确遮挡状态,则执行重新遮挡提示操作。
6.如权利要求5所述的左右眼识别方法,其特征在于,第二人脸特征点包括:
第三眼睛特征点、第二鼻尖特征点以及第二嘴角特征点;
所述根据所述第二人脸特征点的位置信息以及所述遮眼器的中心位置信息确定眼睛的遮挡状态,包括:
过所述第二嘴角特征点做第二直线;
过所述第二鼻尖特征点做所述第二直线的第二垂线;
以所述第二垂线为对称轴,确定所述第三眼睛特征点关于所述对称轴对称的第四眼睛特征点,得到所述第四眼睛特征点的位置信息;
根据所述第四眼睛特征点的位置信息以及所述遮眼器的中心位置信息确定眼睛的遮挡状态。
7.如权利要求1所述的左右眼识别方法,其特征在于,还包括:
获取初始视力检测值;
根据所述初始视力检测值确定所述视力检测用户的目标眼睛的目标视力检测值,所述目标眼睛为类型为所述目标类型的眼睛。
8.一种左右眼识别装置,包括:
第一人脸图像获取模块,用于获取第一人脸图像,第一人脸图像为所述视力检测用户进行视力检测的人脸图像;
第一人脸特征点提取模块,用于提取所述第一人脸图像上的第一人脸特征点,得到各所述第一人脸特征点的位置信息;
测试眼睛的目标类型确定模块,用于根据所述第一人脸特征点的位置信息确定视力检测用户的测试眼睛的目标类型,所述目标类型为左侧或右侧中的一种。
9.一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1-7任一项所述的方法。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1-7任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010585441.8A CN111723754A (zh) | 2020-06-24 | 2020-06-24 | 一种左右眼识别方法、识别装置、终端设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010585441.8A CN111723754A (zh) | 2020-06-24 | 2020-06-24 | 一种左右眼识别方法、识别装置、终端设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111723754A true CN111723754A (zh) | 2020-09-29 |
Family
ID=72568633
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010585441.8A Pending CN111723754A (zh) | 2020-06-24 | 2020-06-24 | 一种左右眼识别方法、识别装置、终端设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111723754A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112581426A (zh) * | 2020-11-06 | 2021-03-30 | 上海达适医疗科技有限公司 | 一种红外热成像图像的左右腿识别方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019232871A1 (zh) * | 2018-06-08 | 2019-12-12 | 平安科技(深圳)有限公司 | 眼镜虚拟佩戴方法、装置、计算机设备及存储介质 |
CN110909596A (zh) * | 2019-10-14 | 2020-03-24 | 广州视源电子科技股份有限公司 | 侧脸识别方法、装置、设备以及存储介质 |
-
2020
- 2020-06-24 CN CN202010585441.8A patent/CN111723754A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019232871A1 (zh) * | 2018-06-08 | 2019-12-12 | 平安科技(深圳)有限公司 | 眼镜虚拟佩戴方法、装置、计算机设备及存储介质 |
CN110909596A (zh) * | 2019-10-14 | 2020-03-24 | 广州视源电子科技股份有限公司 | 侧脸识别方法、装置、设备以及存储介质 |
Non-Patent Citations (1)
Title |
---|
胡迎春, 张增芳, 梁数: "一种人脸图像的匹配识别方法", 计算机工程与设计, no. 02 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112581426A (zh) * | 2020-11-06 | 2021-03-30 | 上海达适医疗科技有限公司 | 一种红外热成像图像的左右腿识别方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111803022A (zh) | 一种视力检测方法、检测装置、终端设备及可读存储介质 | |
JP6762380B2 (ja) | 身分認証方法および装置 | |
US11699302B2 (en) | Spoofing detection device, spoofing detection method, and recording medium | |
US9697415B2 (en) | Recording medium, image processing method, and information terminal | |
CN111414780B (zh) | 一种坐姿实时智能判别方法、系统、设备及存储介质 | |
EP3681371B1 (en) | Reliability of gaze tracking data for left and right eye | |
WO2020024416A1 (zh) | 智能终端的防偷窥方法、装置、计算机设备和存储介质 | |
CN111915667A (zh) | 一种视线识别方法、识别装置、终端设备及可读存储介质 | |
CN109711255A (zh) | 指纹采集方法及相关装置 | |
CN108090340B (zh) | 人脸识别处理方法、人脸识别处理装置及智能终端 | |
CN112101124B (zh) | 一种坐姿检测方法及装置 | |
CN110378244B (zh) | 异常姿态的检测方法和装置 | |
CN111803023A (zh) | 一种视力值校正方法、校正装置、终端设备及存储介质 | |
CN108198431A (zh) | 车辆停放检测设备 | |
CN109745014B (zh) | 温度测量方法及相关产品 | |
CN111539368A (zh) | 一种防疫检测信息一体化识别方法及装置 | |
JP6265592B2 (ja) | 顔特徴抽出装置および顔認証システム | |
CN112115886A (zh) | 图像检测方法和相关装置、设备、存储介质 | |
US8971592B2 (en) | Method for determining eye location on a frontal face digital image to validate the frontal face and determine points of reference | |
CN110135420A (zh) | 表盘状态识别方法及装置、可读存储介质和电子设备 | |
CN110908511B (zh) | 触发重新校正的方法及相关装置 | |
CN111723754A (zh) | 一种左右眼识别方法、识别装置、终端设备及存储介质 | |
US20210182584A1 (en) | Methods and systems for displaying a visual aid and enhancing user liveness detection | |
CN110189350B (zh) | 一种瞳孔边缘的确定方法、装置及存储介质 | |
CN106778172A (zh) | 一种身份认证方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |