CN110191234B - 一种基于注视点分析的智能终端解锁方法 - Google Patents

一种基于注视点分析的智能终端解锁方法 Download PDF

Info

Publication number
CN110191234B
CN110191234B CN201910544529.2A CN201910544529A CN110191234B CN 110191234 B CN110191234 B CN 110191234B CN 201910544529 A CN201910544529 A CN 201910544529A CN 110191234 B CN110191234 B CN 110191234B
Authority
CN
China
Prior art keywords
unlocking
user
screen
point
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910544529.2A
Other languages
English (en)
Other versions
CN110191234A (zh
Inventor
李骁
张东
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Sun Yat Sen University
Original Assignee
National Sun Yat Sen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Sun Yat Sen University filed Critical National Sun Yat Sen University
Priority to CN201910544529.2A priority Critical patent/CN110191234B/zh
Publication of CN110191234A publication Critical patent/CN110191234A/zh
Application granted granted Critical
Publication of CN110191234B publication Critical patent/CN110191234B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/66Substation equipment, e.g. for use by subscribers with means for preventing unauthorised or fraudulent calling
    • H04M1/667Preventing unauthorised calls from a telephone set
    • H04M1/67Preventing unauthorised calls from a telephone set by electronic means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/7243User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
    • H04M1/72439User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages for image or video messaging
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72454User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to context-related or environment-related conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72463User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions to restrict the functionality of the device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/52Details of telephonic subscriber devices including functional features of a camera

Abstract

本发明涉及智能终端屏幕解锁领域,更具体地,涉及一种基于注视点分析的智能终端解锁方法。移动智能终端在接收到解锁触发指令之后,打开摄像头获取人脸图像,终端通过卷积神经网络分析人眼注视的屏幕位置,把当前注视点轨迹与预留解锁信息进行比对,当两者相似度达到阈值时则进行解锁。由于人的注视点位置具有高度的保密性与可预测性,使用目光进行解锁能够有效的预防在解锁过程中解锁信息被盗取的情况,该方法可靠性强安全性高,有力保障了移动智能终端的信息安全。

Description

一种基于注视点分析的智能终端解锁方法
技术领域
本发明涉及智能终端屏幕解锁领域,更具体地,涉及一种基于注视点分析的智能终端解锁方法。
背景技术
目前保护手机隐私安全最常用的保护手段是身份验证,主流的身份验证解锁方法有PIN码解锁、九宫格图案解锁、指纹解锁、人脸识别解锁等。基于PIN码和九宫格图案解锁的方法不仅容易被他人察觉和记录,而且当手指有汗液或者油渍的情况下很容易解锁失败。指纹解锁是相对较为安全的解锁方式,但是在指尖有污垢的情况下,指纹解锁的可靠性会大大下降。人脸识别权限管理技术是通过分析面部生物特征进行权限管理的技术,智能终端可以通过面部生物特征比对进行身份确认。当用户面部生物特征信息与本地数据库信息相似度达到一定阈值,则认为当前用户具有获取权限的资格,否则认为该用户为非法用户。人脸识别权限管理技术方法目前已经被广泛的应用在手机屏幕解锁中,该方法虽然可靠性比较高,但是仍然存在安全漏洞;它不能解决长相非常相似的双胞胎能够互相解锁的问题,仍然存在一定的安全隐患。
发明内容
本发明为克服上述现有技术中手机解锁存在安全隐患的缺陷,提供一种基于注视点分析的智能终端解锁方法,利用基于卷积神经网络的预测方法对人眼注视点位置进行精确的预测,由于目光的高度保密性,有效提高了屏幕解锁的安全性。
为解决上述技术问题,本发明采用的技术方案是:一种基于注视点分析的智能终端解锁方法,包括以下步骤:
S1.终端设备收到解锁触发指令后,开启设备摄像头,获取当前人脸图像,用于分析人眼注视点位置;
S2.通过人脸特征标记算法标记出人脸的68个特征点位置,该68个特征点的位置数值作为卷积神经网络的输入;
S3.通过人脸的68个特征点坐标找到人眼所在图片中的位置,并把人眼部分截取下来作为卷积神经网络的输入;
S4.计算人脸所占图片中的面积,作为卷积神经网络的输入;通过人脸的面积计算出人脸至屏幕的距离;
S5.通过头部姿态估计方法,得到估计出头部姿态角roll、yaw、pitch,该数值也作为卷积神经网络的输入;
S6.根据以上步骤得到的人脸68个特征点矩阵、人眼图片、人脸面积以及头部姿态角,通过卷积神经网络模型预测出人眼观察的屏幕位置;
S7.解锁信号触发后,智能终端不断的分析人眼注视的屏幕位置,保存注视点的位置和时序,同时与移动设备预存的解锁信息进行比对;其相似度小于阈值时不做处理,相似度大于阈值时则进行解锁。
当前,基于卷积神经网络的预测方法已经能够对人眼注视点位置进行精确的预测。由于目光的高度保密性,人眼注视点轨迹应用于智能终端屏幕解锁领域,它兼顾了屏幕解锁的保密性、可靠性和可操作性,从而解决当前屏幕解锁办法中长期存在的问题。
本发明利用手机摄像头捕捉到人眼图像分析注视点位置,然后通过注视点的轨迹判断是否应该解锁。由于如果仅通过人眼外观,旁人很难知道到人眼注视的屏幕像素位置,因此方法具有高度的保密性和安全性。
作为优选的,对于部分手机前置摄像头已经具备深度检测功能,还可以通过终端设备的深度检测功能,利用深度数据直接计算人脸与屏幕的距离。
作为优选的,对于可以测量深度图的移动智能设备可以直接通过深度计算出头部姿态。
进一步的,用户目光离开屏幕超过1秒则认为用户放弃本次解锁,用户可以再次把目光转移到屏幕上,重新进行解锁。
进一步的,所述的S7步骤中,在进行预存解锁信息时,包括以下步骤:
S71.在注册界面,屏幕实时显示用户注视点的位置;
S72.屏幕中显示倒计时,提醒用户准备开始设置密码轨迹;
S73.保存用户实时注视点的轨迹作为解锁预留信息;当用户的注视点停留在同一个位置保持三秒以上,则认为用户完成了轨迹的设定;用户在计时开始时刻所注视的点的位置作为起始位置,用户目光最终停留的位置作为截至位置;整个过程中的注视点轨迹作为密码信息。
进一步的,在密码信息注册部分,用户还可以直接通过手指滑动设置轨迹,在解锁部分使用注视点进行解锁。
与现有技术相比,有益效果是:本发明提供的一种基于注视点分析的智能终端解锁方法,利用基于卷积神经网络的预测方法对人眼注视点位置进行精确的预测,由于人的注视点位置具有高度的保密性与可预测性,使用目光进行解锁能够有效的预防在解锁过程中解锁信息被盗取的情况,该方法可靠性强安全性高,有力保障了移动智能终端的信息安全。
附图说明
图1是本发明基于注视点估计的智能终端解锁方法的整体流程图。
图2是本发明图像预处理方法流程图。
图3是本发明注视点估计模型结构示意图。
图4是本发明以摄像头为原点的屏幕坐标系。
图5是本发明人脸标记特征点对照图。
具体实施方式
附图仅用于示例性说明,不能理解为对本发明的限制;为了更好说明本实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;对于本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。附图中描述位置关系仅用于示例性说明,不能理解为对本发明的限制。
如图1所示,一种基于注视点分析的智能终端解锁方法,包括以下步骤:
步骤1.终端接收到解锁触发指令后,打开摄像头不断获取视频流;
步骤2.利用注视点估计算法分析注视点位置;
步骤3.判断注视点是否位于屏幕上,若是,则记录注视点轨迹;若否,则认为用户放弃本次解锁,清除之前轨迹信息;
步骤4.注视点移动轨迹与本地解锁信息进行比对;
步骤5.若比对成功则进行解锁。
如上述步骤1所述,用户需要解锁时,可以通过按下终端的实体按键作为触发信号。进而进入终端的解锁界面,于此同时,摄像头会开始捕捉视频流,对图片依次进行处理。
如上述步骤2所述,在获取原始图片之后需要通过卷积神经网络估计注视点位置。为了保证注视点估计的精准性,首先要对图片进行预处理,其预处理流程如图2所示。其中预处理的内容主要包括:人脸特征点标记、人眼图片截取、头部姿态估计、头部与屏幕的距离估计。
人脸特征点对照图如图5所示,其中,0号至16号特征点为人脸轮廓,17号至21号特征点为左眼眉毛位置,22号至26号特征点为右眼眉毛位置,27号至30号特征点为鼻梁位置,31号至35号特征点为鼻孔位置,36号至41号特征点为左眼轮廓,42号至47号特征点为右眼轮廓,48号至67号特征点为嘴巴位置。人脸特征点标记方法可以利用主流的Dlib人脸特征标记库,或者是最新的FAN人脸特征点标记卷积神经网络。经过人脸特征点标记之后,每张图片对应着尺寸为(68,2)的矩阵P。该矩阵每一行的数据代表着每个特征点的位置,一共有68个特征点。数据第一列代表特征点在图片x轴的位置,数据第二列代表特征点在图片y轴的位置。
根据图5人脸特征点对照图,左眼位于第36至第41特征点,右眼位于42至第47特征点,通过索引矩阵P获得人眼的位置并截取人眼图片。由于距离屏幕的距离不同时,人眼图片的尺寸是不同的,在截取人眼图片后统一缩放到(64,48)尺寸。
在人眼图片缩放后还要对图片进行归一化处理,把RGB三通道数据归一化到均值为0的数据,进而提高模型的鲁棒性。
在头部姿态估计与头部和屏幕的距离估计中,可以选择使用RGB图像进行估计,对于带有深度摄像头的终端,优先使用深度信息进行估计。
当使用RGB图像估计屏幕与人脸的距离时,人脸与屏幕的距离可用通过计算人脸部分占的像素数目的方法体现,具体方式如下:
在检测到人脸特征点标记位置之后,首先粗略确定人脸区域R。然后把0号至26号特征点依次连接形成一个不规则多边形。判断区域R中的每一个像素是否在多边形内部,如在该多边形内部,则把计数值加1,最终得到人脸所占的像素数目。
在一些实施例中,也可以直接利用0-26号特征点像素坐标计算不规则多边形的面积,该面积也能体现人脸和屏幕的距离。
获得用户注视点位置之后,首先要判断用户是否注视屏幕位置。根据终端摄像头和屏幕的相对位置关系,以及预测到的摄像头坐标系下的人眼注视点位置,即可确定是否正注视屏幕位置。
为了方便理解,在这里进行举例说明:
如图4所示以摄像头为原点建立坐标系,在该坐标系下,手机屏幕左上角位置为(x1,y1),手机右下角的位置为(x2,y2),当前预测位置为(x0,y0)。当x1<x0<x2与y1<y0<y2同时满足则认为注视点位于屏幕上,否则认为用户视线离开了屏幕。
当检测到用户视线离开了屏幕,则认为用户放弃本次解锁操作,系统清除此前记录的注视点轨迹。
当用户视线重新回到屏幕,则认为用户开始一次新的解锁操作,此时则开始记录用户注视点的轨迹,并与预留解锁信息进行比对。
用户预留解锁信息与输入信息的相似度比对可以采用弗雷歇算法,假设输入信息的轨迹为P长度为N,预留密码信息轨迹为Q长度为M。两者运动位置可以用一个变量t的连续递增来描述,α(t)用于描述解锁信息的轨迹,β(t)用于描述输入信息的轨迹。为了方便讨论把变量t约束到[0,1],则:
α(0)=0,α(1)=N,β(0)=0,β(1)=M
P(α(t))与P(β(t))分别表示t时刻预留解锁信息与输入信息在各自轨迹上的空间位置。则两条曲线的相似性可以用弗雷歇距离表示,其相似度表示为:
Figure BDA0002103566090000051
上述公式理解为对于每一对描述函数α(t)与α(t),总能找到整个过程的最长距离。通过改变α(t)与β(t)使得最长距离达到最小,在这里使用欧拉距离进行描述。最终得到的弗雷歇距离则为两条曲线的相似度。
当注视点轨迹与预留信息相似度达到一定阈值,则对屏幕进行解锁,否则继续对注视点的轨迹进行分析和记录。当用户解锁失败次数过多则禁止该解锁方法,要求用户等待一定时间,或者要求使用其他方法进行解锁。
通过以上的实施方式的描述,本领域的技术人员可以清楚的了解到,上述方案可以通过软件加上必要的智能平台硬件实现。显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。

Claims (3)

1.一种基于注视点分析的智能终端解锁方法,其特征在于,包括以下步骤:
S1.终端设备收到解锁触发指令后,开启设备摄像头,获取当前人脸图像,用于分析人眼注视点位置;
S2. 通过人脸特征标记算法标记出人脸的68个特征点位置,该68个特征点的位置数值作为卷积神经网络的输入;
S3. 通过人脸的68个特征点坐标找到人眼所在图片中的位置,并把人眼部分截取下来作为卷积神经网络的输入;
S4. 计算人脸所占图片中的面积,作为卷积神经网络的输入;通过人脸的面积计算出人脸至屏幕的距离;另外,还可以通过终端设备的深度检测功能,利用深度数据直接计算人脸与屏幕的距离;
S5. 通过头部姿态估计方法,得到估计出头部姿态角roll、yaw、pitch,得到的头部姿态角roll、yaw、pitch的数值也作为卷积神经网络的输入;另外,还可以利用终端设备测量的深度图直接通过深度计算出头部姿态;
S6. 根据以上步骤得到的人脸68个特征点矩阵、人眼图片、人脸面积以及头部姿态角,通过卷积神经网络模型预测出人眼观察的屏幕位置;
S7. 解锁信号触发后,智能终端不断的分析人眼注视的屏幕位置,保存注视点的位置和时序,同时与移动设备预存的解锁信息进行比对;其相似度小于阈值时不做处理,相似度大于阈值时则进行解锁;在进行预存解锁信息时,包括以下步骤:
S71. 在注册界面,屏幕实时显示用户注视点的位置;
S72. 屏幕中显示倒计时,提醒用户准备开始设置密码轨迹;
S73. 保存用户实时注视点的轨迹作为解锁预留信息;当用户的注视点停留在同一个位置保持三秒以上,则认为用户完成了轨迹的设定;用户在计时开始时刻所注视的点的位置作为起始位置,用户目光最终停留的位置作为截至位置;整个过程中的注视点轨迹作为密码信息。
2.根据权利要求1所述的基于注视点分析的智能终端解锁方法,其特征在于,用户目光离开屏幕超过1秒则认为用户放弃本次解锁,用户可以再次把目光转移到屏幕上,重新进行解锁。
3.根据权利要求2所述的基于注视点分析的智能终端解锁方法,其特征在于,在密码信息注册部分,用户还可以直接通过手指滑动设置轨迹,在解锁部分使用注视点进行解锁。
CN201910544529.2A 2019-06-21 2019-06-21 一种基于注视点分析的智能终端解锁方法 Active CN110191234B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910544529.2A CN110191234B (zh) 2019-06-21 2019-06-21 一种基于注视点分析的智能终端解锁方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910544529.2A CN110191234B (zh) 2019-06-21 2019-06-21 一种基于注视点分析的智能终端解锁方法

Publications (2)

Publication Number Publication Date
CN110191234A CN110191234A (zh) 2019-08-30
CN110191234B true CN110191234B (zh) 2021-03-26

Family

ID=67722891

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910544529.2A Active CN110191234B (zh) 2019-06-21 2019-06-21 一种基于注视点分析的智能终端解锁方法

Country Status (1)

Country Link
CN (1) CN110191234B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110868327A (zh) * 2019-11-28 2020-03-06 武汉极意网络科技有限公司 行为验证控制方法、装置、设备及存储介质
CN112631432A (zh) * 2021-01-05 2021-04-09 Oppo广东移动通信有限公司 一种屏幕控制方法及穿戴式设备、存储介质
CN113903317B (zh) * 2021-10-19 2023-06-27 Oppo广东移动通信有限公司 电子设备的屏幕亮度调节方法、装置以及电子设备
CN117133043A (zh) * 2023-03-31 2023-11-28 荣耀终端有限公司 注视点估计方法、电子设备及计算机可读存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1423228A (zh) * 2002-10-17 2003-06-11 南开大学 识别人眼注视方向的装置和方法及其应用
CN102547123B (zh) * 2012-01-05 2014-02-26 天津师范大学 基于人脸识别技术的自适应视线跟踪系统及其跟踪方法
CN104951084A (zh) * 2015-07-30 2015-09-30 京东方科技集团股份有限公司 视线追踪方法及装置
CN107193383A (zh) * 2017-06-13 2017-09-22 华南师范大学 一种基于人脸朝向约束的二级视线追踪方法
CN108171218A (zh) * 2018-01-29 2018-06-15 深圳市唯特视科技有限公司 一种基于深度外观注视网络的视线估计方法
CN109313490A (zh) * 2016-06-28 2019-02-05 谷歌有限责任公司 使用神经网络的眼睛注视跟踪

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103699210A (zh) * 2012-09-27 2014-04-02 北京三星通信技术研究有限公司 移动终端及其操控方法
CN104123161B (zh) * 2014-07-25 2017-08-01 西安交通大学 一种利用人眼注视点的屏幕解锁和应用启动的方法
CN104158980B (zh) * 2014-08-28 2016-03-30 西安交通大学 一种基于人眼运动特征的智能设备解锁方法
CN105425968B (zh) * 2015-12-17 2018-12-21 无锡天脉聚源传媒科技有限公司 一种屏幕解锁方法及装置
CN109690553A (zh) * 2016-06-29 2019-04-26 醒眸行有限公司 执行眼睛注视跟踪的系统和方法
US11132543B2 (en) * 2016-12-28 2021-09-28 Nvidia Corporation Unconstrained appearance-based gaze estimation
CN107633196A (zh) * 2017-06-14 2018-01-26 电子科技大学 一种基于卷积神经网络的眼球移动预测方案
DE102018114799A1 (de) * 2017-06-20 2018-12-20 Nvidia Corporation Halbüberwachtes lernen zur orientierungspunktlokalisierung
US11042994B2 (en) * 2017-11-15 2021-06-22 Toyota Research Institute, Inc. Systems and methods for gaze tracking from arbitrary viewpoints
CN108171152A (zh) * 2017-12-26 2018-06-15 深圳大学 深度学习人眼视线估计方法、设备、系统及可读存储介质
CN109344693B (zh) * 2018-08-13 2021-10-26 华南理工大学 一种基于深度学习的人脸多区域融合表情识别方法
CN109407828A (zh) * 2018-09-11 2019-03-01 上海科技大学 一种凝视点估计方法及系统、存储介质及终端
CN109446892B (zh) * 2018-09-14 2023-03-24 杭州宇泛智能科技有限公司 基于深度神经网络的人眼注意力定位方法及系统
CN109508679B (zh) * 2018-11-19 2023-02-10 广东工业大学 实现眼球三维视线跟踪的方法、装置、设备及存储介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1423228A (zh) * 2002-10-17 2003-06-11 南开大学 识别人眼注视方向的装置和方法及其应用
CN102547123B (zh) * 2012-01-05 2014-02-26 天津师范大学 基于人脸识别技术的自适应视线跟踪系统及其跟踪方法
CN104951084A (zh) * 2015-07-30 2015-09-30 京东方科技集团股份有限公司 视线追踪方法及装置
CN109313490A (zh) * 2016-06-28 2019-02-05 谷歌有限责任公司 使用神经网络的眼睛注视跟踪
CN107193383A (zh) * 2017-06-13 2017-09-22 华南师范大学 一种基于人脸朝向约束的二级视线追踪方法
CN108171218A (zh) * 2018-01-29 2018-06-15 深圳市唯特视科技有限公司 一种基于深度外观注视网络的视线估计方法

Also Published As

Publication number Publication date
CN110191234A (zh) 2019-08-30

Similar Documents

Publication Publication Date Title
CN110191234B (zh) 一种基于注视点分析的智能终端解锁方法
KR102465532B1 (ko) 객체 인식 방법 및 장치
EP3308325B1 (en) Liveness detection method and device, and identity authentication method and device
Tian et al. KinWrite: Handwriting-Based Authentication Using Kinect.
KR100831122B1 (ko) 얼굴 인증 장치, 얼굴 인증 방법, 및 출입 관리 장치
US10127439B2 (en) Object recognition method and apparatus
US8515124B2 (en) Method and apparatus for determining fake image
US20150379332A1 (en) Face authentication device and face authentication method
CN105260726B (zh) 基于人脸姿态控制的交互式视频活体检测方法及其系统
JP6148064B2 (ja) 顔認証システム
JP2004213087A (ja) 個人認証装置および個人認証方法
KR101640014B1 (ko) 허위 안면 이미지 분류가 가능한 홍채 인식 장치
CN105138967B (zh) 基于人眼区域活动状态的活体检测方法和装置
Prakash et al. A biometric approach for continuous user authentication by fusing hard and soft traits.
JP4521086B2 (ja) 顔画像認識装置及び顔画像認識方法
US20220189212A1 (en) Authentication device, authentication method, and recording medium
US20240153316A1 (en) Image processing device, image processing method, and storage medium
JP4899552B2 (ja) 認証装置、認証方法、認証プログラム、これを記録したコンピュータ読み取り可能な記録媒体
US10872437B2 (en) Face authentication method
JP2006277146A (ja) 照合方法および照合装置
JP2012133411A (ja) 顔照合システム、顔照合装置及び顔照合方法
KR102518061B1 (ko) 얼굴 윤곽 추정을 통한 마스크 착용 여부 확인 방법 및 장치
KR101057718B1 (ko) 획득 영상의 사용자 식별 가능 여부 판정 방법
JP2017091276A (ja) 操作許可判定装置、操作許可判定システム、操作許可判定方法、及び操作許可判定用プログラム
KR100608307B1 (ko) 얼굴 인식 방법 및 시스템

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant