CN109993030A - 基于数据统计的注视点预测模型建立方法 - Google Patents

基于数据统计的注视点预测模型建立方法 Download PDF

Info

Publication number
CN109993030A
CN109993030A CN201711481771.7A CN201711481771A CN109993030A CN 109993030 A CN109993030 A CN 109993030A CN 201711481771 A CN201711481771 A CN 201711481771A CN 109993030 A CN109993030 A CN 109993030A
Authority
CN
China
Prior art keywords
detection model
blinkpunkt
user
face image
gaze point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201711481771.7A
Other languages
English (en)
Inventor
宫雅卓
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Irisian Photoelectric Technology Co Ltd
Original Assignee
Shanghai Irisian Photoelectric Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Irisian Photoelectric Technology Co Ltd filed Critical Shanghai Irisian Photoelectric Technology Co Ltd
Priority to CN201711481771.7A priority Critical patent/CN109993030A/zh
Publication of CN109993030A publication Critical patent/CN109993030A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Eye Examination Apparatus (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于数据统计的注视点检测模型建立方法,其包括以下步骤:提供一摄像头,用户在执行交互操作时,所述摄像头用以采集用户当前的脸部图像;提供一初始注视点检测模型,用户在执行交互操作时,所述初始注视点检测模型计算分析所述摄像头采集到的用户当前脸部图像,并得出用户当前的实际注视点;所述初始注视点检测模型判断该实际注视点是否与用户执行的交互操作相对应,若相对应则将采集到的脸部图像进行存储,形成脸部图像数据库,所述初始注视点检测模型根据该脸部图像数据库进行参数调整形成标准注视点检测模型,提高活体检测的准确度。

Description

基于数据统计的注视点预测模型建立方法
技术领域
本发明涉及活体检测技术领域,具体涉及一种基于数据统计的注视点预测模型建立方法。
背景技术
目前,计算机普遍通过验证码来进行活体检测,采用简单的验证码虽然用户体验好,但是活体检测质量低;采用复杂的验证码虽然活体检测质量高,但是用户体验却差了,即无法同时满足体验好、质量高的效果。
此外,计算机还采用指示用户执行特定动作的方法进行活体检测,如眨眼、头部转动等,但是此方法需要用户高度配合,十分不便。
现阶段,提出一种注视点对比的方法进行活体检测,即在执行交互操作时,对比用户估计注视点与基准注视点是否在误差范围内一致,但是此即需要建立一准确的计算模型来进行判断。
发明内容
本发明所要解决的技术问题是提供一种基于数据统计的注视点预测模型建立方法,快速、准确进行活体检测。
为实现上述技术效果,本发明公开了一种基于数据统计的注视点检测模型建立方法,其包括以下步骤:
提供一摄像头,用户在执行交互操作时,所述摄像头用以采集用户当前的脸部图像;
提供一初始注视点检测模型,用户在执行交互操作时,所述初始注视点检测模型计算分析所述摄像头采集到的用户当前脸部图像,并得出用户当前的估计注视点;
所述初始注视点检测模型判断该估计注视点是否与用户执行的交互操作相对应,若相对应则将采集到的脸部图像进行存储,形成脸部图像数据库,所述初始注视点检测模型根据该脸部图像数据库进行参数调整形成标准注视点检测模型。
本发明基于数据统计的注视点检测模型建立方法的改进在于,所述初始注视点检测模型与所述摄像头位置有关。
本发明基于数据统计的注视点检测模型建立方法的进一步改进在于,所述摄像头为计算机的前置摄像头,所述交互操作为鼠标点击、文本输入。
本发明基于数据统计的注视点检测模型建立方法的进一步改进在于,每个交互操作对应一组脸部图像数据库,即针对不同交互操作,初始注视点检测模型需要设置不同的调整参数。
本发明基于数据统计的注视点检测模型建立方法,采用数据统计的方法对初始注视点检测模型的参数进行调整,提高精准度,达到高质量活体检测的目的。
附图说明
图1为本发明基于数据统计的注视点检测模型建立方法的流程图。
具体实施方式
下面结合附图及具体实施方式对本发明作进一步详细的说明。
如图1所示,本发明基于数据统计的注视点检测模型建立方法包括以下步骤:
提供一摄像头,用户在执行交互操作时,所述摄像头用以采集用户当前的脸部图像。
提供一初始注视点检测模型,用户在执行交互操作时,所述初始注视点检测模型计算分析所述摄像头采集到的用户当前脸部图像,并得出用户当前的估计注视点;其中,所述初始注视点检测模型根据脸部图像中的脸部姿态,以及瞳孔间距确定的用户与摄像头的距离来计算得到用户的估计注视点。
所述初始注视点检测模型判断计算得出的估计注视点是否与用户执行的交互操作相对应,即执行交互操作时该用户具有一基准注视点,所述初始注视点检测模型判断估计注视点与基准注视点是否在误差范围内一致,若一致,则活体检测通过,将此脸部图像进行存储,形成脸部图像数据库,之后所述初始注视点检测模型根据脸部图像数据库进行参数调整形成标准注视点检测模型。进一步地,所述初始注视点检测模型与所述摄像头位置相关,即不同位置的摄像头需要设置不同的初始注视点检测模型。
进一步地,在本实施例中,是对计算机设备进行活体检测,从而所述摄像头为计算机的前置摄像头,所述交互操作包括鼠标点击、文本输入等。例如,用户需要进行关闭窗口等鼠标点击的交互操作时,所述计算机的前置摄像头采集用户关闭窗口时的当前脸部图像,所述初始注视点检测模型分析计算该当前脸部图像,得出用户执行关闭窗口的交互操作时的估计注视点。之后,所述初始注视点检测模型判断该估计注视点与用户执行关闭窗口交互操作时应当具备的基准注视点进行比对,若在误差范围内一致,则认为用户此次关闭窗口的交互操作为活体操作,同时将此次活体操作采集到的脸部图像进行存储,形成脸部图像数据库,以供初始注视点检测模型进行参数调整。
在本实施例中,以交互操作对应的点作为基准注视点,如关闭窗口的标识或者输入文本的位置等。
进一步地,由于不同交互操作对于用户来说有不同的注视习惯,例如,用户在关闭窗口即点击显示屏右上角的关闭标识时,其注视范围较大,而在进行文本输入时,其注视范围较小,因此,每个交互操作需对应一组脸部图像数据库,从而针对不同的交互操作,初始注视点检测模型需要进行不同的参数调整,形成标准注视点检测模型,即进行交互操作时,标准注视点检测模型调用与之相对应的参数进行注视点检测。
本发明基于数据统计的注视点检测模型建立方法,首先设置一初始注视点检测模型,再通过大量正确的脸部图像进行参数调整,形成较为准确的标准注视点检测模型。此方法根据大量正确的数据进行标准模型的建立,有效提高活体检测的精度。
以上结合附图及实施例对本发明进行了详细说明,本领域中普通技术人员可根据上述说明对本发明做出种种变化例。因而,实施例中的某些细节不应构成对本发明的限定,本发明将以所附权利要求书界定的范围作为本发明的保护范围。

Claims (4)

1.一种基于数据统计的注视点检测模型建立方法,其特征在于,包括以下步骤:
提供一摄像头,用户在执行交互操作时,所述摄像头用以采集用户当前的脸部图像;
提供一初始注视点检测模型,用户在执行交互操作时,所述初始注视点检测模型计算分析所述摄像头采集到的用户当前脸部图像,并得出用户当前的实际注视点;
所述初始注视点检测模型判断该实际注视点是否与用户执行的交互操作相对应,若相对应则将采集到的脸部图像进行存储,形成脸部图像数据库,所述初始注视点检测模型根据该脸部图像数据库进行参数调整形成标准注视点检测模型。
2.根据权利要求1所述的基于数据统计的注视点检测模型建立方法,其特征在于:所述初始注视点检测模型与所述摄像头位置有关。
3.根据权利要求1所述的基于数据统计的注视点检测模型建立方法,其特征在于:所述摄像头为计算机的前置摄像头,所述交互操作为鼠标点击、文本输入。
4.根据权利要求1所述的基于数据统计的注视点检测模型建立方法,其特征在于:每个交互操作对应一组脸部图像数据库。
CN201711481771.7A 2017-12-29 2017-12-29 基于数据统计的注视点预测模型建立方法 Pending CN109993030A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711481771.7A CN109993030A (zh) 2017-12-29 2017-12-29 基于数据统计的注视点预测模型建立方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711481771.7A CN109993030A (zh) 2017-12-29 2017-12-29 基于数据统计的注视点预测模型建立方法

Publications (1)

Publication Number Publication Date
CN109993030A true CN109993030A (zh) 2019-07-09

Family

ID=67109127

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711481771.7A Pending CN109993030A (zh) 2017-12-29 2017-12-29 基于数据统计的注视点预测模型建立方法

Country Status (1)

Country Link
CN (1) CN109993030A (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102473033A (zh) * 2009-09-29 2012-05-23 阿尔卡特朗讯 一种注视点检测方法及其装置
EP2930656A1 (en) * 2014-04-09 2015-10-14 Fujitsu Limited Eye gaze detection apparatus, eye gaze detection program and eye gaze detection method
CN106203372A (zh) * 2016-07-19 2016-12-07 奇酷互联网络科技(深圳)有限公司 基于眼睛的活体检测方法、装置和终端设备
CN107193383A (zh) * 2017-06-13 2017-09-22 华南师范大学 一种基于人脸朝向约束的二级视线追踪方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102473033A (zh) * 2009-09-29 2012-05-23 阿尔卡特朗讯 一种注视点检测方法及其装置
EP2930656A1 (en) * 2014-04-09 2015-10-14 Fujitsu Limited Eye gaze detection apparatus, eye gaze detection program and eye gaze detection method
CN106203372A (zh) * 2016-07-19 2016-12-07 奇酷互联网络科技(深圳)有限公司 基于眼睛的活体检测方法、装置和终端设备
CN107193383A (zh) * 2017-06-13 2017-09-22 华南师范大学 一种基于人脸朝向约束的二级视线追踪方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
龚秀锋等: "基于标记点检测的视线跟踪注视点估计", 《计算机工程》 *

Similar Documents

Publication Publication Date Title
KR102097190B1 (ko) 스마트 미러를 이용하여 실시간 운동 동작을 분석 및 디스플레이하기 위한 방법 및 이를 위한 스마트 미러
JP5525202B2 (ja) 動作分析装置、動作分析方法及び動作分析プログラム
US12013979B2 (en) Lightweight and low power cross reality device with high temporal resolution
CN106105184B (zh) 相机投影系统中的延时降低
US11763603B2 (en) Physical activity quantification and monitoring
US20180070864A1 (en) Methods and devices for assessing a captured motion
CN103733227B (zh) 三维对象建模拟合与跟踪
CN103677274B (zh) 一种基于主动视觉的互动投影方法及系统
CN109298786B (zh) 标注准确率评估方法及装置
JP2017208126A (ja) オブジェクト認識装置、分類ツリー学習装置及びその動作方法
CN107133607B (zh) 基于视频监控的人群统计方法及系统
US20220375126A1 (en) System, method and computer program product for determining sizes and/or 3d locations of objects imaged by a single camera
CA2741559A1 (en) A method system and associated modules and software components for providing image sensor based human machine interfacing
CN103383731A (zh) 一种基于指尖定位的投影交互方法、系统及计算设备
CN103109244A (zh) 用于物体跟踪和识别的方法和装置
CN109254662A (zh) 移动设备操作方法、装置、计算机设备及存储介质
CN103006178A (zh) 基于三维运动跟踪计算能量消耗的设备和方法
Ning Design and research of motion video image analysis system in sports training
CN106104418A (zh) 生成针对视频数据的轨迹数据
Barz et al. Computational modelling and prediction of gaze estimation error for head-mounted eye trackers
CN109993030A (zh) 基于数据统计的注视点预测模型建立方法
CN109711421A (zh) 一种数据处理方法和装置
Zhou et al. Image analysis system of intelligent smart home based on VR
CN110414402A (zh) 一种手势数据标注方法、装置、电子设备及存储介质
KR20100041170A (ko) 영상 추적 장치의 이동표적 움직임 추적 방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20190709