CN113128417A - 一种基于头部姿态的双区域眼动跟踪方法 - Google Patents

一种基于头部姿态的双区域眼动跟踪方法 Download PDF

Info

Publication number
CN113128417A
CN113128417A CN202110439185.6A CN202110439185A CN113128417A CN 113128417 A CN113128417 A CN 113128417A CN 202110439185 A CN202110439185 A CN 202110439185A CN 113128417 A CN113128417 A CN 113128417A
Authority
CN
China
Prior art keywords
user
head
eye
image
calibration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110439185.6A
Other languages
English (en)
Other versions
CN113128417B (zh
Inventor
段峰
王永晨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nankai University
Original Assignee
Nankai University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nankai University filed Critical Nankai University
Priority to CN202110439185.6A priority Critical patent/CN113128417B/zh
Publication of CN113128417A publication Critical patent/CN113128417A/zh
Application granted granted Critical
Publication of CN113128417B publication Critical patent/CN113128417B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/197Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Data Mining & Analysis (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Ophthalmology & Optometry (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明属于计算机视觉和眼动跟踪技术领域,更具体地,涉及一种基于头部姿态的双区域眼动跟踪方法。通过对用户头部姿态进行检测,快速识别出其视线朝向并更换眼动跟踪仪的标定参数,从而使屏幕式眼动仪快速有效地跟踪用户在“竖直”或“水平”方向的显示器上的注视点,从而可以获得用户在上述两个区域内的注视点坐标和视线轨迹。本发明的创新点在于,通过识别用户头部姿态进行检测,拓展了屏幕式眼动仪的跟踪区域。

Description

一种基于头部姿态的双区域眼动跟踪方法
技术领域
本发明属于计算机视觉和眼动跟踪技术领域,更具体地,涉及一种基于头部姿态的双区域眼动跟踪方法。
背景技术
眼动跟踪是一种新颖的人机交互方法,通过专业的眼动跟踪设备可以获取用户的瞳孔信息、注视点坐标以及用户的眼动行为数据。对上述眼动数据进行分析,既可以作为实时交互的控制信号实现人机交互的简单应用,也可以分析得到眼动数据中用户的感兴趣区域、分析用户的行为和心理。屏幕式眼动仪是一种常见的眼动跟踪设备,通过标定之后,它可以比较好地跟踪用户在电脑屏幕上的二维注视点,但它一般只能满足一块二维区域内的注视点跟踪需求。由于水平姿态的显示界面更加符合人的阅读和书写姿态,出现了一批使用水平或接近水平姿态屏幕的多媒体设备,如Puppy cube触控投影仪、微软SurfaceStudio,如果能够在有夹角的两个区域内实现无缝衔接的注视点跟踪,那么眼动跟踪技术将会为水平姿态显示器和投影仪等设备提供极具竞争优势的交互式人机体验。另外,在许多场合中,单一屏幕显示无法满足人们的需要,例如在证券交易所、商场监控部门、快餐厅的点取餐柜台都使用了多块显示屏幕。如果可以扩展眼动仪的跟踪范围,未来有助于实现基于用户注视点跟踪的多屏人机互动、特定信息展示等应用。因此本发明提出的一种兼顾水平区域和竖直区域的眼动跟踪方法具有一定的研究价值和应用前景。
发明内容
为此,本发明提出一种基于头部姿态的双区域眼动跟踪方法,该发明的内容是通过对用户头部姿态进行检测,快速识别出其视线朝向并更换眼动跟踪仪的标定参数,使屏幕式眼动仪快速有效地跟踪用户在“竖直”或“水平”方向的显示器上的注视点,从而可以获得用户在上述两个区域内的注视点坐标和视线轨迹。本发明的创新点在于,通过识别用户头部姿态进行检测,拓展了屏幕式眼动仪的跟踪区域。
为实现上述目的,本发明采用如下技术方案:
一种基于头部姿态的双区域眼动跟踪方法,包括以下步骤,
步骤S1,显示屏D1上显示标定点C1,C2,…,Cn,用户注视D1上标定点并进行眼动仪的标定,同时摄像头拍摄用户注视各个标定点时的面部图像,标定完成后,导出眼动仪的标定参数CP1
步骤S2,处理所述步骤S1中摄像头拍摄的图像,并识别出图像中用户的头部姿态角数据集X1
步骤S3,显示屏D2上显示标定点C1’,C2’,…,Cn’,用户注视D2上的标定点并进行眼动仪的标定,同时使用摄像头拍摄用户注视各个标定点时的面部图像,标定完成后,导出眼动仪的标定参数CP2
步骤S4,处理所述步骤S3中摄像头拍摄的图像,并识别出图像中用户的头部姿态角数据集X2
步骤S5,将步骤S2和步骤S4中头部姿态角数据集放入SVM模型中训练,得到视线朝向预测模型;
步骤S6,摄像头拍摄用户图像,识别头部姿态角并输入训练好的SVM模型,预测出用户的视线朝向,从而使用相应的标定参数,得到用户在相应屏幕上的注视点坐标。
本技术方案进一步的优化,所述显示屏D1和D2面向用户的夹角范围为[90°,180°]。
本技术方案进一步的优化,所述眼动仪的标定参数包括视线角度误差、左右眼角度误差、标定点像素坐标、标定的像素级误差等。
本技术方案进一步的优化,所述步骤S2和步骤S4中图像处理包括图像去噪、图像增强。
本技术方案进一步的优化,所述头部姿态角的识别方法如下:
步骤1,用人脸检测算法提取人脸图像,并进行关键特征点检测,特征点识别个数不少于七个;
步骤2,基于标准模型匹配的方法,将上述关键特征点与通用人脸模型进行对齐,得到图像中用户头部的旋转轴和旋转角度,构建用户头部的几何立体模型,并求解头部姿态角:θx为横滚角,θy为俯仰角,θz为偏航角;
步骤3,从上述人脸图像中提取双眼瞳孔位置坐标E1、E2,并计算出瞳孔到鼻尖点C距离的平均值d,将其添加到用户的头部姿态角数据集中,如果双眼瞳孔位置数据不完整,则应丢弃该组样本,
将上述样本特征整理成相同结构,整理后的特征结构如下:
X=[θx θy θz d]T
本技术方案进一步的优化,所述步骤S2和步骤S4中,用户的头部姿态角数据集中的样本特征向量X结构如上所述,样本标签为用户注视朝向的类别,用-1和1表示。下面所述SVM模型的输入为X,输出为预测类别y。
本技术方案进一步的优化,所述SVM模型为:
Figure BDA0003034346190000021
SVM模型的优化目标为:
Figure BDA0003034346190000031
s.t.y(i)(wTx(i)+b)≥1-ξi,i=1,...,m
ξi≥0,i=1,...,m
其中,f(x)是为样本分类的表达式,y为预测的样本类别,ξi为松弛变量,C为惩罚因子。
本技术方案更进一步的优化,所述SVM模型引入拉格朗日乘子α、β,将最优化问题转化为对偶问题:
Figure BDA0003034346190000032
对上式求导并带入结果可得:
Figure BDA0003034346190000033
s.t.0≤αi≤C,i=1,...,m
Figure BDA0003034346190000034
该对偶问题需要满足的KKT条件是:
Figure BDA0003034346190000035
本技术方案更进一步的优化,所述αi、αj的更新如下:首先计算αi、αj的边界值,设H为上限值,L为下限值,计算方式如下:
Figure BDA0003034346190000036
Figure BDA0003034346190000037
设Ek=f(x(k))-y(k),η=2<x(i),x(j)>-<x(i),x(i)>-<x(j),x(j)>
Figure BDA0003034346190000038
则更新后的αi、αj分别为:
Figure BDA0003034346190000041
α'i=αi+y(i)y(j)j-α'j)
所述w由以下公式求出:
Figure BDA0003034346190000042
本技术方案更进一步的优化,所述b更新,
设b1=b-Ei-y(i)(α'ii)<x(i),x(i)>-y(j)(α'jj)<x(i),x(j)>
b2=b-Ej-y(i)(α'ii)<x(i),x(j)>-y(j)(α'jj)<x(j),x(j)>
则更新后的b为:
Figure BDA0003034346190000043
区别于现有技术,上述技术方案具有如下有益效果:
本发明通过引入用户的头部姿态参数,区分出用户注视不同的区域,从而扩展了屏幕式眼动跟踪仪的识别范围,可以根据用户需要实现双区域内的注视点跟踪和眼动信号相应,进一步可以用于基于眼动信号的虚拟键盘输入、多屏幕互动等应用场景。
附图说明
图1是本发明的基于头部姿态的双区域眼动跟踪的系统结构图;
图2是本发明的基于头部姿态的双区域眼动跟踪的逻辑框图;
图3是人脸关键点检测图;
图4是用户注视显示屏D1的效果图;
图5是用户注视显示屏D2的效果图。
具体实施方式
为详细说明技术方案的技术内容、构造特征、所实现目的及效果,以下结合具体实施例并配合附图详予说明。
本发明提出了一种基于头部姿态的双区域眼动跟踪方法,如图1所示,为基于头部姿态的双区域眼动跟踪的系统结构图,是本发明优选一实施例的系统硬件组成。在该具体实施例中,眼动仪使用TheEyeTribe ET1000屏幕式眼动仪,摄像头使用逻辑C270摄像头。
参阅图2所示,为基于头部姿态的双区域眼动跟踪的逻辑框图。基于头部姿态的双区域眼动跟踪方法,包括如下步骤:
步骤S1,显示屏D1上显示标定点C1,C2,…,C9,用户注视D1上标定点并进行眼动仪的标定,同时摄像头拍摄用户注视各个标定点时的面部图像。标定完成后,使用眼动仪开发人员工具软件导出眼动仪的标定参数CP1
步骤S2,处理所述步骤S1图像序列中的每一帧图像,识别出图像中用户的头部姿态角数据集X1,并标记为第1类。
步骤S3,显示屏D2上显示标定点C1’,C2’,…,C9’,用户注视D2上的标定点并进行眼动仪的标定,同时使用摄像头拍摄用户注视各个标定点时的面部图像。使用眼动仪开发人员工具软件导出眼动仪的标定参数CP2
步骤S4,处理所述步骤S3图像序列中的每一帧图像,识别出图像中用户的头部姿态角数据集X2,并标记为第2类。
在保证眼动仪能够正常检测到用户眼部数据的前提下,步骤S1和步骤S3中的两显示屏D1和D2面向用户的夹角范围为[90°,180°]。步骤S1和步骤S3中,眼动仪的标定参数通过眼动仪开发人员工具软件导出,包括但不限于视线角度误差、左右眼角度误差、标定点像素坐标、标定的像素级误差。
步骤S2和步骤S4中,对用户图像进行图像去噪、图像增强等必要的预处理工作,为人脸图像提取和关键特征点检测提供前期准备。
步骤S2和步骤S4中,根据如下方法识别图像中用户的头部姿态角:
步骤1,用人脸检测算法提取人脸图像,并进行关键特征点检测,特征点识别个数不少于七个。如图3所示,为人脸关键点检测图,待匹配的关键特征点分别为眼角点A1、A2、A3、A4,嘴角特征点B1、B2和鼻尖点C。
步骤2,基于标准模型匹配的方法,将上述关键特征点与通用人脸模型进行对齐,可以快速得到图像中用户头部的旋转轴和旋转角度,构建用户头部的几何立体模型,并求解头部姿态角:
在上述几何立体模型的坐标系中,通过基于标准模型匹配的方法可以得到当前图像中用户头部的旋转轴和旋转角度,该旋转轴可用一个起点位于坐标系原点的单位向量进行表示。设用户头部绕旋转轴A(αxyz)旋转的角度为β,建立四元数公式如下:
Figure BDA0003034346190000061
Figure BDA0003034346190000062
Figure BDA0003034346190000063
Figure BDA0003034346190000064
其中,w、x、y、z为四元数。
用户头部姿态角可以表示为:
θx=atan2(2(wz+xy),1-2(y2+z2))
θy=arcsin(2(wz-zx))
θz=atan2(2(wx+yz),1-2(x2+y2))
其中,θx为横滚角,θy为俯仰角,θz为偏航角。
步骤3,为增强SVM模型对于视线朝向预测的准确性,从上述人脸图像中提取双眼瞳孔位置坐标E1、E2,并计算出瞳孔到鼻尖点C距离的平均值d,将其添加到用户的头部姿态角数据集中。如果双眼瞳孔位置数据不能完整得到,例如用户闭眼或者因用户转头导致眼睛被部分遮挡等情况,则应丢弃该组样本。
将上述样本特征整理成相同结构,以供训练使用,整理后的特征结构如下:
X=[θx θy θz d]T
步骤S2和步骤S4中,用户的头部姿态角数据集中的样本特征向量X结构如上所述,样本标签为用户注视朝向的类别,用-1和1表示。下面所述SVM模型的输入为X,输出为预测类别y。
步骤S5,将头部姿态角数据集放入SVM模型中训练,得到视线朝向预测模型。
步骤S5中,使用上述头部姿态角数据集训练SVM模型,输出结果为用户当前视线朝向的类别,并保存训练后的模型数据。
SVM模型为:
Figure BDA0003034346190000071
模型的优化目标为:
Figure BDA0003034346190000072
s.t.y(i)(wTx(i)+b)≥1-ξi,i=1,...,m
ξi≥0,i=1,...,m
其中,f(x)是为样本分类的表达式,y为预测的样本类别,ξi为松弛变量,C为惩罚因子。引入松弛变量和惩罚因子可以提高SVM模型对于离群样本的包容程度,从而提高模型的泛化能力。
考虑约束条件,引入拉格朗日乘子α、β,将最优化问题转化为对偶问题:
Figure BDA0003034346190000073
对上式求导并带入结果可得:
Figure BDA0003034346190000074
s.t.0≤αi≤C,i=1,...,m
Figure BDA0003034346190000075
该对偶问题需要满足的KKT条件是:
Figure BDA0003034346190000076
Figure BDA0003034346190000077
Figure BDA0003034346190000078
通过以下公式更新αi、αj
首先计算αi、αj的边界值。设H为上限值,L为下限值,计算方式如下:
Figure BDA0003034346190000079
Figure BDA00030343461900000710
设Ek=f(x(k))-y(k),η=2<x(i),x(j)>-<x(i),x(i)>-<x(j),x(j)>
Figure BDA0003034346190000081
则更新后的αi、αj分别为:
Figure BDA0003034346190000082
α'i=αi+y(i)y(j)j-α'j)
所述w由以下公式求出:
Figure BDA0003034346190000083
通过以下公式更新b:
设b1=b-Ei-y(i)(α'ii)<x(i),x(i)>-y(j)(α'jj)<x(i),x(j)>
b2=b-Ej-y(i)(α'ii)<x(i),x(j)>-y(j)(α'jj)<x(j),x(j)>
则更新后的b为:
Figure BDA0003034346190000084
步骤S6,摄像头拍摄用户图像,识别头部姿态角并输入训练好的SVM模型,预测出用户的视线朝向,从而使用相应的标定参数,得到用户在相应屏幕上的注视点坐标。
SVM模型训练完成后,立即用于识别用户的视线朝向,标志着本系统的准备工作完成。用户使用时,如图4和图5所示,分别为用户注视显示屏D1的效果图和用户注视显示屏D2的效果图。首先摄像头拍摄用户脸部图像,对用户图像进行预处理工作,然后采用步骤1至步骤3,计算出用户的头部姿态角数据并放入训练好的SVM模型中,从而得到用户视线朝向分类。对比当前帧与上一帧的用户视线朝向分类,如果类别相同则直接给出注视点坐标;如果类别不同,则使用当前视线朝向类别对应的眼动仪标定参数,即可得到用户在当前区域的注视点坐标。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者终端设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者终端设备所固有的要素。在没有更多限制的情况下,由语句“包括……”或“包含……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者终端设备中还存在另外的要素。此外,在本文中,“大于”、“小于”、“超过”等理解为不包括本数;“以上”、“以下”、“以内”等理解为包括本数。
尽管已经对上述各实施例进行了描述,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例做出另外的变更和修改,所以以上所述仅为本发明的实施例,并非因此限制本发明的专利保护范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围之内。

Claims (9)

1.一种基于头部姿态的双区域眼动跟踪方法,其特征在于,包括以下步骤,
步骤S1,显示屏D1上显示标定点C1,C2,…,Cn,用户注视D1上标定点并进行眼动仪的标定,同时摄像头拍摄用户注视各个标定点时的面部图像,标定完成后,导出眼动仪的标定参数CP1
步骤S2,处理所述步骤S1中摄像头拍摄的图像,并识别出图像中用户的头部姿态角数据集X1
步骤S3,显示屏D2上显示标定点C1’,C2’,…,Cn’,用户注视D2上的标定点并进行眼动仪的标定,同时使用摄像头拍摄用户注视各个标定点时的面部图像,标定完成后,导出眼动仪的标定参数CP2
步骤S4,处理所述步骤S3中摄像头拍摄的图像,并识别出图像中用户的头部姿态角数据集X2
步骤S5,将步骤S2和步骤S4中头部姿态角数据集放入SVM模型中训练,得到视线朝向预测模型;
步骤S6,摄像头拍摄用户图像,识别头部姿态角并输入训练好的SVM模型,预测出用户的视线朝向,从而使用相应的标定参数,得到用户在相应屏幕上的注视点坐标。
2.如权利要求1所述的基于头部姿态的双区域眼动跟踪方法,其特征在于,所述显示屏D1和D2面向用户的夹角范围为[90°,180°]。
3.如权利要求1所述的基于头部姿态的双区域眼动跟踪方法,其特征在于,所述眼动仪的标定参数包括视线角度误差、左右眼角度误差、标定点像素坐标、标定的像素级误差等。
4.如权利要求1所述的基于头部姿态的双区域眼动跟踪方法,其特征在于,所述步骤S2和步骤S4中图像处理包括图像去噪、图像增强。
5.如权利要求1所述的基于头部姿态的双区域眼动跟踪方法,其特征在于,所述头部姿态角的识别方法如下:
步骤1,用人脸检测算法提取人脸图像,并进行关键特征点检测,特征点识别个数不少于七个;
步骤2,基于标准模型匹配的方法,将上述关键特征点与通用人脸模型进行对齐,得到图像中用户头部的旋转轴和旋转角度,构建用户头部的几何立体模型,并求解头部姿态角:θx为横滚角,θy为俯仰角,θz为偏航角;
步骤3,从上述人脸图像中提取双眼瞳孔位置坐标E1、E2,并计算出瞳孔到鼻尖点C距离的平均值d,将其添加到用户的头部姿态角数据集中,如果双眼瞳孔位置数据不完整,则应丢弃该组样本,
将上述样本特征整理成相同结构,整理后的特征结构如下:
X=[θx θy θz d]T
6.如权利要求1所述的基于头部姿态的双区域眼动跟踪方法,其特征在于,所述SVM模型为:
f(x)=wTx+b,
Figure FDA0003034346180000011
SVM模型的优化目标为:
Figure FDA0003034346180000021
s.t.y(i)(wTx(i)+b)≥1-ξi,i=1,...,m
ξi≥0,i=1,...,m
其中,f(x)是为样本分类的表达式,y为预测的样本类别,ξi为松弛变量,C为惩罚因子。
7.如权利要求6所述的基于头部姿态的双区域眼动跟踪方法,其特征在于,所述SVM模型引入拉格朗日乘子α、β,将最优化问题转化为对偶问题:
Figure FDA0003034346180000022
对上式求导并带入结果可得:
Figure FDA0003034346180000023
s.t.0≤αi≤C,i=1,...,m
Figure FDA0003034346180000024
该对偶问题需要满足的KKT条件是:
Figure FDA0003034346180000025
8.如权利要求7所述的基于头部姿态的双区域眼动跟踪方法,其特征在于,所述αi、αj的更新如下,:首先计算αi、αj的边界值,设H为上限值,L为下限值,计算方式如下:
Figure FDA0003034346180000026
Figure FDA0003034346180000027
设Ek=f(x(k))-y(k),η=2<x(i),x(j)>-<x(i),x(i)>-<x(j),x(j)>
Figure FDA0003034346180000028
则更新后的αi、αj分别为:
Figure FDA0003034346180000031
α'i=αi+y(i)y(j)j-α'j)
所述w由以下公式求出:
Figure FDA0003034346180000032
9.如权利要求7所述的基于头部姿态的双区域眼动跟踪方法,其特征在于,所述b更新,设b1=b-Ei-y(i)(α'ii)<x(i),x(i)>-y(j)(α'jj)<x(i),x(j)>
b2=b-Ej-y(i)(α'ii)<x(i),x(j)>-y(j)(α'jj)<x(j),x(j)>
则更新后的b为:
Figure FDA0003034346180000033
CN202110439185.6A 2021-04-23 2021-04-23 一种基于头部姿态的双区域眼动跟踪方法 Active CN113128417B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110439185.6A CN113128417B (zh) 2021-04-23 2021-04-23 一种基于头部姿态的双区域眼动跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110439185.6A CN113128417B (zh) 2021-04-23 2021-04-23 一种基于头部姿态的双区域眼动跟踪方法

Publications (2)

Publication Number Publication Date
CN113128417A true CN113128417A (zh) 2021-07-16
CN113128417B CN113128417B (zh) 2023-04-07

Family

ID=76779273

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110439185.6A Active CN113128417B (zh) 2021-04-23 2021-04-23 一种基于头部姿态的双区域眼动跟踪方法

Country Status (1)

Country Link
CN (1) CN113128417B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116077060A (zh) * 2023-02-03 2023-05-09 上海耐欣科技有限公司 一种显示设备、评估系统和评估方法
CN116704572A (zh) * 2022-12-30 2023-09-05 荣耀终端有限公司 一种基于深度摄像头的眼动追踪方法和装置

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107193383A (zh) * 2017-06-13 2017-09-22 华南师范大学 一种基于人脸朝向约束的二级视线追踪方法
CN108968907A (zh) * 2018-07-05 2018-12-11 四川大学 眼动数据的校正方法及装置
CN109271914A (zh) * 2018-09-07 2019-01-25 百度在线网络技术(北京)有限公司 检测视线落点的方法、装置、存储介质和终端设备
CN109977757A (zh) * 2019-01-28 2019-07-05 电子科技大学 一种基于混合深度回归网络的多模态的头部姿态估计方法
CN110495895A (zh) * 2019-08-26 2019-11-26 重庆大学 一种基于眼动跟踪的疲劳检测方法与系统
CN110605714A (zh) * 2019-08-06 2019-12-24 华中科技大学 一种基于人眼凝视点的手眼协调抓取方法
CN111046744A (zh) * 2019-11-21 2020-04-21 深圳云天励飞技术有限公司 一种关注区域检测方法、装置、可读存储介质及终端设备
CN111427451A (zh) * 2020-03-25 2020-07-17 中国人民解放军海军特色医学中心 采用扫描仪与眼动仪确定注视点在三维场景中位置的方法
CN111539333A (zh) * 2020-04-24 2020-08-14 湖北亿咖通科技有限公司 驾驶员的注视区域识别及分心检测方法
CN111898552A (zh) * 2020-07-31 2020-11-06 成都新潮传媒集团有限公司 一种判别人员关注目标物的方法、装置及计算机设备
CN112101064A (zh) * 2019-06-17 2020-12-18 北京七鑫易维科技有限公司 一种视线追踪方法、装置、设备及存储介质
CN112381875A (zh) * 2020-11-16 2021-02-19 吉林大学 一种头戴式眼动仪注视点像素坐标系同一化方法
US20210093192A1 (en) * 2019-09-27 2021-04-01 Alcon Inc. Instant eye gaze calibration systems and methods

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107193383A (zh) * 2017-06-13 2017-09-22 华南师范大学 一种基于人脸朝向约束的二级视线追踪方法
CN108968907A (zh) * 2018-07-05 2018-12-11 四川大学 眼动数据的校正方法及装置
CN109271914A (zh) * 2018-09-07 2019-01-25 百度在线网络技术(北京)有限公司 检测视线落点的方法、装置、存储介质和终端设备
CN109977757A (zh) * 2019-01-28 2019-07-05 电子科技大学 一种基于混合深度回归网络的多模态的头部姿态估计方法
CN112101064A (zh) * 2019-06-17 2020-12-18 北京七鑫易维科技有限公司 一种视线追踪方法、装置、设备及存储介质
CN110605714A (zh) * 2019-08-06 2019-12-24 华中科技大学 一种基于人眼凝视点的手眼协调抓取方法
CN110495895A (zh) * 2019-08-26 2019-11-26 重庆大学 一种基于眼动跟踪的疲劳检测方法与系统
US20210093192A1 (en) * 2019-09-27 2021-04-01 Alcon Inc. Instant eye gaze calibration systems and methods
CN111046744A (zh) * 2019-11-21 2020-04-21 深圳云天励飞技术有限公司 一种关注区域检测方法、装置、可读存储介质及终端设备
CN111427451A (zh) * 2020-03-25 2020-07-17 中国人民解放军海军特色医学中心 采用扫描仪与眼动仪确定注视点在三维场景中位置的方法
CN111539333A (zh) * 2020-04-24 2020-08-14 湖北亿咖通科技有限公司 驾驶员的注视区域识别及分心检测方法
CN111898552A (zh) * 2020-07-31 2020-11-06 成都新潮传媒集团有限公司 一种判别人员关注目标物的方法、装置及计算机设备
CN112381875A (zh) * 2020-11-16 2021-02-19 吉林大学 一种头戴式眼动仪注视点像素坐标系同一化方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
DIVYA VENUGOPAL等: ""Developing an application using eye tracker"", 《2016 IEEE INTERNATIONAL CONFERENCE ON RECENT TRENDS IN ELECTRONICS》 *
赵昕晨等: ""基于头部姿态分析的摄像头视线追踪系统优化"", 《计算机应用》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116704572A (zh) * 2022-12-30 2023-09-05 荣耀终端有限公司 一种基于深度摄像头的眼动追踪方法和装置
CN116704572B (zh) * 2022-12-30 2024-05-28 荣耀终端有限公司 一种基于深度摄像头的眼动追踪方法和装置
CN116077060A (zh) * 2023-02-03 2023-05-09 上海耐欣科技有限公司 一种显示设备、评估系统和评估方法
CN116077060B (zh) * 2023-02-03 2024-01-16 上海耐欣科技有限公司 一种显示设备、评估系统和评估方法

Also Published As

Publication number Publication date
CN113128417B (zh) 2023-04-07

Similar Documents

Publication Publication Date Title
Zhang et al. Mpiigaze: Real-world dataset and deep appearance-based gaze estimation
Akinyelu et al. Convolutional neural network-based methods for eye gaze estimation: A survey
US8094881B2 (en) Action recognition apparatus and method, moving-object recognition apparatus and method, device control apparatus and method, and program
US20130190089A1 (en) System and method for execution a game process
Lu et al. Appearance-based gaze estimation via uncalibrated gaze pattern recovery
CN109375765B (zh) 眼球追踪交互方法和装置
CN113128417B (zh) 一种基于头部姿态的双区域眼动跟踪方法
US9013591B2 (en) Method and system of determing user engagement and sentiment with learned models and user-facing camera images
CN110780739A (zh) 基于注视点估计的眼控辅助输入方法
González-Ortega et al. Real-time hands, face and facial features detection and tracking: Application to cognitive rehabilitation tests monitoring
Cohen et al. Hand rehabilitation via gesture recognition using leap motion controller
CN110794963A (zh) 基于深度相机的眼控辅助输入方法
Lee et al. Multi-modal user interaction method based on gaze tracking and gesture recognition
Liu et al. CamType: assistive text entry using gaze with an off-the-shelf webcam
Koutras et al. Estimation of eye gaze direction angles based on active appearance models
Chen et al. Gaze Gestures and Their Applications in human-computer interaction with a head-mounted display
Nowosielski et al. Touchless typing with head movements captured in thermal spectrum
Roy et al. Real time hand gesture based user friendly human computer interaction system
Huang et al. Real‐Time Precise Human‐Computer Interaction System Based on Gaze Estimation and Tracking
Jia et al. Non-trajectory-based gesture recognition in human-computer interaction based on hand skeleton data
Cao et al. Gaze tracking on any surface with your phone
Gallo et al. View-independent hand posture recognition from single depth images using PCA and Flusser moments
Jain et al. Human computer interaction–Hand gesture recognition
Abdelrazik et al. Efficient Deep Learning Algorithm for Egyptian Sign Language Recognition
Lee et al. Gaze tracking based on active appearance model and multiple support vector regression on mobile devices

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant