CN110147163B - 面向移动设备的多模型融合驱动的眼动跟踪方法和系统 - Google Patents

面向移动设备的多模型融合驱动的眼动跟踪方法和系统 Download PDF

Info

Publication number
CN110147163B
CN110147163B CN201910421173.3A CN201910421173A CN110147163B CN 110147163 B CN110147163 B CN 110147163B CN 201910421173 A CN201910421173 A CN 201910421173A CN 110147163 B CN110147163 B CN 110147163B
Authority
CN
China
Prior art keywords
model
eye movement
data
image
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910421173.3A
Other languages
English (en)
Other versions
CN110147163A (zh
Inventor
程时伟
张章伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University of Technology ZJUT
Original Assignee
Zhejiang University of Technology ZJUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University of Technology ZJUT filed Critical Zhejiang University of Technology ZJUT
Priority to CN201910421173.3A priority Critical patent/CN110147163B/zh
Publication of CN110147163A publication Critical patent/CN110147163A/zh
Application granted granted Critical
Publication of CN110147163B publication Critical patent/CN110147163B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Human Computer Interaction (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Geometry (AREA)
  • Molecular Biology (AREA)
  • Image Analysis (AREA)

Abstract

面向移动设备的多模型融合驱动的眼动跟踪方法,包括如下步骤:(1)基于外观模型的眼动特征分析;(2)基于特征模型的眼动数据映射;(3)多模型融合的眼动注视点计算。本发明还提供了面向移动设备的多模型融合驱动的眼动跟踪系统,包括依次连接并馈送数据的以下模块:基于外观模型的眼动特征分析模块;基于特征模型的眼动数据映射模块;多模型融合的眼动注视点计算模块。本发明扩展了目前移动设备上的眼动跟踪方法,提高了移动设备在复杂交互环境下的的眼动跟踪精度、计算速度和稳定性。

Description

面向移动设备的多模型融合驱动的眼动跟踪方法和系统
技术领域
本发明涉及一种眼动跟踪方法和系统。
背景技术
常用的眼动跟踪方法主要包括基于外观模型和基于特征模型两类:基于外观模型的眼动跟踪方法输入人眼外观图像,随后构建卷积神经网络作为外观模型,提取人眼图像不可解释的隐含特征,然后进行眼动注视点计算;基于特征模型的眼动跟踪方法输入明确可解释的人眼图像特征,对人眼图像进行预处理,提取图像特征,随后建立图像特征与眼动注视点之间的映射方程进行眼动注视点计算。两类方法的优缺点如下:基于外观模型的眼动跟踪方法优点在于采用了神经网络模型,计算图像特征时受环境光照影响较小,无需根据环境的变化而调整阈值参数,使用方便,但缺点在于卷积神经网络模型复杂,注视点计算精度较低,计算能力要求较高,不适合在移动设备中使用。基于特征模型的眼动跟踪方法优点在于对人眼图像提取了易于解释的特征,眼动注视点计算精度高,计算能力要求低;但缺点在于图像特征的提取对参数敏感,且受环境光照、用户头部运动等外在因素影响较大,使用不便。
在移动设备上进行眼动跟踪,实现基于移动设备的人机交互应用越来越受到人们的关注。但是,目前移动设备存在的问题包括:(1)硬件条件受限,例如CPU处理能力较弱、摄像头分辨率不高、内存容量较小;(2)使用环境较复杂,光照变化大。因此,在移动设备上实现眼动跟踪,不仅要降低计算复杂度以适应移动设备的硬件条件,同时还需要保证较高的眼动注视点计算精度,还要兼顾移动设备的便捷性和易用性,为此本发明融合外观模型与特征模型,面向移动设备提出一种新的眼动跟踪方法,利用外观模型提取稳定的图像特征,利用特征模型计算注视点。
发明内容
本发明要克服现有技术的上述缺点,提出面向移动设备的多模型融合驱动的眼动跟踪方法。
面向移动设备的多模型融合驱动的眼动跟踪方法,包括如下步骤:
(1)基于外观模型的眼动特征分析;
(2)基于特征模型的眼动数据映射;
(3)多模型融合的眼动注视点计算。
本发明还提供了面向移动设备的多模型融合驱动的眼动跟踪系统,包括依次连接并馈送数据的以下模块:
(1)基于外观模型的眼动特征分析模块;
(2)基于特征模型的眼动数据映射模块;
(3)多模型融合的眼动注视点计算模块。
本发明的优点:扩展了目前移动设备上的眼动跟踪方法,提高了移动设备在复杂交互环境下的的眼动跟踪精度、计算速度和稳定性。具体包括:
1)提高了移动设备上眼动跟踪的精确度。由于现有的方法不足,移动设备眼动跟踪系统很难兼顾移动设备便携性,注视点计算精度,模型计算复杂度等多项指标。结合外观模型特征点提取较稳定的优点和特征模型注视点计算精度较高的优点,在只利用移动设备自身硬件的条件下,提高移动设备眼动跟踪精度。
2)提高了移动设备上眼动跟踪的计算速度。外观模型仅用于学习和提取明确的图像特征,因此模型简单,计算量低,图像特征提取速度快;进一步采用特征模型计算眼动注视点,避免了传统外观模型由于大量数据训练带来的时间开销,在移动设备上实现了更快的眼动跟踪计算速度。
3)提高了移动设备上眼动跟踪的稳定性。本发明将人眼图像输入堆叠沙漏结构的神经网络,基于外观模型学习和提取明确的图像特征,无需使用传统的图像特征计算方法,避免了由于环境光照和用户头部位置变化所导致的参数调整,因此提取的图像特征更加稳定。
附图说明
图1是本发明方法的流程示意图;
图2a~图2b是本发明方法的外观模型数据集准备示意图,其中图2a表示数据样本集;图2b表示数据标签集。
图3是本发明方法的基于外观模型的眼动特征分析示意图;
图4是本发明方法的基于特征模型的眼动数据映射示意图;
图5是本发明方法的特征向量示意图;
图6是本发明方法的多模型融合的眼动注视点计算示意图;
图7是本发明系统的基本逻辑结构示意图。
具体实施方式
下面将结合附图,对本发明面向移动设备的多模型融合驱动的眼动跟踪方法进行清楚、完整地描述,显然,所描述的实例仅仅是本发明的一部分实例,而不是全部的实例,不能理解为对本发明的限制。基于本发明中的实例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实例,都属于本发明保护的范围。
参阅图1,本发明实例提出的一种面向移动设备的多模型融合眼动跟踪方法,包括下列步骤:
(1)基于外观模型的眼动特征分析;
首先进行数据集准备,利用合成的人眼图像进行缩放、灰度化、滤波等预处理操作后转化为样本集(图2a),利用附带的数据文件,提取人眼图像特征点坐标数据并转化为置信度矩阵作为标签集(图2b)。随后,如图3所示,设计二阶的堆叠沙漏网络模型,设置模型参数,进行模型的训练。神经网络的训练采用有监督的训练方式,监督学习需要的训练数据包含样本集和对应的标签集。经过预处理后的人眼图像输入模型后分为上、下两路采样方式,上半路在原尺度上进行卷积,卷积核大小为1×1,只改变输入图像的深度信息;下半路首先通过最大池化法进行降采样获取深层的特征,再通过最近插值法进行升采样,更深层特征的上下半路采样嵌套在上一层中。最后将两路采样后的特征结果由里到外逐层合并输出。经过一次沙漏网络计算,会生成和一个输入图像大小相同的置信度矩阵,参与到模型损失的计算中。接着,堆叠下一个沙漏网络重新进行上、下两路采样。在训练过程中,随着训练轮次的增加,动态地为图像样本集数据添加高斯噪声,以降低高阶特征对模型训练的影响,防止模型的过拟合。
(2)基于特征模型的眼动数据映射;
在移动设备上进行眼动跟踪时,由于环境光照复杂,以及屏幕与用户之间的距离、角度等不尽相同,会对眼动跟踪的精确性造成影响。为此,需要在眼动注视点计算之前训练映射模型,用于拟合特征向量与屏幕上注视点坐标之间的精确数量关系。映射模型的设计与训练流程如图4所示。在数据集准备阶段,用户需要标定采集数据。具体的,用户按照指示依次看向屏幕中坐标已知的圆点(即标定点),同时后台程序通过摄像头拍摄用户眼睛图像,应用外观模型分析人眼图像特征,将所提取的特征点进一步组合成眼角中心-瞳孔中心(Eye corner center-pupil center,CCPC)特征向量(如图5所示),并记录特征向量与对应的屏幕标定点的坐标。待标定过程结束,即完成了眼动数据映射模型数据集的准备。随后,建立二阶的非线性方程,该方程中含有6个未知参数,需要利用标定阶段采集数据集进行模型的训练和参数求解。本发明进一步利用自适应初始值的梯度下降算法进行模型训练,当模型的损失函数小于阈值或者迭代次数到达阈值时,模型训练结束。
(3)多模型融合的眼动注视点计算;
多模型融合的眼动注视点计算方法过程如图6所示,首先通过外观模型提取稳定的、可解释的人眼图像特征,再基于人眼图像特征建立注视点和屏幕之间的映射模型进行注视点计算。首先由移动设备自带的前置摄像头拍摄用户图像,进行基于haar特征的人脸检测与人眼图像提取;进一步,将人眼图像作为外观模型的输入,应用外观模型计算图像特征。然后选取图像特征点构建CCPC向量,作为映射模型的输入,应用映射模型计算实时注视点。
如图7所示,本发明实例提供的实施本发明的一种面向移动设备的多模型融合驱动的眼动跟踪方法的系统的基本逻辑结构示意图。为了便于说明,仅仅表示出了与本发明实例相关的部分。该系统中功能模块/单元可以是硬件模块/单元、软件模块/单元,主要包括依次连接并馈送数据的以下模块:
(1)基于外观模型的眼动特征分析模块,首先通过现有的图像数据集标注人眼的特征作为训练图像数据,然后通过图像增强方法丰富数据集和训练数据质量,接着设计堆叠沙漏结构的卷积神经网络模型,进行人眼图像特征提取。
(2)基于特征模型的眼动数据映射模块,首先在应用外观模型计算特征的基础上,进一步评估并选取合适的特征组成特征向量,采集特征向量与对应的屏幕标定点数据作为映射模型训练需要的数据集。接着,构建二阶非线性的眼动数据映射模型,拟合数据集中的特征向量与屏幕标定点坐标之间的映射关系。
(3)多模型融合的眼动注视点计算模块,首先在移动设备上进行人脸检测和人眼区域图像提取,作为外观模型的输入,提取人眼图像特征点;然后,选取特征组成特征向量,应用映射模型进行注视点计算。
本发明实例中各个模块可以集成于一体,也可以分离部署,或进一步拆分成多个子模块。各个模块可以按照实例描述分布于实例的系统中,也可以进行相应变化,放置于不同于本发明实例的一个或多个系统中。
本领域的技术人员应该明白,本发明实例可提供成为方法、系统、或计算机程序产品。
本发明实例的各模块或各步骤可以用通用的计算装置来实现,可选的,它们可以用计算装置可执行的程序代码来实现,从而可以将它们存储在存储装置中由计算装置来执行,或者将它们分别制作成各个集成电路模块,或者将它们中的多个模块或步骤制作成单个集成电路模块来实现。因此,本发明实例不限制于任何特定的硬件和软件结合。
本说明书实例所述的内容仅仅是对发明构思的实现形式的列举,本发明的保护范围不应当被视为仅限于实例所陈述的具体形式,本发明的保护范围也及于本领域技术人员根据本发明构思所能够想到的等同技术手段。

Claims (2)

1.一种面向移动设备的多模型融合眼动跟踪方法,包括下列步骤:
(1)基于外观模型的眼动特征分析;
首先进行数据集准备,利用合成的人眼图像进行缩放、灰度化、滤波等预处理操作后转化为样本集,利用附带的数据文件,提取人眼图像特征点坐标数据并转化为置信度矩阵作为标签集;随后,设计二阶的堆叠沙漏网络模型,设置模型参数,进行模型的训练;神经网络的训练采用有监督的训练方式,监督学习需要的训练数据包含样本集和对应的标签集;经过预处理后的人眼图像输入模型后分为上、下两路采样方式,上半路在原尺度上进行卷积,卷积核大小为1×1,只改变输入图像的深度信息;下半路首先通过最大池化法进行降采样获取深层的特征,再通过最近插值法进行升采样,更深层特征的上下半路采样嵌套在上一层中;最后将两路采样后的特征结果由里到外逐层合并输出;经过一次沙漏网络计算,会生成和一个输入图像大小相同的置信度矩阵,参与到模型损失的计算中;接着,堆叠下一个沙漏网络重新进行上、下两路采样;在训练过程中,随着训练轮次的增加,动态地为图像样本集数据添加高斯噪声,以降低高阶特征对模型训练的影响,防止模型的过拟合;
(2)基于特征模型的眼动数据映射;
在移动设备上进行眼动跟踪时,由于环境光照复杂,以及屏幕与用户之间的距离、角度等不尽相同,会对眼动跟踪的精确性造成影响;为此,需要在眼动注视点计算之前训练映射模型,用于拟合特征向量与屏幕上注视点坐标之间的精确数量关系;映射模型的设计与训练流程如下:在数据集准备阶段,用户需要标定采集数据;具体的,用户按照指示依次看向屏幕中坐标已知的圆点,同时后台程序通过摄像头拍摄用户眼睛图像,应用外观模型分析人眼图像特征,将所提取的特征点进一步组合成眼角中心-瞳孔中心CCPC特征向量,并记录特征向量与对应的屏幕标定点的坐标;待标定过程结束,即完成了眼动数据映射模型数据集的准备;随后,建立二阶的非线性方程,该方程中含有6个未知参数,需要利用标定阶段采集数据集进行模型的训练和参数求解;进一步利用自适应初始值的梯度下降算法进行模型训练,当模型的损失函数小于阈值或者迭代次数到达阈值时,模型训练结束;
(3)多模型融合的眼动注视点计算;
多模型融合的眼动注视点计算,首先通过外观模型提取稳定的、可解释的人眼图像特征,再基于人眼图像特征建立注视点和屏幕之间的映射模型进行注视点计算;首先由移动设备自带的前置摄像头拍摄用户图像,进行基于haar特征的人脸检测与人眼图像提取;将人眼图像作为外观模型的输入,应用外观模型计算图像特征;然后选取图像特征点构建CCPC向量,作为映射模型的输入,应用映射模型计算实时注视点。
2.实施权利要求1所述的一种面向移动设备的多模型融合驱动的眼动跟踪方法的系统,其特征在于:包括依次连接并馈送数据的以下模块:
(1)基于外观模型的眼动特征分析模块,首先通过现有的图像数据集标注人眼的特征作为训练图像数据,然后通过图像增强方法丰富数据集和训练数据质量,接着设计堆叠沙漏结构的卷积神经网络模型,进行人眼图像特征提取;
(2)基于特征模型的眼动数据映射模块,首先在应用外观模型计算特征的基础上,进一步评估并选取合适的特征组成特征向量,采集特征向量与对应的屏幕标定点数据作为映射模型训练需要的数据集;接着,构建二阶非线性的眼动数据映射模型,拟合数据集中的特征向量与屏幕标定点坐标之间的映射关系;
(3)多模型融合的眼动注视点计算模块,首先在移动设备上进行人脸检测和人眼区域图像提取,作为外观模型的输入,提取人眼图像特征点;然后,选取特征组成特征向量,应用映射模型进行注视点计算。
CN201910421173.3A 2019-05-20 2019-05-20 面向移动设备的多模型融合驱动的眼动跟踪方法和系统 Active CN110147163B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910421173.3A CN110147163B (zh) 2019-05-20 2019-05-20 面向移动设备的多模型融合驱动的眼动跟踪方法和系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910421173.3A CN110147163B (zh) 2019-05-20 2019-05-20 面向移动设备的多模型融合驱动的眼动跟踪方法和系统

Publications (2)

Publication Number Publication Date
CN110147163A CN110147163A (zh) 2019-08-20
CN110147163B true CN110147163B (zh) 2022-06-21

Family

ID=67592397

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910421173.3A Active CN110147163B (zh) 2019-05-20 2019-05-20 面向移动设备的多模型融合驱动的眼动跟踪方法和系统

Country Status (1)

Country Link
CN (1) CN110147163B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111176447A (zh) * 2019-12-25 2020-05-19 中国人民解放军军事科学院国防科技创新研究院 一种融合深度网络和几何模型的增强现实眼动交互方法
CN111429316A (zh) * 2020-03-23 2020-07-17 宁波视科物电科技有限公司 一种基于增强现实眼镜的在线学习专注力检测系统及方法
CN111311995A (zh) * 2020-03-23 2020-06-19 宁波视科物电科技有限公司 一种基于增强现实技术的远程教学系统及教学方法
CN112380937B (zh) * 2020-11-04 2024-02-13 浙江工业大学 移动端眼动跟踪驱动的智慧课堂教学可视分析方法和系统
CN113900519A (zh) * 2021-09-30 2022-01-07 Oppo广东移动通信有限公司 注视点获取方法、装置以及电子设备

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102930252A (zh) * 2012-10-26 2013-02-13 广东百泰科技有限公司 一种基于神经网络头部运动补偿的视线跟踪方法
CN106909220A (zh) * 2017-02-21 2017-06-30 山东师范大学 一种适用于触控的视线交互方法
CN108171218A (zh) * 2018-01-29 2018-06-15 深圳市唯特视科技有限公司 一种基于深度外观注视网络的视线估计方法
CN108921059A (zh) * 2018-06-19 2018-11-30 武汉科技大学 一种基于Haar分类器的眼动跟踪方法
CN108985210A (zh) * 2018-07-06 2018-12-11 常州大学 一种基于人眼几何特征的视线追踪方法及系统
CN109359512A (zh) * 2018-08-28 2019-02-19 深圳壹账通智能科技有限公司 眼球位置追踪方法、装置、终端及计算机可读存储介质
CN109407828A (zh) * 2018-09-11 2019-03-01 上海科技大学 一种凝视点估计方法及系统、存储介质及终端
CN109583338A (zh) * 2018-11-19 2019-04-05 山东派蒙机电技术有限公司 基于深度融合神经网络的驾驶员视觉分散检测方法
CN109598207A (zh) * 2018-11-14 2019-04-09 华南理工大学 一种基于卷积神经网络的快速人眼跟踪方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10846877B2 (en) * 2016-06-28 2020-11-24 Google Llc Eye gaze tracking using neural networks

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102930252A (zh) * 2012-10-26 2013-02-13 广东百泰科技有限公司 一种基于神经网络头部运动补偿的视线跟踪方法
CN106909220A (zh) * 2017-02-21 2017-06-30 山东师范大学 一种适用于触控的视线交互方法
CN108171218A (zh) * 2018-01-29 2018-06-15 深圳市唯特视科技有限公司 一种基于深度外观注视网络的视线估计方法
CN108921059A (zh) * 2018-06-19 2018-11-30 武汉科技大学 一种基于Haar分类器的眼动跟踪方法
CN108985210A (zh) * 2018-07-06 2018-12-11 常州大学 一种基于人眼几何特征的视线追踪方法及系统
CN109359512A (zh) * 2018-08-28 2019-02-19 深圳壹账通智能科技有限公司 眼球位置追踪方法、装置、终端及计算机可读存储介质
CN109407828A (zh) * 2018-09-11 2019-03-01 上海科技大学 一种凝视点估计方法及系统、存储介质及终端
CN109598207A (zh) * 2018-11-14 2019-04-09 华南理工大学 一种基于卷积神经网络的快速人眼跟踪方法
CN109583338A (zh) * 2018-11-19 2019-04-05 山东派蒙机电技术有限公司 基于深度融合神经网络的驾驶员视觉分散检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
移动设备眼动跟踪技术;程时伟;《浙江大学学报》;20160630;第50卷(第6期);1160-1166 *

Also Published As

Publication number Publication date
CN110147163A (zh) 2019-08-20

Similar Documents

Publication Publication Date Title
CN110147163B (zh) 面向移动设备的多模型融合驱动的眼动跟踪方法和系统
Kang et al. Real-time sign language fingerspelling recognition using convolutional neural networks from depth map
CN111160375B (zh) 三维关键点预测及深度学习模型训练方法、装置及设备
CN111179419B (zh) 三维关键点预测及深度学习模型训练方法、装置及设备
CN111160269A (zh) 一种人脸关键点检测方法及装置
CN104657776B (zh) 神经网络系统、基于神经网络系统的图像解析方法和装置
CN107609519A (zh) 一种人脸特征点的定位方法及装置
CN111401318B (zh) 动作识别方法及装置
CN111062328B (zh) 一种图像处理方法、装置及智能机器人
KR101955919B1 (ko) 딥러닝 기반의 영상데이터 내 관심영역 설정방법 및 프로그램
CN106462572A (zh) 用于分布式光学字符识别和分布式机器语言翻译的技术
CN110070029A (zh) 一种步态识别方法及装置
CN111507184B (zh) 基于并联空洞卷积和身体结构约束的人体姿态检测方法
CN109325408A (zh) 一种手势判断方法及存储介质
CN110968734A (zh) 一种基于深度度量学习的行人重识别方法及装置
CN112487844A (zh) 手势识别方法、电子设备、计算机可读存储介质和芯片
CN108229432A (zh) 人脸标定方法及装置
CN111444850A (zh) 一种图片检测的方法和相关装置
CN114005149A (zh) 一种目标角度检测模型的训练方法及装置
WO2015176502A1 (zh) 一种图像特征的估计方法和设备
CN108875500A (zh) 行人再识别方法、装置、系统及存储介质
KR20210054349A (ko) 환자의 상지 동작에 의해 도출되는 특징값을 이용한 임상평가척도 예측 방법
CN114359892A (zh) 三维目标检测方法、装置及计算机可读存储介质
CN108875501A (zh) 人体属性识别方法、装置、系统及存储介质
Marjusalinah et al. Classification of finger spelling American sign language using convolutional neural network

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant